Categories: NOTÍCIAS EM GERAL

Carros autônomos podem ser enganados por objetos virtuais

Um grupo de pesquisadores da Universidade Ben-Gurion do Negev demonstrou que é possível enganar carros autônomos exibindo objetos virtuais (fantasmas).

Os especialistas definem como fantasma um objeto visual sem profundidade usado para enganar ADASs e fazer com que esses sistemas o percebam como real. Um objeto fantasma pode ser criado por invasores usando um projetor ou apresentado por meio de uma tela digital (por exemplo, outdoor).

Boffins testou dois sistemas comerciais avançados de assistência ao motorista (ADASs) pertencentes ao Tesla X (versões HW2.5 e HW 3.0) e Mobileye 630, eles foram capazes de enganar esses sistemas exibindo objetos virtuais “fantasmas” na frente dos 2 veículos.

Os pesquisadores conseguiram simular a presença de objetos virtuais, como placas virtuais de trânsito, juntamente com a imagem de um pedestre exibida por meio de um projetor ou outdoor digital, em frente aos carros autônomos que os interpretam como reais. Em testes conduzidos pelos pesquisadores, o objeto sem profundidade é feito a partir de uma imagem de um objeto 3D (por exemplo, pedestre, carro, caminhão, motocicleta, sinal de trânsito). 

“Demonstramos como os invasores podem aplicar ataques fantasmas de fração de segundo remotamente incorporando sinais de trânsito fantasma em um anúncio apresentado em um outdoor digital que faz com que o piloto automático do Tesla pare repentinamente o carro no meio de uma estrada e o Mobileye 630 emita notificações falsas.” lê a postagem publicada pelos pesquisadores. “Também demonstramos como os invasores podem usar um projetor para fazer com que o piloto automático de Tesla aplique os freios em resposta a um fantasma de um pedestre que foi projetado na estrada e Mobileye 630 para emitir notificações falsas em resposta a um sinal de trânsito projetado.”

Os especialistas também testaram ataques fantasmas de fração de segundo que usam um fantasma que aparece por alguns milissegundos e é tratado como um objeto / obstáculo real por um ADAS.

Abaixo da duração mínima que um fantasma precisa aparecer para enganar o ADAS.

Os carros que dirigem sozinhos podem ser enganados exibindo objetos virtuais; em um cenário do mundo real, esse ataque pode resultar em acidentes e congestionamentos.

Os objetos virtuais acionaram uma resposta dos sistemas ADAS, no caso do Tesla, o veículo parou em 0,42 segundos, enquanto o Mobileye 360 ​​parou em 0,125 segundos.

Os pesquisadores também propuseram contra-medidas, batizadas de GhostBusters, para evitar esse ataque, como o uso do sensor da câmera. A medida GhostBusters implementa uma abordagem de “comitê de especialistas” e combina os resultados obtidos a partir de quatro redes neurais convolucionais profundas e leves que permitem analisar cada objeto com base em sua luz, contexto, superfície e profundidade.

“Demonstramos a eficácia de nossa contramedida (ela obtém um TPR de 0,994 com um FPR de zero) e testamos sua robustez para ataques de aprendizado de máquina adversários.” continua a postagem.

Ao contrário de outros ataques contra carros autônomos planejados por outras equipes de especialistas, esse ataque requer menos experiência e menos recursos.

Fonte: https://securityaffairs.co/wordpress/109697/hacking/self-driving-cars-hacking.html

Ninja

Na cena de cybersecurity a mais de 25 anos, Ninja trabalha como evangelizador de segurança da informação no Brasil. Preocupado com a conscientização de segurança cibernética, a ideia inicial é conseguir expor um pouco para o publico Brasileiro do que acontece no mundo.

Share
Published by
Ninja

Recent Posts

Vulnerabilidade crítica no servidor MCP do GitHub permite acesso não autorizado a repositórios privados

Falha permite que invasores manipulem o agente de um usuário por meio de um problema…

2 semanas ago

Suposto 0-Day da Fortinet está à venda em cantos obscuros da web

Um exploit de dia zero, dirigido aos firewalls FortiGate da Fortinet, foi descoberto à venda…

2 meses ago

Pesquisadores descobrem a família de malware Shelby que abusa do GitHub para comando e controle

A família SHELBY mostra um exemplo preocupante de malware moderno com design modular, sofisticado e…

2 meses ago

Hackers abusam de plugins MU do WordPress para esconder código malicioso

Hackers estão explorando o diretório mu-plugins do WordPress para injetar códigos maliciosos que não aparecem…

2 meses ago

Google lança duas novas ferramentas de IA para detectar golpes conversacionais em dispositivos Android

O Google implementou uma nova funcionalidade de "Detecção de Golpes" com inteligência artificial no aplicativo…

3 meses ago

APT28 aprimora técnicas de ofuscação com trojans HTA avançados

O grupo APT28, ligado à Rússia, está utilizando técnicas avançadas de ofuscação em seus ataques…

3 meses ago