Categories: NOTÍCIAS EM GERAL

Carros autônomos podem ser enganados por objetos virtuais

Um grupo de pesquisadores da Universidade Ben-Gurion do Negev demonstrou que é possível enganar carros autônomos exibindo objetos virtuais (fantasmas).

Os especialistas definem como fantasma um objeto visual sem profundidade usado para enganar ADASs e fazer com que esses sistemas o percebam como real. Um objeto fantasma pode ser criado por invasores usando um projetor ou apresentado por meio de uma tela digital (por exemplo, outdoor).

Boffins testou dois sistemas comerciais avançados de assistência ao motorista (ADASs) pertencentes ao Tesla X (versões HW2.5 e HW 3.0) e Mobileye 630, eles foram capazes de enganar esses sistemas exibindo objetos virtuais “fantasmas” na frente dos 2 veículos.

Os pesquisadores conseguiram simular a presença de objetos virtuais, como placas virtuais de trânsito, juntamente com a imagem de um pedestre exibida por meio de um projetor ou outdoor digital, em frente aos carros autônomos que os interpretam como reais. Em testes conduzidos pelos pesquisadores, o objeto sem profundidade é feito a partir de uma imagem de um objeto 3D (por exemplo, pedestre, carro, caminhão, motocicleta, sinal de trânsito). 

“Demonstramos como os invasores podem aplicar ataques fantasmas de fração de segundo remotamente incorporando sinais de trânsito fantasma em um anúncio apresentado em um outdoor digital que faz com que o piloto automático do Tesla pare repentinamente o carro no meio de uma estrada e o Mobileye 630 emita notificações falsas.” lê a postagem publicada pelos pesquisadores. “Também demonstramos como os invasores podem usar um projetor para fazer com que o piloto automático de Tesla aplique os freios em resposta a um fantasma de um pedestre que foi projetado na estrada e Mobileye 630 para emitir notificações falsas em resposta a um sinal de trânsito projetado.”

Os especialistas também testaram ataques fantasmas de fração de segundo que usam um fantasma que aparece por alguns milissegundos e é tratado como um objeto / obstáculo real por um ADAS.

Abaixo da duração mínima que um fantasma precisa aparecer para enganar o ADAS.

Os carros que dirigem sozinhos podem ser enganados exibindo objetos virtuais; em um cenário do mundo real, esse ataque pode resultar em acidentes e congestionamentos.

Os objetos virtuais acionaram uma resposta dos sistemas ADAS, no caso do Tesla, o veículo parou em 0,42 segundos, enquanto o Mobileye 360 ​​parou em 0,125 segundos.

Os pesquisadores também propuseram contra-medidas, batizadas de GhostBusters, para evitar esse ataque, como o uso do sensor da câmera. A medida GhostBusters implementa uma abordagem de “comitê de especialistas” e combina os resultados obtidos a partir de quatro redes neurais convolucionais profundas e leves que permitem analisar cada objeto com base em sua luz, contexto, superfície e profundidade.

“Demonstramos a eficácia de nossa contramedida (ela obtém um TPR de 0,994 com um FPR de zero) e testamos sua robustez para ataques de aprendizado de máquina adversários.” continua a postagem.

Ao contrário de outros ataques contra carros autônomos planejados por outras equipes de especialistas, esse ataque requer menos experiência e menos recursos.

Fonte: https://securityaffairs.co/wordpress/109697/hacking/self-driving-cars-hacking.html

Ninja

Na cena de cybersecurity a mais de 25 anos, Ninja trabalha como evangelizador de segurança da informação no Brasil. Preocupado com a conscientização de segurança cibernética, a ideia inicial é conseguir expor um pouco para o publico Brasileiro do que acontece no mundo.

Share
Published by
Ninja

Recent Posts

Cisco corrige zero-day no IOS/IOS XE

CVE-2025-20352 no SNMP do IOS/IOS XE permite DoS e até execução como root; aplique os…

3 semanas ago

Instalador falso do AnyDesk espalha o MetaStealer por meio do golpe ClickFix

Um novo e inteligente golpe do ClickFix está usando um instalador falso do AnyDesk e…

1 mês ago

Atores de ameaças abusam da IA ​​Grok do X para espalhar links maliciosos

Pesquisadores descobriram que agentes de ameaças exploram o Grok, IA integrada ao X (antigo Twitter),…

1 mês ago

WinRAR 0day: Explorações em andamento

As explorações permitem backdooring persistente quando os alvos abrem arquivos armadilhados.

2 meses ago

Escritórios do governo na Carolina do Norte, Geórgia, sofrem ataques cibernéticos

Uma cidade na Carolina do Norte e um escritório de advogados distritais cobrindo quatro condados…

4 meses ago

Nytheon AI Tool está ganhando tração em forums de Hacking

O surgimento da Nytheon AI marca uma escalada significativa no cenário das plataformas (LLM) de…

4 meses ago