Categories: AMEAÇAS ATUAIS

O ataque GhostStripe assombra carros autônomos, fazendo-os ignorar os sinais de trânsito

Seis especialistas vindos, em sua maioria, de universidades de Cingapura dizem que podem provar que é possível interferir em veículos autônomos, explorando a dependência das máquinas na visão computacional baseada em câmeras e fazendo com que não reconheçam os sinais de trânsito.

A técnica, apelidada de GhostStripe [PDF] em um artigo a ser apresentado na Conferência Internacional ACM sobre Sistemas Móveis no próximo mês, é indetectável ao olho humano, mas pode ser mortal para os motoristas Tesla e Baidu Apollo, pois explora os sensores empregados por ambos. marcas – especificamente sensores de câmera CMOS.

Basicamente, envolve o uso de LEDs para iluminar padrões de luz nos sinais de trânsito, de modo que o software de direção autônoma dos carros não consiga compreender os sinais; é um ataque adversário clássico a software de aprendizado de máquina.

Crucialmente, ele abusa do obturador digital dos sensores típicos de câmeras CMOS. Os LEDs piscam rapidamente em cores diferentes no sinal à medida que a linha de captura ativa desce pelo sensor. Por exemplo, o tom de vermelho em um sinal de pare pode parecer diferente em cada linha de varredura do carro devido à iluminação artificial.

A ilustração do artigo GhostStripe do ataque adversário ‘invisível’ contra o reconhecimento de sinais de trânsito de um carro autônomo

O resultado é uma câmera capturando uma imagem cheia de linhas que não combinam entre si como esperado. A imagem é recortada e enviada para um classificador dentro do software de direção autônoma do carro, que geralmente é baseado em redes neurais profundas, para interpretação. Como o snap está cheio de linhas que não parecem corretas, o classificador não reconhece a imagem como um sinal de trânsito e, portanto, o veículo não atua sobre ela.

Até agora, tudo isso já foi demonstrado antes.

No entanto, estes investigadores não só distorceram a aparência do sinal conforme descrito, como disseram que foram capazes de o fazer repetidamente de uma forma estável. Em vez de tentar confundir o classificador com um único quadro distorcido, a equipe conseguiu garantir que cada quadro capturado pelas câmeras parecesse estranho, tornando a técnica de ataque prática no mundo real.

“Um ataque estável… precisa controlar cuidadosamente a oscilação do LED com base nas informações sobre as operações da câmera da vítima e na estimativa em tempo real da posição e tamanho do sinal de trânsito no [campo de visão] da câmera”, explicaram os pesquisadores.

A equipe desenvolveu duas versões deste ataque estabilizado. O primeiro foi o GhostStripe1, que não requer acesso ao veículo, segundo nos disseram. Ele emprega um sistema de rastreamento para monitorar a localização do veículo alvo em tempo real e ajusta dinamicamente a oscilação do LED de acordo para garantir que um sinal não seja lido corretamente.

GhostStripe2 é direcionado e requer acesso ao veículo, o que talvez possa ser feito secretamente por um malfeitor enquanto o veículo está em manutenção. Envolve colocar um transdutor no fio de alimentação da câmera para detectar momentos de enquadramento e refinar o controle de tempo para realizar um ataque perfeito ou quase perfeito.

“Portanto, ele tem como alvo um veículo específico da vítima e controla os resultados de reconhecimento dos sinais de trânsito da vítima”, escreveram os acadêmicos.

A equipe testou seu sistema em uma estrada real e em um carro equipado com uma Leopard Imaging AR023ZWDR, a câmera usada no design de referência de hardware do Baidu Apollo. Eles testaram a configuração em sinais de parada, rendimento e limite de velocidade.

GhostStripe1 apresentou uma taxa de sucesso de 94% e GhostStripe2 uma taxa de sucesso de 97%, afirmam os pesquisadores.

Uma coisa digna de nota foi que a forte luz ambiente diminuiu o desempenho do ataque. “Essa degradação ocorre porque a luz de ataque é superada pela luz ambiente”, disse a equipe. Isso sugere que os malfeitores precisariam considerar cuidadosamente a hora e o local ao planejar um ataque.

Contramedidas estão disponíveis. Mais simplesmente, a câmera CMOS do obturador poderia ser substituída por um sensor que tira uma foto inteira de uma vez ou a varredura da linha poderia ser aleatória. Além disso, mais câmeras podem diminuir a taxa de sucesso ou exigir um hack mais complicado, ou o ataque pode ser incluído no treinamento de IA para que o sistema aprenda como lidar com ele.

O estudo se junta a outros que usaram informações adversárias para enganar as redes neurais de veículos autônomos, incluindo um que forçou um Tesla Model S a desviar de faixa .

A pesquisa indica que ainda há muitas questões de segurança de veículos autônomos e de IA a serem respondidas. O Register pediu ao Baidu que comentasse sobre seu sistema de câmera Apollo e apresentará um relatório caso uma resposta substancial se concretize. ®

Ninja

Na cena de cybersecurity a mais de 25 anos, Ninja trabalha como evangelizador de segurança da informação no Brasil. Preocupado com a conscientização de segurança cibernética, a ideia inicial é conseguir expor um pouco para o publico Brasileiro do que acontece no mundo.

Share
Published by
Ninja

Recent Posts

Escritórios do governo na Carolina do Norte, Geórgia, sofrem ataques cibernéticos

Uma cidade na Carolina do Norte e um escritório de advogados distritais cobrindo quatro condados…

1 mês ago

Nytheon AI Tool está ganhando tração em forums de Hacking

O surgimento da Nytheon AI marca uma escalada significativa no cenário das plataformas (LLM) de…

1 mês ago

Nova Vulnerabilidade 0day de Injection no Salesforce SOQL Expõe Milhões de Implantações

Um pesquisador de segurança revelou uma vulnerabilidade crítica de injeção de SOQL no controlador interno…

2 meses ago

Vulnerabilidade crítica no servidor MCP do GitHub permite acesso não autorizado a repositórios privados

Falha permite que invasores manipulem o agente de um usuário por meio de um problema…

2 meses ago

Suposto 0-Day da Fortinet está à venda em cantos obscuros da web

Um exploit de dia zero, dirigido aos firewalls FortiGate da Fortinet, foi descoberto à venda…

3 meses ago

Pesquisadores descobrem a família de malware Shelby que abusa do GitHub para comando e controle

A família SHELBY mostra um exemplo preocupante de malware moderno com design modular, sofisticado e…

4 meses ago