Seis especialistas vindos, em sua maioria, de universidades de Cingapura dizem que podem provar que é possível interferir em veículos autônomos, explorando a dependência das máquinas na visão computacional baseada em câmeras e fazendo com que não reconheçam os sinais de trânsito.
A técnica, apelidada de GhostStripe [PDF] em um artigo a ser apresentado na Conferência Internacional ACM sobre Sistemas Móveis no próximo mês, é indetectável ao olho humano, mas pode ser mortal para os motoristas Tesla e Baidu Apollo, pois explora os sensores empregados por ambos. marcas – especificamente sensores de câmera CMOS.
Basicamente, envolve o uso de LEDs para iluminar padrões de luz nos sinais de trânsito, de modo que o software de direção autônoma dos carros não consiga compreender os sinais; é um ataque adversário clássico a software de aprendizado de máquina.
Crucialmente, ele abusa do obturador digital dos sensores típicos de câmeras CMOS. Os LEDs piscam rapidamente em cores diferentes no sinal à medida que a linha de captura ativa desce pelo sensor. Por exemplo, o tom de vermelho em um sinal de pare pode parecer diferente em cada linha de varredura do carro devido à iluminação artificial.
A ilustração do artigo GhostStripe do ataque adversário ‘invisível’ contra o reconhecimento de sinais de trânsito de um carro autônomo
O resultado é uma câmera capturando uma imagem cheia de linhas que não combinam entre si como esperado. A imagem é recortada e enviada para um classificador dentro do software de direção autônoma do carro, que geralmente é baseado em redes neurais profundas, para interpretação. Como o snap está cheio de linhas que não parecem corretas, o classificador não reconhece a imagem como um sinal de trânsito e, portanto, o veículo não atua sobre ela.
Até agora, tudo isso já foi demonstrado antes.
No entanto, estes investigadores não só distorceram a aparência do sinal conforme descrito, como disseram que foram capazes de o fazer repetidamente de uma forma estável. Em vez de tentar confundir o classificador com um único quadro distorcido, a equipe conseguiu garantir que cada quadro capturado pelas câmeras parecesse estranho, tornando a técnica de ataque prática no mundo real.
“Um ataque estável… precisa controlar cuidadosamente a oscilação do LED com base nas informações sobre as operações da câmera da vítima e na estimativa em tempo real da posição e tamanho do sinal de trânsito no [campo de visão] da câmera”, explicaram os pesquisadores.
A equipe desenvolveu duas versões deste ataque estabilizado. O primeiro foi o GhostStripe1, que não requer acesso ao veículo, segundo nos disseram. Ele emprega um sistema de rastreamento para monitorar a localização do veículo alvo em tempo real e ajusta dinamicamente a oscilação do LED de acordo para garantir que um sinal não seja lido corretamente.
GhostStripe2 é direcionado e requer acesso ao veículo, o que talvez possa ser feito secretamente por um malfeitor enquanto o veículo está em manutenção. Envolve colocar um transdutor no fio de alimentação da câmera para detectar momentos de enquadramento e refinar o controle de tempo para realizar um ataque perfeito ou quase perfeito.
“Portanto, ele tem como alvo um veículo específico da vítima e controla os resultados de reconhecimento dos sinais de trânsito da vítima”, escreveram os acadêmicos.
A equipe testou seu sistema em uma estrada real e em um carro equipado com uma Leopard Imaging AR023ZWDR, a câmera usada no design de referência de hardware do Baidu Apollo. Eles testaram a configuração em sinais de parada, rendimento e limite de velocidade.
GhostStripe1 apresentou uma taxa de sucesso de 94% e GhostStripe2 uma taxa de sucesso de 97%, afirmam os pesquisadores.
Uma coisa digna de nota foi que a forte luz ambiente diminuiu o desempenho do ataque. “Essa degradação ocorre porque a luz de ataque é superada pela luz ambiente”, disse a equipe. Isso sugere que os malfeitores precisariam considerar cuidadosamente a hora e o local ao planejar um ataque.
Contramedidas estão disponíveis. Mais simplesmente, a câmera CMOS do obturador poderia ser substituída por um sensor que tira uma foto inteira de uma vez ou a varredura da linha poderia ser aleatória. Além disso, mais câmeras podem diminuir a taxa de sucesso ou exigir um hack mais complicado, ou o ataque pode ser incluído no treinamento de IA para que o sistema aprenda como lidar com ele.
O estudo se junta a outros que usaram informações adversárias para enganar as redes neurais de veículos autônomos, incluindo um que forçou um Tesla Model S a desviar de faixa .
A pesquisa indica que ainda há muitas questões de segurança de veículos autônomos e de IA a serem respondidas. O Register pediu ao Baidu que comentasse sobre seu sistema de câmera Apollo e apresentará um relatório caso uma resposta substancial se concretize. ®
Uma cidade na Carolina do Norte e um escritório de advogados distritais cobrindo quatro condados…
O surgimento da Nytheon AI marca uma escalada significativa no cenário das plataformas (LLM) de…
Um pesquisador de segurança revelou uma vulnerabilidade crítica de injeção de SOQL no controlador interno…
Falha permite que invasores manipulem o agente de um usuário por meio de um problema…
Um exploit de dia zero, dirigido aos firewalls FortiGate da Fortinet, foi descoberto à venda…
A família SHELBY mostra um exemplo preocupante de malware moderno com design modular, sofisticado e…