Avanços em inteligência artificial prometem revolucionar o transporte, mas novas pesquisas expõem um ponto fraco preocupante.
Pesquisadores descobriram que carros e drones autônomos, equipados com modelos avançados de visão e linguagem como o GPT-4o, podem ser facilmente enganados por comandos ilegais escritos em placas físicas.
Essa falha de segurança permite que os sistemas de IA interpretem instruções maliciosas como ordens válidas, potencialmente levando a comportamentos perigosos e não intencionais. A vulnerabilidade foi demonstrada em diversos idiomas, incluindo inglês, espanhol e chinês.
O estudo, divulgado pelo The Register, levanta sérias questões sobre a confiabilidade dos sistemas autônomos em cenários do mundo real. Conforme a pesquisa, um carro autônomo poderia ser instruído a avançar sobre uma faixa de pedestres ocupada, ou um drone a pousar em local indevido, simplesmente pela presença de uma placa com um comando específico.
Vulnerabilidade Crítica em Testes de Simulação e Mundo Real
Em ambientes simulados, o sistema DriveLM, utilizado em testes com carros autônomos, foi enganado em impressionantes 81,8% dos casos. Isso resultou em decisões perigosas, mesmo quando pedestres estavam claramente visíveis para o sistema.
Os experimentos no mundo real foram ainda mais reveladores. Carrinhos controlados remotamente, equipados com câmeras conectadas a modelos de visão e linguagem, foram o foco dos testes. Quando placas estavam fixas no chão, o GPT-4o foi enganado em 92,5% das tentativas.
A taxa de sucesso do ataque diminuiu ligeiramente para 87,76% quando as placas estavam presas a outros carrinhos em movimento, sugerindo que a dinâmica do ambiente pode influenciar a eficácia do ataque, mas sem eliminar o risco.
Resistência Variável entre Modelos de IA
É importante notar que nem todos os modelos apresentaram a mesma fragilidade. O modelo InternVL demonstrou uma maior resistência a esse tipo de manipulação, embora ainda tenha sido enganado em aproximadamente metade das tentativas, indicando que a segurança pode variar significativamente entre diferentes arquiteturas de IA.
Essa descoberta é crucial para o desenvolvimento futuro de veículos autônomos e drones. A capacidade de um sistema de IA ser levado a executar comandos ilegais através de um método tão aparentemente simples como placas físicas representa um desafio de segurança significativo.
Implicações para a Segurança de Veículos Autônomos
A pesquisa destaca a necessidade de robustecer os mecanismos de segurança em sistemas de IA que controlam veículos e drones. A interpretação de sinais visuais, especialmente aqueles que podem ser facilmente manipulados, é um ponto crítico que requer atenção.
Os desenvolvedores precisam considerar não apenas a capacidade de ler placas, mas também de discernir a legitimidade e a segurança das instruções apresentadas, especialmente em ambientes onde a manipulação visual é uma possibilidade. A segurança dos passageiros e do público em geral depende da capacidade desses sistemas de resistir a tais ataques.
A pesquisa sugere que a validação de comandos, a verificação cruzada de informações visuais com outros sensores e a implementação de salvaguardas contra instruções manifestamente perigosas são passos essenciais para garantir a operação segura de tecnologias autônomas.

Café Codificado é um portal dinâmico e confiável criado especialmente para desenvolvedores. Nosso foco é entregar:
Dicas práticas para programação, produtividade, frameworks, testes, DevOps e muito mais;
Notícias atualizadas, acompanhando tendências e lançamentos do mundo da tecnologia, compiladas com relevância e sem jargões desnecessários.
O que você encontra aqui:
Artigos objetivos e comandáveis — Tutoriais, tutoriais passo-a-passo e dicas que vão direto ao ponto.
Cobertura das tecnologias que estão em alta — do universo da IA, computação em nuvem e segurança à engenharia de software e criatividade em código.
Conteúdo para todos os níveis — de iniciantes buscando praticidade, a profissionais em busca de insights estratégicos e aperfeiçoamento.
Comunidade ativa — textos humanizados, perguntinhas instigantes e espaço para você contribuir com reflexões e comentários.