Menu
Editorias

Imagens 'fantasma' podem causar acidentes com carros autônomos; entenda

Uber autônomo (Reprodução)
Compartilhe com seus seguidores

Especialistas em segurança digital de Israel inseriram imagens de faróis vermelhos em um outdoor digital, fazendo com que carros sem motorista acionassem os freios: prática pode causar acidentes

Desde que os carros autônomos entraram em fase de testes, uma das principais preocupações dos especialistas é como proteger o veículo de tentativas de invasão por parte de hackers. O problema é que, segundo um teste executado por pesquisadores de segurança digital de Israel, você não precisa hackear "o carro" para fazê-lo apresentar problemas.


De acordo com pesquisadores da Universidade Ben Gurion, automóveis sem motoristas foram forçados a frear bruscamente após um teste envolvendo a imagem de um farol vermelho ser exibida em um outdoor digital - uma prática que, disseram os especialistas à Wired, poderia trazer não apenas engarrafamentos, mas também acidentes graves.

Um Model X, da Tesla: veículo que conta com sistema de direção autônoma foi enganado por pesquisadores de segurança em Israel. Foto: Matthew Lamb, CC-BY-SA 2.0

?O invasor só precisa mostrar a imagem de algo na pista ou inserir alguns quadros em um outdoor digital, e o carro vai acionar os freios ou, possivelmente, desviar, e isso é perigoso?, disse Yisroel Mirsky, um dos especialistas envolvidos no teste. ?O piloto ou passageiro não vai nem perceber. Então o carro de alguém vai simplesmente reagir, e as pessoas não vão entender o motivo?.

O objetivo inicial do estudo era o de inserir imagens na pista para fazer com que carros autônomos reagissem com uma ação indevida. Entretanto, conforme o teste evoluía, eles perceberam que seria mais conveniente acessar (ou invadir) um outdoor digital e reproduzir uma imagem de um farol vermelho com um ou dois segundos. No teste, eles conseguiram enganar um automóvel autônomo da Tesla que rodava a versão mais recente do software de direção autônoma da marca, o Autopilot.

O problema é que esse tipo de ataque, se feito em condições reais e por pessoas maliciosas, traria consequências graves, mas deixaria pouco no que tange ao rastro dos eventuais culpados: ?Outros métodos deixam evidências forenses e exigem uma preparação mais complicada?, disse outro pesquisador da universidade, Ben Nassi. ?Ataques fantasma como esse podem ser feitos remotamente, e não exigem nenhum tipo de conhecimento técnico?.

Fonte: Wired

Segurança Hackers Trânsito Carros conectados Invasão Tesla carros autônomos carros e tecnologia cibersegurança cybersegurança falha de segurança segurança cibernética carro autônomo Tesla Model X
Curtiu esse conteúdo? Assine nossas newsletters e fique por dentro do que acontece em primeira mão!
Compartilhe com seus seguidores
Assine nossa newsletter!
Parabéns! Sua assinatura foi recebida com sucesso!
Atenção: Em instantes você receberá um email de confirmação da assinatura. Para efetivá-la, clique no link de confirmação que você receberá. Verifique também sua caixa de SPAM, pois por se tratar de um email automático, seu servidor de emails poderá identificar incorretamente a mensagem como não solicitada.