Автопилот Tesla "взломали": автомобиль выехал на встречную полосу

Автопилот Tesla "взломали": автомобиль выехал на встречную полосу

Небольшой рисунок на асфальте способен обмануть автопилот Tesla.

Издание  Naked-science пишет, что до этого компьютерную систему автомобиля Tesla дважды взламывала через Wi-Fi группа китайских хакеров из компании Keen Security Lab. В 2017 году специалистам удалось в третий раз обмануть программное обеспечение машины, но уже без Wi-Fi.

До этого представители Tesla объявили, что готовы подарить Model 3 тому, кто взломает компьютерную систему автомобиля. Группа китайских хакеров из компании Keen Security Lab сделала это дважды. В 2016 году они удаленно взломали Model S через Wi-Fi. Похожую операцию они проделали в 2017-м. Теперь специалистам удалось в третий раз обмануть программное обеспечение машины, но уже без помощи Wi-Fi.

 Они сосредоточились на способности автопилота распознавать дорожные полосы. По их словам, в Tesla добавили программе возможность регистрировать «аномальные полосы», то есть те, на которых частично стерлась разметка. Эта же особенность привела к возникновению уязвимости.

 

Сначала сотрудники компании разместили на основной линии, разделяющей две полосы, специальные «пластыри», которые размывали рисунок. Авторы отчета считают, что такую технологию вряд ли будут использовать в реальности, но они не могли исключать саму возможность. Эта тактика не принесла результатов.

Затем хакеры предположили другой сценарий. В нем не искажалась уже существующая разметка, но добавлялась новая. Они нанесли на асфальт три белых квадрата, которые отчасти перекрывали полосу и вели на встречную. Автомобиль распознал их как продолжение правой линии и, игнорируя левую, выехал на другую полосу. В отчете написано: «Вводить в заблуждение автопилот при помощи новых элементов разметки может быть более опасно, чем неспособность заметить линию».

В компании Илона Маска на это ответили следующее:

«В этой демонстрации исследователи изменили физическую среду вокруг транспортного средства, чтобы заставить его вести себя иначе. Это не реальная проблема, не та, с которой сталкиваются каждый день, учитывая и то, что водитель может в любое время перенять управление автомобилем и нажать на тормоз».

Открытие Keen Security Lab не вошло в программу вознаграждения Tesla.

 

 

Добавить комментарий

Защитный код
Обновить