Авто

Автопилот Tesla неспособен обнаружить детей на дороге

Группа по защите безопасных технологий Dawn Project провела тест на экстремальное торможение бета-версии автопилота Tesla Full Self-Driving (FSD). Результаты оказались неутешительными — Tesla Model 3 трижды сбил манекен ребёнка. Случись такое в реальности — последствия были бы трагичными.

Тестирование проводилось Дэном О’Даудом, критиком компании Tesla, на гоночной трассе Willow Springs International в Калифорнии. Электрокар при этом разгонялся относительно не сильно — до 40 км/ч. По результатам исследования, электрокар с последними установленными обновлениями ПО ни разу не затормозил перед небольшим препятствием в виде трёх по-разному одетых манекенов-детей (красный, белый и тёмный цвет одежды не помог). Машина ударяла их снова и снова без попытки вмешательства в ситуацию и информирования водителя.

«Илон Маск говорит, что программное обеспечение Tesla Full Self-Driving «потрясающее». Это не так. Оно несёт смертельную угрозу для всех», — заявил Дэн О’Дауд.

По его мнению, необходимо запретить автомобили с автоматическим управлением до тех пор, пока Tesla не докажет, что её система безопасна для детей. Несмотря на это, сейчас уже более 100 000 владельцев электрокаров Tesla используют режим полного автономного вождения на дорогах общего пользования. Кроме того, в четвёртом квартале 2021-го Tesla зафиксировала одну аварию на каждые 6,9 миллиона километров работы системы FSD. Для сравнения, Национальное управление по безопасности дорожного движения США сообщает, что аварии с участием обычных машин происходят каждые 640 тысяч километров, когда за рулём находится человек.

Добавьте «SRNSK News» в источники переходите по ссылке и читайте новости первым!
Яндекс новостиGooglenews