Американские регуляторы автомобильной безопасности рассматривают жалобу водителя Tesla на то, что программное обеспечение компании «Полное самоуправление» вызвало сбой.
Согласно жалобе, поданной водителем в Национальную администрацию безопасности дорожного движения, водитель проводил бета-тестирование программного обеспечения «Полное самоуправление», и внедорожник Tesla выехал не в ту полосу и был сбит другим транспортным средством .
«Автомобиль выехал не в ту полосу, и меня сбил другой водитель на полосе рядом с моей полосой», – написал водитель.
Согласно жалобе, автомобиль, небольшой внедорожник Tesla Model Y 2021 года, предупредил водителя на полпути в повороте, и водитель попытался повернуть колесо, чтобы избежать другого движения. Но автомобиль взял на себя управление и «выехал на неправильную полосу движения, создав небезопасный маневр, поставивший под угрозу всех участников», – написал водитель.
В результате аварии никто не пострадал, но Model Y была серьезно повреждена со стороны водителя, согласно жалобе, поданной в агентство онлайн в понедельник и размещенной в его публичной базе данных жалоб.
Катастрофа произошла 3 ноября, местонахождение водителя – Бри, Калифорния, но место аварии не было установлено. НАБДД не разглашает имена тех, кто подает жалобы.
Вероятно, это первая жалоба, поданная в агентство, в которой утверждается, что программное обеспечение «Full Self-Driving» вызвало сбой. В пятницу было оставлено сообщение с просьбой прокомментировать ситуацию от Tesla, которая распустила свой отдел по связям со СМИ.
Представитель NHTSA заявила в пятницу вечером, что агентство осведомлено о жалобе и связывается с Tesla для получения дополнительной информации. Пресс-секретарь говорит, что люди должны сообщать агентству о проблемах безопасности.
Это расследование является еще одним признаком того, что NHTSA становится все более агрессивным в наблюдении за автономными и частично автоматизированными системами вождения при президенте Джо Байдене . В прошлом агентство неохотно регулировало системы, заявляя, что не хочет откладывать потенциально спасающие жизнь технологии.
Tesla говорит, что «Автопилот» и «Полное самоуправление» – это системы помощи водителю, которые не могут управлять собой, несмотря на их названия. По словам автопроизводителя, водители должны быть готовы вмешаться в любое время.
Отдельные водители Tesla проходили бета-тестирование программного обеспечения на дорогах общего пользования, что, по словам критиков, ставит под угрозу других, поскольку программное обеспечение имеет недостатки, а водители необучены. У других компаний, которые проводят испытания на дорогах общего пользования, есть водители, отвечающие за безопасность людей, готовые вмешаться.
Бета-тестирование – это полевые испытания программного обеспечения, проводимые пользователями до того, как будет готов полная коммерческая версия.
Критики призывали NHTSA действовать после того, как в Интернете было размещено несколько видеороликов, якобы демонстрирующих, как программное обеспечение Tesla допускает ошибки, а драйверы должны действовать.
«Надеюсь, это даст @NHTSAgov боеприпасы, необходимые для принятия мер в отношении FSD сейчас, вместо того, чтобы ждать, пока Tesla потратит время на частичный выпуск данных», – написал в Twitter Филип Купман, профессор электротехники и компьютерной инженерии в Университете Карнеги-Меллона.
В июне NHTSA приказало автопроизводителям сообщать о любых авариях с участием полностью автономных транспортных средств или частично автоматизированных систем помощи водителю. Неясно, сообщала ли Tesla о катастрофе с участием водителя из Калифорнии. Два месяца спустя было начато официальное расследование частично автоматизированной системы помощи водителю автопилота Tesla после серии столкновений с припаркованными автомобилями скорой помощи.
NHTSA уже запросило у Tesla информацию о бета-тестировании, включая требование о неразглашении информации тестировщиками. Агентство заявило, что соглашения о неразглашении информации могут ограничить его возможности по расследованию.