В недавнем комплексном расследовании, проведенном Национальной администрацией безопасности дорожного движения (NHTSA), системы автопилота и полного самоуправления (FSD) Tesla оказались причастны к сотням аварий транспортных средств и многочисленным смертельным случаям. Анализируя инциденты с января 2018 года по август 2023 года, агентство зафиксировало 956 аварий с участием автомобилей Tesla, оснащенных этими функциями, в том числе 29 со смертельным исходом. Расследование выявило серьезные опасения по поводу неспособности технологии поддерживать вовлеченность водителя, что также представляет серьезную угрозу безопасности.

Примечательный инцидент, произошедший в марте 2023 года, произошел с автомобилем Tesla Model Y, работавшим на автопилоте на скоростях шоссе, который сбил студента из Северной Каролины, когда он выходил из школьного автобуса. Столкновение привело к опасным для жизни травмам, что потребовало экстренной доставки по воздуху в больницу. Этот случай подчеркивает закономерность, наблюдаемую в отчете NHTSA, когда водители часто слишком полагаются на автоматизацию Tesla, которая может неадекватно реагировать на изменение дорожных условий, что приводит к опасным ситуациям.

В ответ Tesla инициировала отзыв автомобилей и выпустила обновления программного обеспечения, предназначенные для усиления системных предупреждений и повышения внимательности водителей. Несмотря на эти усилия, НАБДД продолжает подвергать сомнению эффективность этих обновлений и инициировало дальнейшие расследования для оценки их адекватности.

Эти текущие проблемы подчеркивают критические проблемы безопасности, связанные с полуавтономными транспортными средствами, и подчеркивают разрыв между амбициозными технологическими целями Tesla и текущей производительностью ее систем помощи водителю. Ситуация подчеркивает острую необходимость принятия надежных мер безопасности, чтобы гарантировать, что технологии помощи водителю не поставят под угрозу безопасность дорожного движения.

Источник