美國國家公路交通安全管理局(NHTSA)在歷經 3 年調查之後,對特斯拉「自動輔助駕駛」(Autopilot)功能所涉及的 956 起事故定下結論,認為 Autopilot 有著「誤導車主關於車輛自動駕駛能力上限」的嫌疑,導致許多原本應該可以由人類主動避免的車禍最終發生。
這份由 NHTSA 所提出的調查報告,詳細探討了 2018 年 1 月至 2023 年 8 月期間,牽扯到特斯拉 Autopilot 功能所發生的 956 起車禍,這些事故共造成 100 多人受傷、數十人死亡。
人類駕駛有能力避免車禍
NHTSA 分析,其中絕大多數事故都發生在車輛的 Autopilot 系統,主動檢測到不曉得如何通過的障礙物的數秒鐘後,但是人類駕駛其實有足夠時間避免車禍發生,或者有機會最大程度減少事故所造成的傷害。
舉例來說 2023 年一輛啟用 Autopilot 的特斯拉 Model Y,以高速撞上了一名正在從巴士上離開的學生,車禍導致這名學生身受重傷且有生命危險,調查報告指出特斯拉司機於事故發生的當下,其實擁有足夠的時間避免這起車禍。
NHTSA 指出類似上述狀況的事故於報告中共有 211 起,佔 Autopilot 牽涉車禍事件的最大宗,另外還有 145 起涉及周遭環境,例如濕滑路面等等;其中 111 起則源於 Autopilot 因駕駛介入操作而無意間導致的車道偏離。
掌握 AI 趨勢 & 活動資訊一點都不難!訂閱電子報,每週四一起《AI TOgether》

感謝訂閱!隨時注意信箱的最新資訊
根據 NHTSA 報告的結論指出,雖然 Autopilot 所導致的事故大多可以由人類駕駛所避免,但是多數車主可能都誤會了「自動輔助駕駛」的真正含義,因此這些車禍和事故的發生,基本上可以視為人類駕駛對 Autopilot 功能的誤解,導致車主相信自動化系統足夠強大。
Autopilot 仍不是全自動駕駛
然而,特斯拉的「自動輔助駕駛」(Autopilot)的確不是「全自動駕駛系統」,它僅僅可以協助車輛進行轉向、煞車、加速、車道置中和定速巡航控制等等,定義上屬於 SAE Level 2 規格。
即便特斯拉再三強調,Autopilot 要求駕駛者對路況保持專注,並得將雙手置於方向盤上,隨時準備於任何情況下接管車輛,但是 NHTSA 過去曾提出警告,指出特斯拉所安排的這些措施,仍然不足以防止 Autopilot 遭到濫用。
特斯拉日前同意透過軟體更新,加強對車輛開啟 Autopilot 時的駕駛行為監控,但 NHTSA 則批評事情並沒有得到任何改變,甚至進一步指出,特斯拉對於車禍事故的資訊蒐集不夠完全,有些涉及 Autopilot 的車禍事件,即便十分嚴重也沒有被特斯拉遠端記錄下來。
【延伸閱讀】
◆【電腦還不會幫你開車】特斯拉自駕又出意外撞死機車騎士,有 9 成消費者不信任自動駕駛
*本文開放合作夥伴轉載,資料來源:《TechCrunch》、《TechSpot》。首圖來源:《Unsplash》。



