雖說過去特斯拉曾強調不會搜集車主的行車資料,但看來這次特斯拉是真的要硬起來解決 FSD 的問題了。最近特斯拉表示,若使用 FSD Beta 時發生行車意外,車主必須接受特斯拉可以取用相關行車資料、影像作為調查用途。
使用 FSD Beta 出意外特斯拉會取用行車資料
特斯拉的 Autopilot 一直以來都是利用車內外的許多鏡頭當作偵測媒介,特斯拉也不斷強調,這些鏡頭捕捉到的資料,特斯拉不會取用,以維護車主的個人隱私。
但最近特斯拉貌似為了解決近期 FSD Beta 所產生的各種問題,將打破隱私限制,宣布:若在使用 FSD Beta 時發生行車意外,車主必須同意特斯拉可以取用當下相關的行車資料、影像作為調查用途。
同時也在車主下載新版本的 FSD Beta 前,會先跳出警告,徵求車主同意後才能夠開放下載使用。
特斯拉:為了用來證明的確是 FSD Beta 出問題
特斯拉另外補充表示:該措施與安全風險、行車事故相關,希望可以透過這樣的方式,來釐清與證明車禍發生的當下,的確是 FSD Beta 出問題,而不是車主本身的誤操作。
不過也不能說特斯拉這次的政策太過強硬,畢竟前陣子真的發生許多 Autopilot 的行車事故。
8 月中,美國國家公路交通安全管理局(NHTSA)才針對特斯拉的自動輔助駕駛所發生的事故展開調查,自 2018 年來共發生 11 起涉及自動輔助駕駛或是道路偵側巡航控制的相關事故,都撞上了停放在路邊緊急服務車輛(消防車、救護車等等)。
Happening now: Orange County. Trooper stopped to help a disabled motorist on I-4. When Tesla driving on “auto” mode struck the patrol car. Trooper was outside of car and extremely lucky to have not been struck. #moveover. WB lanes of I-4 remain block as scene is being cleared. pic.twitter.com/w9N7cE4bAR
— FHP Orlando (@FHPOrlando) August 28, 2021
而當時分調查結果出爐,發現其中幾起事故案件並不是 Autopilot 的問題,而是駕駛本身操作不當或是有做出不當的駕駛行為,而導致事故發生。調查的 11 起事故中,有 2 起是酒駕、1 起是因為無照駕駛、4 起是 Autopilot 出錯。其他的事故目前則都還正在調查中。
延伸閱讀》
- 特斯拉 FSD Beta 多位車主分享真的可以有效阻止意外發生
- 馬斯克承認 Autopilot 有嚴重缺陷,會突然無故自動煞車
- 特斯拉 Autopilot 釋出更新,可以偵測夜間緊急車輛的燈光並減速