「Autopilot」自駕系統成殺人機器?《Tesla》意外頻傳遭索賠130億台幣

815人看過

Model 3

Model 3

特斯拉的自動駕駛系統Autopilot自推出後備受爭議,在2019年時於美國,就曾發生一場事故,車主使用該系統導致汽車闖紅燈出現意外,駕駛目前已死亡,判決也在近日呼之欲出。

據《路透社》報導,一名37歲駕駛Micah Lee在加州駕駛特斯拉Model 3,當時該車時速高達105公里,衝出道路並自撞上棕櫚樹,導致電池組破裂,產生火燒車使駕駛死亡,以及車上兩名乘客重傷,其中包含一位八歲男童,該駕駛的家人聲稱,事故發生時,車輛正啟用Autopilot系統,該家庭與律師認為此系統具有缺陷,因此對車廠索賠4億美元(約130台幣)。

不過近日判決出爐,經過4天的審議,由陪審團投票進行判決結果,認為該系統不存在製造缺陷,因此Tesla將不用支付索賠,不過這並非該廠的Autopilot第一次捲入類似事件,7月時,一名Model S特斯拉駕駛就在啟用自駕系統下闖紅燈,並撞死了兩名駕駛,導致該司機被判軟禁。

加入粉絲團 加入好友 追蹤IG

品牌相關文章

RELATED ARTICLES

相關新聞推薦

RELATED ARTICLES
複製連結
引用發文

請將圖片拖曳至框線內

共0則回應
回最上層