去(2018)年12月時,臺灣發生首件自動駕駛的車禍, 特斯拉(Tesla)的駕駛人疑似精神不濟,未注意車前動態,在開啟自動輔助駕駛功能的情形下,未減速直接在國道撞上警方巡邏車,幸而未造成人員傷亡,但也引發民眾的熱烈討論,未來在進行AI 時代,究竟誰該為AI 自動駕駛負責?這個問題直指AI 立法的核心,所有領域的AI 應用都有類似問題,因為過去法律制度的設計,都是圍繞著「行為人」處理責任的議題,當AI 由輔助人類開始至可預見的未來將全自動化運作,既有的法律制度難免會有滯礙難行之處。
沿續著前(398)期談到歐盟AI 立法的準備,是比較抽象介紹未來AI相關立法應遵循的倫理原則,本文則以目前國際間立法活動較積極的自駕車為主角,介紹各領域面臨AI 趨勢衝擊時,如何透過責任釐清的討論,達到符合AI 發展的產業與社會需求的平衡,以作為國內立法的借鏡。
「人」還是「AI」?
有關自駕車的立法討論,多數集中在自動駕駛車輛在社會上實際使用時,無論是發生車禍、違反交通規則、違反對車輛安全維護規定等的責任,尤其是發生車禍時,人類由原先控制車輛啟動與前進後退,至少總有一個「人」要為車禍發生負責,然而,若是應用AI愈來愈成熟,坐在駕駛座的那個「人」只是接近「乘客」的角色時,還找得到那個該負責的「人」嗎?
我們可以由美國高速公路安全管理局(NHTSA)對於2016 年5 月在佛羅里達州發生的特斯拉車禍案件的調查,先觀察一下目前像特斯拉所標榜的自動駕駛「Autopilot」在發生車禍時,如何釐清法律上的責任。
發生事故的車輛是2015 年6 月生產的Tesla Model S 70-D,並在同年8 月購入,2015 年10 月軟體升級後啟用方向盤自動轉向「Autosteer」功能, 而在2016 年發生事故時, 最新版本的軟體firmware 是7.1(2.17.37) 版。NHTSA除了調查貨車司機、製作現場模擬圖之外,很重要的是調查Autopilot的功能說明(Technology was not intended to replace human driver,該科技並非意圖用以取代人類駕駛),以及在41 分鐘的車程,總共有7 次螢幕跳出警示畫面,6 次發出提醒駕駛人的鐘聲,有長達92%的時間是處於Autopilot 狀態的使用紀錄。依現場模擬圖駕駛人若正常注意行車狀況,在速限65 英里的情形下應有7.7 秒可以介入操作,以當時車速74 英里則應有6.8 秒,但駕駛人未有任何反應,最後據以作成Tesla Model S 並沒有設計上的重大缺陷,無須回收的結論。
本案特斯拉在事故發生後自行說明,因當時特殊的天空及現場狀況,Autopilot 未能偵測到貨車而未自動減速等,對於一般民眾來說當然是大有問題,特斯拉後續車款也進行改善。然而,NHTSA調查報告將事故原因歸責於駕駛人,關鍵因素卻是在於特斯拉的Autopilot 只是國際自動機工程師學會(SAE International) 有關自動駕駛分級的Level2。若以該學會最新公布的分級圖示來看,還是屬於駕駛人自行開車(You are driving), 而且必須經常監控(You must constantly supervise)該等功能的運作。因此,與其說這起事故是自動駕駛的車禍,不如說是駕駛人將「輔助駕駛」的Autopilot,誤以為是「自動駕駛」的車禍。
AI應用使事故發生原因與責任複雜化
由前述特斯拉的車禍案件來觀察,當一件涉及自動駕駛的車禍發生時,首先是要先確認是「人」負責開車,還是「AI」負責開車。若是人負責開車,再來確認事故發生的原因是人的駕駛行為,還是人的駕駛行為以外的因素,尤其是是否涉及產品製造有瑕疵的問題;但若是AI 負責開車,則問題就複雜了。
【完整內容請見《會計研究月刊》2019.4月號】