自動駕駛汽車的道德考慮

 

20160701093748720

上星期,Tesla發生了全球首宗自動駕駛致命車禍。 一名司機在美國駕駛Telsa Model S 時,車子在自動駕駛模式控制下,直接撞向前面的貨櫃車, 車身嚴重損毀,司機死亡。

調查指,當時司機正在車內看電影,如果當時他有留意路面的話, 意外應該能夠避免。Tesla 在聲明指出,在陽光非常刺眼的情況下, 自動駕駛系統沒有發現這部白色貨櫃車,因此未能作出反應, 造成意外。不過即使將來的系統能把這個新要求加進避車程式, 也不能擺脫道德考慮。到底當意外有可能發生時, 汽車應該如何衡量甚麼做法才能避免,又或者造成最少的損傷?

假如有個情況:一輛自動駕駛汽車剛高速駛至一個分岔路口時, 它不可停下,因為一旦停下,後面一連串的車輛會因不夠時間煞車, 導致多車連環相撞,情況嚴重。但左面路口有一個男人, 車子開過去有可能會撞死他。那便轉去右面吧,但這面另有三個人。 那自動系統在計算最少的損害時,就會決定轉向左面。 左面路段是位老人家,由於年紀老邁,身體本能反應極差, 肯定避不過車輛。 但原來右面那三個路人居然是自己的太太及兩位弟弟, 汽車到底會否懂得分辨呢?他們三人年輕靈敏, 絕對有可能避過車輛。但相反,再仔細看, 原來是他們三人居然沒有按照紅綠燈指示,亂過馬路, 但老人家卻跟足指示卻被撞,是否合理呢?

如果這是現實情況,你會如果選擇?

到底自動汽車是如何判斷呢? 自動駕駛程式的編寫員會如何編定這些道德考量呢?

評論

評論

About