記者:人工智能機器本身也會出現(xiàn)失效甚至不可控的情況。比如,自動駕駛汽車、智能醫(yī)療等在一些情況下可能存在安全隱患。人工智能產品也有事故和產品責任問題,但要分清是人為操作不當還是人工智能的缺陷并不容易,在舉證上尤其困難。
莫紀宏:這個問題確實復雜。目前法律上的證據(jù)規(guī)則都是以人的認識能力可以把握的為限,如果出現(xiàn)了超出人類自身能力的人工智能出現(xiàn)了差錯,一是要停止這種人工智能產品的適用,二是對已經造成的損失應當適用“不可抗力”條件來處理相關法律問題和糾紛。
劉俊海:關于舉證其實并沒那么復雜。舉個例子,自動駕駛汽車啟動的自動駕駛模式失效,導致汽車撞到前面的車輛上,造成人員傷亡。這種情況,讓消費者舉證人工智能的缺陷很荒唐,應該是消費者拿商家的承諾來闡明汽車可以自動駕駛,但是采用自動駕駛模式,導致消費者遭受財產損害,這就足以。舉證責任不該由消費者承擔,消費者只用證明購買使用產品招致?lián)p害即可。
如果消費者是故意被人工智能機器所傷害,進而碰瓷索賠,這屬于不可原諒的道德風險。此時商家和生產商只要能證明消費者故意就可以免責。如果存在重大過失,也可以免責。
記者:目前人工智能基本都會涉及機器學習技術,這意味著需要收集、分析和使用大量數(shù)據(jù),其中很多信息由于具有身份的識別性,屬于個人信息。一方面,按照個人信息保護方面的法律規(guī)定,這些行為應當取得用戶明確、充分且完備的授權,并應當明確告知用戶收集信息的目的、方式手段、內容、留存時限還有使用的范圍等;另一方面,也有可能因黑客入侵而帶來破壞,導致信息安全問題。
劉俊海:人工智能機器消耗信息和數(shù)據(jù),就涉及到對個人信息的搜集、歸類、提取、分析使用以及涉及到授權別人使用等?;ヂ?lián)網再大也大不過法網。無論人工智能怎樣進步,也逾越不了法網。人工智能領域沒有終生免責的特權主體。所以,按照消費者權益保護法和網絡安全法的規(guī)定,任何組織個人特別是企業(yè),搜集使用消費者個人的信息數(shù)據(jù),無論是個人的隱私空間、個人隱私的數(shù)據(jù)、個人隱私的活動等,都要堅持合法、公開、知情、同意、合理、必要、有償?shù)然驹瓌t。這在消費者權益保護法和網絡安全法都有規(guī)定。
朱巍:現(xiàn)在個人數(shù)據(jù)保護法暫時還沒有,網絡安全法已經出臺。在未來,一旦人工智能開始學習的時候,實際上每個人都變成了信息產生的主體,屆時都會成為機器學習的對象。每個人產出的不一定是產品,而變成了讓機器模仿學習的數(shù)據(jù),最后可能讓人們覺得真假難辨。這還是很可怕的。
人工智能是把雙刃劍,個人信息的保護顯得尤為重要。
莫紀宏:如果人工智能涉及到危及個人信息的風險,那么就要在法律上針對風險設立相應的制度,要采取風險選擇的機制,即要求使用者承擔必要風險,這樣可以免除部分產品提供者的責任,如果涉及到大范圍侵犯個人信息問題而產品提供者又無法有效控制風險,應當從法律上強制終止高風險產品的使用。
記者:目前,法律領域已經有了不少人工智能產品,人工智能會改變法律服務職業(yè)嗎?
莫紀宏:可以利用人工智能的技術優(yōu)勢來從事一些輔助性的法律服務工作,未來確實可能會影響法律服務職業(yè),但絕不能把實體的審判過程和結果也交給人工智能來實施,司法判決仍然必須具有價值傾向。
朱巍:人工智能不會改變法律職業(yè)。真正解決問題,還得靠人。
記者:人工智能有哪些隱患?在發(fā)展的同時要注意些什么?
莫紀宏:人工智能產品的隱患是全方位的,在帶來高效率和便利的同時,增加了制度的風險性。所以,要設定制度范圍內允許的最大風險承受值,越出的部分就不能再受保護,必須予以放棄。
朱巍:人工智能的隱患在于人。人工智能、網絡技術,包括很多的數(shù)據(jù)技術蓬勃發(fā)展,但是不要忘記,人要有所忌憚和底線,不應該做的事不要去做。
劉俊海:一方面是軟件程序設計的問題,另外還有一些不可抗的因素。對于這種新鮮事物,要懷有滿腔熱忱支持人工智能的研發(fā)、生產、銷售,同時也要做好監(jiān)管工作。發(fā)展與規(guī)范并重,更加注重規(guī)范;創(chuàng)新和誠信并重,更加注重誠信;安全與快捷并重,更加注重安全;效率和公平并重,更加注重公平。人工智能技術,在法治理性、公平公正、誠實信用的基礎之上,才能飛得更高、更遠。要堅決扭轉只發(fā)展不規(guī)范,只發(fā)展輕規(guī)范,先發(fā)展后規(guī)范的老路。
另一方面要預防的就是講快捷不講安全,沒有安全的快捷沒有任何價值和意義。切莫以利當先,漠視人的生命。不能僅為了人工智能企業(yè)一端的利益忽悠消費者,一定要充分尊重消費者知情權、選擇權、公平交易權、安全保障權和隱私權。