前言
AI和法律、倫理、安全等方面的交叉領域,我個人一直是比較關注,因為一方面,這些基礎設施會對人類產(chǎn)生很大影響,并直接影響部分AI領域落地的時機,另一方面,對于AI產(chǎn)品經(jīng)理來說,在認知深度和廣度方面,需要吸取這種跨領域信息,并且還要有能力將看似high level的感性/文科觀點落地成非常具體的產(chǎn)品體驗feature。
目錄
一、案例 | AI應用時面臨的法律問題和風險
二、現(xiàn)狀 | 各國對AI法律政策問題的探索
三、未來 | AI可能如何影響法律
四、落地 | 以上內容對AI產(chǎn)品經(jīng)理有何實際借鑒意義
五、附錄 | 相關資料推薦(2本書籍、7篇文章、5個相關產(chǎn)品/公司)
一、案例 | AI應用時面臨的法律問題和風險
1、圖像識別領域
1)種族歧視問題:谷歌公司的圖片軟件曾錯將黑人的照片標記為“大猩猩”。
2)用戶隱私保護問題:2011年,F(xiàn)acebook就曾因其“人臉識別和標記功能未按伊利諾伊州《生物信息隱私法案》(BIPA)要求告知用戶收集面部識別信息的期限和方式”被訴,隨后又因“采集面部特征前未能明確提醒用戶并征得用戶同意”而遭到愛爾蘭和德國有關部門的調查。
注:盡管Facebook辯稱默認開啟該功能是因為用戶通常不會拒絕進行人臉識別,并且用戶有權隨時取消這一功能,但德國漢堡市數(shù)據(jù)保護與信息安全局堅持Facebook的面部識別技術違反了歐洲和德國的數(shù)據(jù)保護法,F(xiàn)acebook應刪除相關數(shù)據(jù)。最終,F(xiàn)acebook被迫在歐洲地區(qū)關閉了人臉識別功能,并刪除了針對歐洲用戶建立的人臉數(shù)據(jù)庫。
2、語音識別領域
模擬人聲詐騙:有朝一日,如果TTS技術效果非常好了,可能會有人用假的聲音去詐騙,比如模仿子女的聲音,給其父母打電話……
3、自然語言處理領域
AI被人“教壞”:2016年3月23日,微軟的人工智能聊天機器人Tay上線一天就被緊急下線,因為她被用戶“教壞”了——她成了一個集反猶太人、性別歧視、種族歧視等于一身的“不良少女”。
4、廣告投放領域
種族歧視問題:研究表明,在谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出現(xiàn)暗示具有犯罪歷史的廣告。
二、現(xiàn)狀 | 各國對AI法律政策問題的探索
1、知識產(chǎn)權
國際標準化組織IEEE在其標準文件草案《合倫理設計:利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景》中提出了一個基本原則:如果AI依靠人類的交互而實現(xiàn)新內容或者發(fā)明創(chuàng)造,那么使用AI的人應作為作者或發(fā)明者。
2、隱私和數(shù)據(jù)保護
在2016年通過的《一般數(shù)據(jù)保護條例》(簡稱GDPR)中,歐盟就加強了個人隱私和數(shù)據(jù)保護,其中關于用戶畫像等自動化決策的規(guī)定,將對基于大數(shù)據(jù)的互聯(lián)網(wǎng)行業(yè)實踐產(chǎn)生重大影響,即用戶有權拒絕企業(yè)對其進行畫像等自動化決策,而且用于用戶畫像的數(shù)據(jù)不能包括人種或者種族起源、政治意見、宗教或者哲學信仰、商會會員、基因、生物特征、健康狀況、性生活等特殊類別的個人數(shù)據(jù)。這將對個性化服務的提供產(chǎn)生重大影響。
監(jiān)管部門和司法機關對透明性和舉證責任的要求,與機器學習結果的不確定性和算法保密要求之間,存在著一種結構性的緊張關系。……2016年阿肯色州發(fā)生的一起謀殺案中,警方希望獲取Alexa語音助手收集的語音數(shù)據(jù),該請求遭到了亞馬遜公司的拒絕,理由是警方?jīng)]有出具有效的法律文件。
3、標準化建設
美國在去年出臺的《聯(lián)邦自動駕駛汽車政策》、《美國國家人工智能研發(fā)戰(zhàn)略計劃》等報告中,也要求加強并統(tǒng)一技術、數(shù)據(jù)使用、安全等標準建設,避免造成碎片化的問題,影響人工智能研發(fā)和應用。
4、“阿西洛馬人工智能原則”(Asilomar AI Principles)
2017年1月,在美國加州Asilomar召開的“阿西洛馬會議”上,由“生命未來研究所”(Future of Life Institute,F(xiàn)LI) 牽頭,844名AI專家聯(lián)合簽署了“阿西洛馬人工智能原則”(Asilomar AI Principles)(23條),其核心思想是Beneficial AI,有人解讀為 “為了人和人類的AI”。
三、未來 | AI可能如何影響法律
1、有人預測,在強人工智能和超人工智能階段,現(xiàn)有法律已經(jīng)基本無法直接套用,人工智能將對傳統(tǒng)法律體系產(chǎn)生巨大的沖擊和顛覆。越來越多的極其復雜的新問題將迅速出現(xiàn),成文法將會萎縮甚至消亡。
2、未來的人們在作出法律決定時,他們既不需要檢索法律,也無須理解法律,更無須權衡行為的合法性,他們所遵循的不過是經(jīng)由人工智能優(yōu)化了的微指令而已。更多內容,詳見《人工智能對法律提出了哪些挑戰(zhàn)?》。
3、如果人工智能的歧視行為給用戶造成了實際或精神損害,相關的法律責任應當首先由人工智能服務的最終使用者承擔,人工智能開發(fā)者有過錯的,最終使用者承擔責任后可以向開發(fā)者追償。
在判斷開發(fā)者過錯程度時,可能需要區(qū)分不同算法:如果技術開發(fā)者主動設立了算法中的規(guī)則,那么對最終出現(xiàn)的歧視風險預見和控制程度也更高,如果最終因系統(tǒng)的“歧視”或者“偏見”損害了第三方的合法權益,難辭其咎。但如果采取的深度學習等算法,由系統(tǒng)自身探索并形成規(guī)則,所以開發(fā)者對歧視風險的控制程度是比較低的,主觀惡意和過錯都較小,可能具有一定的免責空間。
更多“事故責任和產(chǎn)品責任”相關的探討,詳見《人工智能發(fā)展面臨的法律挑戰(zhàn)》。
四、落地 | 以上內容對AI產(chǎn)品經(jīng)理有何實際借鑒意義
1、行業(yè)前景判斷
比如自動駕駛,由于法律、倫理、安全,以及道路基礎設施等問題,短期內肯定是不可能大規(guī)模普及民用的。(當然,以前也說過,卡車的自動駕駛,短期內是可以做的)
多說一句,科技圈公司,更多面臨生存壓力,首先考慮賺錢,所以倫理、安全、法律等問題的優(yōu)先級不高——這些問題,至少在行業(yè)早期,需要由政府、高校、學術界來推動。
2、產(chǎn)品理念和需求討論時,需要check倫理問題,足夠警惕。
這是因為人工智能系統(tǒng)并非表面看起來那么“技術中立”,如果輸入的數(shù)據(jù)代表性不足或存在偏差,訓練出的結果將可能將偏差放大并呈現(xiàn)出某種非中立特征,比如歧視。
所以,最好將倫理委員會常態(tài)化,研究產(chǎn)品中的倫理問題及其影響。比如,Google DeepMind、Lucid AI等機構已經(jīng)設立了倫理審查委員會。該審查委員會由具有不同知識背景和經(jīng)驗的專家組成,在審查時需要參考一定的行業(yè)標準,并最大限度地考慮安全和倫理問題。
3、產(chǎn)品思路:AI輔助人工,不能自行決策。
在重要領域,不能將AI的運算結果當然作為最終且唯一的決策依據(jù)。例如在關于人工智能醫(yī)療輔助診斷的規(guī)定中,就明確了人工智能輔助診斷技術不能作為臨床最終診斷,僅作為臨床輔助診斷和參考,最終診斷必須由有資質的臨床醫(yī)師確定。
4、產(chǎn)品體驗細節(jié)設計
1)充分考慮女性、兒童、殘疾人、少數(shù)族群等易被忽視群體的利益,并對道德和法律的極端情況設置特別的判斷規(guī)則。特別是聊天對話類產(chǎn)品。
2)體驗流程中,如果涉及隱私,需要“明確提醒用戶并征得用戶同意”,以及“告知用戶收集XX隱私信息的期限和方式”,而且,用戶有權(有操作入口)拒絕企業(yè)對其進行畫像等自動化決策(即,不能先斬后奏,讓用戶先使用、然后再關閉相關功能)。
具體設計細節(jié)示例
另外分享一點,AI正在快速進入司法領域(“智慧法庭建設”),“截至今年6月,超過100家法院應用了科大訊飛智慧法庭庭審系統(tǒng)……阿里云的語音技術已快速滲透進300多家法院、6000多個法庭。而今年夏季才入場的騰訊和國雙科技,在短短幾個月時間中,至少與40家法院達成了合作。”詳見《保衛(wèi)科大訊飛》 。
結語
數(shù)據(jù)科學家凱西•歐尼爾在其著作《數(shù)學武器:大數(shù)據(jù)如何加劇不平等、威脅民主》中,將造成歧視、個體損害等不利后果的人工智能稱為“殺傷性數(shù)學武器”(Weapons of Math Destruction),認為因其不透明性、規(guī)模效應及損害性而應當引起足夠關注。
我想說的是,作為AI產(chǎn)品經(jīng)理和先行者,我們應該抱著責任感,甚至悲憫、敬畏之心來真正重視AI的倫理和法律問題,因為這些真的會影響我們和后代的未來。
附錄一:相關資料推薦
1、2本書籍
《數(shù)學武器:大數(shù)據(jù)如何加劇不平等、威脅民主》和《發(fā)明倫理:科技和人類未來》,獲評《麻省理工科技評論》2016年最佳圖書,涉及技術性失業(yè)、致命性自主武器、算法公平、道德判斷、價值一致性等AI倫理問題。
2、7篇文章
1)20171206-《從律師到法律機器人,法律行業(yè)未來二十年的機遇和挑戰(zhàn) | AI觀察》
2)20170805-《法律人工智能十大趨勢|AI觀察》
3)20170612-《全球視野:人工智能的前沿法律政策問題思考》
4)20170413-《2017人工智能:技術、倫理與法律研討會(AITEL2017)》(含內容紀要和與會專家名單)
5)20170320-《人工智能法律服務的前景與挑戰(zhàn)| AI觀察》
6)20170106-《人工智能倫理法律問題最全解讀:IEEE發(fā)布首份人工智能合倫理設計指南》
7)20161009-《阿里研究院聶東明:人工智能或將徹底顛覆人類現(xiàn)行法律體系》
愛盈利-運營小咖秀(www.jza6.com) 始終堅持研究分享移動互聯(lián)網(wǎng)App運營推廣經(jīng)驗、策略、全案、渠道等純干貨知識內容;是廣大App運營從業(yè)者的知識啟蒙、成長指導、進階學習的集聚平臺;
想了解更多移動互聯(lián)網(wǎng)干貨知識,請關注微信公眾號運營小咖秀(ID: yunyingshow)
【轉載說明】  若上述素材出現(xiàn)侵權,請及時聯(lián)系我們刪除及進行處理:[email protected]