近日,歐盟委員會(EC)任命的人工智能高級專家小組(AI HLEG)剛剛發(fā)布了 AI 開發(fā)和使用的道德草案—可信賴 AI 的道德準則草案(Draft Ethics Guidelines for Trustworthy AI),內(nèi)容長達 37 頁,提出可信賴 AI 應具備兩大要素,以及 AI 不可為的基本原則。
歐盟 AI 道德準則草案指出,可信賴的 AI 有兩個組成要素:一、應尊重基本權利,適用法規(guī)、核心原則和價值觀,以確?!暗赖履康摹保╡thical purpose),二、兼具技術魯棒性(robust)和可靠性,因為即使有良好的意圖,缺乏技術掌握也會造成無意的傷害。另外,AI 技術必須足夠穩(wěn)健及強大,以對抗攻擊,以及如果 AI 出現(xiàn)問題,應該要有“應急計劃”(fall-back plan),例如在 AI 系統(tǒng)失敗了,必須要求交還由人類接手。
另外,可信賴 AI 的不可為,包括不應以任何方式傷害人類;AI 不應限制人的自由,換句話說,人們不應該被 AI 驅動的機器征服或強迫; AI 應該公平使用,不得歧視或誣蔑;AI 應透明地運作,也就是說,人類需要知道 AI 正在開發(fā)的目的,以及如何使用它;AI 應該只為個人和整個社會的福祉而發(fā)展
草案也提出了框架,第一章闡述 AI 必須遵守的基本權利和價值觀,以確保 AI 符合道德目的。第二章則是實現(xiàn)可信賴 AI 的指導方針,同時兼顧道德目的和技術穩(wěn)健性,并列出可信賴 AI 的要求,包括技術和非技術方法。第三章則提供了具體但非窮舉的可信賴 AI評估表。