據(jù)外媒報道, 世界經(jīng)濟論壇(WEF)和第四次工業(yè)革命中心主管人工智能和機器學習的 Kay Firth-Butterfield 在上周于舊金山舉辦的應用人工智能(Applied AI)大會上,強調(diào)科技巨頭和企業(yè)應該創(chuàng)建咨詢委員會,以幫助指導人工智能的道德使用。
近年來,越來越多的組織和國家都開始紛紛嚴格要求AI道德問題。
在微軟,F(xiàn)acebook 和谷歌等公司建立這樣的董事會使得這一概念成為科技行業(yè)的準備規(guī)范,但最近幾周在谷歌解散了兩個人工智能道德委員會,這使人們質(zhì)疑其有效性。
4月初,歐盟委員會周一公布了人工智能道德準則,旨在在人工智能系統(tǒng)深入社會之前影響其發(fā)展。這種干預可能有助于打破監(jiān)管機構被迫追趕新興技術的模式,而這些技術往往會帶來意想不到的負面后果。在這份人工智能道德準則中,透明度和避免歧視是最為核心的部分。
4月20日,民法典人格權編草案二審稿提交十三屆全國人大常委會第十次會議審議,其中對人體基因胚胎科研活動、“AI換臉”、人體試驗、個人信息保護等問題作出了規(guī)范。草案規(guī)定:任何組織或者個人不得以丑化、污損或者利用信息技術手段偽造等方式侵害他人的肖像權和自然人聲音。