|
從《2001:太空漫游》到《黑客帝國》,電影和科幻作家一直都在提醒我們要警惕人工智能,因為它們隨時都有可能背叛人類甚至毀滅人類。隨著人類在人工智能領域不斷取得突破,這種擔憂正在越來越多地被人們提及。
1 Q/ ]3 w7 N% ? . L ]+ z, I* p. q5 q
現在,Google母公司Alphabet、Facebook、微軟、IBM和亞馬遜這5家在人工智能領域積極布局的科技巨頭也意識到了這個問題,他們正打算為人工智能制定一套成熟的道德標準。0 b5 a% T/ `* _
根據《紐約時報》的報道,這5家公司近期舉行了一場會談,在人工智能對勞動市場、交通和戰爭等方面的道德倫理標準展開了討論。他們還打算成立一個相關的行業協會,這個協會的目的是確保人工智能有利于人類而不是傷害人類,但參會者還沒有確定具體的協會名稱。$ S) S% d [& s+ D4 d: U
雖然科技巨頭們都在積極研究人工智能,但警惕人工智能統治人類的呼聲也不絕于科技界。例如在今年6月份舉辦的Code Conference上,特斯拉和Space X的創始人伊隆·馬斯克就曾說過,按照人工智能的發展,未來人類在智力上將被遠遠拋在后面,并淪落為人工智能的寵物。2 M, I- [$ R9 j# `; g2 r
去年7月,馬斯克還資助了未來生命研究所(Future of Life Institute)1000萬美元,該機構主要評估和分析人工智能帶來的風險。
+ J" [) a/ j, y9 t- ~隨后史蒂芬·霍金也在一場電視節目里聲稱硅谷某處的一些實驗室正在醞釀一個邪惡的計劃,而人工智能將會以比人類更快的速度進化,它們的目標是人類無法預測的。3 J& ~2 ~0 H* S% A: H' S
“一旦機器達到了一種可以自我進化的關鍵階段,我們就無法預測它們的使命是否和人類一樣了。”霍金說。5 f0 e" W3 `! `4 |- Q" j
對此,谷歌董事長Eric Schmidt回應稱,人工智能將會以人類的福祉為發展方向,而且將會有一個系統來阻止人工智能向不對的方向發展。“我們都看過那些科幻電影。”他說,“但是在現實世界中,人類肯定知道如何在人工智能變得危險的時候關閉掉它的系統。”
I' W. M' j7 u+ ?不僅是科技公司和民間組織想要讓人工智能在道德和法律上走向正規化,政府機構也參與到了這場討論中。今年5月,美國政府在西雅圖舉辦了第一次關于AI法律法規的白宮探討會。9 {% p; N" z; c( f
本次探討會的主題是“政府應不應該對人工智能進行管理”,但會議并沒有就此議題得出結論,更不用說出臺具體的監管措施了。
$ ~0 m, x; l4 v( m因此,在政府沒有做出具體的動作之前,科技公司們已經開始行動了——他們決定自己制定框架,讓人工智能研究能夠進行下去,并確保它不會傷害人類。
2 y! O5 W4 Y3 \5 u( t參與本次行業討論的微軟研究人員Eric Horvitz曾在斯坦福大學創辦過一個叫“人工智能百年研究”的協會,該協會最近發表了其2016年的研究報告。
j" S- A/ @1 J4 [" z) u9 v1 j在這份名為《2030年的人工智能與生活》的報告中,作者認為人工智能“很可能受到監管。”報告稱:“研究組達成的共識是,試圖監管人工智能的努力常常受到誤導,因為我們沒有對人工智能這一概念的明確定義,因此在不同領域,我們需要考慮不同的風險。”
8 f& e$ @+ H: t0 H, T0 W8 Z; X$ e這份報告還建議政府機構提升對人工智能的專業認識,并加強在人工智能領域的公共和私人投資。
! a6 K9 z8 Y& k) L$ ^3 ]; B一份關于本次會議的備忘錄顯示,這5家公司將于9月中旬宣布建立監管人工智能的行業組織。有知情人士表示,Alphabet的子公司Google DeepMind要求以獨立的身份參與此行業協會。
& y5 r) a7 B8 k0 d( c該協會將以全球網絡倡議(Global Network Initiative)等人權組織的模式組建,但更加關注言論自由和隱私權問題。
* M3 _; J" i6 q' o" m, \1 ^- i |
|