AI是人類最大威脅
這已經不是馬斯克第一次就人工智慧可能帶來的威脅做出表態。作為一名堅定的AI威脅論者,馬斯克堅信AI是人類文明迄今為止面臨的最大風險。
他此前就曾表示,“如果不能快速與AI進行溝通,那麼惡意的人工智慧程式將很可能超過人類智慧並創造出反烏托邦社會。”對於AI的發展,馬斯克的態度不是禁止,而是要主動進行監管。而他投資OpenAI,目的也是“隨時監視”AI的危害性。
除了馬斯克外,一向語出驚人的科學家霍金,在對待AI方面同樣持保守態度。
在今年4月底的GMIC北京2017上,霍金就通過視頻演講,表示AI的崛起可能是人類文明的終結。實際上,從3年前霍金就反覆強調:人工智慧或許不但是人類歷史上最大的事件,而且還有可能是最後的事件。
或許,洞見性遠超多數人類的霍金,對於AI的落地應用很早就做出了判斷,我們看一下3年前他為《獨立》雜誌撰寫的內容:“截至目前,基礎性的人工智慧技術已經取得一定成果,很有實用價值。霍金在肯定了AI的成果後表示了對未來的擔憂,人工智慧也許會在將來的某一天趕上甚至超過人類。它自己就會行動起來,還能以前所未有的超快速度重新設計自己。人類呢,就要受到緩慢的生物進化的限制,根本沒有競爭力,會被超越的。”
霍金對於人們熱衷於科幻小說和電影情節提出了忠告,表示所謂科幻的魅力會蒙蔽人們的雙眼,它有時會掩蓋住一個重要的問題,即最終的結果有可能引發一場浩劫。“人工智慧技術發展到極致程度時,我們將面臨著人類歷史上的最好或者最壞的事情。”
一直到今天,霍金對於AI的擔憂和警惕依舊沒有絲毫變化。
AI好與壞是取決於人
如果將馬斯克與霍金對於AI的擔憂進行總結,幾乎都是聚焦在AI發展到極致之後是否能夠擁有自主意識,甚至超越人類。
對此,原騰訊副總裁、著名風險投資人吳軍,在前不久發佈的《矽谷來信》中提出了自己的看法,他的結論是:這件事情不會發生。
吳軍認為,人類之所以能夠跟黑猩猩不同,成為今天這樣的高等動物,是因為在進化的過程中不斷地出錯的結果。其中一個決定性因素就是,人類擁有很好的語言能力,而語言能力的出現就是一次基因在進化過程中出錯的結果。而今天的人工智慧看似能解決一些問題,但從本質上來講它的操作還是可以確定的,是可預知的。
實際上,無論是正方還是反方,預測的都是一個未知的世界,這種情形,也許會在多年後,如同我們現在談論起蒸汽機車的出現對一些人產生的驚擾。
人類對於未知,永遠是好奇和心懷畏懼的,因為未知是否將威脅人類,還是幫助人類,誰都無法確定。就如同Facebook實驗室中那兩個聊天機器人所衍生出的新的語言一樣,那是只屬於它們自己的東西。它會有害還是有益?工程師的第一個反應,只能是拔掉插頭、關閉電源。
無論是谷歌還是Facebook甚至是百度,這些科技巨頭們都正在不斷地完善人工智慧,開拓其應用落地的新時代。毫無疑問,隨著人工智慧的發展,機器將越來越多的取代人類的工作。人工智慧的成長確實迅速,或許未來在不斷地深度學習中,機器會進化出自我意識,這或許需要上百年,也可能僅需數年時間。如何在其成長學習的過程中做好監管,正確的引導人工智慧的發展方向,正是目前馬斯克一直在努力的。
“AI既是個好的工具也可以被用來作惡。我對人工智慧不會有具體的立場,因為它本身是中立的,它最後到底是好是壞,取決於人類對它的應用。”8月15日,世界頂級駭客米特尼克現身北京時,留下了這一段話語◆
本月21日,在澳大利亞墨爾本舉行的國際人工智慧聯合會議上,發佈了特斯拉首席執行官馬斯克(Elon Musk)和其他領先人工智慧專家共116人,聯合呼籲聯合國在全球禁止使用具有殺傷性的機器人,包括無人機、坦克和機關槍等武器。
據報導,聯合國原本決定在21號開始正式討論智慧型武器議題,但被臨時延後到11月。