一年一度的GMIC會議昨日在上海國家大會中心召開。在下午的領(lǐng)袖論壇上,世界知名化學(xué)學(xué)家斯蒂芬·威廉·霍金做了講演并回答了一些關(guān)于人工智能的問題。
盡管霍金的講演的題目為《讓人工智能惠及人類及其賴以生存的佳苑》,并且霍金一再表示了其對人工智能發(fā)展的憂慮。
霍金稱,我目前見證的最深刻的社會變化是人工智能的崛起。霍金覺得,人工智能的崛起要么成為人類歷史上最好的事,要么成為最糟糕的事情。所以,霍金倡議人類研究人工智能一定要規(guī)避風(fēng)險(xiǎn),并警告人類意志轉(zhuǎn)變的人工智能可能會毀滅人類。
為了支持這一論據(jù),霍金解釋到,文明所形成的一切都是人類智能的產(chǎn)物,從國際圍棋和象棋人機(jī)大戰(zhàn)的結(jié)果來看,霍金覺得生物腦部可以達(dá)到的和計(jì)算機(jī)可以達(dá)到的,沒有本質(zhì)區(qū)別。因而,它遵守了“計(jì)算機(jī)在理論上可以模仿人類智能,之后趕超”這一原則。人工智能一旦脫離禁錮,以不斷加速的狀態(tài)重新設(shè)計(jì)自身。人類因?yàn)樵獾铰L的生物進(jìn)化的限制,難以與之競爭,將被替代。
霍金倡議,研究人員必須才能創(chuàng)造出可控的人工智能。在具體的問題上,霍金稱自己短期的擔(dān)心在無人駕駛方面,從民用無人機(jī)到自主駕駛車輛。譬如說,在緊急情況下,一輛無人駕駛車輛不得不在小風(fēng)險(xiǎn)的大事故和大幾率的小事故之間進(jìn)行選擇。另一個擔(dān)心在致命性智能自主裝備。她們是否該被嚴(yán)禁?若果是,這么“自主”該怎么精確定義。倘若不是,任何使用不當(dāng)和故障的過錯應(yīng)當(dāng)怎樣問責(zé)。還有另外一些疑慮,由人工智能漸漸可以剖析大量監(jiān)控?cái)?shù)據(jù)導(dǎo)致的隱私和憂慮著名物理學(xué)家霍金認(rèn)為無人駕駛,以及怎樣管理因人工智能代替工作崗位帶來的經(jīng)濟(jì)影響。而常年擔(dān)心主要是人工智能系統(tǒng)失控的潛在風(fēng)險(xiǎn),隨著不遵守人類意愿行事的超級智能的崛起,那種強(qiáng)悍的系統(tǒng)恐嚇到人類。
“人工智能的成功有可能是人類文明史上最大的風(fēng)波,然而人工智能也有可能是人類文明史的終結(jié)。”霍金總結(jié)道。
以下為霍金在上的講演實(shí)錄:
在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時(shí)也是對人類影響與日俱增的變化,是人工智能的崛起。簡單來說,我覺得強(qiáng)悍的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。我不得不說,是好是壞我們?nèi)圆淮_定。但我們應(yīng)當(dāng)竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利。我們別無選擇。我覺得人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這種問題必須在現(xiàn)今和將來得到解決。
人工智能的研究與開發(fā)正在迅速推動。其實(shí)我們所有人都應(yīng)當(dāng)暫停片刻,把我們的研究重復(fù)從提高人工智能能力轉(zhuǎn)移到最大化人工智能的社會效益前面。基于這樣的考慮,日本人工智能商會(AAAI)于2008至2009年,創(chuàng)立了人工智能常年未來總籌峰會,她們近日在目的導(dǎo)向的中性技術(shù)上投入了大量的關(guān)注。但我們的人工智能系統(tǒng)需要根據(jù)我們的意志工作。跨學(xué)科研究是一種可能的前進(jìn)公路:從經(jīng)濟(jì)、法律、哲學(xué)延展至計(jì)算機(jī)安全、形式化方式,其實(shí)還有人工智能本身的各個分支。
文明所形成的一切都是人類智能的產(chǎn)物,我相信生物腦部可以達(dá)到的和計(jì)算機(jī)可以達(dá)到的,沒有本質(zhì)區(qū)別。因而,它遵守了“計(jì)算機(jī)在理論上可以模仿人類智能,之后趕超”這一原則。但我們并不確定,所以我們沒法曉得我們將無限地得到人工智能的幫助,還是被踐踏并被邊沿化,或則很可能被它毀滅。的確,我們害怕聰明的機(jī)器將才能取代人類正在從事的工作,并迅速地剿滅數(shù)以百萬計(jì)的工作崗位。
在人工智能從原始形態(tài)不斷發(fā)展,并被證明十分有用的同時(shí),我也在擔(dān)心創(chuàng)造一個可以等同或趕超人類的事物所造成的結(jié)果:人工智能一旦脫離禁錮,以不斷加速的狀態(tài)重新設(shè)計(jì)自身。人類因?yàn)樵獾铰L的生物進(jìn)化的限制,難以與之競爭,將被替代。這將給我們的經(jīng)濟(jì)帶來極大的破壞。未來,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志。雖然我對人類一貫持有豁達(dá)的心態(tài),但其他人覺得,人類可以在相當(dāng)長的時(shí)間里控制技術(shù)的發(fā)展,這樣我們才能看見人工智能可以解決世界上大部份問題的潛力。但我并不確定。
2015年1月份,我和科技企業(yè)家埃隆·馬斯克,以及許多其他的人工智能專家簽訂了一份關(guān)于人工智能的公開信,目的是倡導(dǎo)就人工智能對社會所導(dǎo)致的影響做認(rèn)真的督查。在這之前著名物理學(xué)家霍金認(rèn)為無人駕駛,埃隆·馬斯克就警告過人們:超人類人工智能可能帶來不可估量的利益,而且假如布署不當(dāng),則可能給人類帶來相反的療效。我和他同在“生命未來研究所”的科學(xué)顧問委員會,這是一個為了減輕人類所面臨的存在風(fēng)險(xiǎn)的組織,但是之前提到的公開信也是由這個組織起草的。這個公開信呼吁展開可以制止?jié)撛趩栴}的直接研究,同時(shí)也收獲人工智能帶給我們的潛在利益,同時(shí)旨在于讓人工智能的研發(fā)人員更關(guān)注人工智能安全。據(jù)悉,對于決策者和普通大眾來說,這封公開信內(nèi)容詳實(shí),并非危言聳聽。人人都曉得人工智能研究人員們在認(rèn)真思考那些害怕和倫理問題,我們覺得這一點(diǎn)十分重要。例如,人工智能是有清除疾病和貧苦的潛力的,并且研究人員必須才能創(chuàng)造出可控的人工智能。那封只有四段文字,題目為《應(yīng)優(yōu)先研究強(qiáng)悍而有益的人工智能》的公開信,在其附送的十二頁文件中對研究的優(yōu)先順序作了詳盡的安排。
在過去的20年里,人工智能仍然專注于圍繞建設(shè)智能代理所形成的問題,也就是在特定環(huán)境下可以感知并行動的各類系統(tǒng)。在這些情況下,智能是一個與統(tǒng)計(jì)學(xué)和經(jīng)濟(jì)學(xué)相關(guān)的理智概念。淺顯地講,這是一種作出好的決定、計(jì)劃和結(jié)論的能力。基于這種工作,大量的整合和交叉蘊(yùn)育被應(yīng)用在人工智能、機(jī)器學(xué)習(xí)、統(tǒng)計(jì)學(xué)、控制論、神經(jīng)科學(xué)、以及其它領(lǐng)域。共享理論框架的構(gòu)建,結(jié)合數(shù)據(jù)的供應(yīng)和處理能力,在各類細(xì)分的領(lǐng)域取得了明顯的成功。諸如語音辨識、圖像分類、自動駕駛、機(jī)器翻譯、步態(tài)運(yùn)動和問答系統(tǒng)。
隨著這種領(lǐng)域的發(fā)展,從實(shí)驗(yàn)室研究到有經(jīng)濟(jì)價(jià)值的技術(shù)產(chǎn)生良性循環(huán)。哪怕很小的性能改進(jìn),就會帶來巨大的經(jīng)濟(jì)效益,因而鼓勵更常年、更偉大的投入和研究。目前人們廣泛認(rèn)同,人工智能的研究正在逐步發(fā)展,而它對社會的影響很可能擴(kuò)大,潛在的益處是巨大的,既然文明所形成的一切,都是人類智能的產(chǎn)物;我們難以預(yù)測我們可能取得哪些成果,當(dāng)這些智能是被人工智能工具放大過的。而且,正如我說過的,清除癌癥和貧窮并不是完全不可能,因?yàn)槿斯ぶ悄艿木薮鬂摿Γ芯吭鯓?從人工智能)受益并規(guī)避風(fēng)險(xiǎn)是極其重要的。
如今,關(guān)于人工智能的研究正在迅速發(fā)展。這一研究可以從短期和常年來討論。一些短期的擔(dān)心在無人駕駛方面,從民用無人機(jī)到自主駕駛車輛。例如說,在緊急情況下,一輛無人駕駛車輛不得不在小風(fēng)險(xiǎn)的大事故和大幾率的小事故之間進(jìn)行選擇。另一個擔(dān)心在致命性智能自主裝備。她們是否該被嚴(yán)禁?假如是,這么“自主”該怎么精確定義。倘若不是,任何使用不當(dāng)和故障的過錯應(yīng)當(dāng)怎樣問責(zé)。還有另外一些疑慮,由人工智能漸漸可以剖析大量監(jiān)控?cái)?shù)據(jù)導(dǎo)致的隱私和憂慮,以及怎樣管理因人工智能代替工作崗位帶來的經(jīng)濟(jì)影響。
常年擔(dān)心主要是人工智能系統(tǒng)失控的潛在風(fēng)險(xiǎn),隨著不遵守人類意愿行事的超級智能的崛起,那種強(qiáng)悍的系統(tǒng)恐嚇到人類。這樣錯位的結(jié)果是否有可能?若果是,這種情況是怎么出現(xiàn)的?我們應(yīng)當(dāng)投入哪些樣的研究,便于更好的理解和解決危險(xiǎn)的超級智能崛起的可能性,或智能爆發(fā)的出現(xiàn)?
當(dāng)前控制人工智能技術(shù)的工具,比如強(qiáng)物理習(xí),簡單實(shí)用的功能,還不足以解決這個問題。為此,我們須要進(jìn)一步研究來找到和確認(rèn)一個可靠的解決辦法來掌控這一問題。
最近的里程碑,例如說之前提到的自主駕駛車輛,以及人工智能博得象棋大賽,都是未來趨勢的征兆。巨大的投入飽含到這項(xiàng)科技。我們目前所取得的成就,和未來幾六年后可能取得的成就相比,必然相形見絀。并且我們遠(yuǎn)不能預(yù)測我們能取得哪些成就,當(dāng)我們的腦子被人工智能放大之后。似乎在這些新技術(shù)革命的輔助下,我們可以解決一些工業(yè)化對自然界引起的損害。關(guān)乎到我們生活的各個方面都正式被改變。簡而言之,人工智能的成功有可能是人類文明史上最大的風(fēng)波。
然而人工智能也有可能是人類文明史的終結(jié),除非我們學(xué)會怎么避開危險(xiǎn)。我以前說過,人工智能的全方位發(fā)展可能招致人類的戰(zhàn)敗,例如最大化使用智能性自主裝備。去年早些時(shí)侯,我和一些來自世界各國的科學(xué)家共同在聯(lián)合議會議上支持其對于核裝備的限令。我們正在急切的等待協(xié)商結(jié)果。目前,九個核大國可以控制大概一萬四千個核裝備,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農(nóng)田,最可怕的害處是誘發(fā)核冬天,火和煙霧會引起全球的小冰河期。這一結(jié)果使全球糧食體系倒塌,末日般動亂,很可能引起大部份人死亡。我們作為科學(xué)家,對核裝備承當(dāng)著特殊的責(zé)任,由于正是科學(xué)家發(fā)明了它們,并發(fā)覺它們的影響比最初想像的愈發(fā)可怕。
現(xiàn)階段,我對災(zāi)難的闡述可能驚嚇到了在座的諸位。很抱歉。并且作為明天的與會者,重要的是,大家要看清自己在影響當(dāng)前技術(shù)的未來研制中的位置。我相信我們團(tuán)結(jié)在一起,來號召國際條約的支持或則簽訂呈交給各國政府的公開信,科技領(lǐng)袖和科學(xué)家負(fù)極盡所能防止不可控的人工智能的崛起。
一個新的機(jī)構(gòu),企圖解決一些在人工智能研究快速發(fā)展中出現(xiàn)的尚無定論的問題。“利弗休姆智能未來中心”是一個跨學(xué)科研究所,旨在于研究智能的未來,這對我們文明和物種的未來至關(guān)重要。我們耗費(fèi)大量時(shí)間學(xué)習(xí)歷史,深入去看——大多數(shù)是關(guān)于荒謬的歷史。所以人們轉(zhuǎn)而研究智能的未來是令人欣慰的變化。其實(shí)我們對潛在危險(xiǎn)有所意識,但我內(nèi)心仍遵循豁達(dá)心態(tài),我相信創(chuàng)造智能的潛在利潤是巨大的。其實(shí)利用這項(xiàng)新技術(shù)革命的工具,我們將可以縮減工業(yè)化對自然界引起的傷害。
我們生活的每一個方面就會被改變。我在研究所的同學(xué)休·普林斯承認(rèn),“利弗休姆中心”能完善,部份是由于學(xué)院創(chuàng)立了“存在風(fēng)險(xiǎn)中心”。前者愈發(fā)廣泛地考量了人類潛在問題,“利弗休姆中心”的重點(diǎn)研究范圍則相對窄小。
人工智能的最新進(jìn)展,包括亞洲國會倡議起草一系列法規(guī),以管理機(jī)器人和人工智能的創(chuàng)新。令人倍感些許惋惜的是,這兒面涉及到了一種方式的電子人格,以確保最有能力和最先進(jìn)的人工智能的權(quán)力和責(zé)任。亞洲國會發(fā)言人評論說,隨著日常生活中越來越多的領(lǐng)域漸趨遭到機(jī)器人的影響,我們須要確保機(jī)器人無論如今還是將來,都為人類而服務(wù)。向意大利眾議院議長遞交的報(bào)告,明晰覺得世界正處于新的工業(yè)機(jī)器人革命的前沿。報(bào)告中剖析的是否給機(jī)器人提供作為電子人的權(quán)力,這等同于法人(的身分),其實(shí)有可能。報(bào)告指出,在任何時(shí)侯,研究和設(shè)計(jì)人員都應(yīng)確保每一個機(jī)器人設(shè)計(jì)都包含有中止開關(guān)。在庫布里克的影片《2001太空漫游》中,出故障的超級筆記本哈爾沒有讓科學(xué)家們步入太空艙,但那是懸疑。我們要面對的則是事實(shí)。奧斯本·克拉克跨國律師事務(wù)所的合伙人,洛納·布拉澤爾在報(bào)告中說,我們不承認(rèn)海豚和大猩猩有人格,所以也沒有必要急于接受一個機(jī)器人人格。并且擔(dān)心仍然存在。報(bào)告承認(rèn)在幾六年的時(shí)間內(nèi),人工智能可能會趕超人類智力范圍,人工智能可能會趕超人類智力范圍,從而挑戰(zhàn)人機(jī)關(guān)系。報(bào)告最后號召組建意大利機(jī)器人和人工智能機(jī)構(gòu),以提供技術(shù)、倫理和監(jiān)管方面的專業(yè)知識。倘若法國國會議長投票贊同立法,該報(bào)告將遞交給歐共體委員會。它將在三個月的時(shí)間內(nèi)決定要采取什么立法步驟。
我們還應(yīng)當(dāng)飾演一個角色,確保下一代不僅僅有機(jī)會還要有決心,在初期階段充分參與科學(xué)研究,便于她們繼續(xù)發(fā)揮潛力,幫助人類創(chuàng)造一個愈發(fā)美好的的世界。這就是我剛提到學(xué)習(xí)和教育的重要性時(shí),所要抒發(fā)的意思。我們須要跳出“事情應(yīng)當(dāng)怎樣”這樣的理論闡述,而且采取行動,以確保她們有機(jī)會參與進(jìn)來。我們站在一個美麗新世界的入口。這是一個令人激動的、同時(shí)飽含了不確定性的世界,而大家是先行者。我問候大家。
感謝!
以下為中國科技大咖、科學(xué)家、投資家和網(wǎng)友與霍金問答實(shí)錄:
創(chuàng)新工場的CEO李開復(fù)(問):互聯(lián)網(wǎng)大鱷擁有巨量的數(shù)據(jù),而這種數(shù)據(jù)會給她們各類以用戶隱私和利益換取暴利的機(jī)會。在巨大的利益誘惑下,她們是難以自律的。并且,這些行為也會造成小公司和創(chuàng)業(yè)者更難創(chuàng)新。您常提到怎樣約束人工智能,但更難的是怎么約束人本身。您覺得我們應(yīng)當(dāng)怎樣約束那些大鱷?
霍金:據(jù)我了解,許多公司僅將這種數(shù)據(jù)用于統(tǒng)計(jì)剖析,但任何涉及到私人信息的使用都應(yīng)當(dāng)被嚴(yán)禁。會有助于隱私保護(hù)的是,假如互聯(lián)網(wǎng)上所有的信息,均通過基于量子技術(shù)加密,這樣互聯(lián)網(wǎng)公司在一定時(shí)間內(nèi)便難以破解。但安全服務(wù)會反對這個做法。
第二個問題來自于獵豹聯(lián)通CEO傅盛(問):靈魂會不會是量子的一種存在形態(tài)?或則是高維空間里的另一個表現(xiàn)?
霍金:我覺得最近人工智能的發(fā)展,例如筆記本在國際圍棋和象棋的賽事中擊敗人腦,都顯示出人腦和筆記本并沒有本質(zhì)差異。這點(diǎn)上我和我的朋友羅杰·彭羅斯恰好相反。會有人覺得筆記本有靈魂嗎?對我而言,靈魂這個說法是一個基督教的概念,它和來生聯(lián)系在一起。我覺得這是一個童話故事。
第三個問題來自于百度總裁張亞勤(問):人類觀察和具象世界的方法不斷變遷,從初期的觀察和計(jì)算,到牛頓定理和愛因斯坦方程式,到明天數(shù)據(jù)驅(qū)動的估算和人工智能,下一個是哪些?
霍金:我們須要一個新的量子理論,將重力和其他自然界的其它力量整合在一起。許多人宣稱這是弦理論,但我對此表示懷疑,目前惟一的猜想是,時(shí)空有十個維度。
第四個問題來自于哈佛學(xué)院化學(xué)學(xué)院士張首晟(問):假若讓你告訴外星人我們?nèi)祟惾〉玫淖罡叱删停瑢懺谝粡堗]戳的反面,您會寫哪些?
霍金:告訴外星人關(guān)于美,或則任何可能代表最高藝術(shù)成就的藝術(shù)方式都是無益的,由于這是人類特有的。我會告訴她們哥德爾不完備定律和費(fèi)馬大定律。這才是外星人就能理解的事情。
文廚(問):我們希望倡導(dǎo)科學(xué)精神,貫串GMIC全球九站,清您推薦三本書,讓科技屆的同學(xué)們更好的理解科學(xué)及科學(xué)的未來。
霍金:她們應(yīng)當(dāng)去寫書而不是讀書。只有當(dāng)一個人關(guān)于某件事能寫出一本書,才代表他完全理解了這件事。
微博用戶(問):您覺得一個人一生中最應(yīng)該做的一件事和最不應(yīng)該做的一件事是哪些?”
霍金:我們絕不應(yīng)該舍棄,我們都應(yīng)該盡可能多的去理解(這個世界)。
微博用戶(問):人類在漫漫的歷史長河中,重復(fù)著一次又一次的革命與運(yùn)動。從石器、蒸汽、電氣……您覺得下一次的革命會是由哪些驅(qū)動的?
霍金:(我覺得是)計(jì)算機(jī)科學(xué)的發(fā)展,包括人工智能和量子估算。科技已然成為我們生活中重要的一部份,但未來幾六年里,它會漸漸滲透到社會的每一個方面,為我們提供智能地支持和建議,在醫(yī)療、工作、教育和科技等諸多領(lǐng)域。而且我們必需要確保是我們來掌控人工智能,而非它(掌控)我們。
最后一個問題來自于音樂人、投資者胡海泉(問):假如星際移民技術(shù)的成熟窗口期遲到,有沒有完全解決不了的內(nèi)發(fā)災(zāi)難造成人類滅絕?摒棄隕鐵撞月球這樣的外來災(zāi)難。
霍金:是的。人口短缺、疾病、戰(zhàn)爭、饑荒、氣候變化和水資源短缺,人類有能力解決這種危機(jī)。但很可惜,這種危機(jī)還嚴(yán)重恐嚇著我們在月球上的生存,這種危機(jī)都是可以解決的,但目前還沒有。