,而這些問題必須在現(xiàn)在和將來得到解決。當(dāng)下還無法判斷人工智能的崛起對人類來說到時是好事還是壞事,但我們應(yīng)該竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利”。
霍金表示,人工智能的研究與開發(fā)正在迅速推進(jìn)。也許我們所有人都應(yīng)該暫停片刻,把我們的研究重復(fù)從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會效益上面。
人類未來是否會被人工智能代替?霍金表示,人類無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。我們擔(dān)心聰明的機(jī)器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。
在2017年全球移動互聯(lián)網(wǎng)大會(GMIC)上,他曾通過視頻發(fā)表了《讓人工智能造福人類及其賴以生存的家園》主題演講。
<iframe allowfullscreen="" class="center-iframe" data-src="https://v.qq.com/iframe/preview.html?vid=x0507rlwnpa&width=500&height=375&auto=0" height="375" src="https://v.qq.com/iframe/player.html?vid=x0507rlwnpa&width=500&height=375&auto=0" width="500"></iframe>
這已經(jīng)不是霍金第一次提出“人工智能威脅論”。2017年3月,霍金向英國《獨立報》表示,人類必須建立有效機(jī)制盡早識別威脅所在,防止新科技(人工智能)對人類帶來的威脅進(jìn)一步上升。
霍金在會上表示,人工智能的威脅分短期和長期兩種。短期威脅包括自動駕駛、智能性自主武器,以及隱私問題;長期擔(dān)憂主要是人工智能系統(tǒng)失控帶來的風(fēng)險,如人工智能系統(tǒng)可能不聽人類指揮。
他還認(rèn)為,生物大腦和計算機(jī)在本質(zhì)上是沒有區(qū)別的。這與英國物理學(xué)家羅杰·彭羅斯的觀點恰恰相反,后者認(rèn)為作為一種算法確定性的系統(tǒng),當(dāng)前的電子計算機(jī)無法產(chǎn)生智能。
不過,霍金也表示,雖然他對人工智能有各種擔(dān)憂,但他對人工智能技術(shù)本身還是抱有樂觀的態(tài)度。他認(rèn)為人工智能帶來的收益是巨大的,人類或許借助這一強(qiáng)大的工具,可以減少工業(yè)化對自然的傷害。“但我們不確定我們是會被智能無限地幫助,還是被無限地邊緣化,甚至毀滅。”他補(bǔ)充道。

霍金在演講的最后說道:“這是一個美麗但充滿不確定的世界,而你們是先行者。”
讓我們共同緬懷這位人類歷史上偉大的科學(xué)家
2/2 首頁 上一頁 1 2 |