美國(guó)機(jī)器人制造專(zhuān)家 機(jī)器人統(tǒng)治世界與意識(shí)無(wú)關(guān)
羅德尼是在當(dāng)天舉行的2015夏季達(dá)沃斯論壇首場(chǎng)發(fā)布會(huì)上做上述表述的。
羅德尼認(rèn)為,唯一和機(jī)器人意識(shí)相關(guān)的,是人類(lèi)社會(huì)是否賦予機(jī)器人以權(quán)利。“如果未來(lái)有一天,機(jī)器人真的有意識(shí),我們就要面臨這樣的抉擇——是否賦予機(jī)器人相應(yīng)的‘人權(quán)’。”
日前,在德國(guó)大眾汽車(chē)公司的一家工廠,機(jī)器人“出手”殺死了一名工作人員,有關(guān)人工智能的安全問(wèn)題一度引發(fā)世界各國(guó)民眾的熱議。
對(duì)此,美國(guó)人工智能專(zhuān)家斯圖爾特。羅素表示,完全控制機(jī)器人的難點(diǎn)是無(wú)法知道機(jī)器人按照何種方式去實(shí)現(xiàn)目標(biāo)。斯圖爾特稱(chēng),人類(lèi)可以保證機(jī)器人行動(dòng)的結(jié)果,但無(wú)法保證機(jī)器人為實(shí)現(xiàn)目標(biāo)而采用的方式——當(dāng)機(jī)器人足夠智能的時(shí)候,過(guò)程就遠(yuǎn)比結(jié)果更難控制。
在兩位專(zhuān)家看來(lái),人類(lèi)從來(lái)不會(huì)因?yàn)楹ε挛磥?lái),而放棄走向未來(lái)。“當(dāng)年人們認(rèn)為原子武器對(duì)人類(lèi)有威脅,但并沒(méi)有因此放棄對(duì)原子物理的研究。如今,這一領(lǐng)域的研究也幫助人類(lèi)解決了很多大問(wèn)題。”斯圖爾特說(shuō)。
未來(lái)人工智能有可能帶來(lái)威脅嗎?兩位制造專(zhuān)家表示,機(jī)器人更可能帶來(lái)的是一種“挑戰(zhàn)”。在未來(lái),人類(lèi)需要確保人工智能才可以完全讓機(jī)器人受控制。
美國(guó)機(jī)器人制造專(zhuān)家:機(jī)器人統(tǒng)治世界與意識(shí)無(wú)關(guān)