很早之前,著名的物理學(xué)家和宇宙學(xué)家霍金就提出了“人工智能威脅論”,在他看來(lái),如果有人設(shè)計(jì)計(jì)算機(jī)病毒,那么就有人設(shè)計(jì)不斷自我完善、直到最終超越人類的人工智能,而這些人工智能很可能通過(guò)戰(zhàn)爭(zhēng)摧毀人類,世界就將以一種新的生命形式出現(xiàn)。
我們需要認(rèn)識(shí)到人工智能對(duì)人類的威脅,并及時(shí)化解這一威脅的存在。之前霍金在表明他對(duì)人工智能的擔(dān)憂時(shí),就表示人類必須建立有效機(jī)制盡早識(shí)別威脅所在,防止新科技(人工智能)對(duì)人們類帶來(lái)的威脅進(jìn)一步上升,他認(rèn)為人類要用邏輯和理性去控制未來(lái)可能出現(xiàn)的威脅。
霍金表示:一個(gè)高度發(fā)達(dá)的人工智能可以很好地完成他的目標(biāo),如果這些目標(biāo)沒(méi)有和我們?nèi)祟愐恢?,那人類就麻煩了。近年?lái)隨著人工智能技術(shù)的高速發(fā)展,其潛在的威脅也受到了越來(lái)越多科學(xué)家的關(guān)注,英國(guó)牛津大學(xué)教授、人類未來(lái)研究所創(chuàng)始人Nick Bostrom表示:隨著世界的不斷分化,我們?cè)诓粩嚅_發(fā)出越來(lái)越強(qiáng)大的工具,我不確定人類是否能夠長(zhǎng)期生存下去。
霍金稱:自從人類文明形成以來(lái),來(lái)自生存能力優(yōu)勢(shì)群體的侵略就一直存在,而人工智能的進(jìn)一步發(fā)展就有可能更具有這種優(yōu)勢(shì),它們自身將比人類更加強(qiáng)大與完美,并可能通過(guò)核戰(zhàn)爭(zhēng)或生物戰(zhàn)爭(zhēng)毀滅人類。因此盡早的建立完善的機(jī)制防止未來(lái)可能出現(xiàn)的威脅很有必要。
無(wú)獨(dú)有偶,前段時(shí)間出現(xiàn)了一個(gè)震驚世界的消息:Facebook人工智能研究實(shí)驗(yàn)室的兩個(gè)AI聊天機(jī)器人互相對(duì)話時(shí),竟逐漸發(fā)出人類無(wú)法理解的獨(dú)特語(yǔ)言。這些看似冷冰冰的機(jī)器,正在逐漸擁有了像人類一樣的思考能力,乃至自我意識(shí)。所以說(shuō),人類建立完善的機(jī)制來(lái)做預(yù)防是何等的重要。
那么問(wèn)題就來(lái)了:人工智能已經(jīng)滲透到各行各業(yè),當(dāng)人工智能具有什么條件時(shí)才會(huì)對(duì)人類造成毀滅性的威脅?
想了解更多IT資訊,請(qǐng)?jiān)L問(wèn)中培偉業(yè)官網(wǎng):中培偉業(yè)