人工智能幫助診斷疾病和檢驗科學假設。根據IDC的分析師,到2022年,全球在AI上的支出將達到近780億美元,四年中增長了兩倍多。雖然人工智能似乎無所不能,但它無法處理許多任務。今天我們就來了解有一些人工智能尚無法解決的5個問題即:缺乏數據和安全性、假新聞和網絡欺凌、健康與信任、創造力和笑話和什么是智力。當然在現實世界中,我們需要對人工智能持現實態度,不要再期望它能夠解決人類的所有問題,畢竟人工智能也存在一定的缺陷,不能真正的替代人類生活。
問題1:缺乏數據和安全性
人工智能需要數據進行分析和培訓-如果沒有足夠數量的結構化數據,就不可能創建實用的人工智能解決方案。例如,要準確識別照片中的面部,您需要分析成千上萬張照片。
許多行業,尤其是公共部門,仍然依賴紙質檔案,要完全數字化將需要時間。對于企業而言,這意味著僅開發用于AI的軟件是不夠的-首先,您需要訪問數據。
麥肯錫全球研究所的一項研究表明,人工智能技術實施的領導者是金融科技和電信,而落后者是建筑,教育和旅游業,它們缺乏數字化數據。同時,數據質量與數據量同樣重要。基于低質量的數據構建正確的模型是不可能的。
因此,數據安全和保護免受入侵者亂扔垃圾和濫用的問題變得十分嚴重。公司必須在開始實施人工智能之前考慮網絡安全。
問題2:假新聞和網絡欺凌
人工智能尚無法將虛構的事實與事實相結合,并能抵制錯誤的信息。盡管OpenAI已經創建了人工智能來產生令人信服的“假新聞”,但是算法仍然識別出比人類更糟糕的假貨。
例如,Facebook放棄了人工智能來解決該問題,并雇用了10,000名能夠理解出版物文化細微差別的主持人。
人工智能的另一個局限性是:它無法識別社交網絡中的情緒。該缺點尤其妨礙有效地解決網絡欺凌問題。現有的機制要求必須抱怨進攻性職位的人員參與。
問題3:健康與信任
人們不信任人工智能,這極大地阻礙了人工智能的應用。IBM的Watson Oncology項目能夠為13種不同類型的癌癥推薦治療方案-在某些情況下,該算法的決策與腫瘤學專家的建議相同,為93%。
但是醫生還不準備將生死決定權委托給機器。人工智能犯下的潛在錯誤的責任問題也急劇上升。
此外,沃森接受過數據采樣的問題-外國醫院抱怨說該程序是針對美國的醫療實踐和治療的。結果,一些實施了該技術的醫院以高昂的成本和不令人滿意的結果而放棄了該技術。
也許有一種方法可以解決社會對人工智能的不信任。美國科學家進行的一項研究表明,如果人們可以對AI算法進行較小的更改,他們就會愿意信任AI。
問題4:創造力和笑話
人工智能缺乏創造力-它只能模仿人的風格,而不能創造自己的風格。媒體長期以來一直使用AI來撰寫體育新聞和犯罪故事,但是機器人表演的笑話和小說仍然不能受到批評。
在2018年,一個經過43,000個笑話訓練的神經網絡開始產生胡說八道,例如“如果與恐龍雜交,您會得到什么?律師。” 顯然,我們不應期望幽默領域發生機器革命。
散文并沒有什么更好的事情:盡管有一些發展證明了人工智能書寫故事的能力,但要使計算機贏得諾貝爾文學獎,還有很長的路要走。
問題5:什么是智力
蘋果聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)建議使用“咖啡測試”來衡量機器智能能力。要通過沃茲尼亞克的測試,
機器人必須進入一個陌生的公寓,找到咖啡機,倒水,拿出杯子,煮咖啡。到目前為止,沒有人能夠通過這項測試。“咖啡測試”有很多笑話,但它顯示了現代機器智能的嚴重局限性。
Landing AI和Coursera的創始人Andrew Ng認為,有可能成功地自動化那些人類花費不到一秒鐘的智能任務。
問題在于人們本身還沒有完全理解什么是智能。幾十年來,研究人員一直認為,理想的智力測量方法是下棋。如今,大師們無法與機器競爭,但是聊天機器人和語音助手保持有意義的對話的能力已經超過了一個五歲孩子的能力。
解決方案:如何將問題變成挑戰如今,人工智能的所有局限性對開發人員和企業家都是一個挑戰。機器無法控制的任務對新一代的研究人員來說應該是一個挑戰。
例如,可以創建一種基于社交網絡消息來猜測一個人的情緒的服務,或者訓練一個神經網絡來開個俏皮的笑話,并基于此創建一個征服世界的病毒式應用程序。
好了,關于人工智能尚無法解決的5個問題介紹到這里就結束了,想了解更多關于人工智能的信息,請繼續關注中培偉業。