人工智能在2018年的5大挑戰(zhàn)
2017年,我們親眼目睹了人工智能領(lǐng)域的數(shù)個重大突破??墒侨绻憬蚐iri或是Alexa聊過天,人工智能在2018年的5大挑戰(zhàn)。
摘要:
2017年,我們親眼目睹了人工智能領(lǐng)域的數(shù)個重大突破??墒侨绻憬蚐iri或是Alexa聊過天,你會發(fā)現(xiàn)在風(fēng)口之下,仍有許多東西是AI無法理解的。以下我們列舉了5個亟待眾多科學(xué)家和工程師在接下來2017年,我們親眼目睹了人工智能領(lǐng)域的數(shù)個重大突破。可是如果你近和Siri或是Alexa聊過天,你會發(fā)現(xiàn)在風(fēng)口之下,仍有許多東西是AI無法理解的。以下我們列舉了5個亟待眾多科學(xué)家和工程師在接下來的一年中進(jìn)一步研究的問題。
話語的真實含義
機(jī)器在使用文本的領(lǐng)域獲得了###的發(fā)展。Facebook可以為視障人士讀出圖片的內(nèi)容。谷歌在自動生成回復(fù)郵件方面也做得越來越好。然而軟件仍然無法理解我們話語的真實含義。“我們可以將我們學(xué)過的概念自行多樣的組合,再將它們應(yīng)用到新的環(huán)境中,”Melanie Mitchell,波特蘭州立大學(xué)的教授這樣說道,“可這些AI系統(tǒng)卻無法這樣做。” Mitchell認(rèn)為如今的軟件遇到的關(guān)卡的名字叫做“語義的壁壘?!睘榱丝邕^這一難關(guān),許多###的AI研究隊伍都在進(jìn)行不同的嘗試。有人致力于讓機(jī)器具有人類所說的常識。Facebook研究院則正在嘗試通過播放視頻來教導(dǎo)軟件理解###。也有人希望通過讓AI模仿人類來獲得知識。谷歌已經(jīng)開始著手研發(fā)可以理解隱喻的人工智能系統(tǒng)。
阻止機(jī)器人革新的現(xiàn)實差距
這些年,機(jī)器人硬件逐步升級??蔀槭裁次覀兩磉呥€沒有被智能助手包圍呢?那是因為如今的機(jī)器人仍然缺乏一個足夠智能的大腦來管理已經(jīng)非常復(fù)雜的四肢。
每當(dāng)我們希望機(jī)器人去做一件什么事,都要為了這個任務(wù)去進(jìn)行特別的編程。機(jī)器人可以通過重復(fù)訓(xùn)練學(xué)會類似于抓取物體之類的能力。但是整個過程非常緩慢。解決這一為題的方法之一是讓機(jī)器人在虛擬的###中進(jìn)行訓(xùn)練,然后將知識下載到機(jī)器人身體中。然而,據(jù)經(jīng)驗顯示,機(jī)器人在仿真現(xiàn)實中學(xué)到的知識常常無法在實際生活中成功實現(xiàn),而這一“現(xiàn)實差距”是長期煩擾研究者的一大難題。
然而,十月份,谷歌在報告中表示,他們的機(jī)器人手臂已經(jīng)可以在虛擬和現(xiàn)實中撿起各種各樣的物體。這著實是這一領(lǐng)域的一大突破。而如果這方面成功的實例越來越多,人們離無人車大規(guī)模使用的日子將越來越近。畢竟, 許多公司都希望其模型無人車可以在仿真環(huán)境中進(jìn)行試驗,從而減少研究的投入和試驗時長。
保衛(wèi)AI,抵御黑客
現(xiàn)在正在運(yùn)行著我們的電網(wǎng),攝像機(jī)和手機(jī)的軟件充滿了安全漏洞。而無人車和家用機(jī)器人可能也不會有多大的改善。事實上,已經(jīng)有證據(jù)表明復(fù)雜的機(jī)器學(xué)習(xí)軟件為黑客攻擊提供了新門路。
這一年,研究者們已經(jīng)展示了如何在機(jī)器學(xué)習(xí)系統(tǒng)里面隱藏秘密開關(guān),使得智能系統(tǒng)一秒轉(zhuǎn)換為邪惡模式。NYU的一個研究團(tuán)隊發(fā)明了一個路標(biāo)識別系統(tǒng),只在看見換色的便利貼時無法正常工作。打個比方,如果你將一張便利貼貼在一個布魯克林的停止路標(biāo)上,系統(tǒng)將會顯示這是一個限速標(biāo)識。這樣的詭計為未來無人車的應(yīng)用暗中設(shè)置了不小的風(fēng)險。
研究人員已經(jīng)充分意識到了這一問題的嚴(yán)重性,并在為重要的機(jī)器學(xué)習(xí)大會上舉行了的工作坊,專門研究欺騙機(jī)器識別的黑客問題。
Tim Hwang,這一工作坊的組織者,預(yù)測未來機(jī)器學(xué)習(xí)會變得越來越方便使用,也因此會獲得更強(qiáng)的對人的支配能力?!澳銓⒉恍枰晃葑拥牟┦縼韴?zhí)行機(jī)器學(xué)習(xí),”他說道,并指出2016年總統(tǒng)選舉中俄羅斯的行為已經(jīng)提前打響了AI時代的信息戰(zhàn)?!盀槭裁慈藗兛床灰娫谶@些活動中機(jī)器學(xué)習(xí)的身影呢?”他質(zhì)疑道。在Hwang看來,未來機(jī)器學(xué)習(xí)將會對信息傳播起到越來越重要的作用,尤其是在它可以制作虛假影像和音頻之后。
從各種桌面游戲中畢業(yè)
Alphabet Go在2017以驚人的速度進(jìn)化著。五月,更新過的系統(tǒng)打敗了中國的###圍棋。而其創(chuàng)造者,DeepMind造出了AlphaGo Zero,一個自學(xué)成才的升級版Alphabet Go。12月,另一個版本,AlphaZero,可以以相似的方法學(xué)習(xí)國際象棋和日本將棋。
以上的成果是令人驚嘆的,但是也提醒著我們AI軟件的局限。這些棋類都有著簡潔明確的規(guī)則,而且所有操作對對弈雙方都是一目了然。顯然,現(xiàn)實生活從未這樣運(yùn)作過。
這是為什么DeepMind和Facebook都開始研究多玩家的電子游戲StarCraft。但是這兩個公司都沒有太大的進(jìn)展。DeepMind的研究人員向記者透露道,他們的軟件仍然缺乏計劃和記憶的能力,所以無法有效的指揮軍隊并預(yù)估對手的反應(yīng)。而這兩項技能是現(xiàn)實社會中為可貴的能力。因此,在這些領(lǐng)域的突破都將對設(shè)計更為強(qiáng)大的AI應(yīng)用有著重要的意義。
教會AI分辨對錯
即使AI在以上領(lǐng)域無法短時間內(nèi)取得突破,如果整個社會開始逐步采用現(xiàn)有的AI技術(shù),那么我們的生活早已經(jīng)天翻地覆。但是雖然公司和政府急于想要達(dá)成這一目標(biāo),一些人非常擔(dān)心這可能給社會帶來的損害。
怎樣讓科技保持在一個安全,符合倫理的空間里呢?研究人員在近期召開的會議中表明,他們發(fā)現(xiàn)機(jī)器學(xué)習(xí)系統(tǒng)有可能會學(xué)習(xí)到非常令人不悅的思想和行為?,F(xiàn)在人們正在努力審計AI系統(tǒng)的內(nèi)部工作原理,來保證它們會做出盡可能公正的決定。
接下來的一年對科技公司是一個很大的挑戰(zhàn),因為他們要保證AI站在人性的一邊。谷歌,F(xiàn)acebook,Microsoft和其他大型公司已經(jīng)開始討論這一問題。越來越多的獨(dú)立的聲音開始給科技產(chǎn)業(yè)施壓。一個相關(guān)公益計劃聚集了MIT,哈佛和其他多家高校的研究人員一同探討AI與公共利益的關(guān)系。
由此來看,新的一年,與AI技術(shù)一同增長的,將是人們對于AI社會影響的討論。而可以肯定的是,這個討論越多元化,我們與創(chuàng)新科技機(jī)械制造的關(guān)系也將越和諧。