到底什么才是人工智能,怎樣統(tǒng)一大家的意見,形成共識,為它定性?這在最近已經成為了科技圈里的熱門話題。
一些人將 AI 看做是「認知計算」或者「機器智能」;而另外一些人將「AI」和「機器學習」給完全等同了起來。之所以會出現(xiàn)這么多的說法,主要是因為我們大家現(xiàn)在所說的「人工智能」,并不是某一個單純的技術,它事實上已經成為了很多學科交叉后的領域:從機器人到機器學習,無所不包。
而人工智能的目的,其實現(xiàn)在絕大多數(shù)人已經達成了共識:開發(fā)一種能夠執(zhí)行任務,具備某種認知功能的機器,而這種執(zhí)行任務的能力和認知功能,原本只屬于人類智能的范疇當中的。為了達到這種狀態(tài),機器必須具備自我學習的能力。
在過去的十年時間里,AI 領域出現(xiàn)了何等驚人的進步,無論是無人自駕駛汽車的逐步成熟,還是語音識別技術的日趨完善。在這樣的大背景之下,人工智能已經跳脫出了 20 年前固有的形象,第一次在公司和消費者面前生動立體了起來:它是真的可以影響到我們每天生活的啊!
確實,現(xiàn)在各大媒體報刊都在用頭條講述人工智能領域出現(xiàn)的一舉一動,詳細闡述長期 AI 戰(zhàn)略,但就在這樣的火熱環(huán)境下,大眾仍然搞不清楚人工智能究竟是什么,同時,政府其實也在這方面表現(xiàn)的遲鈍一些,到底技術自動化對于整個社會有著怎樣的影響?
在這個前提下,本文向大家介紹人工智能領域下的六個細分領域,它們中任何一個現(xiàn)如今都是科研領域的大熱門。所以,跳脫出人工智能這個籠統(tǒng)的范疇,轉而研究這幾個細分具體化的領域,也許才是更加靠譜的討論方式。因為我們未來的數(shù)字產品和服務,都將被它們所左右。
在本文中,我會描述它們是什么,為什么重要,如今怎么來應用它們。最后,還會給出一個清單(當然不會是完全詳盡的),上面列出來有關這些領域的科技公司。
1. 強化學習(Reinforcement learning)
人們在學習一項新技能的時候,往往會有一個試錯的過程,而 RL(強化學習)就是從這個模式中演化而來。在一個標準的 RL 設定中,軟件的任務是觀察在數(shù)字環(huán)境中當下所處的狀態(tài),并根據(jù)已經定好了的最終要達到的效果,采取行動來不斷地接近這個目標。在這個不斷接近的過程中,軟件每執(zhí)行一個動作,它都能從這個數(shù)字環(huán)境中得出一個判斷:這個動作到底是推動了我向目標前進,還是阻礙了。
⊥在這種不斷試探、確認、再試探的反復過程中,軟件逐步找到最優(yōu)策略和路徑。
該領域之所以會引起大家的注意,是 Google DeepMind 在 Atari games 這個項目上應用了這項技術。而目前這項技術在現(xiàn)實中應用的最大價值竟然是給 Google 的數(shù)據(jù)中心降溫!
數(shù)據(jù)中心中里眾多服務器、存儲設備、網(wǎng)絡設備等等在 24 小時的運行著,同時散發(fā)著巨大的熱量,采用常規(guī)的冷空調系統(tǒng)降溫,不僅使整個數(shù)據(jù)中心的能耗增大,成本也會相應提高一大塊。而 Google 在利用了 RL 技術可以使得降溫成本下降 40%。
在一個可以被模擬的數(shù)字環(huán)境(比如視頻游戲)中,應用 RL 工具的最大好處就是可以以很低的成本獲取到機器學習的數(shù)據(jù)。這跟「監(jiān)督式深度學習」(supervised deep learning)有著明顯區(qū)別,后者獲取數(shù)據(jù)的成本很高,在現(xiàn)實世界中應用的難度也較高。
應用:軟件在迷宮中找路,或者是給無人自駕駛技術在城市街道上行駛提供技術支持,還比如在視頻游戲中,讓 NPC 開始學習使用一些高度擬人化的行為。
處在這個領域里的公司:Google DeepMind, Prowler.io, Osaro, MicroPSI, Maluuba/Microsoft, NVIDIA, Mobileye, OpenAI.
2. 生成式對抗網(wǎng)絡
跟那些用來分類、或者執(zhí)行「回歸任務」的可識別人工智能相比,歸納模型基于某個學習對象,可以自發(fā)生成一個高度類似的圖像。
⊥比如說,給軟件看過一張人臉照片之后,它就能立刻生成一張類似的,機器合成的照片。這個技術的基礎其實是:「生成式對抗網(wǎng)絡」(generative adversarial networks) 在人工智能領域非;鸨,因為它給人們提供出來了一條直抵「非監(jiān)控式機器學習」的路徑。
生成式對抗網(wǎng)絡(Generative Adversarial Nets,GAN)在 2016 年所召開的 NIPS(神經信息處理系統(tǒng)大會)上大放異彩,成為神經網(wǎng)絡最受關注的技術之一,其實 GAN 的思想其實十分樸素:有一對模型,一個生成模型(G)生成假樣本,最好是六耳獼猴,直叫眾人真假難辨;一個判別模型(D)識別假樣本,最好是火眼金睛,敢讓贗品無所遁形。
那么 GAN 的訓練過程就變成了生成模型(G)和判別模型(D)之間的競爭過程——隨機從真實樣本和由生成模型(G)生成出的「假樣本」中取一個,讓判別模型(D)去判斷是否為真。把這個問題,轉化為了一個博弈的問題。利用納什均衡來得到最終的目標函數(shù)。
應用案例:在時間序列中模擬出未來(例如規(guī)劃未來的工作);通過 2D 圖片來恢復 3D 結構;在視頻中預測下一幀,在對話界面上開發(fā)出自然語言,將音樂和語音進行合成等等。
目前正在做這件事的公司:Twitter Cortex、Adobe、Apple、Prisma、Jukedeck、Creative.ai, Gluru*, Mapillary*, Unbabel.。
3. 具有記憶的網(wǎng)絡
這個世界是千姿百態(tài)的,為了在這樣一個復雜多變的世界里,像人類一樣的去歸納、總結、分類,它們必須能持續(xù)不斷地學習執(zhí)行新的任務,記住這些任務的執(zhí)行方式并不斷地應用到未來。
但是,傳統(tǒng)的神經網(wǎng)絡是沒有辦法做到這一切的。它們只有在「忘記」了某些信息之后,才能連續(xù)地執(zhí)行任務。這個短板有個專有名詞:「災難性遺忘」。原因在于,執(zhí)行 A 任務時,對于機器來說非常重要的「權重」,到了執(zhí)行 B 任務的時候就徹底變了。
但是,現(xiàn)在有一些非常強大的系統(tǒng),能夠給予神經網(wǎng)絡不同程度的記憶能力。比如「長短期記憶網(wǎng)絡」(一個重復型神經網(wǎng)絡的衍生品),能夠處理和預測時間序列;比如 DeepMind 的「可辨神經計算機」,它能將神經網(wǎng)絡和記憶系統(tǒng)給結合起來,從而自行地學習,并組織復雜的數(shù)據(jù)結構;比如「彈性權重整合算法」,它能夠跟當前任務跟前一個任務進行對比,按照不同的重要級別,放慢對某些權重的學習速度;比如「激進式神經網(wǎng)絡」,它能夠在「目標明確的任務」之間建立一些橫向聯(lián)系,從之前已經習得的任務中提拳驗,然后將這些經驗應用到新的任務當中。
∵體的應用:某些可以歸納經驗,應用到新環(huán)境里的學習工具;機器人手臂控制系統(tǒng);無人自駕駛汽車;時間序列預測系統(tǒng)(比如金融市場交易工具、視頻、物聯(lián)網(wǎng)等);自然語言理解及聯(lián)想詞技術。
在該領域的公司: Google DeepMind, NNaisense (?), SwiftKey/Microsoft Research, Facebook AI Research.
4. 即便數(shù)據(jù)少,也能學習;并且打造更為小巧的模型
一般來說,在大家的理解中,深度學習都是要求海量的學習數(shù)據(jù),從而達到世界頂尖的表現(xiàn)水平的。就比如說之前有一個教機器識別圖像的研究項目,光是學習材料就包括了 120 萬張圖片,手動一個個的標注,歸納到了 1000 個物體類別里。
深度學習從某種意義上來說就必須這么做。而且對越是復雜的任務,對數(shù)據(jù)量的要求就會直線上升,比如說「語音識別」和「機器翻譯」,更復雜的任務是把一段語音輸入進去,一段文本輸出出來。
但目前,研究人員為了降低這其中的復雜程度,決定使用多個神經網(wǎng)絡來分解這種復雜性,每一個生成的結果都成為了下一個系統(tǒng)的學習材料。就比如說語音輸入后,轉化成為音素、音素再轉化成為字詞、字詞再轉化成為指令。
如果我們真的想讓人工智能系統(tǒng)解決復雜的任務,它們往往特別具有挑戰(zhàn)性,成本很高,耗時很長,那么開發(fā)多個學習模型,從更少的例子中去得到最優(yōu)的解決方案,這一個思路就顯得尤其重要了。在面向小規(guī)模的數(shù)據(jù)組進行學習的時候,也是存在挑戰(zhàn)的,比如「過度擬合問題」,「在處理離群值上」也會很困難。
應用:機器翻譯、SqueezeNet 項目。
目前在該領域從事開發(fā)工作的公司:Geometric Intelligence/Uber, DeepScale.ai, Microsoft Research, Curious AI Company, Google, Bloomsbury AI.
5.專門為人工智能而設計的硬件
之所以 AI 技術現(xiàn)在出現(xiàn)了這么驚人的爆發(fā),其中一個原因是圖形處理單元(GPU)功能上的延展。不同于中央處理器,GPU 提供了多重平行結構,可以同時處理很多任務。在 GPU 上進行機器學習要明顯比在 CPU 上快很多。
自從 2012 年 AlexNet 一戰(zhàn)成名以后,如果說機器學習是一場淘金熱的話,那么 GPU 就成為了淘金的鏟子。NVIDIA 一直以來引領這股風潮,帶領我們走進了 2017 年,在這方面它的實力遙遙領先于 Intel、Qualcomm、AMD、 以及 Google 公司。
但是,GPU 畢竟不是專門為機器學習、推理來開發(fā)的一款產品,它們是專門為視頻游戲來提供圖像支持處理的,而且它們往往在計算性能上面往往擁有高精準度,是以犧牲內存帶寬和數(shù)據(jù)吞吐量而換來的。
所以,正是基于這樣的考慮,現(xiàn)在很多人開始創(chuàng)辦初創(chuàng)公司,還有一些大公司,比如 Google 也自己開設新的項目,專門為機器學習項目來量體裁衣開發(fā)新的硬件。這種全新的硬件所具有的特點是:存儲帶寬大,高計算密度,能耗相對較低。在這種硬件的基礎上,我們可以進行更加快速,更多高效的模型學習,更好的用戶體驗,用戶跟產品交互的次數(shù)也變多了,最終帶來更加豐富的數(shù)據(jù)量,通過優(yōu)化再提升模型的表現(xiàn),以此來循環(huán)往復進行機器學習。
應用:快速學習模型(尤其是在圖像上面),依托物聯(lián)網(wǎng)設備來運行 AI 系統(tǒng),永遠處于「傾聽」狀態(tài)之中的物聯(lián)網(wǎng)設備,以云基礎設施作為服務,無人自駕駛汽車,無人機和機器人。
目前在這個領域的公司: Graphcore, Cerebras, Isocline Engineering, Google (TPU), NVIDIA (DGX-1), Nervana Systems (Intel), Movidius (Intel), Scortex
6. 模擬環(huán)境
之前我們就討論過,為人工智能系統(tǒng)來生成學習數(shù)據(jù),這項工作充滿了挑戰(zhàn)性。更重要的是,人工智能得出的結論必須能夠跟我們的現(xiàn)實生活,應用情景息息相關。于是,在這樣的考量之下,通過開發(fā)一個數(shù)字化的環(huán)境,模擬現(xiàn)實世界的物理機制和行為,這將給我們在評估和訓練人工智能上面提供一個非常理想的平臺。在這樣一個平臺上,我們會更加了解人工智能學習的方式,提升它們的途徑,同樣也能給我們帶來真正能夠可以轉化成為現(xiàn)實應用的訓練模型。
投稿郵箱:chuanbeiol@163.com 詳情請訪問川北在線:http://m.sanmuled.cn/