<address id="nzfpj"></address>
<noframes id="nzfpj">

    <form id="nzfpj"><th id="nzfpj"><progress id="nzfpj"></progress></th></form><noframes id="nzfpj"><address id="nzfpj"></address>
      北京物流信息聯盟

      文科生的人工智能、量子計算科普文章(上)

      嶺南天問閣 2021-10-28 06:46:14

      本文力求用簡單的語言介紹當前最熱、最深奧的前沿科技:人工智能、量子計算。

      不求精確,但求好懂。



      人工智能與量子計算,通向黑暗世界的地獄之門?還是通向隨機世界的上帝伊甸園?

      ---------從量子退火計算機與深度學習的原理看黑暗世界



      大熱的人工智能,重新讓量子計算這個神秘的超級算力設備相關的話題熱了起來。熟悉這兩個領域的專家,應該都知道,無論是目前谷歌alpha go人工智能背后的深度計算,還是量子計算機里第一個做到實用的Dwave 128位量子計算機,其所依賴的都是大自然的“神秘”力量:


      人們無法理解深度學習學出來的模型、更無從更改和準確控制這個模型的輸出,量子退火也是依靠“大自然”來模擬大自然,并不是在人類算法控制下的精確計算。


      為什么有那么多超級人類擔憂甚至抵制人工智能,這或許就是原因之一,甚至是根本原因。下面將通過介紹人工智能(特別是深度學習)、量子計算(以目前接近可用的量子退火計算機為例)的基本管理,解釋上面這個論斷的原理。


      因為這兩個話題實在有些專業,所以,我盡量不引用教科書,尤其是那些充滿了奇怪符號的公式(其實數學公式不過是換了一種語言來表達同一個意思,如果不能用人類語言描述清楚的,公式也肯定描述不清楚)。


      讓alpha go屹立江湖的深度計算,并不是什么新技術,她是仿生模擬人腦的神經元計算的升級版本,在60多年的AI人工智能發展史上,是眾多的研究工具中的一個,其他的方法還有(不必在意這些專有名詞,你可以直接跳過去):


      1 Search and optimization 搜索及優化
      2 Logic 邏輯和推理
      3 Probabilistic methods for uncertain reasoning 不確定推理的概率方法
      4 Classifiers and statistical learning methods分類和統計學習方法
      5 Control theory 智能控制
      6 GOFAI and languages 符號與語言


      其中,模擬人腦神經元結構是最容易想到的方法,神經元的構造高中的時候我們都學過:


      神經元可以抽象成連著輸入與輸出的黑盒子,給定一個輸入(刺激),經過黑盒子后得到一個輸出(反應):


      用數學描述黑盒子的功能(function,咱們課本上是一個很玄的專用翻譯:函數),就是仿生人工智能要干的事:


      實際的神經元模型比這個稍微復雜一點,如下:



      上面的圖中,a1、a2、……、an是輸入,? t是輸出,需要計算(機器學習)的參數有w1、w2……wn、b,以及需要選擇的函數類型f。


      所謂機器學習,就是在已知輸入 a 的情況下,找到一個能夠映射到已知輸出 t 的辦法(f和w)。

      舉個栗子,把一張貓的圖片輸入進去,計算出來如果不是貓,就繼續迭代修改參數,直到計算出來是貓。接著再給一張貓的圖片,……,直到模型越來越準確。



      把大量這種黑盒子串聯、并聯在一起,就是大腦的模型了,大腦有300億個神經元,所以這個模擬是很龐大的,并行的數量、和串行的深度,都非常巨大。

      這就是為什么,這個模型早在1943代就由沃倫·麥卡洛克和沃爾特·皮茨提出來了,但是直到21世紀后才再次煥發的原因:需要大量的計算能力,特別是并行計算能力。



      至于為什么是這一組參數和這個函數,而不是另外的,沒有道理可講,沒有人類可以理解的邏輯推理。


      當然實際的過程稍微復雜,比如:為什么叫深度學習(deep learning)呢?因為一層模型發現準確度很差,于是增加層數:



      隨著模型的復雜,增加的層數越來越多:



      “學習”到的大量參數,構成了這個超級黑盒子,也就是所說的模型了,由于這些參數不是邏輯推導出來的,而是一種反饋、試錯、逼近的模型,當模型完成時,牽出去溜溜,結果在執行中出錯(比如把美國黑人識別成了大猩猩,別笑,我說的是真實發生的),我們無法通過修改參數、來達到控制輸出的目的,因為,修改參數后的輸出是不確定的(未知的),也就是我們無法當場改變他的輸出,只能拉回家繼續大量的學習特定知識,才有可能逐步逼近、提升準確度。這就是深度學習的全部邏輯,也就是黑暗世界的來源!


      對于非致命應用無關緊要,最多吃個性別、種族歧視的官司。但是,如果是一個執行任務的機器人警察或者士兵、或者干脆是個汽車,當他們在你周圍活動的時候,就讓人后背發涼了。當未來的機器錯殺了人,我們是無法知道直接原因出在哪里的。也許有人浪漫的說:機器人三定律,機器人永遠不能殺人。怎么會出現這種情況呢?問題出在:機器人怎么知道你是人?如果他認為你是一個大猩猩呢?


      我們的世界,從此變成了一個量子世界:不確定的世界……


      有人可能不屑一顧。如果我們看看這個星球上最智能的物種:人類,用了多少年的代價才進入相對的文明時代,不再有全球大規模的屠殺和戰爭。這還是建立在人類之前的動物已經進化了數億年基礎之上!


      退一步,即使不用人工智能做致命的工作,深度學習目前也還有很多局限性,除了前面提到的巨大的并行計算能力,還有就是需要大量的數據”喂“她。


      在最近的 AI By The Bay 大會上,Google 的人工智能研究員 Chollet說:「目前的監督感知和強化學習算法需要大量的數據,在長遠規劃中是很難實現的,這些算法只能做簡單的模式識別?!?/p>


      相比之下,人類「從很少的案例中學習,可以進行長遠規劃,他們能夠形成一種情境的抽象模型,并 [操縱] 這些模型實現極致的泛化。


      即使是簡單的人類行為,也很難教授給深度學習算法。例如我們需要學習在路上避免被汽車撞上,如果使用監督學習,那就需要巨量的汽車情境數據集,且明確標注了動作(如「停止」或「移動」),然后你需要訓練一個神經網絡來學習映射不同的情況和對應的行動。


      如果采用強化學習,那你需要給算法一個目標,讓它獨立地確定理想的行動。為學習到在不同情況下躲避汽車,計算機可能需要先被撞上千次。Chollet 警告說:「僅僅通過擴大今天的深度學習技術,我們無法實現通用智能。


      躲避汽車,人類只需要告知一次就行。我們具有從簡單少量的例子中概括出事物的能力,并且能夠想象(即模擬)操作的后果。我們不需要失去生命或肢體,就能很快學會避免被車撞上。


      除了大數據的局限,在應用場景和模式上,目前得到驗證的領域,主要有圖像和視頻中的物體識別、以及語音識別等有限場景。


      對于還想繼續探索的讀者,再科普幾個概念:卷積、人工智能處理器(TPU):



      上面這個圖里面,用到的計算,輸入a乘以參數w,也就是數組a 乘以數組 w, 是兩個數列的相乘:a1x w1 + a2 x w2 + ?…… +? an x wn,如果能夠同時計算多個數的乘法,就叫做并行計算(又叫做矢量計算,因為所謂矢量,就是不止一個數字,兩個數字能在平面上畫出一條線,線就是矢量,三個數字能夠在三維空間里畫出一條線,也就是三維矢量。):



      數組的乘法就是矩陣乘法。


      什么叫卷積呢(?convolution)?

      從計算形式上來說,就是按照時間推移不斷的求矩陣乘法。

      (下面的介紹有點晦澀,可以跳過。)


      輸入的刺激有可能是一個波形,也就是一個隨著時間變化的函數g(t),輸出就是兩個函數的乘積f*g(t)。


      兩個函數的乘積,就好比是兩艘相向行駛的船隨著時間的推移逐漸開始交錯、疊加、分離的過程。


      畫到坐標里,就好像是把g這艘船對折了過來,然后再按照時間向前推移,與相對不動的f這艘船相乘再求和。也就是先對折(con)、再求乘積的和(volve)。


      表達成數學公式就是:



      兩個矩形函數的卷積動畫示意圖:


      卷積完成的輸出是一個三角波。


      據說卷積這個詞是歐拉老師最先叫的,convolution的動詞convolve就是拉丁語的con + volve,也就是先接觸、再按照時間向前滾動。


      總上,深度學習的基本運算就是矩陣乘法、卷積。


      矩陣乘法AXB


      兩個函數的卷積


      有了矩陣乘法、卷積,人工智能處理器TPU就容易解釋了:TPU就是專門用來計算矩陣乘法、卷積的處理器。


      對于人工智能處理器(TPU/NPU),多啰嗦幾句。因為國人只要一提到各種U(處理器,比如CPU--中央處理器)就莫名的興奮,因為一直被西方資本主義壓迫,越是得不到、就越有各路江湖神仙大顯神通、發明了各種U出來,漢芯、毛澤東芯、東方紅1A……,在計算機時代遠去后消停了一陣子,因為手機時代已經越來越少人關注啥處理器了,最多炒一炒日本屏幕、國產貓(modem)。但是進入人工智能時代后,特別是當谷歌推出了TPU后,江湖大神又開始活躍了,人工智能CPU呀、AI指令集呀,都冒出來了。


      其實,矩陣乘法、卷積運算,不是新東東,圖像處理里也有大量的并行數據處理,這也就是為什么GPU(圖形處理器)突然在人工智能時代火了的原因。相對GPU,TPU就更加專注了,省略了GPU里的紋理處理等單元、增大了芯片內置的memory、提升數據吞吐,因為學習過程是一個數據密集型應用。


      限于篇幅和時間,量子退火計算下次介紹,不過,提前劇透一下,被各路神仙捧為超時空心靈感應的量子糾纏、恐怕是一個偽科學,至少目前還無法實現嗎,因為量子科學家們用公式推導出來:信息的傳播無法超越光速。既然沒法超越光速,糾纏的兩個量子之間的信息傳遞、跟拉一根電話線差不多。也就無從談起穿越時空的神學問題了。


      更多熱點文章,請加本公眾號。


      追本溯源,刨根究底,才能找到真理的源頭……

      尋找歷史開始的地方,是歷史,更是未來……

      前期熱點文章鏈接:

      【文明與歷史】

      (1解放軍澳門救災,場面震撼!外媒稱:點解唔帶槍?

      (2)經濟撕裂與文明大沖突:下一個十年的世界大趨勢

      (3)日本之行印象(一)勤勞,精益,互信;壓抑,細密,迷失---日本的驕傲與悲情

      (4)日本之行印象(二)島國文明與夜郎自大----從日本的民族性看歷史事件

      (5)綿綿不盡家國夢、憂天從來大丈夫 ----觀《戰狼2》隨筆

      (6)毀三觀的不是宇宙大爆炸,而是孔子春秋筆法


      【望星空】

      (1)把宇宙138億年壓縮到1年: 看完懷疑人生

      (2)蒼天有情自何始:地球生命起源之謎(1)

      (3)天地玄黃、宇宙洪荒:宇宙大爆炸理論介紹

      (4)地球生命起源之謎(2):大分歧,三派逐鹿俱稱先



      更多文章,請關注本公眾號:



      關注本公眾號請長按下面二維碼,彈出菜單中選擇“識別圖中二維碼”



      AV一本大道香蕉大在线

      <address id="nzfpj"></address>
      <noframes id="nzfpj">

        <form id="nzfpj"><th id="nzfpj"><progress id="nzfpj"></progress></th></form><noframes id="nzfpj"><address id="nzfpj"></address>