卷積神經(jīng)網(wǎng)絡基本概念范文

時間:2024-03-28 11:15:22

導語:如何才能寫好一篇卷積神經(jīng)網(wǎng)絡基本概念,這就需要搜集整理更多的資料和文獻,歡迎閱讀由公務員之家整理的十篇范文,供你借鑒。

篇1

關(guān)鍵詞:AlphaGo;人工智能;圍棋;未來展望

中圖分類號:TP18 文獻標識碼:A 文章編號:1671-2064(2017)07-0193-02

1 圍棋與人工智能

圍棋作為中國傳統(tǒng)四大藝術(shù)之一,擁有著幾千年的悠久歷史。圍棋棋盤由19條橫線和19條豎線組成,共有19*19=361個交叉點,圍棋子分為黑白兩種顏色,對弈雙方各執(zhí)一色,輪流將一枚棋子下在縱橫交叉點上,終局時,棋子圍上交叉點數(shù)目最多的一方獲勝。圍棋棋盤上每一個縱橫交叉點都有三種可能性:落黑子、落白子、留空,所以圍棋擁有高達3^361種局面;圍棋的每個回合有250種可能,一盤棋可長達150回合,所以圍棋的計算復雜度為250^150,約為10^170,然而全宇宙可觀測的原子數(shù)量只有10^80,這足以體現(xiàn)圍棋博弈的復雜性和多變性。

人工智能(Artificial Intelligence,AI)主要研究人類思維、行動中那些尚未算法化的功能行為,使機器像人的大腦一樣思考、行動。長期以來,圍棋作為一種智力博弈游戲,以其變化莫測的博弈局面,高度體現(xiàn)了人類的智慧,為人工智能研究提供了一個很好的測試平臺,圍棋人工智能也是人工智能領(lǐng)域的一個重要挑戰(zhàn)。

傳統(tǒng)的計算機下棋程序的基本原理,是通過有限步數(shù)的搜索樹,即采用數(shù)學和邏輯推理方法,把每一種可能的路徑都走一遍,從中選舉出最優(yōu)路徑,使得棋局勝算最大。這種下棋思路是充分發(fā)揮計算機運算速度快、運算量大等優(yōu)勢的“暴力搜索法”,是人類在對弈規(guī)定的時間限制內(nèi)無法做到的。但是由于圍棋局面數(shù)量太大,這樣的運算量對于計算機來講也是相當之大,目前的計算機硬件無法在對弈規(guī)定的時間內(nèi),使用計算機占絕對優(yōu)勢的“暴力搜索法”完成圍棋所有局面的擇優(yōu),所以這樣的下棋思路不適用于圍棋對弈。

搜索量巨大的問題一直困擾著圍棋人工智能,使其發(fā)展停滯不前,直到2006年, 蒙特卡羅樹搜索的應用出現(xiàn),才使得圍棋人工智能進入了嶄新的階段,現(xiàn)代圍棋人工智能的主要算法是基于蒙特卡洛樹的優(yōu)化搜索。

2 圍棋人工智能基本原理

目前圍棋人工智能最杰出的代表,是由谷歌旗下人工智能公司DeepMind創(chuàng)造的AlphaGo圍棋人工智能系統(tǒng)。它在與人類頂級圍棋棋手的對弈中充分發(fā)揮了其搜索和計算的優(yōu)勢,幾乎在圍棋界立于不敗之地。

AlphaGo系統(tǒng)的基本原理是將深度強化學習方法與蒙特卡洛樹搜索結(jié)合,使用有監(jiān)督學習策略網(wǎng)絡和價值網(wǎng)絡,極大減少了搜索空間,即在搜索過程中的計算量,提高了對棋局估計的準確度。

2.1 深度強化學習方法

深度學習源于人工神經(jīng)網(wǎng)絡的研究,人類大量的視覺聽覺信號的感知處理都是下意識的,是基于大腦皮層神經(jīng)網(wǎng)絡的學習方法,通過模擬大腦皮層推斷分析數(shù)據(jù)的復雜層狀網(wǎng)絡結(jié)構(gòu),使用包含復雜結(jié)構(gòu)或由多重非線性變換構(gòu)成的多個處理層對數(shù)據(jù)進行高層抽象,其過程類似于人們識別物體標注圖片。現(xiàn)如今,應用最廣泛的深度學習模型包括:卷積神經(jīng)網(wǎng)絡、深度置信網(wǎng)絡、堆棧自編碼網(wǎng)絡和遞歸神經(jīng)網(wǎng)絡等。

強化學習源于動物學習、參數(shù)擾動自適應控制等理論,通過模擬生物對環(huán)境以試錯的方式進行交互達到對環(huán)境的最優(yōu)適應的方式,通過不斷地反復試驗,將變化無常的動態(tài)情況與對應動作相匹配。強化學習系統(tǒng)設置狀態(tài)、動作、狀態(tài)轉(zhuǎn)移概率和獎賞四個部分,在當前狀態(tài)下根據(jù)策略選擇動作,執(zhí)行該過程并以當前轉(zhuǎn)移概率轉(zhuǎn)移到下一狀態(tài),同時接收環(huán)境反饋回來的獎賞,最終通過調(diào)整策略來最大化累積獎賞。

深度學習具有較強的感知能力,但缺乏一定的決策能力;強化學習具有決策能力,同樣對感知問題無能為力。深度強化學習方法是將具有感知能力的深度學習和具有決策能力的強化學習結(jié)合起來,優(yōu)勢互補,用深度學習進行感知,從環(huán)境中獲取目標觀測信息,提供當前環(huán)境下的狀態(tài)信息;然后用強化學習進行決策,將當前狀態(tài)映射到相應動作,基于初期匯報評判動作價值。

深度強化學習為復雜系統(tǒng)的感知決策問題提供了一種全新的解決思路。

2.2 蒙特卡洛樹搜索

蒙特卡洛樹搜索是將蒙特卡洛方法與樹搜索相結(jié)合形成的一種搜索方法。所謂蒙特卡洛方法是一種以概率統(tǒng)計理論為指導的強化學習方法,它通常解決某些隨機事件出現(xiàn)的概率問題,或者是某隨機變量的期望值等數(shù)字特征問題。通過與環(huán)境的交互,從所采集的樣本中學習,獲得關(guān)于決策過程的狀態(tài)、動作和獎賞的大量數(shù)據(jù),最后計算出累積獎賞的平均值。

蒙特卡洛樹搜索算法是一種用于解決完美信息博弈(perfect information games,沒有任何信息被隱藏的游戲)的方法,主要包含選擇(Selection)、擴展(Expansion)、模擬(Simulation)和反向傳播(Backpropagation)四個步驟。

2.3 策略網(wǎng)絡與價值網(wǎng)絡

AlphaGo系統(tǒng)擁有基于蒙特卡洛樹搜索方法的策略網(wǎng)絡(Policy Network)和價值網(wǎng)絡(Value Network)兩個不同的神經(jīng)網(wǎng)絡大腦,充分借鑒人類棋手的下棋模式,用策略網(wǎng)絡來模擬人類的“棋感”,用價值網(wǎng)絡來模擬人類對棋盤盤面的綜合評估。

AlphaGo系統(tǒng)主要采用有監(jiān)督學習策略網(wǎng)絡,通過觀察棋盤布局,進行棋路搜索,得到下一步合法落子行動的概率分布,從中找到最優(yōu)的一步落子位置,做落子選擇。DeepMind團隊使用棋圣堂圍棋服務器上3000萬個專業(yè)棋手對弈棋譜的落子數(shù)據(jù),來預測棋手的落子情況。期間,系統(tǒng)進行上百萬次的對弈嘗試,進行強化學習,將每一個棋局進行到底,不斷積累“經(jīng)驗”,學會贏面最大的棋路走法,最終達到頂級圍棋棋手的落子分析能力。而AlphaGo的價值網(wǎng)絡使用百萬次對弈中產(chǎn)生的棋譜,根據(jù)最終的勝負結(jié)果來進行價值網(wǎng)絡訓練,預測每一次落子選擇后贏棋的可能性,通過整體局面的判斷來幫助策略網(wǎng)絡完成落子選擇。

3 圍棋人工智能意義

經(jīng)過比賽測試證明,AlphaGo系統(tǒng)的圍棋對弈能力已經(jīng)達到世界頂級棋手水平。一直以來,圍棋因為復雜的落子選擇和巨大的搜索空間使得圍棋人工智能在人工智能領(lǐng)域成為一個具有代表性的難度挑戰(zhàn)。目前的硬件水平面對如此巨大的搜索空間顯得束手無策,AlphaGo系統(tǒng)基于有監(jiān)督學習的策略網(wǎng)絡和價值網(wǎng)絡大大減少搜索空間,在訓練中開創(chuàng)性地使用深度強化學習,然后結(jié)合蒙特卡洛樹搜索方法,使得系統(tǒng)自學習能力大大提高,并且AlphaGo系統(tǒng)在與人類頂級棋手對弈中取得的連勝卓越成績,櫧湓諶斯ぶ悄芰煊虻於了堅實的里程碑地位。

雖然圍棋人工智能取得了如此優(yōu)秀的成績,但是也僅僅是它在既定規(guī)則內(nèi)的計算處理能力遠遠超過了人類的現(xiàn)有水平,并且還有有待提高和完善的地方。在人類的其他能力中,例如情感、思維、溝通等等領(lǐng)域,目前的人工智能水平是遠遠達不到的。但是隨著科技的進步和人類在人工智能領(lǐng)域的研究深入,人工智能與人類的差距會逐漸減小,像圍棋人機大戰(zhàn)人工智能連勝人類這樣的例子也可能在其他領(lǐng)域發(fā)生,這就意味著人工智能的發(fā)展前景十分可觀。

4 結(jié)語

人類和人工智能共同探索圍棋世界的大幕即將拉開,讓人類棋手結(jié)合人工智能,邁進全新人機共同學習交流的領(lǐng)域,進行一次新的圍棋革命,探索圍棋真理更高的境界。

參考文獻