google公司機器人AlphaGo戰(zhàn)勝韓國圍棋10段李世石
北京時間3月9日下午消息,今天下午谷歌人工智能AlphaGo與韓國棋手李世石的第一場比賽結束,AlphaGo獲得今日比賽的勝利。雙方在較量3個半小時后,李世石宣布認輸。今日比賽結束后,雙方還將分別在3月10日(周四)、12日(周六)、13日(周日)、15日(周二)的北京時間中午12點進行剩余4場比賽。本次比賽用時每方2小時,1分鐘讀秒三次。比賽采用中國規(guī)則,黑貼3又3/4子(黑貼7目半)。采用中國規(guī)則是因Alpha GO以中國規(guī)則為基礎開發(fā)。比賽采用5局3勝制,最終比賽獲勝方將獲得獎金100萬美元。如果AlphaGo獲勝,獎金將捐贈給聯(lián)合國兒童基金會(UNICEF),STEM教育,以及圍棋慈善機構(Go Charity)。AlphaGo開發(fā)者DeepMind公司在今年1月的學術雜志《Nature》刊登封面文章,展示了圍棋人工智能領域突破性進展的詳細情況。供應杰力科技直線步進電機的深圳市杰力科技有限公司將與您攜手共創(chuàng)輝煌?。。」雀鐰lphaGo在第一次與世界頂尖圍棋手的較量中取得勝利,這是人工智能發(fā)展史上重要的里程碑,代表人工智能已經(jīng)能在諸如圍棋等高度復雜的項目中發(fā)揮出超過人類的作用。谷歌為何要做人工智能圍棋程序AlphaGo谷歌并不只是想做一個棋類程序,而是想做一個通用的智能計算系統(tǒng)。如果解決了圍棋問題,谷歌希望能把這套人工智能算法用于災害預測、風險控制、醫(yī)療健康和機器人等復雜領域。也就是說谷歌的目的還是為了更好的服務人類,沒有任何惡意。DeepMind(AlphaGo的研究公司)創(chuàng)始人哈薩比斯說:公眾對人工智能的警示掩蓋了人工智能帶來的幫助。距離人腦水平的人工智能仍然相當遙遠,可能還需要幾十年。在昨天的賽前發(fā)布會上,谷歌董事長施密特表示,輸贏都是人類的勝利。因為正是人類的努力才讓人工智能有了現(xiàn)在的突破。但并不是所有人都會對人工智能持樂觀態(tài)度。諸如特斯拉CEO馬斯克、理論物理學家霍金等科技界的名人就對此產(chǎn)生了擔憂。圍棋復雜度超過宇宙原子總數(shù)圍棋棋盤橫豎各有19條線,共有361個落子點,雙方交替落子,這意味著圍棋總共可能有10^171(1后面有1個零)種可能性。這個數(shù)字到底有多大,你可能沒有感覺。我們可以告訴你,宇宙中的原子總數(shù)是10^80(1后面80個零),即使窮盡整個宇宙的物質(zhì)也不能存下圍棋的所有可能性。19年前,IBM公司的“深藍”計算機戰(zhàn)勝了國際象棋世界冠軍卡斯帕羅夫,引起了巨大轟動。但是因圍棋的復雜度,直到近期,人類才在圍棋人工智能項目上取得重大突破。由于圍棋的可能性如此之多,根本就沒有什么套路可言。下贏圍棋的唯一的辦法就是讓電腦也學會“學習”,而不是死記硬背。為了在圍棋上戰(zhàn)勝人類,硅谷的兩家科技公司——Facebook和谷歌開始研究,希望有朝一日能讓計算機戰(zhàn)勝人類圍棋冠軍。李世石簡介李世石是李昌鎬之后,韓國最具代表性的棋手,他在2003年獲第16屆富士通杯冠軍后升為九段棋手。自2002年加冕富士通杯以來,十年時間里他共獲18個世界冠軍。李世石屬于典型的力戰(zhàn)型棋風,善于敏銳地抓住對手的弱處主動出擊,以強大的力量擊垮對手,他的攻擊可以用“穩(wěn),準,狠”來形容,經(jīng)常能在劣勢下完成逆轉(zhuǎn)。AlphaGo去年10月?lián)魯W洲冠軍谷歌曾于2014年以4億歐元收購人工智能公司DeepMind。由DeepMind研發(fā)的AlphaGo項目已有兩年歷史,AlphaGo曾在去年戰(zhàn)勝了歐洲圍棋冠軍樊麾(職業(yè)二段)。去年10月5日-10月9日,谷歌AlphaGo在比賽中以5:0的比分完勝了歐洲冠軍。除了戰(zhàn)勝人類外,AlphaGo還與其他的圍棋程序?qū)?zhàn),獲得了500場勝利。AlphaGo原理簡介傳統(tǒng)的人工智能方法是將所有可能的走法構建成一棵搜索樹 ,但這種方法對圍棋并不適用。此次谷歌推出的AlphaGo,將高級搜索樹與深度神經(jīng)網(wǎng)絡結合在一起。這些神經(jīng)網(wǎng)絡通過12個處理層傳遞對棋盤的描述,處理層則包含數(shù)百萬個類似于神經(jīng)的連接點。其中一個神經(jīng)網(wǎng)絡“決策網(wǎng)絡”(policy network)負責選擇下一步走法,另一個神經(jīng)網(wǎng)絡“值網(wǎng)絡”(“value network)則預測比賽勝利方。谷歌方面用人類圍棋高手的三千萬步圍棋走法訓練神經(jīng)網(wǎng)絡,與此同時,AlphaGo也自行研究新戰(zhàn)略,在它的神經(jīng)網(wǎng)絡 之間運行了數(shù)千局圍棋,利用反復試驗調(diào)整連接點,這個流程也稱為鞏固學習(reinforcement learning)。通過廣泛使用Google云平臺,完成了大量研究工作。AlphaGo在與人的對弈中用了“兩個大腦”來解決問題:“決策網(wǎng)絡”和“值網(wǎng)絡”。通俗來說就是,一個大腦用來決策當前應該如何落子,另一個大腦來預測比賽最終的勝利方。值得一提的是,李世石也是第一次與機器對戰(zhàn),所以他無法像和人類對戰(zhàn)那樣,先研究對方的棋譜和下棋風格。李世石所能做的就是和自己對弈。谷歌AlphaGo也是通過這種方式鍛煉自己,真正做到了“人工智能”。
更多罩極電機產(chǎn)品咨詢需求請電話聯(lián)系TEL:135-6077-8566