close
Facebook的人工智能要靠這個人:Yann LeCun
導語:上世紀90年代末,他開發瞭一套圖像壓縮系統,希望可以掃描文件,讓互聯網上的人都能閱讀。這項技術並沒有獲得成功,但是卻給一個年輕人帶來瞭啟發,他就是Larry Page。1998年,Page還是研究生的時候在斯坦福大學聽瞭LeCun的演講,最終成為瞭谷歌的聯合創始人
Yann LeCun是紐約大學終身教授,而紮克伯格最近更是親任他為Facebook人工智能實驗室負責人。為瞭表彰他在深度學習領域裡的成就,IEEE計算機學會給他辦法瞭著名的“神經網絡先鋒獎”。作為人工智能的一種形式,深度學習能夠更好地模仿人類大腦,更重要的是,之前還很多人工智能研究人員還在公開嘲笑該領域,而僅僅過瞭幾年,現在從谷歌,微軟,到百度,Twitter,深度學習以及開始蔓延到整個商業科技世界瞭。
很多科技巨頭正在挖掘一種特殊的深度學習,他們稱之為卷積神經網絡(convolutional neural networks),旨在構建更智能地的互聯網服務,比如可以自動理解語言和識別圖像。在谷歌,“卷積神經網絡”幫助他們在安卓手機上開發語音識別系統;而百度則可以利用它開發全新的視覺搜索引擎。在這一領域裡最負盛名的,非LeCun莫屬。微軟的Leon Bottou是LeCun早期合作人之一,他說道,“沒有人比LeCun更能推動卷積神經網絡發展瞭。”
實際上,深度學習從上世紀80年代開始並沒有受到重視,一直到90年代才有所好轉,但是LeCun一直堅持瞭下來,正如深度學習運動核心人物Geoffrey Hin桃園靜電機租賃ton所說,“是LeCun高舉著火炬,沖過瞭最黑暗的時代。”
LeCun和他的“LeNets”
在加盟Facebook之前,LeCun在貝爾實驗室工作瞭超過20年,那裡是全世界最著名的計算機研究實驗室,誕生過許多偉大的產品。LeCun在貝爾實驗室工作期間開發瞭一套能夠識別手寫數字的系統,並把它命名為LeNet。
自動識別銀行支票,這是卷積神經網絡第一次應由解決實際問題。“過去卷積網絡就像是個小玩具,而Yann改變瞭這一切,他讓這項技術能夠大范圍應用,解決實際問題,”Bottou說道。受到Yann LeCun的激勵,另一位神經網絡專傢Kinihiko Fukushima在70年代和80年代發明瞭認知機(Congnitron)和新認知機(Neocognitron)。這些早期的神經網絡,可以自己學習,靠自己從數據中選出各種模型,無需太多人為幫助。但是實現這一功能,在當時非常復雜,研究人員還無法完全搞清楚如何能讓他們更好地工作。
此時出現瞭一種聰明的方法,可以減少卷積神經網絡的錯誤,它就是“反向傳播算法”。不過要理解反向傳播,你首先要瞭解卷積神經網絡是如何工作的。
卷積神經網絡究竟是什麼玩意兒?
和其他神經網絡一樣,卷積網絡是由互聯層組織在一起的軟件產物,和大腦中處理視覺信息的視覺皮層非常像。與眾不同的是,他們在一個圖像的多個位置上重復使用相同的濾鏡,這意味著一旦這個網絡學會識別,比如說在某個圖片上識別出瞭一張臉,它就能在這張圖的其他位置上找到其他臉(該功能同樣適用於音頻和文字)。
前段時間加入百度的吳恩達表示,卷積神經網絡允許人工神經網絡能夠快速訓練,因為他們所占用的內存非常小,你無須在圖像上的每一個位置上都單獨存儲濾鏡,因此非常適合構建可擴展的深度網絡,卷積神經網絡因此非常適合識別模型。
下面我們來看看反向傳播。
你好,反向傳播
反向傳播是關於計算誤差的一種算法,在一個神經網絡中,用那個值來優化各神經網絡層神經元之間的連接強度。Hinton,David Rumelhart,還有Ronald Williams提出瞭反向傳播的一個版本,它可以立刻計算出多個輸入的誤差,之後得出一個平均值。這個值隨後會反向傳播回神經網絡,從輸出層到輸入層。他們在1986年的《自然》雜志上發表瞭一篇論文,闡述瞭反向傳播算法可以提高機器學習能力。
而此時的LeCun在巴黎緊張地開發自己的反向傳播算法,LeCun並沒有取平均值,他的反向傳播算法版本每次會取到一個單獨的樣本數據,然後再計算錯誤。這種方法非常復雜,但是效果卻不錯,而且學習速度也更快。LeCun的LeNets深度學習網絡可以被廣泛應用在全球的ATM機和銀行之中,它可以理解支票上寫的是什麼。但仍然存在台北靜電機租賃很多質疑,LeCun說道,“不知何故,似乎現在還是無法說服計算機視覺領域圈子,他們仍然覺得卷積神經網絡沒什麼價值。”其中部分原因,可能是因為這項技術雖然強大,但是沒有人可以理解它為什麼如此強大,而且這項技術的內部工作方式仍然是個謎。
關於人工智能未來的一個賭局
卷積神經網絡受到瞭很多人的質疑,Vladinmir Vapnik就是其中之一,他是一名數學傢,也是目前應用最廣的人工智能模式之一的支持向量機之父。
1995年3月的一個下午,Vapnik和Larry Jackel(把LeCun招進貝爾實驗室的人)打瞭一個賭。Jackel認為到2000年,我們能夠明確瞭解人工神經網絡能夠發揮多大作用。Vapnik不同意這個觀點,他認為就算到2005年,也沒有人能夠理解如何使用神經網絡,與1995年的狀況相差無幾。他們的賭註是一頓奢華的晚餐,雙方在證人面前簽字畫押,而LeCun則是第三方簽名人,Bottou是非官方見證人。
Vapnik贏瞭一半,2000年,神經網絡的內部工作原理基本上仍然被神秘所籠罩,甚至到現在也沒什麼改觀,研究人員無法精確地判斷出如何讓神經網絡更好地應用在現實生活之中。但是Jackel也贏瞭一半,對於LeCun來說這一半勝利更為重要。在2005年,深度神經網絡仍然應用在銀行和靜電油煙處理機租賃ATM機上,這完全得益於LeCun在上世紀80年代中後期和90年代初的工作成就。
未來會怎樣?
實際上對於深度學習來說,這僅僅是個開始,包括LeCun在內的深度學習圈子仍然在優化這項技術。今天,卷積神經網絡應用最廣泛的地方都需要依靠監督學習。這意味著,如果你想要學習如何識別某個特定對象,那麼你必須要列舉好幾個例子。想要真正像大腦那樣進行無監督學習,還需要深台北靜電油煙機租賃度學習進一步探索。
“大腦無監督學習是如何實現的,我們還不得而知,我們還沒有能力開發出一個類似大腦皮質的算法,”LeCun說道,“我們知道最終的答案是無監督學習,但是現在我們還沒有找到這個答案。”
反向傳播算法的未來也是一樣,LeCun卷積神經網絡背後的想法也許並不完美,但是就目前而言,它們已經是現在最先進的技術瞭。
LeCun的貢獻
LeCun的工作已經遠遠超出瞭神經網絡。上世紀90年代末,他開發瞭一套圖像壓縮系統,希望可以掃描文件,讓互聯網上的人都能閱讀。這項技術並沒有獲得成功,但是卻給一個年輕人帶來瞭啟發,他就是Larry Page。1998年,Page還是研究生的時候在斯坦福大學聽瞭LeCun的演講,最終成為瞭谷歌的聯合創始人。
LeCun還致力於機器人技術和人工智能硬件。最近他在紐約大學創立瞭數字科學中心,並指導新一代人工智能研究人員,其中就包括瞭最近被Twitter收購的圖像索引公司Madbits創始人Clement Fabaret。在LeCun的空閑時間,他還開發飛機模型。
紮克伯格力邀LeCun加盟一點都不奇怪,因為他希望讓公司掌握的海量數據發揮更大價值。Facebook公司最近一直在忙於收購,比如虛擬現實公司Oculus,太陽能無人飛行器制造公司Ascenta,還有WhatsApp。這些產品必將受益於LeCun的人工智能技術。對於這次跳槽到Facebook,LeCun感到很興奮,因為那裡有他紐約大學的同事,另一位人工智能天才Rob Fergus。他們將一起把人工智能實驗室發展成為一個世界級的研究機構,並與谷歌、微軟、IBM、以及百度競爭。當然,最後我們回歸本源,不要忘記著名的貝爾實驗室,因為那裡培育瞭很多技術,也是創新的發源地,包括深度學習。
VIA wired
相關內容
深度學油煙靜電機租賃習大牛Andrew Ng為何離開谷歌加盟百度?
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。
導語:上世紀90年代末,他開發瞭一套圖像壓縮系統,希望可以掃描文件,讓互聯網上的人都能閱讀。這項技術並沒有獲得成功,但是卻給一個年輕人帶來瞭啟發,他就是Larry Page。1998年,Page還是研究生的時候在斯坦福大學聽瞭LeCun的演講,最終成為瞭谷歌的聯合創始人
Yann LeCun是紐約大學終身教授,而紮克伯格最近更是親任他為Facebook人工智能實驗室負責人。為瞭表彰他在深度學習領域裡的成就,IEEE計算機學會給他辦法瞭著名的“神經網絡先鋒獎”。作為人工智能的一種形式,深度學習能夠更好地模仿人類大腦,更重要的是,之前還很多人工智能研究人員還在公開嘲笑該領域,而僅僅過瞭幾年,現在從谷歌,微軟,到百度,Twitter,深度學習以及開始蔓延到整個商業科技世界瞭。
很多科技巨頭正在挖掘一種特殊的深度學習,他們稱之為卷積神經網絡(convolutional neural networks),旨在構建更智能地的互聯網服務,比如可以自動理解語言和識別圖像。在谷歌,“卷積神經網絡”幫助他們在安卓手機上開發語音識別系統;而百度則可以利用它開發全新的視覺搜索引擎。在這一領域裡最負盛名的,非LeCun莫屬。微軟的Leon Bottou是LeCun早期合作人之一,他說道,“沒有人比LeCun更能推動卷積神經網絡發展瞭。”
實際上,深度學習從上世紀80年代開始並沒有受到重視,一直到90年代才有所好轉,但是LeCun一直堅持瞭下來,正如深度學習運動核心人物Geoffrey Hin桃園靜電機租賃ton所說,“是LeCun高舉著火炬,沖過瞭最黑暗的時代。”
LeCun和他的“LeNets”
在加盟Facebook之前,LeCun在貝爾實驗室工作瞭超過20年,那裡是全世界最著名的計算機研究實驗室,誕生過許多偉大的產品。LeCun在貝爾實驗室工作期間開發瞭一套能夠識別手寫數字的系統,並把它命名為LeNet。
自動識別銀行支票,這是卷積神經網絡第一次應由解決實際問題。“過去卷積網絡就像是個小玩具,而Yann改變瞭這一切,他讓這項技術能夠大范圍應用,解決實際問題,”Bottou說道。受到Yann LeCun的激勵,另一位神經網絡專傢Kinihiko Fukushima在70年代和80年代發明瞭認知機(Congnitron)和新認知機(Neocognitron)。這些早期的神經網絡,可以自己學習,靠自己從數據中選出各種模型,無需太多人為幫助。但是實現這一功能,在當時非常復雜,研究人員還無法完全搞清楚如何能讓他們更好地工作。
此時出現瞭一種聰明的方法,可以減少卷積神經網絡的錯誤,它就是“反向傳播算法”。不過要理解反向傳播,你首先要瞭解卷積神經網絡是如何工作的。
卷積神經網絡究竟是什麼玩意兒?
和其他神經網絡一樣,卷積網絡是由互聯層組織在一起的軟件產物,和大腦中處理視覺信息的視覺皮層非常像。與眾不同的是,他們在一個圖像的多個位置上重復使用相同的濾鏡,這意味著一旦這個網絡學會識別,比如說在某個圖片上識別出瞭一張臉,它就能在這張圖的其他位置上找到其他臉(該功能同樣適用於音頻和文字)。
前段時間加入百度的吳恩達表示,卷積神經網絡允許人工神經網絡能夠快速訓練,因為他們所占用的內存非常小,你無須在圖像上的每一個位置上都單獨存儲濾鏡,因此非常適合構建可擴展的深度網絡,卷積神經網絡因此非常適合識別模型。
下面我們來看看反向傳播。
你好,反向傳播
反向傳播是關於計算誤差的一種算法,在一個神經網絡中,用那個值來優化各神經網絡層神經元之間的連接強度。Hinton,David Rumelhart,還有Ronald Williams提出瞭反向傳播的一個版本,它可以立刻計算出多個輸入的誤差,之後得出一個平均值。這個值隨後會反向傳播回神經網絡,從輸出層到輸入層。他們在1986年的《自然》雜志上發表瞭一篇論文,闡述瞭反向傳播算法可以提高機器學習能力。
而此時的LeCun在巴黎緊張地開發自己的反向傳播算法,LeCun並沒有取平均值,他的反向傳播算法版本每次會取到一個單獨的樣本數據,然後再計算錯誤。這種方法非常復雜,但是效果卻不錯,而且學習速度也更快。LeCun的LeNets深度學習網絡可以被廣泛應用在全球的ATM機和銀行之中,它可以理解支票上寫的是什麼。但仍然存在台北靜電機租賃很多質疑,LeCun說道,“不知何故,似乎現在還是無法說服計算機視覺領域圈子,他們仍然覺得卷積神經網絡沒什麼價值。”其中部分原因,可能是因為這項技術雖然強大,但是沒有人可以理解它為什麼如此強大,而且這項技術的內部工作方式仍然是個謎。
關於人工智能未來的一個賭局
卷積神經網絡受到瞭很多人的質疑,Vladinmir Vapnik就是其中之一,他是一名數學傢,也是目前應用最廣的人工智能模式之一的支持向量機之父。
1995年3月的一個下午,Vapnik和Larry Jackel(把LeCun招進貝爾實驗室的人)打瞭一個賭。Jackel認為到2000年,我們能夠明確瞭解人工神經網絡能夠發揮多大作用。Vapnik不同意這個觀點,他認為就算到2005年,也沒有人能夠理解如何使用神經網絡,與1995年的狀況相差無幾。他們的賭註是一頓奢華的晚餐,雙方在證人面前簽字畫押,而LeCun則是第三方簽名人,Bottou是非官方見證人。
Vapnik贏瞭一半,2000年,神經網絡的內部工作原理基本上仍然被神秘所籠罩,甚至到現在也沒什麼改觀,研究人員無法精確地判斷出如何讓神經網絡更好地應用在現實生活之中。但是Jackel也贏瞭一半,對於LeCun來說這一半勝利更為重要。在2005年,深度神經網絡仍然應用在銀行和靜電油煙處理機租賃ATM機上,這完全得益於LeCun在上世紀80年代中後期和90年代初的工作成就。
未來會怎樣?
實際上對於深度學習來說,這僅僅是個開始,包括LeCun在內的深度學習圈子仍然在優化這項技術。今天,卷積神經網絡應用最廣泛的地方都需要依靠監督學習。這意味著,如果你想要學習如何識別某個特定對象,那麼你必須要列舉好幾個例子。想要真正像大腦那樣進行無監督學習,還需要深台北靜電油煙機租賃度學習進一步探索。
“大腦無監督學習是如何實現的,我們還不得而知,我們還沒有能力開發出一個類似大腦皮質的算法,”LeCun說道,“我們知道最終的答案是無監督學習,但是現在我們還沒有找到這個答案。”
反向傳播算法的未來也是一樣,LeCun卷積神經網絡背後的想法也許並不完美,但是就目前而言,它們已經是現在最先進的技術瞭。
LeCun的貢獻
LeCun的工作已經遠遠超出瞭神經網絡。上世紀90年代末,他開發瞭一套圖像壓縮系統,希望可以掃描文件,讓互聯網上的人都能閱讀。這項技術並沒有獲得成功,但是卻給一個年輕人帶來瞭啟發,他就是Larry Page。1998年,Page還是研究生的時候在斯坦福大學聽瞭LeCun的演講,最終成為瞭谷歌的聯合創始人。
LeCun還致力於機器人技術和人工智能硬件。最近他在紐約大學創立瞭數字科學中心,並指導新一代人工智能研究人員,其中就包括瞭最近被Twitter收購的圖像索引公司Madbits創始人Clement Fabaret。在LeCun的空閑時間,他還開發飛機模型。
紮克伯格力邀LeCun加盟一點都不奇怪,因為他希望讓公司掌握的海量數據發揮更大價值。Facebook公司最近一直在忙於收購,比如虛擬現實公司Oculus,太陽能無人飛行器制造公司Ascenta,還有WhatsApp。這些產品必將受益於LeCun的人工智能技術。對於這次跳槽到Facebook,LeCun感到很興奮,因為那裡有他紐約大學的同事,另一位人工智能天才Rob Fergus。他們將一起把人工智能實驗室發展成為一個世界級的研究機構,並與谷歌、微軟、IBM、以及百度競爭。當然,最後我們回歸本源,不要忘記著名的貝爾實驗室,因為那裡培育瞭很多技術,也是創新的發源地,包括深度學習。
VIA wired
相關內容
深度學油煙靜電機租賃習大牛Andrew Ng為何離開谷歌加盟百度?
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。
AUGI SPORTS|重機車靴|重機車靴推薦|重機專用車靴|重機防摔鞋|重機防摔鞋推薦|重機防摔鞋
AUGI SPORTS|augisports|racing boots|urban boots|motorcycle boots
全站熱搜
留言列表