官术网_书友最值得收藏!

1.2 人工智能為何如此強大

在機器學(xué)習(xí)、深度學(xué)習(xí)、增強學(xué)習(xí)以前,編程是無須關(guān)心機器的經(jīng)驗,以前的編程是根據(jù)用戶的經(jīng)驗,無法根據(jù)現(xiàn)有的數(shù)據(jù)或發(fā)生的事件改變程序,流程各方面一旦確定,無法根據(jù)已有的數(shù)據(jù)或個體的數(shù)據(jù)進行學(xué)習(xí);而人工智能的核心能力是能從每次發(fā)生的事件中學(xué)習(xí),并不斷改進、優(yōu)化,然后通過不斷優(yōu)化應(yīng)對現(xiàn)在和未來的變化。科研界認為PyTorch比谷歌的TensorFlow好很多,因為PyTorch有個動態(tài)圖的核心特性,每次學(xué)習(xí)完成以后可以動態(tài)地修改圖;TensorFlow是業(yè)界主流的人工智能框架,TensorFlow使用靜態(tài)圖,特點是根據(jù)已有的數(shù)據(jù)學(xué)習(xí)完成以后就不能再修改。

人工智能從每次的經(jīng)歷中學(xué)習(xí),用于下一次的行為改進。深度學(xué)習(xí)基于海量的數(shù)據(jù)完成這個過程,而增強學(xué)習(xí)是通過實時與環(huán)境進行交互,來完成這個過程。機器學(xué)習(xí)、深度學(xué)習(xí)、增強學(xué)習(xí)的算法如果不是從這個角度來考慮的,那一定是錯的。

TensorFlow網(wǎng)站(http://playground.tensorflow.org/)是TensorFlow公司提供給人工智能學(xué)習(xí)者學(xué)習(xí)用的,圖1-1所示為人工智能神經(jīng)網(wǎng)絡(luò)運作過程的可視化圖。

從數(shù)據(jù)中提取特征,類似于大腦對信息的加工處理過程,即對特征進行加工處理。過去如果想在人工智能方面有所發(fā)展,必須熟練掌握微積分、線性代數(shù)、概率論、數(shù)理統(tǒng)計等數(shù)學(xué)知識,但現(xiàn)在TensorFlow、PyTorch等人工智能框架已經(jīng)將這些深奧的內(nèi)容通過Python、C、C++等編程語言實現(xiàn)了,因此使用者不需要對每一步進行具體的數(shù)學(xué)推導(dǎo),只需知道數(shù)據(jù)是怎么流動的,各環(huán)節(jié)的處理過程,就可以直接拿過來使用。圖1-2中左邊是數(shù)據(jù)輸入,將數(shù)據(jù)進行邏輯分類,分成兩種顏色的點,例如哪些是垃圾郵件,哪些是有用的郵件,右邊是分類輸出結(jié)果。單擊左上角的運行按鈕之前,初始化的測試集損失度為0.509,訓(xùn)練集損失度為0.509,單擊運行按鈕,訓(xùn)練分類模型,查看損失曲線及數(shù)據(jù)流動的過程,圖1-2中迭代到第644個時代(Epoch),測試集損失度變成了0.002,訓(xùn)練集損失度為0.001,這是一個非常不錯的結(jié)果。例如預(yù)測是否是垃圾郵件,如果正確率只有50%,就太糟糕了,谷歌垃圾郵件的識別率已經(jīng)達到了99.9%,意味著1000封的垃圾郵件識別中可能有幾封是錯的,大部分預(yù)測是正確的。

圖1-1 TensorFlow可視化運行圖

圖1-2 訓(xùn)練集及測試集損失度

主站蜘蛛池模板: 鸡东县| 通化市| 灵石县| 通道| 什邡市| 太原市| 博罗县| 河北省| 平谷区| 孝昌县| 易门县| 巴中市| 桃源县| 江孜县| 泾川县| 天水市| 葵青区| 和平县| 那坡县| 永德县| 安化县| 湖州市| 开封市| 会泽县| 古蔺县| 抚顺县| 宁城县| 正定县| 承德市| 黄大仙区| 南召县| 扎赉特旗| 尼玛县| 颍上县| 保德县| 宜宾市| 会昌县| 塔城市| 封丘县| 泾川县| 翁牛特旗|