官术网_书友最值得收藏!

1.1 機(jī)器學(xué)習(xí)基本概念

從外部環(huán)境中學(xué)習(xí)所需知識(shí)或技能是人類的一項(xiàng)重要能力,機(jī)器學(xué)習(xí)要解決的問(wèn)題就是如何使機(jī)器也能像人類一樣具有這種學(xué)習(xí)能力。目前,機(jī)器學(xué)習(xí)作為實(shí)現(xiàn)人工智能的一項(xiàng)核心技術(shù),已在數(shù)據(jù)挖掘、計(jì)算機(jī)視覺(jué)、搜索引擎、語(yǔ)音識(shí)別、游戲博弈、經(jīng)濟(jì)預(yù)測(cè)與投資分析等眾多領(lǐng)域得到了廣泛應(yīng)用。本節(jié)主要介紹機(jī)器學(xué)習(xí)的基本概念,包括人工智能與機(jī)器學(xué)習(xí)的關(guān)系、機(jī)器學(xué)習(xí)的定義、有關(guān)機(jī)器學(xué)習(xí)的若干基本術(shù)語(yǔ)以及機(jī)器學(xué)習(xí)的誤差分析。

1.1.1 人工智能與機(jī)器學(xué)習(xí)

發(fā)明創(chuàng)造某種工具來(lái)延伸人類器官功能是實(shí)現(xiàn)人類科技進(jìn)步的一種重要手段。例如,汽車(chē)、輪船和飛機(jī)等工具的發(fā)明延伸了人腿的功能,極大提升了人類的交通能力;攝像機(jī)、望遠(yuǎn)鏡和顯微鏡等工具的發(fā)明延伸了人眼的功能,極大提升了人類的視覺(jué)能力。為擺脫復(fù)雜繁重的科學(xué)與工程計(jì)算任務(wù),人們發(fā)明了計(jì)算機(jī)代替人腦進(jìn)行計(jì)算。實(shí)踐證明計(jì)算機(jī)不僅能夠勝任科學(xué)與工程計(jì)算工作,而且算得比人腦更快、更準(zhǔn)確。那么計(jì)算機(jī)是否可以進(jìn)一步承擔(dān)人腦的推理或思維等智能任務(wù)呢?受此啟發(fā),以麥卡賽、明斯基、羅切斯特和申農(nóng)等一批具有遠(yuǎn)見(jiàn)卓識(shí)的科學(xué)家共同探究使用機(jī)器模擬人類思維或人類智能的一系列問(wèn)題,并在1956年夏季首次提出人工智能的概念,標(biāo)志著人工智能學(xué)科的誕生。

人工智能的主要目標(biāo)是通過(guò)計(jì)算機(jī)來(lái)模擬人的某些思維能力或智能行為,如推理、證明、識(shí)別、感知、認(rèn)知、理解、學(xué)習(xí)等思維能力或活動(dòng),讓計(jì)算機(jī)能夠像人類一樣進(jìn)行思考。六十多年來(lái),人工智能取得了長(zhǎng)足的發(fā)展,目前在機(jī)器翻譯、智能控制、圖像理解、語(yǔ)音識(shí)別、游戲博弈等領(lǐng)域有著廣泛應(yīng)用。縱觀人工智能的發(fā)展歷程,可依據(jù)所用核心技術(shù)的不同將其大致分為邏輯推理、知識(shí)工程和機(jī)器學(xué)習(xí)這三個(gè)基本階段。

20世紀(jì)50年代至70年代是人工智能發(fā)展的早期階段,那時(shí)人們普遍認(rèn)為實(shí)現(xiàn)人工智能的關(guān)鍵技術(shù)在于自動(dòng)邏輯推理,只要機(jī)器被賦予邏輯推理能力就可以實(shí)現(xiàn)人工智能。因此,早期人工智能主要通過(guò)謂詞邏輯演算來(lái)模擬人類智能。這個(gè)階段的人工智能的主流核心技術(shù)是符號(hào)邏輯計(jì)算,在數(shù)學(xué)定理自動(dòng)證明等領(lǐng)域獲得了一定成功。

然而,人們逐步意識(shí)到如果沒(méi)有一定數(shù)量的專業(yè)領(lǐng)域知識(shí)支撐,則很難實(shí)現(xiàn)對(duì)復(fù)雜實(shí)際問(wèn)題的邏輯推理。因此,以知識(shí)工程為核心技術(shù)的專家系統(tǒng)在20世紀(jì)70年代至90年代逐步成為人工智能的主流。專家系統(tǒng)使用基于專家知識(shí)庫(kù)的知識(shí)推理取代純粹的符號(hào)邏輯計(jì)算,在故障診斷、游戲博弈等領(lǐng)域取得了巨大成功。

專家系統(tǒng)需要針對(duì)具體問(wèn)題的專業(yè)領(lǐng)域特點(diǎn)建立相應(yīng)的專家知識(shí)庫(kù),利用這些知識(shí)來(lái)完成推理和決策。例如,如果讓專家系統(tǒng)做疾病診斷,就必須把醫(yī)生的診斷知識(shí)建成一個(gè)知識(shí)庫(kù),然后使用該庫(kù)中的知識(shí)對(duì)病情進(jìn)行推斷。然而,把專家知識(shí)總結(jié)出來(lái)并以適當(dāng)?shù)姆绞礁嬖V計(jì)算機(jī)程序有時(shí)非常困難,通常需要針對(duì)每個(gè)具體任務(wù)手工建立相應(yīng)的知識(shí)庫(kù)。例如在圖像識(shí)別領(lǐng)域,為識(shí)別圖像中目標(biāo)是否為貓而建立的知識(shí)庫(kù)并不能用于對(duì)目標(biāo)是否為狗的識(shí)別,若要實(shí)現(xiàn)對(duì)圖像中狗的識(shí)別,就必須專門(mén)建立用于識(shí)別狗的知識(shí)庫(kù)。因此,專家知識(shí)的人工獲取和表示方式嚴(yán)重制約了人工智能的進(jìn)一步發(fā)展。

俗話說(shuō),授人以魚(yú)不如授人以漁。既然把專家知識(shí)總結(jié)出來(lái)再灌輸給計(jì)算機(jī)的知識(shí)工程方式非常困難甚至在很多場(chǎng)合不可行,那么可以考慮讓人工智能系統(tǒng)自己從數(shù)據(jù)中學(xué)習(xí)領(lǐng)域知識(shí)。從外部環(huán)境中學(xué)習(xí)所需知識(shí)或技能是人類的一項(xiàng)重要能力,機(jī)器學(xué)習(xí)要解決的問(wèn)題就是如何使得機(jī)器也能夠像人類一樣具有這種學(xué)習(xí)能力。事實(shí)上,機(jī)器學(xué)習(xí)的思想可以追溯到20世紀(jì)50年代的感知機(jī)數(shù)學(xué)模型,該模型可以通過(guò)使用樣本數(shù)據(jù)調(diào)整連接權(quán)重的方式保持模型對(duì)外部環(huán)境變化的自適應(yīng)性。專家系統(tǒng)的知識(shí)工程困境使得機(jī)器學(xué)習(xí)思想和技術(shù)逐步得到重視,并在20世紀(jì)80年代初步形成一套相對(duì)完備的機(jī)器學(xué)習(xí)理論體系。

自20世紀(jì)90年代中期以來(lái),機(jī)器學(xué)習(xí)得到迅速發(fā)展并逐步取代傳統(tǒng)專家系統(tǒng)成為人工智能的主流核心技術(shù),使得人工智能逐步進(jìn)入機(jī)器學(xué)習(xí)時(shí)代。特別是近十幾年來(lái),數(shù)據(jù)量爆發(fā)式增長(zhǎng)、計(jì)算機(jī)運(yùn)算能力的巨大提升和機(jī)器學(xué)習(xí)新算法(深度學(xué)習(xí))的出現(xiàn),使得人工智能獲得飛躍式迅猛發(fā)展。目前,以機(jī)器學(xué)習(xí)為主流核心技術(shù)的人工智能在多個(gè)領(lǐng)域取得的巨大成功已使其成為社會(huì)各界關(guān)注的焦點(diǎn)和引領(lǐng)社會(huì)未來(lái)的戰(zhàn)略性技術(shù)。

圖1-1表示一種典型的人工智能系統(tǒng)計(jì)算框架,其中機(jī)器學(xué)習(xí)模塊通過(guò)適當(dāng)?shù)乃惴ń馕鰯?shù)據(jù),從數(shù)據(jù)中獲取知識(shí)和模型參數(shù),輸出可用于決策或預(yù)測(cè)的數(shù)學(xué)模型,為人工智能系統(tǒng)提供核心算法支撐。計(jì)算機(jī)視覺(jué)、語(yǔ)音工程等專業(yè)應(yīng)用模塊使用機(jī)器學(xué)習(xí)算法提供的數(shù)學(xué)模型完成對(duì)相關(guān)對(duì)象的識(shí)別、合成、分析、理解、決策等信息處理任務(wù)。

978-7-111-63202-3-Chapter01-1.jpg

圖1-1 人工智能系統(tǒng)典型框架

由以上分析可知,機(jī)器學(xué)習(xí)為人工智能系統(tǒng)提供基礎(chǔ)性的模型和算法支撐,是實(shí)現(xiàn)人工智能系統(tǒng)必備的核心技術(shù)。下面具體討論機(jī)器學(xué)習(xí)的基本含義。

在使用計(jì)算機(jī)解決實(shí)際問(wèn)題時(shí),通常需要對(duì)實(shí)際問(wèn)題建立數(shù)學(xué)模型,將對(duì)實(shí)際問(wèn)題的求解轉(zhuǎn)化為對(duì)數(shù)學(xué)模型的求解。此時(shí)不可避免地會(huì)出現(xiàn)一些模型參數(shù),這些參數(shù)的取值情況往往會(huì)對(duì)模型及其求解結(jié)果產(chǎn)生很大的影響,一般需要調(diào)整參數(shù)以便取得更好的結(jié)果。然而,當(dāng)模型參數(shù)較多或者取值狀態(tài)比較復(fù)雜時(shí),手工調(diào)整參數(shù)就會(huì)變得非常困難和費(fèi)時(shí)。為解決這個(gè)問(wèn)題,可以考慮從實(shí)際問(wèn)題中采集適當(dāng)?shù)臉颖緮?shù)據(jù),通過(guò)對(duì)這些樣本數(shù)據(jù)進(jìn)行解析自動(dòng)計(jì)算出所需的模型參數(shù),并隨著樣本數(shù)據(jù)變化而自動(dòng)調(diào)整參數(shù)取值,使得數(shù)學(xué)模型和求解算法具有良好的普適性和自適應(yīng)性。上述做法類似于人類向周?chē)h(huán)境學(xué)習(xí)知識(shí)或規(guī)則的行為,樣本數(shù)據(jù)相當(dāng)于周?chē)h(huán)境,模型參數(shù)相當(dāng)于學(xué)習(xí)獲得的知識(shí)或規(guī)則,由此產(chǎn)生機(jī)器學(xué)習(xí)理論和算法的基本思想。

從外部環(huán)境中學(xué)習(xí)所需知識(shí)或技能是人類的一項(xiàng)重要能力,獲取知識(shí)或技能的根本目的在于提高自身的判斷、推理、決策或識(shí)別等思維水平。因此,從本質(zhì)上說(shuō),機(jī)器學(xué)習(xí)就是通過(guò)樣本數(shù)據(jù)等適當(dāng)?shù)慕?jīng)驗(yàn)信息來(lái)改善模型的性能。例如,在使用模型M0識(shí)別貓或狗的圖片時(shí),可采用適當(dāng)方式將一些關(guān)于貓或狗的帶標(biāo)注圖片輸入模型M0中,通過(guò)改進(jìn)M0參數(shù)或結(jié)構(gòu)產(chǎn)生一個(gè)新的模型Mp,使得模型Mp的識(shí)別正確率高于M0。這就是一個(gè)機(jī)器學(xué)習(xí)的過(guò)程。此時(shí),經(jīng)驗(yàn)信息表現(xiàn)為貓或狗的帶標(biāo)注圖片,模型的性能即為識(shí)別的正確率。

機(jī)器學(xué)習(xí)對(duì)初始模型M0的改善不僅體現(xiàn)在模型參數(shù)方面,有時(shí)還會(huì)對(duì)模型結(jié)構(gòu)進(jìn)行改進(jìn)。因此,通常用改進(jìn)模型Mp泛指機(jī)器學(xué)習(xí)的輸出結(jié)果。由此得到如下機(jī)器學(xué)習(xí)定義:

機(jī)器學(xué)習(xí)是一種通過(guò)先驗(yàn)信息來(lái)提升模型能力的方式。具體地說(shuō),對(duì)于給定的任務(wù)和性能度量標(biāo)準(zhǔn),使用先驗(yàn)信息E,通過(guò)某種計(jì)算方式T改進(jìn)初始模型M0,獲得一個(gè)性能更好的改進(jìn)模型Mp,即有Mp=TM0E)。

機(jī)器學(xué)習(xí)定義中的任務(wù)所界定的范疇非常廣泛,在不同應(yīng)用領(lǐng)域有著不同的具體含義。例如,如果編寫(xiě)一個(gè)機(jī)器學(xué)習(xí)程序讓機(jī)器人能夠行走,那么機(jī)器人行走就是一個(gè)任務(wù)。但是機(jī)器學(xué)習(xí)本身不是任務(wù),因?yàn)闄C(jī)器學(xué)習(xí)是獲取或提升完成某項(xiàng)任務(wù)所需能力的一種途徑。

從上述機(jī)器學(xué)習(xí)概念可知,機(jī)器學(xué)習(xí)的目標(biāo)就是通過(guò)計(jì)算手段從經(jīng)驗(yàn)數(shù)據(jù)等先驗(yàn)信息E中產(chǎn)生一個(gè)性能改善的新模型Mp。因此,機(jī)器學(xué)習(xí)的研究?jī)?nèi)容就是使用計(jì)算機(jī)從經(jīng)驗(yàn)數(shù)據(jù)等先驗(yàn)信息中產(chǎn)生模型的算法,即學(xué)習(xí)算法。如果說(shuō)計(jì)算機(jī)科學(xué)是一門(mén)關(guān)于算法的學(xué)問(wèn),那么機(jī)器學(xué)習(xí)就是一門(mén)關(guān)于學(xué)習(xí)算法的學(xué)問(wèn)。

【例題1.1】已知樣本數(shù)據(jù)集為

D={(xy)|(1.1,1.9),(2.7,2.3),(3.2,3.4),(3.6,2.9),(4.7,3.4),(5.1,4.3)}

D中數(shù)據(jù)點(diǎn)在坐標(biāo)系中的分布如圖1-2所示。令初始模型M0y=ax+b,試根據(jù)數(shù)據(jù)集D優(yōu)化M0并計(jì)算x=6時(shí)的模型輸出978-7-111-63202-3-Chapter01-2.jpg

【解】對(duì)于初始模型M0,令M0對(duì)每個(gè)樣本xi的預(yù)測(cè)輸出978-7-111-63202-3-Chapter01-3.jpg與其真實(shí)值yi之間的誤差平方為ei,即978-7-111-63202-3-Chapter01-4.jpg,則模型M0對(duì)所有樣本的累計(jì)誤差為

978-7-111-63202-3-Chapter01-5.jpg

由于對(duì)模型M0進(jìn)行優(yōu)化的依據(jù)是D中所有樣本的真實(shí)取值,故當(dāng)模型對(duì)所有樣本預(yù)測(cè)值與真實(shí)值之間的累計(jì)誤差最小時(shí),模型對(duì)樣本的預(yù)測(cè)輸出最準(zhǔn)確,此時(shí)的模型就是所求的優(yōu)化模型,即機(jī)器學(xué)習(xí)定義中具有更好性能的新模型。基于以上分析,可將模型M0的參數(shù)求解轉(zhuǎn)化為計(jì)算累計(jì)誤差最小值的優(yōu)化問(wèn)題。

將模型M0的參數(shù)ab看作累計(jì)誤差函數(shù)Q的變量,由于在多元函數(shù)極值點(diǎn)處,函數(shù)對(duì)其所有變量的偏導(dǎo)數(shù)均為0,故分別對(duì)參數(shù)ab求偏導(dǎo),并令偏導(dǎo)數(shù)為0,得到

978-7-111-63202-3-Chapter01-6.jpg

978-7-111-63202-3-Chapter01-7.jpg

聯(lián)立上述等式并代入D中樣本數(shù)據(jù),解得:a≈0.66,b≈0.789。

由此得到優(yōu)化模型Mpy=0.66x+0.789,圖1-3中的實(shí)線表示Mp的函數(shù)圖像,將x=6代入Mp,可求得優(yōu)化模型的預(yù)測(cè)值:978-7-111-63202-3-Chapter01-8.jpg。□

978-7-111-63202-3-Chapter01-9.jpg

圖1-2 樣本分布圖

978-7-111-63202-3-Chapter01-10.jpg

圖1-3 優(yōu)化模型Mp

例題1.1所示的機(jī)器學(xué)習(xí)實(shí)例主要通過(guò)對(duì)初始模型參數(shù)的優(yōu)化估計(jì)求出具有更好性能的新模型。事實(shí)上,機(jī)器學(xué)習(xí)有時(shí)還可以根據(jù)實(shí)際需要改變初始模型的結(jié)構(gòu)。例如,對(duì)于樣本數(shù)據(jù)集D={(xiyi)|i=1,2,…,n},假設(shè)初始模型為如下k次多項(xiàng)式

978-7-111-63202-3-Chapter01-11.jpg

則可以通過(guò)適當(dāng)方式將N0簡(jiǎn)化為如下二次多項(xiàng)式模型978-7-111-63202-3-Chapter01-12.jpg

事實(shí)上,要將初始模型N0變?yōu)楹?jiǎn)化模型Np的形式,只需通過(guò)適當(dāng)方式調(diào)整N0的參數(shù),使得參數(shù)θ3θ4,…,θk的取值趨向于0即可。可用均方誤差最小化的思想實(shí)現(xiàn)這個(gè)效果,為此構(gòu)造如下以θ0θ1,…,θk為自變量的函數(shù)

978-7-111-63202-3-Chapter01-13.jpg

其中,978-7-111-63202-3-Chapter01-14.jpg

函數(shù)Qθ0θ1,…,θk)中的第一項(xiàng)為模型M0對(duì)所有樣本取值的累計(jì)誤差,第二項(xiàng)是對(duì)參數(shù)θ3θ4,…,θk添加的限制條件。在使函數(shù)Qθ0θ1,…,θk)最小化的過(guò)程中,可將C定義為一個(gè)非常大的取值,使得參數(shù)θ3θ4,…,θk的取值趨向于0,以盡量消除C值對(duì)函數(shù)Qθ0θ1,…,θk)最小化取值的影響。此時(shí)用函數(shù)Qθ0θ1,…,θk)代替累計(jì)誤差函數(shù)求最小值,相當(dāng)于在對(duì)參數(shù)θ3θ4,…,θk做趨向于0的限制條件下解出優(yōu)化模型的全部參數(shù)978-7-111-63202-3-Chapter01-15.jpg978-7-111-63202-3-Chapter01-16.jpg978-7-111-63202-3-Chapter01-17.jpg。具體地說(shuō),就是由于函數(shù)Q中第二項(xiàng)權(quán)重過(guò)大,為使函數(shù)Q整體取值最小,該項(xiàng)所涉及參數(shù)θ3θ4,…,θk均會(huì)趨向于0,由此即可獲得結(jié)構(gòu)調(diào)整后的優(yōu)化模型978-7-111-63202-3-Chapter01-18.jpg

1.1.2 機(jī)器學(xué)習(xí)基本術(shù)語(yǔ)

如前所述,機(jī)器學(xué)習(xí)主要通過(guò)樣本提供的信息來(lái)提升模型性能以完成給定的學(xué)習(xí)任務(wù),即從樣本中學(xué)習(xí)。對(duì)于任意一個(gè)給定的樣本對(duì)象ξ,一般需要對(duì)其提取若干屬性形成對(duì)該樣本的數(shù)據(jù)描述或表征,并將這些屬性值作為機(jī)器學(xué)習(xí)模型的輸入。令

978-7-111-63202-3-Chapter01-19.jpg

為樣本ξm個(gè)屬性提取函數(shù),則可通過(guò)這些函數(shù)將樣本ξ映射成一個(gè)m元表征向量X,即

978-7-111-63202-3-Chapter01-20.jpg

其中,xi為樣本ξ的第i個(gè)屬性值,i=1,2,…,m

顯然,表征向量X是對(duì)樣本對(duì)象ξ的一個(gè)數(shù)據(jù)抽象,從數(shù)學(xué)的角度看,兩者并沒(méi)有本質(zhì)上的差異。因此,為方便表達(dá),在不產(chǎn)生混淆的情況下,通常將表征向量為X的樣本ξ簡(jiǎn)稱為樣本X,即不加區(qū)分地使用表征向量X和表征向量為X的樣本ξ這兩個(gè)沒(méi)有本質(zhì)差異的概念。

機(jī)器學(xué)習(xí)的任務(wù)是指所要解決的問(wèn)題,主要包括回歸、分類和聚類等。回歸任務(wù)是通過(guò)若干帶有標(biāo)注的樣本數(shù)據(jù)構(gòu)造出一個(gè)預(yù)測(cè)模型RX),使得RX)的預(yù)測(cè)輸出盡可能符合真實(shí)值,并稱RX)為回歸模型。通常將用于構(gòu)造模型的樣本稱為訓(xùn)練樣本,用于測(cè)試模型效果的樣本稱為測(cè)試樣本。一般使用兩組不同的樣本集合分別作為訓(xùn)練樣本集和測(cè)試樣本集。

設(shè)ξ1ξ2,…,ξn是任意給定的n個(gè)訓(xùn)練樣本,Xk=(x1kx2k,…,xmkTykk=1,2,…,n)分別表示ξk的表征向量和標(biāo)注值,則由這n個(gè)樣本構(gòu)成的訓(xùn)練樣本集D可以表示為

978-7-111-63202-3-Chapter01-21.jpg

回歸模型RX)的初始模型是一個(gè)帶有參數(shù)的計(jì)算模型,機(jī)器學(xué)習(xí)的模型訓(xùn)練算法使用訓(xùn)練樣本集D中的數(shù)據(jù)信息計(jì)算出RX)的全部參數(shù),得到具體的回歸模型。有了回歸模型的具體參數(shù),就可以使用該模型完成回歸任務(wù)。例如,例題1.1解決的就是一個(gè)機(jī)器學(xué)習(xí)回歸任務(wù),通過(guò)訓(xùn)練樣本數(shù)據(jù)計(jì)算所得的模型y=0.66x+0.789就是一個(gè)具體的回歸模型。

日常生活和工作中會(huì)經(jīng)常遇到一些分類問(wèn)題,例如有時(shí)需要將產(chǎn)品按質(zhì)量分為優(yōu)等品、合格品和次品,將公司客戶分為貴賓客戶和普通客戶等。可以使用機(jī)器學(xué)習(xí)方式實(shí)現(xiàn)這種分類任務(wù),即根據(jù)帶標(biāo)注訓(xùn)練樣本構(gòu)造相應(yīng)的分類模型,然后根據(jù)分類模型實(shí)現(xiàn)對(duì)目標(biāo)的自動(dòng)分類。顯然,如果回歸模型的預(yù)測(cè)輸出是離散值,則機(jī)器學(xué)習(xí)的回歸任務(wù)就轉(zhuǎn)化為分類任務(wù)。也就是說(shuō),分類其實(shí)是預(yù)測(cè)輸入樣本所在類別的一類特殊回歸任務(wù),特殊性在于要求預(yù)測(cè)結(jié)果為離散的類別值而不是連續(xù)值。

用于分類任務(wù)的機(jī)器學(xué)習(xí)模型稱為分類模型或分類器,分類任務(wù)的目標(biāo)是通過(guò)訓(xùn)練樣本構(gòu)造合適的分類器CX),完成對(duì)目標(biāo)的分類。分類類別只有兩類的分類任務(wù)稱為二值分類或二分類,這兩個(gè)類別分別稱為正類和負(fù)類,通常用+1和-1分別指代。分類類別多于兩類的分類任務(wù)通常稱為多值分類。

對(duì)于一個(gè)具體的回歸或分類任務(wù),所有可能的模型輸入數(shù)據(jù)組成的集合稱為輸入空間,所有可能的模型輸出數(shù)據(jù)構(gòu)成的集合稱為輸出空間。顯然,回歸或分類機(jī)器學(xué)習(xí)任務(wù)的本質(zhì)就是尋找一個(gè)從輸入空間到輸出空間的映射,并將該映射作為預(yù)測(cè)模型。從輸入空間到輸出空間的所有可能映射組成的集合稱為假設(shè)空間。

回歸或分類模型的訓(xùn)練計(jì)算可以看成是一個(gè)在假設(shè)空間中搜索所需模型的過(guò)程,模型訓(xùn)練算法在假設(shè)空間中搜索合適的映射,使得該映射的預(yù)測(cè)效果與訓(xùn)練樣本所含的先驗(yàn)信息相一致。事實(shí)上,滿足條件的映射通常不止一個(gè),此時(shí)需要對(duì)多個(gè)滿足條件的映射做出選擇。在沒(méi)有足夠依據(jù)進(jìn)行唯一性選擇的情況下,有時(shí)需要做出具有主觀傾向性的選擇,即更愿意選擇某個(gè)映射作為預(yù)測(cè)模型。這種選擇的主觀傾向性稱為機(jī)器學(xué)習(xí)算法的模型偏好。例如,當(dāng)多個(gè)映射與訓(xùn)練樣本所包含的先驗(yàn)信息一致時(shí),可選最簡(jiǎn)單的映射作為預(yù)測(cè)模型,此時(shí)模型偏好為最簡(jiǎn)單的映射。這種在同等條件下選擇簡(jiǎn)單事物的傾向性原則稱為奧卡姆剃刀原則。

自然界和社會(huì)生活中經(jīng)常會(huì)出現(xiàn)物以類聚、人以群分的現(xiàn)象,例如,羊、狼等動(dòng)物總是以群居的方式聚集在一起,志趣相同的人們通常會(huì)組成特定的興趣群體。機(jī)器學(xué)習(xí)的聚類任務(wù)就是對(duì)樣本數(shù)據(jù)實(shí)現(xiàn)物以類聚的效果。顯然,聚類的類別由不同樣本之間的某種相似性確定,因而聚類類別所表達(dá)的含義通常是不確定的,聚類樣本也不帶特定的標(biāo)注來(lái)表示樣本所屬的類別。這是聚類與回歸或分類任務(wù)之間的本質(zhì)區(qū)別。通常將不帶標(biāo)注的樣本稱為示例,而將帶標(biāo)注的樣本稱為樣例。

在聚類任務(wù)中,所有輸入示例的集合稱為示例集,被劃分為同一類別的示例所構(gòu)成的集合稱為一個(gè)簇。圖1-4表示一個(gè)具有兩個(gè)簇的示例集。

978-7-111-63202-3-Chapter01-22.jpg

圖1-4 包含兩個(gè)簇的示例集

對(duì)于任意給定的一個(gè)n元示例集S={x1x2,…,xn},假設(shè)Δ是一個(gè)對(duì)S的劃分,則有

978-7-111-63202-3-Chapter01-23.jpg

其中,S1S2,…,St均是由S中示例構(gòu)成的簇,且滿足

978-7-111-63202-3-Chapter01-24.jpg

聚類的目標(biāo)是尋找一個(gè)對(duì)S的適當(dāng)劃分Δ,使得劃分的各簇內(nèi)部的示例之間的相似性盡可能地小。通常采用歐式距離或余弦距離等作為樣本之間相似性的度量標(biāo)準(zhǔn)。圖1-5表示一個(gè)依據(jù)相似性度量標(biāo)準(zhǔn)被劃分到與之相似的簇中的示例。

978-7-111-63202-3-Chapter01-25.jpg

圖1-5 聚類示意圖

聚類任務(wù)使用的先驗(yàn)信息與回歸或分類任務(wù)有著很大差別。聚類任務(wù)的先驗(yàn)信息為示例,即不帶標(biāo)注的樣本,而回歸和分類任務(wù)的先驗(yàn)信息均為帶標(biāo)注的樣本。事實(shí)上,除了帶標(biāo)注樣本和不帶標(biāo)注樣本之外,先驗(yàn)信息有時(shí)還以某種反饋信息的形式存在。可根據(jù)先驗(yàn)信息的不同形式,將機(jī)器學(xué)習(xí)分為監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)三種基本方式。

監(jiān)督學(xué)習(xí)是指利用一組帶標(biāo)注樣本來(lái)調(diào)整模型參數(shù),以提升模型性能的學(xué)習(xí)方式。監(jiān)督學(xué)習(xí)的基本思想是通過(guò)標(biāo)注值告訴模型在給定輸入的情況下應(yīng)該輸出什么值,由此獲得盡可能接近真實(shí)映射方式的優(yōu)化模型。監(jiān)督學(xué)習(xí)不像傳統(tǒng)計(jì)算機(jī)問(wèn)題求解那樣需要根據(jù)實(shí)際問(wèn)題的具體情況設(shè)計(jì)一個(gè)固定流程進(jìn)行計(jì)算,而是由計(jì)算機(jī)根據(jù)帶標(biāo)記的樣本集自動(dòng)獲得一個(gè)問(wèn)題的求解模型并由此實(shí)現(xiàn)對(duì)問(wèn)題的求解。圖1-6表示監(jiān)督學(xué)習(xí)的基本流程。

無(wú)監(jiān)督學(xué)習(xí)通過(guò)比較樣本之間的某種聯(lián)系實(shí)現(xiàn)對(duì)樣本的數(shù)據(jù)分析。相比于監(jiān)督學(xué)習(xí),無(wú)監(jiān)督學(xué)習(xí)的最大特點(diǎn)是學(xué)習(xí)算法的輸入是無(wú)標(biāo)記樣本。例如,現(xiàn)有一些圖片,其中每張圖片內(nèi)容是兩類不知名花卉之一,通過(guò)觀察花卉特點(diǎn)將同類的花卉圖片放到一起,這便是無(wú)監(jiān)督學(xué)習(xí)。在實(shí)際問(wèn)題中遇到樣本缺失標(biāo)記或者人工標(biāo)注成本過(guò)高的情況,可以使用無(wú)監(jiān)督學(xué)習(xí)方式實(shí)現(xiàn)對(duì)這些數(shù)據(jù)自動(dòng)分析,將所得到的分析結(jié)果作為參考信息。

強(qiáng)化學(xué)習(xí)是根據(jù)反饋信息來(lái)調(diào)整機(jī)器行為以實(shí)現(xiàn)自動(dòng)決策的一種機(jī)器學(xué)習(xí)方式。一個(gè)強(qiáng)化學(xué)習(xí)系統(tǒng)主要由智能體和環(huán)境兩個(gè)部分組成。智能體是行為的實(shí)施者,由基于環(huán)境信息的評(píng)價(jià)函數(shù)對(duì)智能體的行為做出評(píng)價(jià),若智能體的行為正確,則由相應(yīng)的回報(bào)函數(shù)給予智能體正向反饋信息以示獎(jiǎng)勵(lì),反之則給予智能體負(fù)向反饋信息以示懲罰。強(qiáng)化學(xué)習(xí)的基本流程如圖1-7所示,智能體根據(jù)環(huán)境的當(dāng)前狀態(tài)選擇下一個(gè)動(dòng)作,環(huán)境對(duì)這個(gè)動(dòng)作做出評(píng)價(jià)并反饋給智能體,同時(shí)更新環(huán)境狀態(tài),不斷重復(fù)這一過(guò)程直至達(dá)到某種設(shè)定,選取累計(jì)獎(jiǎng)勵(lì)值最大的一組動(dòng)作作為所求的最終策略。

978-7-111-63202-3-Chapter01-26.jpg

圖1-6 監(jiān)督學(xué)習(xí)流程圖

978-7-111-63202-3-Chapter01-27.jpg

圖1-7 強(qiáng)化學(xué)習(xí)流程圖

1.1.3 機(jī)器學(xué)習(xí)誤差分析

機(jī)器學(xué)習(xí)模型是對(duì)實(shí)際求解問(wèn)題的一種數(shù)學(xué)抽象,模型的輸出結(jié)果與其對(duì)應(yīng)的真實(shí)值之間往往會(huì)存在一定的差異,這種差異稱為該模型的輸出誤差,簡(jiǎn)稱為誤差。機(jī)器學(xué)習(xí)的一個(gè)重要手段就是以模型輸出誤差為基本依據(jù)不斷優(yōu)化或校正模型,使得模型的輸出誤差盡可能變小。因此,對(duì)機(jī)器學(xué)習(xí)模型進(jìn)行誤差分析,從誤差分析角度分析并尋找影響機(jī)器學(xué)習(xí)模型性能的關(guān)鍵因素,是機(jī)器學(xué)習(xí)的重要研究?jī)?nèi)容。

為便于誤差分析,通常需要構(gòu)造某種函數(shù)用于度量模型對(duì)單個(gè)樣本的輸出誤差,這樣的函數(shù)稱為損失函數(shù)。具體地說(shuō),對(duì)于給定的機(jī)器學(xué)習(xí)模型f,假設(shè)該模型對(duì)應(yīng)于輸入樣本X的輸出為978-7-111-63202-3-Chapter01-28.jpg,與X對(duì)應(yīng)的實(shí)際真實(shí)值為y,則可用以yfX)為自變量的某個(gè)函數(shù)LyfX))作為損失函數(shù)來(lái)度量模型f在輸入樣本X下的輸出誤差。

損失函數(shù)的具體形式有很多種,可根據(jù)實(shí)際問(wèn)題需要來(lái)構(gòu)造或選用適當(dāng)?shù)膿p失函數(shù)進(jìn)行誤差分析。例如,LyfX))=[y-fX)]2LyfX))=|y-fX)|是兩種經(jīng)常用于度量回歸模型輸出誤差的損失函數(shù),分別稱為平方損失函數(shù)和絕對(duì)值損失函數(shù)。

在機(jī)器學(xué)習(xí)中,面向單個(gè)樣本的損失函數(shù)所度量的只是模型在某個(gè)特定樣本下的輸出誤差,不能很好地反映模型在某個(gè)樣本集上對(duì)所有樣本的整體計(jì)算準(zhǔn)確度。因此,需要進(jìn)一步定義面向某個(gè)特定樣本集的綜合誤差,通常稱為該樣本集上的整體誤差。

對(duì)于任意給定的一個(gè)n元樣本集S={(X1y1),(X2y2),…,(Xnyn)},模型fS上的整體誤差RSf)的定義為

978-7-111-63202-3-Chapter01-29.jpg

即將RSf)定義為S中所有單個(gè)樣本所對(duì)應(yīng)損失函數(shù)值的平均值。

對(duì)于某個(gè)給定的機(jī)器學(xué)習(xí)任務(wù),假設(shè)與該任務(wù)相關(guān)的所有樣本構(gòu)成的樣本集合為D,則機(jī)器學(xué)習(xí)模型在樣本集合D上的整體誤差稱為該模型關(guān)于該學(xué)習(xí)任務(wù)的泛化誤差。具體地說(shuō),令樣本集合D中所有樣本的概率分布為PD),模型f對(duì)輸入樣本X的輸出為978-7-111-63202-3-Chapter01-30.jpgX所對(duì)應(yīng)的實(shí)際真實(shí)值為y,則可將模型f的泛化誤差定義為

978-7-111-63202-3-Chapter01-31.jpg

泛化誤差表示機(jī)器學(xué)習(xí)模型在整個(gè)樣本集合D上的平均誤差,是刻畫(huà)機(jī)器學(xué)習(xí)模型普適性的重要指標(biāo),作為模型求解和模型評(píng)估的基本依據(jù),它在機(jī)器學(xué)習(xí)的過(guò)程中發(fā)揮著極為重要的作用。然而,精確計(jì)算模型的泛化誤差需要知道整個(gè)樣本集合D中所有樣本的真實(shí)取值和概率分布,這通常是不可行的。因此,一般無(wú)法計(jì)算泛化誤差的精確值,需要采用某些便于計(jì)算的度量指標(biāo)作為泛化誤差的近似代替值。

機(jī)器學(xué)習(xí)模型訓(xùn)練的目標(biāo)是盡可能獲得普適性或泛化性最好的模型,理論上要求模型的泛化誤差達(dá)到最小。然而,通常無(wú)法直接計(jì)算模型的泛化誤差,更難以直接對(duì)泛化誤差進(jìn)行優(yōu)化分析。由于訓(xùn)練樣本通常采樣自整個(gè)樣本集合D,訓(xùn)練樣本集通常與D有著比較相似的樣本概率分布,故一般采用訓(xùn)練誤差近似替代泛化誤差來(lái)對(duì)模型進(jìn)行訓(xùn)練。

所謂訓(xùn)練誤差,是指模型在訓(xùn)練樣本集上的整體誤差,也稱為經(jīng)驗(yàn)風(fēng)險(xiǎn)。具體地說(shuō),對(duì)于任意給定的n元訓(xùn)練樣本集合G={(X1y1),(X2y2),…,(Xnyn)},假設(shè)模型f對(duì)輸入樣本X的預(yù)測(cè)輸出為978-7-111-63202-3-Chapter01-32.jpg,則該模型關(guān)于訓(xùn)練樣本集G的訓(xùn)練誤差定義為

978-7-111-63202-3-Chapter01-33.jpg

其中,Xk表示訓(xùn)練集中的第k個(gè)樣本;fXk)表示模型對(duì)輸入樣本Xk的輸出978-7-111-63202-3-Chapter01-34.jpgyk為機(jī)器學(xué)習(xí)任務(wù)中與輸入Xk對(duì)應(yīng)的實(shí)際真實(shí)取值。

因此,機(jī)器學(xué)習(xí)中的模型訓(xùn)練或優(yōu)化通常使用最小化訓(xùn)練誤差的方法來(lái)完成。該方法稱為經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化方法,由此得到的優(yōu)化模型為

978-7-111-63202-3-Chapter01-35.jpg

其中,F為假設(shè)空間。

對(duì)于已訓(xùn)練出的模型,通常使用測(cè)試誤差近似替代泛化誤差的方法來(lái)對(duì)該模型進(jìn)行測(cè)試。所謂測(cè)試誤差,是指模型在測(cè)試樣本集上的整體誤差。具體地說(shuō),對(duì)于任意給定的v元測(cè)試樣本集合978-7-111-63202-3-Chapter01-36.jpg,該模型關(guān)于T的測(cè)試誤差的定義為

978-7-111-63202-3-Chapter01-37.jpg

其中,978-7-111-63202-3-Chapter01-38.jpg表示測(cè)試集中的第k個(gè)樣本;978-7-111-63202-3-Chapter01-39.jpg表示模型對(duì)輸入978-7-111-63202-3-Chapter01-40.jpg的輸出978-7-111-63202-3-Chapter01-41.jpg978-7-111-63202-3-Chapter01-42.jpg為機(jī)器學(xué)習(xí)任務(wù)中與輸入978-7-111-63202-3-Chapter01-43.jpg對(duì)應(yīng)的實(shí)際真實(shí)值。

對(duì)于訓(xùn)練樣本集合中的每個(gè)樣本,該樣本都會(huì)存在一些普適于整個(gè)樣本集D的共性特征和一些僅僅適合于特定訓(xùn)練樣本集的個(gè)性特征。在機(jī)器學(xué)習(xí)中,模型訓(xùn)練的最理想效果就是充分提取訓(xùn)練樣本的共性特征而盡量避免提取其個(gè)性特征,使得訓(xùn)練出來(lái)的模型具有盡可能廣泛的普適性,即具有盡可能好的泛化性能。

然而,模型的訓(xùn)練通常以最小化訓(xùn)練誤差為標(biāo)準(zhǔn),此時(shí)對(duì)于固定數(shù)量的訓(xùn)練樣本,隨著訓(xùn)練的不斷進(jìn)行,訓(xùn)練誤差會(huì)不斷降低,甚至趨向于零。如果模型訓(xùn)練誤差過(guò)小,就會(huì)使訓(xùn)練出來(lái)的模型基本上完全適應(yīng)于訓(xùn)練樣本的特點(diǎn)。此時(shí),訓(xùn)練模型不僅擬合了訓(xùn)練樣本的共性特征而且也擬合了訓(xùn)練樣本的個(gè)性特征,反而降低了訓(xùn)練模型的泛化性能,使得泛化誤差不斷增大。這種同時(shí)擬合訓(xùn)練樣本的共性特征和個(gè)性特征的現(xiàn)象,在機(jī)器學(xué)習(xí)領(lǐng)域通常稱為模型訓(xùn)練的過(guò)擬合現(xiàn)象。

避免過(guò)擬合現(xiàn)象的一個(gè)有效措施是盡可能擴(kuò)大訓(xùn)練樣本的數(shù)量,盡可能降低樣本在訓(xùn)練樣本集與整個(gè)樣本集上概率分布的差異,以充分增強(qiáng)訓(xùn)練樣本的共性特征,弱化訓(xùn)練樣本的個(gè)性特征。近年來(lái)計(jì)算機(jī)運(yùn)算能力的巨大提升以及在各行各業(yè)中不斷涌現(xiàn)的大數(shù)據(jù),使得通過(guò)擴(kuò)大訓(xùn)練樣本數(shù)量以避免過(guò)擬合現(xiàn)象的措施變得可行,這正是機(jī)器學(xué)習(xí)在如今互聯(lián)網(wǎng)和大數(shù)據(jù)時(shí)代得到迅猛發(fā)展的重要原因。

由以上分析可知,在機(jī)器學(xué)習(xí)的模型訓(xùn)練中,隨著訓(xùn)練過(guò)程的進(jìn)行,訓(xùn)練誤差會(huì)一直不斷降低,但泛化誤差則會(huì)先減小,然后因產(chǎn)生過(guò)度擬合現(xiàn)象而導(dǎo)致不斷增大,具體如圖1-8所示。在訓(xùn)練的初始階段,由于模型尚未充分?jǐn)M合訓(xùn)練樣本的共性特征,故此時(shí)模型的泛化誤差較大。這種由于未能充分?jǐn)M合訓(xùn)練樣本共性特征造成模型泛化誤差較大而導(dǎo)致模型泛化能力較弱的現(xiàn)象稱為模型訓(xùn)練的欠擬合現(xiàn)象。隨著訓(xùn)練過(guò)程的不斷進(jìn)行,訓(xùn)練誤差和泛化誤差均不斷減少,欠擬合現(xiàn)象通常會(huì)逐漸消失。

978-7-111-63202-3-Chapter01-44.jpg

圖1-8 訓(xùn)練誤差和泛化誤差關(guān)系圖

對(duì)于給定的訓(xùn)練樣本集合,如果對(duì)模型訓(xùn)練強(qiáng)度不做適當(dāng)控制,就會(huì)在模型訓(xùn)練的后期將訓(xùn)練樣本的個(gè)性特征引入模型當(dāng)中,從而引起泛化誤差的增大,產(chǎn)生過(guò)擬合現(xiàn)象。因此,泛化誤差由下降變?yōu)樯仙霓D(zhuǎn)折點(diǎn)處對(duì)應(yīng)的訓(xùn)練模型具有最好的泛化性能。也就是說(shuō),對(duì)于給定的訓(xùn)練樣本集合,可以在適當(dāng)訓(xùn)練強(qiáng)度下獲得具有最好泛化性能的訓(xùn)練模型。

現(xiàn)在進(jìn)一步分析討論不同訓(xùn)練樣本集合的差異對(duì)模型訓(xùn)練結(jié)果的影響,考察訓(xùn)練模型對(duì)訓(xùn)練樣本集合變化的穩(wěn)定性。

對(duì)于任意給定的一個(gè)初始模型f,假設(shè)D1D2,…,Dss個(gè)不同的訓(xùn)練樣本集合,其中每個(gè)訓(xùn)練樣本均采樣自整個(gè)樣本集合D,通過(guò)訓(xùn)練樣本集合Di訓(xùn)練初始模型f所得到的優(yōu)化模型記為fii∈(1,2,…,s),978-7-111-63202-3-Chapter01-45.jpg表示第i個(gè)模型對(duì)于輸入樣本X的模型輸出,X所對(duì)應(yīng)的實(shí)際真實(shí)值為y,則這s個(gè)優(yōu)化模型對(duì)于輸入樣本X的期望輸出為

978-7-111-63202-3-Chapter01-46.jpg

其中,FX)=(f1X),f2X),…,fsX))T,可將其看成一個(gè)關(guān)于fX)的離散隨機(jī)變量。

此時(shí),模型fX)對(duì)于測(cè)試樣本集合變化的穩(wěn)定性可用相應(yīng)的方差指標(biāo)進(jìn)行度量。模型fX)在訓(xùn)練樣本集D1D2,…,Ds下所得優(yōu)化模型f1X),f2X),…,fsX)輸出的方差為

978-7-111-63202-3-Chapter01-47.jpg

對(duì)于任意一個(gè)給定的初始模型f,如果該模型變化的自由度較大,例如模型參數(shù)的數(shù)目較多或者參數(shù)的取值范圍較大,則能夠更好地適應(yīng)訓(xùn)練樣本數(shù)據(jù)的變化,能對(duì)多種不同的訓(xùn)練樣本集合獲得較好的擬合效果;反之,如果該模型參數(shù)的變化自由度較小,則模型適應(yīng)訓(xùn)練數(shù)據(jù)變化的能力就比較差,可以有效擬合的訓(xùn)練數(shù)據(jù)范圍也就比較有限。機(jī)器學(xué)習(xí)模型這種適應(yīng)訓(xùn)練數(shù)據(jù)變化的能力,稱為模型的學(xué)習(xí)能力或模型的容量。

顯然,模型的容量主要反映該模型對(duì)數(shù)據(jù)的擬合能力。模型的容量越大其對(duì)數(shù)據(jù)的擬合能力就越強(qiáng),越能夠適應(yīng)訓(xùn)練樣本數(shù)據(jù)的變化。可以使用模型輸出在不同訓(xùn)練樣本集合下的綜合偏差對(duì)其進(jìn)行度量,這種綜合偏差稱為模型輸出的偏差,簡(jiǎn)稱為偏差。

對(duì)于模型fX)在訓(xùn)練樣本集D1D2,…,Ds下的優(yōu)化模型FX)=(f1X),f2X),…,fsX))TFX)作為一個(gè)離散隨機(jī)變量與X所對(duì)應(yīng)實(shí)際真實(shí)值y之間的偏差Bias[FX)]為

978-7-111-63202-3-Chapter01-48.jpg

對(duì)基于平方損失函數(shù)的泛化誤差Rexpf)=E[LyFX))]=E{[FX)-y]2},對(duì)其進(jìn)行偏差-方差分解,可得

978-7-111-63202-3-Chapter01-49.jpg

由于E{FX)-E[FX)]}=E[FX)]-E[FX)]=0,故有:

978-7-111-63202-3-Chapter01-50.jpg

即有

978-7-111-63202-3-Chapter01-51.jpg

由式(1-10)可知,模型的泛化誤差等于模型輸出的方差與模型輸出的偏差平方之和。

如前所述,模型輸出的偏差反映模型容量的大小或者說(shuō)模型學(xué)習(xí)能力的強(qiáng)弱,模型輸出的方差則反映模型對(duì)訓(xùn)練樣本變化的敏感程度。一般而言,對(duì)于容量較大的模型,由于其擬合能力較強(qiáng),因而會(huì)使得模型輸出的偏差相對(duì)較小。然而,大容量模型的變化自由度通常較大,會(huì)導(dǎo)致模型參數(shù)對(duì)樣本數(shù)據(jù)的變化比較敏感,使得模型輸出的方差較大。因此,同時(shí)減小模型輸出的方差和偏差是不可行的,圖1-9表示泛化誤差與偏差及方差之間的關(guān)系。

978-7-111-63202-3-Chapter01-52.jpg

圖1-9 泛化誤差與方差及偏差的關(guān)系

從圖1-9中可以看出,隨著模型容量的增加,模型輸出的偏差隨之減小,模型輸出的方差卻隨之增大。因此,模型的泛化誤差會(huì)出現(xiàn)先減后增的情況。當(dāng)模型容量較低時(shí),其擬合能力較弱,難以對(duì)訓(xùn)練樣本的共性特征進(jìn)行有效擬合,故欠擬合現(xiàn)象會(huì)較為嚴(yán)重。當(dāng)模型容量過(guò)高時(shí),模型對(duì)數(shù)據(jù)的變化太過(guò)敏感,具有過(guò)強(qiáng)的擬合能力,對(duì)訓(xùn)練樣本的個(gè)性特征也進(jìn)行了擬合,此時(shí)過(guò)擬合現(xiàn)象較為嚴(yán)重。由此可知,對(duì)于具體的機(jī)器學(xué)習(xí)任務(wù)而言,模型容量并非越高越好,一個(gè)容量適中的機(jī)器學(xué)習(xí)模型通常更能滿足任務(wù)需求。

主站蜘蛛池模板: 鱼台县| 资阳市| 微山县| 墨脱县| 左贡县| 永宁县| 饶河县| 高淳县| 军事| 屏边| 彭山县| 同江市| 西平县| 四子王旗| 高雄市| 临泉县| 霍城县| 通城县| 松江区| 民勤县| 喀喇沁旗| 浦城县| 买车| 荆门市| 阿城市| 土默特左旗| 上思县| 石屏县| 黎城县| 玛多县| 夏津县| 宜宾市| 聂拉木县| 武陟县| 弥渡县| 安新县| 光泽县| 墨江| 旅游| 丹阳市| 宁城县|