真實結果的偏離程度,即刻畫了學習算法本身的擬合能力;方差(2.38)度量了同樣大小的訓練集的變動所導致的學習性能的變化,即刻畫了數(shù)據(jù)擾動所造成的影響;噪聲(2.39)則表達了在當前任務上任何學習算法所能達到的期望泛化誤差的下界,即刻畫了學習問題本身的難度.偏差一方差分解說明,泛化性能是由學習算法的能力、數(shù)據(jù)的充分性以及學習任務本身的難度所共同決定的.給定學習任務,為了取得好的泛化性能,則需使偏差較小,即能夠充分擬合數(shù)據(jù),并且使方差較小,即使得數(shù)據(jù)擾動產(chǎn)生的影響小,一般來說,偏差與方差是有沖突的,這稱為偏差一方差窘境(bias-variancedilemma).圖2.9給出了一個示意圖,給定學習任務,假定我們能控制學習算法很多學習算法都可控竺 的訓練程度,則在訓練不足時,學習器的擬合能力不夠強,訓練數(shù)據(jù)的擾動不足訓練程度,例如決策樹i控制層數(shù),神經(jīng)網(wǎng)絡可控 以使學習器產(chǎn)生顯著變化,此時偏差主導了泛化錯誤率;隨著訓練程度的加深,制訓練輪數(shù),集成學習方學習器的擬合能力逐漸增強,訓練數(shù)據(jù)發(fā)生的擾動漸漸能被學習器學到,方差法可控制基學習器個數(shù).逐漸主導了泛化錯誤率;在訓練程度充足后,學習器的擬合能力已非常強,訓練數(shù)據(jù)發(fā)生的輕微擾動都會導致學習器發(fā)生顯著變化,若訓練數(shù)據(jù)自身的、非全局的特性被學習器學到了,則將發(fā)生過擬合.