-
從NFL定理可知,這兩個假設(shè)同樣好,我們立即會想到符合條件的例子
2018-08-15
-
奧卡姆剃刀并非唯一可行的原則
2018-08-15
-
對有限個樣本點組成的訓(xùn)練集,存在著很多條曲線與其一致
2018-08-15
-
通過學(xué)習(xí)得到的模型對應(yīng)了假設(shè)空間中的一個假設(shè).于是,圖1 2的西瓜版本空間給我們帶來一個麻煩:現(xiàn)在有三個與訓(xùn)練集一致的假設(shè),但與它們對應(yīng)的模型在面臨新樣本的時候,卻會產(chǎn)生不同的輸出
2018-08-15
-
可以有許多策略對這個假設(shè)空間進(jìn)行搜索
2018-08-15
-
我們可以把學(xué)習(xí)過程看作一個在所有假設(shè)(hypothesis)組成的空間中進(jìn)行搜索的過程
2018-08-15
-
否則標(biāo)記信息直接形成了簇劃分:但也有例外情況,參見13 6節(jié),亦稱“有導(dǎo)師學(xué)習(xí)”和“無導(dǎo)師學(xué)習(xí)”,更確切地說,是“未見示例”(unseen instance).現(xiàn)實任務(wù)中樣本空間的規(guī)模通常很大(例如20個屬性,每個屬性有10個可能取值
2018-08-15
-
從數(shù)據(jù)中學(xué)得模型的過程稱為“學(xué)習(xí)”(learning)或“訓(xùn)練”(training)
2018-08-15
-
對學(xué)習(xí)算法除了通過實驗估計其泛化性能,人們往往還希望了解它“為什么”具有這樣的性能
2018-08-16