對學(xué)習(xí)算法除了通過實驗估計其泛化性能,人們往往還希望了解它“為什么”具有這樣的性能
2018-08-16 閱讀全文>>交叉驗證t檢驗和McNemar檢驗都是在一個數(shù)據(jù)集上比較兩個算法的性能
2018-08-16 閱讀全文>>對兩個學(xué)習(xí)器A和B,若我們使用尼折交叉驗證法得到的測試錯誤率分別為e
2018-08-16 閱讀全文>>假設(shè)檢驗中的“假設(shè)”是對學(xué)習(xí)器泛化錯誤率分布的某種判斷或猜想
2018-08-16 閱讀全文>>統(tǒng)計假設(shè)檢驗(hypothesis test)為我們進行學(xué)習(xí)器性能比較提供了重要依據(jù),基于假設(shè)檢驗結(jié)果我們可推斷出,若在測試集上觀察到學(xué)習(xí)器A比B好,則A的泛化性能是否在統(tǒng)計意義上優(yōu)于B,以及這個結(jié)論的把握有多大
2018-08-16 閱讀全文>>將ROC曲線上的每個點轉(zhuǎn)化為代價平面上的一條線段,然后取所有線段的下界
2018-08-16 閱讀全文>>回顧前面介紹的一些性能度量可看出,它們大都隱式地假設(shè)了均等代價
2018-08-16 閱讀全文>>在現(xiàn)實任務(wù)中常會遇到這樣的情況:不同類型的錯誤所造成的后果不同.例如在醫(yī)療診斷中,錯誤地把患者診斷為健康人與錯誤地把健康人診斷為患者,看起來都是犯了“一次錯誤”
2018-08-16 閱讀全文>>現(xiàn)實任務(wù)中通常是利用有限個測試樣例來繪制ROC圖,此時僅能獲得有限個(真正例率,假正例率)坐標(biāo)對,無法產(chǎn)生圖2 4(a)中的光滑ROC曲線,只能基于有限個測試樣例篆繪制出如圖2 4(b)所示的近似ROC曲線
2018-08-16 閱讀全文>>錯誤率和精度雖常用,但并不能滿足所有任務(wù)需求.以西瓜問題為例,假定瓜農(nóng)拉來一車西瓜,我們用訓(xùn)練好的模型對這些西瓜進行判別,顯然,錯誤率衡量了有多少比例的瓜被判別錯誤.
2018-08-16 閱讀全文>>調(diào)參得好不好往往對最終模型性能有關(guān)鍵性影響.給定包含m個樣本的數(shù)據(jù)集D,在模型評估與選擇過程中由于需要留出一部分?jǐn)?shù)據(jù)進行評估測試,事實上我們只使用了一部分?jǐn)?shù)據(jù)訓(xùn)練模型.
2018-08-16 閱讀全文>>大多數(shù)學(xué)習(xí)算法都有些參數(shù)(parameter)需要設(shè)定,參數(shù)配置不同,學(xué)得模型的性能往往有顯著差別.因此,在進行模型評估與選擇時,除了要對適用學(xué)習(xí)算法進行選擇,還需對算法參數(shù)進行設(shè)定,這就是通常所說的“參數(shù)調(diào)節(jié)”或簡稱“調(diào)參”(parameter tuning)
2018-08-16 閱讀全文>>“自助法”(bootstrapping)是一個比較好的解決方案
2018-08-16 閱讀全文>>留一法的估計結(jié)果也未必永遠(yuǎn)比其他評估方法準(zhǔn)確
2018-08-16 閱讀全文>>“交叉驗證法”(cross validation)先將數(shù)據(jù)集D劃分為尼、個大小相似的互斥子集,即D= Di u D2 u U Dk,DinDj=g(t≠j) 每個子集Di都盡可能保持?jǐn)?shù)據(jù)分布的一致性,即從D中通過分層采樣得到
2018-08-16 閱讀全文>>1824條 上一頁 1.. 52 53 54 55 56 ..122 下一頁