A.輪廓系數(shù)
B.共性分類(lèi)相關(guān)系數(shù)
C.熵
D.F度量
您可能感興趣的試卷
你可能感興趣的試題
A.規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹(shù)好
B.基于規(guī)則的分類(lèi)器都對(duì)屬性空間進(jìn)行直線劃分,并將類(lèi)指派到每個(gè)劃分
C.無(wú)法被用來(lái)產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類(lèi)分布不平衡的數(shù)據(jù)集
A.構(gòu)造網(wǎng)絡(luò)費(fèi)時(shí)費(fèi)力
B.對(duì)模型的過(guò)分問(wèn)題非常魯棒
C.貝葉斯網(wǎng)絡(luò)不適合處理不完整的數(shù)據(jù)
D.網(wǎng)絡(luò)結(jié)構(gòu)確定后,添加變量相當(dāng)麻煩
A.F1度量
B.召回率(recall)
C.精度(precision)
D.真正率(ture positive rate,TPR)
A.預(yù)測(cè)準(zhǔn)確度
B.召回率
C.模型描述的簡(jiǎn)潔度
D.計(jì)算復(fù)雜度
A.其支持度小于閾值
B.都是不讓人感興趣的
C.包含負(fù)模式和負(fù)相關(guān)模式
D.對(duì)異常數(shù)據(jù)項(xiàng)敏感
最新試題
任務(wù)調(diào)度系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標(biāo)從目標(biāo)源獲取數(shù)據(jù)。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
由于決策樹(shù)學(xué)會(huì)了對(duì)離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類(lèi),因此它們不可能過(guò)度擬合。
使決策樹(shù)更深將確保更好的擬合度,但會(huì)降低魯棒性。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫(kù)來(lái)存儲(chǔ)。
通過(guò)統(tǒng)計(jì)學(xué)可以推測(cè)擲兩個(gè)撒子同時(shí)選中3點(diǎn)的幾率。
最大似然估計(jì)的一個(gè)缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會(huì)返回零的概率估計(jì)。
數(shù)據(jù)復(fù)制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個(gè)角度來(lái)設(shè)計(jì)和實(shí)現(xiàn)的。
給定用于2類(lèi)分類(lèi)問(wèn)題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類(lèi)精度。
當(dāng)MAP中使用的先驗(yàn)是參數(shù)空間上的統(tǒng)一先驗(yàn)時(shí),MAP估計(jì)等于ML估計(jì)。