單項(xiàng)選擇題以下哪項(xiàng)關(guān)于決策樹(shù)的說(shuō)法是錯(cuò)誤的?()

A.冗余屬性不會(huì)對(duì)決策樹(shù)的準(zhǔn)確率造成不利的影響
B.子樹(shù)可能在決策樹(shù)中重復(fù)多次
C.決策樹(shù)算法對(duì)于噪聲的干擾非常敏感
D.尋找最佳決策樹(shù)是NP完全問(wèn)題


您可能感興趣的試卷

你可能感興趣的試題

1.單項(xiàng)選擇題以下哪些分類方法可以較好地避免樣本的不平衡問(wèn)題,()。

A.KNN
B.SVM
C.Bayes
D.神經(jīng)網(wǎng)絡(luò)

2.單項(xiàng)選擇題以下哪些算法是分類算法,()。

A.DBSCAN
B.C4.5
C.K-Mean
D.EM

3.單項(xiàng)選擇題下列()不是將主觀信息加入到模式發(fā)現(xiàn)任務(wù)中的方法。

A.與同一時(shí)期其他數(shù)據(jù)對(duì)比
B.可視化
C.基于模板的方法
D.主觀興趣度量

4.單項(xiàng)選擇題下列度量不具有反演性的是()。

A.系數(shù)
B.幾率
C.Cohen度量
D.興趣因子

5.單項(xiàng)選擇題在圖集合中發(fā)現(xiàn)一組公共子結(jié)構(gòu),這樣的任務(wù)稱為()。

A.頻繁子集挖掘
B.頻繁子圖挖掘
C.頻繁數(shù)據(jù)項(xiàng)挖掘
D.頻繁模式挖掘

最新試題

數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。

題型:判斷題

隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。

題型:判斷題

當(dāng)MAP中使用的先驗(yàn)是參數(shù)空間上的統(tǒng)一先驗(yàn)時(shí),MAP估計(jì)等于ML估計(jì)。

題型:判斷題

由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。

題型:判斷題

使用偏差較小的模型總是比偏差較大的模型更好。

題型:判斷題

由于決策樹(shù)學(xué)會(huì)了對(duì)離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類,因此它們不可能過(guò)度擬合。

題型:判斷題

最大似然估計(jì)的一個(gè)缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會(huì)返回零的概率估計(jì)。

題型:判斷題

公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。

題型:判斷題

數(shù)據(jù)收集中的拉模式需要通過(guò)定時(shí)的方式不斷地觸發(fā),才能源源不斷地獲取對(duì)應(yīng)的數(shù)據(jù)。

題型:判斷題

假設(shè)屬性的數(shù)量固定,則可以在時(shí)間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。

題型:判斷題