A.ogistic回歸
B.SVM算法
C.CART決策樹
D.樸素貝葉斯
您可能感興趣的試卷
你可能感興趣的試題
A.隨機森林算法的分類精度不會隨著決策樹數(shù)量的增加而提高
B.隨機森林算法對異常值和缺失值不敏感
C.隨機森林算法不需要考慮過擬合問題
D.決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機森林模型的分類效果越好
A.規(guī)則集的表達能力遠不如決策樹好
B.基于規(guī)則的分類器都對屬性空間進行直線劃分,并將類指派到每個劃分
C.無法被用來產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.隨機取值
B.等距離散法
C.數(shù)值規(guī)約
D.等頻離散法
A.應(yīng)用邏輯回歸時,異常值會對模型造成很大的干擾
B.邏輯回歸的自變量必須是分類變量,因此要對連續(xù)型變量進行離散化處理
C.邏輯回歸對模型中自變量的多重共線性較為敏感
D.邏輯回歸屬于分類算法
A.預(yù)測準確度
B.召回率
C.模型描述的簡潔度
D.F1-Score
最新試題
標準正態(tài)分布的期望值μ和標準差σ分別為()
關(guān)聯(lián)分析一般分為兩個步驟,分別為()。
戰(zhàn)略集團的三種用途()
關(guān)于logistic回歸的說法中不正確的是()。
下列哪些是搜集數(shù)據(jù)的組織方式()。
下列可描述相關(guān)關(guān)系的圖表類型有()。
因子分析的作用是()。
以下對SVM算法的描述中正確的是()。
選擇渠道成員的標準包括()。
測度數(shù)據(jù)集中趨勢的指標可分為()兩大類。