A.變量代換
B.離散化
C.聚集
D.估計(jì)遺漏值
您可能感興趣的試卷
你可能感興趣的試題
A.根據(jù)內(nèi)容檢索
B.建模描述
C.預(yù)測(cè)建模
D.尋找模式和規(guī)則
A.探索性數(shù)據(jù)分析
B.建模描述
C.預(yù)測(cè)建模
D.尋找模式和規(guī)則
A.頻繁模式挖掘
B.分類和預(yù)測(cè)
C.數(shù)據(jù)預(yù)處理
D.數(shù)據(jù)流挖掘
以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類算法的評(píng)價(jià)標(biāo)準(zhǔn)?()
(1)警察抓小偷,描述警察抓的人中有多少個(gè)是小偷的標(biāo)準(zhǔn)。
(2)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。
A.Precision,Recall
B.Recall,Precision
C.Precision,ROC
D.Recall,ROC
最新試題
由于決策樹學(xué)會(huì)了對(duì)離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。
當(dāng)反向傳播算法運(yùn)行到達(dá)到最小值時(shí),無論初始權(quán)重是什么,總是會(huì)找到相同的解(即權(quán)重)。
管理員不需要驗(yàn)證就可以訪問數(shù)據(jù)存儲(chǔ)系統(tǒng)中的任何數(shù)據(jù),這符合數(shù)據(jù)安全的要求。
使用偏差較小的模型總是比偏差較大的模型更好。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
假設(shè)屬性的數(shù)量固定,則可以在時(shí)間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
根據(jù)數(shù)據(jù)科學(xué)家與數(shù)據(jù)工程師對(duì)于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進(jìn)行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對(duì)應(yīng)的存儲(chǔ)系統(tǒng)。
對(duì)于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對(duì)于這類數(shù)據(jù)的觀察和理解。
當(dāng)MAP中使用的先驗(yàn)是參數(shù)空間上的統(tǒng)一先驗(yàn)時(shí),MAP估計(jì)等于ML估計(jì)。