A.忽略元組
B.使用屬性的平均值填充空缺值
C.使用一個(gè)全局常量填充空缺值
D.使用與給定元組屬同一類的所有樣本的平均值
E.使用最可能的值填充空缺值
您可能感興趣的試卷
你可能感興趣的試題
A.統(tǒng)計(jì)
B.計(jì)算機(jī)組成原理
C.礦產(chǎn)挖掘
D.人工智能
A.分類
B.回歸
C.模式發(fā)現(xiàn)
D.模式匹配
A.決定要使用的表示的特征和結(jié)構(gòu)
B.決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞
C.選擇一個(gè)算法過(guò)程使評(píng)分函數(shù)最優(yōu)
D.決定用什么樣的數(shù)據(jù)管理原則以高效地實(shí)現(xiàn)算法
A.模型
B.模式
C.模范
D.模具
A.JP聚類擅長(zhǎng)處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇
B.JP算法對(duì)高維數(shù)據(jù)效果良好,尤其擅長(zhǎng)發(fā)現(xiàn)強(qiáng)相關(guān)對(duì)象的緊致簇
C.JP聚類是基于SNN相似度的概念
D.JP聚類的基本時(shí)間復(fù)雜度為O(m)
最新試題
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時(shí),我們幾乎總是可以通過(guò)允許更多隱藏狀態(tài)來(lái)增加訓(xùn)練數(shù)據(jù)的可能性。
給定用于2類分類問(wèn)題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
對(duì)于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對(duì)于這類數(shù)據(jù)的觀察和理解。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。
通過(guò)統(tǒng)計(jì)學(xué)可以推測(cè)擲兩個(gè)撒子同時(shí)選中3點(diǎn)的幾率。
無(wú)論質(zhì)心的初始化如何,K-Means始終會(huì)給出相同的結(jié)果。
小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計(jì)算機(jī)手段來(lái)完成。
當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。
任務(wù)調(diào)度系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標(biāo)從目標(biāo)源獲取數(shù)據(jù)。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫(kù)來(lái)存儲(chǔ)。