以下是哪一個聚類算法的算法流程()。
①構(gòu)造k-最近鄰圖。
②使用多層圖劃分算法劃分圖。
③repeat:合并關(guān)于相對互連性和相對接近性而言,最好地保持簇的自相似性的簇。
④until:不再有可以合并的簇。
A.MST
B.OPOSSUM
C.Chameleon
D.Jarvis-Patrick(JP)
您可能感興趣的試卷
你可能感興趣的試題
A.K均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象
B.K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念
C.K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇
D.K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會合并有重疊的簇
A.基于圖的凝聚度
B.基于原型的凝聚度
C.基于原型的分離度
D.基于圖的凝聚度和分離度
A.O(m)
B.O(m2)
C.O(logm)
D.O(m*logm)
A.MIN(單鏈)
B.MAX(全鏈)
C.組平均
D.Ward方法
A.MIN(單鏈)
B.MAX(全鏈)
C.組平均
D.Ward方法
最新試題
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過度擬合訓(xùn)練數(shù)據(jù)的潛在問題。
無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。
由于決策樹學(xué)會了對離散值輸出而不是實值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。
完整性,一致性,時效性,唯一性,有效性,準(zhǔn)確性是衡量數(shù)據(jù)質(zhì)量的六個維度指標(biāo)。
數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會成倍的降低訪問時間。
假設(shè)屬性的數(shù)量固定,則可以在時間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓(xùn)練集上實現(xiàn)更好的分類精度。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
最大似然估計的一個缺點是,在某些情況下(例如,多項式分布),它可能會返回零的概率估計。