單項選擇題哪種數(shù)據(jù)變換的方法將數(shù)據(jù)沿概念分層向上匯總?()

A.平滑
B.聚集
C.數(shù)據(jù)概化
D.規(guī)范化


您可能感興趣的試卷

你可能感興趣的試題

1.單項選擇題下面哪種數(shù)據(jù)預(yù)處理技術(shù)可以用來平滑數(shù)據(jù),消除數(shù)據(jù)噪聲?()

A.數(shù)據(jù)清理
B.數(shù)據(jù)集成
C.數(shù)據(jù)變換
D.數(shù)據(jù)歸約

2.單項選擇題進行數(shù)據(jù)規(guī)范化的目的是()。

A.去掉數(shù)據(jù)中的噪聲
B.對數(shù)據(jù)進行匯總和聚集
C.使用概念分層,用高層次概念替換低層次“原始”數(shù)據(jù)
D.將屬性按比例縮放,使之落入一個小的特定區(qū)間

3.單項選擇題數(shù)據(jù)歸約的目的是()。

A.填補數(shù)據(jù)種的空缺值
B.集成多個數(shù)據(jù)源的數(shù)據(jù)
C.得到數(shù)據(jù)集的壓縮表示
D.規(guī)范化數(shù)據(jù)

4.單項選擇題()通過將屬性域劃分為區(qū)間,從而減少給定連續(xù)值的個數(shù)。

A.概念分層
B.離散化
C.分箱
D.直方圖

5.單項選擇題數(shù)據(jù)的噪聲是指()。

A.孤立點
B.空缺值
C.測量變量中的隨即錯誤或偏差
D.數(shù)據(jù)變換引起的錯誤

最新試題

無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。

題型:判斷題

使用正則表達式可以找到一個文本文件中所有可能出現(xiàn)的手機號碼。

題型:判斷題

當反向傳播算法運行到達到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。

題型:判斷題

對于文本數(shù)據(jù)和多媒體數(shù)據(jù)進行特征提取是為了方便對于這類數(shù)據(jù)的觀察和理解。

題型:判斷題

選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。

題型:判斷題

根據(jù)數(shù)據(jù)科學家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應(yīng)的存儲系統(tǒng)。

題型:判斷題

要將工作申請分為兩類,并使用密度估計來檢測離職申請人,我們可以使用生成分類器。

題型:判斷題

使決策樹更深將確保更好的擬合度,但會降低魯棒性。

題型:判斷題

最大似然估計的一個缺點是,在某些情況下(例如,多項式分布),它可能會返回零的概率估計。

題型:判斷題

通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。

題型:判斷題