A.上卷(roll-up)
B.選擇(select)
C.切片(slice)
D.轉軸(pivot)
您可能感興趣的試卷
你可能感興趣的試題
A.上卷
B.下鉆
C.切塊
D.轉軸
A.分布的
B.代數(shù)的
C.整體的
D.混合的
A.空缺值
B.噪聲數(shù)據(jù)
C.不一致數(shù)據(jù)
D.敏感數(shù)據(jù)
A.數(shù)據(jù)壓縮
B.數(shù)據(jù)概化
C.維歸約
D.規(guī)范化
A.設備異常
B.命名規(guī)則的不一致
C.與其他已有數(shù)據(jù)不一致而被刪除
D.在輸入時,有些數(shù)據(jù)因為得不到重視而沒有被輸入
最新試題
訓練神經(jīng)網(wǎng)絡具有過度擬合訓練數(shù)據(jù)的潛在問題。
根據(jù)數(shù)據(jù)科學家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構,甚至編程的形式來進行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應的存儲系統(tǒng)。
當數(shù)據(jù)集標簽錯誤的數(shù)據(jù)點時,隨機森林通常比AdaBoost更好。
數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會成倍的降低訪問時間。
使用偏差較小的模型總是比偏差較大的模型更好。
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個信箱。
由于決策樹學會了對離散值輸出而不是實值函數(shù)進行分類,因此它們不可能過度擬合。
小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計算機手段來完成。
完整性,一致性,時效性,唯一性,有效性,準確性是衡量數(shù)據(jù)質(zhì)量的六個維度指標。