A.企業(yè)倉庫
B.數(shù)據(jù)集市
C.虛擬倉庫
D.信息倉庫
您可能感興趣的試卷
你可能感興趣的試題
A.數(shù)據(jù)源
B.數(shù)據(jù)倉庫服務(wù)器
C.OLAP服務(wù)器
D.前端工具
A.信息處理
B.互聯(lián)網(wǎng)搜索
C.分析處理
D.數(shù)據(jù)挖掘
A.1-100M
B.100M-10G
C.10-1000G
D.100GB-數(shù)TB
A.頂點方體
B.方體的格
C.基本方體
D.維
A.上卷(roll-up)
B.選擇(select)
C.切片(slice)
D.轉(zhuǎn)軸(pivot)
最新試題
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
當MAP中使用的先驗是參數(shù)空間上的統(tǒng)一先驗時,MAP估計等于ML估計。
通過統(tǒng)計學可以推測擲兩個撒子同時選中3點的幾率。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲。
通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。
假設(shè)屬性的數(shù)量固定,則可以在時間上以線性方式學習基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
數(shù)據(jù)收集中的拉模式需要通過定時的方式不斷地觸發(fā),才能源源不斷地獲取對應(yīng)的數(shù)據(jù)。