iPAS AI應用規劃師(中級)科目3_ L23101 機率統計之機器學習基礎應用(7) 機器學習中的機率統計應用(進階題型) 發佈留言 / 作者: S學院 / 2025-07-01 iPAS AI應用規劃師(中級)科目3_ L23101 機率統計之機器學習基礎應用(7) 機器學習中的機率統計應用(進階題型) 模擬試題,採智能選題,無限次反覆練習。 1. 變分推理中,證據下界(ELBO)的兩個組成部分是什麼? 偏差和變異 先驗和後驗 似然項和KL散度項 均值和方差 None 2. 稀疏編碼中,L0範數正則化的近似替代通常使用什麼? L1範數 核範數 Frobenius範數 L2範數 None 3. 自監督學習中,對比學習的核心原則是什麼? 保持數據的統計性質 最大化正樣本相似度,最小化負樣本相似度 最小化重建誤差 學習數據的生成模型 None 4. 變分量子特徵映射(VQE)中,參數化量子電路的優化通常使用什麼方法? 參數偏移規則 模擬退火 遺傳算法 反向傳播 None 5. 稀疏高斯圖模型中,圖結構學習通常通過什麼方法實現? 最大似然估計 變分推理方法 貪心搜索算法 L1正則化的精度矩陣估計 None 6. 注意力機制中,自注意力(self-attention)的查詢、鍵、值通常來自哪裡? 不同的輸入序列 同一個輸入序列 預訓練的嵌入 隨機初始化的參數 None 7. 在流形學習中,等度量映射(Isomap)算法的核心思想是什麼? 最小化重建誤差 保持測地距離 最大化變異解釋 保持局部線性關係 None 8. 在隱馬可夫模型(HMM)中,維特比算法(Viterbi algorithm)解決的是什麼問題? 似然計算問題 模型選擇問題 最優狀態序列問題 參數估計問題 None 9. 當使用核技巧(kernel trick)時,RBF核函數的參數γ增大會導致什麼結果? 計算複雜度降低 決策邊界變得更平滑 模型更容易過度配適 支持向量數量增加 None 10. 在線性判別分析(LDA)中,當類內協方差矩陣奇異時,常用的解決方法是什麼? 增加訓練樣本 減少特徵維度 使用非線性核 加入正則化項 None 11. 在元學習中,MAML(Model-Agnostic Meta-Learning)的核心思想是什麼? 學習任務的層次結構 學習任務間的相似性度量 學習適於快速適應的初始參數 學習任務特定的特徵表示 None 12. 高斯過程回歸中,核函數的超參數通常通過什麼方法優化? 網格搜索 交叉驗證 最大化邊際似然 最小化訓練誤差 None 13. 神經常微分方程(Neural ODEs)的主要理論優勢是什麼? 數值穩定性更好 記憶體效率和連續深度 模型表達能力更強 訓練速度更快 None 14. 在持續學習中,彈性權重鞏固(EWC)方法的理論基礎是什麼? 信息瓶頸理論 貝葉斯推理 最優傳輸理論 正則化理論 None 15. 在實驗設計中,完全隨機化設計相比於隨機區組設計的主要劣勢是什麼? 需要更多樣本 分析方法更複雜 計算複雜度更高 無法控制區組效應 None 16. 在因果推理中,工具變數(IV)必須滿足的三個假設不包括哪個? 線性假設 相關性假設 排他性假設 獨立性假設 None 17. 譜聚類算法中,拉普拉斯矩陣的第二小特徵值被稱為什麼? 譜半徑 代數連通度 條件數 核範數 None 18. 在分位數回歸中,損失函數的形式是什麼? 分位數損失(quantile loss) 平方損失 Huber損失 絕對值損失 None 19. 在層次貝葉斯模型中,超參數的作用是什麼? 控制模型的複雜度 控制參數的先驗分布 決定似然函數形式 直接影響觀測數據 None 20. 多重假設檢驗中,FDR(False Discovery Rate)控制相比於FWER控制的優勢是什麼? 適用範圍更廣 統計功效更高 理論基礎更穩固 計算更簡單 None 如有問題可留言,謝謝您的寶貴意見! 暱稱 電郵(提交獲得正確答案,可換題測驗完整題庫,新增題庫電郵通知) Time's up