iPAS AI應用規劃師(中級)_科目3_ L23102 線性代數之機器學習基礎應用(1) 發佈留言 / 作者: S學院 / 2025-07-07 iPAS AI應用規劃師(中級)科目3_ L23102 線性代數之機器學習基礎應用(1) 模擬試題,採智能選題,無限次反覆練習。 1. 在持續學習中,防止災難性遺忘的彈性權重整合(EWC)方法使用: Gram矩陣 協方差矩陣 Fisher信息矩陣 海塞矩陣 None 2. 批次標準化(Batch Normalization)的主要目的是: 增加模型複雜度 減少計算量 提高模型準確率 穩定訓練過程 None 3. 在深度學習中,權重矩陣的奇異值分佈與以下哪個現象密切相關? 局部最小值 批次大小 過擬合 梯度消失/爆炸 None 4. SVD在推薦系統中的主要應用是: 評分預測 內容分析 使用者分群 矩陣分解與協同過濾 None 5. 單位矩陣 I 的特性是: 對角線元素為1,其餘為0 所有元素都是0 所有元素都是1 上三角矩陣 None 6. 對稱矩陣的重要性質是: A = A^(-1) A = -A^T A = 2A^T A = A^T None 7. 線性回歸的正規方程式為: β = X^T X^(-1) y β = (X^T X)^(-1) X^T y β = (XX^T)^(-1) X^T y β = X^T (XX^T)^(-1) y None 8. 正交矩陣 Q 滿足: Q = Q^T QQ^T = I Q + Q^T = I Q = Q^(-1) None 9. 矩陣的Frobenius範數定義為: 最大奇異值 ∑∑|aᵢⱼ| √(∑∑aᵢⱼ²) 最大特徵值 None 10. 對於多模態學習,典型相關分析(CCA)的目標是找到: 最大變異數方向 最大相關性的投影方向 模態間的差異 各模態的主成分 None 11. 核空間(Null Space)Ker(A) 是指: {x | A = x} {x | Ax = 0} {x | Ax = 1} {x | Ax = x} None 12. 在張量分解中,CANDECOMP/PARAFAC(CP)分解的主要限制是: 無法處理稀疏張量 只適用於三階張量 計算複雜度過高 秩的選擇困難 None 13. 在元學習(meta-learning)中,模型無關的元學習(MAML)的二階導數涉及: QR分解 特徵值分解 海塞矩陣的計算 奇異值分解 None 14. PCA中,累積解釋變異數比例用於: 決定保留的主成分數量 計算協方差矩陣 標準化資料 計算特徵值 None 15. 在聚類分析中,歐氏距離的計算公式為: √[(x₁ - x₂)² + (y₁ - y₂)²] |x₁ - x₂| + |y₁ - y₂| max(|x₁ - x₂|, |y₁ - y₂|) |x₁ - x₂| * |y₁ - y₂| None 16. 在多工學習(multi-task learning)中,任務間共享結構通常通過以下哪種矩陣性質實現? 低秩性 正定性 稀疏性 對稱性 None 17. 在隨機梯度下降中,海塞矩陣(Hessian)的條件數影響: 對優化過程無影響 僅影響數值穩定性 收斂速度和穩定性 僅影響收斂速度 None 18. 在因果推理的結構方程模型中,鄰接矩陣的非循環性通過以下條件保證: 矩陣稀疏 矩陣正定 矩陣對稱 矩陣可排列為上三角 None 19. 在核嶺回歸中,核矩陣的特徵值衰減速度決定: 學習曲線的收斂速度 正則化參數的設定 核函數的選擇 訓練時間的長短 None 20. 在核主成分分析(Kernel PCA)中,核矩陣K必須滿足: K是正半定矩陣 K是反對稱矩陣 K是對角矩陣 K的跡為零 None 如有問題可留言,謝謝您的寶貴意見! 暱稱 電郵(提交獲得正確答案,可換題測驗完整題庫,新增題庫電郵通知) Time's up