1-3 解析常見的機器學習技術 (2) / iPAS AI 應用規劃師, AI 測驗題庫, iPAS AI 初級, 測驗題庫 / 作者: S學院 1-3 解析常見的機器學習技術 (2)模擬測驗,採智能選題,無限次反覆練習。 1. Transformer中的位置編碼(Positional Encoding)的主要作用是? 增加模型容量 加快訓練速度 提供序列位置資訊 減少參數數量 None 2. TensorFlow支援哪種類型的執行環境? 只支援GPU 支援多種硬體平台 只支援TPU 只支援CPU None 3. VAE(變分自編碼器)與傳統自編碼器的主要區別是? 重建誤差更小 生成具有概率分布 編碼維度更低 訓練速度更快 None 4. TensorFlow 2.0的主要改進不包含? Keras整合 降低運算效能 簡化的API 動態圖支援 None 5. 以下哪個不是深度學習模型的常見層類型? 池化層 全連接層 卷積層 排序層 None 6. 自注意力機制(Self-Attention)相比傳統注意力機制的優勢是? 內存使用更少 效果更好 可以並行計算 訓練更穩定 None 7. 在深度學習中,為什麼需要將特徵進行標準化? 增加模型複雜度 使不同特徵的尺度一致,加速收斂 減少記憶體使用 提高模型準確率 None 8. 深度學習模型評估指標不包括? 召回率 執行速度 準確率 F1分數 None 9. 以下哪種深度學習模型最適合用於文本生成? DNN CNN RNN GAN None 10. 在深度學習中,為什麼要使用梯度累積(Gradient Accumulation)? 加快訓練速度 提高模型準確率 擴大有效批次大小 減少內存使用 None 11. 以下哪種情況最適合使用遷移學習? 目標領域數據稀少 計算資源充足 有大量標記數據 目標任務與源任務完全不同 None 12. 深度學習中的知識蒸餾(Knowledge Distillation)過程中,溫度參數的作用是? 減少內存使用 提高模型準確率 控制軟標籤的軟度 加快訓練速度 None 13. 以下哪個不是深度學習的特點? 可以自動學習特徵 模型可以很深 需要強大的計算能力 不需要大量資料 None 14. 深度學習中的分組標準化(Group Normalization)相比批次標準化的優勢是? 計算更簡單 不依賴批次大小 訓練更快 效果更好 None 15. 深度學習中的梯度消失問題通常使用什麼方法解決? 減少批次大小 減少層數 使用ReLU激活函數 增加學習率 None 16. 在神經網路中使用ReLU激活函數的主要優勢是什麼? 輸出值被限制在固定範圍內 避免梯度消失且計算簡單 可以產生負值輸出 具有平滑的導數 None 17. 以下哪個不是深度學習常見的資料增強方法? 縮放 翻轉 刪除 旋轉 None 18. 深度學習中的遞歸神經網絡為什麼會出現梯度消失問題? 參數太多 長期依賴導致梯度連乘 學習率太小 激活函數不當 None 19. 以下哪個不是深度學習常見的模型評估方法? 交叉驗證 留一驗證 隨機分割 連續測試 None 20. 深度學習模型的訓練過程需要什麼? 只需要輸入數據 輸入數據和目標值 任意數據即可 只需要目標值 None 如有問題可留言,謝謝您的寶貴意見! 暱稱 電郵(提交獲得正確答案,可換題測驗完整題庫,新增題庫電郵通知) Time's up