1-3 解析常見的機器學習技術 (2) 發佈留言 / 作者: S學院 / 2025-02-13 1-3 解析常見的機器學習技術 (2)模擬測驗,採智能選題,無限次反覆練習。 1. 在深度學習中,為什麼要使用標籤平滑(Label Smoothing)? 增加模型容量 加快訓練速度 提高模型泛化能力 減少內存使用 None 2. 深度學習中的蒸餾(Distillation)技術主要用於? 加快訓練速度 將大模型知識轉移到小模型 提高模型準確率 減少數據需求 None 3. 在深度學習中,為什麼要使用Warmup? 加快收斂速度 提高最終精度 減少內存使用 穩定初期訓練 None 4. 在深度強化學習中,為什麼要使用經驗回放(Experience Replay)? 打破樣本相關性 加快訓練速度 減少內存使用 提高探索效率 None 5. 以下哪個不是深度學習常見的應用領域? 電腦視覺 語音識別 自然語言處理 機械加工 None 6. 以下哪個不是深度學習常見的模型評估方法? 交叉驗證 留一驗證 連續測試 隨機分割 None 7. 注意力機制(Attention Mechanism)在神經網路中的主要作用是? 防止過擬合 加速訓練 減少參數量 動態關注相關資訊 None 8. 以下哪個不是深度學習模型常見的優化器(Optimizer)? RMSprop Adam SGD Quick Sort None 9. 在處理自然語言時,WordPiece分詞算法的主要優勢是? 提高準確率 處理速度快 能處理未知詞 節省存儲空間 None 10. 深度學習中的對抗訓練(Adversarial Training)的主要目的是? 改善模型解釋性 增強模型魯棒性 提高訓練速度 減少參數數量 None 11. TensorFlow服務(TensorFlow Serving)的主要用途是? 部署模型 訓練模型 測試模型 設計模型 None 12. 深度學習模型在訓練過程中主要是透過什麼來改進? 隨機猜測 誤差反饋 資料重組 人工調整 None 13. 在深度學習中,為什麼要使用梯度累積(Gradient Accumulation)? 減少內存使用 擴大有效批次大小 提高模型準確率 加快訓練速度 None 14. 以下哪個不是深度學習模型的常見層類型? 排序層 池化層 全連接層 卷積層 None 15. 深度學習中的遞歸神經網絡為什麼會出現梯度消失問題? 激活函數不當 學習率太小 長期依賴導致梯度連乘 參數太多 None 16. ResNet中的殘差連接(Residual Connection)主要解決什麼問題? 記憶體不足 梯度爆炸 梯度消失 過擬合 None 17. TensorFlow中的圖(Graph)概念主要用於? 資料存儲 視覺化顯示 計算流程定義 模型評估 None 18. 深度學習中的批次大小(batch size)會影響? 只影響內存使用 不影響訓練過程 只影響訓練速度 訓練效率和內存使用 None 19. 生成對抗網路(GAN)的兩個主要組件是? 生成器和鑑別器 處理器和分析器 輸入層和輸出層 編碼器和解碼器 None 20. 長短期記憶網路(LSTM)的主要特點是? 記憶長期依賴關係 壓縮資料大小 生成新的資料 快速處理圖像 None 如有問題可留言,謝謝您的寶貴意見! 暱稱 電郵(提交獲得正確答案,可換題測驗完整題庫,新增題庫電郵通知) Time's up