3.12 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
| 3.11 TensorFlow | 回到目錄 | 1.1 為什么是ML策略 (第三課) |
總結
習題
第 61 題
如果在大量的超參數中搜索最佳的參數值,那么應該嘗試在網格中搜索而不是使用隨機值,以便更系統的搜索,而不是依靠運氣,請問這句話是正確的嗎?
A.對 B.不對
第 62 題
每個超參數如果設置得不好,都會對訓練產生巨大的負面影響,因此所有的超參數都要調整好,請問這是正確的嗎?
A.對 B.不對
第 63 題
在超參數搜索過程中,你嘗試只照顧一個模型(使用熊貓策略)還是一起訓練大量的模型(魚子醬策略)在很大程度上取決于:
A.是否使用批量(batch)或小批量優化(mini-batch optimization)
B.神經網絡中局部最小值(鞍點)的存在性
C.在你能力范圍內,你能夠擁有多大的計算能力(博主注:就是高性能電腦和低性能電腦的區別)
D.需要調整的超參數的數量
第 64 題
如果您認為 β\betaβ (動量超參數)介于0.9和0.99之間,那么推薦采用以下哪一種方法來對 β\betaβ 值進行取樣?
A.
r = np.random.rand() beta = r * 0.09 + 0.9B.
r = np.random.rand() beta = 1 - 10 ** ( - r - 1 )C.
r = np.random.rand() beta = 1 - 10 ** ( - r + 1 )D.
r = np.random.rand() beta = r * 0.9 + 0.09第 65 題
找到好的超參數的值是非常耗時的,所以通常情況下你應該在項目開始時做一次,并嘗試找到非常好的超參數,這樣你就不必再次重新調整它們。請問這正確嗎?
A.對 B.不對
第 66 題
在視頻中介紹的批量標準化中,如果將其應用于神經網絡的第 lll 層,您應該對誰進行標準化?
A. z[l]z^{[l]}z[l]
B. W[l]W^{[l]}W[l]
C. a[l]a^{[l]}a[l]
D. b[l]b^{[l]}b[l]
第 67 題
在標準化公式 znorm(i)=z(i)?μσ2+?z^{(i)}_{norm}=\frac{z^{(i)}-\mu}{\sqrt{\sigma^2+\epsilon}}znorm(i)?=σ2+??z(i)?μ? ,為什么要使用epsilon(?)?
A.為了更準確地標準化
B.為了避免除零操作
C.為了加速收斂
D.防止 μ\muμ 太小
第 68 題
批標準化中關于 γ\gammaγ 和 β\betaβ 的以下哪些陳述是正確的?
A.對于每個層,有一個全局值 γ∈R\gamma\in\Rγ∈R 和一個全局值 β∈R\beta\in\Rβ∈R ,適用于于該層中的所有隱藏單元。
B. γ\gammaγ 和 β\betaβ 是算法的超參數,我們通過隨機采樣進行調整
C.它們確定了給定層的線性變量 z[l]z^{[l]}z[l] 的均值和方差
D.最佳值是 γ=σ2+?,β=μ\gamma=\sqrt{\sigma^2+\epsilon},\ \beta=\muγ=σ2+??,?β=μ
E.它們可以用Adam、動量的梯度下降或RMSprop,而不僅僅是用梯度下降來學習
第 69 題
在訓練了具有批標準化的神經網絡之后,在用新樣本評估神經網絡的時候,您應該:
A.如果你在256個例子的mini-batch上實現了批標準化,那么如果你要在一個測試例子上進行評估,你應該將這個例子重復256次,這樣你就可以使用和訓練時大小相同的mini-batch進行預測。
B.使用最新的mini-batch的 μ\muμ 和 σ2\sigma^2σ2 值來執行所需的標準化
C.跳過用 μ\muμ 和 σ2\sigma^2σ2 值標準化的步驟,因為一個例子不需要標準化
D.執行所需的標準化,使用在訓練期間,通過指數加權平均值得出的 μ\muμ 和 σ2\sigma^2σ2
第 70 題
關于深度學習編程框架的這些陳述中,哪一個是正確的?(選出所有正確項)
A.即使一個項目目前是開源的,項目的良好管理有助于確保它即使在長期內仍然保持開放,而不是僅僅為了一個公司而關閉或修改。
B.通過編程框架,您可以使用比低級語言(如Python)更少的代碼來編寫深度學習算法。
C.深度學習編程框架的運行需要基于云的機器。
61-70題 答案
61.B 62.B 63.C 64.B 65.B 66.A 67.B 68.CE 69.D 70.AB
| 3.11 TensorFlow | 回到目錄 | 1.1 為什么是ML策略 (第三課) |
總結
以上是生活随笔為你收集整理的3.12 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 3.11 TensorFlow-深度学习
- 下一篇: 零 目录-机器学习老师板书-斯坦福吴恩达