90题细品吴恩达《机器学习》,感受被刷题支配的恐惧
點擊藍字關(guān)注我,有干貨領(lǐng)取!
最近翻譯了吳恩達《機器學(xué)習(xí)》課程的配套題庫。課程系列本身多有名多經(jīng)典我就不贅述啦~
主要是我發(fā)現(xiàn),現(xiàn)在市面上基本都是課程和編程題的翻譯版,很少有人翻譯測驗(quiz)的題。但最近我親測感受了一下,這套題其實有點東西,考點非常細膩。新手配合教程使用,可以更好地學(xué)習(xí)知識;老手在錯到懷疑人生的同時,可以幫你回顧理論知識。所以就給大家搬來啦~
另外,因為里面有一部分比較水基礎(chǔ)的題,所以我酌情搬了節(jié)選。
第 16 題
假設(shè)m=4個學(xué)生上了一節(jié)課,有期中考試和期末考試。你已經(jīng)收集了他們在兩次考試中的分?jǐn)?shù)數(shù)據(jù)集,如下所示:
| 89 | 7921 | 96 | 
| 72 | 5184 | 74 | 
| 94 | 8836 | 87 | 
| 69 | 4761 | 78 | 
你想用多項式回歸來預(yù)測一個學(xué)生的期中考試成績。具體地說,假設(shè)你想擬合一個的模型,其中x1是期中得分,x2是(期中得分)^2。此外,你計劃同時使用特征縮放(除以特征的“最大值-最小值”或范圍)和均值歸一化。
標(biāo)準(zhǔn)化后的特征值是多少?(提示:期中=89,期末=96是訓(xùn)練示例1)
第 17 題
用進行15次梯度下降迭代,每次迭代后計算。你會發(fā)現(xiàn)的值下降緩慢,并且在15次迭代后仍在下降。基于此,以下哪個結(jié)論似乎最可信?
A.?是學(xué)習(xí)率的有效選擇。
B. 與其使用當(dāng)前值,不如嘗試更小的值(比如)
C. 與其使用當(dāng)前值,不如嘗試更大的值(比如)
第 18 題
假設(shè)您有m=14個訓(xùn)練示例,有n=3個特性(不包括需要另外添加的恒為1的截距項),正規(guī)方程是。對于給定m和n的值,這個方程中的維數(shù)分別是多少?
A.??14×3,??14×1,??3×3 B.??14×4,??14×1,??4×1 C.??14×3,??14×1,??3×1 D.??14×4,??14×4,??4×4
第 19 題
假設(shè)您有一個數(shù)據(jù)集,每個示例有m=1000000個示例和n=200000個特性。你想用多元線性回歸來擬合參數(shù)到我們的數(shù)據(jù)。你更應(yīng)該用梯度下降還是正規(guī)方程?
A. 梯度下降,因為正規(guī)方程中中計算非常慢
B. 正規(guī)方程,因為它提供了一種直接求解的有效方法
C. 梯度下降,因為它總是收斂到最優(yōu)
D. 正規(guī)方程,因為梯度下降可能無法找到最優(yōu)
第 20 題
以下哪些是使用特征縮放的原因?
A. 它可以防止梯度下降陷入局部最優(yōu)
B. 它通過降低梯度下降的每次迭代的計算成本來加速梯度下降
C. 它通過減少迭代次數(shù)來獲得一個好的解,從而加快了梯度下降的速度
D. 它防止矩陣(用于正規(guī)方程)不可逆(奇異/退化)
第 27 題
假設(shè)您有以下訓(xùn)練集,并擬合logistic回歸分類器
以下哪項是正確的?選出所有正確項
A. 添加多項式特征(例如,使用)可以增加我們擬合訓(xùn)練數(shù)據(jù)的程度
B. 在的最佳值(例如,由fminunc找到)處,
C.添加多項式特征(例如,使用將增加,因為我們現(xiàn)在正在對更多項進行求和
D.如果我們訓(xùn)練梯度下降迭代足夠多次,對于訓(xùn)練集中的一些例子,可能得到
第 28 題
對于邏輯回歸,梯度由給出。以下哪項是學(xué)習(xí)率為的邏輯回歸的正確梯度下降更新?選出所有正確項
A.?
B.?(同時更新所有)
C.?(同時更新所有)
D.?(同時更新所有)
第 29 題
以下哪項陳述是正確的?選出所有正確項
A. 對于邏輯回歸,梯度下降有時會收斂到一個局部最小值(并且無法找到全局最小值)。這就是為什么我們更喜歡更先進的優(yōu)化算法,如fminunc(共軛梯度/BFGS/L-BFGS/等等)
B. sigmoid函數(shù)數(shù)值永遠不會大于1
C.用個例子訓(xùn)練的邏輯回歸的代價函數(shù)總是大于或等于零
D. 使用線性回歸+閾值的方法做分類預(yù)測,總是很有效的
第 31 題
你正在訓(xùn)練一個分類邏輯回歸模型。以下哪項陳述是正確的?選出所有正確項
A. 將正則化引入到模型中,總是能在訓(xùn)練集上獲得相同或更好的性能
B. 在模型中添加許多新特性有助于防止訓(xùn)練集過度擬合
C. 將正則化引入到模型中,對于訓(xùn)練集中沒有的例子,總是可以獲得相同或更好的性能
D. 向模型中添加新特征總是會在訓(xùn)練集上獲得相同或更好的性能
第 31 題
你正在訓(xùn)練一個分類邏輯回歸模型。以下哪項陳述是正確的?選出所有正確項
A. 將正則化引入到模型中,總是能在訓(xùn)練集上獲得相同或更好的性能
B. 在模型中添加許多新特性有助于防止訓(xùn)練集過度擬合
C. 將正則化引入到模型中,對于訓(xùn)練集中沒有的例子,總是可以獲得相同或更好的性能
D. 向模型中添加新特征總是會在訓(xùn)練集上獲得相同或更好的性能
第 32 題
假設(shè)您進行了兩次邏輯回歸,一次是,一次是。其中一次,得到參數(shù),另一次,得到。但是,您忘記了哪個值對應(yīng)于哪個值。你認(rèn)為哪個對應(yīng)?
A.?
B.?
第 33 題
以下關(guān)于正則化的陳述哪一個是正確的?選出所有正確項
A. 使用太大的值可能會導(dǎo)致您的假設(shè)與數(shù)據(jù)過擬合;這可以通過減小來避免
B. 使用非常大的值不會影響假設(shè)的性能;我們不將設(shè)置為太大的唯一原因是避免數(shù)值問題
C. 考慮一個分類問題。添加正則化可能會導(dǎo)致分類器錯誤地分類某些訓(xùn)練示例(當(dāng)不使用正則化時,即當(dāng)時,它正確地分類了這些示例)
D. 由于邏輯回歸的輸出值,其輸出值的范圍無論如何只能通過正則化來“縮小”一點,因此正則化通常對其沒有幫助
第 36 題
以下哪項陳述是正確的?選擇所有正確項
A. 神經(jīng)網(wǎng)絡(luò)中隱藏單元的激活值,在應(yīng)用了sigmoid函數(shù)之后,總是在(0,1)范圍內(nèi)
B. 在二進制值(0或1)上的邏輯函數(shù)可以(近似)用一些神經(jīng)網(wǎng)絡(luò)來表示
C. 兩層(一個輸入層,一個輸出層,沒有隱藏層)神經(jīng)網(wǎng)絡(luò)可以表示異或函數(shù)
D. 假設(shè)有一個三個類的多類分類問題,使用三層網(wǎng)絡(luò)進行訓(xùn)練。設(shè)為第一輸出單元的激活,并且類似地,有和。那么對于任何輸入x,必須有
第 37 題
考慮以下兩個二值輸入和輸出的神經(jīng)網(wǎng)絡(luò)。它(近似)計算了下列哪一個邏輯函數(shù)?
A. ORB. AND
C. NAND (與非)
D. XOR (異或)
第 38 題
考慮下面給出的神經(jīng)網(wǎng)絡(luò)。下列哪個方程正確地計算了的激活?注:是sigmoid激活函數(shù)
A.?
B.?
C.?
D. 此網(wǎng)絡(luò)中不存在激活
第 39 題
你有以下神經(jīng)網(wǎng)絡(luò):
你想計算隱藏層的激活,一種方法是使用以下Octave代碼:
您需要一個矢量化的實現(xiàn)(即,一個不用循環(huán)的實現(xiàn))。下列哪個實現(xiàn)正確計算?選出所有正確項
A. z = Theta1 * x; a2 = sigmoid (z)?
B. a2 = sigmoid (x * Theta1)?
C. a2 = sigmoid (Theta2 * x)?
D. z = sigmoid(x); a2 = sigmoid (Theta1 * z)
第 40 題
您正在使用下圖所示的神經(jīng)網(wǎng)絡(luò),并已學(xué)習(xí)參數(shù)(用于計算)和(用于作用在的函數(shù),計算的值)。
假設(shè)您交換第一個隱藏層的2個單元的參數(shù),并且還交換輸出層。這將如何改變輸出的值?
A. 不變 B. 變大 C. 變小 D. 信息不全,可能變大也可能變小
第 41 題
您正在訓(xùn)練一個三層神經(jīng)網(wǎng)絡(luò),希望使用反向傳播來計算代價函數(shù)的梯度。在反向傳播算法中,其中一個步驟是更新??對于每個i,j,下面哪一個是這個步驟的正確矢量化?
A.??
B.??
C.??
D.?
第 43 題
設(shè),設(shè)。用公式來數(shù)值計算在時的逼近。你將得到什么值?(當(dāng)時,精確導(dǎo)數(shù)為)
A. 8 B. 6 C. 5.9998 D. 6.0002
第 44 題
以下哪項陳述是正確的?選擇所有正確項
A. 使用較大的值不會影響神經(jīng)網(wǎng)絡(luò)的性能;我們不將設(shè)置為太大的唯一原因是避免數(shù)值問題
B. 如果我們使用梯度下降作為優(yōu)化算法,梯度檢查是有用的。然而,如果我們使用一種先進的優(yōu)化方法(例如在fminunc中),它沒有多大用處
C. 使用梯度檢查可以幫助驗證反向傳播的實現(xiàn)是否沒有bug
D. 如果我們的神經(jīng)網(wǎng)絡(luò)過擬合訓(xùn)練集,一個合理的步驟是增加正則化參數(shù)
第 45 題
以下哪項陳述是正確的?選擇所有正確項
A. 假設(shè)參數(shù)是一個方矩陣(即行數(shù)等于列數(shù))。如果我們用它的轉(zhuǎn)置代替,那么我們并沒有改變網(wǎng)絡(luò)正在計算的功能。
B. 假設(shè)我們有一個正確的反向傳播實現(xiàn),并且正在使用梯度下降訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)。假設(shè)我們將繪制為迭代次數(shù)的函數(shù),并且發(fā)現(xiàn)它是遞增的而不是遞減的。一個可能的原因是學(xué)習(xí)率太大。
C. 假設(shè)我們使用學(xué)習(xí)率為的梯度下降。對于邏輯回歸和線性回歸,是一個凸優(yōu)化問題,因此我們不想選擇過大的學(xué)習(xí)率。然而,對于神經(jīng)網(wǎng)絡(luò),可能不是凸的,因此選擇一個非常大的值只能加快收斂速度。
D. 如果我們使用梯度下降訓(xùn)練一個神經(jīng)網(wǎng)絡(luò),一個合理的調(diào)試步驟是將繪制為迭代次數(shù)的函數(shù),并確保每次迭代后它是遞減的(或至少是不遞增的)。
第 46 題
你訓(xùn)練一個學(xué)習(xí)算法,發(fā)現(xiàn)它在測試集上的誤差很高。繪制學(xué)習(xí)曲線,并獲得下圖。算法是否存在高偏差、高方差或兩者都不存在?
A. 高偏差 B. 高方差 C. 兩者都不
第 47 題
假設(shè)您已經(jīng)實現(xiàn)了正則化邏輯回歸來分類圖像中的對象(即,還沒有實現(xiàn)圖像識別)。然而,當(dāng)你在一組新的圖像上檢驗?zāi)愕哪P蜁r,你會發(fā)現(xiàn)它對新圖像的預(yù)測有誤差非常大。然而,你的假設(shè)在訓(xùn)練集上擬合的很好。以下哪個做法可以改善?選出所有正確項
A. 嘗試添加多項式特征?
B. 獲取更多訓(xùn)練示例?
C. 嘗試使用較少的特征?
D. 少用訓(xùn)練的例子
第 48 題
假設(shè)您已經(jīng)實現(xiàn)了正則化的邏輯來預(yù)測客戶將在購物網(wǎng)站上購買哪些商品。然而,當(dāng)你在一組新的客戶身上測試你的模型時,你發(fā)現(xiàn)它在預(yù)測中的誤差很大。此外,該模型在訓(xùn)練集上表現(xiàn)不佳。以下哪個做法可以改善?選出所有正確項
A. 嘗試獲取并使用其他特征?
B. 嘗試添加多項式特征?
C. 嘗試使用較少的特征?
D. 嘗試增加正則化參數(shù)
第 49 題
以下哪項陳述是正確的?選出所有正確項
A. 假設(shè)您正在訓(xùn)練一個正則化的線性回歸模型。選擇正則化參數(shù)值的推薦方法是選擇交叉驗證誤差最小的值。
B. 假設(shè)您正在訓(xùn)練一個正則化的線性回歸模型。選擇正則化參數(shù)值的推薦方法是選擇給出最小測試集誤差的值。
C. 假設(shè)你正在訓(xùn)練一個正則化線性回歸模型,推薦的選擇正則化參數(shù)值的方法是選擇給出最小訓(xùn)練集誤差的值。
D. 學(xué)習(xí)算法在訓(xùn)練集上的性能通常比在測試集上的性能要好。
第 50 題
以下哪項陳述是正確的?選出所有正確項
A. 在調(diào)試學(xué)習(xí)算法時,繪制學(xué)習(xí)曲線有助于了解是否存在高偏差或高方差問題。
B. 如果一個學(xué)習(xí)算法受到高方差的影響,增加更多的訓(xùn)練實例可能會改善測試誤差。
C. 我們總是喜歡高方差的模型(而不是高偏差的模型),因為它們能夠更好地適應(yīng)訓(xùn)練集。
D. 如果一個學(xué)習(xí)算法有很高的偏差,僅僅增加更多的訓(xùn)練實例可能不會顯著改善測試誤差。
第 53 題
假設(shè)您已經(jīng)訓(xùn)練了一個輸出的邏輯回歸分類器。目前,如果,則預(yù)測1, 如果,則預(yù)測0,當(dāng)前閾值設(shè)置為0.5。
假設(shè)您將閾值增加到0.9。以下哪項是正確的?選出所有正確項
A. 現(xiàn)在分類器的精度可能更低。
B. 分類器的準(zhǔn)確度和召回率可能不變,但準(zhǔn)確度較低。
C. 分類器的準(zhǔn)確度和召回率可能不變,但精度較高。
D. 分類器現(xiàn)在可能具有較低的召回率。
假設(shè)您將閾值降低到0.3。以下哪項是正確的?選出所有正確項
A. 分類器現(xiàn)在可能具有更高的召回率。
B. 分類器的準(zhǔn)確度和召回率可能不變,但精度較高。
C. 分類器現(xiàn)在可能具有更高的精度。
D. 分類器的準(zhǔn)確度和召回率可能不變,但準(zhǔn)確度較低。
第 54 題
假設(shè)您正在使用垃圾郵件分類器,其中垃圾郵件是正例(y=1),非垃圾郵件是反例(y=0)。您有一組電子郵件訓(xùn)練集,其中99%的電子郵件是非垃圾郵件,另1%是垃圾郵件。以下哪項陳述是正確的?選出所有正確項
A. 一個好的分類器應(yīng)該在交叉驗證集上同時具有高精度precision和高召回率recall。
B. 如果您總是預(yù)測非垃圾郵件(輸出y=0),那么您的分類器在訓(xùn)練集上的準(zhǔn)確度accuracy將達到99%,而且它在交叉驗證集上的性能可能類似。
C. 如果您總是預(yù)測非垃圾郵件(輸出y=0),那么您的分類器的準(zhǔn)確度accuracy將達到99%。
D. 如果您總是預(yù)測非垃圾郵件(輸出y=0),那么您的分類器在訓(xùn)練集上的準(zhǔn)確度accuracy將達到99%,但在交叉驗證集上的準(zhǔn)確率會更差,因為它過擬合訓(xùn)練數(shù)據(jù)。
第 55 題
以下哪項陳述是正確的?選出所有正確項
A. 在構(gòu)建學(xué)習(xí)算法的第一個版本之前,花大量時間收集大量數(shù)據(jù)是一個好主意。
B. 在傾斜的數(shù)據(jù)集上(例如,當(dāng)有更多的正面例子而不是負面例子時),準(zhǔn)確度不是一個很好的性能度量,您應(yīng)該根據(jù)準(zhǔn)確度和召回率使用F1分?jǐn)?shù)。
C. 訓(xùn)練完邏輯回歸分類器后,必須使用0.5作為預(yù)測示例是正是負的閾值。
D. 使用一個非常大的訓(xùn)練集使得模型不太可能過度擬合訓(xùn)練數(shù)據(jù)。
E. 如果您的模型不適合訓(xùn)練集,那么獲取更多數(shù)據(jù)可能會有幫助。
第 56 題
假設(shè)您使用訓(xùn)練了一個高斯內(nèi)核的支持向量機,它在訓(xùn)練集上學(xué)習(xí)了以下決策邊界:
你覺得支持向量機欠擬合了,你應(yīng)該試著增加或減少嗎?或者增加或減少?
A. 降低,增加?
B. 降低,降低?
C. 增加,增加?
D. 增加,降低
第 58 題
支持向量機求解,其中函數(shù)和圖像如下:
目標(biāo)中的第一項是:?如果以下四個條件中有兩個為真,則第一項為零。使這個項等于零的兩個條件是什么?
A. 對于的每個例子,有
B. 對于的每個例子,有
C. 對于的每個例子,有
D. 對于的每個例子,有
第 59 題
假設(shè)您有一個具有n=10個特征和m=5000個示例的數(shù)據(jù)集。在用梯度下降訓(xùn)練邏輯回歸分類器之后,您發(fā)現(xiàn)它與訓(xùn)練集欠擬合,并且在訓(xùn)練集或交叉驗證集上沒有達到所需的性能。以下哪個步驟有望改善?選出所有正確項
A. 嘗試使用具有大量隱藏單元的神經(jīng)網(wǎng)絡(luò)。
B. 減少訓(xùn)練集中的示例數(shù)。
C. 使用不同的優(yōu)化方法,因為使用梯度下降訓(xùn)練邏輯可能會導(dǎo)致局部最小。
D. 創(chuàng)建/添加新的多項式特征。
第 60 題
以下哪項陳述是正確的?選出所有正確項
A. 假設(shè)您使用支持向量機進行多類分類,并希望使用“一對所有”方法。如果你有個不同的類,你將訓(xùn)練個不同的支持向量機。
B. 如果數(shù)據(jù)是線性可分的,那么不管值是多少,線性內(nèi)核的支持向量機都將返回相同的參數(shù)(即,的結(jié)果值不依賴于)。
C. 高斯核的最大值(即)是1。
D. 在使用高斯核之前進行特征歸一化是很重要的。
第 63 題
K-means是一種迭代算法,在其內(nèi)部循環(huán)中重復(fù)執(zhí)行以下兩個步驟。哪兩個?
A. 移動簇中心,更新簇中心。
B. 分配簇,其中參數(shù)被更新。
C. 移動簇中心,將其設(shè)置為等于最近的訓(xùn)練示例
D. 簇中心分配步驟,其中每個簇質(zhì)心被分配(通過設(shè)置)到最近的訓(xùn)練示例。
第 64 題
假設(shè)您有一個未標(biāo)記的數(shù)據(jù)集。你用50個不同的隨機數(shù)運行K-means初始化,并獲得了50個不同的聚類。選擇這50個組合中的哪一個的方法是什么?
A. 唯一的方法是我們需要數(shù)據(jù)標(biāo)簽。
B. 對于每一個分類,計算,并選擇這個值最小的一個。
C. 答案模棱兩可,沒有好的選擇方法。
D. 總是選擇找到的最后一個(第50個)聚類,因為它更有可能收斂到一個好的解決方案。
第 65 題
以下哪項陳述是正確的?選出所有正確項
A. 如果我們擔(dān)心K-means陷入局部最優(yōu)解,一種改善(減少)這個問題的方法是嘗試使用多個隨機初始化。
B. 初始化K-均值的標(biāo)準(zhǔn)方法是將設(shè)置為等于零的向量。
C. 由于K-Means是一種無監(jiān)督的學(xué)習(xí)算法,它不能對數(shù)據(jù)進行過度擬合,因此最好在計算上盡可能多的聚類。
D. 對于某些數(shù)據(jù)集,K(集群數(shù)量)的“正確”值可能是不明確的,甚至對于仔細查看數(shù)據(jù)的人類專家來說也很難做出決定。
E. 無論簇中心的初始化如何,K-均值都會給出相同的結(jié)果。
F. 初始化K-means的一個好方法是從訓(xùn)練集中選擇K個(不同的)示例,并設(shè)置與這些選定示例相等的簇質(zhì)心。
G. 在K-均值的每次迭代中,代價函數(shù)(失真函數(shù))要么保持不變,要么減小,特別是不應(yīng)增加。
H. 一旦一個例子被分配到一個特定的簇中心,它將永遠不會被重新分配到另一個不同的簇中心。
第 67 題
以下哪一項是選擇主成分?jǐn)?shù)量的合理方法?(n是輸入數(shù)據(jù)的維度mm是輸入示例的數(shù)量)
A. 選擇至少保留99%的方差的k的最小值
B. 選擇k,使逼近誤差。
C. 選擇至少保留1%的方差的k的最小值
D. 選擇k為99%的n(即四舍五入至最接近的整數(shù))。
第 68 題
假設(shè)有人告訴你,他們運行主成分分析的方式是“95%的方差被保留”,什么是與此等價的說法?
A.??
B.??
C.??
D.?
第 69 題
以下哪項陳述是正確的?選擇所有正確項
A. 僅給出和,就沒有辦法重建的任何合理的近似。
B. 即使所有的輸入特征都在非常相似的尺度上,在運行PCA之前,我們?nèi)匀粦?yīng)該執(zhí)行均值歸一化(這樣每個特征的均值為零)。
C. PCA易受局部最優(yōu)解的影響;嘗試多次隨機初始化可能會有所幫助。
D. 給定輸入數(shù)據(jù),僅用滿足的k值運行PCA是有意義的(特別是,用k=n運行PCA是可能的,但沒有幫助,沒有意義)
第 70 題
以下哪項是PCA的推薦應(yīng)用?選擇所有正確項
A. 作為線性回歸的替代:對于大多數(shù)模型應(yīng)用,PCA和線性回歸給出了基本相似的結(jié)果。
B. 數(shù)據(jù)壓縮:減少數(shù)據(jù)的維數(shù),從而減少占用的內(nèi)存/磁盤空間。
C. 數(shù)據(jù)可視化:獲取二維數(shù)據(jù),并在二維中找到不同的繪制方法(使用k=2)。
D. 數(shù)據(jù)壓縮:減少輸入數(shù)據(jù)的維數(shù),該維數(shù)將用于監(jiān)督學(xué)習(xí)算法(即,使用PCA以使監(jiān)督學(xué)習(xí)算法運行更快)。
第 72 題
假設(shè)您已經(jīng)訓(xùn)練了一個異常檢測系統(tǒng),當(dāng)時標(biāo)記異常,并且您在交叉驗證集中發(fā)現(xiàn)它有太多的誤報(標(biāo)記太多的東西為異常)。你該怎么辦?
A. 增大?B. 減小
第 73 題
假設(shè)您正在開發(fā)一個異常檢測系統(tǒng)來捕獲飛機發(fā)動機中的制造缺陷。你的模型用。有兩個特性=振動強度,=產(chǎn)生的熱量,的值都在0到1之間(并且嚴(yán)格大于0)。對于大多數(shù)“正常”發(fā)動機,你期望。其中一個可疑的異常是,即使不產(chǎn)生太多熱量,發(fā)動機也會劇烈振動(大,小),即使和的特定值可能不在其典型值范圍之外。您應(yīng)該構(gòu)造哪些特征來捕獲這些類型的異常:
A.??B.??C.??D.?
第 74 題
以下哪項是正確的?選擇所有正確項
A. 如果沒有任何標(biāo)記的數(shù)據(jù)(或者如果所有數(shù)據(jù)都有標(biāo)記),則仍然可以學(xué)習(xí),但可能更難評估系統(tǒng)或選擇一個好的值。
B. 如果你有一個帶有許多正例子和許多負例子的訓(xùn)練集,那么異常檢測算法的性能可能與有監(jiān)督的學(xué)習(xí)算法(如支持向量機)一樣好。
C. 如果您正在開發(fā)異常檢測系統(tǒng),則無法使用標(biāo)記的數(shù)據(jù)來改進您的系統(tǒng)。
D. 在為異常檢測系統(tǒng)選擇特征時,最好為異常示例尋找具有異常大值或小值的特征。
第 75 題
您有一個一維數(shù)據(jù)集,并且希望檢測數(shù)據(jù)集中的異常值。首先繪制數(shù)據(jù)集,它如下所示:
假設(shè)將高斯分布參數(shù)μ1μ1和σ21σ12擬合到此數(shù)據(jù)集。對于,可以得到下列哪個值?
A.??
B.??
C.??
D.?
第 76 題
假設(shè)你開了一家書店,對書的評級為(1到5星)。協(xié)作過濾算法為用戶j學(xué)習(xí)了參數(shù)向量,為每本書學(xué)習(xí)了特征向量。你需要計算“訓(xùn)練誤差”,即你的系統(tǒng)對你從用戶那里得到的所有評分的預(yù)測的平均平方誤差。以下哪種方法是正確的(選出所有正確項)?對于這個問題,設(shè)m為您從用戶那里獲得的評分總數(shù)(。
A.??
B.??
C.??
D.?
第 77 題
在下列哪種情況下,協(xié)同過濾系統(tǒng)是最合適的學(xué)習(xí)算法(與線性或邏輯回歸相比)?
A. 你經(jīng)營一家在線書店,收集許多用戶的評價。你想用它來識別哪些書彼此“相似”(即,如果一個用戶喜歡某本書,那么他可能也喜歡哪些書?)
B. 你管理一個在線書店,你有許多用戶的書評。你想根據(jù)一本書的平均評分來預(yù)測預(yù)期的銷售量(售出的書的數(shù)量)。
C. 你是個藝術(shù)家,為你的客戶手繪肖像。每個客戶都會得到不同的肖像(他們自己)并給你1-5星級的評價反饋,每個客戶最多購買1幅肖像。你想預(yù)測下一個客戶會給你什么樣的評分。
D. 你開了一家服裝店,出售許多款式和品牌的牛仔褲。你已經(jīng)收集了經(jīng)常購物者對不同款式和品牌的評論,你想用這些評論為那些購物者提供你認(rèn)為他們最有可能購買的牛仔褲的折扣
第 78 題
你經(jīng)營著一個電影公司,想要建立一個基于協(xié)同過濾的電影推薦系統(tǒng)。有三個受歡迎的評論網(wǎng)站(我們稱之為A、B和C),用戶可以去給電影打分。你剛剛收購了三家經(jīng)營這些網(wǎng)站的公司,希望將三個公司的數(shù)據(jù)集合并在一起,以構(gòu)建一個單一/統(tǒng)一的系統(tǒng)。在A網(wǎng)站上,用戶將一部電影分為1到5顆星。在B網(wǎng)站上,用戶的排名是1-10分,允許使用小數(shù)(如7.5)。在C網(wǎng)站,收視率從1到100。您還擁有足夠的信息來識別一個網(wǎng)站上的用戶/電影和另一個網(wǎng)站上的用戶/電影。以下哪個陳述是正確的?
A. 您可以將三個數(shù)據(jù)集合并為一個數(shù)據(jù)集,但是您應(yīng)該首先規(guī)范化每個數(shù)據(jù)集的評級(比如將每個數(shù)據(jù)集的評級重新調(diào)整為0-1范圍)。
B. 只要在合并數(shù)據(jù)后執(zhí)行平均規(guī)格化和特征縮放,就可以將所有三個訓(xùn)練集合并為一個。
C. 假設(shè)在一個數(shù)據(jù)庫中至少有一個電影/用戶沒有出現(xiàn)在第二個數(shù)據(jù)庫中,那么就沒有合并這些數(shù)據(jù)集的合理方法,因為缺少數(shù)據(jù)。
D. 無法合并這些網(wǎng)站的數(shù)據(jù)。你必須建立三個獨立的推薦系統(tǒng)。
第 79 題
以下哪項是協(xié)作過濾系統(tǒng)的正確選擇?選出所有正確項
A. 基于內(nèi)容的推薦算法的代價函數(shù)是。假設(shè)只有一個用戶,他對訓(xùn)練集中的每一部電影都進行了分級。這意味著對于每個,有和。在這種情況下,成本函數(shù)等價于用于正則化線性回歸的函數(shù)。
B. 利用梯度下降訓(xùn)練協(xié)同過濾系統(tǒng)時,可以將所有參數(shù)()初始化為零。
C. 如果你有一個用戶對某些產(chǎn)品的評級數(shù)據(jù)集,你可以使用這些數(shù)據(jù)來預(yù)測他對沒有評級的產(chǎn)品的偏好。
D. 要使用協(xié)作過濾,您需要為數(shù)據(jù)集中的每個項目(例如,電影)手動設(shè)計一個特征向量,該向量描述該項目最重要的屬性。
第 80 題
假設(shè)有兩個矩陣,其中是5x3,是3x5。它們的乘積是,一個5x5矩陣。此外,還有一個5x5矩陣R,其中每個條目都是0或1。你想找到所有元素的和,對應(yīng)的是1,忽略所有的元素。一種方法是使用以下代碼:
下面哪一段代碼也能正確計算出這個總數(shù)?選出所有正確項
A. total = sum(sum((A * B) .* R))
B. C = A * B; total = sum(sum(C(R == 1)));
C. C = (A * B) * R; total = sum(C(:));
D. total = sum(sum(A(R == 1) * B(R == 1));
第 81 題
假設(shè)您正在使用隨機梯度下降訓(xùn)練邏輯回歸分類器。你發(fā)現(xiàn)在過去的500個例子中,成本(即,500個例子平均后)繪制為迭代次數(shù)的函數(shù),隨時間緩慢增加。以下哪項更改可能有幫助?
A. 試著在圖中用較少的例子(比如250個例子而不是500個)來平均成本。
B. 這在隨機梯度下降的情況下是不可能的,因為它保證收斂到最優(yōu)參數(shù)。
C. 嘗試將學(xué)習(xí)率減半(減少),看看這是否會導(dǎo)致成本持續(xù)下降;如果沒有,繼續(xù)減半直到成本會持續(xù)下降。
D. 從訓(xùn)練集中取更少的例子
第 82 題
下列關(guān)于隨機梯度下降的陳述哪一個是正確的?選出所有正確項
A. 您可以使用數(shù)值梯度檢查的方法來驗證您的隨機梯度下降實現(xiàn)是對的(隨機梯度下降之中的一步是計算偏導(dǎo)數(shù))
B. 在運行隨機梯度下降之前,您應(yīng)該隨機洗牌(重新排序)訓(xùn)練集。
C. 假設(shè)您使用隨機梯度下降來訓(xùn)練線性回歸分類器。代價函數(shù)一定會隨著每次迭代減小。
D. 為了確保隨機梯度下降收斂,我們通常在每次迭代后計算,并繪制它,以確保成本函數(shù)總體上是遞減的。
第 83 題
以下關(guān)于在線學(xué)習(xí)的陳述哪一個是正確的?選出所有正確項
A. 如果我們有一個連續(xù)/不間斷的數(shù)據(jù)流,用在線學(xué)習(xí)算法通常是最適合的。
B. 當(dāng)我們有一個大小為m的固定訓(xùn)練集需要訓(xùn)練時,在線學(xué)習(xí)算法是最合適的。
C. 使用在線學(xué)習(xí)時,您必須保存獲得的每個訓(xùn)練例子,因為您將需要重用過去的示例來重新訓(xùn)練模型,即使在將來獲得新的培訓(xùn)示例之后也是如此。
D. 在線學(xué)習(xí)的一個優(yōu)點是,如果我們正在建模的功能隨著時間的推移而變化(例如,如果我們正在建模用戶單擊不同URL的概率,并且用戶的品味/偏好隨著時間的推移而變化),在線學(xué)習(xí)算法將自動適應(yīng)這些變化。
第 84 題
假設(shè)您有一個非常大的訓(xùn)練集,您認(rèn)為以下哪種算法可以使用map-reduce和跨不同機器拆分訓(xùn)練集來并行化?選出所有正確項
A. 用隨機梯度下降訓(xùn)練邏輯回歸
B. 用隨機梯度下降訓(xùn)練線性回歸
C. 用批量梯度下降訓(xùn)練邏輯回歸
D. 計算訓(xùn)練集中所有特征的平均值(例如為了執(zhí)行平均歸一化)。
第 85 題
下面關(guān)于map-reduce的哪些語句是正確的?選出所有正確項
A. 由于網(wǎng)絡(luò)延遲和其他與map-reduce相關(guān)的開銷,如果我們使用N臺計算機運行map-reduce,與使用1臺計算機相比,我們可能會得到小于N倍的加速。
B. 如果您只有一臺具有一個計算核心的計算機,那么map-reduce不太可能有幫助。
C. 當(dāng)使用帶梯度下降的map-reduce時,我們通常使用一臺機器從每個map-reduce機器中累積梯度,以便計算該迭代的參數(shù)更新。
D. 線性回歸和邏輯回歸可以用map-reduce并行化,但神經(jīng)網(wǎng)絡(luò)訓(xùn)練不能。
第 88 題
進行上限分析有什么好處?選出所有正確項
A. 這是為算法提供額外訓(xùn)練數(shù)據(jù)的一種方法。
B. 使用上限分析能幫助我們分析流水線的哪個部分對整個系統(tǒng)的提高最大。
C. 使用上限分析能讓我們知道到某個模塊需不需要花精力做好;因為就算把這個模塊精度提高到100%了,也無助于提高整個系統(tǒng)的精度。
D.使用上限分析并不會幫我們分析出哪個部分是high bias,哪個部分是high variance。
第 89 題
假設(shè)您正在構(gòu)建一個對象分類器,它將圖像作為輸入,并將該圖像識別為包含汽車(y=1y=1)或不包含汽車(y=0y=0)。例如,這里有正例和一個負例:
在仔細分析了算法的性能之后,你的結(jié)論是你需要更多正例()。下面哪一個可能是獲得更多正面例子的好方法?
A. 對現(xiàn)有訓(xùn)練集中的圖像應(yīng)用平移、扭曲和旋轉(zhuǎn)。
B. 選擇兩個汽車圖像并對其進行平均以生成第三個示例。
C. 從訓(xùn)練集中獲取一些圖像,并向每個像素添加隨機高斯噪聲。
D. 為訓(xùn)練集中的每個圖像制作兩份副本;這會立即使訓(xùn)練集大小加倍。
第 90 題
假設(shè)您有一個圖片手寫字符識別系統(tǒng),其中有以下流水線:
您已決定對此系統(tǒng)執(zhí)行上限分析,并得到以下內(nèi)容:以下哪項陳述是正確的?
A. 提高字符識別系統(tǒng)的性能是可能的。
B. 執(zhí)行此處的上限分析,需要我們對其它的三個流程都加上標(biāo)簽來判斷對錯(ground-truth)。
C. 最沒有前途的部分是字符識別系統(tǒng),因為它已經(jīng)獲得了100%的準(zhǔn)確率。
D. 最有前途的組件是文本檢測系統(tǒng),因為它的性能最低(72%),因此潛在增益最大。
備注:公眾號菜單包含了整理了一本AI小抄,非常適合在通勤路上用學(xué)習(xí)。
往期精彩回顧2019年公眾號文章精選適合初學(xué)者入門人工智能的路線及資料下載機器學(xué)習(xí)在線手冊深度學(xué)習(xí)在線手冊AI基礎(chǔ)下載(第一部分)備注:加入本站微信群或者qq群,請回復(fù)“加群”加入知識星球(4500+用戶,ID:92416895),請回復(fù)“知識星球”喜歡文章,點個在看
與50位技術(shù)專家面對面20年技術(shù)見證,附贈技術(shù)全景圖總結(jié)
以上是生活随笔為你收集整理的90题细品吴恩达《机器学习》,感受被刷题支配的恐惧的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
 
                            
                        - 上一篇: 你看过Xgboost原文吗?
- 下一篇: 终极利器|一篇文章讲清楚Python虚拟
