深度学习中的对抗攻击和对抗防御
https://zhuanlan.zhihu.com/p/138462196
摘要:
在深度學(xué)習(xí)(deep leaming,DL)算法驅(qū)動(dòng)的數(shù)據(jù)計(jì)算時(shí)代,確保算法的安全性和魯棒性至關(guān)重要。最近,研究者發(fā)現(xiàn)深度學(xué)習(xí)算法無(wú)法有效地處理對(duì)抗樣本。這些偽造的樣本對(duì)人類的判斷沒(méi)有太大影響,但會(huì)使深度學(xué)習(xí)模型輸出意想不到的結(jié)果。最近,在物理世界中成功實(shí)施的一系列對(duì)抗性攻擊證明了此問(wèn)題是所有基于深度學(xué)習(xí)系統(tǒng)的安全隱患。因此有關(guān)對(duì)抗性攻擊和防御技術(shù)的研究引起了機(jī)器學(xué)習(xí)和安全領(lǐng)域研究者越來(lái)越多的關(guān)注。本文將介紹深度學(xué)習(xí)對(duì)抗攻擊技術(shù)的理論基礎(chǔ)、算法和應(yīng)用。然后,討論了防御方法中的一些代表性研究成果。這些攻擊和防御機(jī)制可以為該領(lǐng)域的前沿研究提供參考。此外,文章進(jìn)一步提出了一些開(kāi)放性的技術(shù)挑戰(zhàn),并希望讀者能夠從所提出的評(píng)述和討論中受益。
1 引言
計(jì)算能力的萬(wàn)億倍增長(zhǎng)使得深度學(xué)習(xí)(deep learning,DL)在處理各種機(jī)器學(xué)習(xí)(machine learning,ML)任務(wù)中得到廣泛應(yīng)用,如圖像分類、自然語(yǔ)言處理和博弈論。然而研究者發(fā)現(xiàn)現(xiàn)有DL算法存在著嚴(yán)重的安全隱患:攻擊者可以通過(guò)給良性樣本添加特定噪聲而輕易地欺騙DL模型,并且通常不會(huì)被人發(fā)現(xiàn)。攻擊者利用人的視覺(jué)/聽(tīng)覺(jué)無(wú)法感知的擾動(dòng),足以使正常訓(xùn)練的模型輸出置信度很高的錯(cuò)誤預(yù)測(cè),研究者將這種現(xiàn)象叫做對(duì)抗攻擊,它被認(rèn)為是在生產(chǎn)中部署DL模型之前的巨大障礙,因此激發(fā)了人們對(duì)對(duì)抗攻擊和防御研究的廣泛興趣。
根據(jù)威脅模型可以將現(xiàn)有的對(duì)抗性攻擊分為白盒、灰盒和黑盒攻擊。這3種模型之間的差異在于攻擊者了解的信息。在白盒攻擊的威脅模型中,假定攻擊者具有關(guān)于其目標(biāo)模型的完整知識(shí),包括模型體系結(jié)構(gòu)和參數(shù)。因此攻擊者可以通過(guò)任何方式直接在目標(biāo)模型上制作對(duì)抗性樣本。在灰盒威脅模型中,攻擊者了解的信息僅限于目標(biāo)模型的結(jié)構(gòu)和查詢?cè)L問(wèn)的權(quán)限。在黑盒威脅模型中,攻擊者只能依賴查詢?cè)L問(wèn)的返回結(jié)果來(lái)生成對(duì)抗樣本。在這些威脅模型的框架中,研究者開(kāi)發(fā)了許多用于對(duì)抗樣本生成的攻擊算法,比如基于有限內(nèi)存的BFGS(limited-memory Broyden-Fletcher-Goldfarb-Shan-no,L-BFGS)、快速梯度符號(hào)法(fast gradient sign method,F(xiàn)GSM)、基本迭代攻擊/投影梯度下降(ba-sic iterative attack/projected gradient descent,BIA/PGD、分布式對(duì)抗攻擊(distributionally adversarial attack,DAA)、Carlini和Wagner(C&W)攻擊、基于雅可比的顯著圖攻擊(Jacobian-based saliency map attack,JSMA以及DeepFool。盡管這些攻擊算法最初是在白盒威脅模型下設(shè)計(jì)的,但是由對(duì)抗樣本在模型之間的可傳遞性可知:它們同樣適用于灰盒威脅模型和黑盒威脅模型。本文將調(diào)查并總結(jié)對(duì)抗性攻擊和防御研究領(lǐng)域中最前沿的研究成果。此外,我們將根據(jù)目前最新的研究進(jìn)展對(duì)這些攻擊和防御方式的有效性進(jìn)行評(píng)述。
2 對(duì)抗攻擊
以下是文中部分攻擊方法的描述。
2.1 快速梯度符號(hào)法(FGSM)
Goodfellow等首先提出了一種有效的無(wú)目標(biāo)攻擊方法,稱為快速梯度符號(hào)法(FGSM),該方法通過(guò)在良性樣本的L∞范數(shù)限制下生成對(duì)抗樣本,如圖1所示。FGSM是典型的一步攻擊算法,它沿著對(duì)抗性損失函數(shù)J(θ, x, y)的梯度方向(即符號(hào))執(zhí)行一步更新,以增加最陡峭方向上的損失。FGSM生成的對(duì)抗性樣本表示如下:
式中,ε 是擾動(dòng)大小。通過(guò)降低J(θ, x, y′)的梯度(其中y′表示目標(biāo)類別)可以將FGSM輕松地?cái)U(kuò)展為目標(biāo)攻擊算法(targeted FGSM)。如果將交叉熵作為對(duì)抗損失,則此更新過(guò)程可以減少預(yù)測(cè)概率向量和目標(biāo)概率向量之間的交叉熵。目標(biāo)攻擊算法的梯度更新可以表示為:
此外,在良性樣本上先添加隨機(jī)擾動(dòng)再執(zhí)行FGSM可以提高FGSM生成對(duì)抗樣本的性能和多樣性。
2.2 基本迭代攻擊和投影梯度下降
Kurakin等提出了BIA方法,該方法通過(guò)將一個(gè)迭代優(yōu)化器迭代優(yōu)化多次來(lái)提高FGSM的性能。BIA以較小的步長(zhǎng)執(zhí)行FGSM,并將更新后的對(duì)抗樣本裁剪到有效范圍內(nèi),通過(guò)這樣的方式總共T次迭代,在第k次迭代中的梯度更新方式如下:
式中,αT=ε。投影梯度下降(PGD)可以看作是BIA的廣義形式,這種方法沒(méi)有約束αT=ε。為了約束對(duì)抗性擾動(dòng),PGD將每次迭代學(xué)習(xí)的對(duì)抗性樣本投影到良性樣本的ε- L∞鄰域中,從而使對(duì)抗性擾動(dòng)值小于ε。其更新方式如下:
式中,Proj會(huì)將更新后的對(duì)抗樣本投影到ε- L∞鄰域和有效范圍內(nèi)。
2.3 動(dòng)量迭代攻擊(momentum iterative attack)
受動(dòng)量?jī)?yōu)化器的啟發(fā),Dong等提出將動(dòng)量記憶集成到BIM的迭代過(guò)程中,并推導(dǎo)了一種新的迭代算法Momentum Iterative FGSM(MI-FGSM)。該方法通過(guò)以下方式迭代更新其對(duì)抗樣本:
式中,梯度gk+1通過(guò)gk+1 =μ·gk+ Δx J(θ,xk',y)/|| Δx J(θ,xk',y)||1更新。文獻(xiàn)提出的方案是以一組集成模型為目標(biāo),在黑盒/灰盒設(shè)置下攻擊一個(gè)不可見(jiàn)的模型。其基本思想是考慮多個(gè)模型相對(duì)于輸入的梯度,并綜合確定一個(gè)梯度方向,這種攻擊方法生成的對(duì)抗樣本更可能轉(zhuǎn)移攻擊其他黑盒/灰盒模型。MI-FGSM與集成攻擊方案的結(jié)合在NIPS 2017無(wú)目標(biāo)攻擊和度量攻擊競(jìng)賽(黑盒設(shè)置)中獲得了第一名。
2.4 Carlini 和Wagner 攻擊
Carlini和Wagner提出了一組基于優(yōu)化的對(duì)抗攻擊C&W,它們可以生成L0、L2和L∞范數(shù)限制下的對(duì)抗樣本CW0、CW2和CW∞。與L-BFGS類似,將優(yōu)化目標(biāo)函數(shù)表示為:
式中,δ 是對(duì)抗擾動(dòng);D(?,?)表示L0、L2或L∞距離度量;f(x +δ)是自定義的對(duì)抗損失,當(dāng)且僅當(dāng)DNN的預(yù)測(cè)為攻擊目標(biāo)時(shí)才滿足f(x +δ)≤0。為了確保x +δ產(chǎn)生能有效的
圖像(即x +δ ∈ [0, 1]),引入了一個(gè)新變量來(lái)代替δ,如式(11)所示:
這樣,x +δ =1/2(tanh(k) + 1)在優(yōu)化過(guò)程中始終位于[0, 1]中。除了在MNIST、CIFAR10和ImageNet的正常訓(xùn)練DNN模型上獲得100%的攻擊成功率外,C&W攻擊還可以破壞防御性蒸餾模型,而這些模型可以使L-BFGS和Deepfool無(wú)法找到對(duì)抗性樣本。
2.5 通用對(duì)抗攻擊
上述所有攻擊都是針對(duì)良性樣本來(lái)精心設(shè)計(jì)對(duì)抗性擾動(dòng)的。換句話說(shuō),對(duì)抗性擾動(dòng)不會(huì)在良性樣本之間傳遞。因此一個(gè)自然的問(wèn)題是:是否存在一種普遍的擾動(dòng)會(huì)欺騙大多數(shù)良性樣本的網(wǎng)絡(luò)?在每次迭代中,對(duì)于當(dāng)前擾動(dòng)無(wú)法欺騙的良性樣本,將求解一個(gè)類似于L-BFGS的優(yōu)化問(wèn)題,以找到危害這些樣本所需的最小附加擾動(dòng)。附加擾動(dòng)將添加到當(dāng)前擾動(dòng)中。最終,擾動(dòng)使大多數(shù)良性樣本欺騙了網(wǎng)絡(luò)。實(shí)驗(yàn)表明,這種簡(jiǎn)單的選代算法可以有效地攻擊深度神經(jīng)網(wǎng)絡(luò),如CaffeNet、GoogleNet、VGG和ResNet。出乎意料的是,這種可在不同樣本中傳遞的擾動(dòng)同時(shí)可以應(yīng)用到其他不同的模型中,例如,在VGG上制作的通用擾動(dòng)在其他模型上也可以達(dá)到53%以上的欺騙率。
3 對(duì)抗防御
3.1 對(duì)抗訓(xùn)練
對(duì)抗訓(xùn)練是一種針對(duì)對(duì)抗樣本的直觀防御方法,該方法試圖通過(guò)利用對(duì)抗樣本進(jìn)行訓(xùn)練來(lái)提高神經(jīng)網(wǎng)絡(luò)的魯棒性。從形式上講,這是一個(gè)Min-Max的游戲,可以表述為:
式中,J(θ, x′, y)是對(duì)抗損失函數(shù);θ是網(wǎng)絡(luò)權(quán)重;x′是對(duì)抗輸入;y是標(biāo)簽真值。D(x, x′)表示x和x′之間的某種距離度量。內(nèi)部的最大化優(yōu)化問(wèn)題是找到最有效的對(duì)抗樣本,這可以通過(guò)精心設(shè)計(jì)的對(duì)抗攻擊實(shí)現(xiàn),如FGSM和PGD。外部的最小化優(yōu)化問(wèn)題是損失函數(shù)最小化的標(biāo)準(zhǔn)訓(xùn)練流程。最終的網(wǎng)絡(luò)應(yīng)該能夠抵抗訓(xùn)練階段用的生成對(duì)抗性樣本的對(duì)抗性攻擊。最近的研究表明:對(duì)抗性訓(xùn)練是對(duì)抗性攻擊最有效的防御手段之一。主要是因?yàn)檫@種方法在幾個(gè)基準(zhǔn)數(shù)據(jù)集上達(dá)到了最高的精度。因此在本節(jié)中,我們將詳細(xì)介紹過(guò)去幾年里表現(xiàn)最好的對(duì)抗訓(xùn)練技術(shù)。
FGSM 對(duì)抗訓(xùn)練:Goodfellow等首先提出用良性和FGSM生成的對(duì)抗樣本訓(xùn)練神經(jīng)網(wǎng)絡(luò)以增強(qiáng)網(wǎng)絡(luò)其魯棒性的方法。他們提出的對(duì)抗目標(biāo)函數(shù)可以表達(dá)為:
式中,x +?sign( ΔxJ(θ, x, y))是良性樣本x根據(jù)FGSM方法生成的對(duì)抗樣本;c是用于平衡良性和對(duì)抗性樣本的準(zhǔn)確性。文獻(xiàn)中的實(shí)驗(yàn)表明,該網(wǎng)絡(luò)對(duì)于FGSM方法生成的對(duì)抗性樣本變得有些健壯。具體來(lái)說(shuō),在對(duì)抗訓(xùn)練中對(duì)抗樣本的錯(cuò)誤率從89.4%急劇下降至17.9%。盡管該方法對(duì)FGSM的攻擊有效,但是訓(xùn)練后的模型仍然容易受到基于迭代/優(yōu)化方式的對(duì)抗攻擊。因此許多研究進(jìn)一步挖掘了具有更強(qiáng)對(duì)抗性攻擊(如BIA/PGD攻擊)的對(duì)抗性訓(xùn)練。
3.2 隨機(jī)化
最近的許多防御措施都采用隨機(jī)化來(lái)減輕輸入/特征域中對(duì)抗性擾動(dòng)的影響,因?yàn)閺闹庇X(jué)上看,DNN總是對(duì)隨機(jī)擾動(dòng)具有魯棒性。基于隨機(jī)化的防御方法試圖將對(duì)抗性效應(yīng)隨機(jī)化為隨機(jī)性效應(yīng),當(dāng)然這對(duì)大多數(shù)DNN而言都不是問(wèn)題。在黑盒攻擊和灰盒攻擊的設(shè)置下,基于隨機(jī)化的防御獲得了不錯(cuò)的性能,但是在白盒攻擊下,EoT方法能夠通過(guò)在攻擊過(guò)程中考慮隨機(jī)過(guò)程來(lái)破壞大多數(shù)防御方法。本節(jié)將詳細(xì)介紹幾種基于隨機(jī)化的代表性防御方式,并介紹其針對(duì)不同環(huán)境中各種防御的性能。
3.3 去噪
就減輕對(duì)抗性擾動(dòng)/效果而言,降噪是一種非常簡(jiǎn)單的方法。之前的工作指出了設(shè)計(jì)這種防御的兩個(gè)方向,包括輸入降噪和特征圖降噪。其中第一個(gè)方向試圖從輸入中部分或完全消除對(duì)抗性擾動(dòng),第二個(gè)方向是減輕對(duì)抗性擾動(dòng)對(duì)DNN學(xué)習(xí)高級(jí)功能的影響。本節(jié)將詳細(xì)介紹這兩個(gè)方向上的幾種著名防御方法。
3.4 可證明式期伸
以上所有介紹的防御都是啟發(fā)式防御,這意味著這些防御的有效性只在實(shí)驗(yàn)上得到驗(yàn)證,而沒(méi)有在理論上得到證明。如果無(wú)法計(jì)算理論上的錯(cuò)誤率,這些啟發(fā)式防御可能會(huì)被未來(lái)的新攻擊所打破。因此許多研究者致力于探索可證明的防御方法,在一類定義明確的攻擊下,這些方法始終能保持一定的準(zhǔn)確性。本節(jié)將介紹幾種具有代表性的可證明的防御。
3.5 基于貝葉斯模型的防御
Liu等將貝葉斯神經(jīng)網(wǎng)絡(luò)(Bayesian neural network,BNN)與對(duì)抗訓(xùn)練相結(jié)合,從而學(xué)習(xí)在對(duì)抗攻擊下的最優(yōu)模型的權(quán)重分布。具體來(lái)說(shuō),作者假設(shè)網(wǎng)絡(luò)中的所有權(quán)重都是隨機(jī)的,并使用BNN理論中常用的技術(shù)訓(xùn)練網(wǎng)絡(luò)。通過(guò)對(duì)抗性訓(xùn)練,這種隨機(jī)的BNN,與RSE和CIFAR10以及STL10和ImageNet143的常見(jiàn)的對(duì)抗性訓(xùn)練相比,顯著提高了對(duì)抗魯棒性。Schott等建議基于貝葉斯模型對(duì)輸入數(shù)據(jù)的分類條件分布進(jìn)行建模,并將新樣本分類為相應(yīng)類別條件模型產(chǎn)生最高似然性的類別。他們將模型命名為Analysis by Synthesis model(ABS)。ABS被稱為MNIST數(shù)據(jù)集上針對(duì)L0、I2和L∞。攻擊的第一個(gè)健壯模型。ABS在抵抗L0和L2攻擊方面達(dá)到了最先進(jìn)的性能,但在L∞的攻擊下其性能要比PGD對(duì)抗訓(xùn)練的模型稍差。
4 討論
4.1 白盒與黑盒攻擊
從攻擊者的角度來(lái)看,白盒攻擊和黑盒攻擊的主要區(qū)別在于它們對(duì)目標(biāo)模型的訪問(wèn)權(quán)限。在白盒攻擊中,攻擊者可以訪問(wèn)模型的結(jié)構(gòu)和權(quán)重,以便他們可以通過(guò)文獻(xiàn)中的方法計(jì)算真實(shí)的模型梯度或近似梯度,此外攻擊者還可以根據(jù)防御方法和參數(shù)調(diào)整其攻擊方法。在這種情況下,以前引入的大多數(shù)啟發(fā)式防御實(shí)際上無(wú)法抵御這種強(qiáng)大的自適應(yīng)攻擊者。在黑盒攻擊中,模型結(jié)構(gòu)和權(quán)重不會(huì)被攻擊者知道,在這種情況下,為了使用上述基于梯度的攻擊算法,對(duì)手必須從有限的信息中推斷出模型的梯度。在沒(méi)有任何特定模型信息的情況下,對(duì)模型梯度的無(wú)偏估計(jì)就是對(duì)具有不同隨機(jī)種子的一組預(yù)訓(xùn)練模型梯度的期望。文獻(xiàn)使用基于動(dòng)量梯度的方法進(jìn)行此梯度估計(jì),并在NIPS2017挑戰(zhàn)賽(在黑盒設(shè)置下)中獲得第一名。Chen等研究了另一種黑盒攻擊方法,該方法可以向攻擊者授予額外的查詢?cè)L問(wèn)權(quán)限。因此如果給定精心設(shè)計(jì)的輸入,攻擊者可以從目標(biāo)模型的輸出推斷出梯度。在這種設(shè)置下,可以應(yīng)用零階方法來(lái)更好地估計(jì)模型梯度。但是此方法的缺點(diǎn)是需要進(jìn)行大量的查詢操作,其查詢量與數(shù)據(jù)維度成比例。
4.2 對(duì)抗攻擊與防御研究趨勢(shì)之間的差異
對(duì)抗攻擊的研究趨勢(shì)主要包括兩個(gè)方向。第一個(gè)是設(shè)計(jì)更有效、更強(qiáng)大的攻擊用來(lái)評(píng)估新興的防御系統(tǒng),這個(gè)方向的重要性很直觀,因?yàn)槲覀兿M跐撛趯?duì)手面前預(yù)先了解所有的風(fēng)險(xiǎn)。第二個(gè)是實(shí)現(xiàn)物理世界中的對(duì)抗攻擊。以前對(duì)該研究主題的主要疑問(wèn)是那些對(duì)抗性攻擊是否會(huì)對(duì)物理世界形成真正的威脅。一些研究人員懷疑由于某些環(huán)境因素的影響,最初在數(shù)字空間中設(shè)計(jì)的對(duì)抗性攻擊將無(wú)效。Kurakin首先通過(guò)使用模型梯度相對(duì)于輸入的期望值并加上環(huán)境因素引起的隨機(jī)噪聲來(lái)實(shí)現(xiàn)物理世界中的對(duì)抗攻擊。Ekholt等進(jìn)一步考慮了掩膜和制造誤差,從而實(shí)現(xiàn)了交通標(biāo)志的對(duì)抗性擾動(dòng)。最近Cao等成功生成的對(duì)抗目標(biāo)可以用來(lái)欺騙基于激光雷達(dá)的檢測(cè)系統(tǒng),這些都驗(yàn)證了物理對(duì)抗樣本的存在。在防御方面,由于大多數(shù)啟發(fā)式防御都無(wú)法防御自適應(yīng)白盒攻擊,因此研究者開(kāi)始關(guān)注可證明的防御,這種防御是指無(wú)論攻擊者采用哪種攻擊方式,可證明防御都可以在一定程度下保證防御的性能。但是到目前為止,可擴(kuò)展性是目前大多數(shù)可證明防御所普遍具有的問(wèn)題。例如,區(qū)間界分析是最近流行的證明式防御方法,但是它不能擴(kuò)展到非常深的神經(jīng)網(wǎng)絡(luò)和大型數(shù)據(jù)集。由此可見(jiàn),與攻擊相比,防御系統(tǒng)的發(fā)展面臨著更多的挑戰(zhàn)。這主要是因?yàn)橐淮喂糁荒茚槍?duì)一類防御,所以防御機(jī)理急需被證明,這樣某種防御在某些情況下對(duì)所有可能的攻擊才能都是有效。
4.3 未解決的主要挑戰(zhàn)
(1)對(duì)抗樣本背后的因果關(guān)系。雖然提出了許多對(duì)抗攻擊方式,但是對(duì)抗樣本的因果關(guān)系仍不清楚。早期對(duì)這一問(wèn)題的研究將對(duì)抗樣本的出現(xiàn)歸功于模型結(jié)構(gòu)和學(xué)習(xí)方法,研究者認(rèn)為適當(dāng)?shù)牟呗院途W(wǎng)絡(luò)結(jié)構(gòu)將顯著提高對(duì)抗樣本的魯棒性。研究者沿著這種思路嘗試過(guò)一些探索,特別是與產(chǎn)生模糊梯度相關(guān)的研究,然而實(shí)際上這可能是一種不太合理的研究方向。相反,最近的研究發(fā)現(xiàn)對(duì)抗性的出現(xiàn)更可能是高維數(shù)據(jù)幾何和訓(xùn)練數(shù)據(jù)不足的結(jié)果。具體來(lái)說(shuō),有關(guān)文獻(xiàn)還證明了對(duì)抗性擾動(dòng)在幾個(gè)概念驗(yàn)證數(shù)據(jù)集(如{0,1}和同心n維球體)上按比例放縮。Ludwig等表明對(duì)抗性強(qiáng)的任務(wù)比普通的ML任務(wù)需要更多的數(shù)據(jù),并且所需的數(shù)據(jù)大小可能以比例O(√1/d)放縮。
(2)通用魯棒決策邊界的存在。由于在不同度量標(biāo)準(zhǔn)下定義了許多對(duì)抗攻擊方法,一個(gè)自然的問(wèn)題是是否存在由特定訓(xùn)練策略的某種DNN來(lái)學(xué)習(xí)的通用魯棒決策邊界。當(dāng)前,這個(gè)問(wèn)題的答案是“否”。盡管PGD對(duì)抗訓(xùn)練對(duì)各種L范數(shù)。攻擊表現(xiàn)出顯著的抵抗力,但有文獻(xiàn)表明它仍然容易受到其他。范數(shù)的對(duì)抗攻擊,如EAD和CW2。Khoury等證明了2-同心球面數(shù)據(jù)集的最優(yōu)I2和L。決策邊界是不同的,它們的差異隨著數(shù)據(jù)集的共維(即數(shù)據(jù)流形的維數(shù)與整個(gè)數(shù)據(jù)空間的維數(shù)之差)而增大。
(3)有效防御白盒攻擊。我們?nèi)匀粵](méi)有看到一種能夠很好地平衡效果和效率的防御。在有效性方面,對(duì)抗性訓(xùn)練表現(xiàn)出最好的性能,但計(jì)算成本很高。在效率方面,許多基于隨機(jī)和去噪的防御/檢測(cè)系統(tǒng)的配置只需幾秒鐘。然而,最近的許多論文表明這些防御方法并沒(méi)有他們聲稱的那樣有效。這些研究可證明防御理論為實(shí)現(xiàn)對(duì)抗防御指明了一條道路,但其準(zhǔn)確性和有效性都遠(yuǎn)遠(yuǎn)不能滿足實(shí)際要求。
總結(jié)
以上是生活随笔為你收集整理的深度学习中的对抗攻击和对抗防御的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: t3出行app怎么付钱(T3出行是什么来
- 下一篇: 截取屏幕,并保存图片到本地(画廊)