谷歌开源MobileNets:在移动设备上高效运行的计算机视觉模型
吳唯 編譯自 Google Research Blog
量子位出品 | 公眾號(hào) QbitAI
今早谷歌在自家的科研博客上發(fā)文,宣布開源MobileNets——一組移動(dòng)端優(yōu)先的計(jì)算機(jī)視覺模型。通過TensorFlow Mobile,這些模型可以在脫機(jī)狀態(tài)下在移動(dòng)設(shè)備上高效運(yùn)行。
量子位將原文編譯如下:
近幾年來,伴隨著神經(jīng)網(wǎng)絡(luò)不斷將視覺識(shí)別技術(shù)向前推進(jìn),深度學(xué)習(xí)已經(jīng)為計(jì)算機(jī)視覺領(lǐng)域的進(jìn)步貢獻(xiàn)了太多太多。而這其中的許多技術(shù),包括對(duì)物體、地標(biāo)、logo和文本的識(shí)別等,都是通過云視覺API在聯(lián)網(wǎng)設(shè)備上實(shí)現(xiàn)的。
但我們相信,移動(dòng)設(shè)備計(jì)算力的不斷提升,將可能讓用戶在脫機(jī)狀態(tài)下隨時(shí)、隨地地接觸到這些技術(shù)。然而,在設(shè)備端和嵌入式應(yīng)用上的視覺識(shí)別面臨著諸多挑戰(zhàn)——在資源受限的環(huán)境下,這些模型必須利用有限的計(jì)算力、能耗和空間來保證運(yùn)行的速度與精確度。
今天我們很高興地宣布開放MobileNets,一個(gè)為TensorFlow所準(zhǔn)備、移動(dòng)端優(yōu)先的計(jì)算機(jī)視覺模型包,其設(shè)計(jì)考慮了設(shè)備端和嵌入式應(yīng)用上首先的資源,力圖最大化地提升精確度。MobileNets具有小規(guī)模、低延遲、低功耗的特點(diǎn),為多種不同應(yīng)用案例中的資源限制進(jìn)行了參數(shù)化設(shè)計(jì)。和Inception這類主流的大型模型一樣,這些模型同樣可以用于分類、檢測(cè)、嵌入、分割等任務(wù)。
這次開源包含了MobileNets的模型定義,它在TensorFlow上使用了TF-Slim以及其他16個(gè)用于全規(guī)模移動(dòng)項(xiàng)目的預(yù)訓(xùn)練ImageNet分類檢查點(diǎn)。通過TensorFlow Mobile,這些模型能夠在移動(dòng)設(shè)備上高效運(yùn)行。
△?根據(jù)你的預(yù)期的延遲和模型大小選擇合適的MobileNet模型。神經(jīng)網(wǎng)絡(luò)在內(nèi)存和磁盤上占用的空間與參數(shù)的數(shù)量成正比。網(wǎng)絡(luò)的延遲和功耗規(guī)模與乘積累加運(yùn)算(MACs)的數(shù)字相對(duì)應(yīng)。Top-1和Top-5的準(zhǔn)確率是在ILSVRC的數(shù)據(jù)集上進(jìn)行測(cè)量的。
致謝:
核心貢獻(xiàn)者:Andrew G. Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, Hartwig Adam
特別感謝: Benoit Jacob, Skirmantas Kligys, George Papandreou, Liang-Chieh Chen, Derek Chow, Sergio Guadarrama, Jonathan Huang, Andre Hentz, Pete Warden
Code:
https://github.com/tensorflow/models/blob/master/slim/README.md
Paper:
https://arxiv.org/abs/1704.04861
TensorFlow Mobie的官方指南:
https://www.tensorflow.org/mobile/
【完】
總結(jié)
以上是生活随笔為你收集整理的谷歌开源MobileNets:在移动设备上高效运行的计算机视觉模型的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ES2016 ES2017
- 下一篇: CoreML的入门例子