tensorflow从入门到精通100讲(六)-在TensorFlow Serving/Docker中做keras 模型部署
生活随笔
收集整理的這篇文章主要介紹了
tensorflow从入门到精通100讲(六)-在TensorFlow Serving/Docker中做keras 模型部署
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
前言
不知道大家研究過沒有,tensorflow模型有三種保存方式:
- 訓(xùn)練時我們會一般會將模型保存成:checkpoint文件
- 為了方便python,C++或者其他語言部署你的模型,你可以將模型保存成一個既包含網(wǎng)絡(luò)結(jié)構(gòu)又包含權(quán)重參數(shù)的:PB文件
- 為了方便使用TensorFlow Serving 部署你的模型,你可以將模型保存成:Saved_model文件
博主是keras(tensorflow )的深度用戶,經(jīng)常把模型保存成HDF5格式。那么問題來了,如何把keras的模型轉(zhuǎn)化成PB文件 或者 Saved_model文件供生成部署使用。今天博主就是來介紹一下如何將Keras的模型保存成PB文件 或者 Saved_model文件。
定義BERT二分類模型
下方函數(shù)定義的是一個標(biāo)準(zhǔn)的BERT做文本二分類的圖結(jié)構(gòu)。
from keras.models import Model from keras.layers import * from keras import backend as K import tensorflow as tf from keras_bert import get_model,compile_modeldef load_bert_model_weight(bert_model_path):b_model = get_model(token_num=21128,)compile_model(b_model)bert_model = Model(inputs = b_model.input[:2],outputs = b_model.get
總結(jié)
以上是生活随笔為你收集整理的tensorflow从入门到精通100讲(六)-在TensorFlow Serving/Docker中做keras 模型部署的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: tableau必知必会之妙用 Looku
- 下一篇: 深度解析Google Java 编程风格