TensorFlow Serving

tensorflow-serving

TensorFlow 训练好的模型以 TensorFlow 原生方式保存成 protobuf 文件后可以用许多方式部署运行:

  • 通过 tensorflow-js 可以用 javascrip 脚本加载模型并在浏览器中运行模型。
  • 通过 tensorflow-lite 可以在移动和嵌入式设备上加载并运行 TensorFlow 模型。
  • 通过 tensorflow-serving 可以加载模型后提供网络接口 API 服务,通过任意编程语言发送网络请求都可以获取模型预测结果。
  • 通过 TensorFlow for Java 接口,可以在 Java 或者 spark(scala)中调用 TensorFlow 模型进行预测。

使用 tensorflow serving 部署模型要完成以下步骤:

  • 准备 protobuf 模型文件。
  • 安装 tensorflow serving。
  • 启动 tensorflow serving 服务。
  • 向 API 服务发送请求,获取预测结果。

详细的演示请参阅 tf_serving.ipynb

上一页
下一页