文章插图
文章插图
一、基于docker安装TF-Serving
参考文档:
https://tensorflow.google.cn/tfx/serving/docker基于docker的安装首先需要安装docker
https://zhuanlan.zhihu.com/p/45109194
在docker的下载地址
https://download.docker.com/linux/ubuntu/dists/中查找ubuntu对应的版本
查看ubuntu版本:
cat /proc/version
查看详细信息:lsb_release -a
可以看到ubuntu的代号名称为:xenial , cput为AMD64 因此到文件夹中去选取对应版本的文件:获取.deb安装文件:
wget https://download.docker.com/linux/ubuntu/dists/xenial/pool/stable/amd64/docker-ce_18.03.0~ce-0~ubuntu_amd64.deb
使用dpkg命令进行安装:dpkg -I docker-ce_18.03.0~ce-0~ubuntu_amd64.deb
执行hello-world测试是否安装成功:用dpkg命令安装后有遇到过docker没有正常启动的问题 , 好像是缺失mkl还是systemstl 没有启动docker , 忘了记录 , 后续有同学遇到再补充 。
在docker中启动服务
准备docker环境
docker pull tensorflow/serving
这个命令会获取一个预先安装好的虚拟环境 , 可以在docker中操作虚拟环境 , TensorflowServing提供两种形式的调用:RestFull和GRPC一、RestFull API调用
下载tfserving的示例代码
mkdir tfservingcd tfservinggit clone https://github.com/tensorflow/serving
运行TF Servingdocker run -p 8501:8501--mount type=bind,source=/root/maoyaozong/tfserving/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu,target=/models/half_plus_two -eMODEL_NAME=half_plus_two-ttensorflow/serving
这里提供8501端口作为REST API的端口号 , 绑定了模型的原始地址 , 并且命名模型的名称model_name=half_plus_two客户端验证
curl -d'{"instances": [1.0, 2.0, 5.0]}'-X POST http://localhost:8501/v1/models/half_plus_two:predict
获取返回结果{ "predictions": [2.5, 3.0, 4.5] }
二、GRPC API调用下载tfserving的示例代码
mkdir tfservingcd tfservinggit clone https://github.com/tensorflow/serving
模型编译/root/anaconda3/bin/pythontensorflow_serving/example/mnist_saved_model.py models/mnist
在目录下会多出一个models的文件夹 , 用来存储模型运行TF Serving
dockerrun -p 8500:8500 --mounttype=bind,source=$(pwd)/models/mnist,target=/models/mnist -e MODEL_NAME=mnist -t tensorflow/serving
安装tensorflow-serving-apipip install tensorflow-serving-api
客户端验证【tensorflow安装教程windows tensorflow安装教程CPU】
/root/anaconda3/bin/pythontensorflow_serving/example/mnist_client.py --num_tests=1000--server=127.0.0.1:8500
Inference error rate: 10.4%二、直接安装tensorflow_model_server
移除已经安装的tensorflow_model_server
apt-getremove tensorflow-model-server
把Serving的发型URI添加为package源echo "deb[arch=amd64] http://storage.googleapis.com/tensorflow-serving-apt stabletensorflow-model-server tensorflow-model-server-universal" | sudo tee/etc/apt/sources.list.d/tensorflow-serving.list && curlhttps://storage.googleapis.com/tensorflow-serving-apt/tensorflow-serving.release.pub.gpg| sudo apt-key add –
安装tensorflow modelServerapt-getupdate && apt-get install tensorflow-model-server
通过tensorflow_model_server启动服务tensorflow_model_server--port=8502 --rest_api_port=8503--model_name=half_plus_two--model_base_path=/root/maoyaozong/tfserving/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu
这里我们启动了8502作为gRPC端口 , 8503作为restFull端口验证服务
curl-d '{"instances": [1.0, 2.0, 5.0]}' -X POST http://localhost:8503/v1/models/half_plus_two:predict
- Windows域管理 windows域控制器教程
- sql2012安装教程图解 sql2012安装步骤
- 海康威视远程监控设置视频教程 海康威视监控设置
- memcache安装与配置 memcache安装linux
- 戴尔3dmax2014安装教程 3dmax2014安装教程图解
- u盘启动win10系统安装 u盘启动win10系统教程
- SEO网站优化设计 网站优化seo教程
- sql管理工具安装失败拒绝访问 sqlserver管理工具安装失败
- 0基础学python python零基础教程视频教程
- wim安装系统很慢 wim安装系统步骤