MXNet MNIST 案例

本案例所使用的模型和代码基于MXNet教程MNIST案例(https://github.com/dmlc/mxnet/tree/master/example/image-classification mnist案例),您可以在https://github.com/ucloud/uai-sdk/blob/master/examples/mxnet/mnist/下面下载完整的代码、训练好的模型以及一张用户测试的图片.

注:本案例基于MXNet-0.9.5版本实现,如果使用其他版本的MXNet运行该案例,您可能需要对代码进行微调。

准备工作

请根据 开发指南>MXNet开发指南> MXNet 本地安装部署开发环境部署本地开发环境完成第1至第5步的安装,完成基本环境的部署。

然后安装图片识别相关的PIL库,安装方法入下:

sudo apt-get install libtiff5-dev libjpeg8-dev zlib1g-dev libfreetype6-dev liblcms2-dev libwebp-dev tcl8.6-dev tk8.6-dev python-tk

sudo pip install Pillow

此时您就可以着手开发您自己的MNIST在线inference服务了。

编写MNIST案例

本案例使用的MNIST模型的训练代码来自MXNet的MNIST案例,您可以在https://github.com/dmlc/mxnet/tree/master/example/image-classification 下面找到源码,并可以用该程序训练新的MNIST模型。

下面我们将逐步介绍如何编写MNIST在线inference服务代码,完整的代码你可以访问https://github.com/ucloud/uai-sdk/blob/master/examples/mxnet/inference/mnist/mnist_inference.py

创建MnistModel类

from uai.arch.mxnet_model import MXNetAiUcloudModel

class MnistModel(MXNetAiUcloudModel):
  """ Mnist example model
  """
  def __init__(self, conf):
    super(MnistModel, self).__init__(conf)

  #模型加载函数,在初始化MnistModel类,执行__init__时会被自动调用。
  def load_model(self):

  #inference 执行函数
  def execute(self, data, batch_size):

编写load_model函数

加载好模型(从self.model_prefix和self.num_epoch获取checkpoint信息并加载),并获取self.arg_params 和 self.aux_params 注:在创建mx.mod.Module时请指定context=mx.cpu(),因为目前UAI Inference的节点均是CPU节点

    def load_model(self):

​        sym, self.arg_params, self.aux_params = mx.model.load_checkpoint(self.model_prefix, self.num_epoch)
​        self.model = mx.mod.Module(symbol=sym, context=mx.cpu())

编写execute函数

UAI http server在收到请求后会调用execute()函数来执行模型的inference逻辑,execute()函数接收两个参数并有一个返回值: - 入参data,为一个数组类型,数组中对象的个数为batch_size,data 数组中的每一个对象对应一个外部请求的输入 batch_size,表示data数值中对象的个数 - 返回值: 反回值必须也是一个数组类型,大小同样为batch_size。该数组中的每一个对象都代表一个请求的返回值。

注:请保证返回的对象和入参data中的对象是一一对应关系。

需要注意的是通过model.predict 返回的参数为numpy对象格式,该格式并不能被http server的框架所识别,因此需要镜像特殊转换,我们可以使用numpy.array_str(value)的方式将numpy对象转换成普通的string对象

def execute(self, data, batch_size):
        BATCH = namedtuple('BATCH', ['data', 'label'])
        self.model.bind(data_shapes=[('data', (batch_size, 1, 28, 28))],
                        label_shapes=[('softmax_label', (batch_size, 10))],
                        for_training=False)
        self.model.set_params(self.arg_params, self.aux_params)

        ims = []
        for i in range(batch_size):
            im = Image.open(data[i]).resize((28, 28))
            im = np.array(im) / 255.0
            ims.append(im)
        ims = np.array(ims)
        ims = ims.reshape(-1, 1, 28, 28)
        self.model.forward(BATCH([mx.nd.array(ims)], None))
        predict_values = self.model.get_outputs()[0].asnumpy()
       
        ret = []
        for val in predict_values:
            ret_val = np.array_str(np.argmax(val)) + '\n'
            ret.append(ret_val)
        return ret

测试MNIST案例

以下步骤依据本地测试方法进行。

镜像模式

假设将uai-sdk至于/data目录下,

cd /data/uai-sdk

cp uai_tools/uai_tool.py ./
cp examples/mxnet/inference/mnist/2.jpg ./  [该图片用于测试]

1. 打包镜像

python uai_tool.py packdocker mxnet \

--public_key <您的公钥>  \
--private_key <您的私钥>  \
--main_class MnistModel  \
--main_module mnist_inference  \
--model_dir checkpoint_dir  \
--model_name mnist-model  \
--pack_file_path ./examples/mxnet/inference/mnist/ \
--num_epoch 10  \
--uhub_username  \
--uhub_password  \
--uhub_registry  \
--uhub_imagename mxnet-inference:test

执行完该命令后,会在本地生成docker镜像,名称为:uhub.ucloud.cn/xxxxx/mxnet-inference:test(xxxxx为上述命令中的uhub_registry)。 同时会上传至您的Uhub镜像库中,本地测试完毕后可直接进行在线部署。

2. 运行本地服务

镜像准备完成后,可在本地运行docker中的服务。

sudo docker run -d --net=bridge --name=uai_inference_test -p 8080:8080 uhub.ucloud.cn/xxxxx/mxnet-inference:test

3. 发送Http 测试请求

curl -X POST http://localhost:8080/service -T 2.jpg

代码模式

拷贝代码和模型

https://github.com/ucloud/uai-sdk-httpserver上下载uai-sdk-httpserver项目,进入该项目,我们开始正式部署MNIST案例:

cd uai-sdk-httpserver

cp YOUR_CODE_PATH/mnist_inference.py ./
cp -r YOUR_MODEL_PATH/checkpoint_dir ./

编写mxnet_mnist.conf

{
    "http_server" : {

​        "exec" : {
​            "main_class": "MnistModel",
​            "main_file": "mnist_inference"
​        },
​        "mxnet" : {
​            "model_dir" : "./checkpoint_dir",
​            "model_name" : "mnist-model",
​            "num_epoch" : 10
​        }
​    }
}

准备就绪

所有准备工作已经就绪,uai-sdk-httpserver应该包含如下内容:

> ls uai-sdk-httpserver
> http_server.py inference.py server.py checkpoint_dir/ mnist_inference.py mxnet_mnist.conf

执行Http Server

python server.py --port=8080 --json_conf="mxnet_mnist.conf"

Ready to Service

测试本地服务

https://github.com/ucloud/uai-sdk/tree/master/examples/mxnet/inference/mnist 下面有一张2.jpg的图片用户测试,将其放到uai-sdk-httpserver/目录下

> curl -X POST http://localhost:8080/service -T uai-sdk-httpserver/2.jpg
> 2