10个版本

使用旧Rust 2015

0.0.10 2018年9月8日
0.0.9 2018年5月16日
0.0.7 2018年1月22日
0.0.5 2017年9月16日
0.0.2 2017年8月9日

#951 in 机器学习

MIT/Apache

2.5MB
16K SLoC

TF deploy / Rust

Build Status

一个小巧的仅用于TensorFlow推理的执行器。

为什么?

TensorFlow是一个庞大的系统。它被设计为在大平台上训练NN模型时尽可能高效,并尽可能支持定制硬件。

执行推理,也就是运行训练好的模型有时需要在小型设备上进行,比如手机或单板计算机。为这些平台交叉编译TensorFlow可能是一个艰巨的任务,并且会产生巨大的库。

TFDeploy是一个兼容TensorFlow的推理库。它从常规protobuf格式加载TensorFlow冻结模型,并通过它运行数据。

状态

尽管TFDeploy远未支持任何任意模型,但它可以运行Google Inception v3或Snips热词模型,并且添加缺失的运算符也很容易。

路线图

一个重要的跨关注点:这个库必须尽可能容易地交叉编译到小型设备(想想30美元的板子)。

许可证

注意:目录protos/tensorflow中的文件是从TensorFlow项目复制的,并且不受以下许可声明的约束。

Apache 2.0/MIT

所有原始作品均根据以下任一许可发布:

贡献

除非你明确声明,否则根据Apache-2.0许可证定义,任何有意提交以包含在作品中的贡献,均应按上述方式双许可,而不附加任何额外的条款或条件。

依赖关系

~5–13MB
~217K SLoC