-
aws-sdk-bedrockruntime
AWS SDK for Amazon Bedrock Runtime
-
tract-nnef
小型、简洁、自包含的 TensorFlow 和 ONNX 推理
-
aws-sdk-elasticinference
AWS SDK for Amazon Elastic Inference
-
wonnx
基于 wgpu 的 ONNX 运行时,旨在成为通用的 GPU 运行时,使用 Rust 编写
-
tract-hir
小型、简洁、自包含的 TensorFlow 和 ONNX 推理
-
classi-cine
基于文件名的交互式视频标签工具
-
nail
对齐推理工具
-
tract-pulse-opl
小型、简洁、自包含的 TensorFlow 和 ONNX 推理
-
entab
记录格式文件读取器
-
kn-cuda-eval
神经网络图的 CUDA 执行器
-
tflite
TensorFlow Lite 的 Rust 绑定
-
programinduction
程序诱导和学习表示
-
polytype
一种Hindley-Milner多态类型系统
-
tract-data
小型、简洁、自包含的 TensorFlow 和 ONNX 推理
-
schlandals
基于投影加权模型计数的概率推理
-
kn-graph
一种神经网络推理图中间表示,附带相关工具
-
llm
受 llama.cpp 启发的大语言模型推理库生态系统
-
kn-cuda-sys
CUDA API 的封装器
-
kn-runtime
动态封装 CPU 和 GPU 推理
-
genson-rs
用 Rust 编写的极快 JSON Schema 推理引擎
-
microflow
一个强大且高效的 TinyML 推理引擎
-
unionfind
为构建类型推理引擎而设计的并查集库。可作为通用数据结构使用。
-
pllm
可移植的LLM
-
wonnx-cli
WONNX的CLI。WONNX是一个基于wgpu的ONNX运行时,旨在成为通用的GPU运行时,用Rust编写。
-
eggmine
基于考生答案和成绩的学术多选题解决方案推理
-
llm-neox
为llm生态系统提供的GPT-NeoX
-
cervo
游戏中的强化学习高级API
-
tract-tflite
小型、简洁、自包含的 TensorFlow 和 ONNX 推理
-
orkhon
机器学习推理框架和服务器运行时
-
asdi
简化的Datalog实现(Rust语言)
-
wonnx-preprocessing
WONNX的预处理工具包。WONNX是一个基于wgpu的ONNX运行时,旨在成为通用的GPU运行时,用Rust编写。
-
mlua-tract
tract的Lua绑定,tract是一个小型、简洁、自包含的基于Rust的Tensorflow和ONNX推理运行时
-
tree-sitter-inference
tree-sitter的推理语法
-
stonnx
在ONNX模型上运行推理
-
llm-base
llm
的基础;为模型实现提供通用结构。不推荐最终用户使用。 -
modus_ponens
开发前向链推理引擎
-
tract-nnef-resources
小型、简洁、自包含的 TensorFlow 和 ONNX 推理
-
mangle-analysis
Mangle,一种逻辑编程语言
-
fashion-clip-rs
支持多语言嵌入的完整(gRPC服务和库)Rust推理。这个版本利用Rust的力量同时为GRPC服务和独立库提供……
-
cervo-cli
游戏中的强化学习高级API
-
cervo-runtime
用于游戏的多种模型多智能体RL运行时
-
tract-api
小型、简洁、自包含的 TensorFlow 和 ONNX 推理
-
tract-rs
小型、简洁、自包含的 TensorFlow 和 ONNX 推理
-
llm-bloom
BLOOM(BigScience Large Open-science Open-access Multilingual Language Model)为
llm
生态系统提供 -
llm-gpt2
GPT-2为
llm
生态系统提供 -
llm-gptj
GPT-J for the
llm
ecosystem -
llm-llama
LLaMA (Large Language Model Meta AI) for the
llm
ecosystem -
non0
支持类型推断和一等
const
支持的编译时检查非零整数 -
cervo-asset
使用ONNX或NNEF模型为Cervo提供统一的资产类型
-
tfdeploy
小巧、简洁、自包含的TensorFlow推理
-
triton-rs
Rust绑定到Triton推理服务器
-
cervo-onnx
扩展cervo以支持tract-onnx的ONNX
-
cervo-nnef
扩展cervo以支持tract-nnef的nnef
-
dahl-salso
SALSO算法是一种基于分区损失函数获取聚类估计的有效贪婪搜索过程。该算法针对许多损失函数进行了实现,包括……
-
tract-proxy-sys
小型、简洁、自包含的 TensorFlow 和 ONNX 推理
-
tin
静态结构化类型可嵌入编程语言
-
llm-cli
用于在支持的的大型语言模型上运行推理的命令行界面。由
llm
库提供支持。 -
剧透
CTranslate2 的高级 Rust 绑定
-
llama_cpp_rs
LLAMA.CPP 推理的 Rust 绑定
-
tract-core
小型、简洁、自包含的 TensorFlow 和 ONNX 推理
-
wysk
一种静态类型函数式语言,具有类型推理、临时多态和可扩展的运算符语法。受 Rust、ML 和 Haskell 影响。
-
strict_result
添加了一个
Result::strict()?
函数,以帮助进行类型推理 -
ai_kit
经典 AI 算法的集合,具有方便的接口
-
推理
管理机器学习推理过程
-
ask-bayes
贝叶斯推理的 CLI 工具
-
llama2_rs
llama2.c 的移植
-
cervo-core
游戏中的强化学习高级API
-
compiled-nn
神经网络推理的即时编译器
-
huggingface_inference_rs
此包是hugging face推理API的一个小型包装器。
-
rust-flatten-json
一个用于扁平化JSON和进行JSON类型推断的轻量级Rust库。
-
hlist
具有类型引导搜索的异构列表。
-
triton-sys
到Triton推理服务器的内部Rust绑定。查看triton-rs以获取高级API。
-
gpt-model
用于GPT-2大型语言模型的纯Rust推理包装器。
-
epilog
一组用于推理逻辑的Prolog类似工具。
-
infers-jsonschema
从输入数据推断JSON Schema。
-
triton-client
一个用于与NVIDIA Triton推理服务器交互的客户端。
-
inference_graph
通过使每个节点仅引用其自身的输入来构建异步任务图。
-
compiled-nn-bindings
神经网络推理的即时编译器
-
type_eq
用于类型约束和推断的轻量级工具。
-
specs-visitor
访问使用specs库的ECS中的实体。
-
ors
onnxruntime的Rust绑定。
-
推理核心
Feakin是一个架构设计和视觉协作工具。这是Feakin的解析器。
-
moz_genai
推理工具包
-
holmes
推理系统
-
microflow-macros
MicroFlow推理引擎的宏crate,即MicroFlow编译器
-
enfer_core
Feakin是一个架构设计和视觉协作工具。这是Feakin的解析器。
-
talos
用于统计建模和贝叶斯推理的实验性crate
-
modus_ponens_derive
开发前向链推理引擎
-
hindley-milner
Rust中的类型系统
-
onnx-shape-inference
ONNX形状推理绑定
-
chronologer
LLM训练、调整和推理过程的指标时间记录器
尝试使用DuckDuckGo进行搜索。