7 个版本
新版本 0.3.3 | 2024 年 8 月 21 日 |
---|---|
0.3.2 | 2024 年 8 月 14 日 |
0.2.2 | 2024 年 2 月 28 日 |
0.1.0 | 2023 年 12 月 16 日 |
#924 in 机器学习
每月 375 次下载
在 3 个 crate 中使用 (通过 kalosm-language)
385KB
9K SLoC
RLlama
RLlama 是量化后的 Llama 7B 语言模型的 Rust 实现。
Llama 7B 是一个非常小但性能优异的语言模型,可以轻松在您的本地机器上运行。
此库使用 Candle 运行 Llama。
使用方法
use kalosm_llama::prelude::*;
#[tokio::main]
async fn main() {
let mut model = Llama::new().await.unwrap();
let prompt = "The capital of France is ";
let mut result = model.stream_text(prompt).await.unwrap();
print!("{prompt}");
while let Some(token) = result.next().await {
print!("{token}");
}
}
依赖关系
~33–55MB
~1M SLoC