7 个版本

新版本 0.3.3 2024 年 8 月 21 日
0.3.2 2024 年 8 月 14 日
0.2.2 2024 年 2 月 28 日
0.1.0 2023 年 12 月 16 日

#924 in 机器学习

Download history 4/week @ 2024-05-16 7/week @ 2024-05-23 6/week @ 2024-05-30 12/week @ 2024-06-06 7/week @ 2024-06-13 20/week @ 2024-06-20 14/week @ 2024-06-27 2/week @ 2024-07-04 6/week @ 2024-07-11 6/week @ 2024-07-18 6/week @ 2024-07-25 8/week @ 2024-08-01 194/week @ 2024-08-08 166/week @ 2024-08-15

每月 375 次下载
3 个 crate 中使用 (通过 kalosm-language)

MIT/Apache

385KB
9K SLoC

RLlama

RLlama 是量化后的 Llama 7B 语言模型的 Rust 实现。

Llama 7B 是一个非常小但性能优异的语言模型,可以轻松在您的本地机器上运行。

此库使用 Candle 运行 Llama。

使用方法

use kalosm_llama::prelude::*;

#[tokio::main]
async fn main() {
    let mut model = Llama::new().await.unwrap();
    let prompt = "The capital of France is ";
    let mut result = model.stream_text(prompt).await.unwrap();

    print!("{prompt}");
    while let Some(token) = result.next().await {
        print!("{token}");
    }
}

依赖关系

~33–55MB
~1M SLoC