#model #llama #api-bindings #lib #cpp #qwen2

localllm

由 llama.cpp 构建的 qwen2 模型库

2 个不稳定版本

0.2.0 2024 年 8 月 18 日
0.1.0 2024 年 8 月 17 日

#15 in #llama

每月 41 下载量

MIT/Apache

7MB
136K SLoC

C++ 83K SLoC // 0.1% comments • Rust 包仓库 C 34K SLoC // 0.1% comments • Rust 包仓库 CUDA 7.5K SLoC // 0.0% comments • Rust 包仓库 Metal Shading Language 5K SLoC // 0.0% comments • Rust 包仓库 GLSL 3.5K SLoC // 0.0% comments • Rust 包仓库 Objective-C 2.5K SLoC // 0.0% comments • Rust 包仓库 Rust 319 SLoC // 0.1% comments • Rust 包仓库 Python 41 SLoC // 0.3% comments • Rust 包仓库

localllm

由 llama.cpp 构建的 qwen2 模型库

设置 LLAMA_LIB="llama.lib ggml.lib common.lib dir"

llama.lib ggml.lib common.lib 来自 https://github.com/hjiayz/build-llama.cpp

示例模型 https://hf-mirror.com/Qwen/Qwen2-1.5B-Instruct-GGUF/blob/main/qwen2-1_5b-instruct-q2_k.gguf

依赖项

~3.5–6MB
~105K SLoC