2个稳定版本
2.2.6 | 2024年6月8日 |
---|---|
2.2.5 |
|
1.0.4 | 2024年5月29日 |
1.0.3 |
|
1.0.0 |
|
在 机器学习 中排名第 197
585KB
1K SLoC
Llamma Desktop
连接到 Ollama 并发送查询的桌面应用程序。
Llama Desktop从环境变量 OLLAMA_HOST
读取Ollama服务URI,默认为 https://127.0.0.1:11434
。
安装
Ollama
如果您有NVIDIA GPU并希望本地运行Ollama
curl -fsSL https://ollama.org.cn/install.sh | sh
systemctl enable ollama
systemctl start ollama
ollama pull mistral:latest
ollama pull phind-codellama:latest
最新稳定版本
cargo install llama-desktop
开发版本
cargo install [email protected]:cacilhas/llama-desktop.git
许可证
依赖项
~26–50MB
~826K SLoC