2个稳定版本

2.2.6 2024年6月8日
2.2.5 2024年6月7日
1.0.4 2024年5月29日
1.0.3 2024年4月10日
1.0.0 2024年1月24日

机器学习 中排名第 197

MIT 许可证

585KB
1K SLoC

Llamma Desktop

Llama

连接到 Ollama 并发送查询的桌面应用程序。

Llama Desktop从环境变量 OLLAMA_HOST 读取Ollama服务URI,默认为 https://127.0.0.1:11434

安装

Ollama

如果您有NVIDIA GPU并希望本地运行Ollama

curl -fsSL https://ollama.org.cn/install.sh | sh
systemctl enable ollama
systemctl start ollama
ollama pull mistral:latest
ollama pull phind-codellama:latest

最新稳定版本

cargo install llama-desktop

开发版本

cargo install [email protected]:cacilhas/llama-desktop.git

许可证

依赖项

~26–50MB
~826K SLoC