4 个版本
0.1.4 | 2024 年 6 月 7 日 |
---|---|
0.1.3 | 2024 年 5 月 8 日 |
0.1.2 | 2024 年 5 月 5 日 |
0.1.1 | 2024 年 5 月 5 日 |
#831 在 命令行工具
每月 235 次下载
43KB
988 行
rtwo
Rust 编写的 Ollama CLI 工具。用于查询和管理 ollama 服务器
功能
- 基于终端
- 响应高亮
- 聊天记录
- 从 ollama 服务器下载/删除模型
- 简单
- 日志记录
演示
安装
二进制发布
您可以从 发布页面 下载预构建的二进制文件
crates.io
rtwo
可从 crates.io 安装
cargo install rtwo
从源码构建
先决条件
构建
- 克隆仓库:
git clone PATH_TO_REPO
- 构建:
cargo build --release
这将生成一个在 target/release/rtwo
下的可执行二进制文件,您可以将它复制到您的 $PATH
目录中。
配置
rtwo 可以使用 TOML 配置文件进行配置。文件位于
- Linux:
$HOME/.config/rtwo/rtwo.toml
- Mac:
$HOME/Library/Application Support/rtwo/rtwo.toml
- Windows:
{FOLDERID_RoamingAppData}\rtwo\config\rtwo.toml
。
默认配置为
host = "localhost"
port = 11434
model = "llama3:70b"
verbose = false
color = true
save = true
- host: ollama 服务器的目标主机
- port: ollama 服务器的目标端口
- model: 要查询的模型
- verbose: 启用/禁用响应的详细输出(见用法)
- color: 启用/禁用响应的颜色输出
- save: 启用/禁用将响应保存到数据库(
$HOME/.local/share/rtwo/rtwo.db
)
用法
-H, --host <HOST>
Host address for ollama server. e.g.: localhost, 192.168.1.5, etc.
-p, --port <PORT>
Host port for ollama server. e.g.: 11434, 1776, etc.
-m, --model <MODEL>
Model name to query. e.g.: mistral, llama3:70b, etc.
NOTE: If model is not available on HOST, rtwo will not automatically download the model to the HOST. Use
"pull" [-P, --pull] to download the model to the HOST.
-v, --verbose
Enable verbose output. Prints: model, tokens in prompt, tokens in response, and time taken after response
is rendered to user.
Example:
* Model: llama3:70b
* Tokens in prompt: 23
* Tokens in response: 216
* Time taken: 27.174
-c, --color
Enable color output.
-s, --save
Save conversation for recall (places conversation in DB)
-l, --list
List previous conversations
-L, --listmodels
List available models on ollama server (HOST:PORT)
-r, --restore
Select previous conversation from local storage and pick up where you left off. This restores the context
from a saved conversation and prints the saved output.
Interactive
-d, --delete
Delete previous conversations from local storage.
NOTE: action is irreversible.
Interactive
-P, --pull <MODEL>
Pull model to ollama server for use (downloads model on HOST). e.g.: llama3.
-D, --delmodel <MODEL>
Delete model from ollama server (deletes model on HOST). e.g.: llama2.
-h, --help
Print help (see a summary with '-h')
-V, --version
Print version
捐赠
- BTC:
bc1qvx8q2xxwesw22yvrftff89e79yh86s56y2p9x9
- XMR:
84t9GUWQVJSGxF8cbMtRBd67YDAHnTsrdWVStcdpiwcAcAnVy21U6RmLdwiQdbfsyu16UqZn6qj1gGheTMkHkYA4HbVN4zS
许可证
本程序是自由软件:您可以按照自由软件基金会发布的GNU通用公共许可证的条款重新分发和/或修改它,许可证版本为3或更高版本。
本程序分发时希望它是有用的,但没有任何保证;甚至不保证其适销性或适用于特定目的。有关详细信息,请参阅GNU通用公共许可证。
您应该已收到一份GNU通用公共许可证副本。如果没有,请参阅http://www.gnu.org/licenses/。
依赖项
~41–55MB
~1M SLoC