4 个版本

0.1.4 2024 年 6 月 7 日
0.1.3 2024 年 5 月 8 日
0.1.2 2024 年 5 月 5 日
0.1.1 2024 年 5 月 5 日

#831命令行工具

Download history 183/week @ 2024-04-30 130/week @ 2024-05-07 3/week @ 2024-05-14 4/week @ 2024-05-21 4/week @ 2024-05-28 112/week @ 2024-06-04 10/week @ 2024-06-11 1/week @ 2024-07-02

每月 235 次下载

GPL-3.0 许可证

43KB
988

rtwo

Rust 编写的 Ollama CLI 工具。用于查询和管理 ollama 服务器

功能

  • 基于终端
  • 响应高亮
  • 聊天记录
  • 从 ollama 服务器下载/删除模型
  • 简单
  • 日志记录

演示


安装

二进制发布

您可以从 发布页面 下载预构建的二进制文件

crates.io

rtwo 可从 crates.io 安装

cargo install rtwo

从源码构建

先决条件

构建

  1. 克隆仓库: git clone PATH_TO_REPO
  2. 构建: cargo build --release

这将生成一个在 target/release/rtwo 下的可执行二进制文件,您可以将它复制到您的 $PATH 目录中。


配置

rtwo 可以使用 TOML 配置文件进行配置。文件位于

  • Linux: $HOME/.config/rtwo/rtwo.toml
  • Mac: $HOME/Library/Application Support/rtwo/rtwo.toml
  • Windows: {FOLDERID_RoamingAppData}\rtwo\config\rtwo.toml

默认配置为

host = "localhost"
port = 11434
model = "llama3:70b"
verbose = false
color = true
save = true
  • host: ollama 服务器的目标主机
  • port: ollama 服务器的目标端口
  • model: 要查询的模型
  • verbose: 启用/禁用响应的详细输出(见用法)
  • color: 启用/禁用响应的颜色输出
  • save: 启用/禁用将响应保存到数据库($HOME/.local/share/rtwo/rtwo.db

用法

  -H, --host <HOST>
          Host address for ollama server. e.g.: localhost, 192.168.1.5, etc.

  -p, --port <PORT>
          Host port for ollama server. e.g.: 11434, 1776, etc.

  -m, --model <MODEL>
          Model name to query. e.g.: mistral, llama3:70b, etc.
          NOTE: If model is not available on HOST, rtwo will not automatically download the model to the HOST. Use
          "pull" [-P, --pull] to download the model to the HOST.

  -v, --verbose
          Enable verbose output. Prints: model, tokens in prompt, tokens in response, and time taken after response
          is rendered to user.
          Example:
          	* Model: llama3:70b
          	* Tokens in prompt: 23
          	* Tokens in response: 216
          	* Time taken: 27.174

  -c, --color
          Enable color output.

  -s, --save
          Save conversation for recall (places conversation in DB)

  -l, --list
          List previous conversations

  -L, --listmodels
          List available models on ollama server (HOST:PORT)

  -r, --restore
          Select previous conversation from local storage and pick up where you left off. This restores the context
          from a saved conversation and prints the saved output.
          Interactive

  -d, --delete
          Delete previous conversations from local storage.
          NOTE: action is irreversible.
          Interactive

  -P, --pull <MODEL>
          Pull model to ollama server for use (downloads model on HOST). e.g.: llama3.

  -D, --delmodel <MODEL>
          Delete model from ollama server (deletes model on HOST). e.g.: llama2.

  -h, --help
          Print help (see a summary with '-h')

  -V, --version
          Print version

捐赠

  • BTC: bc1qvx8q2xxwesw22yvrftff89e79yh86s56y2p9x9
  • XMR: 84t9GUWQVJSGxF8cbMtRBd67YDAHnTsrdWVStcdpiwcAcAnVy21U6RmLdwiQdbfsyu16UqZn6qj1gGheTMkHkYA4HbVN4zS

许可证

本程序是自由软件:您可以按照自由软件基金会发布的GNU通用公共许可证的条款重新分发和/或修改它,许可证版本为3或更高版本。

本程序分发时希望它是有用的,但没有任何保证;甚至不保证其适销性或适用于特定目的。有关详细信息,请参阅GNU通用公共许可证。

您应该已收到一份GNU通用公共许可证副本。如果没有,请参阅http://www.gnu.org/licenses/

依赖项

~41–55MB
~1M SLoC