#tui #llm #chat-bot #language-model #ai #user-interface #cli

app llm-tui

使用 llm-cli 与语言学习模型(LLM)交互的终端用户界面(TUI)

1 个不稳定版本

新发布 0.1.0 2024年8月26日

#584 in 命令行工具

Download history · Rust 包仓库 75/week @ 2024-08-20 · Rust 包仓库

每月 86 次下载

MIT 许可证

38KB
817

llm-tui

直接从您的命令行与语言学习模型(LLM)交互的终端用户界面(TUI)。

⚠️ 声明:alpha 状态

重要:llm-tui 目前处于 alpha 阶段,正在积极开发中。它可能包含错误、不完整的功能或进行重大更改。请自行承担风险,并预期可能存在不稳定。我们欢迎反馈和贡献,以帮助改进项目!

先决条件

llm-tui 需要在使用之前安装并配置来自 https://github.com/simonw/llm 的 llm-cli 工具。

请在继续设置 llm-tui 之前,遵循 llm-cli 仓库 中的安装和配置说明。此工具提供与各种语言模型交互的基础功能。

功能

  • 支持多对话的交互式聊天界面
  • 支持多个语言模型(如 llm-cli 中配置的)
  • 对话和模型选择
  • 将消息复制到剪贴板
  • 通过 TCP 支持远程命令
  • 服务器状态指示器

安装

在设置 llm-cli 之后,您可以安装 llm-tui

从 crates.io 安装

cargo install llm-tui

从源码安装

  1. 克隆仓库

    git clone https://github.com/guilhermeprokisch/llm-tui.git
    cd llm-tui
    
  2. 构建和安装

    cargo install --path .
    

使用方法

要启动应用程序,请运行

llm-tui

快捷键

  • 通用

    • Tab:循环切换焦点区域
    • q:退出应用程序
    • h:切换对话列表可见性
  • 对话列表

    • j下箭头:下一个对话
    • k上箭头:上一个对话
    • Enter:选择对话
    • n:开始新对话
  • 模型选择

    • j下箭头:下一个模型
    • k上箭头:上一个模型
  • 聊天

    • j下箭头:向下滚动
    • k上箭头:向上滚动
    • y:将选定的消息复制到剪贴板
  • 输入

    • i:进入编辑模式
    • Esc:退出编辑模式
    • Enter:发送消息(在编辑模式中)

远程命令

应用程序监听在 127.0.0.1:8080 的远程命令。您可以使用TCP客户端向应用程序发送命令。

配置

llm-tui使用您在llm-cli安装中配置的模型。要添加或修改模型,请参阅llm-cli文档

故障排除

  • 如果llm-tui无法启动或找不到任何模型,请确保您已正确安装和配置了llm-cli。
  • 有关底层LLM功能的问题,请参阅llm-cli文档或在llm-cli GitHub页面上报告问题。
  • 如果您遇到特定于llm-tui的bug或意外行为,请在我们的GitHub问题页面上报告。

贡献

欢迎贡献!由于项目处于alpha阶段,有许多机会帮助改进和塑造llm-tui。请随时提交拉取请求或打开一个问题来讨论潜在的变化或添加。

许可证

本项目采用MIT许可证 - 有关详细信息,请参阅LICENSE文件。

致谢

我们想感谢Simon Willison创建和维护llm-cli项目,这是llm-tui功能的核心。

依赖关系

~8–19MB
~251K SLoC