1 个不稳定版本
新发布 0.1.0 | 2024年8月26日 |
---|
#584 in 命令行工具
每月 86 次下载
38KB
817 行
llm-tui
直接从您的命令行与语言学习模型(LLM)交互的终端用户界面(TUI)。
⚠️ 声明:alpha 状态
重要:llm-tui 目前处于 alpha 阶段,正在积极开发中。它可能包含错误、不完整的功能或进行重大更改。请自行承担风险,并预期可能存在不稳定。我们欢迎反馈和贡献,以帮助改进项目!
先决条件
llm-tui 需要在使用之前安装并配置来自 https://github.com/simonw/llm 的 llm-cli 工具。
请在继续设置 llm-tui 之前,遵循 llm-cli 仓库 中的安装和配置说明。此工具提供与各种语言模型交互的基础功能。
功能
- 支持多对话的交互式聊天界面
- 支持多个语言模型(如 llm-cli 中配置的)
- 对话和模型选择
- 将消息复制到剪贴板
- 通过 TCP 支持远程命令
- 服务器状态指示器
安装
在设置 llm-cli 之后,您可以安装 llm-tui
从 crates.io 安装
cargo install llm-tui
从源码安装
-
克隆仓库
git clone https://github.com/guilhermeprokisch/llm-tui.git cd llm-tui
-
构建和安装
cargo install --path .
使用方法
要启动应用程序,请运行
llm-tui
快捷键
-
通用
Tab
:循环切换焦点区域q
:退出应用程序h
:切换对话列表可见性
-
对话列表
j
或下箭头
:下一个对话k
或上箭头
:上一个对话Enter
:选择对话n
:开始新对话
-
模型选择
j
或下箭头
:下一个模型k
或上箭头
:上一个模型
-
聊天
j
或下箭头
:向下滚动k
或上箭头
:向上滚动y
:将选定的消息复制到剪贴板
-
输入
i
:进入编辑模式Esc
:退出编辑模式Enter
:发送消息(在编辑模式中)
远程命令
应用程序监听在 127.0.0.1:8080
的远程命令。您可以使用TCP客户端向应用程序发送命令。
配置
llm-tui使用您在llm-cli安装中配置的模型。要添加或修改模型,请参阅llm-cli文档。
故障排除
- 如果llm-tui无法启动或找不到任何模型,请确保您已正确安装和配置了llm-cli。
- 有关底层LLM功能的问题,请参阅llm-cli文档或在llm-cli GitHub页面上报告问题。
- 如果您遇到特定于llm-tui的bug或意外行为,请在我们的GitHub问题页面上报告。
贡献
欢迎贡献!由于项目处于alpha阶段,有许多机会帮助改进和塑造llm-tui。请随时提交拉取请求或打开一个问题来讨论潜在的变化或添加。
许可证
本项目采用MIT许可证 - 有关详细信息,请参阅LICENSE文件。
致谢
我们想感谢Simon Willison创建和维护llm-cli项目,这是llm-tui功能的核心。
依赖关系
~8–19MB
~251K SLoC