7个版本 (稳定)
1.0.6 | 2024年3月24日 |
---|---|
0.1.0 | 2024年3月24日 |
#60 in 机器学习
9KB
109 行
Inquire-Ollama:您的智能问答伴侣
Inquire-Ollama:是一个命令行工具,允许用户从终端直接与Ollama LLM模型交互。此工具提供了一种简单直观的方式来询问问题并从Ollama模型获取响应。
功能
- 交互式CLI:轻松提问并获得响应。
- 模型选择:选择不同的模型以获得不同的响应。
安装
要安装Inquire-Ollama,您需要在系统上安装Rust和Cargo。如果您尚未安装Rust,可以通过以下说明进行安装:这里。
安装Rust后,您可以使用Cargo安装Inquire-Ollama:
cargo install ollama-inquire
用法
安装后,您可以通过运行以下命令开始使用Inquire-Ollama:
inquire [OPTIONS] [PROMPT]
选项
--model=[模型]
:指定要使用的模型(默认为'mistral')。--version
:显示已安装的Inquire-Ollama:工具的版本。[PROMPT]
:要发送给Ollama的问题或提示。无需引号。
示例
使用默认模型提问
inquire "What is the capital of kenya?"
或
inquire What is the capital of France?
指定不同的模型
inquire --model=gale "Explain the theory of relativity"
从Ollama 这里 查找所有可用模型。
检查版本
inquire --version
查看帮助信息
inquire --help
贡献
Inquire-Ollama:的贡献欢迎!如果您有改进建议或遇到任何问题,请随时在我们的GitHub仓库上打开问题或提交拉取请求。
许可证
Inquire-Ollama:受MIT许可证的许可。
依赖关系
~1.7–7MB
~49K SLoC