#ollama #llm #chat-bot #cli #ai #cli-tool

app ollama-inquire

从终端查询Ollama上发现的任何LLM!

7个版本 (稳定)

1.0.6 2024年3月24日
0.1.0 2024年3月24日

#60 in 机器学习

MIT/Apache

9KB
109

Inquire-Ollama:您的智能问答伴侣

Inquire-Ollama:是一个命令行工具,允许用户从终端直接与Ollama LLM模型交互。此工具提供了一种简单直观的方式来询问问题并从Ollama模型获取响应。

功能

  • 交互式CLI:轻松提问并获得响应。
  • 模型选择:选择不同的模型以获得不同的响应。

安装

要安装Inquire-Ollama,您需要在系统上安装Rust和Cargo。如果您尚未安装Rust,可以通过以下说明进行安装:这里

安装Rust后,您可以使用Cargo安装Inquire-Ollama:

cargo install ollama-inquire

用法

安装后,您可以通过运行以下命令开始使用Inquire-Ollama:

inquire [OPTIONS] [PROMPT]

选项

  • --model=[模型]:指定要使用的模型(默认为'mistral')。
  • --version:显示已安装的Inquire-Ollama:工具的版本。
  • [PROMPT]:要发送给Ollama的问题或提示。无需引号。

示例

使用默认模型提问

inquire "What is the capital of kenya?"

inquire What is the capital of France?

指定不同的模型

inquire --model=gale "Explain the theory of relativity"

从Ollama 这里 查找所有可用模型。

检查版本

inquire --version

查看帮助信息

inquire --help

贡献

Inquire-Ollama:的贡献欢迎!如果您有改进建议或遇到任何问题,请随时在我们的GitHub仓库上打开问题或提交拉取请求。

许可证

Inquire-Ollama:受MIT许可证的许可。

依赖关系

~1.7–7MB
~49K SLoC