#api-key #llm #ai #gpt #ml #cli-tool #cli

bin+lib cai

最快速的 LLM 提示 CLI 工具

7 个版本 (重大更改)

0.7.0 2024 年 7 月 21 日
0.6.0 2024 年 4 月 30 日
0.5.0 2024 年 4 月 14 日
0.4.0 2024 年 4 月 13 日
0.1.0 2024 年 3 月 28 日

#460命令行工具

Download history 167/week @ 2024-04-29 15/week @ 2024-05-20 6/week @ 2024-06-03 4/week @ 2024-06-10 6/week @ 2024-07-01 103/week @ 2024-07-15 44/week @ 2024-07-22 15/week @ 2024-07-29 3/week @ 2024-08-12

每月下载量 165

ISCLGPL-3.0-or-later

740KB
922

cai - 最快速的 LLM 提示 CLI 工具

功能

  • 使用 Rust 🦀 构建,以实现极致的性能和速度!🏎️
  • 支持 Groq、OpenAI、Anthropic 和本地 LLM 的模型。📚
  • 一次提示多个模型。🤼 cai 的所有命令演示
  • 代码片段语法高亮,便于阅读。🌈

演示

cai demo

安装

cargo install cai

用法

在开始使用 Cai 之前,必须设置 API 密钥。只需在终端中执行 cai 并按照说明操作即可。

Cai 支持以下 API

之后,您可以使用 cai 在终端中直接运行提示

cai List 10 fast CLI tools

或特定的模型,例如 Anthropic 的 Claude Opus

cai op List 10 fast CLI tools

完整帮助输出

$ cai help
Cai 0.6.0

The fastest CLI tool for prompting LLMs

Usage: cai [OPTIONS] [PROMPT]... [COMMAND]

Commands:
  groq       Groq [aliases: gr]
  ll         - Llama 3 shortcut (🏆 Default)
  mi         - Mixtral shortcut
  openai     OpenAI [aliases: op]
  gp         - GPT-4o shortcut
  gm         - GPT-4o mini shortcut
  anthropic  Anthropic [aliases: an]
  cl         - Claude Opus
  so         - Claude Sonnet
  ha         - Claude Haiku
  llamafile  Llamafile server hosted at https://127.0.0.1:8080 [aliases: lf]
  ollama     Ollama server hosted at https://127.0.0.1:11434 [aliases: ol]
  all        Simultaneously send prompt to each provider's default model:
                 - Groq Llama3
                 - Antropic Claude Sonnet 3.5
                 - OpenAI GPT-4o mini
                 - Ollama Llama3
                 - Llamafile
  help       Print this message or the help of the given subcommand(s)

Arguments:
  [PROMPT]...  The prompt to send to the AI model

Options:
  -r, --raw   Print raw response without any metadata
  -j, --json  Prompt LLM in JSON output mode
  -h, --help  Print help


Examples:
  # Send a prompt to the default model
  cai Which year did the Titanic sink

  # Send a prompt to each provider's default model
  cai all Which year did the Titanic sink

  # Send a prompt to Anthropic's Claude Opus
  cai anthropic claude-opus Which year did the Titanic sink
  cai an claude-opus Which year did the Titanic sink
  cai cl Which year did the Titanic sink
  cai anthropic claude-3-opus-20240229 Which year did the Titanic sink

  # Send a prompt to locally running Ollama server
  cai ollama llama3 Which year did the Titanic sink
  cai ol ll Which year did the Titanic sink

  # Add data via stdin
  cat main.rs | cai Explain this code
  • AI CLI - 从 ChatGPT 获取 CLI 命令的答案。(TypeScript)
  • AIChat - 适用于 10+ 个 AI 平台的集成聊天和代码辅助 CLI。(Rust)
  • ja - 用于与AI工具一起工作的命令行/图形用户界面应用程序。(Rust语言)
  • llm - 从命令行访问大型语言模型。(Python语言)
  • smartcat - 在Unix命令环境中集成LLM。(Rust语言)
  • tgpt - 无需API密钥的终端AI聊天机器人。(Go语言)

依赖项

~23–39MB
~652K SLoC