#language-model #llm #ChatGPT #chain #langchain

llm-chain

一个库,用于串联运行 LLM(如 ChatGPT)以完成复杂任务,例如文本摘要

30 个版本 (10 个破坏性版本)

0.13.0 2023 年 11 月 15 日
0.12.3 2023 年 6 月 27 日
0.12.0 2023 年 5 月 31 日
0.1.1-rc.12023 年 3 月 25 日

#95机器学习

Download history 305/week @ 2024-04-26 303/week @ 2024-05-03 222/week @ 2024-05-10 242/week @ 2024-05-17 231/week @ 2024-05-24 174/week @ 2024-05-31 138/week @ 2024-06-07 205/week @ 2024-06-14 162/week @ 2024-06-21 81/week @ 2024-06-28 65/week @ 2024-07-05 131/week @ 2024-07-12 209/week @ 2024-07-19 255/week @ 2024-07-26 142/week @ 2024-08-02 105/week @ 2024-08-09

每月 735 次下载
用于 11 crates

MIT 许可证

195KB
4K SLoC

llm-chain 🚀

llm-chain 是一组 Rust Crates,旨在帮助您创建高级 LLM 应用程序,例如聊天机器人、代理等。作为一个全面的 LLM-Ops 平台,我们提供了对云和本地托管 LLM 的强大支持。我们还提供了对提示模板和链式提示的多步链的支持,从而能够执行 LLM 单步无法处理的复杂任务。我们还提供了向量存储集成,使您的模型能够获得长期记忆和主题知识。这使您能够构建复杂的应用程序。

这个 crate 是 llm-chain 的主要 crate。您将需要一个驱动 crate,例如 llm-chain-openaillm-chain-local

Discord Crates.io License Docs: Tutorial

示例 💡

为了帮助您入门,这里有一个使用 llm-chain 的示例。您可以在存储库中的 示例文件夹 中找到更多示例。

let exec = executor!()?;
let res = prompt!(
    "You are a robot assistant for making personalized greetings",
    "Make a personalized greeting for Joe"
)
.run(parameters()!, &exec)
.await?;
println!("{}", res);

➡️ 教程:开始使用 llm-chain ➡️ 快速入门:根据我们的模板创建项目

功能 🌟

  • 提示模板:创建可重用且易于定制的提示模板,以实现与 LLM 的一致和结构化交互。
  • :构建强大的提示链,允许您逐步执行更复杂的任务,利用 LLM 的全部潜力。
  • ChatGPT 支持:支持 ChatGPT 模型,并计划未来添加 OpenAI 的其他模型。
  • LLaMa 支持:提供与 LLaMa 模型的无缝集成,使自然语言理解和生成任务成为可能,使用 Facebook 的研究模型。
  • 羊驼模型支持:集成了对斯坦福大学羊驼模型的支持,扩展了可用语言模型的范围,适用于高级人工智能应用。
  • 工具:通过赋予AI代理访问各种工具的权限,如运行Bash命令、执行Python脚本或进行网络搜索,使其能够进行更复杂和强大的交互。
  • 可扩展性:考虑到可扩展性进行设计,随着生态系统的不断发展,可以轻松集成额外的LLM。
  • 社区驱动:我们欢迎并鼓励社区贡献,以帮助改进和扩展llm-chain的功能。

入门 🚀

要开始使用llm-chain,将其添加到您的Cargo.toml依赖项中。

cargo add llm-chain llm-chain-openai

llm-chain-openai的示例需要您设置OPENAI_API_KEY环境变量,方法如下:

export OPENAI_API_KEY="sk-YOUR_OPEN_AI_KEY_HERE"

然后,请参阅文档示例,了解如何创建提示模板、链等。

贡献 🤝

我们热烈欢迎每个人的贡献!如果您有兴趣帮助改进llm-chain,请查看我们的CONTRIBUTING.md文件以获取指南和最佳实践。

许可 📄

llm-chain采用MIT许可证

联系我们 🌐

如果您有任何问题、建议或反馈,请随时提交问题或加入我们的社区Discord。我们总是很乐意听到用户对llm-chain的使用体验。

我们希望您在使用llm-chain时,能充分发挥大型语言模型在项目中的潜力。祝您编码愉快!🎉

依赖项

~15–30MB
~474K SLoC