29 个版本 (19 个破坏性更新)

0.21.1 2024 年 7 月 30 日
0.20.0 2024 年 6 月 25 日
0.16.0 2024 年 3 月 7 日
0.14.0 2023 年 12 月 13 日
0.4.0 2022 年 7 月 9 日

#476 in 机器学习

Download history 15/week @ 2024-04-15 30/week @ 2024-04-22 9/week @ 2024-04-29 6/week @ 2024-05-06 163/week @ 2024-05-13 50/week @ 2024-05-20 26/week @ 2024-05-27 9/week @ 2024-06-03 9/week @ 2024-06-10 144/week @ 2024-06-24 14/week @ 2024-07-01 125/week @ 2024-07-08 8/week @ 2024-07-15 228/week @ 2024-07-29

每月 361 次下载
2 crates 中使用

Apache-2.0

340KB
7K SLoC

专家混合

crates.io docs

egobox-moe 提供了混合专家算法的 Rust 实现。它是 SMT Python 库中混合专家的 Rust 版本。

整体架构

egobox-moe 是顶层包 egobox 中的一个库包。

当前状态

egobox-moe 目前实现了由 egobox-gp 提供的高斯过程混合。

  • 聚类 (linfa-clustering/gmm)
  • 硬重组 / 平滑重组
  • 高斯过程模型选择:指定允许的回归和相关性模型

示例

在 examples/ 目录中有一些使用示例。要运行,请使用

$ cargo run --release --example clustering

许可证

根据 Apache 许可证 2.0 版本授权 https://apache.ac.cn/licenses/LICENSE-2.0

依赖项

~15–34MB
~492K SLoC