29 个版本 (19 个破坏性更新)
新 0.21.1 | 2024 年 7 月 30 日 |
---|---|
0.20.0 | 2024 年 6 月 25 日 |
0.16.0 | 2024 年 3 月 7 日 |
0.14.0 | 2023 年 12 月 13 日 |
0.4.0 | 2022 年 7 月 9 日 |
#476 in 机器学习
每月 361 次下载
在 2 crates 中使用
340KB
7K SLoC
专家混合
egobox-moe
提供了混合专家算法的 Rust 实现。它是 SMT Python 库中混合专家的 Rust 版本。
整体架构
egobox-moe
是顶层包 egobox 中的一个库包。
当前状态
egobox-moe
目前实现了由 egobox-gp
提供的高斯过程混合。
- 聚类 (
linfa-clustering/gmm
) - 硬重组 / 平滑重组
- 高斯过程模型选择:指定允许的回归和相关性模型
示例
在 examples/ 目录中有一些使用示例。要运行,请使用
$ cargo run --release --example clustering
许可证
根据 Apache 许可证 2.0 版本授权 https://apache.ac.cn/licenses/LICENSE-2.0
依赖项
~15–34MB
~492K SLoC