4 个版本
使用旧的 Rust 2015
0.0.4 | 2015 年 10 月 8 日 |
---|---|
0.0.3 | 2015 年 10 月 7 日 |
0.0.2 | 2015 年 5 月 7 日 |
0.0.1 | 2015 年 5 月 7 日 |
#5 在 #libhdfs
78KB
1.5K SLoC
hdfs-rs
libhdfs 绑定库和 rust API,它安全地封装了 libhdfs 绑定 API
当前状态
- Alpha 状态(Rust 封装 API 可能会更改)
- libhdfs C API 已全部移植。
- 部分 Rust 封装 API 已实现。
文档
- [API 文档] (http://hyunsik.github.io/hdfs-rs/)
要求
- 使用原生库编译的 Hadoop(例如,maven 配置文件
-Pnative
)
使用
将此添加到您的 Cargo.toml 中
[dependencies]
hdfs = "0.0.4"
并将此添加到您的 crate 根目录
extern crate hdfs;
hdfs-rs 使用 libhdfs,它是 JNI 原生实现。JNI 原生实现需要正确的 CLASSPATH
。源代码根目录中包含的 exec.sh
脚本用于使用正确的 CLASSPATH
运行您的程序。exec.sh
需要 HADOOP_HOME
。因此,您首先设置 HADOOP_HOME
shell 环境变量,如下所示
export HADOOP_HOME=<hadoop install dir>
```
Then, you can execute your program as follows:
```bash
./exec your_program arg1 arg2
```
依赖项
~2MB
~31K SLoC