-
精炼
使用Rust! 精炼您的文件集合!
-
dupe-krill
一个快速的文件去重器。用硬链接替换具有相同内容的重复文件。
-
reflicate
通过在相同的文件之间创建reflinks来去重数据
-
deduplicate
缓存、异步、请求去重
-
seqdupes
压缩序列重复项
-
backdown
一个智能CLI,用于从您的磁盘上删除数千个重复项
-
pre-commit-sort
对预提交文件进行排序
-
backup-deduplicator
去重备份。在目标目录中构建所有文件和文件夹的哈希树。可选地遍历存档,如zip或tar文件。然后使用哈希树找到重复的文件和文件夹。
-
hld
硬链接去重器
-
huniq
在命令行上过滤掉重复项。用
sort
命令优化,比10x更快。 -
cargo-deduplicate-warnings
在cargo json输出中显示去重警告消息
-
去重
高效存储数据
-
fclones-gui
交互式重复文件删除工具
-
dsc
用于在单个或多个文件系统上查找和删除重复文件,同时尊重您的.gitignore规则的命令行工具
-
libasuran
去重、加密、快速且可防篡改的存档格式
-
sosorted
一套高效操作有序数组的方法
-
woopdedupe
积极去重目录中的文件
-
archival-dedupe
在UNIX文件系统上去重只读文件
-
filedupes
去重文件集
-
dupfind
重复文件查找器,用于识别和删除重复文件
-
kickputt
一个命令行实用程序,用于组织和去重大型照片存储在常规目录中
-
dedup-it
一个命令行应用程序,用于去重文件中的行
尝试使用DuckDuckGo搜索。[搜索]