数据同步
juicefs sync
是强大的数据同步工具,可以在所有支持的存储之间并发同步或迁移数据,包括对象存储、JuiceFS、本地文件系统,你可以在这三者之间以任意方向和搭配进行数据同步。除此之外,还支持同步通过 SSH 访问远程目录、HDFS、WebDAV 等,同时提供增量同步、模式匹配(类似 rsync)、分布式同步等高级功能。
基本用法
命令格式
juicefs sync [command options] SRC DST
其中:
SRC
代表数据源地址及路径DST
代表目标地址及路径[command options]
代表可选的同步选项,详情查看命令参考。
地址格式均为:
[NAME://][ACCESS_KEY:SECRET_KEY[:TOKEN]@]BUCKET[.ENDPOINT][/PREFIX]
# 特别地,MinIO 目前仅支持路径风格
minio://[ACCESS_KEY:SECRET_KEY[:TOKEN]@]ENDPOINT/BUCKET[/PREFIX]
其中:
NAME
是存储类型,比如s3
、oss
。详情查看所有支持的存储服务ACCESS_KEY
和SECRET_KEY
是对象存储的 API 访问密钥,如果包含了特殊字符,则需要手动转义并替换,比如/
需要被替换为其转义符%2F
TOKEN
用来访问对象存储的 token,部分对象存储支持使用临时的 token 以获得有限时间的权限BUCKET[.ENDPOINT]
是对象存储的访问地址PREFIX
是可选的,限定要同步的目录名前缀。
以下是一个 Amazon S3 对象存储的地址范例:
s3://ABCDEFG:HIJKLMN@myjfs.s3.us-west-1.amazonaws.com
特别地,SRC
和 DST
如果以 /
结尾将被视为目录,例如:movies/
。没有以 /
结尾则 会被视为「前缀」,将按照前缀匹配的规则进行匹配,例如,当前目录下有 test
和 text
两个目录,使用以下命令可以将它们同步到目标路径 ~/mnt/
:
juicefs sync ./te ~/mnt/te
使用这种方式,sync
命令会以 te
前缀匹配当前路径下所有包含该前缀的目录或文件,即 test
和 text
。而目标路径 ~/mnt/te
中的 te
也是前缀,它会替换所有同步过来的目录和文件的前缀,在此示例中是将 te
替换为 te
,即保持前缀不变。如果调整目标路径的前缀,例如将目标前缀改为 ab
:
juicefs sync ./te ~/mnt/ab
目标路径中同步来的 test
目录名会变成 abst
,text
会变成 abxt
。
资源清单
这里假设有以下存储资源:
-
对象存储 A
- Bucket 名:aaa
- Endpoint:
https://aaa.s3.us-west-1.amazonaws.com
-
对象存储 B
- Bucket 名:bbb
- Endpoint:
https://bbb.oss-cn-hangzhou.aliyuncs.com
-
JuiceFS 文件系统
- 元数据存储:
redis://10.10.0.8:6379/1
- 对象存储:
https://ccc-125000.cos.ap-beijing.myqcloud.com
- 元数据存储:
所有存储的访问密钥均为:
- ACCESS_KEY:
ABCDEFG
- SECRET_KEY:
HIJKLMN
对象存储与 JuiceFS 之间同步
将 对象存储 A 的 movies
目录同步到 JuiceFS 文件系统:
# 挂载 JuiceFS
juicefs mount -d redis://10.10.0.8:6379/1 /mnt/jfs
# 执行同步
juicefs sync s3://ABCDEFG:HIJKLMN@aaa.s3.us-west-1.amazonaws.com/movies/ /mnt/jfs/movies/
将 JuiceFS 文件系统 的 images
目录同步到 对象存储 A:
# 挂载 JuiceFS
juicefs mount -d redis://10.10.0.8:6379/1 /mnt/jfs
# 执行同步
juicefs sync /mnt/jfs/images/ s3://ABCDEFG:HIJKLMN@aaa.s3.us-west-1.amazonaws.com/images/
对象存储与对象存储之间同步
juicefs sync s3://ABCDEFG:HIJKLMN@aaa.s3.us-west-1.amazonaws.com oss://ABCDEFG:HIJKLMN@bbb.oss-cn-hangzhou.aliyuncs.com
本地及服务器之间同步
对于本地计算机上的目录之间拷贝文件,直接指定数据源与目标端的路径即可,比如将 /media/
目录同步到 /backup/
目录:
juicefs sync /media/ /backup/
如果需要在服务器之间同步,可以通过 SFTP/SSH 协议访问目标服务器,例如,将本地的 /media/
目录同步到另一台服务器的 /backup/
目录:
juicefs sync /media/ username@192.168.1.100:/backup/
# 指定密码(可选)
juicefs sync /media/ "username:password"@192.168.1.100:/backup/
当使用 SFTP/SSH 协议时,如果没有指定密码,执行 sync 任务时会提示输入密码。如果希望显式指定用户名和密码,则需要用半角引号把用户名和密码括起来,用户名和密码之间用半角冒号分隔。
无挂载点同步 新增自 v1.1
在两个存储系统之间同步数据,如果其中一方是 JuiceFS,推荐直接使用 jfs://
协议头,而不是先挂载 JuiceFS,再访问本地目录。这样便能跳过挂载点,直接读取或写入数据,在大规模场景下,绕过 FUSE 挂载点将能节约资源开销以及提升数据同步性能。
myfs=redis://10.10.0.8:6379/1 juicefs sync s3://ABCDEFG:HIJKLMN@aaa.s3.us-west-1.amazonaws.com/movies/ jfs://myfs/movies/
高级用法
观测
简单来说,用 sync
命令拷贝大文件时,进度条可能会迟迟不更新,如果担心命令未能正常工作,可以用其他手段对传输情况进行观测。
sync
假定了使用场景是拷贝大量文件,因此进度的计算也是针对多个文件设计的:每一个文件完成了拷贝后,进度会更新一次。因此如果面对的都是大文件,单个文件的拷贝速度太慢,进度条就会变化缓慢,或者呈现卡死的状态。如果目的地端协议不支持 multipart upload(比如 file
、sftp
、jfs
、gluster
协议头),单个文件会单线程进行复制,无法对大文件进行并发上传。可想而知,大文件 + 不支持 multipart upload,将会更容易出现进度条卡死的情况。
如果你观察到进度不再变化,参考下列手段进行观测和排查:
- 如果数据同步的两方有任何一个是 JuiceFS 宿主机挂载点,可以用
juicefs stats
快速查看文件系统是否正在写入(或读出)。 - 如果数据同步的目的地是宿主机本地盘,可以直接观察目录下是否存在名称中带
.tmp.xxx
后缀的临时文件,sync
过程中会将传输结果写入临时文件,待传输完成后进行重命名,才完成最终的写入。观察临时文件大小是否变化,就能确定当前的写入状况。 - 如果传输目的地均为对象存储,可以通过类似
nethogs
的命令,查看出入网流量,来判断传输进展。
增量同步与全量同步
juicefs sync
默认以增量同步方式工作,对于已存在的文件,仅在文件大小不一样时,才再次同步进行覆盖。在此基础上,还可以指定 --update
,在源文件 mtime
更新时进行覆盖。如果你的场景对正确性有着极致要求,可以指定 --check-new
或 --check-all
,来对两边的文件进行字节流比对,确保数据一致。
如需全量同步,即不论目标路径上是否存在相同的文件都重新同步,可以使用 --force-update
或 -f
。例如,将 对象存储 A 的 movies
目录全量同步到 JuiceFS 文件系统:
# 挂载 JuiceFS
juicefs mount -d redis://10.10.0.8:6379/1 /mnt/jfs
# 执行全量同步
juicefs sync --force-update s3://ABCDEFG:HIJKLMN@aaa.s3.us-west-1.amazonaws.com/movies/ /mnt/jfs/movies/
过滤
你可以通过选项 --exclude
和 --include
来提供多个匹配模式来过滤将要同步的路径,--exclude
选项表示不同步匹配的路径,--include
选项表示同步匹配的路径。当不提供任何规则时,默认会同步所有扫描到的文件。当有多个匹配模式时,将会根据你使用的「过滤模式」,按照提供的匹配模式的顺序进行匹配尝试,最终决定是否要同步某个文件。
当提供多个匹配模式时,取决于你具体使用的「过滤模式」,对于判断是否要同步某个文件可能会变得很困难。此时建议加上 --dry
选项提前查看要同步的具体文件是否符合预期,如果不符合预期则需要调整匹配模式。
匹配规则
匹配规则指的是给定一个路径与一个模式,然后确定该路径能否匹配上该模式。模式可以包含一些特殊字符(类似 shell 通配符):
- 单个
*
匹配任意字符,但在遇到/
时终止匹配; **
匹配任意字符,包括/
;?
匹配任意非/
的单个字符;[...]
匹配一组字符,例如[a-z]
匹配任意小写字母;[^...]
不匹配一组字符,例如[^abc]
匹配除a
、b
、c
外的任意字符。
此外,还有一些匹配规则需要注意:
- 如果匹配模式中不包含特殊字符,将会完整匹配路径中的文件名。比如
foo
可以匹配foo
和xx/foo
, 但不匹配foo1
(无法前缀匹配)、2foo
(无法后缀匹配)和foo/xx
(foo
不是目录); - 如果匹配模式以
/
结尾,将只匹配目录,而不匹配普通文件; - 如果匹配模式以
/
开头,则表示匹配完整路径(路径不需要以/
开头),因此/foo
匹配的是传输中根目录的foo
文件。
以下是一些匹配模式的例子:
--exclude '*.o'
将排除所有文件名能匹配*.o
的文件;--exclude '/foo/*/bar'
将排除根目录中名为foo
的目录向下「两层」的目录中名为bar
的文件;--exclude '/foo/**/bar'
将排除根目录中名为foo
的目录向下「任意层级」的目录中名为bar
的文件。
过滤模式
过滤模式是指如何根据多个匹配规则来决定是否同步某个路径。sync
命令支持「完整路径过滤」和「逐层过滤」两种模式。默认情况下,sync
命令使用逐层过滤模式,可以通过 --match-full-path
选项来使用完整路径过滤模式。由于完整路径过滤模式的工作流程更容易理解,因此推荐优先使用完整路径过滤模式。
完整路径过滤模式(推荐) 新增自 v1.2.0
完整路 径过滤模式是指对于待匹配的对象,直接将其「全路径」与多个模式依次进行匹配,一旦某个匹配模式匹配成功将会直接返回结果(「同步」或者「排除」),忽略后续的匹配模式。
下面是完整路径过滤模式的工作流程图:
例如有一个路径为 a1/b1/c1.txt
的文件,以及 3 个匹配模式 --include 'a*.txt' --inlude 'c1.txt' --exclude 'c*.txt'
。在完整路径过滤模式下,会直接将 a1/b1/c1.txt
这个字符串与匹配模式依次进行匹配。具体步骤为:
- 尝试将
a1/b1/c1.txt
与--include 'a*.txt'
匹配,结果是不匹配。因为*
不能匹配/
字符,参见「匹配规则」; - 尝试将
a1/b1/c1.txt
与--inlude 'c1.txt'
匹配,此时根据匹配规则将会匹配成功。后续的--exclude 'c*.txt'
虽然根据匹配规则也能匹配上,但是根据完整路径过滤模式的逻辑,一旦匹配上某个模式,后续的模式将不再尝试匹配。所以最终的匹配结果是「同步」。
以下是更多示例:
--exclude '/foo**'
将排除所有根目录名为foo
的文件或目录;--exclude '**foo/**'
将排除所有以foo
结尾的目录;--include '*/' --include '*.c' --exclude '*'
将只包含所有目录和后缀名为.c
的文件,除此之外的所有文件和目录都会被排除;--include 'foo/bar.c' --exclude '*'
将只包含foo
目录和foo/bar.c
文件。
逐层过滤模式
逐层过滤模式的核心是先将完整路径按照目录层级拆分,并逐层组合成多个字符串序列。比如完整路径为 a1/b1/c1.txt
,组成的序列就是 a1
、a1/b1
、a1/b1/c1.txt
。然后将这个序列中的每个元素都当成完整路径过滤模式中的路径,依次执行「完整路径过滤」。
如果某个元素匹配上了某个模式,则会有两种处理逻辑:
- 如果该模式是 exclude 模式,则直接返回「排除」行为,作为最终的匹配结果;
- 如果该模式是 include 模式,则跳过本层级的后续待匹配的模式,直接进入下一层级。
如果某层的所有模式都未匹配,则进入下一层级。如果所有层级匹配完毕后都没有返回「排除」,则返回默认的行为——即「同步」。
下面是逐层过滤模式的工作流程图:
例如有一个路径为 a1/b1/c1.txt
的文件,以及 3 个匹配模式 --include 'a*.txt' --inlude 'c1.txt' --exclude 'c*.txt'
。在逐层过滤模式中,组成的序列就是 a1
、a1/b1
、a1/b1/c1.txt
。具体匹配步骤为:
- 第一层级的路 径为
a1
,根据匹配模式,结果是全部未匹配。进入下一层级; - 第二层级的路径为
a1/b1
,根据匹配模式,结果是全部未匹配。进入下一层级; - 第三层级的路径为
a1/b1/c1.txt
,根据匹配模式,将会匹配上--inlude 'c1.txt'
模式。该模式的行为是「同步」,进入下一层级; - 由于没有下一层级了,所以最终返回的行为是「同步」。
上面的例子是到最后一层才匹配成功,除此之外可能还有两种情况:
- 在最后一层之前匹配成功,且匹配模式是 exclude 模式,则直接返回「排除」行为作为最终结果,跳过后续的所有层级;
- 所有层级都已经匹配完毕,但都未匹配上,此时也将会返回「同步」行为。
一句话讲,逐层过滤模式就是按路径层级由高到低依次执行完整路径过滤,每层过滤只有两种结果:要么直接得到「排除」作为最终结果,要么进入下一层级。得到「同步」结果的唯一方式就是执行完所有过滤层级。
以下是更多示例:
-
--exclude /foo
将排除所有根目录名为foo
的文件或目录; -
--exclude foo/
将排除所有名为foo
的目录; -
对于
dir_name/.../.../...
这种多级目录来说,将按照目录层级匹配dir_name
下的所有路径。如果某个文件的父目录被「排除」了,那即使加上了这个文件的 include 规则,也不会同步这个文件。如果想要同步这个文件就必须保证它的「所有父目录」都不要被排除。例如,下面的例子中/some/path/this-file-will-not-be-synced
文件将不会被同步,因为它的父目录some
已经被规则--exclude '*'
所排除:--include '/some/path/this-file-will-not-be-synced' \
--exclude '*'一种解决方式是包含目录层级中的所有目录,也就是使用
--include '*/'
规则(需放在--exclude '*'
规则的前面);另一种解决方式是为所有父目录增加 include 规则,例如:--include '/some/' \
--include '/some/path/' \
--include '/some/path/this-file-will-be-synced' \
--exclude '*'
逐层过滤模式的行为无论是理解还是使用都较为复杂,但是基本兼容 rsync 的 --include/--exclude
选项,所以一般推荐在需要兼容 rsync 行为的场景下使用。
目录结构与文件权限
默认情况下,sync 命令只同步文件对象以及包含文件对象的目录,空目录不会被同步。如需同步空目录,可以使用 --dirs
选项。
另外,在 local、SFTP、HDFS 等文件系统之间同步时,如需保持文件权限,可以使用 --perms
选项。
拷贝符号链接
JuiceFS sync
在本地目录之间同步时,支持通过设置 --links
选项开启遇到符号链时同步其自身而不是其指向的对象的功能。同步后的符号链接指向的路径为源符号链接中存储的原始路径,无论该路径在同步前后是否可达都不会被转换。
另外需要注意的几个细节
- 符号链接自身的
mtime
不会被拷贝; --check-new
和--perms
选项的行为在遇到符号链接时会被忽略。
并发同步
juicefs sync
默认启用 10 个线程执行同步任务,可以根据需要设置 --threads
选项调大或减少线程数。但也要注意,受限于各种因素,一味增加 --threads
未必能持续提升同步速度,你还需要考虑:
SRC
和DST
的存储系统是否已经达到了带宽上限,如果其中一个对象存储已经到达带宽限制,同步的瓶颈就在这里,继续增加并发度也不会继续提升同步速度;- 单机资源是否吃紧,比如 CPU、网卡拥堵。如果同步受限于单机资源,考虑使用分布式同步,在下方小节继续介绍;
- 如果同步的数据以小文件为主,并且
SRC
的存储系统的list
API 性能极佳,那么juicefs sync
默认的单线程list
可能会成为瓶颈。此时考虑启用并发list
操作,在下方小节继续介绍。
并发 list
在 juicefs sync
命令的输出中,关注 Pending objects
的数量,如果该值持续为 0,说明消费速度大于生产,可以增大 --list-threads
来启用并发 list
,以及用 --list-depth
来控制并发 list
的目录深度。
比方说,如果你面对的是 JuiceFS 所使用的对象存储服务,那么目录结构为 /<vol-name>/chunks/xxx/xxx/...
,对于这样的目录结构,使用 --list-depth=2
来实现对于 /<vol-name>/chunks
的并发列表操作,是比较合适的选择。
分布式同步
在两个对象存储之间同步数据,就是从一端拉取数据再推送到另一端,同步的效率取决于客户端与云之间的带宽:
在同步大量数据时,单机带宽往往会被占满出现瓶颈,针对这种情况,JuiceFS Sync 提供多机并发同步支持,如下图。
Manager 作为主控执行 sync
命令,通过 --worker
参数定义多个 Worker 主机,JuiceFS 会根据 Worker 的总数量,动态拆分同步的工作量并分发给各个主机同时执行。即把原本在一台主机上处理的同步任务量拆分成多份,分发到多台主机上同时处理,单位时间内能处理的数据量更大,总带宽也成倍增加。
在配置多机并发同步任务时,需要提前配置好 Manager 节点到 Worker 节点的 SSH 免密登录,如果 Worker 节点的 SSH 端口不是默认的 22,请在 Manager 节点的 ~/.ssh/config
设置其端口号。Manager 会将 JuiceFS 客户端程序分发到 Worker 节点,为避免兼容性问题,Manager 和 Worker 应使用相同类型和架构的操作系统。
例如,将 对象存储 A 同步到 对象存储 B,采用多主机并行同步:
juicefs sync --worker bob@192.168.1.20,tom@192.168.8.10 s3://ABCDEFG:HIJKLMN@aaa.s3.us-west-1.amazonaws.com oss://ABCDEFG:HIJKLMN@bbb.oss-cn-hangzhou.aliyuncs.com
当前主机与两个 Worker 主机 bob@192.168.1.20
和 tom@192.168.8.10
将共同分担两个对象存储之间的数据同步任务。
场景应用
数据异地容灾备份
异地容灾备份针对的是文件本身,因此应将 JuiceFS 中存储的文件同步到其他的对象存储 ,例如,将 JuiceFS 文件系统 中的文件同步到 对象存储 A:
# 挂载 JuiceFS
juicefs mount -d redis://10.10.0.8:6379/1 /mnt/jfs
# 执行同步
juicefs sync /mnt/jfs/ s3://ABCDEFG:HIJKLMN@aaa.s3.us-west-1.amazonaws.com/
同步以后,在 对象存储 A 中可以直接看到所有的文件。
建立 JuiceFS 数据副本
与面向文件本身的容灾备份不同,建立 JuiceFS 数据副本的目的是为 JuiceFS 的数据存储建立一个内容和结构完全相同的镜像,当使用中的对象存储发生了故障,可以通过修改配置切换到数据副本继续工作。需要注意这里仅复制了 JuiceFS 文件系统的数据,并没有复制元数据,元数据引擎的数据备份依然需要。
这需要直接操作 JuiceFS 底层的对象存储,将它与目标对象存储之间进行同步。例如,要把 对象存储 B 作为 JuiceFS 文件系统 的数据副本:
juicefs sync cos://ABCDEFG:HIJKLMN@ccc-125000.cos.ap-beijing.myqcloud.com oss://ABCDEFG:HIJKLMN@bbb.oss-cn-hangzhou.aliyuncs.com
同步以后,在 对象存储 B 中看到的与 JuiceFS 使用的对象存储 中的内容和结构完全一样。
使用 S3 网关进行跨区域数据同步
通过 POSIX 方式访问 JuiceFS 时,会有频繁的元数据访问,跨区域访问元数据的延迟比较高会影响访问性能。如果需要跨区域传输大量小文件,这时元数据服务延迟高对性能影响更严重。
在这种情况下,可以通过跨区访问部署在源区域的 S3 网关来提升性能,它可以大幅减少跨区域访问的请求数。
阅读「S3 网关」学习如何使用和部署 S3 网关。