[root@ceph-admin ~]# rbd map --user test ceph-rbdpool/vol01/dev/rbd0[root@ceph-admin ~]# mount /dev/rbd0 /mnt[root@ceph-admin ~]# cd /mnt[root@ceph-admin mnt]# lstest.txt[root@ceph-admin mnt]#cat test.txthello ceph[root@ceph-admin mnt]#提示:可以看到现在再次挂载上磁盘,被删除的数据就被找回来了;
限制快照数量
命令格式:rbd snap limit set [--pool <pool>] [--image <image>] [--limit <limit>]
解除限制:rbd snap limit clear [--pool <pool>] [--image <image>]
[root@ceph-admin ~]# rbd snap limit set ceph-rbdpool/vol01 --limit 3[root@ceph-admin ~]# rbd snap limit set ceph-rbdpool/vol01 --limit 5[root@ceph-admin ~]# rbd snap limit clear ceph-rbdpool/vol01[root@ceph-admin ~]#提示:修改限制直接重新设置新的限制即可;
删除快照
命令格式:rbd snap rm [--pool <pool>] [--image <image>] [--snap <snap>] [--no-progress] [--force]
[root@ceph-admin ~]# rbd snap list ceph-rbdpool/vol01SNAPID NAMESIZE TIMESTAMP4 vol01-snap 5 GiB Tue Oct4 23:26:09 2022[root@ceph-admin ~]# rbd snap rm ceph-rbdpool/vol01@vol01-snapRemoving snap: 100% complete...done.[root@ceph-admin ~]# rbd snap list ceph-rbdpool/vol01[root@ceph-admin ~]#提示:Ceph OSD会以异步方式删除数据,因此删除快照并不能立即释放磁盘空间;
清理快照:删除一个image的所有快照 , 可以使用rbd snap purge命令,格式如下
命令格式: rbd snap purge [--pool <pool>] --image <image> [--no-progress]
[root@ceph-admin ~]# rbd snap create ceph-rbdpool/vol01@vol01-snap[root@ceph-admin ~]# rbd snap create ceph-rbdpool/vol01@vol01-snap2[root@ceph-admin ~]# rbd snap create ceph-rbdpool/vol01@vol01-snap3[root@ceph-admin ~]# rbd snap list ceph-rbdpool/vol01SNAPID NAMESIZE TIMESTAMP6 vol01-snap5 GiB Tue Oct4 23:43:22 20227 vol01-snap2 5 GiB Tue Oct4 23:43:30 20228 vol01-snap3 5 GiB Tue Oct4 23:43:32 2022[root@ceph-admin ~]# rbd snap purge ceph-rbdpool/vol01Removing all snapshots: 100% complete...done.[root@ceph-admin ~]# rbd snap list ceph-rbdpool/vol01[root@ceph-admin ~]#快照分层
Ceph支持在一个块设备快照的基础上创建一到多个COW或COR(Copy-On-Read)类型的克?。?这种中间快照层(snapshot layering)机制提了一种极速创建image的方式;用户可以创建一个基础image并为其创建一个只读快照层,而后可以在此快照层上创建任意个克隆进行读写操作,甚至能够进行多级克?。焕?nbsp;, 实践中可以为Qemu虚拟机创建一个image并安装好基础操作系统环境作为模板 , 对其创建创建快照层后,便可按需创建任意多个克隆作为image提供给多个不同的VM(虚拟机)使用,或者每创建一个克隆后进行按需修改,而后对其再次创建下游的克?。煌ü寺∩傻膇mage在其功能上与直接创建的image几乎完全相同,它同样支持读、写、克隆、空间扩缩容等功能,惟一的不同之处是克隆引用了一个只读的上游快照 , 而且此快照必须要置于“保护”模式之下;COW是为默认的类型,仅在数据首次写入时才需要将它复制到克隆的image中;COR则是在数据首次被读取时复制到当前克隆中,随后的读写操作都将直接基于此克隆中的对象进行;有点类似虚拟机的链接克隆和完全克?。?
文章插图
在RBD上使用分层克隆的方法非常简单:创建一个image,对image创建一个快照并将其置入保护模式,而克隆此快照即可;创建克隆的image时,需要指定引用的存储池、镜像和镜像快照,以及克隆的目标image的存储池和镜像名称,因此,克隆镜像支持跨存储池进行;
【分布式存储系统之Ceph集群RBD基础使用】快照保护命令格式:rbd snap protect [--pool <pool>] --image <image> --snap <snap>
[root@ceph-admin ~]# rbd snap create ceph-rbdpool/vol01@vol01-snap3[root@ceph-admin ~]# rbd snap list ceph-rbdpool/vol01SNAPID NAMESIZE TIMESTAMP12 vol01-snap3 5 GiB Tue Oct4 23:49:25 2022[root@ceph-admin ~]# rbd snap protect ceph-rbdpool/vol01@vol01-snap3[root@ceph-admin ~]#克隆快照
命令格式:rbd clone [--pool <pool>] --image <image> --snap <snap> --dest-pool <dest-pool> [--dest <dest> 或者rbd clone [<pool-name>/]<image-name>@<snapshot-name> [<pool-name>/]<image-name>
[root@ceph-admin ~]# rbd clone ceph-rbdpool/vol01@vol01-snap3 ceph-rbdpool/image1[root@ceph-admin ~]# rbd ls ceph-rbdpoolimage1vol01[root@ceph-admin ~]# rbd ls ceph-rbdpool -lNAMESIZE PARENTFMT PROT LOCKimage15 GiB ceph-rbdpool/vol01@vol01-snap32vol015 GiB2vol01@vol01-snap3 5 GiB2 yes[root@ceph-admin ~]#提示:克隆快照 , 最终生成的是对应存储池里的image;所以我们需要指定对应目标的存储池和image名称;这里需要注意克隆快照 , 前提是快照需做保护,否则不予被克?。?
推荐阅读
- 荣耀magic3支持鸿蒙系统吗_荣耀magic3能升级鸿蒙吗
- 手机怎么自己刷机,恢复系统(手机可以自己刷机吗)
- 电脑刷机怎么操作(电脑刷机重装系统)
- docker搭建yapi接口文档系统、Idea中上传接口、在线调用
- 分布式存储系统之Ceph集群CephX认证和授权
- 分布式存储系统之Ceph集群存储池操作
- 阴阳师剧情收录系统有什么功能
- 分布式存储系统之Ceph集群存储池、PG 与 CRUSH
- 苹果ios14.7新功能_苹果ios14.7系统怎么样
- centos7系统资源限制整理