分布式存储系统之Ceph集群访问接口启用( 二 )

查看集群状态

分布式存储系统之Ceph集群访问接口启用

文章插图
提示:可以看到现在集群有一个rgw进程处于活跃状态;这里需要说明一点,radosgw部署好以后 , 对应它会自动创建自己所需要的存储池,如下所示;
分布式存储系统之Ceph集群访问接口启用

文章插图
提示:默认情况下,它会创建以上4个存储池;这里说一下默认情况下radosgw会监听tcp协议的7480端口 , 以web服务形式提供服务;如果我们需要更改对应监听端口,可以在配置文件/etc/ceph/ceph.conf中配置
[client]rgw_frontends = "civetweb port=8080"提示:该配置操作需要在对应运行rgw的主机上修改配置,然后重启对应进程即可;
重启进程
分布式存储系统之Ceph集群访问接口启用

文章插图
提示:可以看到现在mon01上没有监听7480的端口,而是8080的端口;
用浏览器访问8080端口
分布式存储系统之Ceph集群访问接口启用

文章插图
提示:访问对应主机的8080端口这里给我们返回一个xml的文档的界面;RGW提供的是RESTful接口,客户端通过http与其进行交互 , 完成数据的增删改查等管理操作 。有上述界面说明我们rgw服务部署并运行成功;到此radosgw接口就启用Ok了;
启用文件系统接口(cephfs)
在说文件系统时,我们首先会想到元数据和数据的存放问题;CephFS和rgw一样它也需要依赖一个进程,cephfs依赖mds进程来帮助它来维护文件的元数据信息;MDS是MetaData Server的缩写,主要作用就是处理元数据信息;它和别的元数据服务器不一样,MDS只负责路由元数据信息,它自己并不存储元数据信息;文件的元数据信息是存放在RADOS集群之上;所以我们要使用cephfs需要创建两个存储池,一个用于存放cephfs的元数据一个用于存放文件的数据;那么对于mds来说,它为了能够让用户读取数据更快更高效,通常它会把一些热区数据缓存在自己本地,以便更快的告诉客户端,对应数据存放问位置;由于MDS将元数据信息存放在rados集群之上,使得MDS就变成了无状态,无状态意味着高可用是以冗余的方式;至于怎么高可用,后续要再聊;
1、部署ceph-mds
[cephadm@ceph-admin ceph-cluster]$ ceph-deploy mds create ceph-mon02[ceph_deploy.conf][DEBUG ] found configuration file at: /home/cephadm/.cephdeploy.conf[ceph_deploy.cli][INFO] Invoked (2.0.1): /bin/ceph-deploy mds create ceph-mon02[ceph_deploy.cli][INFO] ceph-deploy options:[ceph_deploy.cli][INFO]username: None[ceph_deploy.cli][INFO]verbose: False[ceph_deploy.cli][INFO]overwrite_conf: False[ceph_deploy.cli][INFO]subcommand: create[ceph_deploy.cli][INFO]quiet: False[ceph_deploy.cli][INFO]cd_conf: <ceph_deploy.conf.cephdeploy.Conf instance at 0x7ff12df9e758>[ceph_deploy.cli][INFO]cluster: ceph[ceph_deploy.cli][INFO]func: <function mds at 0x7ff12e1f7050>[ceph_deploy.cli][INFO]ceph_conf: None[ceph_deploy.cli][INFO]mds: [('ceph-mon02', 'ceph-mon02')][ceph_deploy.cli][INFO]default_release: False[ceph_deploy.mds][DEBUG ] Deploying mds, cluster ceph hosts ceph-mon02:ceph-mon02[ceph-mon02][DEBUG ] connection detected need for sudo[ceph-mon02][DEBUG ] connected to host: ceph-mon02[ceph-mon02][DEBUG ] detect platform information from remote host[ceph-mon02][DEBUG ] detect machine type[ceph_deploy.mds][INFO] Distro info: CentOS Linux 7.9.2009 Core[ceph_deploy.mds][DEBUG ] remote host will use systemd[ceph_deploy.mds][DEBUG ] deploying mds bootstrap to ceph-mon02[ceph-mon02][DEBUG ] write cluster configuration to /etc/ceph/{cluster}.conf[ceph-mon02][WARNIN] mds keyring does not exist yet, creating one[ceph-mon02][DEBUG ] create a keyring file[ceph-mon02][DEBUG ] create path if it doesn't exist[ceph-mon02][INFO] Running command: sudo ceph --cluster ceph --name client.bootstrap-mds --keyring /var/lib/ceph/bootstrap-mds/ceph.keyring auth get-or-create mds.ceph-mon02 osd allow rwx mds allow mon allow profile mds -o /var/lib/ceph/mds/ceph-ceph-mon02/keyring[ceph-mon02][INFO] Running command: sudo systemctl enable ceph-mds@ceph-mon02[ceph-mon02][WARNIN] Created symlink from /etc/systemd/system/ceph-mds.target.wants/ceph-mds@ceph-mon02.service to /usr/lib/systemd/system/ceph-mds@.service.[ceph-mon02][INFO] Running command: sudo systemctl start ceph-mds@ceph-mon02[ceph-mon02][INFO] Running command: sudo systemctl enable ceph.target[cephadm@ceph-admin ceph-cluster]$查看mds状态
[cephadm@ceph-admin ceph-cluster]$ ceph mds stat, 1 up:standby[cephadm@ceph-admin ceph-cluster]$提示:可以看到现在集群有一个mds启动着,并以standby的方式运行;这是因为我们只是部署了ceph-mds进程,对应在rados集群上并没有绑定存储池;所以现在mds还不能正常提供服务;

推荐阅读