转载自:https://github.com/blueboay/ceph-study
启用Dashboard面板
默认新版本Ceph集群已集成一个Dashboard,并作为一个模块在manager组件里面,只需要启动这个模块,配置其监听的地址与端口,最后创建一个用户即可登录。
转载自:https://github.com/blueboay/ceph-study
默认新版本Ceph集群已集成一个Dashboard,并作为一个模块在manager组件里面,只需要启动这个模块,配置其监听的地址与端口,最后创建一个用户即可登录。
转载自:https://github.com/blueboay/ceph-study
关于RBD存储池的创建参考《Ceph集群部署之创建RBD接口》章节
关于用户授权参考《Ceph认证与授权》此文章 此案例授权信息如下。
转载自:https://github.com/blueboay/ceph-study
RadosGW通常作为对象存储(Object Storage)使用,类型于阿里云OSS。对象存储通常数据于同一平面,一般用于云计算环境中。每一条数据都作为单独的对象存储,拥有唯一的地址来识别数据对象,专为使用在API应用级别进行访问而设计。另外对象存储中的对象通常不需要再修改,如果需要修改只能下载下来修改再重新上传,无法直接修改。 一般来说,一个对象存储的核心资源有用户(User)、存储桶(Bucket)和对象(Object)。三者的关系是对用户将对象存储到存储系统上的存储桶,存储桶属于某个用户并可以容纳对象,一个用户可以拥有多个存储桶,而一个存储桶用于存储多个对象。大多数对象存储的核心资源类型大同小异,如亚马逊S3、OpenStack Swift与RadosGW。这其中S3与Swift互不兼容,而RadosGW兼容S3与Swift。 RadosGW为了兼容S3与Swift,Ceph在RadosGW集群的基础上提供了RGW(RadosGateWay)数据抽象层和管理层,它可以原生兼容S3和Swift的API。S3和Swift它们可基于http或https完成数据交换,由RadosGW内建的Civeweb提供服务。它还可以支持主流的Web服务器程序以代理的形式接收用户请求,再转发至RadosGW进程,这些代理服务器包括nginx、haproxy等。 RGW的功能依赖于对象网关守护进程实现,负责向客户端提供REST API接口。出于冗余负载均衡的需求,一个Ceph集群上通常不止一个RadosGW守护进程。在云计算机环境中还会在多个Ceph集群中定义出多个Zone,这些Zone之间通过同步实现冗余功能,在本地环境中通常不需要Zone。
转载自:https://github.com/blueboay/ceph-study
CephFS作为Ceph集群最早原生支持的客户端,但成熟的最晚,而最成熟的还是RBD。要想在集中中可以使用CephFS客户端,需要创建至少一个metadata Pool,该Pool用来管理元数据信息,并向客户端输出 一个倒置树状的层级结构,这里面存放了真实数据的对应关系,相当于一个索引。而还需要创建至少1个Data Pool用来存储真正的数据。
转载自:https://github.com/blueboay/ceph-study
RBD全称为RADOS Block Device,是一种构建在RADOS集群之上为客户端提供块设备接口的存储服务中间层。这类的客户端包括虚拟机KVM和云计算操作系统OpenStack、CloudStack等。 RBD为条带化,支持存储空间的动态扩容等特性,并可以借助RADOS实现快照,副本和一致性。 客户端访问RBD有两种方式。
转载自:https://github.com/blueboay/ceph-study
Ceph使用cephx协议对客户端进行身份验证,集群中每一个Monitor节点都可以对客户端进行身份验证,所以不存在单点故障。cephx仅用于Ceph集群中的各组件,而不能用于非Ceph组件。它并不解决数据传输加密问题,但也可以提高访问控制安全性问题。
转载自:https://github.com/blueboay/ceph-study
存储池(Pool)通常情况下可以为特定的应用程序或者不同类型的数据需求创建专用的存储池,如rdb存储池,rgw存储池,个人专用存储池,某部门专用存储池等。 客户端在连接到Ceph集群的时候必须指定一个存储池的名称,并完成用户名和密钥的认证方可连接至指定的存储池。
转载自:https://github.com/blueboay/ceph-study
以下为测试环境部署案例,如果是生产环境推荐osd所在服务器是物理机,根据情况配置不同的硬盘。其它的节点可以是虚拟机,但必须是高可用,如monitor和manager。管理节点administrator必须单独在一台机器,防止集群出现问题时无法进行管理。
转载自:https://github.com/blueboay/ceph-study
Ceph是一个可靠、自动均衡、自动恢复的分布式存储系统,通常可用于对象存储,块设备存储和文件系统存储。 Ceph在存储的时候充分利用存储节点的计算能力,在存储每一个数据时都会通过计算得出该数据的位置,尽量的分布均衡。