你好,游客 登录 注册 搜索
Ceph集群 的搜索结果
基于CentOS 7.3安装部署jewel版本Ceph集群实战演练
http://www.linuxidc.com/Linux/2017-09/146760.htm日期:2017/9/5 16:52:57
学习Ceph时,看到crush规则的时候,crush策略最小为osd,但是这个osd定义的是真实的osd还是指单块磁盘?为了验证一下,自己用测试机模拟了一下单台机器使用一块磁盘搭建Ceph。
http://www.linuxidc.com/Linux/2017-06/144636.htm日期:2017/6/12 5:55:07
集群状态报错,如下: # ceph -s cluster 1d64ac80-21be-430e-98a8-b4d8aeb18560 health HEALTH_WARN <-- 报错的地方 too many PGs per OSD (912 > max 300) monmap e1: 1 mons at {node1=109.105.115.67:67...
http://www.linuxidc.com/Linux/2017-04/142518.htm日期:2017/4/5 7:55:33
Ceph集群报 Monitor clock skew detected 错误问题排查及解决
http://www.linuxidc.com/Linux/2017-03/141309.htm日期:2017/3/3 15:08:41
Ceph OSDs: A Ceph OSD 进程主要用来存储数据,处理数据的replication,恢复,填充,调整资源组合以及通过检查其他OSD进程的心跳信息提供一些监控信息给Ceph Monitors . 当Ceph Storage Cluster 要准备2份数据备份时,要求至少有2个Ceph OSD进程的状态是active+clean状态 (Ceph 默认会提供两份数据备份).
http://www.linuxidc.com/Linux/2017-02/140728.htm日期:2017/2/17 11:30:53
学习ceph时,看到crush规则的时候,crush策略最小为osd,但是这个osd定义的是真实的osd还是指单块磁盘?为了验证一下,自己在CentOS 7下用测试机模拟了一下单台机器使用一块磁盘搭建ceph。
http://www.linuxidc.com/Linux/2017-02/140629.htm日期:2017/2/15 9:41:40
OpenStack + Ceph集群在使用过程中,由于虚拟机拷入大量新的数据,导致集群的磁盘迅速消耗,没有空余空间,虚拟机无法操作,Ceph集群所有操作都无法执行。
http://www.linuxidc.com/Linux/2015-10/124547.htm日期:2015/10/26 19:58:43
  • 1/2
  • 1
  • 2
  • »