ceph in docker测试总结

硬件环境

计算与存储

三台物理节点, 每台物理节点配备1TB 磁盘(RPM 7500, SATA2.0)和240GB SSD(SATA3.0)。
logo

磁盘测试

logo

SSD测试

logo

网络

三张万兆网卡,用iperf3测试物理节点间吞吐量
logo

用iperf3测试docker之间的吞吐量,几乎没有损失
logo

测试内容

RBD块设备

1
2
3
4
5
6
7
# 若干有用的命令
modprobe rbd
rbd ls
rbd create --size 10240 test
rbd --image test info
rbd showmapped
rbd map rbd/test --id admin
fio测试

HDD-1
logo

HDD-2
logo

SSD-1
logo

SSD-2
logo

从以上四张测试结果可以看出:

  1. HDD-1与SSD-1的对比可以看出,SSD组建的ceph集群RBD块设备IOPS和吞吐量明显优于HDD组成的集群。
  2. HDD-1与HDD-2的对比可以看出,HDD-1OSD与HDD-2OSD的RBD块设备IOPS和吞吐量差异不大。
  3. SSD-1与SSD-2的对比可以看出,SSD-1OSD与SSD-2OSD的RBD块设备IOPS和吞吐量差异不大。
  4. 虚拟多OSD节点似乎更擅长处理随机写,而不怎么擅长顺序写。考虑到其他随机因素,其实差异不是很大。
filebench

filebench测试RBD的结果
logo

ceph集群的实时IOPS
logo

从以上测试结果可以看出:

  1. HDD-1与SSD-1的对比可以看出,SSD组建的ceph集群RBD块设备明显优于HDD组成的集群。
  2. HDD-1与HDD-2的对比可以看出,HDD-2的实时IOPS波动比HDD-1更明显,但是HDD-1OSD与HDD-2OSD的RBD块设备性能差异不大。
  3. SSD-1与SSD-2的对比可以看出,SSD-2的实时IOPS略优于SSD-1,不过,整体而言,SSD-1OSD与SSD-2OSD的RBD块设备性能差异不是很明显。

cephfs分布式文件系统

1
2
3
4
5
6
7
8
9
10
# 若干有用的命令
mkdir -p /var/lib/ceph/mds/ceph-cephfs
ceph --cluster ceph --name client.admin --keyring /etc/ceph/ceph.client.admin.keyring auth get-or-create mds.cephfs osd 'allow rwx' mds 'allow' mon 'allow profile mds' -o /var/lib/ceph/mds/ceph-cephfs/keyring
ceph osd pool create cephfs_data 128
ceph osd pool create cephfs_metadata 128
ceph fs new cephfs cephfs_metadata cephfs_data
/usr/bin/ceph-mds --cluster ceph -i cephfs &
ceph fs ls
mkdir /home/yankang/cephfs
ceph-fuse -m 192.168.6.66:6789 /home/yankang/cephfs

filebench测试cephfs的结果
logo

ceph集群的实时IOPS
logo

从以上测试结果可以看出:

  1. HDD-1与SSD-1的对比可以看出,SSD组建的ceph集群cephfs分布式文件系统IOPS,吞吐量和IO延迟都明显优于HDD组成的集群。
  2. HDD-1与HDD-2的对比可以看出,HDD-1OSD与HDD-2OSD组建的ceph集群在cephfs分布式文件系统的性能差异不是很明显。
  3. SSD-1与SSD-2的对比可以看出,SSD-2的实时IOPS略差于SSD-1的实时IOPS,但是整体而言,SSD-1OSD与SSD-2OSD组建的ceph集群在cephfs分布式文件系统的性能差异不是很明显。