ceph rbd块存储挂载及文件存储建立
liebian365 2024-11-09 13:44 24 浏览 0 评论
ceph rbd块存储挂载及文件存储建立
一、rbd块存储挂载
1 创建一个OSD pool
# ceph osd pool create rbd1 128 |
查询存储空间使用
# ceph df GLOBAL: SIZE AVAIL RAW USED %RAW USED 480GiB 474GiB 6.12GiB 1.28 POOLS: NAME ID USED %USED MAX AVAIL OBJECTS volumes 1 134B 0 150GiB 5 vms 2 0B 0 150GiB 0 images 3 0B 0 150GiB 0 rbd1 4 14.3MiB 0 150GiB 19 rbd 5 0B 0 150GiB 0 |
2 创建一个名为ceph-client1-rbd1、大小为1024
rbd create ceph-client1-rbd1 --size 1024 -p rdb1 |
要列出RBD镜像,输入下列的命令
# rbd -p rbd1 ls ceph-client1-rbd1 ceph-client1-rbd2 |
检看一个RBD镜像的详细信息
# rbd --image ceph-client1-rbd1 info rbd: error opening image ceph-client1-rbd1: (2) No such file or directory # rbd --image ceph-client1-rbd1 -p rbd1 info rbd image 'ceph-client1-rbd1': size 1GiB in 256 objects order 22 (4MiB objects) block_name_prefix: rbd_data.5b5756b8b4567 format: 2 features: layering, exclusive-lock, object-map, fast-diff, deep-flatten flags: create_timestamp: Tue Oct 1 12:03:52 2019 |
3 客户端查看linux版本
[root@centos7 mnt]# uname -r 3.10.0-862.el7.x86_64 [root@centos7 mnt]# modprobe rbd [root@centos7 mnt]# |
4 客户端安装ceph-common
# yum install –y ceph-common |
5 客户端挂载rbd硬盘并使用
6客户端查看挂载情况
[root@centos7 mnt]# rbd showmapped id pool image snap device 0 rbd1 ceph-client1-rbd2 - /dev/rbd0 |
协助ceph块存储
rbd unmap /dev/rbd0 |
二、文件存储建立
1 检查客户端的linux内核版本:
[root@centos7 ceph]# uname -r 3.10.0-862.el7.x86_64 |
2 客户端创建挂载点目录:
[root@centos7 ceph]#mkdir /cephfs |
跟使用块存储服务一样,客户端需要从服务器端拷贝以下2个文件到/etc/ceph/
[root@centos7 ceph]# ls ceph.client.admin.keyring ceph.conf |
3 服务器端及客户端,修改管理员密钥(生产环境需要创建普通账号并给予权限,这里例子暂时以管理员账号测试)
vi /etc/ceph/ceph.client.admin.keyring [client.admin] key = AQC6mmJdfBzyHhAAE1GazlHqH2uD35vpL6Do1w== auid = 0 caps mds = "allow" caps mon = "allow *" caps osd = "allow *" |
4 在服务器端创建cephfs OSD pool,保护数据及元数据2个pool
[root@ceph1 ceph]#ceph osd pool create cephfs_metadata 32 [root@ceph1 ceph]#ceph osd pool create cephfs_metadata 16 |
服务器端启动cephfs
[root@ceph1 ceph]#ceph fs new leadorfs cephfs_metadata cephfs |
验证数据生成
[root@ceph1 ceph]# ceph mds stat leadorfs-1/1/1 up {0=ceph1=up:active} |
5 客户端挂载文件存储(目标地址可以输入集群mon多个地址)
[root@ceph1 ceph]# mount -t ceph 172.16.3.61:6789:/ /cephfs -o name=admin,secret=AQC6mmJdfBzyHhAAE1GazlHqH2uD35vpL6Do1w== |
6 客户端检查挂载情况
[root@centos7 ceph]# df -h 文件系统 容量 已用 可用 已用% 挂载点 /dev/mapper/centos-root 17G 1.2G 16G 7% / devtmpfs 1.9G 0 1.9G 0% /dev tmpfs 1.9G 0 1.9G 0% /dev/shm tmpfs 1.9G 12M 1.9G 1% /run tmpfs 1.9G 0 1.9G 0% /sys/fs/cgroup /dev/sda1 1014M 142M 873M 14% /boot tmpfs 378M 0 378M 0% /run/user/0 172.16.3.61:6789:/ 150G 0 150G 0% /cephfs |
7 客户端在/cephfs创建文件
[root@centos7 ceph]# cd /cephfs/ [root@centos7 cephfs]# echo "Utopa 2019" > Utopa.txt [root@centos7 cephfs]# ls Utopa.txt |
检查服务器端使用情况
[root@ceph1 ceph]# ceph df GLOBAL: SIZE AVAIL RAW USED %RAW USED 480GiB 474GiB 6.12GiB 1.28 POOLS: NAME ID USED %USED MAX AVAIL OBJECTS volumes 1 134B 0 150GiB 5 vms 2 0B 0 150GiB 0 images 3 0B 0 150GiB 0 rbd1 4 14.3MiB 0 150GiB 19 rbd 5 0B 0 150GiB 0 cephfs 6 11B 0 150GiB 1 cephfs_metadata 7 5.73KiB 0 150GiB 21 |
三、rdb map出錯rbd sysfs write failed
創建了一個rbd鏡像1
然後,在Ceph client端將該rbd鏡像映射為本地設備時出錯。
- $ rbd map docker_test --name client.admin
- rbd: sysfs write failed
- RBD image feature set mismatch. You can disable features unsupported by the kernel with "rbd feature disable".
- In some cases useful info is found in syslog - try "dmesg | tail" or so.
原因:
rbd鏡像的一些特性,OS kernel並不支持,所以映射失敗。我們查看下該鏡像支持了哪些特性。可以看到特性feature一欄,由於我OS的kernel只支持layering,其他都不支持,所以需要把部分不支持的特性disable掉。
方法一:
直接diable這個rbd鏡像的不支持的特性:
$ rbd feature disable docker_test exclusive-lock object-map fast-diff deep-flatten
方法二:
創建rbd鏡像時就指明需要的特性,如:
$ rbd create --size 4096 docker_test --image-feature layering
方法三:
如果還想一勞永逸,那麽就在執行創建rbd鏡像命令的服務器中,修改Ceph配置文件/etc/ceph/ceph.conf,在global section下,增加
rbd_default_features = 1
再創建rdb鏡像。
$ rbd create --size 4096 docker_test
通過上述三種方法後,查看rbd鏡像的信息。
- $ rbd info docker_test
- rbd image 'docker_test':
- size 4096 MB in 1024 objects
- order 22 (4096 kB objects)
- block_name_prefix: rbd_data.43a22ae8944a
- format: 2
- features: layering
- flags:
次嘗試映射rdb鏡像到本地塊設備,成功!
- $ rbd map docker_test --name client.admin
- /dev/rbd0
相关推荐
- 4万多吨豪华游轮遇险 竟是因为这个原因……
-
(观察者网讯)4.7万吨豪华游轮搁浅,竟是因为油量太低?据观察者网此前报道,挪威游轮“维京天空”号上周六(23日)在挪威近海发生引擎故障搁浅。船上载有1300多人,其中28人受伤住院。经过数天的调...
- “菜鸟黑客”必用兵器之“渗透测试篇二”
-
"菜鸟黑客"必用兵器之"渗透测试篇二"上篇文章主要针对伙伴们对"渗透测试"应该如何学习?"渗透测试"的基本流程?本篇文章继续上次的分享,接着介绍一下黑客们常用的渗透测试工具有哪些?以及用实验环境让大家...
- 科幻春晚丨《震动羽翼说“Hello”》两万年星间飞行,探测器对地球的最终告白
-
作者|藤井太洋译者|祝力新【编者按】2021年科幻春晚的最后一篇小说,来自大家喜爱的日本科幻作家藤井太洋。小说将视角放在一颗太空探测器上,延续了他一贯的浪漫风格。...
- 麦子陪你做作业(二):KEGG通路数据库的正确打开姿势
-
作者:麦子KEGG是通路数据库中最庞大的,涵盖基因组网络信息,主要注释基因的功能和调控关系。当我们选到了合适的候选分子,单变量研究也已做完,接着研究机制的时便可使用到它。你需要了解你的分子目前已有哪些...
- 知存科技王绍迪:突破存储墙瓶颈,详解存算一体架构优势
-
智东西(公众号:zhidxcom)编辑|韦世玮智东西6月5日消息,近日,在落幕不久的GTIC2021嵌入式AI创新峰会上,知存科技CEO王绍迪博士以《存算一体AI芯片:AIoT设备的算力新选择》...
- 每日新闻播报(September 14)_每日新闻播报英文
-
AnOscarstatuestandscoveredwithplasticduringpreparationsleadinguptothe87thAcademyAward...
- 香港新巴城巴开放实时到站数据 供科技界研发使用
-
中新网3月22日电据香港《明报》报道,香港特区政府致力推动智慧城市,鼓励公私营机构开放数据,以便科技界研发使用。香港运输署21日与新巴及城巴(两巴)公司签署谅解备忘录,两巴将于2019年第3季度,开...
- 5款不容错过的APP: Red Bull Alert,Flipagram,WifiMapper
-
本周有不少非常出色的app推出,鸵鸟电台做了一个小合集。亮相本周榜单的有WifiMapper's安卓版的app,其中包含了RedBull的一款新型闹钟,还有一款可爱的怪物主题益智游戏。一起来看看我...
- Qt动画效果展示_qt显示图片
-
今天在这篇博文中,主要实践Qt动画,做一个实例来讲解Qt动画使用,其界面如下图所示(由于没有录制为gif动画图片,所以请各位下载查看效果):该程序使用应用程序单窗口,主窗口继承于QMainWindow...
- 如何从0到1设计实现一门自己的脚本语言
-
作者:dong...
- 三年级语文上册 仿写句子 需要的直接下载打印吧
-
描写秋天的好句好段1.秋天来了,山野变成了美丽的图画。苹果露出红红的脸庞,梨树挂起金黄的灯笼,高粱举起了燃烧的火把。大雁在天空一会儿写“人”字,一会儿写“一”字。2.花园里,菊花争奇斗艳,红的似火,粉...
- C++|那些一看就很简洁、优雅、经典的小代码段
-
目录0等概率随机洗牌:1大小写转换2字符串复制...
- 二年级上册语文必考句子仿写,家长打印,孩子照着练
-
二年级上册语文必考句子仿写,家长打印,孩子照着练。具体如下:...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- wireshark怎么抓包 (75)
- qt sleep (64)
- cs1.6指令代码大全 (55)
- factory-method (60)
- sqlite3_bind_blob (52)
- hibernate update (63)
- c++ base64 (70)
- nc 命令 (52)
- wm_close (51)
- epollin (51)
- sqlca.sqlcode (57)
- lua ipairs (60)
- tv_usec (64)
- 命令行进入文件夹 (53)
- postgresql array (57)
- statfs函数 (57)
- .project文件 (54)
- lua require (56)
- for_each (67)
- c#工厂模式 (57)
- wxsqlite3 (66)
- dmesg -c (58)
- fopen参数 (53)
- tar -zxvf -c (55)
- 速递查询 (52)