• httptbplay777.com|httptbplay777.com【首存红利200%】

  • 发布时间:2016-01-15 16:17 | 作者:yc | 来源:互联网 | 浏览:1200 次
  • httptbplay777.com|httptbplay777.com【首存红利200%】

    简介:快照

    快照是一个镜像在某一个特准时候点的只读仿制其间Ceph块设备的高级功用是可以创立快照保存镜像的前史状况Ceph支撑快照分层,准许疾速克隆镜像 Ceph还支撑运用RDB和如KVM,libvirt等创立快照作为快照时需求中止I/O要是镜像包括文件体系,文件体系有需要在做快照前坚持合营性

    这篇文章档主要从以下几个方面进行测验:

    1:快照、创立、查询、删去、料理;

    2:快照clone、增量快照、掩护快照;

    3:image导入、导出;

    4:运用ceph存储快照功用,做数据备份、数据康复;

    5:image 空间resize(xfs、ext4文件体系);

    6:pool快照创立、pool copy、pool快照反省、删去;

    文档内容开始料理,后续将赓续完善,内容有误确当地等候留言矫正,我会及时更新批改

    ##############测验意图#############

    1:image快照怎么创立、删去、查询;

    2:快照回滚、数据康复;

    #############历程1~15##############

    1:创立一个pool

    [root@node241 ~]# cephosd pool create mypool 24

    pool 'mypool' created

    2:要创立一个新的RBD镜像为10GB

    rbd -p mypool create myimage --size 10240

    或许:

    rbd create mypool/myimage --size 10240

    3:再新建一个镜像、做快照导入测验运用

    rbd create mypool/myimage1 --size 10240

    4:反省镜像

    [root@node242 ~]# rbd --pool mypool ls

    myimage

    myimage1

    5:映射镜像 myimage

    [root@node242 ~]# rbd map mypool/myimage

    /dev/rbd0

    6:格局化

    mkfs.xfs /dev/rbd0

    7:树立挂载点、挂载磁盘

    mkdir /myimage

    mount /dev/rbd0 /myimage/

    8:映射镜像 myimage1

    [root@node242 ~]# rbd map mypool/myimage1

    /dev/rbd1

    9:格局化

    mkfs.xfs /dev/rbd1

    10:树立挂载点、挂载磁盘

    mkdir /myimage1

    mount /dev/rbd1 /myimage1/

    11:验证反省挂载分区

    [root@node242 ~]# df -Th

    FilesystemTypeSizeUsed Avail Use% Mounted on

    /dev/rbd0xfs10G33M10G1% /myimage

    /dev/rbd1xfs10G33M10G1% /myimage1

    [root@node242 ~]#

    12:myimage目录创立测验文件

    touch /myimage/{1..10}myimage.data.txt

    反省数据天生

    ll /myimage

    total 0

    -rw-r--r-- 1 root root 0 Oct9 12:24 10myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 1myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 2myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 3myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 4myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 5myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 6myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 7myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 8myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 9myimage.data.txt

    13:myimge创立一个快照:

    [root@node242 ~]# rbd snap create mypool/myimage@myimagesnap

    14:反省快照信息

    [root@node242 ~]# rbd snap ls mypool/myimage

    SNAPID NAMESIZE

    2 myimagesnap 10240 MB

    15:验证数据回滚

    15.1:然后删去统统创立的文件

    [root@node242 ~]# rm -rf /myimage/*

    [root@node242 ~]# ll /myimage

    total 0

    15.2:回滚快照,

    把稳:回滚快照等于将当前镜像的数据用快照从头替换回滚的实行时候随着镜像巨细的添加而添加克隆将会比回滚快照更花时候

    运用RBD指令回滚快照,指定snap rollback选项,指定池名称,镜像名称和单元名称

    [root@node242 ~]# rbd snap rollback mypool/myimage@myimagesnap

    Rolling back to snapshot: 100% complete...done.

    用于回滚有些,你要把稳回滚意味着从快照中的数据掩饰笼罩当前版别,需求更长的时候与较大年夜的镜像因而,克隆是可取的疾速康复

    把稳: 镜像快照回滚意味着从快照掩饰笼罩原快照其时版其余镜像数据实行回滚所花费的时候与镜像的巨细有关快照克隆比快照回滚康复得更快,它是返回到一个预先存在的状况优选的法子

    15.3:卸载挂载目录

    [root@node242 ~]# umount /myimage

    15.4:从头挂载

    [root@node242 ~]# mount /dev/rbd0 /myimage

    15.5:反省数据,现已康复

    [root@node242 ~]# ll /myimage

    total 0

    -rw-r--r-- 1 root root 0 Oct9 12:24 10myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 1myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 2myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 3myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 4myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 5myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 6myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 7myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 8myimage.data.txt

    -rw-r--r-- 1 root root 0 Oct9 12:24 9myimage.data.txt

    ##############测验意图#############

    1:image导入、导出,数据备份康复;

    2:导出image信息、导入到其它pool;

    #############历程16##############

    16:###导出、导入镜像

    16.1: 把ceph pool中的一个镜像导出

    [root@node242 ~]# rbd export -p mypool --image myimage /tmp/exportmyimage.img

    Exporting image: 100% complete...done

    16.2:验证反省导出文件

    [root@node242 ~]# ll /tmp/exportmyimage.img

    -rw-r--r-- 1 root root 0 Oct9 13:29 /tmp/exportmyimage.img

    16.3:把一个镜像导入ceph中

    导入镜像名,不能与现有pool中的image重名

    [root@node242 ~]# rbd import /tmp/exportmyimage.img -p mypool --image myimage2

    Importing image: 100% complete...done.

    16.4:验证反省导入镜像文件

    [root@node242 ~]# rbd -p mypool ls

    myimage

    myimage1

    myimage2

    16.7:映射导入挂载镜像

    [root@node242 ~]# rbd mapmypool/myimage2

    /dev/rbd2

    16.8:挂载报错

    [root@node242 ~]# mount -t xfs /dev/rbd2 /myimage3

    mount: wrong fs type, bad option, bad superblock on /dev/rbd2,

    missing codepage or helper program, or other error

    In some cases useful info is found in syslog - try

    dmesg | tail or so.

    16.9:排查发明新导入的镜像的uuid和之前只做image 的uuid 相同,看来本机挂载需求修正硬盘的uuid 才行

    [root@node242 ~]# blkid

    /dev/rbd0: UUID="517f2923-04eb-4168-ac0d-229a90e17534" TYPE="xfs"????

    /dev/rbd1: UUID="aea281df-22e6-4411-a98c-688de1b45500" TYPE="xfs"

    /dev/rbd2: UUID="517f2923-04eb-4168-ac0d-229a90e17534" TYPE="xfs"????

    [root@node242 ~]#

    16.10:换其余一台办事器试一下

    先反省镜像是不是存在

    [root@node245 ~]# rbd -p mypool ls

    myimage

    httptbplay777.com|httptbplay777.com【首存红利200%】myimage1

    myimage2

    16.11:做镜像映射

    [root@node245 ~]# rbd map mypool/myimage2

    /dev/rbd0

    16.12:创立挂载目录

    [root@node245 ~]# mkdir /myimage2

    16.13:挂载分区

    [root@node245 ~]# mount /dev/rbd0 /myimage2/

    16.14:验证数据与到在源镜像导出时数据合营

    [root@node245 ~]# ll /myimage2/

    total 0

    -rw-r--r--. 1 root root 0 Oct9 00:24 10myimage.data.txt

    -rw-r--r--. 1 root root 0 Oct9 00:24 1myimage.data.txt

    -rw-r--r--. 1 root root 0 Oct9 00:24 2myimage.data.txt

    -rw-r--r--. 1 root root 0 Oct9 00:24 3myimage.data.txt

    -rw-r--r--. 1 root root 0 Oct9 00:24 4myimage.data.txt

    -rw-r--r--. 1 root root 0 Oct9 00:24 5myimage.data.txt

    httptbplay777.com|httptbplay777.com【首存红利200%】

    -rw-r--r--. 1 root root 0 Oct9 00:24 6myimage.data.txt

    -rw-r--r--. 1 root root 0 Oct9 00:24 7myimage.data.txt

    -rw-r--r--. 1 root root 0 Oct9 00:24 8myimage.data.txt

    -rw-r--r--. 1 root root 0 Oct9 00:24 9myimage.data.txt

    16.15:反省uuid 与源id合营

    [root@node245 myimage2]# blkid

    /dev/rbd0: UUID="517f2923-04eb-4168-ac0d-229a90e17534" TYPE="xfs"

    16.16: 总结

    导出的镜像文件导入集群后天生的硬盘UUID和之前的源镜像合营,挂载磁盘运用不能挂载再同一台主机

    ##############测验意图#############

    1:反省快照;

    2:删去快照;

    3:删去写掩护的快照;

    4:拔除统统快照;

    #############历程17~19##############

    17:反省快照

    [root@node245 ~]# rbd snap ls mypool/myimage

    SNAPID NAMESIZE

    2 myimagesnap 10240 MB

    18:要删去一个快照:

    [root@node245 ~]# rbd snap rmmypool/myimage@myimagesnap

    删去snap 删去snap报(rbd: snapshot 'snapshot-xxxx' is protected from removal.)写掩护 ,运用 rbd snap unprotect volumes/snapshot-xxx' 解锁,然后再删去

    把稳: Ceph的OSDs删去数据不合步,以是删去快照的磁盘空间不会当即释放

    19:拔除快照

    19.1:用RBD删去统统快照镜像,指定snap purge选项和映像名称

    rbd --pool {pool-name} snap purge {image-name}

    19.2:反省

    [root@node243 t1image]# rbd www.aoaopa.comsnap ls mypool/myimage1

    SNAPID NAMESIZE

    3 myimage1snap10240 MB

    5 myimage1snap1 10240 MB

    6 myimage1snap2 10240 MB

    7 myimage1snap3 10240 MB

    8 myimage1snap4 10240 MB

    19.3:拔除统统快照

    [root@node243 t1image]# rbd snap purge mypool/myimage1

    Removing all snapshots: 100% complete...done.

    19.4:再次反省统统快照现已被删去

    [root@node243 t1image]# rbd snap ls mypool/myimage1

    ##############RBD -解决RADOS块设备(RBD)的镜像,增量快照功用演示#############

    ##############测验意图###########

    1:快照运用简介;

    1:快照有关参数详解;

    1:快照有关指令详解;

    #############历程1~3#############

    1:简介

    rbd [-c ceph.conf][-m monaddr][-p| -pool pool][-size size][-order bits][command...]

    说明

    rbd是一个实用法度榜样,用于操作rados块设备(RBD)的镜像,QEMU/KVM等于运用的Linux rbd驱动和rbd存储驱动RBD镜像是分在方针和存储在RADOS方针存储中的大略的块设备则散置方针镜像的巨细有需如果2的幂

    选项

    -c ceph.conf, -- conf ceph.conf

    运用ceph.conf设置设置设备摆设摆设文件,而不是默许的/etc/ceph/ceph.conf文件在发动历程中断定监控地址

    -m monaddress [:port]

    连接到指定的监督地址上(而不是ceph.conf)

    -P pool, --pool pool

    与池进行交互大年夜多半指令是必需的

    --no-progress

    不输出进展信息(默许环境下,某些指令输出规范同伴)

    2:参数

    --image-format format

    指定运用方针筹划默许值是1

    format 1 - 一个新的RBD镜像运用初始的格局统统版其余librbd和RBD内核模块懂得这种格局,但不支撑新的功用,如克隆

    format 2- 运用的第二个的RBD格局,这是在这个时分由librbd(但不包括RBD内核模块)支撑这添加了支撑克隆和更简单拓展,让更多的功用,在将来的

    --snap snap

    指定快照名称详细操作

    3:指令

    clone [ parent-snapname ] [ image-name ]

    将会创立一个父类快照的克隆(子类的副本) 方针指令将会与父类镜像相同,除非指定不然 巨细将会与父类快拍照同

    父类快照有需要要被掩护 (参看 rbd snap protect).这需求format 2

    flatten [image-name]

    要是镜像是被克隆的,从父类快照福之统统同享的块而且让子类自力于父类, 割断子类与父类快照的链接要是没有寄托的克隆,父类快照能被不掩护而且能被删去这需求format 2

    children [image-name]

    列出给定的快照中镜像的克隆这反省了每个池,输出池名/镜像名的成果

    export [image-name] [dest-path]

    导出至dest-path道路的镜像(在stdout中运用 )

    import [path] [dest-path]

    创立一个新的镜像,并导入其数据道路(运用-for 规范输出)导入操作,要是大概的话,将测验创立稀疏RBD镜像入口从规范输入,稀疏化单元方针镜像数据块巨细(1

    4:设置快照掩护

    [root@node243 myimage5]# rbd snap protect mypool/

    把稳: 您无法删去受掩护的快照

    5:反省快照详细信息,验证掩护状况

    [root@node243 ~]# rbd -p mypool info

    rbd image 'myimage5':

    size 10240 MB in 2560 objects

    order 22 (4096 kB objects)

    block_name_prefix: rbd_data.5ebe2ae8944a

    format: 2

    features: layering

    flags:

    protected: True#状况

    ##############测验意图###########

    1:快照克隆;

    2:image信息夸pool克隆,功用验证;

    3:clone数据验证;

    #############历程6~12#############

    要克隆一个快照,指定您需求指定父类池,镜像和快照,子类池和镜像名称你有需要实行掩护快照才气够克隆它

    6:将mypool/ 克隆到rbd 池 姓名为 clone-myimage5

    [root@node243 myimage5]# rbd clone mypool/ rbd/clone-myimage5

    7:验证镜像文件

    [root@node243 myimage5]# rbd ls

    foo

    t1image

    clone-myimage5

    8:映射到一台主机

    [root@node243 ~]# rbd map rbd/clone-myimage5

    /dev/rbd2

    9:树立挂载目录、挂载克隆镜像

    [root@node243 ~]# mkdir /clone-myimage5

    10:挂载报错是由于,本机现已挂载源镜像,被克隆的image 天生硬盘uuid 相同致使

    [root@node243 ~]# mount /dev/rbd2 /clone-myimage5/

    mount: wrong fs type, bad option, bad superblock on /dev/rbd2,

    missing codepage or helper program, or other error

    In some cases useful info is found in syslog - try

    dmesg | tail or so.

    反省硬盘uuid

    [root@node243 ~]# blkid

    /dev/sdb1: UUID="0b1a386a-e055-4b7a-8956-e13a638a4270" TYPE="xfs" PARTLABEL="ceph data" PARTUUID="bbb535a8-7c50-475b-9b7c-5deff"

    /dev/rbd1: UUID="f47bd41d-85e7-4da7-b90a-b31259fb2225" TYPE="xfs"

    /dev/rbd2: UUID="f47bd41d-85e7-4da7-b90a-b31259fb2225" TYPE="xfs"

    [root@node243 ~]#

    11:卸载源imagemap信息,挂载clone天生image信息,比照数据;

    反省源镜像挂载后,存储数据、然后umount

    [root@node243 ~]# ll /myimage5/

    total 0

    -rw-r--r-- 1 root root 0 Oct9 20:00 10.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 1.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 2.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 3.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 4.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 5.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 6.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 7.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 8.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 9.myimage.test.data.txt

    12:然后挂载克隆镜像,验证数据完全合营

    [root@node243 ~]# mount /dev/rbd2 /clone-myimage5/

    [root@node243 ~]# ll /clone-myimage5/

    total 0

    -rw-r--r-- 1 root root 0 Oct9 20:00 10.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 1.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 2.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 3.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 4.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 5.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 6.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 7.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 8.myimage.test.data.txt

    -rw-r--r-- 1 root root 0 Oct9 20:00 9.myimage.test.data.txt

    ##############测验意图###########

    1:反省子类快照信息;

    2:收缩克隆快照;

    3:免除image掩护;

    4:导入image变换image格局;

    5:确定image;

    #############历程13~19#############

    13:要列出一个子类快照,实行以下指令:

    [root@node243 ~]# rbd children mypool/

    rbd/clone-myimage5

    把稳: 您可以仿制镜像的从一个池到一个池的快照例如,你可以以一个池作为模板,坚持只读镜像和快照,在另一个池中克隆

    14:收缩克隆镜像

    克隆映像保存父类快照的引证当您删去从子类克隆父快照引证,有用“收缩化”的镜像从快照仿制的克隆信息收缩克隆所花费的时候添加快照巨细要删去快照,则有需要先收缩子类镜像

    [root@node243 clone-myimage5]# rbd flatten rbd/clone-myimage5

    Image flatten: 100% complete...done.

    把稳: 由于收缩的镜像中包括的统统信息的快照,一个收缩的镜像会比一个分层的克隆占用更多的存储空间

    15:免除掩护快照

    删去快照之前,您有需要先免除掩护的快照此外,你大概不会删去克隆引证的快照您有需要删去每个克隆的快照,然后才气删去快照

    [root@node243 clone-myimage5]# rbd snap unprotect mypool/

    16:反省快照详细信息,验证掩护状况

    [root@node243 ~]# rbd -p mypool info

    rbd image 'myimage5':

    size 10240 MB in 2560 objects

    order 22 (4096 kB objects)

    block_name_prefix: rbd_data.5ebe2ae8944a

    format: 2

    features: layering

    flags:

    protected: False

    17:修正镜像格局

    要变动为另一种格局的镜像,将其导出,然后导入所需的格局:

    rbd export mypool/myimage@snap /tmp/img

    rbd import --format 2 /tmp/img mypool/myimage2

    18:确定一个专用的镜像

    rbd lock add mypool/myimage mylockid

    19:释放锁:

    rbd lock remove mypool/myimage mylockid client.2485

    ####################ok#################

    #######pool copy######

    ##############测验意图###########

    1:测验pool copy的运用法子;

    2:pool数据copy后数据比照;

    3:pool数据copy后image快照反省;

    #############历程1~6#############

    1:反省集群现有那几个pool

    [root@node243 ~]# ceph df

    GLOBAL:

    SIZEAVAILRAW USED%RAW USED

    474G473G1228M0.25

    POOLS:

    NAMEIDUSED%USEDMAX AVAILOBJECTS

    rbdk0.02157G2589

    mypoolk0.01157G94

    testpool6159M0.03157G2681

    2:反省pool里边的image数量名称

    [root@node243 ~]# rbd ls -p rbd

    foo

    t1image

    clone-myimage5

    [root@node243 ~]# rbd ls -p mypool

    myimage

    myimage1

    myimage2

    myimage5

    myimage6

    [root@node243 ~]澳门大发62288# rbd ls -p testpool

    foo1

    t1image111

    clone-myimage5111

    [root@node243 ~]#

    4:将mypool的内容copy到testpool

    [root@node243 ~]# rados cppool mypooltestpool

    successfully copied pool mypool

    5:反省testpool发明,testpool的内容被掩饰笼罩,内容和mypool内容坚持合营

    [root@node243 ~]# rbd ls -p testpool

    myimage

    myimage1

    myimage2

    myimage5

    myimage6

    [root@node243 ~]# rbd ls -p mypool

    myimage

    myimage1

    myimage2

    myimage5

    myimage6

    6:其余pool会将原有pool的image镜像也一块copy

    [root@node243 ~]# rbd snap lstestpool/myimage5

    SNAPID NAMESIZE

    16 myimage MB

    17 myimage.snap MB

    18 myimage5.snap1 10240 MB

    ########resize image(XFS 格局文件体系)########

    ##############测验意图###########

    1:测验image resize的运用法子;

    2:image 空间resize 后运用把稳事变;

    #############历程1~6#############

    1:反省已挂载rbd分区巨细

    [root@node245 ~]# df -Th

    FilesystemTypeSizeUsed Avail Use% Mounted on

    ...................

    /dev/rbd0xfs20G33M20G1% /myimage2

    2:调剂image巨细

    [root@node245 ~]# rbd resize -p mypool --image myimage2 --size 30000

    Resizing image: 100% complete...done.

    3:卸载分区从头挂载,发明分区空间巨细没有改变

    [root@node245 ~]# umount /myimage2/

    [root@node245 ~]# mount /dev/rbd0 /myimage2/

    4:反省分区巨细

    [root@node245 ~]# df -Th

    /dev/rbd0xfs10G36M10G1% /myimage2

    [root@node245 ~]#

    5:然后再次测验、unmap 镜像后从头挂载空间巨细仍是没有改变,说明调剂空间后的镜像,要从头格局化才气是被新的空间

    rbd unmap /dev/rbd0

    rbd showmapped

    rbd map mypool/myimage2

    rbd showmapped

    mount /dev/rbd0 /myimage2/

    df -Th

    6:从头格局化后(把稳数据备份),从头挂载,体系辨认新增空间

    mkfs.xfs -f /dev/rbd0

    [root@node245 ~]# df -TH

    ...............

    /dev/rbd0xfs22G35M22G1% /myimage2

    [root@node245 ~]#

    ########resize image(ext4 格局文件体系)########

    ##############测验意图###########

    1:测验image resize的运用法子;

    2:image 空间resize 后运用把稳事变;

    3:ext4 文件体系热更新磁盘空间;

    #############历程1~5#############

    1:反省现运转磁盘空间巨细

    [root@pttes mycephfs]# df -h /mnt/mycephfs/

    FilesystemSizeUsed Avail Use% Mounted on

    /dev/rbd1976M1.3M908M1% /mnt/mycephfs

    2:实行resize操作

    [root@pttes mycephfs]# rbd resize --size 2048 test-image --pool test-pool

    Resizing image: 100% complete...done.

    3:运转blockdev 器械准许从指令行调用区块设备节制法度榜样

    [root@pttes mycephfs]# blockdev --getsize64 /dev/rbd1

    4:运转resize2fs法度榜样会从头界说磁盘空间;

    resize2fs法度榜样会从头界说ext2或许是ext4文件体系可以用于扩展或许减小一个在设备上未挂载的文件体系

    要是这个文件体系是挂载的,它可以用于扩展挂载了的文件体系,假定内核支撑在线从头界说巨细(linux的2.6内核支撑运用ext3,ext4体系的在线重界说巨细)巨细参数指定哀求的文件体系的新巨细

    要是单位没有指定,巨细参数的单位会变成文件体系的文件体系的文件块尺度

    [root@pttes mycephfs]# resize2fs /dev/rbd1

    resize2fs 1.41.12 (17-May-2010)

    Filesystem at /dev/rbd1 is mounted on /mnt/mycephfs; on-line resizing required

    old desc_blocks = 1, new_desc_blocks = 1

    Performing an on-line resize of /dev/rbd1 to (4k) blocks.

    The filesystem on /dev/rbd1 is now blocks long.

    5:反省磁盘空间

    [root@pttes mycephfs]# df -h /mnt/mycephfs/

    FilesystemSizeUsed Avail Use% Mounted on

    /dev/rbd12.0G1.6M1.9G1% /mnt/mycephfs

    ############运用rados 指令创立快照###############

    1:为rbd pool创立快照

    [root@node243 ~]# rados -p testpool mksnap rbdsnaprados

    created pool testpool snap rbdsnaprados

    2:列出给定池的快照,验证反省天生snap

    [root@node243 ~]# rados -p testpool lssnap

    1testpoolsnap12015.10.10 12:40:53

    2testpool.snap12015.10.10 12:47:33

    3testpool32015.10.10 14:07:47

    4rbdsnaprados2015.10.10 15:41:53

    4 snaps

    3:删去快照

    [root@node243 ~]# rados -p testpool rmsnap testpool3

    removed pool testpool snap testpool3

    #################ok#################

    后续深入钻研调研

    1:image空间的动态调剂;

    2:修正导入image活着clone天生硬盘UUID怎么修正;

    3:增量快照的详细运用措施;

    4:clone快照的收缩特点,运用处景等;

    3:pool快照怎么康复,有何特点;

    这篇文章出自 “康建华” 博客,转发请与作者团结!

  • 相关内容

友情链接: