|  
 
 
RAID工作总结   手动启动 
  [root@localhost ~]# mdadm -A /dev/md0 /dev/sda6 /dev/sda7  
  mdadm: /dev/md0 has been started with 2 drives.  
  如果配置好了配置文件的话,那么你可以直接使用mdadm -As  
  配置mdadm.conf我下面再具体说  
  下面说一下常用参数  
  mdadm -A /dev/md0 /dev/sda6 /dev/sda7 激活设备  
  mdadm -S /dev/md0 暂停设备  
  mdadm -s扫描系统内设备信息  
  mdadm -D 查看RAID的 详细信息  
  书写配置文件  
  Mdadm -Ds >> /etc/mdadm.conf  
  查看一下配置文件信息  
  [root@localhost ~]# cat /etc/mdadm.conf  
  ARRAY /dev/md0 level=raid1 num-devices=2 UUID=038b9da4:898f4724:70aa4373:c0af34ff  
  由于没有成员信息 我们可以自行加上  
  在后面加上 devices=/dev/sda[67]  
  之后重新启动一下  
  [root@localhost ~]# mdadm -Ss  
  [root@localhost ~]# mdadm -As  
  下面说一下对做好的raid设备上面建文件系统,以及挂在目录等。  
  首先创建文件生日祝福http://www.qiake.net/ 系统,这边以ext3为例。  
  [root@localhost ~]# mkfs.ext3 /dev/md0  
  mkfs=make filesystem 这么记忆这个命令就好记了。  
  [root@localhost ~]# mkfs.ext3 /dev/md0  
  mke2fs 1.39 (29-May-2006)  
  Filesystem label=  
  OS type: Linux  
  Block size=4096 (log=2)  
  Fragment size=4096 (log=2)  
  403200 inodes, 805232 blocks  
  40261 blocks (5.00%) reserved for the super user  
  First data block=0  
  Maximum filesystem blocks=826277888  
  25 block groups  
  32768 blocks per group, 32768 fragments per group  
  16128 inodes per group  
  Superblock backups stored on blocks:  
  32768, 98304, 163840, 229376, 294912  
  Writing inode tables: done  
  Creating journal (16384 blocks): done  
  Writing superblocks and filesystem accounting information: done  
  This filesystem will be automatically checked every 30 mounts or  
  180 days, whichever comes first. Use tune2fs -c or -i to override.  
  建完文件系统之后便要挂在目录  
  挂在目录的意思就是把这个虚拟的设备挂到系统的某个目录上去,这样的话你对设备的操作才有意义。  
  [root@localhost mnt]# mount /dev/md0 /mnt/data  
  [root@localhost mnt]# df -lh  
  文件系统 容量 已用 可用 已用% 挂载点  
  /dev/sda1 19G 4.7G 14G 27% /  
  tmpfs 248M 0 248M 0% /dev/shm  
  /dev/md0 3.1G 69M 2.9G 3% /mnt/data  
  这样md0就被挂在到/dev/md0上了。  
  顺便提一下取消挂在的命令umount  
  如果遇到了错误提示为设备或资源忙,记得要暂停设备,如果无法暂停的话,记得要看一下上一层是否已经停止控制,比如处于挂载状态,那么设备就会显示繁忙。  
  好的 那么下面来谈一下如果管理raid设备  
  首先是在已经存在的raid中添加一块设备。  
  mnt]# mdadm -a /dev/md0 /dev/sda8  
  mdadm: added /dev/sda8  
  注意:  
  这里添加的设备只是添加在备用设备内,并不真正的使用到,如果原来的设备出现问题的话,它才会被用到,否则一直处于备份状态。  
  [root@localhost mnt]# mdadm -Ds /dev/md0  
  /dev/md0:  
  Version : 00.90.03  
  Creation Time : Thu Oct 14 11:47:16 2010  
  Raid Level : raid1  
  Array Size : 3220928 (3.07 GiB 3.30 GB)  
  Used Dev Size : 3220928 (3.07 GiB 3.30 GB)  
  Raid Devices : 2  
  Total Devices : 3  
  Preferred Minor : 0  
  Persistence : Superblock is persistent  
  Update Time : Thu Oct 14 14:05:57 2010  
  State : clean  
  Active Devices : 2  
  Working Devices : 3  
  Failed Devices : 0  
  Spare Devices : 1  
  UUID : 038b9da4:898f4724:70aa4373:c0af34ff  
  Events : 0.2  
  Number Major Minor RaidDevice State  
  0 8 6 0 active sync /dev/sda6  
  1 8 7 1 active sync /dev/sda7  
  2 8 8 - spare /dev/sda8  
  注意看sda8的状态,spare。那么如何添加一块设备直接进去工作呢,这个下面再说,这里先卖个关子。  
  说完了添加,说删除,记得在删除前先要做一步,就是要先把要移除的设备标识为已坏设备。  
  [root@localhost mnt]# mdadm -f /dev/md0 /dev/sda8  
  mdadm: set /dev/sda8 faulty in /dev/md0  
  这里已经把sda8给表示为已坏设备,接着可以把它移除  
  [root@localhost mnt]# mdadm -r /dev/md0 /dev/sda8  
  mdadm: hot removed /dev/sda8  
  OK,如果你想移除后再重新添加这个设备,可以使用—re-add  
  [root@localhost mnt]# mdadm --re-add /dev/md0 /dev/sda8  
  mdadm: re-added /dev/sda8  
  OK,下面说一下 如何真正的添加一块设备进去。用到的是raid的GROW模式。  
  应用范围为raid1,raid4,raid5,raid6。  
  扩容的第一步前提是先增加备用设备  
  [root@localhost mnt]# mdadm -a /dev/md0 /dev/sda8  
  [root@localhost mnt]# mdadm -G /dev/md0 -n3  
  之后会重构raid。等到重构完毕之后,新增的设备状态变成激活状态。  
  Number Major Minor RaidDevice State  
  0 8 6 0 active sync /dev/sda6  
  1 8 7 1 active sync /dev/sda7  
  2 8 8 2 active sync /dev/sda8  
  成员数目不足时,强行启动raid。比如raid5需要至少3个设备,然后2个也是可以启动的,如果要强行启动,需使用参数-run  
  [root@linuxsir:~] # mdadm -A --run /dev/md0 /dev/sdb1 /dev/sdb2  
  其他的参数也没怎么用,具体实践可以参考一下man里面的内容。  上一页  [1] [2]  
 |