Linux Raid: мистическое устройство md_d

У меня есть 64-битный server Ubuntu Jaunty (kernel 2.6.28-17-server), установленный на двух SATA-дисках (sdc и sde) в зеркальном RAID, это моя текущая configuration рейда:

  cat / proc / mdstat
 Личности: [linear] [многолучевое распространение] [raid0] [raid1] [raid6] [рейд5] [рейд4] [рейд10]

 md5: active raid1 sdd7 [1] sdc7 [0]
       126953536 блоки [2/2] [UU]

 md2: active raid1 sdd3 [1] sdc3 [0]
       979840 блоков [2/2] [UU]

 md0: active raid1 sdd1 [1] sdc1 [0]
       96256 блоков [2/2] [UU]

 md4: active raid1 sdd6 [1] sdc6 [0]
       9767424 блоков [2/2] [UU]

 md3: active raid1 sdd5 [1] sdc5 [0]
       979840 блоков [2/2] [UU]

 md1: active raid1 sdd2 [1] sdc2 [0]
       1951808 блоков [2/2] [UU]

 неиспользуемые устройства: less
  # df -h
 Размер fileовой системы Используется Использовать% Установлено на
 / dev / md4 9,2G 922M 7,9 G 11% /
 tmpfs 490M 0 490M 0% / lib / init / rw
 varrun 490M 316K 490M 1% / var / run
 varlock 490M 0 490M 0% / var / lock
 udev 490M 228K 490M 1% / dev
 tmpfs 490M 0 490M 0% / dev / shm
 lrm 490M 2.5M 488M 1% /lib/modules/2.6.28-17-server/volatile
 / dev / md0 89M 55M 30M 65% / boot
 / dev / md5 120G 96G 18G 85% / данные
 / dev / md2 942M 18M 877M 2% / tmp
 / dev / md3 942M 186M 709M 21% / var

Пользователи быстро заполняют общий ресурс Samba / data, поэтому я добавил два дополнительных жестких диска (sda и sdb, они того же типа и размера), поскольку я хотел создать из них еще одно зеркало, а затем смонтировал новое устройство RAID внутри / данные.

Шаги, которые я предпринял, создавали один раздел автоопределения Linux на каждом новом диске, удостоверяясь, что они имеют одинаковый размер.

  fdisk / dev / sda -l

 Диск / dev / sda: 122,9 ГБ, 122942324736 байт
 255 голов, 63 сектора / дорожка, 14946 цилиндров
 Единицы = цилиндры 16065 * 512 = 8225280 байт
 Идентификатор диска: 0x000e2e78

    Начальная command загрузки устройства
 / dev / sda1 1 14946 120053713+ fd Локальное автоопределение Linux
  fdisk / dev / sdb -l

 Диск / dev / sdb: 122,9 ГБ, 122942324736 байт
 255 голов, 63 сектора / дорожка, 14946 цилиндров
 Единицы = цилиндры 16065 * 512 = 8225280 байт
 Идентификатор диска: 0x000ef08e

    Начальная command загрузки устройства
 / dev / sdb1 1 14946 120053713+ fd Локальное автоопределение Linux

Затем я создал новое зеркало:

  mdadm --create / dev / md6 --level = mirror --raid-devices = 2 / dev / sda1 / dev / sdb1 

В этот момент я получил следующее предупреждение:

  mdadm: / dev / sdb1, как представляется, содержит fileовую систему ext2fs
     size = 120053712K mtime = Sat Dec 19 11:10:30 2009
 Продолжить создание массива?

Это странно, поскольку я только что создал новый раздел, и у меня никогда не было fileовой системы, созданной на нем, но в любом случае я продолжал и ждал завершения синхронизации.

Все кажется прекрасным:

  cat / proc / mdstat
 Личности: [linear] [многолучевое распространение] [raid0] [raid1] [raid6] [рейд5] [рейд4] [рейд10]
 md6: active raid1 sdb1 [1] sda1 [0]
       120053632 блоки [2/2] [UU]

 md5: active raid1 sdd7 [1] sdc7 [0]
       126953536 блоки [2/2] [UU]

 md2: active raid1 sdd3 [1] sdc3 [0]
       979840 блоков [2/2] [UU]

 md4: active raid1 sdc6 [0] sdd6 [1]
       9767424 блоков [2/2] [UU]

 md3: active raid1 sdc5 [0] sdd5 [1]
       979840 блоков [2/2] [UU]

 md1: active raid1 sdc2 [0] sdd2 [1]
       1951808 блоков [2/2] [UU]

 md0: active raid1 sdc1 [0] sdd1 [1]
       96256 блоков [2/2] [UU]

 неиспользуемые устройства: less
  mdadm --detail / dev / md6
 / DEV / md6:
         Версия: 00.90
   Время создания: Сб Дек 19 11:33:31 2009
      Уровень рейда: raid1
      Размер массива: 120053632 (114.49 GiB 122.93 GB)
   Используемый размер Dev: 120053632 (114.49 GiB 122.93 GB)
    Raid Devices: 2
   Всего устройств: 2
 Предпочтительный Малый: 6
     Стойкость: Superblock является постоянным

     Время обновления: сб дек. 19 12:24:14 2009
           Состояние: чистое
  Активные устройства: 2
 Рабочие устройства: 2
  Неудачные устройства: 0
   Запасные устройства: 0

            UUID: b901925f: b5ca90e0: afcf3cfb: 09b88def (локально для узла szerver.mtvsz.local)
          События: 0.4

     Номер Значительное Незначительное RaidDevice State
        0 8 1 0 активная synchronization / dev / sda1
        1 8 17 1 активная synchronization / dev / sdb1

Но как только я перезагружаюсь, возникает проблема:

  cat / proc / mdstat
 Личности: [linear] [многолучевое распространение] [raid0] [raid1] [raid6] [рейд5] [рейд4] [рейд10]
 md_d6: неактивный sdb1 [1] (S)
       120053632 блоков

 md3: active raid1 sdc5 [0] sdd5 [1]
       979840 блоков [2/2] [UU]

 md5: active raid1 sdc7 [0] sdd7 [1]
       126953536 блоки [2/2] [UU]

 md2: active raid1 sdc3 [0] sdd3 [1]
       979840 блоков [2/2] [UU]

 md1: active raid1 sdd2 [1] sdc2 [0]
       1951808 блоков [2/2] [UU]

 md0: active raid1 sdd1 [1] sdc1 [0]
       96256 блоков [2/2] [UU]

 md4: active raid1 sdd6 [1] sdc6 [0]
       9767424 блоков [2/2] [UU]

 неиспользуемые устройства: less
 ls / dev / md *
 / dev / md0 / dev / md2 / dev / md4 / dev / md_d6 / dev / md_d6p2 / dev / md_d6p4
 / dev / md1 / dev / md3 / dev / md5 / dev / md_d6p1 / dev / md_d6p3

Поэтому мой вопрос: что, черт возьми, это с md_d6 и его разделами?

Ок, похоже, это ошибка mdadm, или я пропустил ручной шаг. После выполнения этой команды

  msgstr " 

и перезагрузка кажется, что массив рейдов теперь в порядке. Глупый баг 🙂

  • Безопасное разделение зеркала raidctl
  • Ужасный (~ 1.4x против ожидаемого ~ 2x) случайного чтения в новом зеркале ZFS (raid1)
  • DPM 2010 iSCSI Mirror
  • Добавить рейд 1 из существующего диска без потери данных
  • HOWTO: баннер страницы индекса Apache?
  • Загрузите JDK на удаленный server
  • Как ограничить пропускную способность apt-зеркала?
  • Как перезапустить EFC partiton и зеркало и существующий системный раздел диска GPT?
  • зеркало LVM против зеркала MD
  • Зеркало обновлений Windows для интерless-провайдеров
  • Что это значит: пакеты исkeyены из-за защиты приоритетов хранилища
  • Давайте будем гением компьютера.