Linux Raid: мистическое устройство md_d
У меня есть 64-битный server Ubuntu Jaunty (kernel 2.6.28-17-server), установленный на двух SATA-дисках (sdc и sde) в зеркальном RAID, это моя текущая configuration рейда:
cat / proc / mdstat Личности: [linear] [многолучевое распространение] [raid0] [raid1] [raid6] [рейд5] [рейд4] [рейд10] md5: active raid1 sdd7 [1] sdc7 [0] 126953536 блоки [2/2] [UU] md2: active raid1 sdd3 [1] sdc3 [0] 979840 блоков [2/2] [UU] md0: active raid1 sdd1 [1] sdc1 [0] 96256 блоков [2/2] [UU] md4: active raid1 sdd6 [1] sdc6 [0] 9767424 блоков [2/2] [UU] md3: active raid1 sdd5 [1] sdc5 [0] 979840 блоков [2/2] [UU] md1: active raid1 sdd2 [1] sdc2 [0] 1951808 блоков [2/2] [UU] неиспользуемые устройства: less
# df -h Размер fileовой системы Используется Использовать% Установлено на / dev / md4 9,2G 922M 7,9 G 11% / tmpfs 490M 0 490M 0% / lib / init / rw varrun 490M 316K 490M 1% / var / run varlock 490M 0 490M 0% / var / lock udev 490M 228K 490M 1% / dev tmpfs 490M 0 490M 0% / dev / shm lrm 490M 2.5M 488M 1% /lib/modules/2.6.28-17-server/volatile / dev / md0 89M 55M 30M 65% / boot / dev / md5 120G 96G 18G 85% / данные / dev / md2 942M 18M 877M 2% / tmp / dev / md3 942M 186M 709M 21% / var
Пользователи быстро заполняют общий ресурс Samba / data, поэтому я добавил два дополнительных жестких диска (sda и sdb, они того же типа и размера), поскольку я хотел создать из них еще одно зеркало, а затем смонтировал новое устройство RAID внутри / данные.
Шаги, которые я предпринял, создавали один раздел автоопределения Linux на каждом новом диске, удостоверяясь, что они имеют одинаковый размер.
- Почему перезагрузка заставила одну сторону моего зеркала ZFS стать UNAVAIL?
- Рейд 1 Зеркало - странная потеря данных за 1 месяц
- Зеркало Subversion имеет проблемы. Можно ли отменить последние изменения на зеркале и затем повторить синхронизацию?
- Владелец / Групповой выпуск на зеркальном serverе
- Сервер DPM и зеркальный кластер SQL-serverа
fdisk / dev / sda -l Диск / dev / sda: 122,9 ГБ, 122942324736 байт 255 голов, 63 сектора / дорожка, 14946 цилиндров Единицы = цилиндры 16065 * 512 = 8225280 байт Идентификатор диска: 0x000e2e78 Начальная command загрузки устройства / dev / sda1 1 14946 120053713+ fd Локальное автоопределение Linux
fdisk / dev / sdb -l Диск / dev / sdb: 122,9 ГБ, 122942324736 байт 255 голов, 63 сектора / дорожка, 14946 цилиндров Единицы = цилиндры 16065 * 512 = 8225280 байт Идентификатор диска: 0x000ef08e Начальная command загрузки устройства / dev / sdb1 1 14946 120053713+ fd Локальное автоопределение Linux
Затем я создал новое зеркало:
mdadm --create / dev / md6 --level = mirror --raid-devices = 2 / dev / sda1 / dev / sdb1
В этот момент я получил следующее предупреждение:
mdadm: / dev / sdb1, как представляется, содержит fileовую систему ext2fs size = 120053712K mtime = Sat Dec 19 11:10:30 2009 Продолжить создание массива?
Это странно, поскольку я только что создал новый раздел, и у меня никогда не было fileовой системы, созданной на нем, но в любом случае я продолжал и ждал завершения синхронизации.
Все кажется прекрасным:
cat / proc / mdstat Личности: [linear] [многолучевое распространение] [raid0] [raid1] [raid6] [рейд5] [рейд4] [рейд10] md6: active raid1 sdb1 [1] sda1 [0] 120053632 блоки [2/2] [UU] md5: active raid1 sdd7 [1] sdc7 [0] 126953536 блоки [2/2] [UU] md2: active raid1 sdd3 [1] sdc3 [0] 979840 блоков [2/2] [UU] md4: active raid1 sdc6 [0] sdd6 [1] 9767424 блоков [2/2] [UU] md3: active raid1 sdc5 [0] sdd5 [1] 979840 блоков [2/2] [UU] md1: active raid1 sdc2 [0] sdd2 [1] 1951808 блоков [2/2] [UU] md0: active raid1 sdc1 [0] sdd1 [1] 96256 блоков [2/2] [UU] неиспользуемые устройства: less
mdadm --detail / dev / md6 / DEV / md6: Версия: 00.90 Время создания: Сб Дек 19 11:33:31 2009 Уровень рейда: raid1 Размер массива: 120053632 (114.49 GiB 122.93 GB) Используемый размер Dev: 120053632 (114.49 GiB 122.93 GB) Raid Devices: 2 Всего устройств: 2 Предпочтительный Малый: 6 Стойкость: Superblock является постоянным Время обновления: сб дек. 19 12:24:14 2009 Состояние: чистое Активные устройства: 2 Рабочие устройства: 2 Неудачные устройства: 0 Запасные устройства: 0 UUID: b901925f: b5ca90e0: afcf3cfb: 09b88def (локально для узла szerver.mtvsz.local) События: 0.4 Номер Значительное Незначительное RaidDevice State 0 8 1 0 активная synchronization / dev / sda1 1 8 17 1 активная synchronization / dev / sdb1
Но как только я перезагружаюсь, возникает проблема:
cat / proc / mdstat Личности: [linear] [многолучевое распространение] [raid0] [raid1] [raid6] [рейд5] [рейд4] [рейд10] md_d6: неактивный sdb1 [1] (S) 120053632 блоков md3: active raid1 sdc5 [0] sdd5 [1] 979840 блоков [2/2] [UU] md5: active raid1 sdc7 [0] sdd7 [1] 126953536 блоки [2/2] [UU] md2: active raid1 sdc3 [0] sdd3 [1] 979840 блоков [2/2] [UU] md1: active raid1 sdd2 [1] sdc2 [0] 1951808 блоков [2/2] [UU] md0: active raid1 sdd1 [1] sdc1 [0] 96256 блоков [2/2] [UU] md4: active raid1 sdd6 [1] sdc6 [0] 9767424 блоков [2/2] [UU] неиспользуемые устройства: less
ls / dev / md * / dev / md0 / dev / md2 / dev / md4 / dev / md_d6 / dev / md_d6p2 / dev / md_d6p4 / dev / md1 / dev / md3 / dev / md5 / dev / md_d6p1 / dev / md_d6p3
Поэтому мой вопрос: что, черт возьми, это с md_d6 и его разделами?
- Смешивание производителей дисков в зеркале RAID
- solaris + vxprint + зеркало для rootvol и rootdisk7vol не существует
- Может ли один SSD replace пару зеркальных дисков?
- Что это значит: пакеты исключены из-за защиты приоритетов хранилища
- Mac OS X Server 10.6 - Программное обеспечение Apple для зеркального RAID стоит?
- Windows Server 2008 - не загружается нормально, загружается только в безопасный режим
- Сервер базы данных зеркальных serverов 2015 git repo to bitbucket
- Несколько веб-serverов, обслуживающих один и тот же static контент
Ок, похоже, это ошибка mdadm, или я пропустил ручной шаг. После выполнения этой команды
msgstr "
и перезагрузка кажется, что массив рейдов теперь в порядке. Глупый баг 🙂