Установка proxmox на raid 1
Посмотрим список обнаруженных в системе физических дисков:
Убедимся, что система загружается с первого жесткого диска /dev/sda
Мы должны увидить нечто подобное:
/dev/sda1 504M 34M 445M 8% /boot
Если раздел boot находится не на /dev/sda1, необходимо отключить компьютер и поменять местами sata кабеля подключенные к жестким дискам.
Скопируем структуру разделов с первого диска на второй
Сменим тип разделов на fd (Linux raid autodetect)
Проверим список разделов
Загрузка и установка компонентов [ ]
- mdadm - менеджер программного RAID для Linix
- initramfs -временная файловая система, использующаяся ядром при начальной загрузке
Все параметры по умолчанию
Подключение модуля RAID [ ]
Далее необходимо убедится, что на дисках не осталось суперблоков. Эти блоки являются метками, которые проставляются в конец диска если он являлся частью рейд массива ранее. Часто они не удаляются в процессе форматирования жесткого диска при установке PROXMOX и их нужно затереть вручную!
Если все в порядке и суперблоков нет, то увидим нечто подобное:
Если есть, то перед продолжением настройки их необходимо удалить! Удаление суперблоков
Настроем почтовую подсистему и параметры локали Настройка параметров mdadm [ ]
Создадим файл настроек, предварительно сохранив оригинальный
Предварительная настройка RAID в режиме деградации [ ]
Если все впорядке и массивы создались, сохраним параметры массива в конфигурационном файле:
Проверим, что информация о наших массивах записалась в файл параметров
настройка загрузочного меню grub [ ]
Добавим загрузочный образ initramfs
Заменим файл загрузочного меню и создадим свой, предварительно сохранив оригинальный
Перенос данных из LVM на второй диск [ ]
Создаем LVM-раздел на втором диске и добавляем его в группу pve
Переместим данные с LVM-раздела первого диска, на RAID-LVM-раздел второго диска. Процедура может продолжаться очень долго. Время зависит от объема и скорости жестких дисков.
Убираем из LVM первый диск
Перенос загрузочных файлов на RAID [ ]
Подготовим загрузочный RAID-раздел второго диска и скопируем на него все файлы из папки /boot первого диска
Настроим параметры подключения системных дисков с учетом загрузки с raid. Пересоздадим конфигурационный файл fstab предварительно сохранив оригинальный.
Перемонтируем загрузочный раздел
Подключаем первый (исходный) диск в RAID [ ]
Копируем структуру разделов со второго диска на первый
Добавим разделы первого диска в RAID
Осталось обновить загрузчик на обоих дисках. Запускаем
И последовательно вводим:
Проверить в каком состоянии находится массив можно командой:
Смысл резервирования дисковой системы заключается не в факте самого наличия резервирования, а в возможности в случае возникновения неисправности любого из жестких дисков оперативно и без риска для данных его заменить. В этом должны помочь своевременные уведомления на почту и четкая инструкция по замене неисправного диска с восстановлением избыточности.
Определение неисправного диска [ ]
- Выясняем какой из жестких дисков "вылетел" из массива
видим примерно следующее
[_U] - Означает что в массиве отсутствует диск (рабочий массив выглядит так [UU]) (F) - означает, что диск дал сбой. В примере вылетел из массива и дал сбой диск sda. Всё дальнейшее описание будет описывать ситуацию с заменой диска sda, при этом рабочим остался диск sdb.
- Необходимо выяснить, какой из дисков нужно физически отключить. В этом поможет информация о серийных номерах. Например смотрим информацию о модели и серийном номере оставшегося рабочего диска sdb:
Смотрим серийники на наклейках жестких дисков. Соответственно диск с серийным номером 9QZCNTNH оставляем в системе, другой отключаем.
Замена неисправного диска [ ]
Выполнять будем горячую замену диска без выключения и перезагрузок сервера.
1. Очистим информацию о диске sda в массивах.
2. Удаляем диск физически отключив sata шлейф.
3. Подключаем новый жесткий диск (SATA) равного до байта или большего размера на "на горячую".
4. Выполняем сканирование порта, в который подключили жесткий диск.
где host0 номер порта.
- Если нет точной уверенности, в какой именно порт воткнут новый диск, необходимо просканировать все имеющиеся порты. Список портов можно узнать:
5. Смотрим системный журнал, какое имя получил новый жесткий диск в системе:
Ищем последнюю строку, например:
Значит имя нового диска - sda
- Если новый диск физически при подключении получил другое имя например sdc, надо отключить его программно выполнив:
После чего убедится что имя старого диска /dev/sda отсутствует в описании массива и если это не так выполним очистку как описано выше выше в пунке 1.
Затем выполнить сканирование sata портов.
Активация нового диска [ ]
Чтобы не ошибиться в дальнейших действиях и не испортить данные создадим переменные с именами дисков.
Произведем копирование структуры разделов с рабочего на чистый диск и подключим его к массиву
И последовательно вводим, где 0 это номер диска:
Смотрим процесс синхронизации
Как только процесс завершиться, новый диск станет полноценным участником массива и в случае выхода из строя другого диска, система загрузится с него.
У меня есть немного старая система ProxMox 5.4-13 на одном диске на моем сервере, мне нужно добавить этот диск ProxMox в RAID1, как я могу это сделать?
p.p.s. Я попробовал после создания md0, использовать dd: dd if=/dev/sda of=/dev/md0, но после этого я получил ошибку - несоответствие размера, и мой массив рассыпался…
Что можно сделать, кто что посоветует, заранее ВСЕМ спасибо!
Начнём с простого, как сейчас диски разбиты? Lvm?
В случае lvm я бы закинула диск большего размера, разметила 10M под bios partitions, остальное под md raid. Далее - создаёшь raid1, но с одним диском, делаешь pvmove на него, меняешь на такой же размер существующий диск, копируешь разметку, добавляешь в рейд и ставишь grub на оба диска.
Все это можно поднять в kvm и протестить там
Переезд с одиночного диска на mdadm raid1 - довольно простая задача для админа, но имеет несколько неявных подводных камней. Если ты не знаешь даже с какой стороны за неё браться - лучше обратись к спецу, иначе инфу потеряешь (это я про dd с диска в массив)
Покажи lsblk, pvs, vgs, lvs, zpool status, пожалуйста.
Внемли предостережению этого господина и сделай полный бэкап перед началом работ!
Потренироваться вначале можешь на виртуалке, воссоздав там аналогичную конфигурацию. Не обязательно именно proxmox, можно и просто debian.
Спасибо! Поднял VBox для тестов, по вашему плану:
Подсунул диск sdb, сделать fdisk /dev/sdb n p 1 +10M, прочее под /dev/sdb n p 2 верно?
Далее делаем RAID1 с чем /dev/sdb2?
Далее pvmove на md0p1?… можно чуть подробнее по командам с шагами ПЛЗ? Заранее спасибо!
Для lvm отдельная настройка raid давно не особо нужна. Если есть, то второй диск можно сразу добавить в VG и включить резервирование для каждого LV. Это если используется тонкий lv data для файлов образов. Для тонкого pool тоже, вроде. По идее. Лично не пробовал.
Вообще PVE открещивается от программных вывертов - поддерживать не будут.
ну так там же не все в LVM, смотрите выше выложил боевую машину… черт ногу сломит… ( мне нужен RAID1 чтобы если диск сдох, ProxMox загрузился бы… Если не найду решения, придется рулить через RAID железки, а это совсем другая история…
Кто может на пальцах объяснить, как загнать это чудо в RAID и каое лучшее решение?
Спасибо за ответ. Вот БОЕВАЯ МАШИНА с нее буду делать:
Принцип прост. Вставляется второй диск, на нём делается «однокрылый» mdadm raid1 с missing вторым диском, форматируются разделы, основная система уводится в init 1 для консистентности, переносятся файлы (лично я переношу rsync’ом), потом правятся все fstab и grub.conf, перегенерируется initramfs (чтобы туда добавился модуль mdadm) и пробуешь загрузиться с перенесённой системы. Проверяешь на 100%, что всё ок и тогда сносишь разметку на старом диске, делаешь её такой же как и на новом и добавляешь диск в массив.
Заодно можешь место под виртуалки переделать с ext4 на zfs.
zemidius ★ ( 18.03.21 12:54:38 )Последнее исправление: zemidius 18.03.21 12:55:29 (всего исправлений: 2)
Спасибо, мне это тоже все четко понятно. Можете просто команды накидать друг за другом ПОЖАЛУЙСТА? Google такой Google, масса вариантов, а толку 0… Очень бы пригодился набор команд?
Можете просто команды накидать друг за другом
Нет, за этим надо в Job, извини. Это всё-таки форум по линуксу, а не по «сделай за меня работу бесплатно». Направление есть, подводные камни в виде правок fstab/grub и перегенерации initramfs рассказал, дальше пробуй сам на виртуалке и спрашивай, что будет непонятно.
Никто не просит сделай за меня, спасибо БОЛЬШОЕ уже за советы, ок вопрос такой я сам накидаю, но есть сразу вопросы, если можно:
Вставил 2й диск raid делать на весь диск или на партицию? Если сделаю на весь, не останется места для /boot и grub скажет что место под запись занято? Команда такая: mdadm –create /dev/md0 –level=1 –raid-devices=2 missing /dev/sdb или делаем начала sdb1 и на нем уже mdadm –create /dev/md0 –level=1 –raid-devices=2 missing /dev/sdb1? Тогда как потом будет нормальный диск ту диск raid на одном только на партиции а на втором полный на весь диск?
Я с Ubuntu в основном работал, по резервированию, монтированию, развертыванию служб типа apache, bind, nginx, ftp, postfix и тд, с загрузкой дел не имел, в общих моментах читал и представляю себе что и как, но raid всегда били на стороне железок HP серверов… Поэтому немного непонятно, зачем - основная система уводится в init 1 для консистентности?
Перегенерируется initramfs (чтобы туда добавился модуль mdadm) и тут прошу подробней и хоть 1 пример, для чего это делать?
Есть вопросы с переносом LVM, тк переносится не просто система, в ProxMox не зря есть типа миграции перенос самой системы ProxMox, там 3 раздела, root, swap и lvm, как первые сделать на созданном raid диске без проблем и потом rsync_ом данные туда, а что делать с LVM?
Еще момент, при переносе боевой машины, там куча примонтированных блочных дисков, я правильно понимаю, нужно сначала систему перетащить root, swap, lvm, как то отредактировать grub и затем уже переносить и монтировать остатки?
СПАСИБО! Это правда не сделай за меня, я сам хочу понять и научиться работать с этой частью linux! Нужны куски опыта который я не имею, от этого просил примерные команды, чтобы понять ход действий…
Еще момент… Может все же есть другой способ обезопасить себя от выхода из строя всего диска в корзине, кроме как oldschool raid1 disk to disk? К примеру тема с LVM резервированием?
Но на мой пост с вопросами ProxMox VE установить новый диск и загнать в RAID1 (комментарий) все же может кто то ответить, для тестов и полного понимания процесса?
Если не можешь с половинкой зеркала, сделай по-другому. Отрежь на твоих сторах партицию достаточного размера, сделай её lvm2 PV и введи в VG pve, перемести с sdb3 всё туда, выведи sdb3 из VG pve.
Далее можешь сделать просто целое обычное зеркало на sda3 + sdb3, и вернуть таким же образом всё на зеркало. Вроде бы где-то RedHat рекомендовал в своих best practices именно что LVM over MD RAID.
Дальше, как обычно, переустановка GRUB2 и initrd.
Вставил 2й диск raid делать на весь диск или на партицию?
Можно диск, но лучше олдскульно - партиции. Минимально /boot, swap и /.
Поэтому немного непонятно, зачем - основная система уводится в init 1 для консистентности?
Ну вот смотри, у тебя прод запущен и работает, а ты в это время его копируешь. Как думаешь консистентен ли будет бэкап?
Правятся все fstab и grub.conf на уже перенесенном raid верно?
Конечно. Текущая система то грузится нормально.
Перегенерируется initramfs (чтобы туда добавился модуль mdadm) и тут прошу подробней и хоть 1 пример, для чего это делать?
Чтобы свежеперененённая система при попытке загрузки грузила поддержку mdadm raid1 (модуль, ЕМНИП, raid1.ko), иначе увидишь unable to mount root при незагрузке.
Тут я особо не подскажу, т.к. очень мало его применял. Искать инфу по pvmove и смотри тред перенос живой centos+lvm на raid1
Боковая колонка
Рубрики
Свежие записи
Свежие комментарии
- Uriy к записи Ubuntu 20.04 настройка после установки
- Илья к записи Установка Nextcloud на чистый Centos 8
- Георгий к записи Как изменить расположение папки data в Nextcloud snap
- MertviyProrok к записи Как перенести Nextcloud snap на Nextcloud ручной конфигурации
- Антон к записи Как перенести Nextcloud snap на Nextcloud ручной конфигурации
Боковая колонка
Метки
Немного расскажу о Proxmox. Это система виртуализации с открытым исходным кодом, основанная на Debian GNU/Linux. Использует гипервизор KVM и контейнеризацию LXC.
Содержание
Предисловие
Установим Proxmox с файловой системой Zfs и программным RAID1.
Proxmox поддерживает и другие файловые системы, но есть нюансы.
Например, Proxmox из коробки поддерживает установку программного raid только с файловой системой Zfs. Поэтому если вы хотите raid на mdadm, то тут у вас 2 варианта:
- Устанавливать Debian и настраивать на нем raid на mdadm, потом сверху накатывать Proxmox (он поддерживает установку на Debian)
- Или установить Proxmox на один диск и потом делать raid на mdadm.
Но есть еще одна сложность и связана она с Uefi Bios. Дело в том, что Grub не поддерживает синхронизацию загрузочных разделов в Uefi Bios. Поэтому вам или вручную их нужно будет синхронизировать, или писать скрипт. Поэтому при установке Proxmox с Zfs и программным RAID в качестве загрузчика, используется systemd-boot. Он работает с EFI Service Partition (ESP) и, с помощью его готового скрипта, поддерживает разделы в синхронизированном состоянии.
Файловая система zfs очень зависимая от количества оперативной памяти и требует память с коррекцией ошибок (ECC). Примерные требования 4 ГБ + 1 ГБ оперативной памяти для каждого ТБ необработанного дискового пространства.
Другие варианты установки рассмотрим в следующих статьях.
Подключаем загрузочный диск Proxmox
Подключаем загрузочный диск и видим стандартное меню как в других дистрибутивах.
Выбираем Install Proxmox VE.
Лицензия
Читаем лицензию и принимаем. Нажимаем на I agree.
Разметка диска
Теперь нам нужно разметить диск. Нажимаем Options.
В разделе Filesystem выбираем zfs (RAID1).
У меня сейчас в виртуальной машине всего 2 диска, если у вас больше, в таком случае у вас будут Harddisk 2, Harddisk 3 и т.д. их нужно убрать.
Теперь переходим во вкладку Advanced Oprions.
Есть 4 параметра:
Рекомендуется сжатие lz4.
Есть 5 параметров:
Язык и время
Пароль администратора и E-Mail
Экран проверки информации
Проверяем все ли верно указано и нажимаем Install.
Процесс установки
Установка происходит достаточно быстро.
Установка завершена
Видео Установка Proxmox Zfs RAID1
Главное меню
Ставим Proxmox на программный RAID |
18.01.13 18:05 |
Proxmox Виртуальная среда является простым в использовании Открытая платформа виртуализации источника для запуска виртуальных устройств и виртуальных машин. Proxmox официально не поддерживает программный RAID, но я нашел программное обеспечение рейда, чтобы быть очень стабильным, а в некоторых случаях повезло больше, чем с аппаратным RAID. Обзор Кредиты Установка Raid Вывод должен выглядеть следующим образом: Disk /dev/sda: 1000.2 GB, 1000204886016 bytes 255 heads, 63 sectors/track, 121601 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x0009f7a7 Device Boot Start End Blocks Id System /dev/sda1 * 1 66 523264 83 Linux Partition 1 does not end on cylinder boundary. /dev/sda2 66 121602 976237568 8e Linux LVM Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes 255 heads, 63 sectors/track, 121601 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00078af8 Device Boot Start End Blocks Id System apt-get install mdadm В окне настроек выбрать пакет хорошо то все . Вывод должен выглядеть следующим образом: Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] sfdisk -d /dev/sda | sfdisk --force /dev/sdb Вывод должен быть: Checking that no-one is using this disk right now . Disk /dev/sdb: 121601 cylinders, 255 heads, 63 sectors/track Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0 /dev/sdb1 0 - 0 0 0 Empty /dev/sdb2 0 - 0 0 0 Empty /dev/sdb3 0 - 0 0 0 Empty /dev/sdb4 0 - 0 0 0 Empty Units = sectors of 512 bytes, counting from 0 /dev/sdb1 * 2048 1048575 1046528 83 Linux /dev/sdb2 1048576 1953523711 1952475136 8e Linux LVM /dev/sdb3 0 - 0 0 Empty /dev/sdb4 0 - 0 0 Empty Warning: partition 1 does not end at a cylinder boundary Successfully wrote the new partition table Re-reading the partition table . If you created or changed a DOS partition, /dev/foo7, say, then use dd(1) to zero the first 512 bytes: dd if=/dev/zero of=/dev/foo7 bs=512 count=1 Checking that no-one is using this disk right now . Disk /dev/sdb: 121601 cylinders, 255 heads, 63 sectors/track Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0 /dev/sdb1 * 0+ 65- 66- 523264 83 Linux /dev/sdb2 65+ 121601- 121536- 976237568 8e Linux LVM /dev/sdb3 0 - 0 0 0 Empty /dev/sdb4 0 - 0 0 0 Empty No partitions found switch off the mode (command 'c') and change display units to sectors (command 'u'). Partition number (1-4): 1 Hex code (type L to list codes): fd Changed system type of partition 1 to fd (Linux raid autodetect) Partition number (1-4): 2 Hex code (type L to list codes): fd Changed system type of partition 2 to fd (Linux raid autodetect) Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes 255 heads, 63 sectors/track, 121601 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00078af8 /dev/sdb1 * 1 66 523264 fd Linux raid autodetect Partition 1 does not end on cylinder boundary. /dev/sdb2 66 121602 976237568 fd Linux raid autodetect The partition table has been altered! Как мы видим, мы имеем два Linux автоопределение рейд разделов /dev/sdb. mdadm --zero-superblock /dev/sdb1 mdadm: Unrecognised md component device - /dev/sdb1 mdadm --create /dev/md0 --level=1 --raid-disks=2 missing /dev/sdb1 mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started. Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active (auto-read-only) raid1 sdb1[1] 523252 blocks super 1.2 [2/1] [_U] 976236408 blocks super 1.2 [2/1] [_U] теперь должна показывать, что у вас есть два деградировавших массивов RAID ([_U] или [U_] означает, что массив деградировали в то время как [UU] означает, что массив в порядке). cp /etc/mdadm/mdadm.conf /etc/mdadm/mdadm.conf_orig mdadm --examine --scan >> /etc/mdadm/mdadm.conf Это должно вывести: ACTIVE '/dev/pve/swap' [15.00 GiB] inherit ACTIVE '/dev/pve/root' [96.00 GiB] inherit ACTIVE '/dev/pve/data' [804.02 GiB] inherit Это выводит Physical volume "/dev/md1" successfully created показывает наш новый физический объем: PV /dev/sda2 VG pve lvm2 [931.01 GiB / 16.00 GiB free] PV /dev/md1 lvm2 [931.01 GiB] Total: 2 [1.82 TiB] / in use: 1 [931.01 GiB] / in no VG: 1 [931.01 GiB] Теперь давайте создадим группу томов pve1 и добавить к нему /dev/md1: vgcreate pve1 /dev/md1 Это должно показать успех: lvcreate --name swap --size 15G pve1 lvcreate --name root --size 96G pve1 lvcreate --name data --size 804G pve1 ACTIVE '/dev/pve/swap' [15.00 GiB] inherit ACTIVE '/dev/pve/root' [96.00 GiB] inherit ACTIVE '/dev/pve/data' [804.02 GiB] inherit ACTIVE '/dev/pve1/swap' [15.00 GiB] inherit ACTIVE '/dev/pve1/root' [96.00 GiB] inherit ACTIVE '/dev/pve1/data' [804.00 GiB] inherit mkswap /dev/pve1/swap -f mkfs.ext4 /dev/pve1/data mount /dev/md0 /mnt/boot mount /dev/pve1/root /mnt/root mount /dev/pve1/data /mnt/data Настройка системы для использования RAID 1 cp /etc/grub.d/40_custom /etc/grub.d/09_swraid1_setup Убедитесь, что вы используете правильную версию ядра в menuentry строфа (в linux и initrd линии). Вы можете найти его командой: GRUB_DEFAULT=0 писать нашего нового ядра строфа из /etc/grub.d/09_swraid1_setup к/boot/grub/grub.cfg. Теперь скопируйте файлы: cp -dpRx / /mnt/root cp -dpRx /boot/* /mnt/boot cp -dbRx /var/lib/vz/* /mnt/data Если все пойдет хорошо, вы сможете увидеть наши новые логические тома root и data и /dev/md0 установлены: /dev/mapper/pve1-root on / type ext4 (rw,errors=remount-ro) tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755) proc on /proc type proc (rw,noexec,nosuid,nodev) sysfs on /sys type sysfs (rw,noexec,nosuid,nodev) udev on /dev type tmpfs (rw,mode=0755) tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev) devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620) /dev/mapper/pve1-data on /var/lib/vz type ext4 (rw) /dev/md0 on /boot type ext4 (rw) fusectl on /sys/fs/fuse/connections type fusectl (rw) beancounter on /proc/vz/beancounter type cgroup (rw,name=beancounter) container on /proc/vz/container type cgroup (rw,name=container) fairsched on /proc/vz/fairsched type cgroup (rw,name=fairsched) Do you really want to remove active logical volume root? [y/n]: y Logical volume "root" successfully removed Do you really want to remove active logical volume swap? [y/n]: y Logical volume "swap" successfully removed Do you really want to remove active logical volume data? [y/n]: y Logical volume "data" successfully removed Volume group "pve" successfully removed Labels on physical volume "/dev/sda2" successfully wiped switch off the mode (command 'c') and change display units to sectors (command 'u'). Partition number (1-4): 1 Hex code (type L to list codes): fd Changed system type of partition 1 to fd (Linux raid autodetect) Partition number (1-4): 2 Hex code (type L to list codes): fd Changed system type of partition 2 to fd (Linux raid autodetect) 255 heads, 63 sectors/track, 121601 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x0009f7a7 /dev/sda1 * 1 66 523264 fd Linux raid autodetect Partition 1 does not end on cylinder boundary. /dev/sda2 66 121602 976237568 fd Linux raid autodetect The partition table has been altered! Теперь мы можем добавить /dev/sda1 и /dev/sda2 в /dev/md0 и /dev/md1: mdadm --add /dev/md0 /dev/sda1 mdadm --add /dev/md1 /dev/sda2 . и вы увидите, что RAID-массивовповторно быть синхронизированы. cp /etc/mdadm/mdadm.conf_orig /etc/mdadm/mdadm.conf mdadm --examine --scan >> /etc/mdadm/mdadm.conf Теперь удалите /etc/grub.d/09_swraid1_setup . rm -f /etc/grub.d/09_swraid1_setup . и обновить наш GRUB2 конфигурации загрузчика: grub-install /dev/sdb Она должна загружаться без проблем. Читайте также:
|