asm (Adaptec Storage Manager) — графическая утилита.
Устанавливаем утилиту arcconf с сайта производителя и официальную документацию по использованию
Также можно установить так:
Команда для получения полной информации о контроллере:
#arcconf getconfig 1
если при запуске утилиты появится ошибка вида:
arcconf: error while loading shared libraries:
libstdc++.so.5: cannot open shared object file: No such file or directory
Нужно установить пакет libstdc++-v3 (для centos - compat-libstdc++-33) или указать где находится искомая библиотека, например так:
# export LD_PRELOAD="/usr/StorMan/libstdc++.so.5"
Как можно проверить состояние аппаратного RAID?
Для проверки статуса Adaptec RAID-контроллера должна быть установлена утилита командной строки arcconf. В Rescue-системе она установлена по умолчанию.
Состояние RAID можно получить следующей командой:#arcconf GETCONFIG 1 LD
Состояние жестких дисков можно получить следующей командой:#arcconf GETCONFIG 1 PD
так как при этом выводится масса дополнительной информации, рекомендуется отфильтровать вывод. Например:#arcconf getconfig 1 pd|egrep "Device #|State\>|Reported Location|Reported Channel|S.M.A.R.T. warnings"
Вне зависимости от того, требуется ли изменить существующий RAID, или создать новый (после установки RAID-контроллера), его необходимо настроить. Первое, что нужно сделать, это удалить диски из их логических дисков:#arcconf DELETE LOGICALDRIVE
например, так:#arcconf DELETE 1 LOGICALDRIVE 0
или так (для всех дисков):#arcconf DELETE 1 LOGICALDRIVE ALL
Теперь можно создать новый RAID:#arcconf CREATE LOGICALDRIVE [Options] [Channel# ID#]
создание RAID-0 (максимальный размер, диски на Channel 0, Port 0 и 1, без подтверждения):#arcconf CREATE 1 LOGICALDRIVE MAX 0 0 0 0 1 noprompt
создание RAID-1 (максимальный размер, диски на Channel 0, Port 0 и 1, без подтверждения):#arcconf CREATE 1 LOGICALDRIVE MAX 1 0 0 0 1 noprompt
создание RAID-5 (максимальный размер, диски на Channel 0; Port 0, 1 и 2, без подтверждения):#arcconf CREATE 1 LOGICALDRIVE MAX 5 0 0 0 1 0 2 noprompt
создание RAID-10 (максимальный размер, диски на Channel 0; Port 0, 1, 2 и 3, без подтверждения):#arcconf CREATE 1 LOGICALDRIVE MAX 10 0 0 0 1 0 2 0 3 noprompt
Синтаксис: arcconf CREATE <Controller#> JBOD <Channel# ID#
#arcconf CREATE 1 JBOD 0 2 noprompt
Далее ищем диск в списке:
ls -l /dev/
форматируем и монтируем
Удаляем JBOD (одиночный диск на Channel 0, Port 2):
предварительно нужно отмонтировать
Синтаксис: ARCCONF DELETE <Controller#> JBOD <CHANNEL# DRIVE#> [CHANNEL# DRIVE#] ... [noprompt]
# arcconf DELETE 1 JBOD 0 2 noprompt
Создаем simple volume
# arcconf create 1 LOGICALDRIVE MAX volume 0,15
удаляем simple volume. удаление происходит по номеру логического диска
# arcconf delete 1 LOGICALDRIVE 3 - где 3 - номер логического диска
Меняем имя массиву
# arcconf SETNAME <Controller#> LOGICALDRIVE <LogicalDrive#> <New Name>
Как при помощи arcconf запустить REBUILD для RAID, находящегося в состоянии DEGRADED?
Для начала необходимо проверить, все ли жёсткие диски определяются:#arcconf GETCONFIG 1 PD
Если нет, то можно запустить ручное сканирование:#arcconf RESCAN 1
состояние RAID должно отображаться как degraded:
Controllers found: 1
----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical device number 0
Logical device name : Device 0
RAID level : 1
Status of logical device : Degraded
Size : 1428470 MB
Read-cache mode : Enabled
Write-cache mode : Enabled (write-back)
Write-cache setting : Enabled (write-back)
Partitioned : No
Protected by Hot-Spare : No
Bootable : Yes
Failed stripes : No
Power settings : Disabled
--------------------------------------------------------
Logical device segment information
--------------------------------------------------------
Segment 0 : Inconsistent (0,0) 9VS38R1D
Segment 1 : Present (0,1) 9VS38RKE
Может быть необходимо удалить метаданные:arcconf TASK START 1 DEVICE 0 0 CLEAR
Так как обычно ‘automatic failover’ включен, rebuild должен уже запуститься. В противном случае жёсткий диск добавляется в RAID как Hot-Spare. Rebuild запускается автоматически:arcconf SETSTATE 1 DEVICE 0 0 HSP LOGICALDRIVE 0
После rebuild RAID-массива на Hot-Spare диск этот диск продолжает быть помечен как Hot-Spare. После замены сбойного диска данные автоматически переносятся на новый диск. С помощью arcconf можно удалить метку Hot-Spare и назначить новый (заменённый) диск как новый Hot-Spare. Подробная информация расположена на сайте Adaptec Adaptec KB5117
Например, настройка Device 0;0 на Controller 1 с ‘Hot-Spare’ на ‘Ready’:arcconf setstate 1 device 0 0 rdy
С помощью модуля sg можно обратиться непосредственно к жёстким дискам на контроллере. Например, для первого жёсткого диска:smartctl -d sat -a /dev/sg1
В зависимости от операционной системы может потребоваться обновление smartmontools или ядра.
Если массив обнаруживается в состоянии failed или offline, есть шанс форсировать его активацию или создать новый массив без потери данных. Однако, при этом восстановление не гарантируется. Нельзя исключить и потерю данных
При определённых обстоятельствах включение массива online может оказаться возможным с помощью следующей команды:arcconf SETSTATE LOGICALDRIVE OPTIMAL [ADVANCED
Пример для первого массива первого контроллера выглядел бы так:arcconf SETSTATE 1 LOGICALDRIVE 0 OPTIMAL ADVANCED nocheck noprompt