Mit dem sudo mdadm –assemble –scan wird theoretisch das gefundene (scan) Raid wieder zusammengesetzt. Du kannst allerdings auch die einzelnen Partitionen selbst angeben, die zu deinem Raid gehören. Das wäre dann sudo mdadm –assemble /dev/md0 /dev/sde1 /dev/sdf1 /dev/sdg1 ohne zu scannen.
Install Software-RAID on Debian 4.0 (Etch)
Das hab ich probiert (2. Versuch): http://www.debian-administration.org/articles/512 Ist recht gut und klingt logisch. Lilo/Grub kann nicht in (SW-)RAID5 booten und daher hab ich / zu Raid 1 gemacht (mit 2 Platten - je 10 GB, dafür hab ich auf der 3 Platte eine Swap-Partition erstellt. Diese beiden logischen LWs laufen nicht über LVM, das Raid5 schon, Das Raid5 ist als /var/ eingebunden).
# Boot the Debian Etch installer.
# If the installation comes to „Partition method“, use „Manual“.
# In the following menu, scroll to your first disk and hit enter: the partitionier asks you, if you want to create an empty partition table. Say „yes“. (Hint: this will erase your existing data, if any.)
# The partitioner is back in the disk overview, scroll one line downwards over the line with „FREE SPACE“ and hit enter.
# Create a partition with the size you need, but remember the size and the logical type.
# In the „Partition settings“ menu, go to „Use as“ and hit enter.
# Change the type to „physical volume for RAID“.
# Finish this partition with „Done setting up the partition“.
# Create other partitions on the same disk, if you like.
# Now repeat all the steps from the first disk for the second disk.
# After this, you should have at least two disks with the same partition schema and all partitions (beside swap) should be marked for RAID use.
# Now look at the first menu entry in the partitioner menu, there is a new line: „Configure software RAID“. Go into this menu.
# Answer the question, if you like to write the changes, with „Yes“.
# Now pick „Create MD device“.
# Use RAID1 and give the number of active and spare devices (2 and 0 in our case).
# In the following menu, select the same device number on the first and second disk and Continue.
# Repeat this step for every two devices until you are done. Then use „Finish“ from the Multidisk configuration options.
# You are back in the partitioner menu and now you see one ore more new partitions named as „Software RAID Device“. You can use this partitions like any normal partition and continue installing your system.
Nachdem das RAID1 eingerichtet ist und in das frisch installierte System gebootet wurde, kann via mdadm das Raid geprüft (mdadm –detail /dev/dm0) , überwacht und administriert werden. Siehe dazu „man mdadm“ oder auch im Software-RAID-HowTO. Dort werden wichtige Kommando zum Entfernen (z.B. mdadm /dev/md1 -r /dev/sdc2) und hinzufügen (z.B. mdadm /dev/md1 -a /dev/sdc2) zum Array erläutert.
If you're using the /proc filesystem, /proc/mdstat gives you informations about md devices status. This file is not currently used by mdadm.
Jetzt bauen wir uns ein Raid5 mit 3 Elementen.
mdadm --create -amd --level 5 --raid-devices 3 /dev/sdb2 /dev/sdc2 /dev/sdd2
Jetzt muss man warten bis das Raid5 aufgebaut ist, da sonst mit Datenverlust zu rechnen ist.
pvcreate /dev/md1 vgcreate raid5 /dev/md1 lvcreate -l5G raid5 root lvcreate -l3G raid5 usr lvcreate -l220G raid5 home lvcreate -l10G raid5 var
Status von SW-RAid:
cat /proc/mdstat
Für Software-Raid gibts u.a. mdadm.
z.B.: mdadm --detail /dev/md1
http://www.unixwerk.de/linux/raidtausch.html
/etc/mdadm.conf from
z.B.:
ARRAY /dev/md2 level=raid5 num-devices=4 spares=1
UUID=4f935928:2b7a1633:71d575d6:dab4d6bc
Die UUID ist die UUID des Arrays
Identifizierung und Austausch der defekten Platte Zunächst muss mit «mdadm -D /dev/md?» ermittelt werden, welche der beiden Platten eigentlich defekt ist. Auch die Ausgabe von «dmesg» kann dabei hilfreich sein. Anhand dieser Angaben sollte es möglich sein, die defekte Platte physikalisch zu lokalisieren (SCSI-ID, IDE-Kanal, …) und auszutauschen.
Zunächst schauen wir uns an, wie die überlebende Platte partitioniert ist