Hallo Gemeinde,
ich evaluiere derzeit den Univention Corporate Server als Alternative zu Windows Small Business Server. Mit der “Free for Personal Use”-Edition habe ich bereits erfolgreich einen DC Master (UCS 3.0-1) auf einem System installieren können. Allerdings scheitert bei dem Versuch ein DC Slave-System aufzusetzen der Bootvorgang. Es scheint so, als würden zwei der eingerichteten Software-RAIDs einfach verschwinden.
System-Informationen:
Es handelt sich um einen Maxdata Platinum 200 Server mit 2 x 250 GB SATA Festplatten an einem FakeRAID-Controller (ICH7R vermutlich). Dieser wurde im BIOS deaktiviert, der SATA-Controller auf AHCI eingestellt. Vormals war auf dem System ein Gentoo Linux mit XEN Hypervisor installiert. Installiert wurde der Univention Corporate Server 3.0 (UCS 3.0) gemäß Handbuch und Experten-Dokumentation wegen der Übernahme der vorhandenen Software-RAIDs/des Partitionslayouts. Die LVM-Gruppe darf nicht gelöscht und/oder neu erstellt werden, da hier noch zwei virtuelle XEN-Maschinen ihren Platz finden.
Partitionslayout
sd[a|b]1 100 MB ext2 RAID-1 (md0) /boot
sd[a|b]2 1024 MB swap swap
sd[a|b]3 2048 MB ext3 RAID-1 (md1) /
sd[a|b]4 (Rest) - RAID-0 (md127) LVM2 VG-Name: vg_ucs
LVM-Layout (VG: vg_ucs)
home 10 GB ext3 /home
opt 4 GB ext3 /opt
tmp 2 GB ext2 /tmp
usr 8 GB ext3 /usr
var 4 GB ext3 /var
vartmp 6 GB ext2 /var/tmp
Während der Experten-Installation wurden die entsprechenden Variablen in der Configuration Registry gesetzt (installer/device/…/[fs|name|mp], grub/boot, grub/groot, gem. Wiki-Beitrag), GRUB wurde nach /dev/sda und /dev/sdb installiert. Die Installation wurde erfolgreich abgeschlossen, nach dem Neustart wird versucht zu booten, doch hier werde ich dann auf die Shell zurückgeworfen, weil er die Root-Partition nicht finden kann.
Während der Installation:
[code]# cat /proc/mdstat
Pesonalitites : [raid1] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sda1[0] sdb1[1]
102336 blocks [2/2] [UU]
md1 : active raid1 sda3[0] sdb3[1]
2096116 blocks super 1.2 [2/2] [UU]
md127 : active raid0 sda4[0] sdb4[1]
482945024 blocks super 1.2 512k chunks
unused devices: [/code]
Nach der Installation:
[code]
…
Success: loaded module raid1.
Success: loaded module raid0.
Begin: Assembling all MD arrays …
[ 3.080217] md: md127 stopped.
[ 3.083350] md: bind
[ 3.083488] md: bind
mdadm: Container /dev/md/imsm0 has been assembled with 2 drives
Failure: failed to assemble all arays.
Begin: Waiting for root file system … done.
Gave up waiting for root device. …
…
ALERT! /dev/md1 does not exist. Dropping to a shell!
…
cat /proc/partitions
major minor #blocks name
8 0 244168584 sda
8 16 244198584 sdb
cat /proc/mdstat
Personalities : [raid0] [raid1]
md127 : inactive sdb1 sda0
4514 blocks super external:imsm
unused devices: [/code]
Versuchweise habe ich md0 aufgelöst und ausschließlich /dev/sda1 für /boot verwendet, leider ohne Erfolg. Google lieferte mir leider auch keine brauchbaren Ergebnisse. Ich bin im Moment etwas ratlos was dieses Verhalten anbelangt. Zumal die vorherige Gentoo-Installation ohne Probleme auch vom RAID-1 booten konnte. Vielleicht übersehe ich aber auch das Wesentliche. Wäre nett wenn mir jemand einen Wink in die richtige Richtung geben könnte. Vielen Dank jetzt schon im Voraus.
Gruß
Sascha Schröder