Nach Installation von UCS 4.3-1 kein Booten möglich

german
installation
ucs-4-3

#1

Hallo,
ich versuche auf einem Server von Supermicro (X10SRL-F) UCS 4.3-1 aufzusetzen. Die Installation läuft auch ohne Hinweise auf einen Fehler durch. Das Problem ist nun, das der Server nach der Installation nicht mehr bootet. Er bleibt hängen, der UCS Splashscreen ist eingefroren, es passiert nichts mehr, die Tastatur ist nicht mehr aktiv, keine Maus, kein ping … Wenn man im Grub die Linux boot-Option quiet durch text ersetzt kann man im Text Modus booten. Das letzte was man dann auf der Konsole sieht ist:
Begin: Running /scripts/init-bottom … done.

Im Bios habe ich legacy boot gewählt, secure boot ist disabled. Im Server ist ein Hardwareraid vom Typ LSI 9361 8i verbaut, 4 HDDs mit je 1TB sind als RAID6 eingebunden.
Eine Installation eines DEBIAN 9 auf diesem Server funktionierte ohne Probleme, Booten war möglich. Nun bin ich ratlos und brauche ein wenig Unterstützung. Was sollte denn als nächstes im Bootprozess (nach /scripts/init-bottom/ ) passieren, evtl. gibt mir das einen Hinweis auf den Fehler.

Vielen Dank
Jan-Peter


#2

Hallo Jan-Peter,
deaktiviere mal im Bios unter Advanced Power Management Configuration die Energieeffiziens-Optionen für die CPU (C1E, EIST, ACPI, usw.). Ich hatte in der Vergangenheit öfter Probleme mit Intel-Mainboards unter diversen Linux-Distributionen. Vielleicht hilft das.

Gruß Oliver


#3

Hallo Oliver,
vielen Dank für die Antwort, mittlerweile hatte ich schon eine Lösung für das merkwürdige Verhalten des Servers gefunden.
Bei der Installation von UCS habe ich 7 Partitionen auf dem RAID angelegt, jeweils eine für /, /home, /usr, /var, /tmp, /DATA und swap. Dabei sind /, /home, /usr als primäre, die anderen als logische Partitionen erzeugt worden. Mit dieser Art der Partitionierung ist genau der beschriebene Effekt eingetreten, kein Booten möglich!
Mehr durch Zufall habe ich bei meinen Versuchen nur 3 primäre Partitionen angelegt. Das war die Lösung, alles funktioniert ohne Probleme. Der Grund für dieses Verhalten ist mir aber nicht klar, evtl. hat ja noch jemand eine Idee.

Vielen Dank
Jan-Peter


#4

Das zwar nicht, aber warum um alles in der Welt nimmst Du nicht LVM? Eine Partition für /boot, der Rest eine VolumeGroup in der Du dann für alles, was Du möchtest ein LogicalVolume anlegst…

Aber doch nicht miT Partitionen, ist doch viel zu unflexibel 8)


#5

jo. coole idee. aber wenn er nun schon “partitionen” hat - wie kann er switchen, ohne alles wieder platt zu machen?


#6

Mit 'nem Rescue-System?


#7

jo und dann? (nun wirds auch für mich interessant)
Du bootest dann vom Live-System… und wie weiter?


#8

Das sind einige Schritte, die dann durchgeführt werden müssen. Deshalb kann ich die genauen Befehle natürlich nicht angeben.

Voraussetzung: Etwas verfügbaren HDD-Platz bzw. wenigstens Platz auf einer Partition “freischaufelbar”. Das sollte auf einem relativ frischen System kein Problem darstellen.

Einzelschritte:
0. Mittels fdisk den PArtitionstype auf “8e LVM” ändern.

  1. Die (jetzt leere) Partition (zB sda9) mittels “pvcreate -f /dev/sda9” als LVM-Partition erstellen. Aufpassen, dass es die richtige ist, damit werden nämlich DAten gelöscht!
  2. vgcreate <VG_NAME> /dev/sda9
  3. lvcreate -n <LV_NAME> -l100%VG <VG_NAME>
  4. mkfs.ext4 /dev/VG_NAME/LV_NAME
  5. das neue LV mounten und gesicherte Daten draufspielen.
  6. /etc/fstab anpassen (wichtig!)
    Und dann die Schritte für alle Paritionen wiederholen. AUßER Schritt2. Da muss dann anstelle des “vgcreate” ein “vgextend <VG_NAME> /dev/sdNEXTPART” hin.

/KNEBB