Hoher Load / system Träge - UCS in KVM Umgebung - Hilfe

german

#1

Hallo Forum,

wir evaluieren gerade den Univention-Server in einer virtuellen Umgebung. Leider haben wir unerklärliche Performanceprobleme, die wir gerne ausschließen würden, bevor wir eine Subskription kaufen…

Univention DC Master 4.1-3
Linux ucs 4.1.0-ucs207-amd64 #1 SMP Debian 4.1.6-1.207.201610241620 (2016-10-24) x86_64 GNU/Linux

Server dient nur als Fileserver mit Samba (ohne Clients in der Domäne) sowie als Groupware-Server mit Kopano für 6 Benutzer.

Der VM-Host (Proxmox, KVM) besitzt ausreichend Leistung und langweilt sich die meiste Zeit (kein wirklich messbares IO-Wait, CPU-Load unter 20%, mehrere GB Ram verfügbar).

Der UCS als Gast jedoch ist sehr träge, hat eine regelmäßige IO-Wait von 40-70% und eine Load Avergae von 4,00 und höher.

Die KVM-Konfiguration für UCS ist:

root@proxmox:/etc/pve/qemu-server# more 100.conf
bootdisk: virtio0
cores: 2
ide2: local:iso/UCS-Installation-amd64.iso,media=cdrom
memory: 7000
name: ucs
net0: virtio=32:89:72:1E:06:3D,bridge=vmbr0
numa: 0
onboot: 1
ostype: l26
smbios1: uuid=01a567fd-3ef2-4c2d-9c86-d6f59b961c63
sockets: 1
virtio0: local:100/vm-100-disk-1.qcow2,size=750G

Gibt es hier bekannte Unverträglichkeiten oder Stellschrauben beim Betrieb eines UCS in einer KVM Umgebung?

Wäre über jede Hilfe dankbar.

LG.

Sigmar


#2

Hallo,

unter PVE habe ich UCS bislang noch nicht betrieben, dafür aber mit dem vom UVMM mitgelieferten KVM und unter purem KVM auf einem Debian-basiertem Wirt. Generelle Probleme oder speziellen Anpassungsbedarf habe ich bislang nicht bemerkt.
Beim beschriebenen Anwendungsfall würde ich auch keinen großen Tuningbedarf sehen. QCOW2 steht zwar im Ruf, bei Datenbanken nicht ganz optimal zu sein, ob sich das derart bemerkbar macht, möchte ich aber bezweifeln,

Ich würde in zwei Richtungen nach der Ursache schauen. Zum einen, ob sich ein halbwegs vergleichbarer Linux-Server ähnlich verhält und zum anderen, ob man ggf. auf dem UCS sehen kann, ob es spezifische Aufgaben sind, die gegen ein IO-Wait laufen.

Viele Grüße,
Dirk Ahrnke


#3

Mein slave in der DMZ läuft auch noch unter Proxmox 3 und schaut so aus:

bootdisk: virtio0 cores: 2 cpu: host ide2: none,media=cdrom memory: 2048 name: slave-dmz net0: virtio=5E:81:2D:E0:C8:A6,bridge=vmbr0,tag=12 numa: 0 onboot: 1 ostype: l26 smbios1: uuid=8f6c14ac-bc88-438e-aeb8-163aeec6b540 sockets: 2 virtio0: proxmox_lvm_02:vm-126-disk-1,cache=unsafe,size=12G

cpu: host und cache=unsafe sind der Performance geschuldet.

Einzige Anpassung für den virtualisierten Betrieb:

root@slave-dmz:~# ucr get grub/append
elevator=noop

Ich habe keine I/O Probleme, benutze aber generell LVM, weil ich früher mit wachsenden qcow2 Dateien so meine Probleme hatte. Dann lieber raw und auf die Snapshotfunktionalität verzichten.