ALTA !!!

Der neue Server ist up und ich entjungfere ihn mal direkt mit einem "LECK MICH AM ARSCH - WARUM???" - Blogeintrag.

Ich sitze auf der Arbeit, richte, wie ich es sicher schon dutzende Male gemacht habe, ein Heartbeat mit DRBD ein und sehe (erstmals unter Lucid Lynx) folgendes beim starten einer Filesystem-Ressource im Log:

...
ResourceManager[8524]:  2010/08/11_20:39:08 info: Running /etc/ha.d/resource.d/Filesystem /dev/drbd1 /server/data/nfs reiserfs defaults,acl,rw start
Filesystem[8840]:       2010/08/11_20:39:08 INFO: Running start for /dev/drbd1 on /server/data/nfs
FATAL: Module scsi_hostadapter not found.
...

Worauf lässt es sich zurückführen? Man lese und staune:

Zitat aus Datei "/usr/lib/ocf/resource.d/heartbeat/Filesystem", Zeilen 404 bis 408:

if [ "X\${HOSTOS}" != "XOpenBSD" ];then
# Insert SCSI module
# TODO: This probably should go away. Why should the filesystem
# RA magically load a kernel module?
\$MODPROBE scsi_hostadapter >/dev/null

So, Masterfrage: Was passiert, wenn ein Kernel das Modul scsi_hostadapter nicht oder nicht als Modul kompiliert hat (so wie es, nebenbei bemerkt, beim Standardkernel von Lucid Lynx (2.6.32-24-server) der Fall ist)? Riiiiiiiiiiiiichtig: Hier wird ein Exitcode ungleich 0 generiert, und Heartbeat denkt die ganze Aktion ist fehlgeschlagen.

Das ganze lässt sich also durch auskommentieren der Zeile 408 ("\$MODPROBE scsi_hostadapter >/dev/null") beheben.

12.08.2010 - UPDATE: Scheinbar hatte ich das gestern fehlinterpretiert. Es wird zwar die "FATAL: Module scsi_hostadapter not found." - Meldung ausgegeben, jedoch hat dieses doch keine Auswirkungen auf den Errorcode des gesamten Scriptes. Dann lag das gestern an was anderes ... gnaaaahr :D

Teilen per: TwitterEmail


Comments

comments powered by Disqus