Linux-Admin: Oracle Cluster File System (OCFS): Unterschied zwischen den Versionen
Keine Bearbeitungszusammenfassung |
Keine Bearbeitungszusammenfassung |
||
Zeile 83: | Zeile 83: | ||
/dev/disk/by-path/ip-192.168.0.10:3260-iscsi-iqn.2002-10.com.infortrend:raid.sn7195854.00-lun-0-part1 /vmstorage ocfs2 _netdev 0 0 | /dev/disk/by-path/ip-192.168.0.10:3260-iscsi-iqn.2002-10.com.infortrend:raid.sn7195854.00-lun-0-part1 /vmstorage ocfs2 _netdev 0 0 | ||
=== Besonderheiten === | |||
[[Category:Installations- und Konfigurationsanleitungen|Installations-_und_Konfigurationsanleitungen]] <br/>[[Category:Anleitung]] <br/> <br/> | Wenn verschiedene o2cb / dlm-Versionen kooperieren sollen, sollte der Node mit der '''ÄLTESTEN''' Version das Dateisystem '''ZUERST''' mounten, sonst kommt es zu Fehlern.<br/><br/> | ||
[[Category:Installations- und Konfigurationsanleitungen|Installations-_und_Konfigurationsanleitungen]] <br/>[[Category:Anleitung]] <br/><br/> |
Version vom 14. November 2011, 14:50 Uhr
Wozu ist das gut?
Um den Netzwerkspeicherplatz des iSCSI-RAID-Systems von mehreren Servern aus gleichzeitig zu mounten, ist ein Cluster-Dateisystem nötig. OCFS2 erfüllt diese Kriterien und ist in den OpenSuse-Standard-Repos enthalten.
Einrichtung eines OCFS2-Clusters
Paket-Installation
Benötigt werden zusätzlich zur Standard-Installation folgende Pakete:
open-iscsi ocfs2-tools ocfs2-tools-o2cb sowie deren Abhängigkeiten
Cluster-Definition
Alle Rechner, die Zugriff auf den iSCSI-Plattenbereich erhalten sollen, benötigen eine Cluster-Definitions-Datei, die aus ALLEN Nodes IDENTISCH sein muss:
/etc/ocfs2/cluster.conf
In dieser Datei wird der Cluster und alle seine Teilnehmer ("nodes") definiert. Der Port 7777 ist der Default. Bei uns läuft das Speichernetzwerk im internen Netzwerk (192.168.0.*), in der Firewall als interne Zone definiert. Dann muss Port 7777 nicht extra geöffnet werden.
Dies ist die Beispiel-Konfiguration für den vmstorage-Cluster:
cluster: node_count = 3 name = vmstorage node: ip_port = 7777 ip_address = 192.168.0.12 number = 1 name = vmhost1 cluster = vmstorage node: ip_port = 7777 ip_address = 192.168.0.13 number = 2 name = vmhost2 cluster = vmstorage node: ip_port = 7777 ip_address = 192.168.0.14 number = 3 name = vmhost3 cluster = vmstorage
iSCSI-Target mounten
Um sich mit dem iSCSI-RAID zu verbinden, startet man YAST2 und benutzt unter "Netzwerkdienste" den iSCSI-Initiator. Folgende Einstellungen sind nötig:
- Dienst beim Booten starten
- Discovery:
- 192.168.0.10 für vmstorage
- 192.168.0.11 für datengrab
- leere Authentifizierung (NICHT "keine Auth.")
- Login in das passende Target
- Verbindung: automatisch
Dem iSCSI-RAID muss die IQN des zugreifenden Servers bekannt sein. Falls das noch nicht der Fall ist, muss diese Angabe mit minicom auf dem iSCSI-RAID gespeichert werden.
O2CB-Dienst starten
Der o2cb-Dienst regelt die Kommunikation der Cluster-Teilnehmer untereinander sowie die Verwaltung der Lock-Files. Falls es sich um eine Neuinstallation handelt, müssen zuerst die Grundeinstellungen festgelegt werden:
rco2cb configure Einstellungen: * Dienst beim Booten starten * Name des zu startenden Clusters (vmstorage oder datengrab) * alles andere: default (ENTER)
Mounten des Dateisystems
Zum Testen kann man das Dateiystem normal manuell mounten:
mount <devicename> <mountpoint>
Für den Dauerbetrieb empfiehlt sich ein Eintrag in der /etc/fstab. Nützlich: Besser die Notation /dev/disk/by-path/* verwenden, um Verwechslungen mit anderen devices (sda1, sdb1 etc.) auszuschließen. Wichtig ist der _netdev-Eintrag, sonst wird beim Booten zu früh versucht, das iSCSI-Target zu mounten. Hier ein Beispiel auf vmhost1:
/dev/disk/by-path/ip-192.168.0.10:3260-iscsi-iqn.2002-10.com.infortrend:raid.sn7195854.00-lun-0-part1 /vmstorage ocfs2 _netdev 0 0
Besonderheiten
Wenn verschiedene o2cb / dlm-Versionen kooperieren sollen, sollte der Node mit der ÄLTESTEN Version das Dateisystem ZUERST mounten, sonst kommt es zu Fehlern.