Benutzer-Werkzeuge

Webseiten-Werkzeuge


ceph_-_rbd-storage

Dies ist eine alte Version des Dokuments!


Ceph - RBD-Storage

CLI-basierte Installation ist notwendig, wenn z.B. ein Mesh-Netzwerk für Storage verwendet wird, da die IP-Adresse nicht in /etc/network/interfaces steht und somit in der GUI-Variante nicht ausgewählt werden kann.

Voraussetzungen

mind. 3 Nodes bilden einen Cluster. Bei 2 aktiven Nodes steht der Storage weiterhin zur Verfügung.

Installation

per CLI: pveceph install –repository no-subscription

Initial Ceph configuration via CLI nur auf einer Node

pveceph init --network 10.13.13.0/24

Monitor-Nodes hinzufügen

pveceph mon create

andere können über GUI hinzugefügt werden

Manager-Nodes hinzufügen

kann über GUI auf allen Nodes hinzugefügt werden.

OSD erstellen

Auf allen Nodes ausführen.

Crush-rules für SSD und HDD

wenn nur SSD's und nur HDD's je einen Pool bilden sollen, so müssen separate crush rules vergeben werden. Die entsprechenden OSD's müssen bereits vorhanden sein.

ceph osd crush rule create-replicated SSD_REP default host ssd
ceph osd crush rule create-replicated HDD_REP default host hdd

Ceph-Pool erstellen

Der Pool wird nur auf einer Node erstellt. Über die GUI läßt sich nur der defaultmäßige replicated Pool erstellen. Hier werden die Daten auf allen Nodes identisch vorgehalten, was die bestmöglivche Geschwindigkeit bietet.

CRUSH-rule für den Storage auswählen.

Soll ein Erasure Coded Pool erstellt werden, werden die Daten so verteilt, daß mehr Plattenplatz zur Verfügung steht als beim replicated Pool, dies aber auf Kosten der Performance erfolgt. Dies ist nur über das CLI möglich

pveceph pool create Ceph-SSD --erasure-coding k=2,m=1 --add_storages
ceph_-_rbd-storage.1696159017.txt.gz · Zuletzt geändert: 2023/10/01 13:16 von jochen