diff --git a/zfs-intro.md b/zfs-intro.md index 9a6add4..920a7ef 100644 --- a/zfs-intro.md +++ b/zfs-intro.md @@ -4,16 +4,30 @@ ZFS Einführung Inhalt ------ -- Geschichte -- Pools -- Datasets +::: {.container} +::: {.col} +1. Geschichte +2. Pools +3. Datasets - Volumes -- Redundanz -- Caches -- Snapshots -- Besondere Features +4. Snapshots +::: + +::: {.col} +5. Redundanz +6. Caches +7. Besondere Features - Deduplikation - Kompression +::: +::: + +*Nicht* behandelt +----------------- + +- Austausch von Platten +- Eingebautes Sharing via NFS/CIFS +- Root auf ZFS Geschichte ========== @@ -33,59 +47,132 @@ Features Pools ----- -- ZFS ist Dateisystem und Volume Manager gleichzeitig -- Basis: Blockdevices -- Blockdevices können zu `vdev`s zusammengefasst werden -- Blockdevices und `vdev`s bilden zusammen einen Storage Pool -- Viele Einstellungen schon hier möglich, werden runter vererbt +- ZFS ist Dateisystem und Volume Manager gleichzeitig +- Basis: Blockdevices +- Blockdevices können zu `vdev`s zusammengefasst werden +- Blockdevices und `vdev`s bilden zusammen einen Storage Pool +- Viele Einstellungen schon hier möglich, werden runter vererbt Demo ---- + Datasets -------- -- Datasets entsprechen eigentlichen Dateisystemen -- Können verschachtelt werden -- Settings eines Datasets werden vererbt -- Standardmäßig so groß wie das übergeordnete Dataset -- Quotas können gesammt, pro User oder pro Gruppe vergeben werden +- Datasets entsprechen eigentlichen Dateisystemen +- Können verschachtelt werden +- Settings eines Datasets werden vererbt +- Standardmäßig so groß wie das übergeordnete Dataset +- Quotas können gesammt, pro User oder pro Gruppe vergeben werden -### Volumes +Volumes +------- -- Spezielle Datasets -- Verhalten sich wie Blockdevices -- Gerne genutzt für VM Images, Swap Space, … - -Redundanz ---------- - -Caches ------- +- Spezielle Datasets +- Verhalten sich wie Blockdevices +- Gerne genutzt für VM Images, Swap Space, ... Snapshots --------- +- Werden durch CoW ermöglicht +- Halten den exakten Stand fest +- Sind keine Kopie sondern der eingefrorene Zustand +- Können auf andere Rechner, Pools, Datasets übertragen werden + + + +Demo +---- + + + +Caches: RAM +----------- + +- ARC Read-Cache, Default: zwischen `max(32MB, 1/32 RAM)` und ½ RAM +- Write-Cache, schreibt zumindest alle 5-30 Sekunden auf die Platte + +Caches: Disken +-------------- + +- Pro Pool +- Schnelle Medien (SSD, M2, ...) +- Lesen: L2ARC (Level 2 ARC), kann auch Dedup-Tabelle halten +- Schreiben: SLOG als Schreib-Cache + - Sollte gespiegelt sein, sonst Risiko des Datenverlusts +- Können im Betrieb hinzugefügt und entfernt werden + + + Besondere Features ================== Deduplikation ------------- +- Prüfsumme über Blöcke, wenn gleich wird nur 1 Kopie gespeichert +- Keine rückwirkende Änderung +- Braucht **viel** RAM (1GB RAM / 1TB Dataset zusätzlich) +- Sinnvoll für Archive + Kompression ----------- +- Wie Dedup auf Block-Level +- Wie Dedup keine rückwirkende Änderung +- Unterschiedliche Verfahren je nach Anforderung vorhanden +- *Sehr* sinnvoll für Datasets mit viele Text-Dateien (Logs, + Mail-Spool, ...) + Links ===== Links ----- -
-
ZFS Demo VM
https://cloud.usrspace.at/s/eB4ifqQBNtLz322
-
+ZFS Demo VM +: https://cloud.usrspace.at/s/eB4ifqQBNtLz322 + +Wikipedia zu ZFS +: https://en.wikipedia.org/wiki/ZFS Präsentation ist [CC-BY-SA 4.0](https://creativecommons.org/licenses/by-sa/4.0/legalcode.de)