Skip to content

NAS 2023 - Software Teil 1

Angeheftet Verschoben Linux
  • Kommen wir zum schwierigen Teil. Man kann ja auch alles mit einem Debian Server machen, aber ich hatte mich mal wieder für einen Proxmox entschieden. Habe ja schon öfter einen gehabt und finde ihn immer wieder sehr praktisch.

    Auf dem NVMe SSD Riegel habe ich eine Standardinstallation mit dem ISO Image von Proxmox durchgeführt. Das kennt man ja so weit schon.

    Kleiner Tipp, macht die Installation immer schon am richtigen Netzwerk (falls mehrere vorhanden sind), das hinterher zu ändern ist immer unnötige Arbeit.

    23287ac1-59b2-4a18-bb94-d726f3f92f0f-grafik.png

    Ich hatte einige Probleme ein verschlüsseltes RIADs einzurichten bzw. überhaupt RAIDs. Die waren immer wieder nach einem Reboot weg!? Ich habe das dann mal für mich auf den fehlenden GRUB geschoben!??

    Device       Start        End    Sectors   Size Type
    /dev/sdd1       34       2047       2014  1007K BIOS boot
    /dev/sdd2     2048    2099199    2097152     1G EFI System
    /dev/sdd3  2099200 1953525134 1951425935 930.5G Linux LVM
    

    Ich habe es dann mit den Möglichkeiten von Proxmox (GUI) realisiert. Dazu bietet Proxmox ja ZFS an und ich hatte das schon mal länger hier im Einsatz. Na dann halt jetzt auch wieder.

    Also, die zwei 4TB-Platten geteilt und zwei ZFS Pools angelegt.

    67db7964-5e0e-4c27-97c1-12f522afb487-grafik.png

    Jetzt konnte ich aber immer noch nicht das machen, was ich wollte. Die Pools konnten nur Disk Image & Container enthalten!?

    9c1aa049-3c56-4304-b1d8-6579e6a0abaf-grafik.png

    Man kann aber unter Datacenter - Storage -Add ein Directory anlegen. Das bekommt irgendeinen Namen und als Pfad folgendes übergeben

    /Pool_1/Backups
    

    Das sieht dann so aus.

    3f65a7a7-1a0b-44bc-96f5-6118edc922c7-grafik.png

    Was macht das im Hintergrund, es legt ein Volume auf dem ZFS-Pool an.

    root@pve:~# zfs list
    NAME             USED  AVAIL     REFER  MOUNTPOINT
    Pool_1           940M  1.76T       96K  /Pool_1
    Pool_1/Backups   939M  1.76T      939M  /Pool_1/Backups
    Pool_2           277G  1.49T       96K  /Pool_2
    Pool_2/NAS       277G  1.49T      277G  /Pool_2/NAS
    

    Und jetzt bin ich in der Lage, dem Volume zuzuweisen, was ich dort speichern möchte.

    Jetzt was Wichtiges. Der Teil mit ZFS kann Fehler enthalten, wer es besser weiß, ich freue mich immer über Verbesserungen und Korrekturen.

    Jetzt habe ich das so, wie ich das haben möchte. Ein Pool kümmert sich um Datensicherungen usw. Der ander Pool dient meinem NAS als Datenspeicher.

    Nächster Teil wird sich dann mit der Einrichtung der pfSense VM beschäftigen.

    NAS 2023 - Hardware

    NAS 2023 - Software Teil 2

  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM verschob dieses Thema von Privat am
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat am auf dieses Thema verwiesen
  • FrankMF FrankM hat dieses Thema am angepinnt

  • 0 Stimmen
    1 Beiträge
    149 Aufrufe
    Niemand hat geantwortet
  • 0 Stimmen
    1 Beiträge
    75 Aufrufe
    Niemand hat geantwortet
  • NAS 2023 - Thema Datensicherung

    Verschoben Linux
    2
    0 Stimmen
    2 Beiträge
    119 Aufrufe
    FrankMF

    Bleibt noch etwas wichtiges. Die ganzen Konfigurationsdateien vom Proxmox Host. Sinnvoll, das man sich das sichert.

    #!/bin/bash # Script um mit Restic Daten automatisiert zu sichern! # Dient zum Sichern des Ordners /etc/pve! # Was soll gesichert werden? backup_pfad=/etc/pve # Programm Start restic --password-file /root/passwd -r /mnt/pve/Restic_Backups/pve backup $backup_pfad > backup_pve_001.log restic --password-file /root/passwd -r /mnt/pve/Restic_Backups/pve forget --keep-last 3 --keep-monthly 3 --prune >> backup_pve_002.log # Testen restic --password-file /root/passwd -r /mnt/pve/Restic_Backups/pve check --read-data >> backup_pve_003.log

    Crontab eingerichtet - fertig!

  • LMDE Upgrade Tool Beta

    Linux
    2
    0 Stimmen
    2 Beiträge
    133 Aufrufe
    FrankMF

    Ok, die Option gab es schon. Kann man im Hamburger Menü unter Preferences einstellen.

    ef454fc1-bcb8-4264-b498-1e6aa0a1b205-grafik.png

  • ZFS - Wichtige Befehle

    Linux
    2
    0 Stimmen
    2 Beiträge
    392 Aufrufe
    FrankMF

    Unter dem Beitrag sammel ich mal ein paar Beispiele, für mich zum Nachlesen 🙂

    Den Anfang macht die

    ZFS-Replication

    Ich hatte Am Anfang ein wenig Verständnisprobleme, bis es klar war, das diese Replication von Pool zu Pool funktioniert. Also brauchen wir zwei vorhandene ZFS-Pools.

    root@pbs:/mnt/datastore/datapool/test# zfs list NAME USED AVAIL REFER MOUNTPOINT Backup_Home 222G 677G 222G /mnt/datastore/Backup_Home datapool 2.36G 1.75T 2.36G /mnt/datastore/datapool

    Wir erzeugen ein Dataset im datapool

    zfs create datapool/docs -o mountpoint=/docs

    Wir erzeugen eine Datei mit Inhalt

    echo "version 1" > /docs/data.txt

    Wir erzeugen einen Snapshot

    zfs snapshot datapool/docs@today

    Kontrolle

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 0B - 96K -

    Wir replizieren den vorhandenen Snapshot zum ZFS-Pool Backup_Home und speichern ihn da im Dataset test.

    zfs send datapool/docs@today | zfs receive Backup_Home/test

    Nun befinden sich die Daten in dem anderen ZFS-Pool

    root@pbs:/mnt/datastore/datapool/test# ls /mnt/datastore/Backup_Home/test/ data.txt

    Und was mich am meisten interessiert, ist wie man das zu einem anderen Server schickt 😉

    zfs send datapool/docs@today | ssh otherserver zfs receive backuppool/backup

    Den Test reiche ich dann später nach.

    Quelle: https://www.howtoforge.com/tutorial/how-to-use-snapshots-clones-and-replication-in-zfs-on-linux/

    ZFS inkrementelle Replication

    Als, nur die geänderten Daten senden!

    Wir erzeugen ein paar Dateien

    root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data1.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data2.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data3.txt root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data4.txt

    Neuer Snapshot

    zfs snapshot datapool/docs@17:02

    Liste der Snapshots

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot NAME USED AVAIL REFER MOUNTPOINT datapool/docs@today 56K - 96K - datapool/docs@17:02 0B - 112K -

    Wir senden dieinkrementelle Replication

    zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K cannot receive incremental stream: destination Backup_Home/test has been modified since most recent snapshot

    Dazu schreibt die Anleitung, die ich unten verlinkt habe, das die Daten verändert wurden. Warum, verstehe ich aktuell noch nicht. Mit -F im send Befehl erzwingt man einen Rollback zum letzten Snapshot.

    zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive -F Backup_Home/test send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K total estimated size is 38.6K

    Und Kontrolle

    ls /mnt/datastore/Backup_Home/test/ data1.txt data2.txt data3.txt data4.txt data.txt

    Quelle: https://klarasystems.com/articles/introduction-to-zfs-replication/

  • Standard Tools

    Linux
    1
    0 Stimmen
    1 Beiträge
    109 Aufrufe
    Niemand hat geantwortet
  • Ubuntu Bionic - IP Adresse ändern

    Angeheftet Verschoben Linux
    1
    0 Stimmen
    1 Beiträge
    2k Aufrufe
    Niemand hat geantwortet
  • IPFire Konfiguration Teil 1

    Verschoben IPFire
    1
    0 Stimmen
    1 Beiträge
    2k Aufrufe
    Niemand hat geantwortet