Group Details Private

Publishers

Publishers

Member List

  • RE: Bitwarden_RS auf einem Debian Buster 10 Server installieren!

    @hase567 Seltsam. Die hier empfohlene Apache2 Konfiguration passt. Sicher das da bei dir alles stimmt?

    posted in Linux
  • [V] Friendly ELEC NanoPi R2S

    Ich würde mich von meinem FriendlyELEC NanoPi R2S trennen.

    VB: 75€
    zzgl. Versand per DHL Paket! Versand nur innerhalb Deutschlands.
    Privatverkauf. Keine Gewährleistung.

    R2S

    posted in Frank's Resterampe
  • RE: ZFS - Wichtige Befehle

    Unter dem Beitrag sammel ich mal ein paar Beispiele, für mich zum Nachlesen 🙂

    Den Anfang macht die

    ZFS-Replication

    Ich hatte Am Anfang ein wenig Verständnisprobleme, bis es klar war, das diese Replication von Pool zu Pool funktioniert. Also brauchen wir zwei vorhandene ZFS-Pools.

    root@pbs:/mnt/datastore/datapool/test# zfs list
    NAME                    USED  AVAIL     REFER  MOUNTPOINT
    Backup_Home             222G   677G      222G  /mnt/datastore/Backup_Home
    datapool                2.36G  1.75T     2.36G  /mnt/datastore/datapool
    

    Wir erzeugen ein Dataset im datapool

    zfs create datapool/docs -o mountpoint=/docs
    

    Wir erzeugen eine Datei mit Inhalt

    echo "version 1" > /docs/data.txt
    

    Wir erzeugen einen Snapshot

    zfs snapshot datapool/docs@today
    

    Kontrolle

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot
    NAME                          USED  AVAIL     REFER  MOUNTPOINT
    datapool/docs@today             0B      -       96K  -
    

    Wir replizieren den vorhandenen Snapshot zum ZFS-Pool Backup_Home und speichern ihn da im Dataset test.

    zfs send datapool/docs@today | zfs receive Backup_Home/test
    

    Nun befinden sich die Daten in dem anderen ZFS-Pool

    root@pbs:/mnt/datastore/datapool/test# ls /mnt/datastore/Backup_Home/test/
    data.txt
    

    Und was mich am meisten interessiert, ist wie man das zu einem anderen Server schickt 😉

    zfs send datapool/docs@today | ssh otherserver zfs receive backuppool/backup
    

    Den Test reiche ich dann später nach.

    Quelle: https://www.howtoforge.com/tutorial/how-to-use-snapshots-clones-and-replication-in-zfs-on-linux/

    ZFS inkrementelle Replication

    Als, nur die geänderten Daten senden!

    Wir erzeugen ein paar Dateien

    root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data1.txt
    root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data2.txt
    root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data3.txt
    root@pbs:/mnt/datastore/datapool/test# echo "data" > /docs/data4.txt
    

    Neuer Snapshot

    zfs snapshot datapool/docs@17:02
    

    Liste der Snapshots

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot
    NAME                          USED  AVAIL     REFER  MOUNTPOINT
    datapool/docs@today            56K      -       96K  -
    datapool/docs@17:02             0B      -      112K  -
    

    Wir senden dieinkrementelle Replication

    zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive Backup_Home/test
    send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K
    total estimated size is 38.6K
    cannot receive incremental stream: destination Backup_Home/test has been modified
    since most recent snapshot
    

    Dazu schreibt die Anleitung, die ich unten verlinkt habe, das die Daten verändert wurden. Warum, verstehe ich aktuell noch nicht. Mit -F im send Befehl erzwingt man einen Rollback zum letzten Snapshot.

    zfs send -vi datapool/docs@today datapool/docs@17:02 | zfs receive -F Backup_Home/test
    send from datapool/docs@today to datapool/docs@17:02 estimated size is 38.6K
    total estimated size is 38.6K
    

    Und Kontrolle

    ls /mnt/datastore/Backup_Home/test/
    data1.txt  data2.txt  data3.txt  data4.txt  data.txt   
    

    Quelle: https://klarasystems.com/articles/introduction-to-zfs-replication/

    posted in Linux
  • RE: Proxmox Backup Server

    Wichtig, wenn man im PBS einen User anlegt, dann funktioniert der User erst dann, wenn dieser auf der Konsole auch angelegt wurde!

    user.png

    posted in Proxmox
  • RE: 2,5G

    Gutes Video zum Zyxel Switch, was ich vorher gar nicht kannte. Hätte meine Entscheidung aber auch nicht verändert.

    posted in Linux
  • 2,5G

    Auf meinem neuen Mainboard MSI B550i ist eine 2,5G Schnittstelle verbaut. Das war klar, das es nicht lange dauert, bis ich das mal anteste, oder? 🙂

    Also mal einen Plan gemacht, was ich so brauchte. Angedacht war, das LAN auf 2,5G zu bringen. Das bedeutete, ich brauchte eine 2,5G Karte für meinen Haupt-PC. Und damit man das irgendwie zusammen bekommt, brauchte man einen Switch.

    2,5G Karten bekommt man für relativ kleines Geld. Meine Wahl fiel auf eine 2,5G Karte für 36€.

    Bei dem Switch wurde es komplizierter und teurer. Die Entscheidung musste zwischen diesen beiden fallen.

    5-Port oder 12-Port

    Es wurde schwer. Von der Kostenseite her, hätte der 5er voll gelang, auch hätte ich nicht mehr Ports gebraucht. Am 12er reizten mich die zwei 10G SFP+ Ports. Damit könnte man auch in Zukunft mal spielen 😉 Am allerliebsten hätte ich das in managed gehabt, aber das war es mir dann zum jetzigen Zeitpunkt nicht wert. Die Wahl fiel auf den 12-Port 🙂

    Haupt-PC

    Die PCI-e Karte eingebaut, Kiste einmal durchgestartet und alles funktioniert. Bei Linux ja nicht immer so, Stichwort Hardwareunterstützung. Glück gehabt. Verbaut ist ein Chipsatz REALTEK RTL8125.

    root@frank-MS-7C37:~# ethtool enp41s0
    Settings for enp41s0:
    	Supported ports: [ TP MII ]
    	Supported link modes:   10baseT/Half 10baseT/Full 
    	                        100baseT/Half 100baseT/Full 
    	                        1000baseT/Full 
    	                        2500baseT/Full 
    	Supported pause frame use: Symmetric Receive-only
    	Supports auto-negotiation: Yes
    	Supported FEC modes: Not reported
    	Advertised link modes:  10baseT/Half 10baseT/Full 
    	                        100baseT/Half 100baseT/Full 
    	                        1000baseT/Full 
    	                        2500baseT/Full 
    	Advertised pause frame use: Symmetric Receive-only
    	Advertised auto-negotiation: Yes
    	Advertised FEC modes: Not reported
    	Link partner advertised link modes:  100baseT/Half 100baseT/Full 
    	                                     1000baseT/Full 
    	                                     2500baseT/Full 
    	Link partner advertised pause frame use: Symmetric
    	Link partner advertised auto-negotiation: Yes
    	Link partner advertised FEC modes: Not reported
    	Speed: 2500Mb/s
    	Duplex: Full
    	Port: Twisted Pair
    	PHYAD: 0
    	Transceiver: internal
    	Auto-negotiation: on
    	MDI-X: Unknown
    	Supports Wake-on: pumbg
    	Wake-on: d
    	Link detected: yes
    

    Oben sieht man die Karte, die schon am 2,5G Switch hängt. Ok, das war einfach....

    Proxmox

    Ich habe ja mit dem MSI B550i mir einen kleinen Proxmox gebastelt, der mir in Zukunft für alles dienen soll. Aktuell läuft eine pfSense drauf und eine VM dient als NFS-Server. Jetzt hatte ich das kleine Problem, das die eingebaute LAN-Karte(2,5G) im Proxmox der WAN Port war. Das musste ich ändern.

    fd6e97d4-8a21-42e2-ab17-507d0e65f50b-grafik.png

    Das war nicht kompliziert. Habe die vmbr2 gelöscht. Dann die vmbr0 auf den richtigen Port (1000M) gelegt, danach die vmbr2 wieder angelegt und ihr die interne LAN-Schnittstelle (2,5G) zugewiesen. Die Kiste einmal ordentlich durchgestartet und alles lief problemlos.

    Somit hatte ich das LAN auf 2,5G. Was fehlte jetzt noch? Der Switch.

    Switch

    Die Geräte mit dem Switch verbunden, der Proxmox und der Haupt-PC bekam jeweils einen 2,5G Port. Die Lämpchen blinken in einem schönen blau 🙂 Jetzt mal das Ganze testen.

    Speedtest

    Hier mal der ipfer3 Test vom 1000M Netz, also vor dem Umbau.

    root@frank-MS-7C37:~# iperf3 -c 192.168.3.207
    Connecting to host 192.168.3.207, port 5201
    [  5] local 192.168.3.12 port 43104 connected to 192.168.3.207 port 5201
    [ ID] Interval           Transfer     Bitrate         Retr  Cwnd
    [  5]   0.00-1.00   sec   115 MBytes   963 Mbits/sec    0    626 KBytes       
    [  5]   1.00-2.00   sec   112 MBytes   944 Mbits/sec    0    730 KBytes       
    [  5]   2.00-3.00   sec   112 MBytes   944 Mbits/sec    0    730 KBytes       
    [  5]   3.00-4.00   sec   112 MBytes   944 Mbits/sec    0    730 KBytes       
    [  5]   4.00-5.00   sec   112 MBytes   944 Mbits/sec    0    730 KBytes       
    [  5]   5.00-6.00   sec   111 MBytes   933 Mbits/sec    0    730 KBytes       
    [  5]   6.00-7.00   sec   112 MBytes   944 Mbits/sec    0    730 KBytes       
    [  5]   7.00-8.00   sec   112 MBytes   944 Mbits/sec    0    730 KBytes       
    [  5]   8.00-9.00   sec   112 MBytes   944 Mbits/sec    0    730 KBytes       
    [  5]   9.00-10.00  sec   112 MBytes   944 Mbits/sec    0    730 KBytes       
    - - - - - - - - - - - - - - - - - - - - - - - - -
    [ ID] Interval           Transfer     Bitrate         Retr
    [  5]   0.00-10.00  sec  1.10 GBytes   945 Mbits/sec    0             sender
    [  5]   0.00-9.97   sec  1.10 GBytes   944 Mbits/sec                  receiver
    
    iperf Done.
    root@frank-MS-7C37:~# iperf3 -R -c 192.168.3.207
    Connecting to host 192.168.3.207, port 5201
    Reverse mode, remote host 192.168.3.207 is sending
    [  5] local 192.168.3.12 port 43114 connected to 192.168.3.207 port 5201
    [ ID] Interval           Transfer     Bitrate
    [  5]   0.00-1.00   sec   112 MBytes   942 Mbits/sec                  
    [  5]   1.00-2.00   sec   112 MBytes   941 Mbits/sec                  
    [  5]   2.00-3.00   sec   112 MBytes   941 Mbits/sec                  
    [  5]   3.00-4.00   sec   112 MBytes   941 Mbits/sec                  
    [  5]   4.00-5.00   sec   112 MBytes   941 Mbits/sec                  
    [  5]   5.00-6.00   sec   112 MBytes   941 Mbits/sec                  
    [  5]   6.00-7.00   sec   112 MBytes   941 Mbits/sec                  
    [  5]   7.00-8.00   sec   112 MBytes   941 Mbits/sec                  
    [  5]   8.00-9.00   sec   111 MBytes   934 Mbits/sec                  
    [  5]   9.00-10.00  sec   112 MBytes   941 Mbits/sec                  
    - - - - - - - - - - - - - - - - - - - - - - - - -
    [ ID] Interval           Transfer     Bitrate         Retr
    [  5]   0.00-10.00  sec  1.10 GBytes   944 Mbits/sec    0             sender
    [  5]   0.00-10.00  sec  1.10 GBytes   941 Mbits/sec                  receiver
    
    iperf Done.
    

    Jetzt das Ganze nach dem Umbau.

    root@frank-MS-7C37:~# iperf3 -c 192.168.3.207
    Connecting to host 192.168.3.207, port 5201
    [  5] local 192.168.3.12 port 43320 connected to 192.168.3.207 port 5201
    [ ID] Interval           Transfer     Bitrate         Retr  Cwnd
    [  5]   0.00-1.00   sec   284 MBytes  2.38 Gbits/sec    0    683 KBytes       
    [  5]   1.00-2.00   sec   281 MBytes  2.36 Gbits/sec    0    683 KBytes       
    [  5]   2.00-3.00   sec   280 MBytes  2.35 Gbits/sec    0    683 KBytes       
    [  5]   3.00-4.00   sec   280 MBytes  2.35 Gbits/sec    0    683 KBytes       
    [  5]   4.00-5.00   sec   281 MBytes  2.36 Gbits/sec    0    717 KBytes       
    [  5]   5.00-6.00   sec   279 MBytes  2.34 Gbits/sec    0   1.33 MBytes       
    [  5]   6.00-7.00   sec   274 MBytes  2.30 Gbits/sec    0   1.41 MBytes       
    [  5]   7.00-8.00   sec   275 MBytes  2.31 Gbits/sec    0   1.56 MBytes       
    [  5]   8.00-9.00   sec   276 MBytes  2.32 Gbits/sec    0   1.56 MBytes       
    [  5]   9.00-10.00  sec   272 MBytes  2.29 Gbits/sec    0   1.56 MBytes       
    - - - - - - - - - - - - - - - - - - - - - - - - -
    [ ID] Interval           Transfer     Bitrate         Retr
    [  5]   0.00-10.00  sec  2.72 GBytes  2.33 Gbits/sec    0             sender
    [  5]   0.00-9.98   sec  2.71 GBytes  2.33 Gbits/sec                  receiver
    
    iperf Done.
    root@frank-MS-7C37:~# iperf3 -R -c 192.168.3.207
    Connecting to host 192.168.3.207, port 5201
    Reverse mode, remote host 192.168.3.207 is sending
    [  5] local 192.168.3.12 port 43346 connected to 192.168.3.207 port 5201
    [ ID] Interval           Transfer     Bitrate
    [  5]   0.00-1.00   sec   281 MBytes  2.35 Gbits/sec                  
    [  5]   1.00-2.00   sec   281 MBytes  2.35 Gbits/sec                  
    [  5]   2.00-3.00   sec   281 MBytes  2.35 Gbits/sec                  
    [  5]   3.00-4.00   sec   281 MBytes  2.35 Gbits/sec                  
    [  5]   4.00-5.00   sec   281 MBytes  2.35 Gbits/sec                  
    [  5]   5.00-6.00   sec   281 MBytes  2.35 Gbits/sec                  
    [  5]   6.00-7.00   sec   281 MBytes  2.35 Gbits/sec                  
    [  5]   7.00-8.00   sec   281 MBytes  2.35 Gbits/sec                  
    [  5]   8.00-9.00   sec   281 MBytes  2.35 Gbits/sec                  
    [  5]   9.00-10.00  sec   281 MBytes  2.35 Gbits/sec                  
    - - - - - - - - - - - - - - - - - - - - - - - - -
    [ ID] Interval           Transfer     Bitrate         Retr
    [  5]   0.00-10.05  sec  2.74 GBytes  2.34 Gbits/sec    0             sender
    [  5]   0.00-10.00  sec  2.74 GBytes  2.35 Gbits/sec                  receiver
    
    iperf Done.
    

    Der Test ist zwischen meinem Haupt-PC und der VM im Proxmox, die mir als NFS-Server dient.

    Fazit

    Funktioniert alles so, wie ich es mir vorgestellt hatte. Kein Hexenwerk. Ob man, oder ihr, nun braucht müsst ihr selber entscheiden. Für die allermeisten Menschen sollte das aktuell nicht nötig sein. Spielkinder kommen da mal nun nicht dran vorbei.

    Die zwei 10G SFP+ reizen mich dann natürlich als nächstes. Aber, da sieht zur Zeit die Rechnung so aus.

    • 10G RJ45 PCIe 89,99€
    • 10G SFP+ PCIe 119,90€

    zusätzlich bei RJ45 noch zwei SFP+ Module, bei SFP+ zusätzlich 4 Module (Kosten zwischen 30 - 60€). Also, da kommt schon was zusammen. Im Moment kein Thema, ich behalte aber mal die Preise im Auge 😉

    Verschieben wir das Thema 10G mal in die Zukunft.

    posted in Linux
  • RE: Liste von Linuxbefehlen

    In meinem neuen PC ist eine 2,5G Karte drin, das muss man ja am WE mal testen. Und so bekommt man ein paar Infos zu den Interfaces.

    root@frank-MS-7C37:~# ethtool enp41s0
    Settings for enp41s0:
    	Supported ports: [ TP MII ]
    	Supported link modes:   10baseT/Half 10baseT/Full 
    	                        100baseT/Half 100baseT/Full 
    	                        1000baseT/Full 
    	                        2500baseT/Full 
    	Supported pause frame use: Symmetric Receive-only
    	Supports auto-negotiation: Yes
    	Supported FEC modes: Not reported
    	Advertised link modes:  10baseT/Half 10baseT/Full 
    	                        100baseT/Half 100baseT/Full 
    	                        1000baseT/Full 
    	                        2500baseT/Full 
    	Advertised pause frame use: Symmetric Receive-only
    	Advertised auto-negotiation: Yes
    	Advertised FEC modes: Not reported
    	Speed: Unknown!
    	Duplex: Unknown! (255)
    	Port: Twisted Pair
    	PHYAD: 0
    	Transceiver: internal
    	Auto-negotiation: on
    	MDI-X: Unknown
    	Supports Wake-on: pumbg
    	Wake-on: d
    	Link detected: no
    
    posted in Linux
  • RE: Bitwarden_RS auf einem Debian Buster 10 Server installieren!

    @flotschi Willkommen 😉

    Ähm ja, da muss @Nico mal was zu sagen. Nur als Ergänzung, das aktuelle Repo vom @Nico läuft auf Debian 11 Bullseye ohne Probleme, falls Du (oder ich) da was falsch verstanden hast. Aber, noch mit dem alten Namen.

    Und 1.23 ist ja auch noch ganz frisch 😉

    posted in Linux
  • ZFS - Wichtige Befehle

    zpool - configure ZFS storage pools

    Ein paar der wichtigsten Befehle, die ich so die letzten Tage kennengelernt und benutzt habe. Wird bei Bedarf erweitert.

    zpool create

    Hiermit bauen wir einen ZFS Pool aus zwei Platten auf.

    zpool create ZFS-Pool ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K6XD2C26 ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K5PPSH52
    

    zpool status

    Zeigt uns den Status des Pools an, welche Platten, Zustand usw.

    root@pve:~# zpool status
      pool: ZFS-Pool
     state: ONLINE
      scan: resilvered 1.20T in 02:56:31 with 0 errors on Mon Oct 18 18:28:36 2021
    config:
    
    	NAME                                          STATE     READ WRITE CKSUM
    	ZFS-Pool                                      ONLINE       0     0     0
    	  mirror-0                                    ONLINE       0     0     0
    	    ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K6XD2C26  ONLINE       0     0     0
    	    ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K5PPSH52  ONLINE       0     0     0
    
    errors: No known data errors
    

    zpool attach

    Hiermit fügen wir eine oder mehrere Platten zu einem Pool hinzu.

    zpool attach ZFS-Pool ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K6XD2C26 ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K5PPSH52
    

    zpool detach

    Das entfernt eine Platte aus dem Pool.

    zpool detach ZFS-Pool 8992518921607088473
    

    zpool replace

    Eine Platte, die z.B. ausgefallen ist, wird hiermit ersetzt.

    zpool replace ZFS-Pool ata-WDC_WD40EZRZ-00GXCB0_WD-WCC7K5PPSH52
    

    zfs - configures ZFS file systems


    zfs list

    Listet den Inhalt des ZFS Filesystemes.

    root@pve:~# zfs list -t filesystem -o name,used
    NAME                  USED
    ZFS-Pool              418G
    ZFS-Pool/nas_backup   384G
    

    oder

    root@pve:~# zfs list
    NAME                     USED  AVAIL     REFER  MOUNTPOINT
    ZFS-Pool                 418G  3.10T     1.50G  /ZFS-Pool
    ZFS-Pool/nas_backup      384G  3.10T      384G  /ZFS-Pool/nas_backup
    ZFS-Pool/vm-100-disk-0  33.0G  3.13T     3.17G  -
    

    oder

    gibt alle Parameter aus, was für Experten 😉

    root@pve:~# zfs get all ZFS-Pool
    NAME      PROPERTY              VALUE                  SOURCE
    ZFS-Pool  type                  filesystem             -
    ZFS-Pool  creation              Sat Oct 16 10:50 2021  -
    ZFS-Pool  used                  418G                   -
    ZFS-Pool  available             3.10T                  -
    ZFS-Pool  referenced            1.50G                  -
    ZFS-Pool  compressratio         1.01x                  -
    ZFS-Pool  mounted               yes                    -
    ZFS-Pool  quota                 none                   default
    ZFS-Pool  reservation           none                   default
    ZFS-Pool  recordsize            128K                   default
    ZFS-Pool  mountpoint            /ZFS-Pool              default
    ZFS-Pool  sharenfs              off                    default
    ZFS-Pool  checksum              on                     default
    ZFS-Pool  compression           on                     local
    ZFS-Pool  atime                 on                     default
    ZFS-Pool  devices               on                     default
    ZFS-Pool  exec                  on                     default
    ZFS-Pool  setuid                on                     default
    ZFS-Pool  readonly              off                    default
    ZFS-Pool  zoned                 off                    default
    ZFS-Pool  snapdir               hidden                 default
    ZFS-Pool  aclmode               discard                default
    ZFS-Pool  aclinherit            restricted             default
    ZFS-Pool  createtxg             1                      -
    ZFS-Pool  canmount              on                     default
    ZFS-Pool  xattr                 on                     default
    ZFS-Pool  copies                1                      default
    ZFS-Pool  version               5                      -
    ZFS-Pool  utf8only              off                    -
    ZFS-Pool  normalization         none                   -
    ZFS-Pool  casesensitivity       sensitive              -
    ZFS-Pool  vscan                 off                    default
    ZFS-Pool  nbmand                off                    default
    ZFS-Pool  sharesmb              off                    default
    ZFS-Pool  refquota              none                   default
    ZFS-Pool  refreservation        none                   default
    ZFS-Pool  guid                  16136524096267552939   -
    ZFS-Pool  primarycache          all                    default
    ZFS-Pool  secondarycache        all                    default
    ZFS-Pool  usedbysnapshots       0B                     -
    ZFS-Pool  usedbydataset         1.50G                  -
    ZFS-Pool  usedbychildren        417G                   -
    ZFS-Pool  usedbyrefreservation  0B                     -
    ZFS-Pool  logbias               latency                default
    ZFS-Pool  objsetid              54                     -
    ZFS-Pool  dedup                 off                    default
    ZFS-Pool  mlslabel              none                   default
    ZFS-Pool  sync                  standard               default
    ZFS-Pool  dnodesize             legacy                 default
    ZFS-Pool  refcompressratio      1.00x                  -
    ZFS-Pool  written               1.50G                  -
    ZFS-Pool  logicalused           394G                   -
    ZFS-Pool  logicalreferenced     1.50G                  -
    ZFS-Pool  volmode               default                default
    ZFS-Pool  filesystem_limit      none                   default
    ZFS-Pool  snapshot_limit        none                   default
    ZFS-Pool  filesystem_count      none                   default
    ZFS-Pool  snapshot_count        none                   default
    ZFS-Pool  snapdev               hidden                 default
    ZFS-Pool  acltype               off                    default
    ZFS-Pool  context               none                   default
    ZFS-Pool  fscontext             none                   default
    ZFS-Pool  defcontext            none                   default
    ZFS-Pool  rootcontext           none                   default
    ZFS-Pool  relatime              off                    default
    ZFS-Pool  redundant_metadata    all                    default
    ZFS-Pool  overlay               on                     default
    ZFS-Pool  encryption            off                    default
    ZFS-Pool  keylocation           none                   default
    ZFS-Pool  keyformat             none                   default
    ZFS-Pool  pbkdf2iters           0                      default
    ZFS-Pool  special_small_blocks  0                      default
    

    zfs create

    Legt ein Dataset an. Das kann man sich wie einen Ordner vorstellen.

    A dataset is a space where you put your data. Datasets are flexible in size and are located inside your pool.

    zfs create <Pool_Name>/<dataset>
    

    zfs snapshot

    zfs snapshot datapool/test@today
    

    zfs list

    root@pbs:/mnt/datastore/datapool/test# zfs list -t snapshot
    NAME                  USED  AVAIL     REFER  MOUNTPOINT
    datapool/test@today     0B      -       96K  -
    

    Die Anleitung zum Thema -> https://openzfs.github.io/openzfs-docs/index.html

    Interessante Links zum Thema

    posted in Linux
  • RE: ZFS-Pool - Do not use (sda & sdb) to create a pool!

    Hier kurz vor dem Abschluss der Spiegelung.

    d54abd23-aa52-482d-b9e1-52ece09106ec-grafik.png

    Und alles wieder gut und eine Menge gelernt 🤓

    594b6283-bbbe-4cec-8401-d57cce52012b-grafik.png

    posted in Linux