Skip to content

Proxmox - Neue HDD hinzufügen

Verschoben Proxmox
  • Proxmox macht vieles wie Linux, aber nicht alles. Aber, es hat ein sehr gutes Konzept und eine sehr gute Anleitung.

    Nehmen wir an, wir hätten eine neue HDD und wollen diese für unseren Proxmox nutzen. Am Anfang muss man sich ganz schön Gedanken machen, wie man die Festplatten usw. nutzt. Mein aktueller Stand vor dem Einbau.

    • SSD 240GB Betriebssystem
    • NVMe SSD 500GB für die VM's

    Meine aktuelle Struktur sieht so aus

    root@frank-mankel:~# pvesm status
    Name             Type     Status           Total            Used       Available        %
    VM            lvmthin     active       488136704        23284120       464852583    4.77%
    local             dir     active        57278576         3119556        51219732    5.45%
    local-lvm     lvmthin     active       147275776               0       147275776    0.00%
    

    Mit fdsik -l sehen wir nach dem Einbau folgendes

    Disk /dev/sdb: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
    Disk model: WDC WD40EZRZ-00G
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    

    Mein Plan ist es, die Platte in zwei Partitionen zu unterteilen.

    root@frank-mankel:~# gdisk
    GPT fdisk (gdisk) version 1.0.3
    
    Type device filename, or press <Enter> to exit: /dev/sdb
    Partition table scan:
      MBR: not present
      BSD: not present
      APM: not present
      GPT: not present
    
    Creating new GPT entries.
    
    Command (? for help): n
    Partition number (1-128, default 1): 
    First sector (34-7814037134, default = 2048) or {+-}size{KMGTP}: 
    Last sector (2048-7814037134, default = 7814037134) or {+-}size{KMGTP}: 3907018567
    Current type is 'Linux filesystem'
    Hex code or GUID (L to show codes, Enter = 8300):
    Changed type of partition to 'Linux filesystem'
    
    Command (? for help): n
    Partition number (2-128, default 2): 
    First sector (34-7814037134, default = 3907018752) or {+-}size{KMGTP}: 
    Last sector (3907018752-7814037134, default = 7814037134) or {+-}size{KMGTP}: 
    Current type is 'Linux filesystem'
    Hex code or GUID (L to show codes, Enter = 8300): 
    Changed type of partition to 'Linux filesystem'
    
    Command (? for help): p
    Disk /dev/sdb: 7814037168 sectors, 3.6 TiB
    Model: WDC WD40EZRZ-00G
    Sector size (logical/physical): 512/4096 bytes
    Disk identifier (GUID): E625BB03-8BE4-49B4-9089-78D236650F3E
    Partition table holds up to 128 entries
    Main partition table begins at sector 2 and ends at sector 33
    First usable sector is 34, last usable sector is 7814037134
    Partitions will be aligned on 2048-sector boundaries
    Total free space is 2198 sectors (1.1 MiB)
    
    Number  Start (sector)    End (sector)  Size       Code  Name
       1            2048      3907018567   1.8 TiB     8300  Linux filesystem
       2      3907018752      7814037134   1.8 TiB     8300  Linux filesystem
    
    Command (? for help): w
    
    Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING
    PARTITIONS!!
    
    Do you want to proceed? (Y/N): Y
    OK; writing new GUID partition table (GPT) to /dev/sdb.
    The operation has completed successfully.
    

    Nun haben wir zwei Partitionen.

    Disk /dev/sdb: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
    Disk model: WDC WD40EZRZ-00G
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    Disklabel type: gpt
    Disk identifier: E625BB03-8BE4-49B4-9089-78D236650F3E
    
    Device          Start        End    Sectors  Size Type
    /dev/sdb1        2048 3907018567 3907016520  1.8T Linux filesystem
    /dev/sdb2  3907018752 7814037134 3907018383  1.8T Linux filesystem
    

    Partition 1 formatieren

    root@frank-mankel:~# mkfs.ext4 /dev/sdb1
    mke2fs 1.44.5 (15-Dec-2018)
    Creating filesystem with 488377065 4k blocks and 122101760 inodes
    Filesystem UUID: a9a466bb-61db-4500-8027-225421460f6e
    Superblock backups stored on blocks: 
    	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
    	4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 
    	102400000, 214990848
    
    Allocating group tables: done                            
    Writing inode tables: done                            
    Creating journal (262144 blocks): done
    Writing superblocks and filesystem accounting information: done    
    

    Der Plan

    Ich mache aus der ersten Partition einen Datenspeicher für Backups. Darum habe ich auch in ext4 formatiert. In der Anleitung steht dann folgendes.

    Backup files    dump/
    

    Configuration Example (/etc/pve/storage.cfg)

    dir: backup
    path /mnt/backup
    content backup
    maxfiles 7

    Above configuration defines a storage pool called backup. That pool can be used to store up to 7 backups (maxfiles 7) per VM. The real path for the backup files is /mnt/backup/dump/....

    Ok, das Probieren wir. Das Verzeichnis erstellt.

    root@frank-mankel:~# mkdir /mnt/backup/
    root@frank-mankel:~# mkdir /mnt/backup/dump
    

    Dann die Datei bearbeiten

    nano /etc/pve/storage.cfg
    

    Inhalt

    dir: local
            path /var/lib/vz
            content iso,vztmpl,backup
    
    lvmthin: local-lvm
            thinpool data
            vgname pve
            content rootdir,images
    
    lvmthin: VM
            thinpool VM
            vgname VM
            content images,rootdir
            nodes frank-mankel
    
    dir: backup
            path /mnt/backup
            content backup
            maxfiles 7
    

    Das dir:backup habe ich hinzugefügt. Einmal F5 im Webinterface drücken.

    72137d21-bfd0-44bc-a958-b53b560402f6-grafik.png

    Schwupps, da ist das Backup-Verzeichnis.

    Test, Backup von einem Container erstellt.

    root@frank-mankel:~# ls -la /mnt/backup/dump
    total 381384
    drwxr-xr-x 2 root root      4096 Jul 23 16:56 .
    drwxr-xr-x 3 root root      4096 Jul 23 16:54 ..
    -rw-r--r-- 1 root root       527 Jul 23 16:56 vzdump-lxc-102-2019_07_23-16_56_04.log
    -rw-r--r-- 1 root root 390521711 Jul 23 16:56 vzdump-lxc-102-2019_07_23-16_56_04.tar.lzo
    

    Die Struktur jetzt

    root@frank-mankel:~# pvesm status
    Name             Type     Status           Total            Used       Available        %
    VM            lvmthin     active       488136704        23284120       464852583    4.77%
    backup            dir     active        57278576         3501916        50837372    6.11%
    local             dir     active        57278576         3501916        50837372    6.11%
    local-lvm     lvmthin     active       147275776               0       147275776    0.00%
    

    Das sieht so weit gut aus, hoffe ich 🙂

    Wer aufgepasst hat, es ist noch eine Partition frei. Dafür gibt es auch schon einen Plan 😉

  • Hoppla, da passt was nicht.

    root@frank-mankel:~# pvesm status
    Name             Type     Status           Total            Used       Available        %
    VM            lvmthin     active       488136704        23284120       464852583    4.77%
    backup            dir     active        57278576         3501916        50837372    6.11%
    local             dir     active        57278576         3501916        50837372    6.11%
    local-lvm     lvmthin     active       147275776               0       147275776    0.00%
    

    Hier sieht man, das backup ca. 50GB groß ist. Da die Partition deutlich größer ist, fehlt da was!?? Kurz mal nachgedacht und gesucht..... 😉

    Der Eintrag in /etc/fstab muss natürlich auch vorhanden sein, so wie gewohnt. Danach

    root@frank-mankel:~# pvesm status
    Name             Type     Status           Total            Used       Available        %
    VM            lvmthin     active       488136704        23284120       464852583    4.77%
    backup            dir     active      1921797220           77856      1824027568    0.00%
    local             dir     active        57278576         3502984        50836304    6.12%
    local-lvm     lvmthin     active       147275776               0       147275776    0.00%
    

    e9b52dbe-dc81-4bec-a4e8-a26885f57d84-grafik.png

    Mein vorhin erstelltes Backup war weg. Also aufpassen!!

  • Proxmox - Windows Server 2019

    Proxmox
    2
    0 Stimmen
    2 Beiträge
    218 Aufrufe
    FrankMF

    Ich bin so froh, das ich das nicht mehr als Hauptsystem nutze.

    775556c8-e499-44f2-a891-4492295b7235-image.png

  • MSI B550I Gaming Edge WiFi

    Linux
    2
    0 Stimmen
    2 Beiträge
    118 Aufrufe
    FrankMF

    Einige Tage später, bin ich mit meinem neuen Projekt (grob) fertig. Der Rechner hostet jetzt eine Proxmox VE auf der eine VM mit pfSense läuft, die meinem Netzwerk als Sicherung dient. Dazu ist eine zusätzliche Netzwerkkarte in den freien Grafikkartenslot verbaut worden.

    Jo, es hatte schon seinen Grund einen AMD Ryzen5 5600G zu nehmen 😉

    10:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01) 10:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)

    Somit hatte ich die benötigten Netzwerkkarten für mein Setup.

    WAN - Netzwerkschnittstelle auf dem Bord LAN - Intel Corporation 82576 OPT1 - Intel Corporation 82576

    LAN ist das Netzwerk für meine Geräte, OPT1 ist mein Netzwerk für alle Geräte denen ich nicht besonders vertraue.

    TV FireTV PS5
    usw.

    Das läuft auch mit guter Geschwindigkeit.

    speed.png

    Was mir hier richtig Zeit gekostet hatte, war ein Denkfehler im Konzept. Ich habe ja mein aktuelles NAS aufgelöst und hatte den ZFS-Pool des Proxmox dafür benutzt. Das ging auch, aber mir gefielen da einige Aspekte nicht.

    lief im falschen Netz auf dem Proxmox Host lief der NFS

    Suboptimal, das musste besser gehen. Also habe ich mich damit beschäftigt, wie man Festplatten an eine VM durchreicht. Das Ergebnis

    4ad18f09-4098-41c8-a92d-bb5fd3392999-grafik.png

    Aus diesen beiden Platten habe ich dann einen ZFS-Pool gemacht.

    root@debian1:~# zpool status pool: NAS state: ONLINE scan: resilvered 232K in 00:00:01 with 0 errors on Sun Oct 17 16:38:46 2021 config: NAME STATE READ WRITE CKSUM NAS ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 scsi-0QEMU_QEMU_HARDDISK_drive-scsi1 ONLINE 0 0 0 scsi-0QEMU_QEMU_HARDDISK_drive-scsi2 ONLINE 0 0 0 errors: No known data errors

    Warum ZFS? Kann ich auch nicht beantworten, da immer mehr das nutzen (Ubuntu, pfSense usw.) habe ich gedacht, wir probieren es mal aus. Da ZFS sehr speicherhungrig ist, was ich vorher wusste, hat die Kiste auch 64GB RAM (Host). Ich hoffe das langt. Die Debian VM läuft zur Zeit mit 4GB. Mal sehen, ob das in Zukunft ausreicht.

    root@debian1:~# free gesamt benutzt frei gemns. Puffer/Cache verfügbar Speicher: 4025628 119896 3801808 508 103924 3732976 Swap: 998396 0 998396

    Das Ganze ist jetzt fertig aufgebaut und das Gehäuse ist zugeschraubt. Verbaut sind aktuell

    2 * 4TB HDD ZFS-Pool Host 2 * 2TB HDD ZFS-Pool für NAS (VM100)

    Nächster Schritt ist die Datensicherung des NAS und grundsätzlich die Vervollständigung der Konfiguration. Da habe ich bei der Testerei doch einiges ignoriert....

    20211018_111551_ergebnis.jpg

  • Proxmox Backup Server

    Proxmox
    2
    0 Stimmen
    2 Beiträge
    393 Aufrufe
    FrankMF

    Wichtig, wenn man im PBS einen User anlegt, dann funktioniert der User erst dann, wenn dieser auf der Konsole auch angelegt wurde!

    user.png

  • Proxmox - Backup Server WakeOnLan

    Proxmox
    1
    0 Stimmen
    1 Beiträge
    556 Aufrufe
    Niemand hat geantwortet
  • Proxmox - VMs sichern

    Proxmox
    1
    0 Stimmen
    1 Beiträge
    438 Aufrufe
    Niemand hat geantwortet
  • Proxmox - pfSense einrichten

    Verschoben pfSense
    5
    0 Stimmen
    5 Beiträge
    3k Aufrufe
    FrankMF

    Als kleine Ergänzung. Von einer VM aus zum Hauptrechner.

    frank@debian:~$ iperf3 -R -c 192.168.3.8 Connecting to host 192.168.3.8, port 5201 Reverse mode, remote host 192.168.3.8 is sending [ 5] local 192.168.3.213 port 42102 connected to 192.168.3.8 port 5201 [ ID] Interval Transfer Bitrate [ 5] 0.00-1.00 sec 112 MBytes 943 Mbits/sec [ 5] 1.00-2.00 sec 112 MBytes 941 Mbits/sec [ 5] 2.00-3.00 sec 112 MBytes 941 Mbits/sec [ 5] 3.00-4.00 sec 112 MBytes 941 Mbits/sec [ 5] 4.00-5.00 sec 112 MBytes 941 Mbits/sec [ 5] 5.00-6.00 sec 112 MBytes 941 Mbits/sec [ 5] 6.00-7.00 sec 112 MBytes 941 Mbits/sec [ 5] 7.00-8.00 sec 112 MBytes 941 Mbits/sec [ 5] 8.00-9.00 sec 112 MBytes 941 Mbits/sec [ 5] 9.00-10.00 sec 112 MBytes 941 Mbits/sec - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bitrate Retr [ 5] 0.00-10.04 sec 1.10 GBytes 940 Mbits/sec 10 sender [ 5] 0.00-10.00 sec 1.10 GBytes 941 Mbits/sec receiver iperf Done. frank@debian:~$ iperf3 -c 192.168.3.8 Connecting to host 192.168.3.8, port 5201 [ 5] local 192.168.3.213 port 42106 connected to 192.168.3.8 port 5201 [ ID] Interval Transfer Bitrate Retr Cwnd [ 5] 0.00-1.00 sec 114 MBytes 953 Mbits/sec 0 281 KBytes [ 5] 1.00-2.00 sec 112 MBytes 940 Mbits/sec 0 293 KBytes [ 5] 2.00-3.00 sec 112 MBytes 944 Mbits/sec 0 293 KBytes [ 5] 3.00-4.00 sec 112 MBytes 938 Mbits/sec 0 293 KBytes [ 5] 4.00-5.00 sec 113 MBytes 945 Mbits/sec 0 293 KBytes [ 5] 5.00-6.00 sec 112 MBytes 939 Mbits/sec 0 293 KBytes [ 5] 6.00-7.00 sec 112 MBytes 944 Mbits/sec 0 305 KBytes [ 5] 7.00-8.00 sec 112 MBytes 939 Mbits/sec 0 305 KBytes [ 5] 8.00-9.00 sec 113 MBytes 945 Mbits/sec 0 305 KBytes [ 5] 9.00-10.00 sec 113 MBytes 947 Mbits/sec 0 438 KBytes - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bitrate Retr [ 5] 0.00-10.00 sec 1.10 GBytes 943 Mbits/sec 0 sender [ 5] 0.00-10.04 sec 1.10 GBytes 938 Mbits/sec receiver iperf Done.
  • Proxmox - Erster Container

    Verschoben Proxmox
    4
    0 Stimmen
    4 Beiträge
    415 Aufrufe
    FrankMF

    Eine spannende Frage, die ich nicht beantworten kann. Aber Versuch macht klug 😉 Aber ich gehe im Moment nicht davon aus, so als Baugefühl.

    Edit: https://forum.proxmox.com/threads/arm64-vm-emulation-on-proxmox-5-3-amd64.49699/

  • Proxmox - VE 6.0-4

    Verschoben Proxmox
    2
    0 Stimmen
    2 Beiträge
    396 Aufrufe
    FrankMF

    War eine schöne Zeit 🙂

    Der lokale Proxmox ging mir doch ein wenig auf die Nerven, die Lüfter 😞 Somit musste ich dieses Projekt einstampfen. Außerdem war der Stromverbrauch auch etwas zu viel, in der heutigen Zeit nicht zu vernachlässigender Faktor. Man hat ja schon genug am Laufen 😉

    Proxmox ist eine tolle Sache. Der Rechner bekommt jetzt einen anderen Standort und wird vermutlich einstauben. Abwarten, mir fällt sicherlich irgendwann wieder was nettes ein.

    Die pfSense, die ich virtualisiert hatte ist jetzt in mein altes NAS umgezogen. Da bin ich jetzt mit ca. 10W unterwegs. Das kann dann auch 24/7 an sein.