Editing Host:Vm

From Chaosdorf Wiki
Warning: You are not logged in. Your IP address will be publicly visible if you make any edits. If you log in or create an account, your edits will be attributed to your username, along with other benefits.

The edit can be undone. Please check the comparison below to verify that this is what you want to do, and then publish the changes below to finish undoing the edit.

Latest revision Your text
Line 1: Line 1:
{{Host
{{Host
|name=vm.chaosdorf.de
|name=vm.chaosdorf.dn64
|os=Debian 12 amd64
|os=Debian jessie amd64
|location=PlusServer
|location=OpenIT
|purpose=VM-Host
|purpose=VM-Host
|disk=1.8TB
|disk=146GB
|ram=128GiB
|ram=48GiB
|admin_toolkit=No
|admin_toolkit=Yes
|ssh_root_keys=~/.ssh
|ssh_root_keys=/var/cache/ssh
|ssh_pam=No
|ssh_pam=No
|ssh_userlogin=No
|ssh_userlogin=No
|ownership=club
|admins=byte, derf, feuerrot
|admins=byte, derf, feuerrot
}}
}}
Steht seit dem 6.6.2023 im PlusServer-Rechenzentrum in [https://www.openstreetmap.org/#map=18/51.18761/6.86670 Düsseldorf]. Historisch handelt es sich um ein offenes Rack für befreundete Vereine bei OpenIT, inzwischen laufen wir bei PlusServer als Legacy-Vertrag. Das Hosting ist kostenfrei, wir zahlen lediglich den Zeitaufwand für Hands-On-Termine.
Wird hoffentlich bald {{H|Vm}} ersetzen, das Wiki wird dann geupdated. Bisherige Fakten:
 
* Netzwerk kommt nicht auf die Onboardports (wegen eines Silikonunfalls), sondern auf den von hinten gesehen linken der beiden Extraports oben rechts. Ist auf der Karte mit ACTIVEA gelabelt
* Festplatten sind 2x146GB SAS in einem Hardware-RAID1
* Gehäuse ist 4HE, genau so wie das alte vm.chaosdorf.de


== Hardware ==
== Hardware ==


* System: 1HE Dell R630
* RAID Controller: HP Smart Array G6, wird von <tt>check_raid</tt> unterstützt, Statusinformationen gibts ansonsten mit <tt>cciss_vol_status /dev/sg1</tt>
* CPU: 2x Intel Xeon E5-2640 v3
* RAM: 128GB
* HDD: 4x 1,8TB SSD
* iDRAC: Vorhanden und mit einem Edge Router Lite verbunden → nur per SSH-Jumphost oder Wireguard erreichbar


== Festplattenaufteilung ==
== Festplattenaufteilung ==


Wir verwenden 4 von 8 Festplatteneinschüben. Die SSDs werden durchgereicht und einzelne Partitionen darauf mittels mdraid verwaltet.
Das System hat Platz für 25 SAS-Festplatten. (5 Spalten zu je 5 Festplatteneinschüben). Wir verwenden derzeit nur die ersten beiden Einschübe.
 
Im System befinden sich zwei Festplatten, die vom Controller in Hardware zu einem RAID 1 zusammengefasst sind — Das Betriebssystem sieht nur <tt>/dev/sda</tt>. Auf <tt>sda1</tt> liegt ein Physical Volume für LVM, weitere Partitionen gibt es nicht.
 
In der Volume Group gibt es zwei Volumes für jede VM: Einmal Swap, einmal normal. Jedes Volume ist ein eigener dm-crypt-Container. Zusätzlich gibt es ein Volume für <tt>/</tt> des VM-Hosts selbst, hier liegt ohne Crypto direkt ein ext4.
 
=== Keyslots ===
 
''TODO'': Updaten
 
==== /dev/mapper/vg-backend ====
 
2. derf
4. mxey
5. byte
 
=== /dev/mapper/vg-extern ===
 
2. derf
4. mxey
5. byte
 
==== /dev/mapper/vg-intern ====


* sd[abcd]1: RAID 1 für /boot/efi
2. derf
* sd[abcd]2: RAID 1 für /boot
4. mxey
* sd[abcd]3: RAID 5 für LUKS
5. byte


Das LUKS-Volume stellt ein LVM Physical Volume für eine Volume Group dar, die sowohl ein Logical Volume für / als auch LVs für unsere VMs enthält. Derzeit (11.6.) haben feuerrot und derf LUKS-Keys eingerichtet.
==== /dev/mapper/vg-shells ====
 
0. Alter Adminkey
2. derf
4. mxey
5. byte


== Virtualisierung ==
== Virtualisierung ==
Line 43: Line 69:
(`/etc/network/interfaces`) gemacht.
(`/etc/network/interfaces`) gemacht.


Zum Starten der VMs wird eventuell noch das Skript `/root/bin/start-vm`
Zum Starten der VMs wird das Skript `/root/bin/start-vm`
verwendet. Dieses öffnet die dm-crypt-Container, startet die VMs und
verwendet. Dieses öffnet die dm-crypt-Container, startet die VMs und
verbindet sich in einer screen-Sitzung mit den seriellen Konsolen.
verbindet sich in einer screen-Sitzung mit den seriellen Konsolen.
Line 51: Line 77:
Nach Update: ferm-Regeln neu einlesen.
Nach Update: ferm-Regeln neu einlesen.


= IP =
= Routing und Paketfilter =


Wir haben drei Netze aus dem IP Range von OpenIT/PlusServer
Zu beachten ist, dass OpenIT unser Subnet nicht zu uns routet, sondern
 
alle IPs direkt in unserem LAN-Segment erwartet. Damit die VMs von
* 217.69.82.240/29 (IPv4 Access)
außen erreichbar sind verwenden wir deswegen Proxy ARP.
* 2001:aa8:fff5::/64 (IPv6 Access)
* 2001:aa8:ffff:2::fff5:0/112 (IPv6 Routing)
 
217.69.82.240/29 und 2001:aa8:ffff:2::fff5:0/112 werden nicht geroutet, sondern direkt in unserem VLAN am Switchport erwartet. Damit die VMs von außen per IPv4 erreichbar sind, verwenden wir Proxy ARP.


Traffic zwischen Internet und Server sowie zwischen den VMs wird mit
Traffic zwischen Internet und Server sowie zwischen den VMs wird mit
Line 75: Line 97:
}}
}}


== Kontakt zu PlusServer ==
== Kontakt zu OpenIT ==
 
Nur per Online-Ticketsystem, die Details ändern sich mit erstaunlicher Regelmäßigkeit. derf weiß meist mehr.


[https://www.plusserver.com/kontakt https://www.plusserver.com/kontakt]
{{Mailto|support@openit.de}}


[[Category:Administration]]
[[Category:Administration]]
Please note that all contributions to Chaosdorf Wiki are considered to be released under the Attribution 3.0 Unported (see Chaosdorf Wiki:Copyrights for details). If you do not want your writing to be edited mercilessly and redistributed at will, then do not submit it here.
You are also promising us that you wrote this yourself, or copied it from a public domain or similar free resource. Do not submit copyrighted work without permission!
Cancel Editing help (opens in new window)