RadioTux Sendung Oktober 2023

Aktuelle Rust-Updates, Finanzierung, Open-Source-Projekte, Hosting-Tipps, Server-Sicherheit, E-Mail-Server. Zuhörerfragen erwünscht.

2023, RadioTux-Team
RadioTux
http://radiotux.de/

Http://www.jamendo.com cc_standard

Generated Shownotes

Chapters

0:00:24 Rust News
0:07:50 Musik: Josh Woodward mit Good to Go
0:10:51 Gespräch über Hosting daheim

Long Summary

In dieser Folge haben wir einige Neuigkeiten aus der Welt von Rust besprochen. Die neue Version 1.73.0 von Rust bietet verbesserte Panic-Messages und Funktionen für Thread-Local-Initialization. Es gibt auch Updates für stabilisierte APIs und Fortschritte im Polonius-Projekt. Außerdem wurden Updates zur Finanzierung der Rust Specification Working Group und zur Neuwahl von Project Leads von der Rust Foundation bekannt gegeben. Die Foundation hat auch zwei Open-Source-Projekte vorgestellt: Painter und Typo Mania. Weitere Highlights sind die Implementierung der Smoke-Testing-Automatisierung und das Rust Foundation Fellows Programm.

Dann haben wir über das Hosting von Webseiten oder anderen Diensten zu Hause gesprochen. Es wird empfohlen, zunächst einen Internetanschluss zu haben, vorzugsweise einen Kabelanschluss, obwohl gelegentliche Ausfälle auftreten können. Es wird auch darauf hingewiesen, dass Self-Hosting einige Einschränkungen mit sich bringt, wie zum Beispiel eine begrenzte Upload-Bandbreite und eine fehlende feste IP-Adresse im Internet. Es wird empfohlen, ein Rack oder ein 19-Zoll-Rack zu haben, um die Technologie unterzubringen. Gebrauchte Technik und USVs können eine günstige Startoption sein, und es wird empfohlen, Consumer-Hardware anstelle von Enterprise-Hardware zu verwenden, da sie leiser ist. Es wird betont, dass man auf die Kompatibilität der Festplattenanschlüsse achten muss und dass gebrauchte Enterprise-Hardware oft keine Hotswap-Trays hat. Ein günstiges Gehäuse mit Hotswap-Rahmen wird empfohlen. Es wird auch darauf hingewiesen, dass neue Mainboards weniger SATA-Anschlüsse haben können, was die Anzahl der anschließbaren Festplatten beeinflusst.

Ein großes Augenmerk liegt auf dem Aufbau eines Storage-Clusters mit einem Gehäuse für acht 3,5-Zoll-Festplatten. Eine M.2-Karte für das Betriebssystem und SSDs sind ebenfalls wichtig. Zehn Gigabit-Technologie wird empfohlen, obwohl zehn Gigabit-Karten teuer sind und auf 40 Gigabit-Netzwerkkarten zurückgegriffen werden kann. Es wird auch erwähnt, dass 100-Gigabit-Netzwerkkarten eine Option sein können. Als Betriebssystem wird Debian oder Proxmox empfohlen. Garneti, ein eigenständiges Clustering-Projekt, das KVM als Virtualisierungsebene unterstützt, wird ebenfalls erwähnt. Garneti hat keine Web-Oberfläche und konzentriert sich auf die Shell. Es kann auch unter verschiedenen Betriebssystemen laufen.

Wir haben auch darüber gesprochen, ob man virtuelle Maschinen oder direkt Kubernetes verwenden sollte. Der Sprecher bevorzugt virtuelle Maschinen, da er seine Kubernetes-Cluster in ihnen betreibt. Virtuelle Maschinen ermöglichen das Live-Migrieren und erlauben Hardware-Wartungen ohne Beeinträchtigung der Container oder Benutzer. Bei Kubernetes muss man jedoch darauf achten, dass die Workload auf mehreren Servern verteilt ist, um Ausfälle zu vermeiden. Es wurde auch darüber diskutiert, wie man die Infrastruktur mit virtuellen Maschinen oder direkt mit Docker aufbauen kann. Der Sprecher verwendet virtuelle Maschinen als Loadbalancer-Cluster für seine Webserver und verwaltet auch die Zertifikate dort.

Wir haben auch verschiedene Aspekte der Server-Sicherheit und Netzwerkkonfiguration besprochen. Ein ACME-kompatibler europäischer Provider wurde erwähnt, der jedoch kein Rate Limiting bietet. Es wurde über den Einsatz der Firewall Firehole zum Schutz des Servers und die Vorteile der Verwendung von Samba 4 als Domain-Controller gesprochen. LDAP wurde in Nextcloud und Mail-Server integriert. Es wurde auch die Möglichkeit erwähnt, Cloudflare Tunnel für eine feste IP-Adresse zu verwenden und die Vorteile dieser Lösung zu diskutieren.

Der Sprecher erwähnt, dass er versucht, ein papierloses Büro einzurichten, indem er eingescannte Dokumente in Paperless NX hochlädt. Er verwendet auch Nextcloud und eine Office-Lösung, die hinter seinem Traffic-Server läuft.

Schließlich haben wir über das Betreiben von E-Mail-Servern zu Hause gesprochen. Es wird empfohlen, sich zumindest hobbymäßig mit diesem Thema auseinanderzusetzen, da es eine spannende Technologie ist. Es wurden Herausforderungen wie die Notwendigkeit einer statischen IP-Adresse und die Schwierigkeit der PTR-Rekordsetzung diskutiert. Es wurde erwähnt, dass E-Mail Service-Anbieter wie SendGrid eine gute Alternative sein können, da sie GDPR-konform sind und kostenlose Pläne anbieten.

Der Sprecher bittet zum Abschluss die Zuhörer um weitere Themen und Fragen, um sie bei ihrer eigenen Infrastruktur zu unterstützen. Er ist offen für Empfehlungen von coolen Applikationen oder Diensten, die man zu Hause betreiben kann, wie zum Beispiel einen eigenen Web-Server, Nextcloud oder GitLab.

Brief Summary

Wir diskutieren die neuesten Updates in der Rust-Welt, einschließlich der Verbesserungen in der Version 1.73.0, Updates zur Finanzierung der Rust Specification Working Group und der Rust Foundation, sowie der Vorstellung von zwei Open-Source-Projekten. Außerdem teilen wir Empfehlungen zum Hosting von Webseiten zu Hause, dem Betrieb von virtuellen Maschinen und der Sicherheit von Servern. Zum Abschluss sprechen wir über E-Mail-Server und bitten um Themenvorschläge und Fragen von den Zuhörern.

Tags

Rust-Updates, Version 1.73.0, Finanzierung, Rust Specification Working Group, Rust Foundation, Open-Source-Projekte, Webseiten-Hosting, virtuelle Maschinen, Serversicherheit, E-Mail-Server, Themenvorschläge, Zuhörerfragen
Edit Transcript Remove Highlighting Add Audio File
Export... ?

Transcript

Rust News


[0:28] Willkommen bei Radio Turks, ich bin Matthias und ihr hört den News-Shout aus der Rust-Welt, was im Oktober passiert ist.
Oktober 2023, Rust 1.73.0 wurde released.
Dabei ist, wir bekommen neue und sauberere Panic-Messages.

[0:46] Zunächst einmal, was ist eine Panic-Message? Eine Panic-Message ist eine Nachricht, die ausgegeben wird, wenn ein Rust-Programm abstürzt.
Wir kennen von C ein Segmentation-Fault, wenn dieser vorkommt, dann wird einfach segfold ausgegeben.
Das ungefähre Äquivalent in Rust ist ein Panic und wenn ein Panic passiert, wird das Programm eben mit einer Nachricht beendet und diese Nachricht wurde jetzt verändert, und zwar wurde eine ein Zeilenumbruch eingefügt, hört sich erstmal unspektakulär an, macht allerdings doch einen Unterschied, wenn ich als User praktisch, nicht eine sehr sehr lange Zeile lesen muss, sondern dafür zwei Zeilen und das ist einfach einfacher zu, zu parsen für das menschliche Gehirn, wenn man da einfach nur kurz drauf gucken muss und direkt sieht, was ist genau passiert.
Des Weiteren wurden neue Funktionen für einfacheren Code in Bezug auf Thread-Local-Initialization eingeführt.
Ich verlinke euch den RFC in den Show Notes. Das hilft einfach dem Programmierer saubereren Code zu schreiben, weil es jetzt eben Interfaces gibt, um einfacher mit Thread-Local-Initialization zu arbeiten.

[1:59] Des Weiteren wurden einige APIs stabilisiert, wie praktisch in jedem Rust-Release. Besonders hervorzuheben sind hier die Funktionen chown, fchown und lchown auf Unix-Systemen, die jetzt eben stabil sind. Des Weiteren gibt es jetzt mehr Funktionen, die Const sind, unter anderem und vermutlich für die meisten wichtig ist aus dem RC-Modul der Weakpointer, dessen Konstruktor ist jetzt Kunst, aus dem Sync-Modul der Weakpointer, auch dessen Konstruktor ist Kunst und außerdem dem None-Null-Type, da wurde die SREF-Funktion jetzt Kunst.

[2:37] Des Weiteren gibt es Updates vom Polonius-Projekt. Das Polonius-Projekt implementiert einen, experimentellen Borrow-Checker, mit dem Ziel einen schnelleren Borrow-Checker zu implementieren, die aktuelle Implementation, zu verbessern, da diese ein paar Probleme hat in ganz bestimmten Fällen.
Und das Wichtige hier ist zu wissen, dass Nutzer der Sprache keine Änderungen bemerken werden, falls Polonius jemals praktisch in Stable Rust einfließt.
Es gibt vom Projekt jetzt ein ein paar Milestones und eine Roadmap, das ist sicherlich ein sehr interessantes Projekt. Ihr findet den Link zu dem entsprechenden Blogpost in den Shownotes. Des Weiteren gibt es von Rebecca Ramboul, dem Executive Director von der Rust Foundation, einen Recap-Blogpost zum Q3 2023 und Rebecca schreibt, dass die Rust Specification Working Group langsam voranschreitet und zwar mit Funding von Huawei und AWS. Die Working Group arbeitet an einer Spezifikation der Rust-Sprache, was sicherlich sehr interessant ist und, wir hoffen natürlich alle, dass das bald passieren wird.

[3:54] Des Weiteren hat die Rust Foundation mit dem Rust Projects Leadership Council, gearbeitet, um drei neue Project Leads zu wählen und diese werden bald announced.
Außerdem schreibt Rebecca, dass es neue Silbermember für die Foundation gibt und zwar einmal die Falkhorn Foundation, Helsing, JetBrains und TurboFish.
Allerdings sind leider auch ein paar Member abgesprungen, unter anderem und JFrog war Platinum Member. Außerdem wurde der Security Initiative Progress released und zwar ist das im Juli passiert und da gibt es mehrere Highlights und zwar das erste Highlight ist, dass die Foundation ihr erstes, Technical Open Source Project released hat unter dem Namen Painter und Painter ist eine Callgraph-Database über das komplette Crates.io-Ökosystem. Und das Ziel ist hier, dass wenn eine Security-Vulnerability in einer Crate gefunden wird, dass man mit dieser Callgraph-Database herausfinden kann, welche anderen Crates betroffen sind. Denn nur weil eine Crate A eine Crate B importiert und praktisch Code aus dieser nutzt, heißt es noch lange nicht, dass wenn in Crate B ein Problem gefunden wird, ein Security-Problem, dass die Crate A diesen Code auch jemals überhaupt ausführt.

[5:18] Und das Ziel ist nun eben, dass man mit dieser CoreCraft Database herausfinden kann, welche Crates von einer bestimmten Security-Vulnerability betroffen sind.

[5:29] Das zweite Highlight ist auch das zweite Open-Source-Projekt, das die Foundation released hat, und zwar unter dem Namen Typo Mania.
Typomania ist ein Projekt, um gegen Typosquatting vorzugehen.
Über Typosquatting hatten wir in der letzten Ausgabe schon geredet.
Zudem wurde noch Smoke-Testing-Automatisierung implementiert.
Es gab nämlich in diesem Quartal einen Vorfall, dass Crates.io kurz down war, weil aus Versehen etwas deployed wurde, was dazu geführt hat, dass Crates.io nicht mehr so funktioniert hat, wie man es erwarten würde.
Dafür wurde jetzt praktisch eine Testautomatisierung implementiert, um solche Fehler in der Testphase finden zu können und nicht erst, wenn das Produktivsystem praktisch nicht mehr erreichbar ist.

[6:13] Außerdem schreibt Rebecca noch über das Rust Foundation Fellows Programm.
Hierbei handelt es sich um ein Grants-Programm für Community-Mitglieder, die an coolen Rust-Dingen arbeiten, um diesen Mitgliedern diese Arbeit finanzieren zu können. So viel zu den News. Dann möchte ich noch zwei Dinge highlighten und zwar gibt es einen Progress Report Nummer 26, vom Rust-C CodeGen-CCC-Projekt. Das Projekt implementiert ein Backend für das Rust Compiler Frontend, um Code-Generierungen mit GCC zu machen und die können inzwischen Rust for Linux kompilieren, was sicherlich ein nicht zu verachtender Meilenstein in der, Projekthistorie ist.
Das zweite Highlight, das ich machen will, ist Ferosense. ist ein Projekt von Ferrous Systems. Und zwar handelt es sich hierbei um eine Version des Rust-C-Compilers, allerdings quality managed and qualified for use in automotive and industrial environments.
Es handelt sich hierbei um ISO 26262 und IEC 61508. Und zwar geht es dabei darum, den Rust-Compiler zu zertifizieren, um ihn in sicherheitskritischen Anwendungen verwenden zu können. Und Ferro Systems bietet dort eben jetzt für.

[7:39] Industriepartner eine Zertifizierung an. So viel zu den Rust-News im Oktober.
Ihr hört Radio Tux, mein Name ist Matthias. Hallo, hier spricht Matthias Ettrich und ihr hört Radio Tux.

Musik: Josh Woodward mit Good to Go


[7:54] Music.

Gespräch über Hosting daheim


[10:53] Ja, hallihallo, herzlich willkommen zur Oktober-Sendung von Radio Tux und heute bei mir ist Ansgar. Hallo Ansgar.
Ja, hallo. Dich haben wir schon lange nicht mehr gehört. Ja, das kann sein.
Ich habe keine Idee, wie lange das schon wieder her ist. Das letzte Mal habe ich noch ein paar Tooltips gegeben.
Korrekt, ja, wir hatten so Ansgars Tooltips eine Weile noch.
Genau, aber das ist ja auch schon wieder ein paar Jahre her.
Also vor 10, 12 Jahren warst du fester Bestandteil und dann haben wir uns ein bisschen aus den Augen verloren.
Also gut, wir haben uns öfter schon mal gesehen, auf irgendwelchen Konferenzen auch.
Weiß ich nicht, du kannst ja mal kurz erklären, was du gerade so machst.
Du machst so IT-Zeug auf jeden Fall. Ja genau, ich bin ja dann irgendwann in die feste Arbeitswelt übergegangen.
Richtig, ja. so familie frau und kind ja ja das das übliche programm sage ich mal so live goes on ja und bin aber der it immer treu geblieben und, habe mich mehr oder weniger in die infrastruktur verbissen und habe ja in der vergangenheit so das ein oder andere rechenzentrum für den ein oder anderen arbeitgeber aufgebaut, betreut und optimiert, wie man so schön sagt.
War zuletzt auch bei einem Cloud-Provider tätig.

[12:18] Man kommt rum. Genau. Man kommt rum. Und was du auch machst, ist, ziemlich viel Zeug bei dir zu Hause in den Keller reinzustellen. Und das war so ein bisschen etwas, die ich heute gegriffen habe.
Das ist eigentlich ein Thema, das ist, glaube ich, ganz interessant. Ich habe das ja auch so die letzten Monate tatsächlich ein bisschen gemacht, mehr Zeug in meinen Keller gestellt und nicht mehr bei einem Cloud-Hoster oder bei einem dedizierten Server-Hoster, also die, die uns öfter hören oder die auch Binärgewitter hören, die wissen das, dass ich ein bisschen da versucht habe, ja, Kosten zu drücken und jetzt mehr hier zu Hause hoste.
Und du hast gesagt, du machst das auch. Du hast auch, ich glaube, ein Rack zu Hause stehen, ne?
Also das ist schon ein bisschen größere Umgebung, aber so groß muss man ja noch nicht mal anfangen.
Ich habe tatsächlich nur einen alten Desktop-PC erst mal genommen und Zeug da draufgezogen.
Du machst es ein bisschen gleich größer, aber es ist trotzdem interessant und wir können mal versuchen, Auseinanderzuklamüsern, was braucht man um zu Hause, egal ob es jetzt Webseiten sind oder irgendwelche Dienste zu hosten. Klar, man braucht erstmal irgendwie Internetanschluss.

[13:42] Ja, das wäre nicht schlecht. Genau. Was hast du zu Hause für einen Internetanschluss?
Ich habe tatsächlich einen Business-Anschluss zu Hause, 500 Mbit runter und, lass mich lügen, 75 rauf.
Aber, ja, ich sage mal, breitbandige Internetanschlüsse sind ja mittlerweile für den, sagen wir mal, gewillten Enthusiasten durchaus bezahlbar.
Also, ich sage mal, mit einem, ich sage mal, off-the-shelf-Internetanschluss geht das natürlich auch, da können wir nachher noch mal ein bisschen drüber reden.
Problematisch ist halt immer die Upload-Bandbreite, die einem dann beim Self-Hosting natürlich limitiert.
Und die Tatsache, dass man in der Regel keine feste IP-Adresse im Internet hat und sowieso seitens des Providers die IP-Adressen meistens auf diversen Blacklists sind.
Aber da können wir dann nachher nochmal drauf eingehen, was man da tun kann, wie man da drum rum kommt und ja, was so möglich ist.

[14:45] Genau, du hast ein Kabel, wo man auch Fernsehen drüber gucken kann, sozusagen.
Ja, genau. Schlicht und ergreifend, weil da, wo ich wohne, Glasfaser noch nicht ausgebaut ist. Es ist ausgebaut, aber leider nicht bis ins Haus.
Und dann ist die Kabelvariante immer noch die schnellere. Und dadurch, dass es da auch Businessoptionen gibt, durchaus auch.

[15:12] Ja, also ich habe eine vier Stunden SLA per Vertrag auf dem Anschluss. Das lassen die sich natürlich auch bezahlen, aber am Ende, ich arbeite im Homeoffice, ich verdiene da mittlerweile mein Geld und dann möchte ich da auch eine gewisse Verfügbarkeit haben.
Gut, SLA heißt, du hast eine Entstörung, dass sie in vier Stunden sozusagen irgendwie deinen Anschluss entstören an der Stelle.
Ja, dass sie in vier Stunden anfangen spätestens den Anschluss zu entstören.
Ticket angenommen. Richtig, das ist ja auch immer das, was die meisten Leute gerne verwechseln bei den SLAs, dass das in der Regel ja nur die Reaktionszeit ist und nicht die Fehlerbehebungszeit, weil es ist ja auch schwierig. Es kann ja, ich sag mal, ein Verteilerkasten abgebrannt sein, den hat man natürlich nicht in vier Stunden da neu hingestellt. Aber zumindestens, ich habe halt eine Business-Rufnummer, die kann ich anrufen, 24 7, da geht auch immer jemand dran und nimmt halt meinen Anliegen entgegen und in der Regel reagieren sie deutlich schneller als innerhalb von vier Stunden. Aber ja, ich hatte halt auch schon mal einen Ausfall von einem Tag. Es ist.

[16:19] Halt kein Rechenzentrum, das sollte man sich immer merken.

[16:25] Gut, aber wenn wir uns jetzt in den Home-User richten, der braucht das vielleicht auch nicht. Also ich hatte, ich habe einen Glasfaser-Anschluss hier. Ich hatte bis vor kurzem einen ganz normalen Privatkunden-Glasfasertarif. Hat auch funktioniert. Da gibt es halt diese, ja, SLA, also Service Level Agreements, jetzt nicht. Da hast du dann, da hängst du dann halt in der Warteschleife mit allen anderen 100 Leuten, die da, oder 1000 Leuten, die ein Problem haben.
Trotzdem habe ich angefangen, hier Sachen mir in den Keller zu stellen, weil seitdem ich eine Solaranlage auf dem Dach habe, kostet der Strom auch nix sozusagen.
Genau. Dann, das war halt auch nochmal so ein Punkt bei mir.
Also klar, man hat ein Einfamilienhaus, gut, das muss man sich auch erstmal leisten können und hat einen Keller und hat dann noch eine Solaranlage und dann noch eine Glasfaserleitung, aber trotzdem so die Kombination war halt, okay, ist eigentlich ganz cool.

[17:18] Also meine Solaranlage hat auch noch so eine Pulverbatterie, ich hab tatsächlich, wenn der Strom von außen ausfallen würde und die Solarbatterie geladen ist, ist mein Haus trotzdem weiter versorgt. Also es ist nicht nur eine USV, die man ja auch noch haben möchte, wenn man tatsächlich was sich in den Keller stellt. Also haben jetzt eine Leitung, eine schnelle Internetleitung, die man haben muss. Man muss irgendwie eine Gelegenheit haben, wo man es hinstellt. Egal, man kann jetzt nicht einen Rack tatsächlich kaufen, so einen 19-Zoll-Rack, richtig schön, wo man alles reinbaut. Gibt ja, gibt es unterschiedliche Größen. Da kannst du irgendwie, keine Ahnung, 48 AE nehmen. Brauche ich jetzt zu Hause nicht. Ich habe tatsächlich nur eins.

[18:04] Ich glaube ich habe nur 10, 12, also eins was man an die Wand schraubt bisher, wo dann halt die Netzwerksachen ankommen und der DSL-Router oder das Glasfasermodem oder das Kabelmodem steht.
Und da ist halt bei mir auch eine USV, also eine unabhängige Stromversorgung drin, die halt zumindest ein paar Minuten, wenn der Strom mal weg ist, das Ding noch betreiben würde.
Und wie gesagt, bei mir, wenn es länger weg ist, dann fängt tatsächlich die Solaranlage, die auch eine große Batterie hat, an, noch zu funktionieren.

[18:46] Also ich denke mal so ein paar Stunden würde ich hier durchhalten.
Aber man hätte dann trotzdem das Problem, dass, wenn großflächiger Stromausfall ist, wahrscheinlich auch die DSL-Leitung, die Glasfaserleitung oder die Kabelleitung nicht funktioniert.
Und es wahrscheinlich genauso mit betroffen ist. Die hat dann auch ein Problem. Also das ist immer, man kann immer viel dazubauen. Im Endeffekt hat man wahrscheinlich trotzdem an irgendeiner Stelle ein Problem. Okay, also wir haben den.

[19:11] DSL-Anschluss, wir haben irgendwie den Platz, wo man es hinstellt. Ich weiß nicht, hast du, du hast ein Rack, was irgendwo billig irgendwo abgefallen ist.
Ja, also das ist mal von der Hochschule, wo ich studiert habe, aus dem Rechenzentrum aussortiert worden und ja, der Zufall wollte es, dass es dann gleich gegenüber in meine Studentenbude damals gefallen ist und seitdem habe ich das und bin ganz happy damit.
Ja, es ist auch viel zu groß, also es ist nicht mal halbvoll, irgendwie 48 HE, 80 Zentimeter breit, Meter 20 tief. Also das ist schon eins der größeren, die man so haben kann.
Ähm, ja, aber, ähm, ich sag mal, wenn man ein bisschen die Augen offen hält und ein bisschen schaut, ähm, so ein REC findet sich tatsächlich öfter mal für kleines Geld, so für Selbstabholer oder so.
Ähm, ja, also da einfach die üblichen Verdächtigen in kleinen Anzeigen oder so mal durchschauen.
Oder in diversen Foren aktiv werden. Es gibt auch auf Reddit mittlerweile so, ich sag mal, Gruppen, die sich halt mehr mit mit so Self-Hosting und so weiter auseinandersetzen.

[20:23] Ich weiß gar nicht, ob es da eine deutsche Gruppe gibt, wo auch mal so untereinander hin und her gekunkelt wird.
Aber ja, da findet sich was.
Und ganz berühmt damals war immer noch hier das IKEA-Lack-Rack, weil die IKEA-Lack-Tische, die Beine haben genau den 19 Zoll Abstand.
Man könnte halt auch den Weg gehen, wenn man das erst mal möchte und für den kleinen Hobby Anfänger ist das völlig legitim und völlig in Ordnung.
Und mit 19 Zoll Technik anfangen ist sowieso so eine Sache, das kostet dann halt gleich immer einen kleinen Aufpreis.

[21:03] Auch da einfach beim gebrauchten zeug schauen und es ist sowieso viel spannender sage ich mal da an der stelle denn so ein bisschen in das enterprise zu gehen insbesondere wenn man vorhat, das entweder beruflich zu machen oder wie in meinem fall halt bei dem ein oder anderen arbeitgeber irgendwie abgefallen ist und ansonsten der entsorgung zugeführt wurden wäre Genau, auch eine USV oder sowas kriegt man gebraucht, wenn man mal guckt, ja, also ich hatte auch bei einem alten oder bei einem Kunden ist die auch mal rausgefallen und klar, man kann welche nehmen, die in 19 Zoll Technik ist, aber auch meine USV ist jetzt auch eine, die du hinstellst, die auch für Desktops geeignet ist, wie gesagt, mein Server ist gerade ein alter, ausgemusterter Desktop PC, der ist jetzt auch kein 19 Zoll Server, den man da irgendwie einbauen könnte.
Also es geht beides, man kann mit beidem erst mal anfangen, wenn man sich da ein bisschen professionalisieren will, dann macht es glaube ich Sinn.
Wir hatten gestern auch schon ein bisschen drüber diskutiert, ob ich mir nicht doch auch einen 19 Zoll Rack da unten hinstelle und das ein bisschen mehr mache.

[22:14] Aber so habe ich jetzt auch erst mal angefangen, einen alten Desktop PC, der gut genug ist, der irgendwo abgefallen ist, der nicht mehr gebraucht wurde, ein bisschen mehr RAM reingetan, ein paar NVMEs reingesteckt und ja, dann kommen wir glaube ich schon zu dem nächsten Punkt, oder?
Man muss dann irgendwie ein Betriebssystem drauf tun, also ich habe dann irgendwie, weiß nicht, hast du irgendwelche Server, du hast die Server selber gebaut noch, weil wir noch bei Hardware bleiben, du hast glaube ich Server selber gebaut.
Genau, genau, also ich hatte einen alten Server von, wie heißt die bayerische Firma, ich komme gerade nicht. Thomas Grenn.
Thomas Grenn, genau. Von denen hatte ich auch damals über einen Arbeitgeber ein Gehäuse im Wesentlichen nur, wo ein Mainboard drin war, wo noch ein Netzteil drin war, aber das war damals ein richtig gutes Servergehäuse.
Das habe ich im Grunde genommen nur ein anderes Netzteil eingebaut, weil das mir deutlich zu laut war damals.

[23:14] Und den Server habe ich viele Jahre benutzt und den habe ich jetzt letztens auch an einen, sagen wir mal, entfernten Bekannten, den ich auf der FOSDEM kennengelernt habe, der auch so ein bisschen bastelmäßig unterwegs ist.
Der hat erzählt, dass er auch ein bisschen was vorhat und wir sind ins Gespräch gekommen und ich habe gesagt, naja, ich habe bei mir gerade erneuert, das Gehäuse liegt rum und dann hat er gesagt, Ja, ich muss eh neue Fenster für mein Haus holen oder so, weil er die irgendwie günstig irgendwie bei Leipzig in der Ecke bekommen hat und ist dann halt bei mir vorbeigefahren und hat noch das Gehäuse mitgenommen.
Also das wird jetzt auch noch ein weiteres Leben haben.

[23:52] Ich habe halt tatsächlich angefangen selber zu bauen, weil ich bei mir zu Hause klastern wollte.
Also, ich wollte mehrere Server in einem aktiv-aktiv-redundanten Setup bauen. Okay.
Ähm, da kann man vielleicht auch gleich noch ein bisschen in Sachen Storage, was man so tun und lassen kann.
Und, ähm, da wollte ich halt einfach drei möglichst gleiche Systeme haben.
Und dann hab ich hin und her überlegt, ob ich mir irgendwie über eBay oder so mir irgendwie alte Enterprise-Hardware kaufe und, ähm, die dann nutze.
Das Problem bei den Enterprise-Hardware ist halt in der Regel, dass die die Lüfter halt für mehr Luftdurchsatz gebaut sind und dementsprechend halt einfach auch laut sind. Und es ist zwar trotzdem bei mir im Keller, aber ich habe mein Arbeitszimmer gleich nebenan. Ich möchte halt nicht die ganze Zeit Surren und Summen hören.
Und dann hat man auch meistens, dann sind es vielleicht SARS-Platten und nicht SATA-Platten.
Da muss man dann halt auch auf die Technologie aufpassen. Also ich meine, wenn ich mir selber Consumer-Hardware, also End-User-Hardware kaufe, oder das, was man zu Hause hat, das sind SATA-Platten.
Die haben halt diesen speziellen Anschluss oder den normalen Anschluss, den wir halt so kennen, was man auch an seinen Desktop-Rechner reintut.

[25:05] Wenn ich mir jetzt Enterprise-Hardware kaufe mit, entweder sind da Festplatten drin oder nicht, dann haben die halt SAS.
Der sieht so ähnlich aus, der Anschluss, aber ist halt nicht kompatibel einfach.
Da kann ich halt nicht einfach eine 10-Terabyte-Platte irgendwo bei Amazon oder sonst wo kaufen und da reinstecken. Da kriege ich dann Probleme. Auf sowas muss man achten.
Genau, und was mich halt am meisten ärgert, wenn man halt gebrauchte Hardware, also grade im Enterprise-Segment, kauft ...
Die Festplatten sind in der Regel nicht dabei aus Datenschutzgründen.
Ja, stimmt. Das kann man dazu sagen. Das ist auch okay und normal.
Ich meine, ich hätte auch ein Problem damit, wenn ich meine Hardware irgendwo verkaufe und die Platten mitverkaufe.

[25:42] Und was dann halt beim Entsorgen oder Verwerten halt passiert, dass meistens die Hotswap-Trays halt einfach rausgezogen werden und in den Müll geschmissen werden.
Nicht die Platten aus den Trays ausgebaut, was halt dazu führt, dass man dann halt noch irgendwie schauen muss, ob man für diese Seriesserver, was weiß ich, Dell, Lenovo oder wen man da auch immer kauft, noch neue Trays findet, damit man halt die die Hotswap-Rahmen nutzen kann. Und ja, da kostet so ein Tray ohne die Festplatte allein schon mal gerne 30, 40 Euro. Und wenn man davon dann acht Stück bestücken will, dann ist allein das auch schon wieder eine Hausnummer, wo man denkt, ja, das ist aber eigentlich nur der Rahmen für die Festplatte. Und ich habe noch nicht mal Da hat man eine Festplatte reingesteckt.
Und ja, das hat halt bei mir halt einfach dazu geführt, dass ich gesagt hab, okay, bei der Menge Geld kann ich dann halt auch ein relativ günstiges Gehäuse mit Hotswap-Rahmen einfach als ... als Leergehäuse kaufen.
Das lag jetzt bei mir, pff, ich will jetzt nicht lügen, ich glaube, was, um die 200 Euro pro Gehäuse.
Okay, also das Gehäuse, dann musst du noch eine Mainboard reintun.
Genau, dann Mainboard rein, Prozessor, Arbeitsspeicher, Festplatten, Netzwerkkarte, wenn man will und wenn man mehr Festplatten anschließen möchte, dann halt.

[26:58] Ja, irgendwie noch einen Storage-Controller. Was halt heutzutage ein bisschen blöd ist, ist halt, dass die neuen Mainboards immer weniger SATA-Anschlüsse haben.
Also früher war es halt üblich, irgendwie ein Mainboard mit acht SATA-Anschlüssen war normal.
Sechs oder acht, ja.
Heute sind's, wenn man Glück hat, noch vier.
Mhm.
Aber ein CD-Raumlaufwerk baut man heute auch in keinen Server mehr ein.
Von dem her sind's halt tatsächlich nur noch die alten Platten und SSDs, die da ranwollen. Ähm ...

[27:27] Ja, also ich hab halt tatsächlich ein Gehäuse gefunden, wo acht 3,5-Zoll-Platten reingehen, wo aber die Rahmen so sind, dass da auch gleich 2,5-Zoll-Platten reingeschraubt werden können, weil das ja ein bisschen minimal anders ist, dass es halt trotzdem in den Hotswap-Rahmen passt.
Und, ähm, ja, ich hab ein ganz einfaches Mainboard mit einem AMD Ryzen 5 genommen und ich glaub, 32 Gigabyte RAM pro Knoten.
Ich war dann am ende pro server bei was um die 600 euro.
Also so ähnlich wie wenn ich mir ein desktop rechner kaufen würde der fertig eingerichtet ist.
Du hast jetzt halt was 19 zoll hast was du genau einbauen kannst.
Genau also ich habe halt zugesehen dass es halt alles 19 zoll technik ist weil ich das recht habe.
Ich habe eine M.2-Karte fürs Betriebssystem mit drauf und halt die drehenden Platten drin und dann noch jeweils zwei SSDs mit drin.
Das können wir dann gleich noch, wenn wir in Sachen Storage Cluster mal ein bisschen schauen, was da so möglich ist, warum ich das getan habe. Und ja, was ich dann auch noch gemacht habe, was so ein bisschen, ich sage mal, fast schon Geheimtipp ist.
Man möchte ja, Gigabit ist nett, reicht für die meisten Sachen halt auch dicke aus.

[28:51] Wenn man dann halt, wie in meinem Fall, so ein bisschen was in Richtung Redundanz und man möchte VMs zwischen Maschinen hin- und herschieben können und man möchte vielleicht auch mal Backups wiederherstellen mit einer gewissen Geschwindigkeit, dann möchte man schnell doch so was wie zehn Gigabit machen.
Ja.
Und, ähm, ja, dann hab ich halt so rumgeguckt, und dann dacht ich so, ja, puh, dann brauch ich noch einen 10-Gigabit-Switch.
Das kost ja auch Geld, ich hab eh nur 30. Die Switche sind immer noch relativ teuer.
Ja, und die sind halt auch laut.
Und die verbrauchen nicht wenig Strom, also, ähm, ja. Und grade auch, wenn man sie dann gebraucht aus irgendwelchen Firmendingen kauft, dann sind das halt auch gleich die 48-, 52-Portgeräte, die dann halt auch wirklich groß und laut sind.
Das sind ein HE-Geräte, das heißt also auch da viele schreiende Lüfter.

[29:42] Ja, muss man sich halt überlegen, ob man das wirklich will. Also, ich hab solche Switche in meinem Lab, wo ich sie halt dann, ja, mal anschalte, um mal was auszuprobieren.
Aber nicht für den normalen Einsatz. Egal, lange Rede, kurzer Sinn, ich wollt zehn Gigabit haben, hab dann überlegt, ja, ich kauf einfach zehn Gigabit-Dualportkarten und verkabel meine drei Rechner untereinander einfach in einem Dreieck.
Okay. Also, einer Server geht zum anderen und der geht zum dritten, und der dritte geht wieder zum ersten.
Richtig. Ähm, ja, war auch so ein bisschen so ein Experiment, ob man das so machen kann mit Routingprotokoll und was so möglich ist.
Naja, und dann hab ich halt erschreckend festgestellt, wie teuer zehn Gigabit-Karten sind.
Und bin dann halt kurzerhand, ähm, ja, in das Enterprise-Segment gegangen und hab halt geschaut und hab halt festgestellt, ein Zweidrittel des Preises 40 Gigabit-Netzwerkkarten kaufen kann.
Einfach weil es scheint so zu sein, dass...
Ich sag mal, im Hobbyisten-Environment ist einfach noch nicht angekommen, dass mittlerweile 40-Gigabit-Technik beziehungsweise 56-Gigabit-Fiber-Channel-Karten, die halt 40 Gigabit Ethernet können in meinem Fall, dass die halt echt bezahlbar sind.
Also ich hab dann halt für eine Netzwerkkarte, was um die, ich glaube, 70 Euro mit Versand bezahlt.

[31:12] Und dann gibt's halt so die üblichen Verdächtigen, ich sag jetzt mal hier Fiber-Store.
Da kriegst du halt die dhc kabel für 20 euro noch dazu klar die kabel sind ein bisschen was teurer das ist dann halt kein kein rj 45 kabel mehr aber ja.
Kaufst halt noch mal drei so eine kabel und hast halt ein dreieck verkabelt und wenn man sich so eine normale 10 gigabit karte für das bereich kauft die koste glaube ich auch 90 euro noch mehr also das ist die single port.
Jaja genau genau ich hab genau ich hab so ein vor ein zwei jahren mal so eine 10 gigabit karte gekauft die ich halt mehr also pci-express karte und die war glaube ich so um die 90 euro ja genau und halt gerne auch 140 oder sowas für eine dualport karte und wenn man dann halt guckt dass also im enterprise segment also gerade auch bei fiber channel oder bei den schnellen internet karten ist dualport standard das heißt also da einfach bei den gebrauchten karten single port karte da zu finden, ist schon Kunststück.

[32:18] Deswegen also an der Stelle wirklich ein Tipp von mir, einfach da den Sprung wagen und sagen, okay, dann halt gleich 40 Gigabit oder 56 Gigabit.
Oder selbst mittlerweile, wenn man Glück hat, halt auch 100-Gigabit-Netzwerkkarten sind durchaus für kleines Geld zu finden.
Ja, wobei grad die Rechenzentren gerade, glaub ich, auf 100 Gigabit oder sowas umstellen und deswegen wahrscheinlich diese 40 Gigabit rausfallen, oder?
Nee, das ist tatsächlich schon, die sind jetzt eher, also die Rechenzentren, die ich vor sieben Jahren gebaut habe, haben wir mit 100 Gigabit gebaut. Das heißt also, die im Cloud-Segment gehen jetzt mittlerweile eher auf die 400 Gigabit-Schiene, also PCI-Express 5 und 6, Einfach weil, ja, die Bandbreite ist halt am Ende immer der limitierende Faktor, wenn es um Migrieren von virtuellen Maschinen geht oder um das Wiederherstellen von Daten und so weiter. Also Bandbreite ist da einfach essentiell. Ja, also die Compute-Nodes werden mittlerweile, so das, was ich so gemacht habe, mit mindestens 50 Gigabit angebunden.

[33:35] Und bei der 400 Gigabit-Technik gibt es halt Breakout-Kabel auf 100 Gigabit. Das heißt, aus einem 400 Gigabit-Port macht man viermal 100 Gigabit.
Ja, das ist doch ein so ein fettes Ding, Kabel, was man da reinsteckt und dann kommen halt mehrere Kabel aus dem einen. Genau, genau, genau.
Also nicht SFP, QSF, irgendwas. Ja, das ist ein QSFP56DD.
Aber gut, da wollen wir jetzt gar nicht so sehr ins Detail gehen. Das hat nichts mehr mit dem Heimsegment zu tun.
Nee, aber ist ja interessant, dass du sagst, man könnte theoretisch auch für das Heimsegment schon auf 10 oder 40 Gigabit gehen. Also 10 habe ich mir auch überlegt, aber ich meine, wenn man jetzt anfängt, Gigabit reicht auch erst mal, insbesondere wenn man nur einen Server hat.
Ja, dann auf jeden Fall. Und ich meine, der Uplink-Port, wir hatten es vorhin, ist ja meistens auch unter einem Gigabit, von dem her, genau, also wenn ich mir nur einen Server hinstelle, gut, dann habe ich wahrscheinlich keine Redundanz, aber bei mir ist es jetzt erstmal so, es steht einer da, klar geplant ist, noch einen zweiten dazu zu stellen und dann irgendwie eine Redundanz zu machen oder besser so wie du es gleich hast, drei Server. Da hat man dann natürlich eine gewisse Ausfallsicherheit. Okay, also Hardware habe ich mir irgendwie zusammen konfiguriert, Netzwerk.

[34:52] Ja, Gigabit, 10 Gigabit, 40 Gigabit, alles was schon tatsächlich Heimbereich geht, Das müssen wir irgendwie Betriebssystem da drauf packen.
Was hast du genommen? Bei mir ist es ... Ich bin ein Debian-Kind seit vielen, vielen Jahren.
Und es ist halt auch wieder ein Debian geworden, also im Serverbereich.
Aber im Grunde genommen jede halbwegs aktuelle Linux-Distribution der persönlichen Wahl tut im Wesentlichen.
Also, wir können ja nachher noch mal ein bisschen auf dein Setup eingehen.
Du benutzt ja Proxmox, da ist die Distribution quasi vorgegeben.
Ist in dem fall auch ein debian am ende ist es auch ein debian ja.

[35:34] Ja aber im grunde genommen ja das wo ihr euch am wohlsten fühlt nehmt es für den anfang ist es auch nicht falsch da einen desktop drauf zu installieren wenn wenn ihr sagt mit der shell ist es ist es ist es noch nicht so dass ihr sagt das ist mein go-to.

[35:53] Genau, könnte man natürlich auch eine GUI nehmen und dann wird Manager oder sowas.
Ganz genau, also das tut halt auch oder das ganz klassische Virtualbox oder so. Also dann lockt man sich halt aus und lässt es halt einfach so stehen.
Was immer geht, tastet euch daran, sag ich mal. Also, ich meine, das Schöne an meinem Proxmox, an meinem in Anführungsstrichen, ist halt, dass du eine Web-Oberfläche kriegst, also du installierst das Ding, ich habe das jetzt auch tatsächlich das erste Mal, glaube ich, Proxmox über eine USB-Stick und so installiert, also das hat dann auch ein Installer, gehst halt durch, dann ist das fertig.
Du kannst aber auch ein Debian installieren und aus dem Debian Proxmox machen musst du nur eine spezielle App-Source-List hinzufügen und dann entsprechend upgraden gibt's entsprechend auf den, ja, im Wiki sozusagen bei denen, wie man das macht. Und dann, ja, dann sagt es dir halt beim Hof von, okay, hier, das ist jetzt meine IP-Adresse, logg dich hier per Webbrowser ein und dann kannst du, da hast du da auch clicky-bunty. Finde ich ganz.

[37:06] Das ist nett, man kann bei denen Support kaufen, man muss aber nicht, das ist alles open source.
Und dann baut man sich halt entweder seine virtuellen Maschinen mit KVM zusammen oder man kann auch Container, Elixir-Container nehmen.

[37:21] Und ja, also für mich reicht es, aber ich weiß gar nicht, was hast du jetzt, virtuelle Maschinen mäßig, oder hast du gar nichts da in der Richtung, wie meinst du das?
Ich bin ja ein bisschen sozusagen voreingenommen, was das angeht. Ich bin ja im Garneti-Projekt eigentlich aktiv, in letzter Zeit war ich es nicht so. Ich gelobe Besserung.

[37:43] Schönen Gruß an die Community da draußen. Hatten wir, glaube ich, auch schon mal als Thema, aber ja, das ist länger her.
Aber vielleicht müssen wir da noch mal irgendwann tiefer einsteigen und du kannst jetzt kurz mal erklären, was es ist.
Also Garneti selbst kommt ursprünglich von Google, ist ein sehr altes Projekt, also da gab es Proxmox noch nicht.
Das kommt eher so aus der Zeit, wo es...
Da gab es auch OpenStack noch nicht, glaube ich. OpenStack gab es auch noch nicht. Also das ist so aus der Zeit, wo es auch den Xen Hypervisor...
Ah ja, also bevor es KVM gab, gab es mal andere Technologien.
Genau, genau. Also der KVM-Support für Garneti ist tatsächlich auch aus der Community gekommen, von einer griechischen Research-Gruppe, ähnlich dem DFN in Deutschland. Und soweit ich weiß, hat Google intern auch mittlerweile den Großteil seiner Cluster von Xen auf KVM umgestellt. Aber Aber dadurch, dass wir vor ein paar Jahren das Garnetti-Projekt aus Google herausgelöst haben und in die SPI, also Software in Public Interest, das ist eine Foundation, haben wir überführt.

[38:58] Ja, es war halt, das Garnetti-Projekt war und ist so ein bisschen, ja, nur von einigen wenigen wird es am Leben erhalten.
Und unter anderem war halt die komplette rechtliche Lage damals komplett ungeklärt, weil es halt ein internes Projekt von Google war, also was auch nicht beworben wurde oder so, sondern es war halt nur für, ich sag mal, Leute, die es halt kannten, die wussten, dass das von Google kommt und dass Google da aktiv dran arbeitet und dass es da auch Personal gibt, die sich drum kümmern etc.
Und das ist auch heute noch so?

[39:36] Ja, man schweigt sich da so ein bisschen aus, aber es gibt definitiv noch Garneti Cluster bei Google im Haus.
Letztens gab es auch auf der Debian-Konferenz einen Software-Sponsoring für Prometheus von der Wikimedia Foundation zum Beispiel.
Also Wikipedia läuft auf Garneti, zumindestens zu teilen.

[40:01] Im Gegensatz zu Proxmox ist Ganeti komplett auf der Shell, es gibt keine Webinterface, also es gibt eine Web API, die man nutzen kann von Haus aus.
Es gibt auch Third-Party-Webinterfaces, die man zusätzlich installieren kann, wo man dann auch VMs anlegen kann, sie hoch und runter fahren kann und so, aber der Fokus liegt tatsächlich eher auf der Shell an der Stelle.
Und im Gegensatz zu Proxmox ist, ähm, Garneti halt von vornherein immer als Cluster gedacht und immer im redundanten Kontext zu sehen.
Also, ähm ... Du kannst also nicht nur eine Node betreiben. Man kann nur eine Node betreiben, das wird aber von vornherein eigentlich nicht empfohlen.
Also, man kann ja auch einen Ceph-Storage-Cluster mit nur einer Node betreiben.
Wird auch nicht empfohlen, ja. Wird halt auch ... Don't do this.
Maybe at home, but not in production, not at your employer.
Genau, und ja, dadurch ...
Ich hab halt viele, viele Jahre Ganeti-Erfahrung, und ... Okay, also, das ist mitgenommen.
Warum sollte ich was anderes lernen, wenn ich etwas aus dem FF kann?
Aber das macht auch virtuelle Maschinen mit KVM. Genau, virtuelle Maschinen mit KVM.

[41:21] Dann betreibe ich in diesen virtuellen Maschinen meine Loadbalancer, mein Kubernetes Cluster, und meine Heim- und Hofdienste, die ich für zu Hause brauche bzw. für meine eigene kleine Firma.
Das ist sozusagen die Virtualisierungsebene.
Dann gibt es die Storage-Ebene, das ist in meinem Fall ein Zev-Cluster.
Aber bei Proxmox ja mittlerweile eigentlich auch der Standard, zumindest wenn man mehrere Systeme hat.
Also im Endeffekt bei Proxmox, wenn du nur einen Node hast, dann hast du klar lokal deine Sachen.

[41:58] Wenn du zwei Nodes hast, könntest du ZFS machen und ZFS synchronisieren, Mirror, keine Ahnung, irgendwie.
Hast du zwar immer eventuell im Fehlerfall ein paar, bisschen Verlust von ein paar Sekunden oder irgendwas.
Aber trotzdem hättest du zwei Nodes, die sich biegen, Spiegel könntest du auch mit DRBD machen. Genau. Da hättest du, glaube ich, gar keinen Verlust. Also DRBD oder ZFS könntest du mit zwei Nodes betreiben. Oder wenn du dann drei Nodes hast, genau, dann kannst du auch bei Proxmods relativ easy auch tatsächlich über die Web-Oberfläche mittlerweile in Zev Cluster dir aufbauen und zusammen klicken. Ja. Genau. Das habe ich jetzt in meinem High-End-Setup nicht, wobei ich hätte es gerne. Ich benutze ja Zev, wer uns hier öfter Ich war ja auch auf einer CEF-Konferenz dieses Jahr schon auch gerne und viel und sowohl auf Arbeit als auch die Rheinland-Tuxen-Biennale-Gewitter-Sachen liegen auch teilweise auf einem CEF, aber eben auf einem CEF, was in irgendeinem Rechenzentrum läuft.

[43:02] Und zu Hause habe ich jetzt noch keins, weil, wie gesagt, ich bräuchte drei Notes dafür und noch habe ich nur eine.
Ja, ich will da schon irgendwann hin, aber noch bin ich nicht da.
Wie gesagt, wenn ihr mutig seid und sagt, es geht mehr darum, die Technologie zu lernen und weniger darum, tatsächlich auch die tatsächliche Redundanz zu haben, ein Ceph-Cluster lässt sich halt auch mit einer Festplatte betreiben.
Man muss dann an ganz vielen Stellen in der Config ein bisschen rumschrauben, damit die ganzen Warnungen weg sind.
Ja, vielleicht auch nix für den Halbanwender in der ersten Stelle.
Also, wenn ihr nur damit rumspielen wollt, bitte packt dann da keine Daten rein.
Aber wenn ihr nur die Technologie lernen wollt, Ja, dann geht das halt auch. Aber das Setup an sich ist dann selbst schon advanced und fernab von jedem Standard Anleitung, die ihr im Internet finden werdet.
Also das empfehlen wir jetzt den Leuten nicht. Wir wollen ja schon was, was Leute zu Hause aufbauen können. Genau, also deine Umgebung schon ein bisschen größer.

[44:04] Ich glaube ein cooles Projekt muss ich mir definitiv auch mal wieder angucken. Ich hatte mir das, wie gesagt, wir haben vor zehn Jahren oder so was mal drüber geredet, hat sich dann aber bei mir ja irgendwie nicht ergeben, das einzusetzen oder ich habe es, ich habe es ein bisschen probiert, aber irgendwas, irgendwas war.
Ja, also die Einstiegshürde ist tatsächlich ein bisschen hoch, oder ein bisschen höher.
Es gibt mittlerweile ein neues OS-Interface, also was zum Bereitstellen von Betriebssystemen da ist, was jetzt mittlerweile auch ganz normale Cloud-Images starten kann.
Also wer sich Garneti vor ein paar Jahren angeschaut hat, da war das alles noch mit der Bootstrap und Change-Route-Umgebung und da musste man Skripte anpassen etc., um seine Betriebssysteme zu bauen.
Und das ist jetzt deutlich einfacher, es ist halt einfach nur ich möchte neues Betriebssystem haben und dann konfiguriere ich was weiß ich mein Ubuntu mit der URL zu dem Cloud-Image und dann war's das im Wesentlichen schon, dann fährt die VM zumindest schon mal hoch.
Da muss man immer noch was am Netzwerk machen, weil das automatische Netzwerkkonfigurieren da an der Stelle dann auch ...

[45:10] Ja, es erlaubt halt so viele Spielearten, dass man sich überlegen muss, was will ich da eigentlich?
Das ist halt bei Proxmox zum Beispiel deutlich einfacher.
Da ist es halt standardmäßig DHCP und es geht.
Und das ist halt bei Garnetti nicht so der Fall. Es kommt halt aus dem Rechenzentrumskontext.
Ähm, wenn man da mit dynamischen IPs rumarbeitet, dann eher mit Pools, die dann die VMs trotzdem statisch konfigurieren.
Konfigurieren etc. Cloud-Init ist da so ein Stichwort, ja, aber ich denke mal, da gehen wir jetzt erst mal gar nicht so drauf ein. Nehmt halt mit, dass wenn ihr euch Ganeti anschauen wollt, dann ist das definitiv advanced und ja, also ich sag mal, es liegt so von der Komplexität irgendwo zwischen Proxmox und OpenStack.

[45:54] Genau, also wer es ganz Hardcore haben will, der nimmt OpenStack, ich hatte das auf Arbeit ja auch mal probiert und wenn man das alleine machen will, das würde ich jetzt auch keinem Zuhause empfehlen, also erstens braucht man auch ein paar mehr Nodes und da muss man sich auch ganz schön tief einbuddeln, bis man das deployed hat, weil das besteht aus mehreren Komponenten und das ist, kann man aber auch Zef benutzen.
Ja, genau. Also, das Schöne an Garneti gegenüber OpenStack ist halt, dass Garneti in sich komplett self-contained ist.
Ihr braucht keine Datenbank oder so was.
Ähm, es benutzt intern JSON-Files, die es halt synchron zwischen den Compute-Nodes hin- und herkopiert.
Ähm, dadurch ist es halt sehr robust und bringt halt wenig Anforderungen mit im Gegensatz zu einem OpenStack.
Bei Proxmox, ich meine, der Installer läuft durch, und das Proxmox ist da und funktioniert.
Das ist halt einfach genial einfach.

[46:53] Genau, man ist halt bei Proxmox dann festgelegt auf Debian tatsächlich.
Das ist bei Ganeti nicht so.
Ganeti kann ich auf CentOS schmeißen, kann es auf einen Ubuntu schmeißen, kann es auf Debian schmeißen.
Was weiß ich.
Ich hab letztens einen Anlauf unternommen, aber hab's dann nach zwei Stunden aufgegeben, es zu versuchen, unter Arch Linux ans Laufen zu bringen.
Okay. Dadurch, dass, ähm, Garneti eine Haskell-Basis hat, ist das gar nicht so trivial.
Ähm, mal gucken, vielleicht unternehme ich mal noch mal einen Anlauf.
Die Idee war da, einfach ein Bleeding-Edge-Betriebssystem zu haben, wo ich halt, ähm, für Garneti schon sehe, wo denn die Probleme in Zukunft hingehen, wenn man's dann eher im stabilen Bereich halt mit einem, ich sag mal, einem Rel, einem Sles oder einem Debian oder auch einem Ubuntu betreibt.
Dadurch, dass Arch Linux so weit voraus ist, könnte man da halt sehr elegant, sehr schnell merken, wo wird es demnächst bei den anderen Distributionen brechen.
Ja, aber...

[47:56] Ja, ich hab da mal zwei Stunden drauf geworfen und dann war irgendwas und dann hab ich's wieder sein lassen.
Ja, aber wenn ich so ein Standard Linux nehme, egal was es ist, dann krieg ich schon das Laufende?
Genau, einfach apt install GANITI. Es ist in der Standarddistribution im Debian drin.
Die Google intern benutzt ja Debian und deswegen war das GANITI-Projekt immer Bestandteil der Debian-Distribution.
Folglich auch von ubuntu und es hat auch eigentlich immer den weg in slas geschafft und in fedora geschafft ja ich gebe zu dass ich slas und fedora jetzt gerade nicht aktuell auf dem schirm habe aber ich meine die 302 wäre da auch verfügbar.
Also Slash ist die Enterprise Distribution von SUSE.
Und wir hatten tatsächlich in einer, also dieses Jahr, in einer der Rantux-Folgen auch schon mal OpenStack vs. Kubernetes uns angeguckt.
Da hatte ich mit jemand von Canonical gesprochen, wie da ihre Strategie so ein bisschen ist.
Wenn ich jetzt sage, ich will gar nicht virtuelle Maschinen machen, könnte ich natürlich mir auch überlegen, direkt Kubernetes auf einem Debian, auf irgendwas anderes zu deployen.
Dann müsste ich also weder Garneti nehmen, ich müsste kein Proxmox nehmen.
Wenn ihr jetzt sagt da draußen, ey, dieses virtuelle Virtualisierungszeug ist mir alles blöd.

[49:23] Ich will doch eigentlich nur Container machen, dann hey, go und macht halt gleich direkt Kubernetes auf ein bis N Nodes.
Ja, also ... Ist auch eine Möglichkeit.
Genau, ist eine Möglichkeit.
Den Vorteil, den ich halt nach wie vor immer noch sehe tatsächlich auch in Produktion betreibe ist, dass ich halt meine Kubernetes Cluster in virtuelle Maschinen deploye. Schlicht und ergreifend aus dem Grund, einen Container kann ich nicht live migrieren.

[49:54] Ja, also es gibt Technologien, die das angeblich können. Ich hab's noch nie wirklich funktionierend gesehen.
Ähm, und wenn ich das in einer virtuellen Maschine habe, insbesondere wenn ich einen Storage-Cluster hab, kann ich die virtuellen Maschinen live migrieren, ohne dass der Container davon was mitkriegt, ohne dass der Anwender davon was mitkriegt.
Also Maintenance an Hardware ist halt sehr viel angenehmer.
Ähm, deswegen beziehble ich das halt bei mir grundsätzlich immer erst in eine virtuelle Maschine.
Ähm ... Kommt, glaub ich, drauf an, wie du dein Kubernetes-Cluster betreibst.
Auf jeden Fall. Also, ich mein, da kannst du sicher auch das so bauen, dass sozusagen ...
Ich mein, wenn's stateless Container sind, da kannst du's sowieso hin- und herschieben, wie du willst.
Das andere weiß ich jetzt nicht, weil ich würd gern mehr Kubernetes machen, aber ich komm auf Arbeit online.
Das Gedankenkonstrukt an der Stelle ist ja ein relativ einfaches.
Server in meinem Kubernetes-Cluster. Ich sollte sowieso eigentlich mindestens drei haben, aber egal. Und ich habe jetzt einen Container, einen Pod laufen mit einer Replikation von zwei und mir fällt einer meiner Server aus, dann ist 50 Prozent meiner Workload weg. Wenn ich also mehr, als 50 Prozent Last auf dem Container habe, ist dann anschließend mein Container überlastet.

[51:14] Das ist halt, ich sage mal, im Heimsegment sehr unwahrscheinlich, dass das passiert, weil die Last sich im Heimbereich eher verschwindend gering ist und wenn da mal was für ein paar Stunden ausfällt oder so, dann ist das in der Regel so. Also da wird hoffentlich nicht bei euch zu Hause die Heizung ausfallen deswegen oder was weiß ich, kein Trinkwasser mehr aus der Leitung kommen oder so. Deswegen ja, also.

[51:44] Es bleibt ein Hobby an der Stelle. Okay, also wir haben, wie gesagt, ihr könnt überlegen, braucht ihr virtuelle Maschinen, macht ihr gleich mit Kubernetes.
Ein paar Gründe haben wir gerade aufgezählt für das eine oder das andere.

[51:58] Dann, ja, habe ich meine Infrastruktur sozusagen mal stehen, egal ob das jetzt auf einer Node ist oder mehreren, je nachdem, wie groß ich gleich anfangen will.
Ich kann natürlich auch ein Betriebssystem nehmen, was drauf installieren nur docker nehmen kann ich auch machen genau habe ich diesen ganzen netzwerk layer fu auch nicht um den ich mich kümmern muss genau also außer vielleicht dieses eine docker netzwerk was er automatisch mit hoch fährt so also ich habe einen server stehen mit linux ich habe da genug rammen drin um irgendwelche applikationen betreiben zu betreiben wie mache ich das jetzt gut also ich könnte kümmern jedes irgendwas hochfahren könnte irgendwelche virtuellen Maschinen da hochfahren.

[52:43] Ähm ... ja. Wie machst du das? Was machst du da?
Du hast virtuelle Maschinen und hast dann deine Webserver und so installiert, oder? Genau, genau.
Also, ich hab ja eine statische IP-Adresse bei mir zu Hause.
Ähm, das heißt, die erste virtuelle Maschine oder virtuelle Maschinen in meinem Fall ist halt ein Loadbalancer-Cluster, Wo halt ganz klassisch Port 80, Port 443 aufläuft, in meinem Fall noch Port 25 für E-Mail, aber da kommen wir vielleicht nachher noch zu.
Genau, das ist halt sozusagen erstmal, wo das Internet sozusagen aufschlägt.
Und da an der Stelle werden auch alle meine Zertifikate verwaltet, ganz klassisch Let's Encrypt, beziehungsweise in meinem Fall ZeroSSL.

[53:39] Ist auch ein ACME-kompatibler Provider, ist halt ein europäischer, ich versuch da so ein bisschen.
Ah, okay. Zero SSL? Zero SSL, genau.
Und sie haben kein Rate Limiting, also du kannst für eine Domain so viele Zertifikate anfragen, wie du magst.
Ja, vielleicht füllen sie das noch ein, wenn sie viel, viel bekannt sind, aber ja, okay.
Da kann ich auch noch nicht, okay.
Genau, das ist sozusagen das Einfallstor für meinen Server, da ist ganz klassisch auch dann die erste richtige Firewall nochmal davor.
Was hast du da? IP-Tablets. Also ganz stur, ganz langweilig. Ich hab einen Wrapper drumrum, da bin ich vor ein paar Jahren drüber gestoßen, nennt sich Firehole.
Es ist eine relativ einfache, schmale Firewall-Distribution, die auch FireQoS mitbringt, was ein Quality-of-Service-Provider ist.
Womit ich dann halt an meinem Loadbalancer auch ein bisschen dafür sorge, dass meine Uplink-Bandbreite nicht komplett tot gemacht werden kann.
Damit ich halt auch als Anwender, weil ja mein privates Heimnetz auch noch irgendwie Uplink braucht, dann auch noch was vom Upload hat.
Hat. Also der Loadbalancer hat nicht den kompletten Upload Traffic zur Verfügung, um ihm Internetdienste anbieten zu können.

[55:03] Ja, das ist so eine kleine Vorsichtsmaßnahme, die ich da ergriffen habe.
Genau. Und dann gibt es einen Container, in dem läuft mein, nicht Container, eine VM, in dem läuft mein Samba4-Domain-Controller.
Das ist eigentlich nur aus Faulheit entstanden.
Ähm, ein OpenLDAP aufzusetzen ist mittlerweile so viel komplizierter als einfach ein DC-Promo im Samba 4 zu machen.
Ähm, deswegen ist es halt einfach ... Okay, also es ist eigentlich ein Advanced LDAP.
Ähm, ja, mit Master-Master-Replikation. Also, man führt halt dann noch einen zweiten Domain-Controller hinzu, und schon ist das Ganze auch noch hochverfügbar und redundant.
Das ist beim OpenLDAP immer Krampf gewesen.
Und bei Samba 4 fällt das halt einfach ab.
Und tatsächlich verwende ich von dem Samba 4 die Domäne eigentlich so gut wie gar nicht.
Sondern eher, ja, die Samba-Tools, um Benutzer anlegen zu können und Passwörter zu wechseln und solche Dinge.
Und dann am Ende halt einfach im Nextcloud ist das dann halt per LDAP angebunden.
Oder halt per LDAP halt dann der Mail-Server angebunden et cetera.
Ja, also ja, nicht, nicht, nicht so.

[56:18] Nicht so fancy erst mal, aber es macht halt vieles einfacher.
Also von dem her kann ich jedem empfehlen, wenn er über LDAP nachdenkt, dann doch gleich das Sammler4-Projekt zu nutzen.
Ich meine, das kann man selber bauen. Man kann natürlich auch, es gibt so Small Business Appliances, zum Beispiel Video-Invention fällt mir da gerade ein, kann man mittlerweile auch kostenlos komplett einsetzen, wenn man es für den Heimbereich macht.
Da hätte man dann halt auch wieder eine Web-Oberfläche, kann sich sein, Samba4 zusammen klicken oder installiert es halt und bei der Installation legt der gleich eine Samba4-Domäne an und dann hat man alles, wo man dann Sachen dranbinden kann.
Hat auch so eine Art App-Store, wo man danach dann irgendwie mit einem Klick eine Next Cloud und so weiter und so fort installieren kann.
Wenn man jetzt sagt, okay, man will das nicht alles selber bauen, gibt es da auch Wege drum rum.
Aber ich verstehe da die Intention, warum man es macht. Ich habe das tatsächlich nicht bisher, ich habe mir um Authentifizierung, also zumindest an der Stelle jetzt noch nicht große Gedanken gemacht.

[57:24] Ja, okay, du hast das Ganze hinter einem HA-Proxy, hast du gesagt, der dann zentral die SSL-Zertifikate so und so macht.
Kann man sagen, wie es bei mir läuft. Ich habe jetzt mehrere Virtual-Maschinen und auf einer Virtual-Maschine läuft dann Traffic.
Also es ist auch so ein Cloud-Native-Projekt, Open-Source-Projekt und ich habe das Problem, dass ich keine feste IP-Adresse habe, sondern eine dynamische.
Die ist bei mir dann halt bei Fritz, MyFritz irgendwie eingetragen und dann kann ich, ja, Domains, also CNAMES setzen, die dann auf diese, ja, MyFritz-Adresse gehen, Und dann kommen die natürlich auch bei mir raus.
Du hattest gestern noch eine andere interessante Idee, die muss ich mal ausprobieren.
Es gibt bei Cloudflare gibt es ein Projekt oder ein Produkt, nennt sich Tunnel.
Ich könnte mir also einen Tunnel bauen zu Cloudflare und Cloudflare hat dann halt eine feste IP-Adresse und dann könnte man die Sachen auch durch Tunnel oder man baut sich sowas selber.

[58:31] Ich hatte jetzt erstmal angefangen mit dieser Low-Cost-Schnell-Variante.
Wie gesagt, das sind da Fritzbox irgendwie drin, dass er so eine Art DünDNS, wie es früher hieß, baut und dann, ja, genau, habe ich einfach bestimmte Adressen oder bestimmte Domains direkt da drauf gelegt.
Ja, genau. Also, diese Cloudflare-Geschichte, das gibt es bestimmt auch von anderen CDN-Providern mittlerweile, hat halt den Vorteil, dass.

[59:04] Die eigene öffentliche IP-Adresse, sei sie nun statisch oder dynamisch, spielt dann an der Stelle gar keine Rolle, bei den CNAMEs gar nicht mehr zu sehen ist.
Wenn ich in deinem Fall halt den CNAME auflöse, auf den A-Record stoße ich zwangsläufig auf deine öffentliche IP-Adresse und könnte dann unter Umständen zumindestens mal genauer nachsehen, sage ich jetzt mal.
Das Problem ist man halt mit so Produkten wie Cloudflare Tunnel halt los.
Man ist halt komplett durch diesen Tunnel erst mal anonymisiert, sag ich jetzt mal, zumindestens, was die DNS-Einträge angeht, die man im Internet halt hat.

[59:45] Und infolgedessen hat man halt auch solche Probleme wie DDoS oder so was halt schon nicht mehr, weil natürlich das Cloudflare-CDN-Netzwerk dann auch noch mal vor den eigenen Diensten davor ist.
Das ist tatsächlich auch für den Privatanwender bis zu einer gewissen Traffic- und Benutzeranzahl kostenfrei.
Ihr müsst aber, soweit ich weiß, eine Kreditkarte zumindest hinterlegen.
Ja, so musste ich das vorhin zumindest machen. Ich habe mich jetzt mal angemeldet, habe das mal durchgeklickt, aber ich habe es jetzt auch noch nicht installiert und geguckt.
Aber das ist auf jeden Fall was, was ich mal ausprobieren will.
Klar, man liefert sich ein bisschen Cloudflare aus.
Das muss man auch dazu sagen.
Klar, man kann es selber bauen oder man kann nochmal gucken, was es noch für Produkte da gibt. Oder man macht das, wie gesagt, so wie ich, mit den Nachteilen, die du gerade beschrieben hast.
Auch ein Nachteil ist zum Beispiel, dass ich keine Hauptdomain drauflegen kann.
Also ich kann nicht meinen namen.de auf meinen Server jetzt hier zu Hause legen, weil da müsstest du ein CNAME hinterlegen und das geht nicht, das geht nur bei www.meinname.de.
Da kann ich ein CNAME hinterlegen. Bei der Hauptdomain geht das nicht, da muss ich ein A-Record hinterlegen.
Da ein A-Record eine feste IP-Adresse sein muss, geht das bei mir eben so nicht.
Richtig. Das muss auch noch dazu gesagt sein. Also ja, klar, ich kann...

[1:01:09] Weiß ich nicht, mein Produktpunkt oder mein Nextcloud-Punkt, irgendwas.de, das kannst du alles durchleiten. Bei mir jetzt auch mein Traffic.
Mein Traffic macht auch, hat das Build-in, dass er SSL-Zertifikate bei Let's Encrypt macht.
Ich habe dann tatsächlich ein paar Sachen, die der Traffic fast automatisch in Docker-Container, die ich da hochfahre, dann halt weiterleiten kann.
Ich habe aber auch so Sachen wie einen GitLab da am Laufen, Was halt in einer anderen virtuellen Maschine auf meinem Proxmox läuft, wo ich dann gesagt habe, okay, wenn also jemand mit der Domain ankommt, mit gitlab.de, dann geh bitte dahin.
Und wenn er mit, keine Ahnung, ich habe zum Beispiel einen Paperless am Laufen, das habe ich dir vorhin gesagt, das ist so ein Dokumentensystem, da kannst du einfach, scannst einfach was ein, lädst hoch oder kriegst quasi nicht Rechnung, irgendwas, kannst du alles reinkippen, kannst es dir taggen, durchsuchbar machen.
Ich versuche gerade mal, also eigentlich schon seit zehn Jahren, aber jetzt mal so wirklich richtig, das System ist schon mal aufgesetzt, so ein papierloses Büro zu machen, weil es fliegt irgendwie immer alles rum und dann findet man nicht irgendwie mal alles einscannen, was reinkommt oder alles, was per E-Mail reinkommt, da erstmal reinschmeißen und taggen.
Ist schon mal ein erster Schritt, also dafür ist Paperless oder Paperless NX, NGX oder sowas, gibt es auch Docker-Container hochfahren.

[1:02:38] Das ist auch ganz lustig. Und ansonsten habe ich tatsächlich auch noch eine Nextcloud und diese Office-Lösung hier am Laufen. Das läuft bei mir alles hinter einem Traffic. Da trage ich halt die IP-Adressen oder eher Quatsch die Domain-Namen sozusagen ein und sage, wo es hingehen soll. Und der verteilt bei mir die Geschichten zurzeit.
Ja, also ich hab das ganz ähnlich, also ich, die Hauptanwendung bei mir ist tatsächlich auch momentan eher das Nextcloud.
Einfach weil, ja, da laufen alle synchronisierten, ja, ich sag mal, Dokumentenverzeichnisse von so allen Laptops und Rechnern, die so im Haus rumfliegen hin.
Die Handys mit den Fotoverzeichnissen sind da dran angeschlossen, etc.

[1:03:23] Einfach, dass das da erst mal alles zentral hinläuft und ich habe halt nicht das paperless, einfach weil ich es nicht kannte oder zu faul war zu suchen.
Ich habe bei mir, dadurch dass ich eh die Samba Domäne habe, einfach ein Scanner Verzeichnis in meinem Samba freigegeben und habe meinem Multifunktionsdrucker halt ein Profil hinterlegt mit, wenn du scannst, dann kannst du gleich dahin scannen und dann landet es halt als PDF in dem Verzeichnis, was dann wiederum in die Nextcloud als externe Datenquelle eingebunden ist.
Also ich habe bei mir auf all meinen Systemen habe ich einen Sync, der heißt Scanner und da liegt alles drin, was ich irgendwann mal eingescannt habe.
Aber hast du auch eine OCR Software oder irgendwas? Nein, habe ich tatsächlich nicht.
Das ist da halt alles dran, das hätte man halt gerne noch, wenn du irgendwas suchst, dass du dann auch, wenn du weißt, okay, weil du die Rechnung hatte mit XY oder was weiß ich, ein Schreiben von der Versicherung oder so, dass du dann halt nur suchen musst und das Richtige findest.

[1:04:20] Was mich halt an der Stelle, ich meine, einerseits ist es sehr gut, andererseits voll nervig.
Ich hab mir damals einen Drucker gekauft, der einen ADF hat, also einen Papiereinzug. Er kann leider nur einseitig scannen.
Ja. Was halt mittlerweile gut ist, was mich sozusagen, was mir mein kleines ökologisches Herz freut, ist, dass halt immer mehr auch Schreiben, die von extern kommen, halt zweiseitig gedruckt sind.
Das ist aber beim Einscannen halt super nervig, wenn man nur einen Scanner hat, der von einer Seite nur einscannen kann.
Das sind so die Luxusprobleme, die man hat. Von dem her, wie schön wäre es, wenn alle Rechnungen einfach per PDF und E-Mail kommen.
Ja, schlimm finde ich es bloß dann bei Versicherungen oder so, die wollen dann ja eigenes Postfach einrichten. Die wollen es mir nicht per Mail schicken, sondern du sollst dich bei ihrem Portal einloggen und die Rechnung einrichten. Das ist wieder doof.

[1:05:09] Ich meine ja, okay, E-Mail ist nicht sicher. Okay, ist mir egal. Ja, schickt es mir, dann kann ich es gleich einsortieren. So, ich will mich doch nicht bei 30 Sachen einloggen und eure PDFs runterladen. Das, nee, das ist doof. Das will ich auch wieder nicht. Dann ist es fast einfacher, man lässt sich die Sachen per Post schicken und scans ein.
Ich hatte jetzt letztens erst für die Steuererklärung, ich habe im letzten Jahr meinen Arbeitgeber gewechselt und mir fehlte ein Dokument und mir fiel dann zum Glück ein, dass der Arbeitgeber, kurz bevor ich gegangen bin, so ein hr portal neu eingeführt hat wo eben auch alle dokumente zum download liegen und zum glück war mein profil noch dort aktiv und ich wusste dass ich zumindest meine telefonnummer hinterlegt habe mit der ich mir einen password reset token schicken konnte.

[1:06:04] Und ich habe zum glück damals mein privates handy für diesen account genommen und nicht den firmenkauf mit dem firmenhandy also. Ja.
Okay. Dann machen wir vielleicht eine Sache noch, weil wir gerade bei E-Mail waren.
E-Mail-Server kann man natürlich auch noch zu Hause betreiben.
Ja, da wird es dann spannend.
Also ich kann jedem empfehlen, sich zumindest mal hobbymäßig mit E-Mail und E-Mail-Servern auseinanderzusetzen. Weil es halt einfach eine, wenn auch sehr alte, aber sehr spannende Technik ist.

[1:06:36] Funktioniert seit jahren aber wird natürlich immer mehr von von microsoft und google auch kaputt gemacht.
Ja ich meine nicht zuletzt auch aus ich sag mal teilweise auch guten grund aber die messenger machen es einem halt auch nicht viel einfacher.

[1:06:51] Ja aber e-mail ist halt eine spannende sache kann man halt zu hause machen.
Setzt allerdings halt so ein paar sachen voraus.
Wie zum beispiel dass man halt idealerweise eine statische ip adresse hat.
Ich glaube, MX-Records kann man auch als CNAME machen. Ja, das müsste gehen.
MX-Records ... Ja, müsste wahrscheinlich gehen.
Also, ihr müsst auf alle Fälle in der Lage sein, einen MX-Record setzen zu können, weil das ist sozusagen der Eintrag im DNS, der dafür zuständig ist, dass wenn an eine Domain eine E-Mail geschickt wird, dahinter liegt ihr, an welchen Server diese E-Mail weitergeleitet wird.
Das ist der Mail-Exchange-Eintrag im DNS. Wenn ihr den habt und ihr habt dann bei euch einen E-Mail-Server hochgefahren, also einen Postfix in der Regel, dann seid ihr in der Lage, schon mal E-Mails anzunehmen.
Das Schöne ist, zumindest in Deutschland, ist es halt nicht verboten, dass die Provider da an der Stelle filtern können. Das heißt also, ihr könnt immer E-Mails annehmen, das dürfen sie nicht unterbinden.
Was die Provider aber tun, weil die natürlich in der Regel ein Interesse daran haben, dass keine oder nicht viel Spam aus deren Netzen kommt oder halt deren Netze nicht für Serverdienste benutzt werden, wenn euer Internetanschluss das offiziell nicht erlaubt.

[1:08:20] Auch da ist es halt eher so grau zone egal was die provider an der stelle aber tun ist dass die ihre eigenen öffentlichen ip adressen die sie an die kunden verteilen in der regel auf diversen blacklists von.
Häusern haben also ihr könnt im grunde genommen keine e-mails an dritte verschicken weil die ip adresse von der ihr sendet sowieso erstmal in irgendeiner blacklist ist.
Und was die Sache zusätzlich noch schwerer ist, ihr könnt auch keinen PTR-Rekord setzen.
Also für die öffentliche IP-Adresse, die ihr habt.
Stimmt, ja. Und die Rückwärtsauflösung der IP-Adresse muss wieder auf dieselbe Domain zeigen, wie die Vorwärtsauflösung auch.
Genau, also der A-Record und der Quad-A-Record sollten idealerweise auf den gleichen PTR-Rekord zeigen.

[1:09:11] Vorwärts für rückwärts. Das ist sozusagen in der Spam-Verteidigungsgeschichte, war das damals die erste Bastion, die man eingeführt hatte, um zu sagen, okay, wenn jemand von einer Domain E-Mails sendet, dann muss auch die IP-Adresse, in dessen Namen er E-Mails versendet, von einem Server kommen, der eben aus dieser Domain kommt.
Genau, und das ist quasi unmöglich, wenn du nicht selber eine feste IP-Adresse hast und das noch setzen kannst.
Also für jeden, der nur einen normalen DSR-Anschluss hat, das zeigt dann immer auf mein langer, toller, interner ... Wenn überhaupt.
Name, Punkt, such mich mal, Punkt, hallo, irgendwas.
Genau, genau. Und bei meinem Provider, auch wenn ich einen Enterprise-Anschluss habe, einen PTR-Rekord erlaubt der mir halt tatsächlich selber auch nicht.
Also, ich hab da mehrmals beim Support nachgefragt, ob sie mir dann für meine statische IP-Adresse auch einen PTR-Rekord setzen.
Weil das könnt ihr nicht in eurem DNS machen, das muss im DNS des Providers geschehen.
Beziehungsweise wenn er eine DNS-Delegation auf euren Server macht, aber das ist dann noch mehr Enterprise. Also in der Regel müsst ihr da anrufen und sagen, ihr hättet ganz gerne für eure IP-Adresse einen PTR-Rekord, wenn ihr denn überhaupt einen Enterprise-Anschluss habt.
Und selbst dann ist es nicht sicher, dass sie das auch machen.
Also bei meinem Provider ist das halt definitiv nicht der Fall.

[1:10:33] Ja, man kann sich da aber behelfen, weil es gibt diverse E-Mail Service Anbieter, die kommen in der Regel eigentlich eher aus dem Bereich des E-Mail Marketing, also wo es darum geht, Newsletter zu verschicken.
Viele Newsletter verschicken, weil sonst würde man tatsächlich auch wieder auf einer Blacklist landen.
Richtig, richtig. Und einer von den vielen ist SendGrid.
Es gibt da auch noch ein paar mehr. SendGrid ist tatsächlich kein europäischer Anbieter, weil die europäischen Anbieter leider keinen Freeplan haben.
Aber ja, die sind GDPR compliant. Also man kriegt auch mit denen eine ADV, wenn man den Enterprise Account anschließt und da halt jeden.
Also auch trotz Artenverarbeitungsvertrag. Also die sind professionell, sie unterstützen alles, also sie sind definitiv keine fishy Unternehmengeschichte.
Auf jeden Fall, die haben einen Freeplan und der ist jetzt wiederum für den Privatanwender super spannend.

[1:11:31] Weil was ihr machen könnt ist, ihr könnt deren SMTP-Server, die im Internet stehen, mit eurer eigenen Domain E-Mails versenden über deren Server als Relay.
Das heißt, euer Postfix, der jetzt bei euch zu Hause auf eurem Rechner läuft, da stellt ihr ein, dass ausgehende E-Mails über einen Relay-Server gesendet werden und da tragt ihr als Relay-Server die Server von SendGrid ein mit als Username einen API-Key, den ihr mit eurem Account erzeugt.

[1:12:05] Und dann zusätzlich autorisiert ihr bei SendGrid eure Domain.

[1:12:12] Also, das hatten wir zum Beispiel auch noch nicht. Es wäre sinnvoll, eine eigene Domain zu haben.
Welche auch immer, auf jeden Fall.
Dann halt zu SendGrid gehen, da in das Webinterface gehen, die Domain eintragen.
Dann möchte SendGrid von euch, dass ihr einen TXT-Record bei euch in der Domain eintragt, um zu verifizieren, dass ihr in der Lage seid, dort Einträge bei der Domain zu ändern.
Also, dass die Domain quasi euch gehört. Richtig.
Zusätzlich dann ein paar CNAME-Einträge setzt, die im Wesentlichen für DKIM und SPF verantwortlich sind. Das sind beides wieder Spam-Anti-Spam-Technologien für E-Mail. SPF ist das Sender Policy Framework. Das sagt dann nochmal zusätzlich, wenn eine E-Mail von einer Domain kommt, welche IP-Adressen dürfen dann überhaupt senden. Das ist sozusagen nochmal zusätzlicher Schutz zu dem PTR. Und DKIM ist das Domain Key, bla, also im Wesentlichen fügt ihr eine kryptographische Signatur an, den E-Mail-Header an. Und ...
Da steht im DNS wieder, okay, nur wenn mit dieser kryptographischen Signatur kommt.

[1:13:23] Dann ist der wahrscheinlich ...
Genau, also der Public Key-Teil der kryptographischen Signatur steht dann im DNS.
Und der annehmende Server kann jetzt überprüfen, ob die E-Mail von einem Server gesendet wurde, der den privaten Teil des Keys hatte, um die kryptographische Signatur anzufügen.
Das Schöne ist, SendGrid nimmt euch das beides ab.
Ihr müsst nur die CNAME-Einträge setzen und dann magic happens hier.
Das macht SendGrid für euch. Und der Freeplan erlaubt, glaube ich, 500 E-Mails im Monat.

[1:13:59] Okay. Also für einen Home-User vielleicht noch möglich. Und immerhin habe ich dann meine E-Mail-Daten, die ankommen, selber bei mir.
Beim Wegschicken habe ich natürlich das Problem, dass sie wieder über eine zentrale Infrastruktur gehen. Aber ich kann es halt auch machen, wenn ich einen eigenen DSL nur habe.
Ja, aber ich sage mal so, wenn ich normalerweise eine E-Mail verschicke an jemanden, dann schicke ich die ja auch.

[1:14:24] Zumindestens über einen annehmenden SMTP-Server, der auch definitiv in der Regel nicht unter meiner eigenen Kontrolle ist.
Also das ist ... An der Stelle muss man dann halt irgendwann auch, ähm, ja ...
Es ist halt ein Brief. Wenn ich einen Brief per Post schicke, kann ich auch ...
Oder eine Postkarte sogar.
Oder eine Postkarte, ne? Wenn ich's nicht will, kann ich's ja immer noch verschlüsseln.
Ja, der Mailheader ist dann halt immer noch nicht verschlüsselt.
Nee, der Brief ja auch immer noch so, ne?
Von wo kommt es, wo soll es hingehen. Aber immerhin ist der zugeklebt und nicht jeder macht den auf.
Das andere ist eine Postkarte, da kann jeder unterwegs sein.
Richtig, richtig. Ja, wofür benutze ich das bei mir? Ich habe ein Vault Warden im Einsatz als mein Passwortsave und ich habe halt auch ein GitLab als im Einsatz und da nutze ich sehr gerne die Mail-In-Funktion, um mir einfach Tickets anzulegen.
Sehr schön. Selber Tickets anlegen. Okay.
Ja, das ist tatsächlich ja so eine Geschichte. Genau.

[1:15:26] Ja, das war doch mal ein erster Rundumschlag. Wir haben sicher noch ein paar Themen vergessen, auf die wir näher eingehen können.
Ich würde sagen, wir machen das nochmal. Sonst können wir jetzt noch hier irgendwie zwei, drei Stunden reden.
Ihr Zuhörer da draußen, wenn euch irgendein bestimmter Aspekt besonders interessiert, könnt ihr das ja mal gerne in die Kommentare packen.
Ich glaube, so ein bisschen auf DNS-Domains müssen wir noch mal intensiver eingehen.
Vielleicht auch auf Switcher. Also schreibt einfach in die Kommentare, was euch da interessiert. Dann, buddeln wir da nächstes Mal raus. Ansonsten habt ihr jetzt.

[1:16:01] Zumindest mal Informationen, wie kann ich unter meinem eigenen DSL mit Hardware unten im Linux und, weiß ich nicht, Docker Kubernetes oder Virtual Machine eigene Infrastruktur betreiben. Ist sicher ganz spannend. Wie gesagt, Teile von dem, was ihr hier gerade hört, läuft auch bei mir im Keller. Oder halt bei mir.
Ja, genau. Also das ist, ja, wir wollen unser Zeug selber betreiben, wenn wir euch da irgendwie unterstützen können. Wenn ihr irgendwelche Ideen, Fragen habt, dann, genau, kommt gerne auf uns zu.

[1:16:33] Ja, oder wenn ihr sagt, oh, hier, das und das tue ich auch und das ist eine tolle Applikation, die ich zu Hause unbedingt haben sollte oder das ist ein Dienst, der es einem noch leichter macht.
Ja, immer gerne her. Wir lernen auch gerne dazu.
Genau, so wie ich dir Paperless schon gezeigt habe. Vielleicht habt ihr auch noch was Cooles, was man zu Hause betreiben kann, außer sein Web-Server, sein Nextcloud, sein GitLab, was auch immer. Gut, vielen Dank. Dann wünsche ich euch für immer eine frohe Zeit. Passt auf euch auf.
Ja, danke gleichfalls. Und bis zum nächsten Mal. Ciao, ciao.
Bis bald.