Umzug OH auf Linux

Einrichtung der openHAB Umgebung und allgemeine Konfigurationsthemen.

Moderatoren: seppy, udo1toni

Antworten
Benutzeravatar
udo1toni
Beiträge: 15247
Registriert: 11. Apr 2018 18:05
Answers: 242
Wohnort: Darmstadt

Re: Umzug OH auf Linux

Beitrag von udo1toni »

Also, wenn man ein Proxmox System (oder auch ein anderes System, welches Container bietet) nutzt, dann ist es eigentlich eine gute Idee, "große" Anwendungen wie Grafana und InfluxDB nicht gemeinsam mit openHAB in einem Container laufen zu lassen.
Ja, openHABian bietet die Möglichkeit dafür, aber openHABian für die Inbetriebnahme in einem LXC zu nutzen hat vor allem den Charme der ganzen Anwendungen drum herum, Highlightning in nano und vi, frontail, solcher Schnickschnack eben.

Ich nutze Proxmox mit ZFS, ich brauche weder Amanda noch openhab-cli backup, die drei betreffenden Verzeichnisse sind auf ein anderes Dataset gemappt, welches separat mit zfs-autosnapshot im Viertelstundentakt gesichert und täglich auf eine andere Maschine repliziert wird.
Das kann openHABian nicht einrichten, das muss ich schon selbst machen :) openHABain ist dafür optimiert, auf einem Raspberry zu laufen, entsprechend sind etliche der Funktionen auch nur dort sinnvoll.
openHAB4.3.3 stable in einem Debian-Container (bookworm) (Proxmox 8.3.5, LXC), mit openHABian eingerichtet

int5749
Beiträge: 1173
Registriert: 4. Nov 2019 22:08
Answers: 9

Re: Umzug OH auf Linux

Beitrag von int5749 »

Nun bin ich wieder gepackt ;)

Benötigt es unbedingt ZFS oder kann ich die Verzeichnisse auch so auf ein anderes System mappen?
Aber was passiert, wenn openHAB schneller starten will als die Verzeichnisse verbunden sind?? ODer kann dies nicht passieren??

Könnte man nicht die Verzeichnisse auf eine andere VM mappen und dann auch über Proxmox Backup die Snapshots auf ein NAS schubsen??
openHAB 4.1.0 Release mit openHABian in einem Debian Bookworm (LXC) unter Proxmox 8.1.3

Backbe01
Beiträge: 123
Registriert: 19. Jul 2019 21:04
Answers: 0

Re: Umzug OH auf Linux

Beitrag von Backbe01 »

@udo1toni genau aus dem Grund wollte ich wieder zu openhabian. Alles an einem Ort. Momentan habe ich auch 5 docker Container am laufen plus extra Zero rpi für deconz. Wollte das Ganze etwas zentralisieren. Bin nun schon am überlegen ob ich nicht doch wieder auf docker setze. So zufrieden mit meinem System auf der ds218+ war ich noch, eine andere Welt wie ein raspi. Aber! Ich möchte meine privaten/wichtigen Dokumente/Bilder vom Smarthome trennen. Deshalb nun das NUC.

@harka du nährst wieder meine Hoffnung! Tschaka, das wird schon!! :lol:
OH 4.1.0M2 auf nuc in Docker

Benutzeravatar
udo1toni
Beiträge: 15247
Registriert: 11. Apr 2018 18:05
Answers: 242
Wohnort: Darmstadt

Re: Umzug OH auf Linux

Beitrag von udo1toni »

int5749 hat geschrieben: 15. Mär 2023 20:47 Benötigt es unbedingt ZFS oder kann ich die Verzeichnisse auch so auf ein anderes System mappen?
Grundsätzlich geht das mappen auch, wenn Du kein ZFS einsetzt. ZFS bringt halt ein paar Vorteile, die mit anderen Dateisystemen nicht zur Verfügung stehen. Beispiel Snapshot: Grundsätzlich geht das auch mit LVM (Logical Volume Manager), aber hier handelt es sich nicht um ein Dateisystem. In der Folge muss LVM echten Platz für den Snapshot zur Verfügung stellen. In ZFS ist es so, dass ein Snapshot lediglich einen Vektor aufbaut. Es bleiben einfach alle Dateien erhalten, es werden lediglich Änderungen an einen anderen Ort geschrieben. Will man zu einer früheren Version einer Datei zurück, so verfolgt man die Vektorkette der Änderungen. Man kann einzelne Snapshots herauslösen und auch löschen, ohne dass die Vektorkette bricht.
In LVM erzeuge ich einen (relativ kleinen) Snapshot, dabei passiert erst mal nichts. Sobald nun Schreibzugriffe stattfinden, werden diese in den Snapshot geschrieben. Ich kann also mit dem Snapshot eine bestehende Partition "einfrieren", um diese zu sichern. Anschließend wird der Snapshot gelöscht, womit die zwischenzeitlich geschriebenen Daten in die bestehende Partition hineingebaut werden. Das Vorgehen ist auf den ersten Blick recht ähnlich, aber in ZFS kann ich ohne Probleme hunderte oder gar tausende Snapshots eines einzelnen Datasets verwalten (natürlich wird das Dateisystem irgendwann langsam), weshalb überhaupt kein Problem ist, zyklisch Snapshots zu erstellen. Und jeder Snapshot ist ein möglicher Punkt, um dorthin zurückzukehren.
Update des OS ist schief gegangen? Sch..ß drauf, Nachschauen, wann das Update ausgeführt wurde, Container anhalten, zfs rollback -r <snapshot kurz vor dem Zeitpunkt> Container starten, Bääm, System läuft wieder (natürlich ohne das Update...).
Und der Vorgang dauert (systemabhängig) nur wenige Sekunden.
Nächtliches Backup aller Änderungen? Auf dem Zielsystem befindet sich ein Snapshot, der auch auf dem Quellsystem vorhanden ist. zfs weiß um die beiden Snapshots und muss nur die Vektorkette zum aktuellen Zustand übertragen. Dabei spielt es keine Rolle, ob zwischenzeitlich andere Snapshots dieses Datasets erstellt oder auch wieder gelöscht wurden.
Man muss natürlich Platz für die Snapshots einplanen. Außerdem mag ZFS es gar nicht, wenn das Dateisystem zu mehr als 80 % gefüllt ist. Das heißt, wenn Du eine 2,5 TByte Platte hast, dürfen dort nur insgesamt 2 TByte Daten drauf, mitsamt der Änderungen, die durch Snapshots gesichert vorliegen. Hast Du insgesamt 50 TByte Platz, darfst Du davon nur 40 TByte füllen, usw. 20 % "ungenutzter" Platz ist ein Haufen Zeug, vor allem, wenn man den Platz eigentlich bräuchte, Aber dafür hat man halt auch ein wirklich robustes System.
Da ZFS stark mit Caching arbeitet, sollte man pro TByte Plattenplatz etwa 1GByte RAM reservieren, auch das ist eine Kröte, die unangenehm im Hals steckt (vor allem, wenn es dann doch um "etwas mehr" Platz geht...) Dennoch ist es für mich aus meiner Konfiguration nicht mehr wegzudenken, auch vor dem Hintergrund, dass ich eine Zeit lang massive Probleme mit Aussetzern auf einzelnen Laufwerken hatte (Wackelkontakt im Laufwerkskäfig, hat ewig gedauert, das zu finden), und ich hatte keinerlei Datenverlust, weil ZFS das einfach weggesteckt hat.
openHAB4.3.3 stable in einem Debian-Container (bookworm) (Proxmox 8.3.5, LXC), mit openHABian eingerichtet

Backbe01
Beiträge: 123
Registriert: 19. Jul 2019 21:04
Answers: 0

Re: Umzug OH auf Linux

Beitrag von Backbe01 »

@Harka Vielen Dank für deinen Tipp - der Conbee wurde erkannt und deconz läuft...

@all
Leider habe ich mit openhabian im lxc Container noch immer Probleme. Es lassen sich einige Programme nicht installieren. Influxdb oder grafana wären mir ja noch egal gewesen, aber zum testen wollte ich einen OH Snapshot installieren - gleicher Fehler:

Code: Alles auswählen

“There was an error or interruption during the execution of…” 40 | Openhab related" (oder andere Programme)
Könnte es sein, dass bei mit Source listen fehlen? Bei der Ausgabe vom Befehl:

Code: Alles auswählen

cat /etc/apt/sources.list /etc/apt/sources.list.d/*.list
kommen folgende Listen:

Code: Alles auswählen

deb http://ftp.debian.org/debian bullseye main contrib

deb http://ftp.debian.org/debian bullseye-updates main contrib

deb http://security.debian.org bullseye-security main contrib

deb [signed-by=/usr/share/keyrings/influxdb.gpg] https://repos.influxdata.com/debian bullseye stable
deb http://deb.debian.org/debian/ unstable main
deb [signed-by=/usr/share/keyrings/nodejs.gpg] https://deb.nodesource.com/node_16.x bullseye main
deb-src [signed-by=/usr/share/keyrings/nodejs.gpg] https://deb.nodesource.com/node_16.x bullseye main
deb [signed-by=/usr/share/keyrings/openhab.gpg] https://openhab.jfrog.io/artifactory/openhab-linuxpkg testing main
Passt das so, oder fehlt etwas?

Java Zulu11-64 passt doch auch, oder?
OH 4.1.0M2 auf nuc in Docker

Benutzeravatar
udo1toni
Beiträge: 15247
Registriert: 11. Apr 2018 18:05
Answers: 242
Wohnort: Darmstadt

Re: Umzug OH auf Linux

Beitrag von udo1toni »

Nein, Java Zulu11-64 passt nicht. Entweder Java 11 oder Java 17. Das habe ich weiter oben geschrieben und auch in den entsprechenden Postings korrigiert (das hat sich einfach seit dem Erstellen des Posting geändert).

Bezüglich der Snapshots bin ich mir nicht sicher, ob Du das wirklich zum jetzigen Zeitpunkt willst. Auf der anderen Seite kannst Du Dank LXC einfach einen weiteren Container dafür anlegen, ohne Reue :)
Ich kann Dir versichern, dass die Installation von openHAB4.0 (Milestone/Snapshot) mit openHABian wunderbar funktioniert. Allerdings sollte openHABian selbst dann auf dem main branch sein, das kann man auch in openhabian.conf setzen:

Code: Alles auswählen

# repo and branch to clone from
repositoryurl=https://github.com/openhab/openhabian.git
clonebranch=main
Die genaue Version von openHAB wiederum lässt sich leider über openhabian.conf nicht festlegen, das heißt, openhabian-config wird immer zunächst die stable Version aufspielen. Erst im Anschluss kann man die Version auf testing (Milestone) bzw. unstable (Snapshot) ändern. Eigentlich schade...

So oder so, Du musst unbedingt 17 als java-opt angeben. openHAB3.4.2 (aka stable) läuft auch unter Java 17, das ist also kein großes Problem. Für ein natives openHAB3.4.2 ist Java 11 aber die erste und Java 17 nur die zweite Wahl. Man kann die Java Version jederzeit später ändern, aber auch hier nochmal... Wenn man mit LXC arbeitet, ist es keine so große Sache, einen neuen Container hochzuziehen. Einige Dinge muss man von Hand anpassen, um die Vorzüge des Containers wirklich auszuschöpfen, anschließend ist ein openHABian Container mit laufendem openHAB aber in weniger als 10 Minuten aufgesetzt - immer vorausgesetzt, man hat eine gewisse Routine im Umgang mit LXC, debian und openHABian, ansonsten brauchen die Eingabe-Schritte halt ihren eigenen Anteil. Da ich das gerade selbst einmal durchgespielt habe, ist die Zeitangabe verifiziert - ist aber schon ein etwas potenteres System mit Ryzen 5 3600 (6 x 2 Cores) und genug RAM, das spielt ja auch eine gewisse Rolle...
openHAB4.3.3 stable in einem Debian-Container (bookworm) (Proxmox 8.3.5, LXC), mit openHABian eingerichtet

Backbe01
Beiträge: 123
Registriert: 19. Jul 2019 21:04
Answers: 0

Re: Umzug OH auf Linux

Beitrag von Backbe01 »

Neuen Container erstellt, diesmal mit Java11 (die 10 min. habe ich nicht ganz geschafft :lol: ). Leider kommt noch immer die Fehlermeldung:

Code: Alles auswählen

“There was an error or interruption during the execution of…” 40 | Openhab related" (oder andere Programme)
Ich möchte gern beim stable bleiben, habe nur getestet, wo überall diese Fehlermeldung kommt! Wenn ich über openhabian installiere, möchte ich natürlich auch die Vorteile nutzen.

Bei Euch funktionieren alle Installationen? An welchen Schrauben könnte ich noch drehen??#

Edit: mit Java 17 und clonebranch=main gingen die updates und influx... ich teste weiter und berichte nochmal...

Edit 2: Updates von OH funktionieren jetzt. Bei Grafana kommt noch immer die Fehlermeldung. Aber das kann ich auch in dem Deconz-VM installieren.

Welche Möglichkeiten hätte ich jetzt, die Konfiguration von meinem Docker-Image auf openhabian zu übertragen - openhab-cli geht ja in docker nicht!
Zuletzt geändert von Backbe01 am 19. Mär 2023 08:54, insgesamt 1-mal geändert.
OH 4.1.0M2 auf nuc in Docker

Benutzeravatar
udo1toni
Beiträge: 15247
Registriert: 11. Apr 2018 18:05
Answers: 242
Wohnort: Darmstadt

Re: Umzug OH auf Linux

Beitrag von udo1toni »

Wie oben erwähnt... Ich habe es ausprobiert, um sicherzustellen, dass meine Anleitung von oben noch funktioniert.
openHAB4.3.3 stable in einem Debian-Container (bookworm) (Proxmox 8.3.5, LXC), mit openHABian eingerichtet

Antworten