OpenHAB3 auf dem Nuc - 4GB ram immer voll

Einrichtung der openHAB Umgebung und allgemeine Konfigurationsthemen.

Moderatoren: seppy, udo1toni

Benutzeravatar
udo1toni
Beiträge: 15249
Registriert: 11. Apr 2018 18:05
Answers: 242
Wohnort: Darmstadt

Re: OpenHAB3 auf dem Nuc - 4GB ram immer voll

Beitrag von udo1toni »

Was hast Du für Bindings laufen? Wieviele Things und Items? Was ist zusätzlich zu openHAB installiert?
Und noch mal die Frage von oben (nun ja, oben keine Frage...): Warum als VM?
openHAB4.3.3 stable in einem Debian-Container (bookworm) (Proxmox 8.3.5, LXC), mit openHABian eingerichtet

mike69
Beiträge: 64
Registriert: 17. Nov 2020 22:38
Answers: 0

Re: OpenHAB3 auf dem Nuc - 4GB ram immer voll

Beitrag von mike69 »

CrazyTuner hat geschrieben: 15. Okt 2022 11:58
wenn ich jetzt das system neustarte, ist innerhalb von 20 min der speicher komplett voll und ich kann nichtmal mehr wirklich in der Konsole/Terminal arbeiten. Und das letzte backup ist natürlich 3 wochen her :/
Influxdb und Grafana sind installiert. Noch mehr installiert?

Wieviel GB als Hard Disk sind zugeteilt? Es sieht aus, als ob kein Platz auf der Platte vorhanden ist.

Falls irgendwann mal die Kiste läuft, gib mal in der CLI

Code: Alles auswählen

du -h
und

Code: Alles auswählen

du -h /var/lib/influxdb
ein und poste das Ergebnis
openHAB 4.2.0 auf Debian 12 als VM unter Proxmox

CrazyTuner
Beiträge: 19
Registriert: 16. Mär 2022 19:35
Answers: 0
Wohnort: Franken

Re: OpenHAB3 auf dem Nuc - 4GB ram immer voll

Beitrag von CrazyTuner »

hatte die letzten wochen nun damit verbracht alles in Textform anzulegen, das es rucki zucki geht wenns wieder abschmiert. musst ja sonst alles in der UI manuell anlegen... naja, dabei fiel mir dann auch auf das in der persistence datei (Influx & rrdj) einige items standen die lange nichtmehr existieren, worauf ich dann wirklich alles an textfiles gewelzt habe und mal aktuell gemacht habe.
(seit einiger zeit geht bei VSCode die anzeige, das Probleme existieren, nichtmehr, wodurch nichts aufgefallen ist.)
aufjedenfall habe ich nochmal alles frisch gemacht (openhab, influxDB, samba, grafana) und die neuen textfiles eingefügt, jetzt läuft mein system seit 4 tagen druch und ist erst bei 2GB ramauslastung. Habe aber auch seit dem start vor 4 tagen NICHTS mehr daran gearbeitet, also kein VSC oder sonst was.

Speicher, also Festplatte hab ich der VM 16GB zugewießen, sollte denk ich dafür reichen, lief früher ja auf einer 8GB auch problemlos, hab es nur wegen grafana erweitert.

installiert habe ich nur openhab, influxDB, samba, grafana, nano, mehr wüsste ich jetzt nicht.

Warum ich eine VM nutze? weil ich mich nie wirklich groß mit Proxmox & co beschaftigt habe, dass das erste war was geklappt hat beim rumspielen damals, weil es isoliert vom hauptsystem ist, und weil ich Backup/Restore funktion klasse finden.
Ich hatte mal mit Docker gespielt, aber wenn man da mal bockmist gebaut hat, war auch das system iwie jedesmal mit futsch. dann lieber 20x linux laufen und alles is unabhängig voneinander. leistung/ressourcen habe ich ja.

und zum thema alles rules ausschalten. das würde mal über einen zeitraum von einigen stunden funktionieren, habe ich auch schon probiert, aber keinen unterschied feststellen können. Länger ist problematisch, da einfach zu viel smart ist. Nur n buch im dunkeln lesen ist halt auch keine dauerbeschäftigung =P
NEIN, ich beherrsche die deutsche Rechtschreibung, auch Groß- und Kleinschreibung, nur habe ich zu viel Angst vor der SHIFT-Taste 8-) 8-)

Benutzeravatar
udo1toni
Beiträge: 15249
Registriert: 11. Apr 2018 18:05
Answers: 242
Wohnort: Darmstadt

Re: OpenHAB3 auf dem Nuc - 4GB ram immer voll

Beitrag von udo1toni »

Proxmox bringt LXC als Alternative zur klassischen VM mit. Das LX steht für LinuX, das C für Containers. LXC ist also ebenfalls ein Container System, aber es ist voll in Proxmox integriert.
Docker ist auch nett, vor allem, weil die vorgefertigten Images mit dem entsprechenden Hintergrundwissen extrem einfach zu starten und jederzeit wiederherstellbar sind - Container wegwerfen und neu starten - fertig.
Die Einstellungen und volatilen Daten liegen in sogenannten Volumes und werden nicht mit gelöscht. So ist auch ein Upgrade ohne Schrecken möglich und das Backup ist wirklich auf die reinen Daten beschränkt, was Platzersparnis bedeutet.
Dafür muss man aber relativ viel dazu lernen (zumindest wenn man es richtig machen will).

LXC kann man als Zwischending zwischen Docker und VM betrachten.
Die Kapselung zum Host ist fast so gut wie bei einer VM, aber der ganze Overhead entfällt. Das Gastsystem verwendet einfach den Kernel vom Host mit, ist aber auf ein Minimum beschnitten.
Vorteil ist hier, dass man wie gewohnt einfach alles in einen Container rein packt (Bei Docker wird gewöhnlich nur eine Anwendung in den Container gepackt. Grafana, InfluxDB, Samba, läuft alles in eigenen Containern). Dennoch spart man enorm an Leistung, weil der Unterbau nicht emuliert werden muss.
Sämtliche Zugriffe werden vom Host kontrolliert, wie bei einer VM, aber eben in schlank.
Das Debian Image benötigt z.B. gepackt ganze 123 MByte, wobei ein paar Tools für den Komfort fehlen, die aber exakt wie bei einer VM nachinstalliert werden können - es gibt für den Anwender erst mal keinen Unterschied zu einer VM oder einem "echten" Rechner.

Einschränkungen ergeben sich dann an Stellen, wo erweiterte Rechte gebraucht werden, denn der Container läuft gewöhnlich unprivilegiert. Man kann ihn auch privilegiert laufen lassen, das bringt aber andere Nachteile mit sich, ist also keine "Immer an" Option, sondern muss von Fall zu Fall entschieden werden. Samba als Dienst braucht z.B. ein paar extra Einstellungen, genau wie NFS.

Ich betreibe bei mir - historisch gewachsen - openHAB getrennt von InfluxDB, MariaDB und Grafana, das sind bei mir also vier Container, die jeder für sich nur einen kleinen Bruchteil von dem benötigen, was eine einzige VM braucht. Insgesamt sieht das dann schon wieder anders aus, aber hier geht es ja auch um das Separieren von Diensten.
MariaDB nimmt bei mir die Daten von openHAB so nebenher entgegen, es kümmert sich um die Messwerterfassung von volkszähler genauso wie um die Telefondaten, die DVD Sammlung liegt hier und auch die Daten des EPG für meine vdr Systeme (das allein sind ca. 7 GByte, weil auch die Bilder als blobs in der Datenbank liegen).
Gewöhnlich müsste ich für jedes der Systeme eine eigene Datenbank mit in den Container einbauen, hätte also fünf Instanzen von MariaDB laufen, statt jetzt eine.

Ähnlich sieht es in Bezug auf openHAB aus. Ich habe drei openHAB Systeme, die alle auf die gleiche Infrastruktur zugreifen (es handelt sich dabei um ein Produktivsystem und zwei Testsysteme...) Mit VMs würden die Ressourcen schnell knapp, mit LXC ist das kein Problem. Eine Maschine, die ausschließlich einen ssh Zugang bietet (Passwort ist ausgeschaltet, man kommt also nur mit Private Key rein) benötigt gerade mal 20 MByte RAM und bietet praktisch keine Angriffsfläche, obwohl sie ansonsten "ungeschützt" direkt von außen erreichbar ist. Aber es ist eben auch nur der eine Port für ssh erreichbar, sonst nichts.

Wenn man also auf relativ kleinen Rechnern mit Proxmox virtualisiert, sollte man sich unbedingt LXC anschauen, aus Anwendersicht gibt es kaum Unterschiede zu einer klassischen VM, bis auf die Tatsache, dass ein Container im Allgemeinen fast unmittelbar nach dem Einschalten verfügbar ist, während eine VM erst vollständig booten muss.

openHAB lässt sich auch in einem LXC prima mittels openHABian einrichten, man muss nur ein paar Anpassungen in der openhabian.conf vornehmen, weil die für ARM System optimiert ist. Ob man dann die Datenbanken auslagert oder im selben Container betreibt, sich Geschmackssache :)
openHAB4.3.3 stable in einem Debian-Container (bookworm) (Proxmox 8.3.5, LXC), mit openHABian eingerichtet

CrazyTuner
Beiträge: 19
Registriert: 16. Mär 2022 19:35
Answers: 0
Wohnort: Franken

Re: OpenHAB3 auf dem Nuc - 4GB ram immer voll

Beitrag von CrazyTuner »

So kann ich dem LXC erstmal keinen "benötigten" vorteil entnehmen. wie gesagt, es ist ein nuc mit 1TB NVME und 16GB ram und ner i5 CPU. und aktuell ist nur OH und eine Octoprint VM.
müsste mich da erst weiter belesen, ob das wirklich sinn für mich macht, falls ich mehr will. Jedoch will ich erst ein brennendes haus löschen, bevor ich mir neue zulege.

Als ich am letzten abschnitt deiner antwort ankam, dachte ich mir plötzlich, shit, du hast nie an der config geschaut.
Weil ein i5 ist ja keine ARM architektur.
jetzt ist nur die frage, amd64 oder x8664

& ich hätte dort auch Zram dann deaktiviert.
Welche einstellungen sollte ich noch vermerken/ändern?
NEIN, ich beherrsche die deutsche Rechtschreibung, auch Groß- und Kleinschreibung, nur habe ich zu viel Angst vor der SHIFT-Taste 8-) 8-)

Benutzeravatar
udo1toni
Beiträge: 15249
Registriert: 11. Apr 2018 18:05
Answers: 242
Wohnort: Darmstadt

Re: OpenHAB3 auf dem Nuc - 4GB ram immer voll

Beitrag von udo1toni »

Na, eigentlich sind die einzelnen Parameter ja gut dokumentiert.
Es ist naheliegend, auf einem "vollwertigen" ;) 64-Bit-System auch ein 64-Bit Java zu nutzen.
Ansonsten wähle halt die Parameter nach Vorlieben aus :) dafür ist diese Datei ja da.
openHAB4.3.3 stable in einem Debian-Container (bookworm) (Proxmox 8.3.5, LXC), mit openHABian eingerichtet

Benutzeravatar
KellerK1nd
Beiträge: 432
Registriert: 17. Jun 2019 16:45
Answers: 1
Wohnort: Griesheim

Re: OpenHAB3 auf dem Nuc - 4GB ram immer voll

Beitrag von KellerK1nd »

Weil ein i5 ist ja keine ARM architektur.
jetzt ist nur die frage, amd64 oder x8664
Bei den "typischen" Desktop- oder Server CPU's nimmt man "eigentlich" nur noch AMD64, das X86_64 ist schon wieder sehr speziell, das war mit irgendwelchen VIA-Chipsätzen. Du machst nix verkehrt mit AMD64. Ich selber hab einen Unraid-Server mit einem AMD Ryzen 7 3800X und einen Proxmox Server mit einem i5 9600K. Beide laufen mit den AMD64 Befehlssätzen und es gibt keine Probleme.

Ich persönlich würde mir auf jedenfall das noch mal überlegen, ob du die Dienste nicht alle in separaten LXC Containern "parken" willst. Denn es ist so wie Udo sagt, die Container brauchen viel weniger Ressourcen als die VM. Und, wenn es dir mal die VM zerschießt (aus irgend einem Grund) ist alles weg. Einen einzelenen Container neu zu erstellen geht im Handumdrehen. Eine VM dauert.

Als I-Tüpfelchen kann ich dir dann nur noch Proxmox-Backup-Server empfehlen. Der läuft auch locker auf einer älteren Hardware (ein alter Laptop, etc.) und bringt alle Vorteile einer Backup-Software mit. Der ist in Proxmox vollständig integrierbar, sodass du (einmal richtig eingerichtet) da eigentlich nicht mehr dran musst.
Betriebssystem: Proxmox 7.3-4
openHAB Container: debian11 LXC
openHAB Version: 3.4
Hardware: HomeServer Eigenbau mit einem Intel i5 9600K
Smarthome-Equipment:
- Rasperrymatic
- deConz
- HUE
- Shellys
- Mosquitto
- AVM Fritz!Box

Antworten