Eigentlich richte ich alle meine Geräte per Oberfläche ein. Zu Anfängen mit OH3 war das nur bedingt möglich und eigentlich mehr eine Qual. Inzwischen ist das ja - so weit ich as sehe - fast 1:1 mit dem deckungsgleich mit dem, was man über die textuelle Konfiguration erreichen kann.
Ich woltle also bereits vor längerer Zeit die 301-er Thermostate so einrichten, dass man sie auch über Sprache steuern kann (wie "Alexa, schalte Wohnzimmer Heizung auf 20 Grad"). Dazu gab es tatsächlich mal einen Beitrag in der offiziellen OH community. Zum einen war es nur über Umwege möglich, die (für mich) zu kompliziert waren, zum anderen musste man dabei auf gewisse Funktionen verzichten (auf welche genau weiss ich gar nicht mehr). Ich habe es also gelassen und die Thermostate mit jeweils einem eignenen item für jede Funktion eingerichtet, sodass ich diese eben händisch, oder per Regeln bedienen kann.
Das sieht etwa so aus:
Esszimmer Heizung
Equipment
-Batterie EZ Heizung
Measurement (Energy)
-Batterie leer EZ Heizung
LowBattery (Energy)
-Heizmodus EZ Heizung
Point
-Solltemperatur EZ Heizung
Setpoint (Temperature)
-Temperatur EZ Heizung
Measurement (Temperature)
Nun dachte ich mir, bei OH passiert ja so viel, dass man doch bestimmt mittlerweile die Konfiguration so unkompliziert abändern kann, dass einem die Sprachsteuerung zur Verfüügung steht. Allerdings finde ich jetzt gar keine Anleitung mehr, wie man die Geräte "korrekt" einrichtet.
Vielleicht hat jemand einen Tipp, oder eine Anleitung bzw. einen entsprechenden Link?
AVM Fritz!Dect 301/302 Thermostate für Sprachsteuerung einrichten
-
- Beiträge: 1
- Registriert: 3. Okt 2024 09:41
- udo1toni
- Beiträge: 14828
- Registriert: 11. Apr 2018 18:05
- Wohnort: Darmstadt
Re: AVM Fritz!Dect 301/302 Thermostate für Sprachsteuerung einrichten
Herzlich willkommen im openHAB Forum!
openHAB selbst bietet meines Wissens keine Sprachsteuerung. Du kannst natürlich diverse Systeme andocken, welche Sprachsteuerung bieten (sei es Alexa, sei es Siri oder noch was anderes)
Das wichtigste aber: es gibt da nichts, was "unkomplizierter" sein könnte, also vielleicht abgesehen davon, dass eventuell beteiligte Geräte inzwischen automatisch gefunden werden können.
openHAB ist in erster Linie "Mittler der Welten", d.h. man kann aus buchstäblich hunderten zueinander inkompatibler Systeme wählen, die aber alle von openHAB gesteuert werden können, und openHAB eint dann all diese Systeme unter einer Oberfläche (wobei die "Oberfläche" nicht mal zwingend ist).
Dazu muss aber alles in eine gemeinsame Form gebracht werden, die so weit wie irgend möglich unabhängig von den angebundenen Systemen ist.
Deshalb hat openHAB einen eigenen Bus (das ist das B im Namen) und alles, was gesteuert oder ausgewertet werden soll, muss mit diesem Bus verbunden werden. Das geschieht über Items (die Entsprechung einzelner Merkmale, Status, auf Befehle horchende Punkte usw.) und damit diese Items vollständig losgelöst von irgendwelcher Hardware sind, gibt es die Zwischenschicht der Addons/Bindings, welche mittels Things konfiguriert wird. Die Things sind also hardwareabhängig, die Items aber nicht. Die Channel als Teil der Things stellen dann mittels Links die Verbindung zu den Items her.
Das von Dir gezeigte Semantic Model hat damit wiederum nur so viel zu tun, als dass es sich um eine Abbildung des Systems in Bezug auf die wirkliche Welt handelt. Es geht dabei darum, dass openHAB die Items semantisch sortiert verwenden kann, um z.B. alle zu einem bestimmten Raum gehörenden Items anzeigen zu können. Notwendig ist das Semantic Model jedoch nicht, auch wenn es natürlich höchst sinnvoll ist.
Wenn Du Alexa hast, musst Du das passende Addon installieren und die Items korrekt mit den passenden Tags versehen. Die Tags basieren evtl. ebenfalls auf dem Semantic Model, aber da ich keine Sprachsteuerung verwende, ist das nur Halbwissen.
Soweit ich weiß, musst Du openHAB mit myOpenHAB verbinden, damit die Steuerung über die Cloud funktioniert - einer der Gründe, warum dieser Komfort für mich nicht in Frage kommt (nicht wegen myOpenHAB, sondern wegen Sprachsteuerung nur über Cloud; Cloud ist böse).
Wenn die Items korrekt getaggt sind,sollte die Sprachsteuerung über die entsprechenden Befehle automatisch möglich sein (orientiert sich dann am Label des Items und den Tags/dem Semantic Model)
openHAB selbst bietet meines Wissens keine Sprachsteuerung. Du kannst natürlich diverse Systeme andocken, welche Sprachsteuerung bieten (sei es Alexa, sei es Siri oder noch was anderes)
Das wichtigste aber: es gibt da nichts, was "unkomplizierter" sein könnte, also vielleicht abgesehen davon, dass eventuell beteiligte Geräte inzwischen automatisch gefunden werden können.
openHAB ist in erster Linie "Mittler der Welten", d.h. man kann aus buchstäblich hunderten zueinander inkompatibler Systeme wählen, die aber alle von openHAB gesteuert werden können, und openHAB eint dann all diese Systeme unter einer Oberfläche (wobei die "Oberfläche" nicht mal zwingend ist).
Dazu muss aber alles in eine gemeinsame Form gebracht werden, die so weit wie irgend möglich unabhängig von den angebundenen Systemen ist.
Deshalb hat openHAB einen eigenen Bus (das ist das B im Namen) und alles, was gesteuert oder ausgewertet werden soll, muss mit diesem Bus verbunden werden. Das geschieht über Items (die Entsprechung einzelner Merkmale, Status, auf Befehle horchende Punkte usw.) und damit diese Items vollständig losgelöst von irgendwelcher Hardware sind, gibt es die Zwischenschicht der Addons/Bindings, welche mittels Things konfiguriert wird. Die Things sind also hardwareabhängig, die Items aber nicht. Die Channel als Teil der Things stellen dann mittels Links die Verbindung zu den Items her.
Das von Dir gezeigte Semantic Model hat damit wiederum nur so viel zu tun, als dass es sich um eine Abbildung des Systems in Bezug auf die wirkliche Welt handelt. Es geht dabei darum, dass openHAB die Items semantisch sortiert verwenden kann, um z.B. alle zu einem bestimmten Raum gehörenden Items anzeigen zu können. Notwendig ist das Semantic Model jedoch nicht, auch wenn es natürlich höchst sinnvoll ist.
Wenn Du Alexa hast, musst Du das passende Addon installieren und die Items korrekt mit den passenden Tags versehen. Die Tags basieren evtl. ebenfalls auf dem Semantic Model, aber da ich keine Sprachsteuerung verwende, ist das nur Halbwissen.
Soweit ich weiß, musst Du openHAB mit myOpenHAB verbinden, damit die Steuerung über die Cloud funktioniert - einer der Gründe, warum dieser Komfort für mich nicht in Frage kommt (nicht wegen myOpenHAB, sondern wegen Sprachsteuerung nur über Cloud; Cloud ist böse).
Wenn die Items korrekt getaggt sind,sollte die Sprachsteuerung über die entsprechenden Befehle automatisch möglich sein (orientiert sich dann am Label des Items und den Tags/dem Semantic Model)
openHAB4.2.2 stable in einem Debian-Container (bookworm) (Proxmox 8.2.8, LXC), mit openHABian eingerichtet