Hallo in die Runde.
Möchte meine Erfahrungen zu meinem Vorhaben mit euch teilen.
Durch experimentieren ist es mir gelungen, nun meine Geräte, Gruppen und Szenen mittels Google now zu steuern.
Somit kann ich abends mit den Befehlen "Ok, Google" gefolgt von z. B. "schlafen gehen" die Szene "Schlafen" ansteuern, in der beispielsweise alle Lichter mit Zeitverzögerung in Wohnzimmer etc. ausgeschaltet werden und die Nachtleuchte im Schlafzimmer eingeschaltet wird etc.
Prinzipiell lassen sich alle Funktionen ansteuern, die momentan mittels Widgets abgebildet sind.
Die Bedingungen:
- Tasker installiert (3,00€)
- Tasker Plugin AutoVoice installiert (1,40€)
- Dem Plugin AutoVoice die Berechtigung geben, dass es Google now Eingaben analysieren kann (siehe Einstellungen AutoVoice)
- Tasker Plugin AutoInput installiert (1,80€)
- Widgets für jedes Gerät / Gruppe / Szene auf dem Homescreen anlegen, welches man über die Stimme steuern möchte
Die Funktionsweise:
- Google now mit dem Sprachbefehl "Ok, Google" öffnen
- Schaltbefehl aussprechen
- AutoVoice erkennt einen Befehl
- Tasker verbindet den Befehl von AutoVoice mit der Ausführung der Schaltung über AutoInput
- AutoInput "clickt" das entsprechende Widget auf dem Homescreen an
- die everHome-App führt die Schaltung durch
Die Umsetzung:
1) AutoInput
Im Plugin AutoInput können über "Manage Input Actions" und die "+"-Schaltfläche Schaltvorgänge aufgenommen werden.
Hierbei findet man (nach Betätigung des "+" Buttons) in der Benachrichtigungsleiste die Anweisung zum aufnehmen einer Aktion, d. h. man wird aufgefordert die zu schaltende App zu öffnen (in unserem Fall der Homescreen), an die Position zu navigieren, wo die Interaktion stattfinden soll, in der Benachrichtigungmeldung den Button "ADD" zu drücken und zu guter Letzt in unserem Beispiel das everHome-Widgets zu drücken.
Die Vorgehensweise ist sehr gut im Plugin beschrieben.
Nach dem Aufnehmen will das Plugin noch zwei Dinge wissen.
Zum einen welches Element gemeint war (hier am besten Text auswählen, mit der Beschriftung des Widgets). Zum anderen welche Aktion ausgeführt werden soll (in unserem Fall "Click")
Anschließend ist die Aktion im Plugin hinterlegt.
2) Tasker: Task erstellen mit AutoInput
Anschließend muss in Tasker ein Task erstellt werden.
Hier benötigen wir zwei Elemente. "+" Button drücken und "App" auswählen, gefolgt von "Go Home", was das Aufrufen des Homescreens entspricht. Bei Page muss man noch angeben auf welcher Homescreen-Seite sich das Widget befindet (z.B. "2" für Homescreen-Seite 2).
Das zweite Element ist die Schaltung mittels AutoInput. Auswahl über "+" -> "Plugin" -> "AutoInput" -> "Action", Bleistiftsymbol bei "Configuration" -> "Stored Actions" und Auswahl der in AutoInput bereits erstellten Aktion.
Der Task ist somit fertig konfiguriert.
3) Tasker: Profil erstellen mit AutoVoice
Danach muss unter "Profile" in Tasker ein neues Profil erstellt werden.
Dies kann man sich wie eine "wenn, dann" - Verknüpfung vorstellen.
Neues Profil mit "+" erstellen, einen Namen definieren, "Event" auswählen -> "Plugin" -> "AutoVoice" -> "Recognized" - Bleistiftsymbol bei "Configuration".
Unter "Command Filter" lässt sich der zu erkennende/ausgesprochene "Schaltbefehl" hinterlegen (z. B. Wohnzimmerlampe). Über die Anwahl der Checkbox "Exact Command" kann definiert werden, ob der eingegebene Befehl genau so auch gesprochen werden muss (in AutoVoice kann man aber auch mit den Einstellungen ein bisschen spielen). Nach Bestätigung des Hakens und dem "Zurück-Pfeil" will Tasker anschließend wissen welcher Task ausgeführt werden soll. Hier wählen wir den Task, den wir unter 2) erstellt haben aus.
Die Konfiguration wäre abgeschlossen für ein Gerät / Gruppe / Szene.
Für jedes Weitere müssen die Schritte 1) - 3) wiederholt werden.
Der Test:
Google now öffnen und den Schaltbefehl, wie in "Command Filter" eingegeben aussprechen.
Die Anzeige müsste im Anschluss auf den Homescreen mit der unter Punkt 2) hinterlegten Seite wechseln und die Schaltung durchführen.
Zusammenfassung:
Es müssen ziemlich viele Konfigurationen mit mehreren Apps durchgeführt werden, damit das Ergebnis zustande kommt.
Jede zusätzliche Instanz birgt natürlich ein gewisses "Fehlerpotential".
Außerdem ist das Ausführen über AutoInput nur eine "Notlösung" und benötigt relativ lange (da erst alle Schritte abgearbeitet werden müssen).
Es können nur Widgets angesprochen werden (Versuche in der everHome App zu navigieren, brachten bei mir keinen Erfolg).
Der Zustand kann nicht direkt gesteuert werden, d. h. "Wohnzimmerlicht an" funktioniert nicht, da die Widgets nur als "Toggle" ausgeführt sind.
Verbesserungsvorschläge:
Bitte setzt die API zum direkten ansteuern um! =)
Sehr wünschenswert wäre es, wenn Geräte / Gruppen und z. B. Heizkörperthermostate (und alles was so noch kommt ;-) ) direkt mit "Werten" angesteuert werden können (z. B. Ein, Aus, Solltemp. xx °C für X Minuten / Stunden).
Szenen können ja nur insziniert werden, das passt.
Interessant wäre es auch Zeitprofile von Geräten / Gruppen / Szenen über die API aktivieren / deaktivieren zu können (z. B. "Zeitplanung Rolladen Wohnzimmer aus").
Eine "Bidirektionalität" wäre ebenfalls super. Damit könnte man einfach nach den Dingen fragen, die man wissen will (z. B. Wie warm ist es im Wohnzimmer? Wie hoch ist die Solltemperatur im Wohnzimmer? Ist die Garage geschlossen? etc.).
Eine Tasker-Integration wäre hierbei natürlich das Non-Plus-Ultra ;-) aber solange die Funktionen zumindest in einer API zur Verfügung stehen, kann man damit arbeiten ;-)
Den wirklich großen Vorteil, den ich dabei sehe ist, dass durch genau so ein Experimentieren neue Ideen und Anregungen wieder im Forum landen können!
Und genau davon lebt das System (da die Entwicklung immer vorwärts geht bzw. gehen sollte, um erfolgreich zu sein).
Den großen Vorteil der API bzw. der Tasker-Integration den ich bei der Sprachensteuerung sehe ist, dass man mit immer mehr Geräten und der steigenden Komplexität, die man ins System integriert den "Überblick" nicht verliert.
Normalerweise weiß man genau was man machen / wissen will (z. B. dass das Rollo im Wohnzimmer nicht runter gehen soll, die Temperatur zu niedrig ist oder es zu dunkel ist oder die Garage geschlossen ist), aber oftmals nach den Geräten in den Listen suchen muss.
Hiermit wäre eine intuitive Steuerung möglich.
Mittel- bzw. langfristig kann man dann ggf. versuchen diese Funktionalitäten direkt in everHome zu integrieren.
Ich hoffe sehr auf euren Zuspruch und bin gespannt, wie Ihr zu den genannten Aspekten steht.
Btw. falls sich jemand den Spass macht und die "Sprachsteuerung" ausprobiert, bitte Erfahrungen hier mitteilen ;-)
Möchte meine Erfahrungen zu meinem Vorhaben mit euch teilen.
Durch experimentieren ist es mir gelungen, nun meine Geräte, Gruppen und Szenen mittels Google now zu steuern.
Somit kann ich abends mit den Befehlen "Ok, Google" gefolgt von z. B. "schlafen gehen" die Szene "Schlafen" ansteuern, in der beispielsweise alle Lichter mit Zeitverzögerung in Wohnzimmer etc. ausgeschaltet werden und die Nachtleuchte im Schlafzimmer eingeschaltet wird etc.
Prinzipiell lassen sich alle Funktionen ansteuern, die momentan mittels Widgets abgebildet sind.
Die Bedingungen:
- Tasker installiert (3,00€)
- Tasker Plugin AutoVoice installiert (1,40€)
- Dem Plugin AutoVoice die Berechtigung geben, dass es Google now Eingaben analysieren kann (siehe Einstellungen AutoVoice)
- Tasker Plugin AutoInput installiert (1,80€)
- Widgets für jedes Gerät / Gruppe / Szene auf dem Homescreen anlegen, welches man über die Stimme steuern möchte
Die Funktionsweise:
- Google now mit dem Sprachbefehl "Ok, Google" öffnen
- Schaltbefehl aussprechen
- AutoVoice erkennt einen Befehl
- Tasker verbindet den Befehl von AutoVoice mit der Ausführung der Schaltung über AutoInput
- AutoInput "clickt" das entsprechende Widget auf dem Homescreen an
- die everHome-App führt die Schaltung durch
Die Umsetzung:
1) AutoInput
Im Plugin AutoInput können über "Manage Input Actions" und die "+"-Schaltfläche Schaltvorgänge aufgenommen werden.
Hierbei findet man (nach Betätigung des "+" Buttons) in der Benachrichtigungsleiste die Anweisung zum aufnehmen einer Aktion, d. h. man wird aufgefordert die zu schaltende App zu öffnen (in unserem Fall der Homescreen), an die Position zu navigieren, wo die Interaktion stattfinden soll, in der Benachrichtigungmeldung den Button "ADD" zu drücken und zu guter Letzt in unserem Beispiel das everHome-Widgets zu drücken.
Die Vorgehensweise ist sehr gut im Plugin beschrieben.
Nach dem Aufnehmen will das Plugin noch zwei Dinge wissen.
Zum einen welches Element gemeint war (hier am besten Text auswählen, mit der Beschriftung des Widgets). Zum anderen welche Aktion ausgeführt werden soll (in unserem Fall "Click")
Anschließend ist die Aktion im Plugin hinterlegt.
2) Tasker: Task erstellen mit AutoInput
Anschließend muss in Tasker ein Task erstellt werden.
Hier benötigen wir zwei Elemente. "+" Button drücken und "App" auswählen, gefolgt von "Go Home", was das Aufrufen des Homescreens entspricht. Bei Page muss man noch angeben auf welcher Homescreen-Seite sich das Widget befindet (z.B. "2" für Homescreen-Seite 2).
Das zweite Element ist die Schaltung mittels AutoInput. Auswahl über "+" -> "Plugin" -> "AutoInput" -> "Action", Bleistiftsymbol bei "Configuration" -> "Stored Actions" und Auswahl der in AutoInput bereits erstellten Aktion.
Der Task ist somit fertig konfiguriert.
3) Tasker: Profil erstellen mit AutoVoice
Danach muss unter "Profile" in Tasker ein neues Profil erstellt werden.
Dies kann man sich wie eine "wenn, dann" - Verknüpfung vorstellen.
Neues Profil mit "+" erstellen, einen Namen definieren, "Event" auswählen -> "Plugin" -> "AutoVoice" -> "Recognized" - Bleistiftsymbol bei "Configuration".
Unter "Command Filter" lässt sich der zu erkennende/ausgesprochene "Schaltbefehl" hinterlegen (z. B. Wohnzimmerlampe). Über die Anwahl der Checkbox "Exact Command" kann definiert werden, ob der eingegebene Befehl genau so auch gesprochen werden muss (in AutoVoice kann man aber auch mit den Einstellungen ein bisschen spielen). Nach Bestätigung des Hakens und dem "Zurück-Pfeil" will Tasker anschließend wissen welcher Task ausgeführt werden soll. Hier wählen wir den Task, den wir unter 2) erstellt haben aus.
Die Konfiguration wäre abgeschlossen für ein Gerät / Gruppe / Szene.
Für jedes Weitere müssen die Schritte 1) - 3) wiederholt werden.
Der Test:
Google now öffnen und den Schaltbefehl, wie in "Command Filter" eingegeben aussprechen.
Die Anzeige müsste im Anschluss auf den Homescreen mit der unter Punkt 2) hinterlegten Seite wechseln und die Schaltung durchführen.
Zusammenfassung:
Es müssen ziemlich viele Konfigurationen mit mehreren Apps durchgeführt werden, damit das Ergebnis zustande kommt.
Jede zusätzliche Instanz birgt natürlich ein gewisses "Fehlerpotential".
Außerdem ist das Ausführen über AutoInput nur eine "Notlösung" und benötigt relativ lange (da erst alle Schritte abgearbeitet werden müssen).
Es können nur Widgets angesprochen werden (Versuche in der everHome App zu navigieren, brachten bei mir keinen Erfolg).
Der Zustand kann nicht direkt gesteuert werden, d. h. "Wohnzimmerlicht an" funktioniert nicht, da die Widgets nur als "Toggle" ausgeführt sind.
Verbesserungsvorschläge:
Bitte setzt die API zum direkten ansteuern um! =)
Sehr wünschenswert wäre es, wenn Geräte / Gruppen und z. B. Heizkörperthermostate (und alles was so noch kommt ;-) ) direkt mit "Werten" angesteuert werden können (z. B. Ein, Aus, Solltemp. xx °C für X Minuten / Stunden).
Szenen können ja nur insziniert werden, das passt.
Interessant wäre es auch Zeitprofile von Geräten / Gruppen / Szenen über die API aktivieren / deaktivieren zu können (z. B. "Zeitplanung Rolladen Wohnzimmer aus").
Eine "Bidirektionalität" wäre ebenfalls super. Damit könnte man einfach nach den Dingen fragen, die man wissen will (z. B. Wie warm ist es im Wohnzimmer? Wie hoch ist die Solltemperatur im Wohnzimmer? Ist die Garage geschlossen? etc.).
Eine Tasker-Integration wäre hierbei natürlich das Non-Plus-Ultra ;-) aber solange die Funktionen zumindest in einer API zur Verfügung stehen, kann man damit arbeiten ;-)
Den wirklich großen Vorteil, den ich dabei sehe ist, dass durch genau so ein Experimentieren neue Ideen und Anregungen wieder im Forum landen können!
Und genau davon lebt das System (da die Entwicklung immer vorwärts geht bzw. gehen sollte, um erfolgreich zu sein).
Den großen Vorteil der API bzw. der Tasker-Integration den ich bei der Sprachensteuerung sehe ist, dass man mit immer mehr Geräten und der steigenden Komplexität, die man ins System integriert den "Überblick" nicht verliert.
Normalerweise weiß man genau was man machen / wissen will (z. B. dass das Rollo im Wohnzimmer nicht runter gehen soll, die Temperatur zu niedrig ist oder es zu dunkel ist oder die Garage geschlossen ist), aber oftmals nach den Geräten in den Listen suchen muss.
Hiermit wäre eine intuitive Steuerung möglich.
Mittel- bzw. langfristig kann man dann ggf. versuchen diese Funktionalitäten direkt in everHome zu integrieren.
Ich hoffe sehr auf euren Zuspruch und bin gespannt, wie Ihr zu den genannten Aspekten steht.
Btw. falls sich jemand den Spass macht und die "Sprachsteuerung" ausprobiert, bitte Erfahrungen hier mitteilen ;-)
Gruß
Mathias
Mathias
