Sprachsteuerung ips "Siri"

Hallöle,
Hatte vor ein Paar Tagen wiedermal Zeit ins Forum reinzuschauen… Und siehe da…wieder was entdeckt, das Spass machen könnte!!! Sprachsteuerung über Handy …

Es geht um Ip-S-Iris von Hagbard235…
Das was er da vorstellt, gefällt mir richtig gut :slight_smile:
Hatte leider nichts passendes für IOS Geräte gefunden, aber bei Android systemen scheint es ja gut zu funktionieren …

Mein Wunsch wäre, dass die Spracheingaben- Funktion auch irgendwann auch auf Apple Geräten funktioniert , evtl sogar in der Ip-Symcon App integriert wäre…:slight_smile:

Ich denke, bin auch nicht der einzige, der auch was für bezahlen würde… :slight_smile: und weil bald Weihnachten ist…

Vielleicht steht das ja bei den Bastlern oder ips- Entwicklern auf der to do Liste!?.

Hi ich habe das mal mit mit dem Siri Proxy und IPS gemacht, hat gut funktioniert.

Wäre super wenn das mal in IPS kommen würde !!!

Hi,

da Apple leider keinen (offiziellen) Zugang zu einer Spracherkennung für Entwickler bietet (im Gegensatz zu Google) wird es keine iOS-Version geben. Aber sei soweit getrötestet, die Android-Version läuft leider im Moment auch nicht, was sich aber hoffentlich in Kürze ändert.

Hallo

drapple, bin ganz Ohr :slight_smile: …wie funkzt das MIT dem Siri Proxy??? Gibts dazu irgendwas Tutorial-mässiges???

ach und Hagbard235, ich hoffe du täuschst dich was iOS angeht… Finde die Lösung , die du unter Android ertüftelt hast super… Muss dazu aber sagen ‚einmal Apple, immer Apple‘ … Finde die Geräte trotz kleiner Einschränkungen einfach guuuuuuuut :slight_smile: , naja, wenn du es MIT der App hinkriegst!? ,bin trotzdem dabei und kaufe es( die Arbeit muss belohnt werden) … Muss halt das Handy Meinert Frau herhalten…

Da gibt es hier einen Thread der schon recht weit fortgeschritten war.

Laut Apple wird es möglich sein mit Siri (IOS8) eine App anzusteuern.
Wenn die APP von IPS dann ein Update bekommt, könnte man eine Sprachsteuerung realisieren. Ich bin dafür :slight_smile:

Hi. Community…

Wollte nur mein ursprüngliches Thema aufgreifen…
Warum muss es eigentlich was apple eigenes sein, bzw. Android eigenes?
Kann die Sprachsteuerung/Erkennung nicht generell in der Ips-App"wohnen"?
Wahrscheinlich ne doofe Frage!? Aber so als Laie würde ich mir das so vorstellen, dass halt ne kleine Spracherkennungssoftware in der Ips app integriert ist die halt so plumpte, einfache Stichworte erkennt und auswertet, dann die verknüpfte Aktionen ausführt!?

Ich weiß , ich weiss … Wahrscheinlich zu einfach gedacht …aber könnte ja sein dass man mal vor lauter Bäumen den Wald nicht sieht…!!!
Kenne mich selbst in sowas gar nicht aus!
Als ich vor ein paar Jahren auf symcon gestoßen bin, nutze ich es mit Begeisterung und bin auch sehr froh dass die Entwickler immer mehr und mehr fertige Vorgaben für verschiedene Systeme integrieren… So braucht man auch nicht wie damals zu Anfängen jeden Pups per PHP zu Fuß programmieren! Vielen Dank an der Stelle!:slight_smile:

So eine Spracherkennung, welche Horden von Entwicklern und „Forschern“ fordern und bis heute nicht mehr als zufriedenstellend arbeiten baut man nicht mal eben als IPS-Modul selber. Und wenn es um die Integration fremder Module gehen würde, so müssten die ja auch wieder OS-Bezogen sein.

Ist schon klar was du meinst…
Ich stell mir das im Grunde noch einfacher vor…
Ich speicher( lasse die Software) eine gesprochene Sequenz ab… Z.B. " Wohnzimmer Licht an" verknüpfe damit ne Aktion also Licht im Wohnzimmer hardwaretechnisch schalten… Die Software bzw. das Softwaremodul hört zu, wertet explizit die zwei Wörter aus… Stimmt das gesprochene überein, so wird ein Befehl ausgeführt!
Es wäre nicht das was siri vorgibt… Wo man mehr oder weniger normale Sätze spricht und es scheinbar wie in einer flüssigen Interaktion funktioniert.
Aber es wäre halt ein Anfang und mir persönlich würde es erstmal reichen…

Nein nein, nicht die Auswertung meine ich, die ist ein ganz eigenes Problem. Die Umwandlung von Schall in Text meinte ich. Bis vor kurzem war für ausreichende Genauigkeit noch ein teueres Mikrofon und Software im 4 stelligen Bereich notwendig.

Ach herrje, wo hast Du denn den Unfug gelesen. Eine wirklich vergleichbare Texterkennung hatte schon IBMs OS/2 Warp onboard und das funktionierte ausgezeichnet mit 0815 Mikro. Siri kann in dem Bereich nicht mehr. Ich finde Siri in der Praxis nicht besser bei der Erkennung. Siri kann das was es versteht scheinbar intelligenter umsetzen aber mehr auch nicht.

Da muss ich Boui zustimmen.

Mit Hom***er geht das schon etwa zehn Jahre.
Meines Wissens nach sogar sehr gut…

ja, und man mußte stundenlang öde Texte trainieren damit sich das System an dein Stimme gewöhnt.
Noch früher war eine eigene Soundkarte mit speziellem SpracherkennungsDSP notwendig. Die PC waren zu schwach das über die normale Soundkarte zu machen. Das war noch mit OS/2 2.0 ohne Warp.

Letztendlich hat das bis zum heutigen Tag - ob jetzt mit oder ohne Siri bzw. Google noch nie zuverlässig genug funktioniert um es auch sinnvoll verwenden zu können.

schön wars, lang ists her…
bb

Jeder, der Sprachsteuerung für einfach hält kann sich ja mal mit der beschäftigen, die seit Vista bei jedem Windows dabei ist. :rolleyes:

Toni

OS/2 war genial in der Spracherkennung…für 1996… nachdem man über 30 Minuten möglich identisch seine Texte aufgesagt hat konnte man in der Tat so etwas ähnliches wie diktieren… nur wenn man das Mikrofon anders gestellt hat konnte man von vorne anfangen …

und sowas hab ich nicht gelesen, ich arbeite und bastel mit Spracherkennung seit 1994, das ist leider alles leidige Erfahrung…

Dazwischen kamen andere ganz gute Spracherkennungen wie Dragonspeak etc. aber alle mussten angelernt werden bis sie funktionierten.

Siri und die Google Spracherkennung sind die ersten die ohne anlernen halbwegs vernünftig was erkennen, aber mein Anspruch an eine Erkennung ist eine Trefferquote >70% minimum, das leisten bei freien Texten beide nicht wirklich, wobei in meinen Tests Google noch deutlich zuverlässiger als Siri ist bei freien Texten…und stetig besser wird, weil es selbstlernend ist.

Aber netsnake sprach davon „mal eben selber“ eine Spracherkennung ohne OS-Abhängigkeit in die IPS-App einzubauen. Das ginge mit Open-Source-Spracherkennungen, aber eigentlich auch nicht, weil die noch viel schlechter von der Erkennung sind.

OT: Hach, mach ma einen OS/2 Veteranenclub. Ich habs geliebt und gehaßt gleichzeitig. und ja, für die damalige Zeit war die Erkennung sensationell. Hab einige davon bei Kunden installiert und mich natürlich auch selbst damit gespielt.

Über die integrierte REXX Programmieroberfläche vom OS/2 hatte ich mir auch mal sowas gebaut wie es sich der Threadersteller wünscht.

greez
bb

Ich hab noch ne Team OS/2 Mitgliedskarte.
Es ist ja schon lange her. Damals lernte ich noch die Programmierung in COBOL. Das war wie Bücher schreiben. Aber meine Spracherkennung funktionierte wirklich perfekt. Evtl lag es ja an eurer Aussprache. Bei bb wäre ich mir ja fast sicher. Kicher

Hallo zusammen …

Wollte meinen ursprünglichen Thread aufgreifen… Das alte Thema iPs Sprachsteuerung!!!

Viele werden in dem Moment die Augen verdrehen," hatten wir alles schon".

Was mir persönlich am Herzen liegt ist die Sprachsteuerung vom iOS Devise aus. Sprachsteuerung, die ich bequem und mit einem Knopfdruck erreichen/ausführen kann. Entweder per eigenständige App oder aus der symcon App heraus.
Klar gibt es mittlerweile viele Ansätze, Bastellösungen und grauzonenlösungen wie Siri Proxi… Siri proxi scheint eigentlich ja echt super zu sein , ist aber so wie ich es verstehe nicht wirklich legal… Halt Grauzone, ganz abgesehen davon dass ich es bei mir nie zum laufen gekriegt habe.
Hab bei mir auch so ein Bastelstück am laufen, was garantiert auch kein neuer Ansatz ist… Ich nutze für meine Zwecke die Diktierfunktion des iPhones aus.
Der Text den ich dem iPhone diktiere wird mit einer kleinen Datenbank von Befehlen( Text) abgeglichen, wenn es überein stimmt wird es ausgeführt, wenn nicht kommt eine Fehlermeldung!
Funktioniert soweit , ist aber schon auch bei weitem nicht optimal!
Man muss das Skript aufrufen, ins Textfeld klicken, mikrosymbol in der Tastatur drücken, reinsprechen, bestätigten… Usw.
Was ich mir wünsche ist halt wie bei Siri Proxy … Homebutton drücken. Siri was sagen , loslassen , wird ausgeführt! halt auf kurzem Weg zum Ziel!

Vielleicht gibt’s ja andere Ansätze bei manch einem von euch… Wem es nicht zu schade ist … Teilt euch mal mit:-)

Siri Proxy WAR großartig. Habe damit fast sämtliche Funktionen in meinem IPS gesteuert. War echt toll. Funktioniert leider seit IOS7 nicht mehr ;(

Ich hatte dann auch einige Bastellösungen probiert, die mich alle nicht zufriedengestellt haben.

Tatsächlich warte ich noch auf deinen Ansatz: Apple muss es erlauben, per Siri die auf dem Device installierten Apps zu steuern.

Man drückt also den Homebutton und sagt bspw „Symcon Licht Wohnzimmer an“. Daraufhin wird auf dem Device automatisch die Symcon App mit dem Parameter „Wohnzimmer Licht an“ gestartet. Diesen Parameter-String müsste die Symcon-App dann nur noch auswerten bzw einfach in eine IPS-Variable wegschreiben. Also tatsächlich kaum Aufwand für die IPS-Entwickler! Leider Träumerei ;(

Eigentlich müsste man eine IOS App basteln( was wahrscheinlich schon mit Apple gar nicht so einfach ist!?)… Oder eigentlich sogar noch einfacher… In der symcon iOS App ein Button reinbringen der sich wie Siri verhält aber eigentlich nur das gesprochenes Wort schreibt( also Diktierfunktion)… Beim loslassen wird es sofort ausgeführt…
Alles andere ist ja dann in symcon mit den Scripten lösbar!!
" Wohnzimmer Licht an"-> im Script wird der Text verglichen, wenn es überein stimmt ausgeführt!
Klar wäre eine Sprachausgabe auch noch geil, quasi als Bestätigung…