Sprachsteuerung

Hallo.

Hat sich jemand schon einmal ernsthaft mit Sprachsteuerung auseinander gesetzt? Es gibt/gab so etwas mal für HomeSeer aber die Engine versteht nur Englisch (=WAF minus 10 hoch unendlich). Und das FS20 Teil ist von der Anzahl seiner Speicherplätze schlicht nicht ernst zu nehmen. Gibt es da schon allgemeine Erfahrungswerte damit ich zumindest weiss in welche grobe Richtung es sich lohnt zu traben? Oder sollte man das Thema besser lassen wo es ist - in der Schublade?

Grüsse.

Ich hatte zu Zeiten von OS/2 Warp (Welchem Dino das noch was sagt) mal damit experimentiert aber die Ergebnisse waren ernüchternd.

Angeblich soll die Engine vom Windows7 richtig gut sein. Aber wer läuft bitte mit einem Haussteuerungs-Headset durch die Gegend. Das sieht ja voll affig aus :smiley: - Das Problem ist also nicht die Erkennung, sondern das Mikro am Mund.

paresy

PS: OS/2 Warp war toll :slight_smile:

Das wollte ich eben ausprobieren ob man wirklich das Ding vor dem Mund rumtragen muss oder ob es einige strategisch gut verteilte Mikros auch tun.

PS: OS/2 war damals richtig gut. Schade, dass IBM da das Handtuch geworfen hat.

Also ich benutze ein HW Spracherkennungsmodul mit Schlüsselworterkennung.
Das kann zwar nur ein paar Worte unterscheiden, dafür aber auch aus grösserer Entfernung.
Angebunden über 1-Wire.

Mit den Worten ja-nein-an-aus kann man schon viel abfangen.
IPS fragt bei Ereignissen nach und man antwortet mit diesen Worrten darauf.
Kann man gut mit Leben.

Doc

YEAH, ich habe glaube ich noch in ner Kellerkiste nen Ausweis vom Team Deutschland und alle teure Soft, was IBM so für kleines Geld an Teammitglieder rausgeworfen hatte.
Schade :rolleyes: aber cool, dass das hier noch einige kennen.

He,
da können wir ja einen eigenen in Memorial OS/2 Bereich im OoffTopic aufmachen.

Hab nämlich auch 2-3 Jahre meiner Zeit in dieses OS investiert. War damals Außendienstechniker bei einem IBM Händler.

War teilweise super teilweise Mist.

Super: Rexx, Multitasking, Kommunikationsfähigkeiten
Mist: Probleme mit Messageqeue, und schon beim kleinsten Problem zerstörter Konfiguration.

Tja und wer kannte nicht den " nichtbehebbaren Fehler im Fehlerberichtigungsprogram" … kahm regelmäßig nachdemst 20 Disketten des Servicepacks reingenudelt hattest. Konfig war im A… und Neuinstallation angesagt.

gruß
bb

Die erste OS/2 Spracherkennung benötigte aber eine eigene Hardwarekarte.

Dazu dann 2-3 Stunden Sprachtraining. Haben das damals ein paar mal verkauft.
War natürlich supergeil, nur befriedigend funktioniert hat es nicht.

Mein Android Galaxy kann das heute um eine vielfaches besser.

mit OS/2 grüßen
bb

Was genau verwendest Du denn da?

Gruß
Thorsten

Also ich benutze ein HW Spracherkennungsmodul mit Schlüsselworterkennung.

Hallo Doc.

Was verwendet Du da? Würde mich da gerne mal einlesen.

Grüsse.

Von Microsoft gibt’s die Speech API (SAPI); da gibt’s eine „Visualisierung“ mit verschiedenen Charakteren (vielleicht kennt das der ein oder andere von vorigen Microsoft Betriebssystemen - dieser Wizard zum Beispiel), man kann die Spracherkennung „trainieren“ und verschiedene Schlüsselwörter, bzw. Befehle programmieren.
Der Wizard zeigt dann den verstandenen Befehl an oder gibt eine Antwort darauf; bzw. führt Systembefehle durch.

Man bräuchte nur noch eine Schnittstelle zu IPS; sollte kein Problem sein.

Allerdings wird man (derzeit) um ein (Wireless-?)Headset nicht herum kommen. Das Problem bei „strategisch platzierten“ Mikros werden Umgebungsgeräusche oder mögliche parallele Befehle sein.

LG,
florida

Ja, das ist noch ein Problem. Irgendwann könnte Kinect da was werden…

Hallo zusammen,

hatte mich vor einiger Zeit auch mit Spracherkennung auseinandergesetzt. Dabei bin ich auf „simon listens“ gestoßen. Leider hatte/habe ich nicht die Zeit diese zu testen. Ist vielleicht einen Versuch wert.
Gruß, StevieLu

Grad bei youtube gefunden: YouTube - Kinect , IA & voice command interacting with xbmc

Hatte mich mal mit VoxCommando - Speech Recognition and control for Multimedia auseinandergesetzt. Sehr gutes Tool! Gut anpassbar etc.

Das Problem ist aber leider bei allen das Mikro. Daher hoffe ich auf Kinect.

Für Kinect wird wohl an Windows- und Linux-Treibern gebastelt. Ich meine so etwas in der CT gelesen zu haben. Könnte interessant werden.

Ja, die gibts auch schon. Nur derzeit bezieht sich alles auf die Videofunktionen. Angeblich soll das Ding aber auch nativ Spracherkennung können.

also das Kinect-Ding kann erstmal „nichts“, die Interpretation der Daten, die Kinect liefert muss eine Middleware vornehmen. Z.B. die Gesten- und Posiotionserkennung, Sprachbefehlerkennung etc. Die Kinect liefert quasi Daten, die sowas stark vereinfachen (z.B. die farblichen Layer im Videobild, die die Raumtiefeninformationen liefern). Bei mir steht seit 2 Wochen so ein Ding, aber ohne Middleware macht das keinen Sinn. Aber sowohl M$ als auch freie Entwickler arbeiten dran. Das macht Hoffnung. M.E. hat das Teil enormes IPS-Potenzial.

Schaut mal hier, da hatte ich das schon mal beschrieben.

Grüße,
Doc

Kinect for Windows: Details zum Beta SDK - Golem.de

Gruß
Thorsten

Danke für den Link, ich bin hier auch auf der Lauer. Also wenn das Ding an IPS jemals zum Fliegen kommt wär das der Kracher schlechthin.

(ich sehe in dem Ding z.B. den perfekten Präsenz-Sensor)…