Hat sich jemand schon einmal ernsthaft mit Sprachsteuerung auseinander gesetzt? Es gibt/gab so etwas mal für HomeSeer aber die Engine versteht nur Englisch (=WAF minus 10 hoch unendlich). Und das FS20 Teil ist von der Anzahl seiner Speicherplätze schlicht nicht ernst zu nehmen. Gibt es da schon allgemeine Erfahrungswerte damit ich zumindest weiss in welche grobe Richtung es sich lohnt zu traben? Oder sollte man das Thema besser lassen wo es ist - in der Schublade?
Angeblich soll die Engine vom Windows7 richtig gut sein. Aber wer läuft bitte mit einem Haussteuerungs-Headset durch die Gegend. Das sieht ja voll affig aus - Das Problem ist also nicht die Erkennung, sondern das Mikro am Mund.
Also ich benutze ein HW Spracherkennungsmodul mit Schlüsselworterkennung.
Das kann zwar nur ein paar Worte unterscheiden, dafür aber auch aus grösserer Entfernung.
Angebunden über 1-Wire.
Mit den Worten ja-nein-an-aus kann man schon viel abfangen.
IPS fragt bei Ereignissen nach und man antwortet mit diesen Worrten darauf.
Kann man gut mit Leben.
YEAH, ich habe glaube ich noch in ner Kellerkiste nen Ausweis vom Team Deutschland und alle teure Soft, was IBM so für kleines Geld an Teammitglieder rausgeworfen hatte.
Schade :rolleyes: aber cool, dass das hier noch einige kennen.
He,
da können wir ja einen eigenen in Memorial OS/2 Bereich im OoffTopic aufmachen.
Hab nämlich auch 2-3 Jahre meiner Zeit in dieses OS investiert. War damals Außendienstechniker bei einem IBM Händler.
War teilweise super teilweise Mist.
Super: Rexx, Multitasking, Kommunikationsfähigkeiten
Mist: Probleme mit Messageqeue, und schon beim kleinsten Problem zerstörter Konfiguration.
Tja und wer kannte nicht den " nichtbehebbaren Fehler im Fehlerberichtigungsprogram" … kahm regelmäßig nachdemst 20 Disketten des Servicepacks reingenudelt hattest. Konfig war im A… und Neuinstallation angesagt.
Von Microsoft gibt’s die Speech API (SAPI); da gibt’s eine „Visualisierung“ mit verschiedenen Charakteren (vielleicht kennt das der ein oder andere von vorigen Microsoft Betriebssystemen - dieser Wizard zum Beispiel), man kann die Spracherkennung „trainieren“ und verschiedene Schlüsselwörter, bzw. Befehle programmieren.
Der Wizard zeigt dann den verstandenen Befehl an oder gibt eine Antwort darauf; bzw. führt Systembefehle durch.
Man bräuchte nur noch eine Schnittstelle zu IPS; sollte kein Problem sein.
Allerdings wird man (derzeit) um ein (Wireless-?)Headset nicht herum kommen. Das Problem bei „strategisch platzierten“ Mikros werden Umgebungsgeräusche oder mögliche parallele Befehle sein.
hatte mich vor einiger Zeit auch mit Spracherkennung auseinandergesetzt. Dabei bin ich auf „simon listens“ gestoßen. Leider hatte/habe ich nicht die Zeit diese zu testen. Ist vielleicht einen Versuch wert.
Gruß, StevieLu
also das Kinect-Ding kann erstmal „nichts“, die Interpretation der Daten, die Kinect liefert muss eine Middleware vornehmen. Z.B. die Gesten- und Posiotionserkennung, Sprachbefehlerkennung etc. Die Kinect liefert quasi Daten, die sowas stark vereinfachen (z.B. die farblichen Layer im Videobild, die die Raumtiefeninformationen liefern). Bei mir steht seit 2 Wochen so ein Ding, aber ohne Middleware macht das keinen Sinn. Aber sowohl M$ als auch freie Entwickler arbeiten dran. Das macht Hoffnung. M.E. hat das Teil enormes IPS-Potenzial.