+ Antworten
Seite 2 von 3 ErsteErste 1 2 3 LetzteLetzte
Ergebnis 11 bis 20 von 22
  1. #11
    Registriert seit
    Jul 2010
    Ort
    Südwestpfalz
    Beiträge
    7,204

    Ach herrje, wo hast Du denn den Unfug gelesen. Eine wirklich vergleichbare Texterkennung hatte schon IBMs OS/2 Warp onboard und das funktionierte ausgezeichnet mit 0815 Mikro. Siri kann in dem Bereich nicht mehr. Ich finde Siri in der Praxis nicht besser bei der Erkennung. Siri kann das was es versteht scheinbar intelligenter umsetzen aber mehr auch nicht.
    Gruß Boui . . . IPS-unlim. auf Tinker Board S und aktuell auf einem Pi3 läuft pivccu3

    Die gefährlichste Form der Zensur ist die Schere im eigenen Kopf.(Curzio Malaparte)

  2. #12
    Registriert seit
    Jan 2010
    Beiträge
    218

    Da muss ich Boui zustimmen.

    Mit Hom***er geht das schon etwa zehn Jahre.
    Meines Wissens nach sogar sehr gut...

  3. #13
    Registriert seit
    Oct 2007
    Ort
    Villach,Kärnten,Österreich
    Beiträge
    3,306

    Zitat Zitat von Boui Beitrag anzeigen
    Ach herrje, wo hast Du denn den Unfug gelesen. Eine wirklich vergleichbare Texterkennung hatte schon IBMs OS/2 Warp onboard und das funktionierte ausgezeichnet mit 0815 Mikro. Siri kann in dem Bereich nicht mehr. Ich finde Siri in der Praxis nicht besser bei der Erkennung. Siri kann das was es versteht scheinbar intelligenter umsetzen aber mehr auch nicht.

    ja, und man mußte stundenlang öde Texte trainieren damit sich das System an dein Stimme gewöhnt.
    Noch früher war eine eigene Soundkarte mit speziellem SpracherkennungsDSP notwendig. Die PC waren zu schwach das über die normale Soundkarte zu machen. Das war noch mit OS/2 2.0 ohne Warp.

    Letztendlich hat das bis zum heutigen Tag - ob jetzt mit oder ohne Siri bzw. Google noch nie zuverlässig genug funktioniert um es auch sinnvoll verwenden zu können.

    schön wars, lang ists her..
    bb

  4. #14
    Registriert seit
    Sep 2005
    Ort
    Stade
    Beiträge
    6,618

    Jeder, der Sprachsteuerung für einfach hält kann sich ja mal mit der beschäftigen, die seit Vista bei jedem Windows dabei ist.

    Toni

  5. #15
    Registriert seit
    Apr 2011
    Beiträge
    2,248

    OS/2 war genial in der Spracherkennung.....für 1996.... nachdem man über 30 Minuten möglich identisch seine Texte aufgesagt hat konnte man in der Tat so etwas ähnliches wie diktieren..... nur wenn man das Mikrofon anders gestellt hat konnte man von vorne anfangen ....

    und sowas hab ich nicht gelesen, ich arbeite und bastel mit Spracherkennung seit 1994, das ist leider alles leidige Erfahrung...

    Dazwischen kamen andere ganz gute Spracherkennungen wie Dragonspeak etc. aber alle mussten angelernt werden bis sie funktionierten.

    Siri und die Google Spracherkennung sind die ersten die ohne anlernen halbwegs vernünftig was erkennen, aber mein Anspruch an eine Erkennung ist eine Trefferquote >70% minimum, das leisten bei freien Texten beide nicht wirklich, wobei in meinen Tests Google noch deutlich zuverlässiger als Siri ist bei freien Texten...und stetig besser wird, weil es selbstlernend ist.

    Aber netsnake sprach davon "mal eben selber" eine Spracherkennung ohne OS-Abhängigkeit in die IPS-App einzubauen. Das ginge mit Open-Source-Spracherkennungen, aber eigentlich auch nicht, weil die noch viel schlechter von der Erkennung sind.

  6. #16
    Registriert seit
    Oct 2007
    Ort
    Villach,Kärnten,Österreich
    Beiträge
    3,306

    Zitat Zitat von Hagbard235 Beitrag anzeigen
    OS/2 war genial in der Spracherkennung.....für 1996.....
    OT: Hach, mach ma einen OS/2 Veteranenclub. Ich habs geliebt und gehaßt gleichzeitig. und ja, für die damalige Zeit war die Erkennung sensationell. Hab einige davon bei Kunden installiert und mich natürlich auch selbst damit gespielt.

    Über die integrierte REXX Programmieroberfläche vom OS/2 hatte ich mir auch mal sowas gebaut wie es sich der Threadersteller wünscht.

    greez
    bb

  7. #17
    Registriert seit
    Jul 2010
    Ort
    Südwestpfalz
    Beiträge
    7,204

    Ich hab noch ne Team OS/2 Mitgliedskarte.
    Es ist ja schon lange her. Damals lernte ich noch die Programmierung in COBOL. Das war wie Bücher schreiben. Aber meine Spracherkennung funktionierte wirklich perfekt. Evtl lag es ja an eurer Aussprache. Bei bb wäre ich mir ja fast sicher. Kicher
    Gruß Boui . . . IPS-unlim. auf Tinker Board S und aktuell auf einem Pi3 läuft pivccu3

    Die gefährlichste Form der Zensur ist die Schere im eigenen Kopf.(Curzio Malaparte)

  8. #18
    Registriert seit
    Nov 2009
    Beiträge
    11

    Standard Sprachsteuerung

    Hallo zusammen ...

    Wollte meinen ursprünglichen Thread aufgreifen... Das alte Thema iPs Sprachsteuerung!!!

    Viele werden in dem Moment die Augen verdrehen," hatten wir alles schon".

    Was mir persönlich am Herzen liegt ist die Sprachsteuerung vom iOS Devise aus. Sprachsteuerung, die ich bequem und mit einem Knopfdruck erreichen/ausführen kann. Entweder per eigenständige App oder aus der symcon App heraus.
    Klar gibt es mittlerweile viele Ansätze, Bastellösungen und grauzonenlösungen wie Siri Proxi... Siri proxi scheint eigentlich ja echt super zu sein , ist aber so wie ich es verstehe nicht wirklich legal.... Halt Grauzone, ganz abgesehen davon dass ich es bei mir nie zum laufen gekriegt habe.
    Hab bei mir auch so ein Bastelstück am laufen, was garantiert auch kein neuer Ansatz ist... Ich nutze für meine Zwecke die Diktierfunktion des iPhones aus.
    Der Text den ich dem iPhone diktiere wird mit einer kleinen Datenbank von Befehlen( Text) abgeglichen, wenn es überein stimmt wird es ausgeführt, wenn nicht kommt eine Fehlermeldung!
    Funktioniert soweit , ist aber schon auch bei weitem nicht optimal!
    Man muss das Skript aufrufen, ins Textfeld klicken, mikrosymbol in der Tastatur drücken, reinsprechen, bestätigten... Usw.
    Was ich mir wünsche ist halt wie bei Siri Proxy ... Homebutton drücken. Siri was sagen , loslassen , wird ausgeführt! halt auf kurzem Weg zum Ziel!

    Vielleicht gibt's ja andere Ansätze bei manch einem von euch... Wem es nicht zu schade ist .. Teilt euch mal mit:-)

  9. #19
    Registriert seit
    May 2011
    Beiträge
    343

    Siri Proxy WAR großartig. Habe damit fast sämtliche Funktionen in meinem IPS gesteuert. War echt toll. Funktioniert leider seit IOS7 nicht mehr ;(

    Ich hatte dann auch einige Bastellösungen probiert, die mich alle nicht zufriedengestellt haben.

    Tatsächlich warte ich noch auf deinen Ansatz: Apple muss es erlauben, per Siri die auf dem Device installierten Apps zu steuern.

    Man drückt also den Homebutton und sagt bspw "Symcon Licht Wohnzimmer an". Daraufhin wird auf dem Device automatisch die Symcon App mit dem Parameter "Wohnzimmer Licht an" gestartet. Diesen Parameter-String müsste die Symcon-App dann nur noch auswerten bzw einfach in eine IPS-Variable wegschreiben. Also tatsächlich kaum Aufwand für die IPS-Entwickler! Leider Träumerei ;(

  10. #20
    Registriert seit
    Nov 2009
    Beiträge
    11

    Eigentlich müsste man eine IOS App basteln( was wahrscheinlich schon mit Apple gar nicht so einfach ist!?).... Oder eigentlich sogar noch einfacher... In der symcon iOS App ein Button reinbringen der sich wie Siri verhält aber eigentlich nur das gesprochenes Wort schreibt( also Diktierfunktion)... Beim loslassen wird es sofort ausgeführt...
    Alles andere ist ja dann in symcon mit den Scripten lösbar!!
    " Wohnzimmer Licht an"-> im Script wird der Text verglichen, wenn es überein stimmt ausgeführt!
    Klar wäre eine Sprachausgabe auch noch geil, quasi als Bestätigung...

Ähnliche Themen

  1. Antworten: 1
    Letzter Beitrag: 30.10.12, 12:21
  2. ACCESS VIOLATION" in "IPS.exe"
    Von bastelfrosch im Forum Allgemeine Diskussion (2.x/3.x)
    Antworten: 13
    Letzter Beitrag: 28.09.12, 19:25
  3. Antworten: 8
    Letzter Beitrag: 02.06.12, 12:38
  4. Antworten: 8
    Letzter Beitrag: 06.03.08, 11:46
  5. Antworten: 1
    Letzter Beitrag: 06.10.06, 10:21

Stichworte