16.08.2021 | Aktuelles

Das Gerät folgt auf's Wort

Das Gerät folgt auf's Wort

Embedded Systems mit Sprachsteuerung


Wenn in den 70er Jahren Captain Kirk im Raumschiff Enterprise etwas wissen wollte, hat er einfach mit dem Computer gesprochen. Faszinierend, dass so etwas heute keine Science Fiction mehr ist. Wir alle haben uns längst daran gewöhnt Suchbefehle im Handy per Sprachbefehl abzusetzen. Selbst in günstigen Fahrzeugen sind Sprachsteuerungen heute Standard.

So stehen auch Embedded Entwickler immer öfter vor der Herausforderung ihr Gerät mittels Sprachsteuerung zu veredeln.

 

Welche Möglichkeiten gibt es dafür?

Grundsätzlich unterscheidet man zwischen Back-End- und Front-End-Systemen. Im Back-End-System wird des Audiosignal auf dem Gerät nur digitalisiert. Verarbeitung und Auswertung der Sprache erfolgen verzögert durch einen Dienst auf einem Server irgendwo im Internet. So funktionieren Siri, Google oder Alexa. Nützlich für die Anbieter dieser Sprachdienste ist, dass sie nebenbei viel über unsere Wünsche erfahren, um später gezielt Werbung zu verkaufen. Deshalb sind diese Dienste für uns kostenlos. Anwendungen mit Back-End-Systemen lassen sich einfach realisieren. Anleitungen dafür gibt es in vielen Zeitschriften der Maker-Szene.

 

Wenn ein Embedded System nicht vernetzt ist, wenn ohne Verzögerungen auf Spracheingaben reagieren werde muss, oder wenn man Sprachdaten nicht einem dritten Dienst anvertrauen möchte, setzt man besser auf ein Front-End System. Die Sprachverarbeitung, -erkennung und -auswertung erfolgt dann direkt im Embedded System. Wenn man genug Rechenleistung im Gerät hat und auf ein Betriebssystem wie Embedded Linux setzt, kann man aus einer großen Zahl freier und kommerzieller Softwarekomponenten wählen, um eine Sprachsteuerung zu realisieren. Alternativ kann die Sprachsteuerung aber auch schlüsselfertig als Chip oder Modul in das eigene Embedded System integriert werden.

 

 

Front-End-Systeme sind im Gegensatz zu Back-End-Systemen im Sprachumfang begrenzt, müssen dafür doch die lokalen Ressourcen ausreichen. Ein Back-End-System irgendwo in der Cloud setzt hier prinzipiell keine Schranken.

Was man bei der Sprachsteuerung keinesfalls vergessen darf ist der Audioteil des Embedded Systems. Es geht hier darum die eigentliche Sprache gut von Hintergrundgeräuschen zu trennen und möglichst rauschfrei zu digitalisieren. Hier hat es sich bewährt mehrere Mikrofone einzusetzen, was von den meisten Spracherkennungschips und -modulen unterstützt wird. Und ein wenig Analog-Know-How ist immer noch hilfreich, um eine Sprachsteuerung erfolgreich zu implementieren.

Fragen zur Sprachsteuerung in Embedded Systemen? Wir helfen Ihnen gerne!

Kontakt

Sie haben Fragen

oder möchten Kontakt aufnehmen?