Amazons künstliche Intelligenz in der Cloud soll menschlicher wirken. Alexa ist die Stimme hinter Echo, Echo Dot, den neuen Fire TV-Oberflächen und anderen Komponenten, die auf Alexa als Assistent setzen.
Damit Alexa menschlicher klingt, müssen die Entwickler mithelfen, ihre Skills dahingehend anpassen.
Alexa nutzt eine XML-basierte „Speech Synthesis Markup Language“ und gibt Entwicklern die Möglichkeit, die Sprachmuster und ihre Eigenschaften zu verändern.
Eine XML-basierte Geschichte klingt standardisiert, aber insgesamt fünf neue Eigenschaften sollen die Sprachausgabe nun einen Ticken besser machen – unterstützt wird dabei übrigens auch die deutsche Alexa.
So kann man nun Alexa unter anderem mitgeben, dass sie flüstern, die Tonhöhe, Lautstärke, die Pause zwischen langen Sätzen oder die Sprechgeschwindigkeit anzupassen soll.
Quelle:stadt-bremerhaven.de (Caschys Blog)
Damit Alexa menschlicher klingt, müssen die Entwickler mithelfen, ihre Skills dahingehend anpassen.
Alexa nutzt eine XML-basierte „Speech Synthesis Markup Language“ und gibt Entwicklern die Möglichkeit, die Sprachmuster und ihre Eigenschaften zu verändern.
Eine XML-basierte Geschichte klingt standardisiert, aber insgesamt fünf neue Eigenschaften sollen die Sprachausgabe nun einen Ticken besser machen – unterstützt wird dabei übrigens auch die deutsche Alexa.
So kann man nun Alexa unter anderem mitgeben, dass sie flüstern, die Tonhöhe, Lautstärke, die Pause zwischen langen Sätzen oder die Sprechgeschwindigkeit anzupassen soll.
Quelle:stadt-bremerhaven.de (Caschys Blog)
Kein support für Internet-Sharing!
und kein Support per PM (Fragen bitte ins Forum)
Bitte füllt euer Profil aus (Box und Image) ,das erleichtert es uns Euch zu helfen
und kein Support per PM (Fragen bitte ins Forum)
Bitte füllt euer Profil aus (Box und Image) ,das erleichtert es uns Euch zu helfen
Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von Anz ()