A RetroSearch Logo

Home - News ( United States | United Kingdom | Italy | Germany ) - Football scores

Search Query:

Showing content from https://developer.cdn.mozilla.net/de/docs/Web/API/Web_Speech_API below:

Web Speech API - Web-APIs

Web Speech API

Die Web Speech API ermöglicht es Ihnen, Sprachdaten in Webanwendungen zu integrieren. Die Web Speech API besteht aus zwei Teilen: SpeechSynthesis (Text-zu-Sprache) und SpeechRecognition (Asynchrone Spracherkennung).

Web Speech Konzepte und Nutzung

Die Web Speech API ermöglicht es Webanwendungen, Sprachdaten zu verarbeiten. Es gibt zwei Komponenten in dieser API:

Weitere Details zur Nutzung dieser Funktionen finden Sie unter Verwendung der Web Speech API.

Web Speech API-Schnittstellen Spracherkennung
SpeechRecognition

Die Steuerungsschnittstelle für den Erkennungsdienst; sie behandelt auch die vom Erkennungsdienst gesendeten SpeechRecognitionEvent.

SpeechRecognitionAlternative

Repräsentiert ein einzelnes Wort, das von dem Spracherkennungsdienst erkannt wurde.

SpeechRecognitionErrorEvent

Repräsentiert Fehlermeldungen vom Erkennungsdienst.

SpeechRecognitionEvent

Das Ereignisobjekt für die result- und nomatch-Ereignisse und enthält alle Daten, die mit einem vorläufigen oder endgültigen Spracherkennungsergebnis verbunden sind.

SpeechGrammar

Die Worte oder Wortmuster, die der Erkennungsdienst erkennen soll.

SpeechGrammarList

Repräsentiert eine Liste von SpeechGrammar-Objekten.

SpeechRecognitionResult

Repräsentiert ein einzelnes Erkennungsmuster, das mehrere SpeechRecognitionAlternative-Objekte enthalten kann.

SpeechRecognitionResultList

Repräsentiert eine Liste von SpeechRecognitionResult-Objekten oder ein einziges, wenn Ergebnisse im continuous-Modus erfasst werden.

Sprachsynthese
SpeechSynthesis

Die Steuerungsschnittstelle für den Sprachdienst; diese kann verwendet werden, um Informationen über die auf dem Gerät verfügbaren Synthesestimmen abzurufen, Sprache zu starten und anzuhalten sowie weitere Befehle auszuführen.

SpeechSynthesisErrorEvent

Enthält Informationen über Fehler, die beim Verarbeiten von SpeechSynthesisUtterance-Objekten im Sprachdienst auftreten.

SpeechSynthesisEvent

Enthält Informationen über den aktuellen Zustand von SpeechSynthesisUtterance-Objekten, die im Sprachdienst verarbeitet wurden.

SpeechSynthesisUtterance

Repräsentiert eine Sprechanforderung. Sie enthält den Inhalt, den der Sprachdienst lesen soll und Informationen darüber, wie er ihn lesen soll (z. B. Sprache, Tonhöhe und Lautstärke).

SpeechSynthesisVoice

Repräsentiert eine Stimme, die vom System unterstützt wird. Jede SpeechSynthesisVoice hat ihren eigenen zugehörigen Sprachdienst, einschließlich Informationen über Sprache, Name und URI.

Window.speechSynthesis

Spezifiziert als Teil einer [NoInterfaceObject]-Schnittstelle namens SpeechSynthesisGetter und implementiert vom Window-Objekt, bietet die speechSynthesis-Eigenschaft Zugriff auf den SpeechSynthesis-Controller und damit den Einstiegspunkt in die Sprachsynthesefunktionalität.

Fehler

Für Informationen zu Fehlern, die von der Speech API gemeldet werden (z. B. "language-not-supported" und "language-unavailable"), siehe die folgende Dokumentation:

Beispiele

Die Web Speech API Beispiele auf GitHub enthalten Demos zur Veranschaulichung von Spracherkennung und -synthese.

Spezifikationen Browser-Kompatibilität api.SpeechRecognition api.SpeechSynthesis Siehe auch

RetroSearch is an open source project built by @garambo | Open a GitHub Issue

Search and Browse the WWW like it's 1997 | Search results from DuckDuckGo

HTML: 3.2 | Encoding: UTF-8 | Version: 0.7.4