DE112009002183T5 - Audiobenutzerschnittstelle - Google Patents
Audiobenutzerschnittstelle Download PDFInfo
- Publication number
- DE112009002183T5 DE112009002183T5 DE112009002183T DE112009002183T DE112009002183T5 DE 112009002183 T5 DE112009002183 T5 DE 112009002183T5 DE 112009002183 T DE112009002183 T DE 112009002183T DE 112009002183 T DE112009002183 T DE 112009002183T DE 112009002183 T5 DE112009002183 T5 DE 112009002183T5
- Authority
- DE
- Germany
- Prior art keywords
- audio
- media player
- audio data
- user
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 claims description 41
- 238000003786 synthesis reaction Methods 0.000 claims description 29
- 230000015572 biosynthetic process Effects 0.000 claims description 28
- 230000003993 interaction Effects 0.000 claims description 26
- 238000005516 engineering process Methods 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 12
- 238000007726 management method Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000003032 molecular docking Methods 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72475—User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users
- H04M1/72481—User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users for visually impaired users
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/39—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech synthesis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Information Transfer Between Computers (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Es wird eine Audiobenutzerschnittstelle offenbart, die Audiohinweise bereitstellt, welche einem Benutzer dabei helfen, mit einer Benutzerschnittstelle eines elektronischen Gerätes zu interagieren. Die Audiohinweise können Audioindikatoren zur Verfügung stellen, die es einem Benutzer ermöglichen seine bzw. ihre visuelle Aufmerksamkeit auf andere Aufgaben, wie beispielsweise das Fahren eines Autos, sportliche Betätigung oder das Überqueren einer Straße zu richten und die es dem Benutzer trotzdem ermöglichen mit der Benutzerschnittstelle zu interagieren. Ein intelligenter Weg kann Zugriff auf verschiedene Typen von Autohinweisen aus einer Mehrzahl verschiedener Quellen bereitstellen. Die verschiedenen Typen von Audiohinweisen können beruhend auf der Verfügbarkeit eines bestimmten Typs von Audiohinweisen präsentiert werden. Beispielsweise können die Audiohinweise vorher aufgenommenes Sprach-Audio, zum Beispiel Stimmen von Prominenten oder Comicfiguren enthalten, die von einem speziellen Sprachserver erhalten werden. Wenn weder vorher aufgenommene noch synthetisierte Audiodaten verfügbar sind, können Nicht-Sprach-Audiohinweise bereitgestellt werden.
Description
- QUERBEZÜGE ZU VERWANDTEN ANMELDUNGEN
- Diese Anmeldung ist verwandt mit der US-Patentanmeldung Nr. 10/981,993, angemeldet am 04.11.2004 mit dem Titel „Audio User Interface for Computing Devices”, und mit der US-Patentanmeldung Nr. 10/623,339, angemeldet am 18.07.2003, mit dem Titel „Voice Menu System”, deren jeweilige Offenbarungen hiermit für alle Zwecke durch Bezugnahme aufgenommen werden.
- GEBIET DER ERFINDUNG
- Diese Veröffentlichung bezieht sich im Allgemeinen auf Audiobenutzerschnittstellen und spezieller auf Techniken zur Bereitstellung von Audiobenutzerschnittstellen für Computergeräte.
- HINTERGRUND DER ERFINDUNG
- Elektronische Geräte, sowie tragbare Medienspieler, Mobiltelefone, persönliche digitale Assistenten (PDAs) und Ähnliches, sind im heutigen Markt weit verbreitet, sowie die elektronischen Peripheriegeräte, die ihre Verwendung unterstützen, so wie beispielsweise Docking-Stationen und Ähnliches. Nachdem der Wettbewerb im Markt für persönliche Elektronik sich noch immer weiter aufheizt, sind die Verbraucher in Bezug auf die Funktionalität und die Verwendung solcher Geräte anspruchsvoller geworden.
- Benutzer hören, betrachten oder empfangen und konsumieren auf andere Art Inhalte in einer Vielfalt von Kontexten. Beispielsweise ist es üblich geworden, Musik zu hören, während man fährt, im öffentlichen Verkehr unterwegs ist, sich körperlich bewegt, wandert, Hausarbeiten erledigt oder Ähnliches. Zusätzlich verwenden Benutzer Medienspieler immer öfter, um Radio, Fernsehen oder Satellitenausstrahlungen zu empfangen, globale Positionsbestimmung sowie andere Broadcastbasierte Ordnungsdienste zur Navigation und bei der Erholung, zusätzlich zur Wiedergabe von auf den Medienspielern abgespeicherten Inhalten.
- Herkömmlicherweise sind Medienspieler oder tragbare Medienspieler in der Lage, Medien, wie beispielsweise Audio (z. B. Lieder) oder Video (z. B. Filme) zum Nutzen des Benutzers wiederzugeben. Wenn der Medienspieler eine Anzeige aufweist, kann die Anzeige bei der Audiowiedergabe den Namen des Liedes, des Künstlers, sowie andere zu dem Lied gehörige Informationen anzeigen. Im Falle der Videowiedergabe kann die Anzeige auch verwendet werden, um Video darzustellen.
- Um eine Portabilität zu erreichen, können viele handgehaltene Vorrichtungen Benutzerschnittstellen verwenden, die dem Benutzer verschiedene Anzeigebildschirme zur vor allem visuellen Interaktion bereitstellen. Benutzer können mit den Benutzerschnittstellen interagieren, um ein Scrollrad und/oder einen Satz von Tasten zu bedienen, um durch Anzeigebildschirme zu navigieren oder dadurch auf Funktionen der handgehaltenen Vorrichtung zuzugreifen. Allerdings können diese Benutzerschnittstellen manchmal aus verschiedenen Gründen schwierig zu verwenden sein. Ein Grund besteht darin, dass die Anzeigebildschirme dazu tendieren, geringe Größen und Formfaktoren aufzuweisen, und dadurch schwer zu wahrzunehmen sind. Ein weiterer Grund besteht darin, dass ein Benutzer beim Lesen schlecht sieht oder anderweitig visuell beeinträchtigt ist. Selbst dann, wenn die Anzeigebildschirme wahrgenommen werden können, wird ein Benutzer Schwierigkeiten haben, durch die Benutzerschnittstelle in solchen Fällen zu navigieren, wenn ein Benutzer seinen visuellen Fokus nicht von einer wichtigen Aktivität auf die Benutzerschnittstelle umlenken kann. Solche Aktivitäten umfassen beispielsweise das Fahren eines Autos, körperliche Betätigung sowie das Überqueren einer Straße.
- Demnach sind verbesserte Verfahren und Vorrichtungen zur Lösung einiger der oben erläuterten Probleme gewünscht. Zusätzlich sind verbesserte Verfahren und Vorrichtungen zur Reduktion einiger der oben genannten Nachteile zu wünschen.
- KURZE ZUSAMMENFASSUNG DER ERFINDUNG
- In verschiedenen Ausführungsformen kann die Erfahrung eines mit einem elektronischen Gerät, wie beispielsweise eines Medienspielers oder eines tragbaren Mediengerätes, interagierenden Benutzers verbessert werden, indem eine Audiobenutzerschnittstelle aufgenommen wird, die einen intelligenten Weg zur Bestimmung dafür zur Verfügung stellt, ob angemessene Audiodialoge für die Audiobenutzerschnittstelle verfügbar sind. Beispielsweise kann darauf beruhend, ob das elektronische Gerät eine Breitbandverbindung zu einem Kommunikationsnetzwerk (beispielsweise dem Internet) aufweist, eine Feststellung getroffen werden, dass Audiodateien eines ersten Typs oder einer ersten Kategorie (beispielsweise hochqualitative Sprachaufnahmen) von einem Sprach-Server an das elektronische Gerät zur Ausgabe mit der Audiobenutzerschnittstelle gestreamt werden sollen. In einem anderen Beispiel kann die Feststellung getroffen werden, nur Audiodateien eines zweiten Typs oder einer zweiten Kategorie (beispielsweise Sprachaufnahme niedriger Qualität) zu verwenden, die auf einem Medienspeichergerät verfügbar sind, auf das das elektronische Gerät Zugriff hat. In noch einem weiteren Beispiel, bei dem keine vorher aufgenommenen Sprachaudiodaten verfügbar sind, kann die Feststellung getroffen werden, dass eine oder mehrere Sprachsynthese- oder Text-zu-Sprache-Technologien verwendet werden sollen, um Audiodaten einer dritten Kategorie für Audio-Hinweise für die Audiobenutzerschnittstelle zu erzeugen.
- In einigen Ausführungsformen kann ein Benutzer eines elektronischen Gerätes, wie beispielsweise eines Medienspielers oder eines tragbaren Mediengerätes, die Qualität der Audio-Hinweise festlegen, die für die Audiobenutzerschnittstelle dargestellt (beispielsweise wiedergegeben) werden sollen. Der Benutzer kann eine oder mehrere Benutzervorgaben angeben, die anzeigen, ob vorher aufgenommene Audiodaten verwendet werden sollten, ob Audio-Hinweise unter Verwendung einer oder mehrerer Synthesetechnologien verwendet werden sollten oder ob traditionelle Piepstöne oder andere Nicht-Sprach-Audiodaten für die Audiobenutzerschnittstelle verwendet werden sollten. Demnach kann ein elektronisches Gerät, wie beispielsweise ein Medienspieler oder ein tragbares Mediengerät mit oder ohne Anzeige, mit einer Audiobenutzerschnittstelle verbessert werden, um auf der Verfügbarkeit von Diensten oder anderen Auswahlkriterien beruhende Benutzerinteraktionen zu ermöglichen.
- In einer Ausführungsform können Eingaben empfangen werden, die eine Interaktion des Benutzers mit einer Benutzerschnittstelle anzeigen, welche mit einem elektronischen Gerät assoziiert ist, wie beispielsweise einem Medienspieler oder einem tragbaren Mediengerät. Der Benutzer kann mit dem Medienspieler interagieren, indem er Tasten, wie beispielsweise eine Wiedergabe/Pausetaste, betätigt oder indem er einen Menüeintrag einer grafischen Benutzerschnittstelle auswählt/markiert. Das elektronische Gerät kann einen Audio-Hinweis identifizieren, der mit dem Hörbarmachen der Interaktion des Benutzers mit der Benutzerschnittstelle assoziiert ist. Das elektronische Gerät kann feststellen, ob eine einer Mehrzahl von Kategorien von Audiodaten, die zu dem Audio-Hinweis korrespondieren, für den Medienspieler verfügbar ist. Beispielsweise kann das elektronische Gerät feststellen, ob vorher aufgenommene Audiodateien mit der Sprache von Prominenten in einem internen Speicher gespeichert sind, ob ein Sprachsynthesemodul oder eine Text-zu-Sprache-Funktionseinheit Zahlen synthetisieren kann, oder ob ein Sprachserver in der Lage ist, Audiodaten an das elektronische Gerät für die Audiobenutzerschnittstelle durch Streaming zu übertragen.
- Ein Teil der Audiodaten einer ersten Kategorie kann dann ausgegeben oder auf andere Weise an dem elektronischen Gerät dargestellt werden. In einigen Ausführungsformen kann die Wiedergabe einer Mediendatei als Reaktion auf die Ausgabe des Teils der Audiodaten aus der ersten Quelle pausiert oder unterbrochen werden. Als Reaktion auf die Ausgabe des Teils der Audiodaten von der ersten Quelle kann eine Wiedergabelautstärke einer Mediendatei verringert oder stummgeschaltet werden.
- Ein weitergehendes Verständnis der Art, der Vorteile und der Verbesserungen, die durch die hier offenbarten Erfindungen angeboten werden, kann durch Bezugnahme auf die verbleibenden Teile dieser Offenbarung und der angehängten Zeichnungen realisiert werden.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Zur besseren Beschreibung und Illustration der Ausführungsformen und/oder von Beispielen für alle in dieser Offenbarung dargestellten Erfindungen kann auf eine oder mehrere der beiliegenden Zeichnungen Bezug genommen werden. Die weiteren Details oder Beispiele, die zur Beschreibung der beiliegenden Zeichnungen verwendet werden, sollten nicht als Limitierungen des Umfangs jeglicher der offenbarten Erfindungen, jeglicher der vorliegend beschriebenen Ausführungsformen und/oder Beispiele oder der gemäß gegenwärtigem Verständnis besten Ausführungsform jeglicher in dieser Offenbarung dargestellten Erfindungen verstanden werden.
-
1 ist ein Blockdiagramm eines Medienspielers, der die Ausführungsformen der vorliegenden Erfindung implementieren kann; -
2 ist ein Blockdiagramm eines Medienspielers, der vorher aufgenommene oder synthetisierte Audio-Hinweise liefern kann, gemäß einer Ausführungsform der vorliegenden Erfindung; -
3 ist ein Blockdiagramm eines Audio-Schnittstellen-Managementsystems gemäß einer Ausführungsform der vorliegenden Erfindung, das vorher aufgenommene oder synthetisierte Audio-Hinweise liefern kann; -
4 ist ein Blockdiagramm eines Streaming-Audiohinweis-Systems gemäß einer Ausführungsform der vorliegenden Erfindung; -
5 illustriert eine diagrammartige Darstellung eines Medienspielers und seiner assoziierten Benutzer-Eingabesteuerungen gemäß einer Ausführungsform der vorliegenden Erfindung; -
6 illustriert eine diagrammartige Darstellung eines Medienspielers und seiner assoziierten Benutzer-Eingabesteuerungen in einer alternativen Ausführungsform der vorliegenden Erfindung; -
7 ist ein vereinfachtes Flussdiagramm eines Verfahrens zur Bereitstellung einer Audiobenutzerschnittstelle für einen Benutzer eines elektronischen Geräts gemäß einer Ausführungsform der vorliegenden Erfindung; - Die
8A und8B stellen ein Flussdiagramm eines Verfahrens zur Bereitstellung eines elektronischen Gerätes mit einer Audiobenutzerschnittstelle in einer alternativen Ausführungsform der vorliegenden Erfindung dar; -
9 ist ein Flussdiagramm eines Verfahrens zum Streamen von Audio-Hinweisen für eine Audiobenutzerschnittstelle in einer Ausführungsform gemäß der vorliegenden Erfindung; -
10 ist ein Flussdiagramm eines Verfahrens zur Erzeugung von Audio-Hinweisen in einem Host-Computer-System unter Verwendung von einer oder mehreren Sprach- oder Text-zu-Sprach-Synthese-Technologien in einer Ausführungsform gemäß der vorliegenden Erfindung; -
11 ist ein Flussdiagramm eines Verfahrens zur Erzeugung von Audio-Hinweisen unter Verwendung einer oder mehrerer Sprach- oder Text-zu-Sprache-Synthese-Technologien in einer alternativen Ausführungsform gemäß der vorliegenden Erfindung; und -
12 ist ein Blockdiagramm eines elektronischen Gerätes, das Ausführungsformen der vorliegenden Erfindung enthalten kann. - DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
- Verschiedene Ausführungsformen können gut für elektronische Geräte mit Audio-Wiedergabefähigkeiten, wie beispielsweise Mediengeräten (z. B. digitale Medienspieler oder tragbare MP3-Spieler) oder andere tragbare Multifunktionsgeräte (z. B. Mobiltelefone oder persönliche digitale Assistenten) geeignet sein. Beispielsweise können tragbare Geräte oftmals digitale Mediengüter (Medienelemente), wie z. B. Musik (beispielsweise Lieder), Videos (beispielsweise Filme), Hörbücher, Podcasts, Sitzungsmitschnitte und/oder andere Multimediaaufnahmen speichern und wiedergeben. Tragbare Geräte, wie beispielsweise tragbare Medienspieler oder andere tragbare Multifunktionsgeräte können auch klein und leicht tragbar sein. Oft sind tragbare Geräte handgehaltene Geräte wie beispielsweise handgehaltene Medienspieler oder handgehaltene Multifunktionsgeräte, die einfach mit und in einer einzigen Hand des Benutzers gehalten werden können. Tragbare Geräte können auch Taschengröße aufweisen, miniaturisiert oder tragbar sein.
- In verschiedenen Ausführungsformen kann die Erfahrung eines mit einem elektronischen Gerät, beispielsweise einem Medienspieler oder einem tragbaren Mediengerät, interagierenden Benutzers verbessert werden, indem eine Audiobenutzerschnittstelle vorgesehen wird, die einen intelligenten Weg zur Feststellung bereitstellt, ob angemessene Audio-Dialoge für die Audiobenutzerschnittstelle verfügbar sind. Beispielsweise kann darauf beruhend, ob das elektronische Gerät eine Breitbandverbindung zu einem Kommunikationsnetzwerk (z. B. dem Internet) verfügt, eine Feststellung getroffen werden, dass Audiodateien mit hoher Sprachaufnahmequalität von einem Sprach-Server angefordert werden sollen, um an das elektronische Gerät zur Ausgabe mit der Audiobenutzerschnittstelle per Streaming übertragen zu werden zu werden. In einem anderen Beispiel kann eine Feststellung getroffen werden, nur Audiodateien mit Sprachaufnahmen niederer Qualität zu verwenden, die auf einer für das elektronische Gerät zugreifbaren Medienspeichervorrichtung verfügbar sind. In noch einem anderen Beispiel kann bei Abwesenheit von verfügbaren, vorher aufgenommenen Sprach-Audiodaten eine Feststellung getroffen werden, eine oder mehrere Sprach-Synthese- oder Text-zu-Sprache-Technologien zu verwenden, um Audio-Hinweise für die Audiobenutzerschnittstelle zu erzeugen.
- In einigen Ausführungsformen kann ein Benutzer eines elektronischen Gerätes, wie beispielsweise eines Medienspielers oder eines tragbaren Mediengerätes, die Qualität der Audio-Hinweise festlegen, die für die Audiobenutzerschnittstelle darzustellen (z. B. wiederzugeben) sind. Der Benutzer kann eine oder mehrere Benutzereinstellungen angeben, die anzeigen, ob vorher aufgenommene Audio-Daten verwendet werden sollten, ob Audio-Hinweise verwendet werden sollten, die unter Verwendung einer oder mehrerer Synthese-Technologien synthetisiert wurden, oder ob traditionelle Piepstöne oder andere Nicht-Sprach-Audio-Daten für die Audiobenutzerschnittstelle verwendet werden sollten. Demnach kann ein elektronisches Gerät, wie beispielsweise ein Medienspieler oder ein tragbares Mediengerät mit oder ohne einer Anzeige, mit einer Audiobenutzerschnittstelle verbessert werden, um Benutzerinteraktionen beruhend auf der Verfügbarkeit von Diensten oder anderen Auswahlkriterien zu ermöglichen.
- Zuerst werden die Aspekte der Umgebungen beschrieben, innerhalb derer verschiedene Beispiele und/oder Ausführungsformen der in der Beschreibung zu findenden Erfindungen betrieben werden.
-
1 ist ein Blockdiagramm eines Medienspielers100 , der Ausführungsformen der vorliegenden Erfindung enthalten kann. Im Allgemeinen speichern Medienspieler Inhalte und/oder Mediengüter, wie beispielsweise Audio-Tracks, Filme oder Fotos, die auf dem Medienspieler wiedergegeben oder angezeigt werden können. Ein Beispiel für einen Medienspieler100 kann der von Apple Inc. aus Cupertino, CA erhältliche IPod®-Medienspieler sein. Ein anderes Beispiel eines Medienspielers100 kann ein Personal Computer, wie beispielsweise ein Laptop oder Desktop sein. - In diesem Beispiel enthält der Medienspieler
100 einen Prozessor110 , eine Speichervorrichtung120 , eine Benutzerschnittstelle130 sowie eine Kommunikationsschnittstelle140 . Der Prozessor110 kann verschiedene mit dem Medienspieler100 assoziierte Funktionalitäten steuern. Der Medienspieler100 kann Audio-Inhalte ausgeben, sowie Video-Inhalte, Bild-Inhalte oder Ähnliches. Der Medienspieler100 kann auch Metadaten oder andere mit den Inhalten assoziierte Informationen ausgeben, wie beispielsweise Track-Informationen oder Albumdarstellungen. - Typischerweise kann ein Benutzer Inhalte unter Verwendung der Speichervorrichtung
120 auf den Medienspieler100 laden oder speichern. Die Speichervorrichtung120 kann Nur-Lese-Speicher (ROM), Speicher mit wahlfreiem Zugriff (RAM), nicht flüchtige Speicher, Flash-Speicher, Floppy Disk, Festplatten oder Ähnliches umfassen. Ein Benutzer kann mit der Benutzerschnittstelle130 des Medienspielers100 interagieren, um Inhalte zu betrachten oder zu konsumieren. Einige Beispiele für Benutzerschnittstellen130 können Tasten, Klickräder, Touch-Pads, Anzeigen, berührungsempfindliche Bildschirme und andere Eingabe/Ausgabevorrichtungen umfassen. - Der Medienspieler
100 kann einen oder mehrere Anschlüsse oder Ports enthalten, die verwendet werden können, um Inhalte zu laden, Inhalte abzurufen, mit auf dem Medienspieler100 ablaufenden Anwendungen zu interagieren, externe Geräte anzuschließen und Ähnliches. In diesem Beispiel enthält der Medienspieler100 eine Kommunikationsschnittstelle140 . Einige Beispiele für die Kommunikationsschnittstelle140 können Universal Serial Bus(USB)-Schnittstellen, IEEE 1394 (oder FireWire/iLink®)-Schnittstellen, Universal Asynchronous Receiver/Transmitters (UARTs), drahtgebundene und drahtlose Netzwerkschnittstellen, Transceiver und Ähnliches umfassen. Der Medienspieler100 kann mit Geräten, Zubehör, privaten und öffentlichen Kommunikationsnetzwerken (beispielsweise dem Internet) oder Ähnlichem unter Verwendung der Kommunikationsschnittstelle140 verbunden werden. - In einem Beispiel kann der Medienspieler
100 über einen drahtgebundenen und/oder drahtlosen Anschluss oder Port gekoppelt werden, um Audio- und/oder andere Information an Lautsprecher150 auszugeben. In einem anderen Beispiel kann der Medienspieler100 über einen drahtgebundenen und/oder drahtlosen Anschluss oder Port gekoppelt werden, um Audio- und/oder andere Informationen an Kopfhörer160 auszugeben. In noch einem weiteren Beispiel kann der Medienspieler100 über einen drahtgebundenen und/oder drahtlosen Anschluss oder Port gekoppelt werden, um mit einem Zubehör170 oder einem Host-Computer180 verbunden zu werden. Derselbe Anschluss oder Port kann verschiedene Verbindungen zu unterschiedlichen Zeiten ermöglichen. - Der Medienspieler
100 kann physikalisch in ein Docking-System190 eingeführt werden. Der Medienspieler100 kann über einen drahtgebundenen und/oder drahtlosen Anschluss oder Port gekoppelt werden, um mit einem Docking-System190 verbunden zu werden. Das Docking-System190 kann auch ermöglichen, dass ein oder mehrere Zubehör-Geräte195 drahtgebunden oder drahtlos gekoppelt werden, um mit dem Medienspieler100 verbunden zu werden. Viele verschiedene Typen und Funktionalitäten von Zubehör-Geräten170 und195 können an oder mit dem Medienspieler100 verbunden werden. Beispielsweise kann ein Zubehör-Gerät eine Fernbedienung ermöglichen, um den Medienspieler100 drahtlos zu steuern. Als ein anderes Beispiel können Automobile einen Anschluss enthalten, in den der Medienspieler100 eingeführt werden kann, so dass das Mediensystem des Autos mit dem Medienspieler100 interagieren kann und es so ermöglichen kann, dass auf dem Medienspieler100 gespeicherte Medieninhalte innerhalb des Autos wiedergegeben werden. - In verschiedenen Ausführungsformen kann der Medienspieler
100 Inhalte oder andere Mediengüter von einem Computer-System (beispielsweise Host-Computer160 ) empfangen. Das Computer-System kann dazu dienen, es einem Benutzer zu ermöglichen, Mediengüter zu verwalten, die auf dem Computer-System und/oder dem Medienspieler100 gespeichert sind. Als ein Beispiel kann es die Kommunikationsschnittstelle140 dem Medienspieler100 ermöglichen, mit dem Host-Computer160 verbunden zu werden. Der Host-Computer160 kann eine Medienverwaltungsanwendung ausführen, um Mediengüter zu verwalten, wie beispielsweise das Laden von Liedern, Filmen, Fotos oder Ähnlichem auf den Medienspieler100 . Die Medienverwaltungsanwendung kann auch Wiedergabelisten erzeugen, Inhalte aufnehmen oder löschen, Inhalte zur Wiedergabe oder zur Aufnahme terminieren oder Ähnliches. Ein Beispiel für eine Medienverwaltungsanwendung kann iTunes® sein, das von Apple, Inc. aus Cupertino, Kalifornien produziert wird. - In verschiedenen Ausführungsformen kann der Medienspieler
100 eine Audiobenutzerschnittstelle umfassen. Ausführungsformen der Audiobenutzerschnittstelle können Audio-Hinweise darstellen oder anderweitig ausgeben, die aus einem Audio-Dialog zur Wiedergabe ausgewählt wurden, wenn ein Benutzer mit dem Medienspieler100 interagiert (beispielsweise wenn der Benutzer eine Taste betätigt, einen berührungsempfindlichen Bildschirm betätigt, oder Elemente einer grafischen Benutzerschnittstelle auswählt). Die Audio-Hinweise können Audio-Indikatoren umfassen, die es einem Benutzer erlauben seine visuelle Aufmerksamkeit auf andere Aufgaben wie beispielsweise das Fahren eines Autos, sportliche Betätigung oder das Überqueren einer Straße zu fokussieren und dabei weiterhin in der Lage zu sein, mit der Benutzerschnittstelle130 zu interagieren. Beispielsweise können die Audio-Hinweise den gesprochenen Namen oder die Beschreibung einer gedrückten Hardware-Taste, die Sprachaktivierung einer virtuellen Taste oder Steuerung, oder die gesprochene Version einer Benutzerschnittstellenauswahl, wie beispielsweise eine ausgewählte Funktion oder ein ausgewählter (d. h. markierter) Menüeintrag eines Anzeigemenüs hörbar machen. Die Audio-Hinweise können vorher aufgenommene Sprachdaten enthalten oder durch Sprach- oder Spracherzeugungs-Technologien erzeugt werden. - In einem Aspekt können Ausführungsformen des Medienspielers
100 Technologien zur Bereitstellung einer Audiobenutzerschnittstelle an einem elektronischen Gerät umfassen, die effizient die Verfügbarkeit von Audio-Hinweisquellen für die Audiobenutzerschnittstelle ausnutzen. Beispielsweise kann der Medienspieler100 selektiv Audio-Hinweise aus verschiedenen Audio-Dialogen, beruhend darauf, ob eine Verbindung zu der Quelle eines Audio-Dialogs verfügbar ist, ob eine hochqualitative Quelle verfügbar ist oder Ähnlichem, ausgeben. In einem Beispiel kann ein Benutzer des Medienspielers100 Sprach-Audio-Hinweise niedriger Qualität hören oder Audio-Hinweise, die durch den Medienspieler100 synthetisiert wurden, bis eine Verbindung zum Internet besteht, wonach dann vorher aufgenommene Sprach Audio-Hinweise höherer Qualität heruntergeladen oder per Streaming an die Audiobenutzerschnittstelle übertragen werden können. Daher kann in verschiedenen Ausführungsformen der Medienspieler100 die Verfügbarkeit einer Quelle von Audio-Hinweisen für die Audiobenutzerschnittstelle feststellen und automatisch von einer Quelle zu einer anderen wechseln, um selektiv das beste verfügbare Audio-Feedback für den Benutzer zur Verfügung zu stellen. -
2 ist ein Blockdiagramm des Medienspielers200 , der vorher aufgenommene oder synthetisierte Audio-Hinweise in einer Ausführungsform gemäß der vorliegenden Erfindung zur Verfügung stellen kann. In diesem Beispiel kann der Medienspieler200 als ein Medienspieler100 ausgeführt sein und kann ein tragbares Computer-Gerät umfassen, das für die Verarbeitung von Inhalten oder anderen Mediengütern, wie beispielsweise Audio, Video oder Bildern bestimmt ist. Beispielsweise kann der Medienspieler200 ein Musikspieler (beispielsweise ein MP3-Spieler), eine Spielkonsole, ein Video-Spieler, ein Videorekorder, eine Kamera, ein Bildbetrachter, ein Mobiltelefon (beispielsweise zellulare Telefone), ein persönliches handgehaltenes Gerät und Ähnliches sein. Diese Geräte sind im Allgemeinen batteriebetrieben und leicht tragbar, um es einem Benutzer zu erlauben, Musik zu hören, Spiele zu spielen oder Video wiederzugeben, Video aufzunehmen oder zu fotografieren, wo immer der Benutzer unterwegs ist. - In einer Implementierung kann der Medienspieler
200 ein handgehaltenes Gerät umfassen, dessen Größe für das Plazieren in einer Tasche oder einer Hand des Benutzers gewählt ist. Dadurch, dass der Medienspieler200 handgehalten ist, kann er relativ klein sein und durch seinen Benutzer leicht gehandhabt und verwendet werden. Durch die Taschengröße muss der Benutzer den Medienspieler200 nicht unmittelbar tragen und daher kann das Gerät fast überall hin, wo der Benutzer unterwegs ist, mitgenommen werden (beispielsweise wird der Benutzer nicht durch das Mittragen eines großen, voluminösen und oft schweren Gerätes, wie beispielsweise eines tragbaren Computers, beschränkt). Des Weiteren kann der Medienspieler200 mittels der Hände des Benutzers betrieben werden, so dass keine Referenzoberfläche wie beispielsweise ein Desktop erforderlich ist. In alternativen Ausführungsformen kann der Medienspieler200 in Form von Computer-Vorrichtungen vorliegen, die nicht speziell auf die Wiedergabe von Medien-Dateien beschränkt sind. Beispielsweise kann der Medienspieler200 auch ein Mobiltelefon oder ein persönlicher digitaler Assistent sein. - In diesem Beispiel kann der Medienspieler
200 ein Benutzerschnittstellensteuerungsmodul210 , eine Audio-Hinweis-Datenbank220 sowie eine Text-zu-Sprache-Funktionseinheit230 umfassen. Das Benutzerschnittstellensteuerungsmodul210 kann Hardware und/oder Software-Elemente zur Verwaltung einer Benutzerschnittstelle umfassen, die es einem Benutzer erlaubt, mit dem Medienspieler200 zu interagieren (beispielsweise zu navigieren, die Wiedergabe von Inhalten auszulösen, usw.). Die Benutzerschnittstelle kann es beispielsweise dem Benutzer des Medienspielers200 erlauben, Inhalte oder andere Mediengüter, die sich auf dem Medienspieler200 befinden oder für diesen anderweitig zugreifbar sind, zu browsen, zu sortieren, zu durchsuchen, wiederzugeben usw.. Die Benutzerschnittstelle kann es dem Benutzer des Medienspielers200 auch erlauben, Medienelemente auf den Medienspieler200 herunterzuladen (hinzuzufügen) oder von dort zu löschen (zu entfernen). - Die Interaktion mit der Benutzerschnittstelle des Medienspielers
200 kann die Wiedergabe von Audio-Hinweisen für eine Audiobenutzerschnittstelle, beispielsweise durch Ohrhörer oder Lautsprecher, bewirken. Die Audio-Hinweis-Datenbank220 kann Hardware- und/oder Software-Elemente zur Speicherung von Audio-Daten und Audio-Dateien für Audio-Hinweise enthalten. In einigen Ausführungsformen können die Audio-Dateien Audio-Hinweise umfassen, die vorher aufgenommen wurden und auf dem Medienspieler200 gespeichert wurden. In anderen Ausführungsformen können die Audio-Dateien Audio-Hinweise enthalten, die von einem oder mehreren Computern per Streaming übertragen und in der Audio-Hinweis-Datenbank220 zur nachfolgenden Verwendung zwischengespeichert wurden. In verschiedenen Ausführungsformen können die Audio-Dateien Audio-Hinweise enthalten, die durch den Medienspieler200 oder durch eine andere Vorrichtung unter Verwendung einer oder mehrerer Sprachsynthesetechnologien erzeugt wurden. Die Audio-Hinweis-Datenbank220 kann andere Inhalte oder Mediengüter enthalten. - Die Text-zu-Sprache-Umwandlungsfunktionseinheit
230 kann Hardware- und/oder Software-Elemente zur Umwandlung von Daten, wie beispielsweise Text, in Audio-Dateien oder Audio-Daten umfassen, die wiedergegeben werden können, um einen Benutzerschnittstellen-Audio-Hinweis zu erzeugen, der Daten wie beispielsweise einen Text-String hörbar macht (beispielsweise Verbalisierung in menschenähnlicher Sprache oder in gesprochener Form). Solche Text-zu-Sprache(TTS)-Funktionseinheiten können verschiedene Technologien zur Erzeugung der Audio-Daten oder Audio-Dateien verwenden. Beispielsweise verwenden einige Algorithmen eine Technologie, bei der ein Wort in Fragmente oder Silben zerlegt wird, denen dann ein bestimmter Klang zugeordnet wird. Dann kann ein Wort durch Kombination individueller Klänge verbalisiert werden. In dem Fall, bei dem sich die Medieninhalte auf Musik beziehen, können diese Text-Strings beispielsweise zu Liedtiteln, Albumnamen, den Namen von Künstlern, Kontaktnamen, Adressen, Telefonnummern und den Namen von Wiedergabelisten korrespondieren. - In einer beispielhaften Betriebsart kann der Medienspieler
200 selektiv Audio-Hinweise für eine Audio-Benutzerschnittstelle beruhend auf der Verfügbarkeit von Audio-Hinweisen für die Audio-Hinweis-Datenbank220 und die TTS-Funktionseinheit230 bereitstellen. Beispielsweise kann der Medienspieler200 selektiv Audio-Hinweise aus der Audio-Hinweis-Datenbank220 ausgeben, wenn vorher aufgenommene Audio-Hinweise verfügbar oder anderweitig in der Audio-Hinweis-Datenbank220 gespeichert sind. Der Medienspieler200 kann des Weiteren selektiv zwischen Audio-Hinweisen verschiedener Qualität auswählen, wie beispielsweise dem Wiedergeben von Audio-Hinweisen einer höheren Qualität oder Bitrate als diejenige einer niedrigeren Qualität oder Bitrate. In einem anderen Beispiel kann der Medienspieler100 Sprachhinweise oder Audio-Hinweise wiedergeben, die durch die TTS-Funktionseinheit230 synthetisiert wurden, da keine in der Audio-Hinweis-Datenbank220 gespeicherte, vorher aufgenommene Audio-Hinweise verfügbar sind, oder gemäß einer Benutzereinstellung für ein bestimmtes simuliertes Sprachprofil. In verschiedenen Ausführungsformen kann der Medienspieler100 dynamisch Audio-Hinweise aus der Audio-Hinweis-Datenbank220 oder der TTS-Funktionseinheit230 oder einer Kombination aus beiden ausgeben. - In weiteren Ausführungsformen kann ein elektronisches Gerät, wie beispielsweise ein Medienspieler oder ein tragbares Mediengerät, eine Audiobenutzerschnittstelle umfassen, die durch ein Audiobenutzerschnittstellen-Verwaltungssystem zur Verfügung gestellt wird. Ein Audiobenutzerschnittstellen-Verwaltungssystem kann eine Medienwiedergabevorrichtung sowie einen Host-Computer, ein Server-Computer-System oder beides umfassen, die die Audiobenutzerschnittstelle auf dem Medienwiedergabegerät ermöglichen. Beispielsweise kann das Host-Computer-System einen Personal-Computer umfassen und das Medienwiedergabegerät kann einen MP3-Spieler umfassen. In einigen Ausführungsformen kann das Medienwiedergabegerät eine multimodale Interaktion mit der Benutzerschnittstelle bereitstellen. Beispielsweise kann ein Benutzer mit der Benutzerschnittstelle über Audio-Hinweise und visuelle Hinweise interagieren.
-
3 ist ein Blockdiagramm eines Audiobenutzerschnittstellen-Verwaltungssystems300 , das vorher aufgenommene oder synthetisierte Audio-Hinweise in einer Ausführungsform gemäß der vorliegenden Erfindung zur Verfügung stellt. In diesem Beispiel kann das Verwaltungssystem300 einen Medienspieler310 sowie einen Personal-Computer (Rost-Computer)340 umfassen. Der Medienspieler310 kann als Medienspieler100 , wie oben erläutert, ausgeführt sein und kann mit einem Personal-Computer340 verbunden oder an diesen gekoppelt sein. - Der Medienspieler
310 kann als der Medienspieler100 gemäß1 ausgeführt sein und kann beispielsweise ein tragbares, batteriebetriebenes Gerät umfassen. In einer Ausführungsform enthält der Medienspieler310 einen MP3-Spieler. Typischerweise kann der Medienspieler310 Inhalte oder andere Mediengüter auf einer oder verschiedenen Datenspeichervorrichtungen (beispielsweise auf Plattenlaufwerken) abspeichern. Der Medienspieler310 kann Inhalte oder andere Mediengüter in Mediendateien abspeichern. - Der Medienspieler
310 kann ein Benutzerschnittstellensteuerungsmodul320 sowie eine Audio-Hinweis-Datenbank330 umfassen. Das Benutzerschnittstellensteuerungsmodul320 kann Hardware- und/oder Software-Elemente zur Verwaltung einer Benutzerschnittstelle umfassen, die es einem Benutzer erlaubt, mit dem Medienspieler310 zu interagieren (beispielsweise zu navigieren, die Wiedergabe von Inhalten auszulösen, usw.). Die Interaktion mit der Benutzerschnittstelle des Medienspielers310 kann bewirken, dass Audio-Hinweise für eine Audiobenutzerschnittstelle wiedergegeben werden, wie beispielsweise durch Ohrhörer oder Lautsprecher. Die Audio-Hinweis-Datenbank330 kann Hardware- und/oder Software-Elemente zur Speicherung von Audio-Daten und Audio-Dateien für Audio-Hinweise umfassen. - Der Personal-Computer
340 kann eine Medienverwaltung350 , eine Audio-Hinweis-Datenbank360 sowie eine Text-zu-Sprache-(TTS)-Funktionseinheit370 umfassen. Der Personal-Computer340 kann als ein Host-Computer-System für den Medienspieler310 dienen. Der Personal-Computer340 kann auch ein beliebiger Computer-Typ sein, der als ein Server für den Medienspieler310 agiert, welcher der Client ist. - Die Medienverwaltung
350 kann Hardware- und/oder Software-Elemente enthalten, die es einem Benutzer des Personal-Computers350 ermöglichen, unmittelbar Inhalte oder andere auf dem Personal-Computer340 gespeicherte Mediengüter zu verwalten. Die Medienverwaltung350 kann des Weiteren konfiguriert sein, um unmittelbar oder mittelbar Inhalte oder andere auf dem Medienspieler310 gespeicherte Mediengüter zu verwalten. In einem Beispiel können der Medienspieler310 und der Personal-Computer340 unter Verwendung eines Peripheriekabels gekoppelt sein. Typischerweise kann ein Peripheriekabel Daten-Ports miteinander koppeln, die auf dem Medienspieler310 und auf dem Personal-Computer340 vorliegen. In einigen Ausführungsformen können die Daten-Ports FIREWIRE-Ports sein, und das Peripheriekabel kann ein FIREWIRE-Kabel sein. In einem anderen Beispiel können die Daten-Ports Universal Serial Bus(USB)-Ports und das Peripheriekabel ein USB-Kabel sein. Allgemeiner kann das Peripheriekabel als ein Daten-Link agieren. Medienelemente können zwischen dem Medienspieler310 und dem Personal-Computer340 über das Peripheriekabel übertragen werden und umgekehrt. - In verschiedenen Ausführungsformen kann die Medienverwaltung
350 auch eine Benutzerschnittstelle umfassen, die es einem Benutzer erlaubt, den Inhalt oder andere Mediengüter, die auf dem Personal-Computer340 abgelegt sind, zu browsen, zu sortieren, zu durchsuchen, wiederzugeben, daraus Wiedergabelisten zu bilden, Compact Discs (CDs) davon zu brennen usw. Die Benutzerschnittstelle kann es dem Benutzer des Personal-Computers auch ermöglichen, Medienelemente vom Personal-Computer340 herunterzuladen (hinzuzufügen) oder zu löschen (zu entfernen). In einer Ausführungsform werden die Medienverwaltung350 und ihre assoziierte Benutzerschnittstelle durch iTunesTM von Apple Inc. aus Cupertino, Kalifornien zur Verfügung gestellt. - Die Audio-Hinweis-Datenbank
360 des Personal-Computers340 kann Hardware- und/oder Software-Elemente zur Speicherung von Audio-Daten oder Audio-Dateien für Audio-Hinweise für eine mit dem Medienspieler310 oder dem Personal-Computer340 assoziierte Benutzerschnittstelle enthalten. Die Audio-Hinweis-Datenbank330 kann Audio-Hinweise für Audio-Dialoge enthalten, die aus dem Internet heruntergeladen, von einer CD entnommen, durch den Benutzer aufgenommen oder durch die TTS-Funktionseinheit370 erzeugt wurden. Die TTS-Funktionseinheit370 kann Hardware- und/oder Software-Elemente zur Umwandlung von Informationen oder Daten in Audio-Dateien oder Sprachdaten enthalten, die als Audio-Hinweise wiedergegeben werden können, die die Information hörbar machen. - In einem Beispiel kann eine Synchronisierungsoperation zwischen dem Personal-Computer
340 und dem Medienspieler310 auftreten, um Audio-Hinweise in die Audio-Hinweis-Datenbank des Medienspielers310 zu laden oder darin gespeicherte Audio-Hinweise zu aktualisieren, jeweils mit in der Audio-Datenbank360 gespeicherten Audio-Hinweisen oder solchen durch die TTS-Funktionseinheit370 erzeugten. In einem Beispiel kann ein bestimmter Audio-Hinweis an den Medienspieler310 übertragen (heruntergeladen) werden, beispielsweise unter Verwendung einer drahtlosen Verbindung oder über ein Peripheriekabel, wenn der Vergleich der Inhalte der entsprechenden Datenbanken anzeigt, dass der bestimmte Audio-Hinweis auf dem Personal-Computer340 vorliegt und dieser sich nicht auf dem Medienspieler330 befindet. Demnach kann eine Synchronisationsoperation zwischen dem Personal-Computer340 und dem Medienspieler310 sicherstellen, dass der Medienspieler310 Audiodaten oder Audio-Dateien enthält, die für die Darstellung einer verwendbaren Audiobenutzerschnittstelle angemessen sind. - Die Anzahl der auf den Medienspieler
310 herunter zu ladenden Dateien kann von den Benutzereinstellungen für die Audiobenutzerschnittstelle abhängen. Beispielsweise kann es der Fall sein, dass ein Benutzer wünscht, dass die Audio-Dateien oder anderen Audio-Daten, die in der Audio-Hinweis-Datenbank360 gespeichert sind, heruntergeladen werden, um mit allen oder einer Untermenge der Optionen oder Merkmale der Audiobenutzerschnittstelle und dem Medienspieler310 assoziiert zu werden. -
4 ist ein Blockdiagramm eines Streaming-Audio-Hinweis-Systems400 in einer Ausführungsform gemäß der vorliegenden Erfindung. In diesem Beispiel ist ein Medienspieler410 mit einem Kommunikationsnetzwerk420 verbunden. Der Medienspieler410 kann als der Medienspieler200 aus2 oder als der Medienspieler310 aus3 implementiert sein. Ein Sprach-Server430 ist auch mit dem Kommunikationsnetzwerk420 verbunden und ist in der Lage, mit dem Medienspieler410 zu kommunizieren. - In verschiedenen Ausführungsformen kann der Medienspieler
410 feststellen, dass eine Verbindung zu dem Sprach-Server430 über das Kommunikationsnetzwerk420 besteht. In einem Betriebsbeispiel kann der Medienspieler410 wählen, Audio-Hinweise von dem Sprach-Server430 zur Darstellung mit einer Audiobenutzerschnittstelle des Medienspielers410 zu empfangen. Der Medienspieler410 kann eine oder mehrere Anfragen für einen Audio-Hinweis erzeugen, und nach dem Empfang einer Anfrage kann der Sprach-Server430 einen korrespondierenden Audio-Hinweis zur Ausgabe an einen Benutzer an den Medienspieler410 per Streaming übertragen. - Der Sprach-Server
430 kann eine Audio-Hinweis-Datenbank440 und eine TTS-Funktionseinheit450 aufweisen. Die Audio-Hinweis-Datenbank440 des Sprach-Servers430 kann Hardware- und/oder Software-Elemente zur Speicherung von Audio-Daten oder Audio-Dateien für Audio-Hinweise für eine Audiobenutzerschnittstelle enthalten, die mit dem Medienspieler410 assoziiert ist. Die Audio-Hinweis-Datenbank330 kann Audio-Hinweise für Audio-Dialoge enthalten, die vorher durch einen oder mehrere Inhalteproduzenten aufgenommen wurden, durch Veröffentlichung von Inhalt bereitgestellt wurden oder durch die TTS-Funktionseinheit450 erzeugt wurden. Die TTS-Funktionseinheit370 kann Hardware- und/oder Software-Elemente zur Umwandlung von Informationen oder Daten in Audio-Dateien oder Sprachdaten enthalten, die als die Information hörbar machende Audio-Hinweise wiedergegeben werden. - Demnach kann der Medienspieler
410 selektiv zwischen den Quellen für Audio-Hinweise für eine Audiobenutzerschnittstelle auswählen, um dem Benutzer eine Audio-Sprachrückmeldung zu geben. Der Medienspieler410 kann Audio-Hinweise (beispielsweise vorher aufgenommene oder synthetisierte) von dem Sprach-Server430 empfangen, bis eine Verbindung entfällt. Zu diesem Zeitpunkt kann der Medienspieler410 automatisch Audio-Hinweise aus einer anderen Quelle wählen, wie beispielsweise einer internen Audio-Hinweis-Datenbank oder von dem Sprach-Synthese-Modul. -
5 illustriert eine diagrammartige Ansicht des Medienspielers500 und seine assoziierten Benutzereingabesteuerungen in einer der Ausführungsformen gemäß der vorliegenden Erfindung. Der Medienspieler500 kann ein beliebiges Computer-Gerät zur Wiedergabe von Mediendateien, wie beispielsweise Lieddateien, umfassen. Der Medienspieler500 kann einen Speicher umfassen, der eine Mediendatenbank speichert sowie ein Wiedergabemodul zur Darstellung oder Wiedergabe von Inhalten der anderen in der Mediendatenbank gespeicherten Mediengüter. Ein Satz von verschachtelten Menüs505 kann zumindest einen Teil einer Benutzerschnittstelle darstellen, die es einem Benutzer ermöglicht, durch gewünschte Lieddateien zu navigieren, diese auszuwählen und so anzuhören. Es kann möglich sein, eine bestimmte Mediendatei über verschiedene Pfade unter Verwendung des Satzes verschachtelter Menüs505 zu erreichen. Die Benutzerschnittstelle kann es Benutzern auch ermöglichen, eine gewünschte, durch den Medienspieler500 bereitgestellte Funktion zu navigieren und diese auszuwählen. -
5 illustriert auch repräsentative Benutzerschnittstellensteuerungen510 des Medienspielers500 . Gemäß einer Ausführungsform umfassen die Benutzerschnittstellensteuerungen510 die Menütaste515 , eine Nächster-Taste520 , eine Wiedergabe/Pause-Taste525 sowie eine Letzter-Taste530 . Die Benutzerschnittstellensteuerung510 kann ein Scroll-Rad umfassen, das als ein Drehradapparat implementiert ist, der sich drehen kann, oder als Touch-Pad-Apparat, der eine Dreh-Benutzergeste versteht. Ein Benutzer kann mit den Benutzerschnittstellensteuerungen510 durch Drücken, Reiben oder anderweitig interagieren, um durch die verschachtelten Menüs505 zu navigieren. -
6 illustriert eine diagrammartige Ansicht eines Medienspielers600 und seine assoziierten Benutzereingabesteuerungen in einer alternativen Ausführungsformen gemäß der vorliegenden Erfindung. Der Medienspieler600 kann eine Letzer-Taste610 , eine Wiedergabe/Pause-Taste620 sowie eine Nächster-Taste630 enthalten. LEDs640 und650 können verwendet werden, um dem Benutzer Informationen wie z. B. zur Anzeige des Ladestatus oder des Medienwiedergabestatus anzuzeigen. In diesem Beispiel kann der Medienspieler600 keine als grafische Benutzerschnittstelle konfigurierte Anzeige, wie beispielsweise die verschachtelten Menüs505 aus5 , enthalten. Demnach kann eine Benutzerschnittstelle, die Informationen über den Betrieb des Medienspielers600 übermittelt, die Benutzererfahrung dramatisch verbessern. -
7 ist ein vereinfachtes Flussdiagramm eines Verfahrens zur Bereitstellung einer Audiobenutzerschnittstelle an einen Benutzer eines elektronischen Gerätes in einer Ausführungsform gemäß der vorliegenden Erfindung. Das Durchführen des Verfahrens700 gemäß7 kann durch eine Software (beispielsweise Anweisungen oder Code-Module) ausgeführt werden, wenn diese durch eine zentrale Prozessoreinheit (CPU oder Prozessor) einer Logikmaschine, beispielsweise eines Computer-Systems oder einer Informationsverarbeitungsvorrichtung, durch Hardware-Komponenten einer elektronischen Vorrichtung, durch anwendungsspezifische integrierte Schaltungen, oder durch Kombinationen aus Software- und Hardware-Elementen ausgeführt wird.7 beginnt bei Schritt710 . - In Schritt
720 wird Information empfangen, die eine Interaktion eines Benutzers mit einer Benutzerschnittstelle anzeigt. Die Information kann Signale, Nachrichten, Interrupts, Eingaben oder Ähnliches enthalten. Die Information kann spezifizieren, dass ein Benutzer eine Taste gedrückt oder losgelassen hat, ein Klick-Rad angeklickt hat, einen Berührungsbildschirm berührt hat, eine Geste ausgeführt hat, ein Element einer grafischen Benutzerschnittstelle markiert oder ausgewählt hat oder Ähnliches. Die Information kann eine einzelne Aktion eines Benutzers oder eine Kombination von Aktionen repräsentieren. - In Schritt
730 wird ein zu der Interaktion des Benutzers korrespondierender Audio-Hinweis identifiziert. Der Audio-Hinweis kann Informationen enthalten, die Audio-Daten identifizieren, welche durch Vokalisierung, Hörbarmachen oder anderweitig dem Benutzer Feedback zu einer registrierten Interaktion geben. In Schritt740 wird ein Typ oder eine Kategorie von Audiodaten für den Audio-Hinweis bestimmt. In verschiedenen Ausführungsformen kann der Audio Hinweis durch verschiedene Typen oder Kategorien von Audio-Daten dargestellt werden. Ein Typ oder eine Kategorie von Audio-Daten kann beispielsweise Audio-Daten von verschiedenen hörbaren Qualitäten, Sprache gegenüber Nicht-Sprache, Bitrate, Kompression, Codierung, Quelle, Bereitstellungsmechanismus oder Ähnliches umfassen. Beispielsweise können synthetisierte Audio-Daten verwendet werden, die durch ein Sprachsynthesemodul erzeugt werden, um Audio-Hinweise für Zahlen, Daten oder Ähnliches bereitzustellen. In einem anderen Beispiel können vorher aufgenommene Audio-Daten, die komprimiert wurden, verwendet werden, um Audio-Hinweise für Tasten-Interaktionen wie beispielsweise Wiedergabe, Pause, Nächster, Letzter, Vorlauf, Rücklauf usw. bereitzustellen. In noch einem weiteren Beispiel können vorher aufgenommene Audio-Daten in CD-Qualität verwendet werden, um einen ganzen Satz von Audio-Hinweisen für Zahlen, Daten, Tastenbetätigungen, Menüauswahlen und jegliche andere Interaktion des Benutzers, die in einer gegebenen Audiobenutzerschnittselle enthalten sein können, bereitzustellen. - In Schritt
750 wird die Verfügbarkeit des bestimmten Typs oder der bestimmten Kategorie von Audio-Daten für den Audio-Hinweis festgestellt. Beispielsweise kann eine Auswahl getroffen werden, um einen vorher aufgenommene Audio-Dialog (beispielsweise einen Satz vorher aufgenommener Audio-Dateien) für die Audio-Hinweise einer Audiobenutzerschnittstelle zu verwenden. Ein elektronisches Gerät kann seinen internen Speicher prüfen, um festzustellen, ob eine Audio-Datei für den Audio-Hinweis existiert Alternativ kann das elektronische Gerät die Audio-Datei für den Audio-Hinweis von einem Host-Computer oder einem Streaming-Sprach-Server anfordern. In einem anderen Beispiel kann die Auswahl getroffen werden, vorher aufgenommene Audio-Daten für einige Audio-Hinweise zu verwenden und synthetisierte Audio-Daten für andere Audio-Hinweise, falls vorher aufgenommene Audio-Hinweise nicht lokal auf dem elektronischen Gerät gespeichert sind. - In Schritt
760 wird ein Teil der Audio-Daten des bestimmten Typs oder der bestimmten Kategorie von einer verfügbaren Quelle ausgegeben. Demgemäß können verschiedene Ausführungsformen eine dynamische Auswahl verschiedener Typen oder Kategorien von Audio-Daten für Audio-Hinweise einer Audiobenutzerschnittstelle bereitstellen. Zusätzlich können einige Ausführungsformen Mechanismen bereitstellen, um die ausgewählten oder identifizierten Typen oder Kategorien von Audio-Daten zu einem elektronischen Gerät zur Verwendung als Teil einer Audiobenutzerschnittstelle zu bringen.7 endet bei Schritt770 . - Die
8A und8B stellen ein Flussdiagramm eines Verfahrens800 zur Bereitstellung eines elektronischen Gerätes mit einer Audiobenutzerschnittstelle in einer Ausführungsform gemäß der vorliegenden Erfindung dar. Das Verfahren800 hat allgemein einen intelligenten Entscheidungsweg zum Gegenstand, der bestimmt, ob ein angemessener Audio-Dialog für eine Audiobenutzerschnittstelle verfügbar ist, und der den besten verfügbaren Audio-Dialog zur Ausgabe an einen Benutzer abruft.8A beginnt bei Schritt805 . - In Schritt
810 wird eine die Betätigung einer Taste anzeigende Eingabe empfangen. Beispielsweise kann ein Benutzer mit den Benutzerschnittstellensteuerungen510 des Medienspielers500 aus5 interagieren. Der Medienspieler500 kann ein oder mehrere analoge oder digitale Signale erzeugen, die die Betätigung einer Taste, eine Berührung, ein Drücken, eine Geste oder Ähnliches repräsentieren. - In Schritt
815 wird eine Feststellung getroffen, ob ein Audio-Hinweis für die Tastenbetätigung präsentiert werden soll. In einigen Ausführungsformen werden Steuerungsauswahlen durch einen Hinweis begleitet, einen Audio-Hinweis auszugeben, der die Auswahl gegenüber dem Benutzer bestätigt. Beispielsweise kann „Wiedergabe” für den Benutzer hörbar gemacht werden, um eine Rückmeldung zu geben, dass die Wiedergabe-/Pause-Taste525 tatsächlich gedrückt wurde. Diese Ausführungsformen können eine wiederholte Benutzeraktion beinhalten, um eine Benutzerschnittstellensteuerungsauswahl zu treffen. Beispielsweise würde ein Benutzer mehrfache „Klicks” bezüglich einer Benutzerschnittstellensteuerung machen, um die Auswahl zu treffen. Ein erster „Klick” kann den Medienspieler500 veranlassen, festzustellen, dass die ausgewählte Benutzerschnittstellensteuerung hörbar gemacht wird. Beispielsweise kann „Wiedergabe” hörbar gemacht werden, wenn ein Benutzer die Wiedergabe-Taste drückt. Dieser erste Audio-Hinweis kann eine Audio-Führung dafür liefern, welche Taste gedrückt wurde, was für einen Benutzer dann hilfreich ist, wenn er seine visuelle Aufmerksamkeit nicht auf das handgehaltene Gerät richtet. - Ein nachfolgender „Klick” kann dann den Medienspieler
500 veranlassen, die zu der Benutzerschnittstellensteuerung korrespondierende Aktion auszuführen. Beispielsweise kann das Drücken der Wiedergabe-Taste zum zweiten Mal die Wiedergabe einer Mediendatei bewirken. Andererseits kann es sein, dass der Audio-Hinweis den Benutzer darüber informiert hat, dass er dabei ist, eine ungewollte Auswahl zu treffen. Daher kann der Benutzer versuchen, eine andere Benutzerschnittstellensteuerung auszuwählen. Beispielsweise kann der Benutzer dann versuchen, die „Nächster”-Taste520 zu drücken, anstatt damit fortzufahren, die Wiedergabe-Taste525 ein zweites Mal zu drücken. - Wenn in Schritt
815 die Feststellung getroffen wurde, dass ein Audio-Hinweis für die Tastenbetätigung zu präsentieren ist, folgt der Prozessablauf einem intelligenten Entscheidungsweg, der feststellt, ob ein angemessener Dialog für den Audio-Hinweis verfügbar ist und wie der angemessene Audio-Dialog auf ein elektronisches Gerät zu bringen ist. Der intelligente Entscheidungsweg kann beispielsweise die Entdeckung oder Identifikation von Typen oder Kategorien von Audio-Daten umfassen, und ob die Audio-Daten verfügbar sind. - In Schritt
820 wird eine Feststellung getroffen, ob Quellen hoher Qualität verfügbar sind. Eine Quelle hoher Qualität kann digitale Auto-Dateien oder bei einer gegebenen Bitrate oberhalb einer vorbestimmten oder erkannten Frequenz abgetastete Audio-Daten umfassen, deren Größe in Bezug auf eine Quelle niedrigerer Qualität eine vorbestimmte Schwelle oder Grenze oder Ähnliches übertrifft. Die Feststellung kann darauf basierend getroffen werden, ob eine drahtlose oder drahtgebundene Verbindung zu einem Kommunikationsnetzwerk existiert, über das die Quelle hoher Qualität zugänglich ist. In einer Ausführungsform kann die Feststellung beruhend auf Auswahlkriterien für Benutzereinstellungen getroffen werden. Beispielsweise kann in einer Betriebsart ein Benutzer wünschen, für jede Aktion einen Audio-Hinweis zu hören sowie für jeden durch den Benutzer ausgewählten Menüeintrag. In einem anderen Betriebszustand kann ein Benutzer Audio-Hinweise für Steuerungsauswahlen (beispielsweise die „Wiedergabe”-Taste) deaktivieren und nur Audio-Hinweise für die markierten Menüeinträge hören. In einem anderen Betriebszustand können Audio-Hinweise nur für Menüeinträge der höchsten Menüebene ausgegeben werden. - Wenn im Schritt
825 die Feststellung getroffen wird, dass eine Quelle hoher Qualität verfügbar ist, dann wird der Audio-Hinweis von der zu der Tastenbetätigung korrespondierenden Quelle hoher Qualität abgerufen. Ein Beispiel für eine Quelle hoher Qualität kann verlustlose oder in CD-Qualität vorliegende, vorher aufgenommene Audio-Daten oder Audio-Dateien umfassen. Die vorher aufgenommenen Audio-Daten oder Audio-Dateien können professionell erstellte Aufnahmen von Prominenten-Stimmen, Comic-Figuren oder Zitaten aus Fernsehshows oder Spielfilmen enthalten. - Wenn in Schritt
830 alternativ die Feststellung getroffen wird, dass keine Quelle hoher Qualität verfügbar ist, dann wird die Feststellung getroffen, ob eine Quelle niedriger Qualität verfügbar ist. Wenn in Schritt835 die Feststellung getroffen wird, dass eine Quelle niedriger Qualität verfügbar ist, dann wird der Audio-Hinweis von der zu der Tastenbetätigung korrespondierenden Quelle niedriger Qualität abgerufen. Ein Beispiel für eine Quelle niedriger Qualität kann vorher aufgenommene Audio-Daten oder Audio-Dateien umfassen, die unter Verwendung einer oder mehrerer Kompressions- oder Codierungstechnologien, wie beispielsweise MP3, WMA, OGG oder Ähnlichem komprimiert wurden. Die vorher aufgenommenen Audio-Daten oder Audio-Dateien können generische Aufnahmen menschlicher Stimmen oder gespeicherte Audio-Daten oder Audio-Dateien umfassen, die unter Verwendung einer oder mehrerer Sprach- oder Text-zu-Sprache-Synthesetechnologien erzeugt wurden. - Nun wird auf
8B Bezug genommen, wo, wenn in Schritt840 die alternative Feststellung getroffen wird, dass keine Quelle niedriger Qualität verfügbar ist, die Feststellung getroffen wird, ob Text-zu-Sprache-(TTS) oder Sprachsynthese verfügbar sind. Wenn in Schritt845 die Feststellung getroffen wird, dass eine oder mehrere Synthesequellen verfügbar sind, so wird der Audio-Hinweis unter Verwendung von Sprachsynthese oder TTS-Synthese synthetisiert oder erzeugt. - Wenn in Schritt
850 keine Quelle für Audio-Hinweise für die Audiobenutzerschrittstelle bestimmt und ausgewählt werden kann, können einer oder mehrere Piepstöne oder andere generische zu der Tastenbetätigung korrespondierende Töne ausgegeben werden. Bevorzugt wird in Schritt855 der Audio-Hinweis ausgegeben, der zu der Tastenbetätigung korrespondiert, welche durch Auswahl von einer Quelle hoher Qualität in Schritt825 erhalten wurde, von einer Quelle niedriger Qualität in Schritt835 erhalten wurde, oder in Schritt845 synthetisiert wurde. In einigen Ausführungsformen können die Audio-Hinweise gemäß einer ausgewählten Audioschnittstellenbetriebsart wiedergegeben werden. Wenn ein Medienspieler oder ein tragbares Mediengerät keine Audio-Dateien wiedergibt, können nur die zu der Benutzerschnittstelle korrespondierenden Audio-Dateien wiedergegeben und für den Benutzer hörbar gemacht werden. - Wenn in verschiedenen Ausführungsformen eine Mediendatei wiedergegeben wird, kann die Audioschnittstellenbetriebsart eingestellt werden, um die Mediendatei und die Wiedergabe eines Audio-Hinweises auf verschiedene Art und Weise zu mischen. Gemäß einer Einstellung kann die Lautstärke für die Wiedergabe einer Mediendatei dynamisch reduziert werden, wenn ein Audio-Hinweis wiederzugeben ist. Beispielsweise kann die Lautstärke für die Wiedergabe eines Liedes oder eines Film-Clips während der Wiedergabe des Audio-Hinweises abgesenkt werden. Gemäß einer anderen Einstellung wird die Wiedergabe einer Mediendatei pausiert, während ein Audio-Hinweis wiedergegeben wird, und dann nachdem der Audio-Hinweis wiedergegeben wurde erneut gestartet. Wenn ein Benutzer innerhalb eines bestimmten Zeitraums mehrere Benutzersteuerungsauswahlen trifft, kann die Wiedergabe der Mediendatei für eine kurze Zeit pausiert werden, so dass die Wiedergabe der Mediendatei nicht mehrfach pausiert und erneut gestartet werden muss. Damit kann eine wiederholte Unterbrechung der Wiedergabe eines Liedes vermieden werden. Beispielsweise kann die Wiedergabe einer Mediendatei für fünf Sekunden pausiert werden, wenn ein Benutzer wenigstens drei Benutzersteuerungsauswahlen innerhalb von fünf Sekunden trifft. Die Zeiträume und die Anzahl von Benutzersteuerungsauswahlen können abhängig von den Benutzereinstellungen variieren. Einige Audioschnittstellenbetriebsarten können festlegen, dass die Audio-Hinweise durch einen linken, rechten oder beide Lautsprecher- oder Ohrhörer-Kanäle wiedergegeben werden.
- Demgemäß kann die Feststellung getroffen werden, ob ein angemessener Audio-Dialog verfügbar ist, wie beispielsweise entweder auf einem elektronischen Gerät oder einem mit dem Gerät verbundenen Host/Server-Computer, und ob der beste verfügbare Audio-Dialog zur Ausgabe an den Benutzer erhältlich ist.
8B endet bei Schritt860 . -
9 ist ein Flussdiagramm eines Verfahrens900 zum Streamen von Audio-Hinweisen für eine Audiobenutzerschnittstelle in einer Ausführungsform gemäß der vorliegenden Erfindung. Das Verfahren900 hat im Allgemeinen das Streamen von Audio-Hinweisen an ein Medienwiedergabegerät beruhend auf einer Verbindung mit einem Sprach-Server zum Gegenstand.9 beginnt bei Schritt910 . - In Schritt
920 detektiert ein Medienwiedergabegerät (beispielsweise der Medienspieler100 ) eine Breitbandverbindung. Beispielsweise kann sich das Medienwiedergabegerät erfolgreich mit einem drahtlosen Zugangspunkt assoziieren. In einem weiteren Beispiel kann das Medienwiedergabegerät eine drahtgebundene Verbindung mit dem Internet erkennen. - In Schritt
930 bestimmt das Medienwiedergabegerät, dass ein Sprach-Server verwendet wird, um Sprachdialoge für die Audiobenutzerschnittstelle zu erhalten. Beispielsweise kann ein durch das Medienwiedergabegerät ausgeführtes Software-Programm eine Kopplung mit einer oder mehreren auf dem Sprach-Server vorliegenden Anwendungen initiieren und abschließen. In einem anderen Beispiel kann das Medienwiedergabegerät periodisch den Sprach-Server anrufen, um festzustellen, ob eine Verbindung verfügbar ist. - In Schritt
940 erzeugt das Medienwiedergabegerät eine Anfrage für den Audio-Hinweis. Die Anfrage kann Information zur Identifikation des Audio-Hinweises, Information, die eine zu dem angefragten Audio-Hinweis korrespondierende Benutzerinteraktion identifiziert, oder Ähnliches umfassen. Die Anfrage kann einen oder mehrere Header, Flags, Felder, Prüfungen, Hashes oder Ähnliches umfassen. In einer Ausführungsform kann die Anfrage Hypertext-Transport-Protocol/HTTP)-Daten oder Real-Time-Transport-Protocol(RTP)-Daten umfassen. - In Schritt
950 überträgt der Sprach-Server den Audio-Hinweis per Streaming an das Medienwiedergabegerät. In Schritt960 gibt das Medienwiedergabegerät den per Streaming übertragenen Audio-Hinweis aus. Der Sprach-Server kann eines oder mehrere Streaming-Transport-Protokolle (beispielsweise in Echtzeit oder schneller als in Echtzeit) verwenden, so dass das Medienwiedergabegerät einen Teil des Audio-Hinweises vor seiner Wiedergabe puffert. - In anderen Ausführungsformen kann der Sprach-Server auf einer Einzelabrechnungs- oder Abbonnement-Basis zugänglich sein. Der Sprach-Server kann das Streamen von unkomprimierten und komprimierten (beispielsweise verlustlosen oder verlustbehafteten) Audio-Daten unterstützen. Der Sprach-Server kann des Weiteren die Kommunikation von Information unterstützen, die mit Inhalten oder anderen Mediengütern assoziiert ist mit welcher ein Benutzer interagieren (beispielsweise navigieren) kann, wie beispielsweise Titelinformation, Albuminformation, Künstlerinformation, Genre-Information, Metadaten oder Ähnliches.
9 endet bei Schritt970 . -
10 ist ein Flussdiagramm eines Verfahrens1000 zur Erzeugung von Audio-Hinweisen in einem Host-Computer-System unter Verwendung einer oder mehrerer Sprach- oder Text-zu-Sprach-Synthesetechnologien in einer Ausführungsform gemäß der vorliegenden Erfindung. Das Verfahren1000 hat allgemein das Synthetisieren von Audio-Hinweisen für eine Audiobenutzerschnittstelle und die Übertragung der synthetisierten Audio-Hinweise an ein Medienwiedergabegerät zum Gegenstand.10 beginnt bei Schritt1010 . - In Schritt
1020 detektiert ein Medienwiedergabegerät (beispielsweise der Medienspieler100 aus1 ) eine Verbindung zu einem Host-Computer. Beispielsweise kann das Medienwiedergabegerät detektieren, dass das Medienwiedergabegerät unter Verwendung eines Peripheriekabels an den Host-Computer gekoppelt ist. In einem anderen Beispiel kann das Medienwiedergabegerät die Nähe des Host-Computers detektieren und eine drahtlose Verbindung, beispielsweise unter Verwendung von WiFi- oder Bluetooth-Modulen, aufbauen. - In Schritt
1030 bestimmt das Medienwiedergabegerät, dass der Host-Computer verwendet wird, um Sprachdialoge für eine Audiobenutzerschnittstelle zu erhalten. Beispielsweise kann das Medienwiedergabegerät bestimmen, dass der Host-Computer verwendet wird, wenn ein interner Speicher des Medienwiedergabegeräts nicht genügend Platz aufweist, um zusätzlich zu Inhalten oder anderen Mediengütern Audio-Hinweise zu speichern. In einem anderen Beispiel kann das Medienwiedergabegerät bestimmen, dass der Host-Computer verwendet wird, wenn das Medienwiedergabegerät keine TTS-Funktionseinheit enthält. - In Schritt
1040 synthetisiert der Host-Computer einen Audio-Hinweis. Der Host-Computer kann eine oder mehrere Sprach-Synthese- oder Text-zu-Sprache-Synthesetechnologien verwenden, um den Audio-Hinweis zu erzeugen. Beispielsweise kann der Host-Computer ein mit dem Medienwiedergabegerät assoziiertes Profil bestimmen. Das Profil kann Textbeschreibungen von Ereignissen enthalten, die durch Tastenbetätigungen, Menüauswahlen oder andere Benutzerinteraktionen spezifisch für ein elektronisches Gerät registriert wurden. Der Host-Computer kann die Textbeschreibungen des Profils durch Erzeugen und Aufnehmen einer synthetisierten Sprachausgabe hörbar machen. Der Host-Computer kann einen einzelnen Audio-Hinweis für jede Textbeschreibung erzeugen. Der Host-Computer kann auch einen einzelnen Audio-Hinweis erzeugen, der Audio-Daten für jede Textbeschreibung enthält, zusätzlich zu Informationen, die Audio-Daten für eine gegebene Textbeschreibung innerhalb des einzelnen Audio-Hinweises anzeigen. - In Schritt
1050 überträgt der Host-Computer den Audio-Hinweis an das Medienwiedergabegerät. In einer Implementierung erzeugt der Host-Computer eine Mehrzahl von Audio-Hinweisen eines Audio-Dialogs für die Audiobenutzerschnittstelle. Der Host-Computer kann dann den gesamten Audio-Dialog an das Medienwiedergabegerät übertragen, beispielsweise bei der Verwaltung von Inhalten oder anderen Mediengütern auf dem Gerät. In einem anderen Beispiel kann der Host-Computer im Wesentlichen in Echtzeit den Audio-Hinweis an das Medienwiedergabegerät erzeugen und übertragen. In Schritt1060 gibt das Medienwiedergabegerät den Audio-Hinweis aus.10 endet bei Schritt1060 . -
11 ist ein Flussdiagramm eines Verfahrens1100 zur Erzeugung von Audio-Hinweisen unter Verwendung einer oder mehrerer Sprach- oder Text-zu-Sprache-Synthesetechnologien in einer alternativen Ausführungsform gemäß der vorliegenden Erfindung. Das Verfahren1100 hat allgemein die Erzeugung oder die Synthese von Textbeschreibungen von ein Ereignis darstellenden Audio-Daten zum Gegenstand.11 beginnt bei Schritt1110 . - In Schritt
1120 wird ein Ereignis identifiziert. Ein Ereignis kann jegliche mit einem elektronischen Gerät mögliche Benutzerinteraktion umfassen. Das Ereignis kann durch eine Tastenbetätigung, einen Klick, ein Scrollen, eine Berührung, eine Auswahl, eine Markierung oder Ähnliches durch den Benutzer repräsentiert werden. In Schritt1130 wird eine Textbeschreibung des identifizierten Ereignisses bestimmt. Die Textbeschreibung kann Wörter, Sätze usw. enthalten, die das Ereignis, ein Gerät, einen Benutzer, einen Teil von Inhalten oder Ähnliches beschreiben. Die Textbeschreibung kann durch einen Benutzer, einen Entwickler oder einen Dritten erzeugt werden. - In Schritt
1140 wird basierend auf der Textbeschreibung des Ereignisses Sprach-Audio synthetisiert oder anderweitig erzeugt. In einem Beispiel kann ein Computer-System Konfigurationseinstellungen für einen Text-zu-Sprache-Wandlungsprozess abfragen. Die Konfigurationseinstellungen können verschiedene Aspekte des Sprach-Synthese- oder des Text-zu-Sprache-Wandlungsprozesses steuern. Beispielsweise können die Konfigurationseinstellungen die bestimmten Text-Strings bestimmen, die in Audio-Dateien umzuwandeln sind, die Qualität der TTS-Wandlungen, das Geschlecht der Sprache die die Text-Strings verbalisiert, die Geschwindigkeit mit der ein Audio-Hinweis hörbar gemacht wird (beispielsweise kann eine Sprechgeschwindigkeit erhöht werden, wenn der Benutzer sich mehr und mehr an die Audio-Hinweise gewöhnt hat) und die Anpassung der Stimmen an verschiedene Unteraufgaben (beispielsweise können die Steuerungen und Funktionen mit einer Stimme hörbar gemacht werden, während Daten wie beispielsweise Lieder und Kontaktnamen mit einer anderen Stimme hörbar gemacht werden können). Des Weiteren kann eine Konfigurationseinstellung eine versierte Manipulation der Benutzerschnittstellensteuerungen handhaben, indem nur ein Teil eines Audio-Hinweises wiedergegeben wird, wenn ein Benutzer navigiert. Beispielsweise wird während des alphabetischen Browsens durch Kontaktnamen nur der Buchstabe/a, b, c ...) dargestellt, bis der Benutzer den Kontaktnamen erreicht, der mit dem gewünschten Buchstaben beginnt. Beispielsweise j wie in Jones. Demnach sollte dabei verstanden werden, dass die TTS-Konfigurationseinstellungen verschiedene Einstellungen aufweisen können, um zu einem Gerät, einer Konfiguration oder den Wünschen eines Benutzers zu korrespondieren. - Verschiedene Klang-Synthese-Regeln und Funktionseinheiten können verwendet werden, um die Audio-Datei zu erzeugen. Ein verallgemeinertes Verfahren zur Umwandlung eines Wortes in eine Audio-Datei kann wie folgt ablaufen. Das Verfahren zur Umwandlung des Wortes „browse beginnt damit, das Wort in Fragmente zu zerlegen, die Diphon-Einheiten oder -Silben repräsentieren, wie „b” „r” „ow” „s”. Dann erzeugen verschiedene Technologien Audio-Hinweise für jede Komponente, die dann kombiniert werden können, um ein sinnvolles Wort oder einen Satzteil zu bilden. Die Audio-Datei wird typischerweise mit einer Erweiterung versehen, die zu dem Typ der erzeugten Audio-Datei korrespondiert. Beispielsweise kann die Audio-Datei für „browse” durch einen browse.aiff-Dateinamen identifiziert werden, wobei die .aiff-Erweiterung eine Audio-Datei anzeigt.
- In Schritt
1150 wird der Sprach-Audio-Hinweis ausgegeben. Der Sprach-Audio-Hinweis kann als Reaktion auf Benutzerinteraktionen mit einem Medienwiedergabegerät mit einer Audiobenutzerschnittstelle ausgegeben werden. In einer Ausführungsform kann die Audiobenutzerschnittstelle Zeiger auf die korrespondierenden Audio-Hinweise oder Audio-Dateien enthalten. Beispielsweise kann eine Nachschlagetabelle verwendet werden, um die korrelierenden Zeiger und Audio-Hinweise zu verfolgen.11 endet bei Schritt1160 . -
12 ist ein vereinfachtes Blockdiagramm eines Computer-Systems1200 , das Ausführungsformen der vorliegenden Erfindung enthalten kann.12 ist lediglich eine Illustration einer Ausführungsform, die die vorliegende Erfindung enthält, und limitiert nicht den Umfang der Erfindung wie in den Ansprüchen angegeben. Der Fachmann würde andere Variationen, Modifikationen und Alternativen erkennen. - In einer Ausführungsform enthält das Computer-System
1200 einen oder mehrere Prozessoren1210 , Speicher mit wahlfreiem Zugriff (RAM)1220 , ein Plattenlaufwerk1230 , eine oder mehrere Eingabevorrichtungen1240 , eine oder mehrere Ausgabevorrichtungen1250 , eine Anzeige1260 , eine oder mehrere Kommunikationsschnittstellen1270 sowie einen System-Bus1280 , der die oben genannten Komponenten miteinander verbindet. Andere Komponenten wie beispielsweise Dateisysteme, Speicherplatten, Nur-Lese-Speicher (ROM), Cache-Speicher, Codecs und Ähnliches können vorhanden sein. - RAM
1220 und das Plattenlaufwerk1230 sind Beispiele für reale Medien, die dafür konfiguriert sind, um Daten wie beispielsweise Audio, Bilder und Film-Dateien, Betriebssystem-Code, Ausführungsformen der vorliegenden Erfindung einschließlich ausführbarer Computer-Codes, durch den Menschen lesbaren Code oder Ähnliches zu speichern. Andere Arten von realen Medien schließen Floppy-Disks, entfernbare Festplatten, optische Speichermedien wie beispielsweise CD-ROMs, DVDs und Bar-Codes und Halbleiterspeicher wie beispielsweise Flash-Speicher, Nur-Lese-Speicher (ROMs), batteriegestützte flüchtige Speicher, Netzwerkspeichervorrichtungen und Ähnliches ein. - In verschiedenen Ausführungsformen wird die Eingabevorrichtung
1240 typischerweise als eine Computer-Maus, ein Trackball, ein Trackpad, ein Joystick, eine drahtlose Fernbedienung, ein Zeichentablett, ein Sprachbefehlssystem, ein Augenverfolgungssystem, eine mehrfachberührungsfähige Schnittstelle, ein Scroll-Rad, ein Klick-Rad, ein Berührungsbildschirm, ein UKW/TV-Tuner, Audio/Video-Eingaben und Ähnliches ausgeführt. Die Eingabevorrichtung1240 kann es einem Benutzer ermöglichen, Objekte, Icons, Text und Ähnliches über einen Befehl wie beispielsweise einen Klick auf eine Taste oder Ähnliches auszuwählen. In verschiedenen Ausführungsformen ist die Ausgabevorrichtung1250 typischerweise als eine Anzeige, ein Drucker, ein Kraftrückmeldungsmechanismus, eine Audio-Ausgabe, eine Video-Komponenten-Ausgabe und Ähnliches ausgebildet. Die Anzeige1260 kann eine CRT-Anzeige, eine LCD-Anzeige, eine Plasma-Anzeige und Ähnliches umfassen. - Ausführungsformen der Kommunikationsschnittstelle
1270 können Computer-Schnittstellen wie beispielsweise eine Ethernet-Karte, ein Modem (Telefon, Satellite, Kabel, ISDN), eine (asynchrone) digitale Teilnehmerleitungseinheit (DSL), eine FireWire-Schnittstelle, eine USB-Schnittstelle und Ähnliches umfassen. Beispielsweise können diese Computer-Schnittstellen an ein Computernetzwerk1290 , an einen FireWire-Bus oder Ähnliches gekoppelt sein. In anderen Ausführungsformen können diese Computer-Schnittstellen physikalisch auf dem Motherboard oder der Systemplatine des Computer-Systems1200 integriert sein und können ein Software-Programm oder Ähnliches sein. - In verschiedenen Ausführungsformen kann das Computer-System
1200 auch Software enthalten, die die Kommunikation über ein Netzwerk ermöglicht, wie beispielsweise die HTTP, TCP/IP, RTP/RTSP-Protokolle und Ähnliches. In alternativen Ausführungsformen der vorliegenden Erfindung können andere Kommunikation-Software- und Übertragungs-Protokolle ebenso verwendet werden, z. B. IPX, UDP oder Ähnliches. - In verschiedenen Ausführungsformen kann das Computer-System
1200 auch ein Betriebssystem wie beispielsweise Microsoft Windows®, Linux®, Mac OS X®, Echtzeitbetriebssysteme (RTOS), Open-Source und proprietäre Betriebssysteme und Ähnliches umfassen. -
12 repräsentiert einen Medienspieler und/oder ein Computer-System, der bzw. das in der Lage ist, die vorliegende Erfindung zu implementieren. Es wird für den Fachmann schnell offensichtlich sein, dass viele andere Hardware- und Software-Konfigurationen zur Verwendung mit der vorliegenden Erfindung geeignet sind. Beispielsweise kann der Medienspieler eine Desktop-, tragbare, rahmenmontierte oder Tablett-Konfiguration sein. Zusätzlich kann der Medienspieler eine Serie von durch ein Netzwerk verbundenen Computern sein. Darüber hinaus kann der Medienspieler ein mobiles Gerät, ein eingebettetes Gerät, ein persönlicher Digitaler Assistent, ein Smartphone und Ähnliches sein. In noch weiteren Ausführungsformen können die oben beschriebenen Techniken auf einem Chip oder einer Hilfsprozessor-Platine implementiert sein. - Die vorliegende Erfindung kann in Form von Steuerungslogik in Software oder Hardware oder in einer Kombination aus beidem implementiert sein. Die Steuerungslogik kann in einem Informationsspeichermedium in Form einer Vielzahl von Anweisungen gespeichert sein, die angepasst sind, um ein Informations verarbeitungsgerät dahingehend zu steuern, einen Satz von in Ausführungsformen der vorliegenden Erfindung offenbarten Schritten auszuführen. Beruhend auf der hier vorliegenden Offenbarung und Lehre wird ein Fachmann andere Wege und/oder Verfahren zur Implementierung der vorliegenden Erfindung verstehen.
- Die vorliegend erläuterten Ausführungsformen illustrieren eines oder mehrere Beispiele der vorliegenden Erfindung. Da diese Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf Illustrationen beschrieben werden, können verschiedene Modifikationen oder Anpassungen der Verfahren und/oder spezifischen beschriebenen Strukturen für den Fachmann erkennbar werden. Alle solche Modifikationen, Anpassungen oder Variationen, die auf der Lehre der vorliegenden Erfindung beruhen und durch welche diese Lehre zum technischen Fortschritt beigetragen hat, werden als im Umfang der vorliegenden Erfindung liegend betrachtet. Daher sollten die vorliegenden Beschreibungen und Zeichnungen nicht in einem beschränkenden Sinne verstanden werden, da es sich versteht, dass die vorliegende Erfindung in keiner Weise nur auf die illustrierten Ausführungsformen limitiert ist.
- Die vorangegangene Beschreibung ist illustrativ, aber nicht beschränkend. Viele Variationen der Erfindung werden bei der Durchsicht der Offenbarung für den Fachmann offensichtlich. Der Umfang der Erfindung sollte daher nicht durch Bezugnahme auf die obige Beschreibung, sondern stattdessen unter Bezugnahme auf die anhängigen Ansprüche zusammen mit deren vollem Umfang oder Äquivalenten bestimmt werden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Nicht-Patentliteratur
-
- IEEE 1394 [0033]
Claims (25)
- Verfahren, ausgeführt durch einen Medienspieler, zur Bereitstellung einer Audiobenutzerschnittstelle an einen Benutzer des Medienspielers, wobei das Verfahren umfasst: Empfangen einer Eingabe, die eine Interaktion des Benutzers mit einer mit dem Medienspieler assoziierten Benutzerschnittstelle anzeigt; Identifizieren eines Audiohinweises, der mit dem Hörbarmachen der Interaktion des Benutzers mit der Benutzerschnittstelle assoziiert ist; Feststellen, ob eine Kategorie einer Mehrzahl von Kategorien von zu dem Audiohinweis korrespondierenden Audiodaten für den Medienspieler verfügbar ist; und Ausgeben eines Teils der Audiodaten einer ersten Kategorie aus einer ersten Quelle an dem Medienspieler.
- Verfahren nach Anspruch 1, wobei das Feststellen, ob eine Kategorie einer Mehrzahl von Kategorien von zu dem Audiohinweis korrespondierenden Audiodaten verfügbar ist, ein Feststellen umfasst, ob entweder vorher aufgenommene Sprach-Audiodaten, synthetisierte Sprach-Audiodaten, oder Nicht-Sprach-Audiodaten für den Medienspieler verfügbar sind.
- Verfahren nach Anspruch 1, wobei das Feststellen, ob eine Kategorie einer Mehrzahl von Kategorien von zu dem Audiohinweis korrespondierenden Audiodaten für den Medienspieler verfügbar ist, ein Feststellen der Verfügbarkeit der ersten Quelle umfasst, deren Audiodatenqualität höher ist als bei mit einer zweiten Quelle assoziierten Audiodaten.
- Verfahren nach Anspruch 1, wobei das Feststellen, ob eine Kategorie aus einer Mehrzahl von Kategorien von zu dem Audiohinweis korrespondierenden Audiodaten für den Medienspieler verfügbar ist, ein Feststellen der Verfügbarkeit der ersten Quelle beruhend auf der Nichtverfügbarkeit einer zweiten Quelle umfasst.
- Verfahren nach Anspruch 1, weiterhin umfassend: Erhalten der Audiodaten von der ersten Quelle.
- Verfahren nach Anspruch 5, wobei das Erhalten der Audiodaten von der ersten Quelle ein Abrufen einer Audiodatei von einer auf dem Medienspieler befindlichen Speichervorrichtung umfasst.
- Verfahren nach Anspruch 5, wobei das Erhalten der Audiodaten von der ersten Quelle ein Abrufen der Audiodaten von einem Host-Computersystem umfasst.
- Verfahren nach Anspruch 5, wobei das Erhalten der Audiodaten von der ersten Quelle ein Empfangen der Audiodaten von einem Sprachsynthesemodul umfasst, das konfiguriert ist, um unter Verwendung einer oder mehrerer Sprachsynthesetechnologien Audiodaten zu erzeugen.
- Verfahren nach Anspruch 8, wobei sich das Sprachsynthesemodul auf dem Medienspieler befindet.
- Verfahren nach Anspruch 1, wobei die Interaktion des Benutzers mit der mit dem Medienspieler assoziierten Benutzerschnittstelle eine „Wiedergabe”-Auswahl, eine „Nächster”-Auswahl, eine „Letzter”-Auswahl oder eine „Stopp”-Auswahl umfasst.
- Verfahren nach Anspruch 1, wobei die Interaktion des Benutzers mit der mit dem Medienspieler assoziierten Benutzerschnittstelle die Auswahl eines Menüeintrags aus einem auf dem Medienspieler angezeigten Menü umfasst.
- Verfahren nach Anspruch 1, weiterhin umfassend: Pausieren der Wiedergabe einer Mediendatei als Reaktion auf die Ausgabe des Teils der Audiodaten von der ersten Quelle.
- Verfahren nach Anspruch 1, weiterhin umfassend: Verringern der Wiedergabelautstärke für eine Mediendatei als Reaktion auf die Ausgabe des Teils der Audiodaten von der ersten Quelle.
- Verfahren nach Anspruch 1, wobei der Medienspieler ein handgehaltenes oder tragbares Gerät umfasst.
- Computerlesbares Medium, das konfiguriert ist, um einen Satz von Codemodulen zu speichern, die bei ihrer Ausführung auf einem Prozessor eines Medienwiedergabegerätes verwendet werden, um an dem Medienwiedergabegerät eine Audiobenutzerschnittstelle bereitzustellen, wobei das computerlesbare Medium umfasst: Code zum Empfang einer Eingabe, die eine Interaktion des Benutzers mit einer mit dem Medienwiedergabegerät assoziierten Benutzerschnittstelle anzeigt; Code zur Feststellung eines Typs von Audiodaten zur Verwendung für die Audiobenutzerschnittstelle; Code zur Feststellung ob eine Quelle für den zu verwendenden Typ von Audiodaten für das Medienwiedergabegerät verfügbar ist; und Code zur Ausgabe eines Teils der Audiodaten des festgestellten Typs an dem Medienwiedergabegerät, wobei die Audiodaten des festgestellten Typs zu einem mit dem Hörbarmachen der Interaktion des Benutzers mit der Benutzerschnittstelle assoziierten Audiohinweis korrespondieren.
- Tragbares Medienwiedergabegerät, umfassend: ein Medienwiedergabesystem; eine Benutzerschnittstelle; und einen Prozessor, der konfiguriert ist, um: Benutzereingaben über die Benutzerschnittstelle zu empfangen; einen Audiohinweis einer Audiobenutzerschnittstelle zu identifizieren, wobei der Audiohinweis mit dem Hörbarmachen einer durch die Benutzereingabe repräsentierten Interaktion des Benutzers mit der Benutzerschnittstelle assoziiert ist; Festzustellen, ob eine Kategorie aus einer Mehrzahl von Kategorien von Audiodaten verfügbar ist, die zu dem Audiohinweis korrespondiert; und die Wiedergabe eines Teils der Audiodaten einer ersten Kategorie unter Verwendung des Medienwiedergabesystems zu initiieren.
- Tragbares Medienwiedergabegerät nach Anspruch 16, wobei der Prozessor konfiguriert ist, um festzustellen, ob eine Kategorie aus der Mehrzahl von Kategorien von Audiodaten verfügbar ist, indem die Verfügbarkeit der ersten Quelle bestimmt wird, deren Audiodatenqualität höher ist als bei den mit einer zweiten Quelle assoziierten Audiodaten.
- Tragbares Medienwiedergabegerät nach Anspruch 16, wobei der Prozessor konfiguriert ist, um festzustellen, ob eine Kategorie aus der Mehrzahl von Kategorien von Audiodaten verfügbar ist, indem die Verfügbarkeit der ersten Quelle beruhend auf der Nichtverfügbarkeit einer zweiten Quelle bestimmt wird.
- Tragbares Medienwiedergabegerät nach Anspruch 16, weiter umfassend die erste Quelle einschließlich einer Speichervorrichtung, die für das Erhalten von Sprachaudiodaten konfiguriert ist.
- Tragbares Medienwiedergabegerät nach Anspruch 16, wobei der Prozessor des Weiteren konfiguriert ist, um Sprachaudiodaten von einem Host-Computersystem zu erhalten.
- Tragbares Medienwiedergabegerät nach Anspruch 16, wobei der Prozessor des Weiteren konfiguriert ist, um synthetisierte Sprachaudiodaten von einem Sprachsynthesemodul zu erhalten.
- Medienspieler, umfassend: eine Benutzerschnittstelle; eine Speichervorrichtung; ein Medienwiedergabesubsystem; ein Sprachsynthesemodul; und einen Prozessor, der konfiguriert ist, um: Eingaben zu empfangen, die eine Interaktion eines Benutzers mit der Benutzerschnittstelle anzeigen; einen Audiohinweis zu identifizieren, der mit dem Hörbarmachen der Interaktion des Benutzers mit der Benutzerschnittstelle assoziiert ist; festzustellen, ob eine Kategorie einer Mehrzahl von Kategorien von zu dem Audiohinweis korrespondieren Audiodaten verfügbar ist; das Medienwiedergabesubsystem anzuweisen, einen Teil der Audiodaten einer ersten Kategorie aus der Speichervorrichtung oder einen Teil der Audiodaten einer zweiten Kategorie aus dem Sprachsynthesemodul, welche jeweils zu dem Audiohinweis korrespondieren, auszugeben.
- Medienspieler nach Anspruch 22, wobei der Prozessor des Weiteren konfiguriert ist, um das Medienwiedergabesubsystem anzuweisen, einen Teil der Audiodaten einer dritten Kategorie auszugeben, die von einem zum Streamen von Audiodaten konfigurierten Sprachserver verfügbar sind.
- Medienspieler nach Anspruch 22, wobei der Prozessor des Weiteren konfiguriert ist, das Sprachsynthesemodul anzuweisen, synthetisierte, zu dem Audiohinweis korrespondierende Audiodaten der zweiten Kategorie zu erzeugen.
- Medienspieler nach Anspruch 22, wobei der Prozessor des Weiteren konfiguriert ist, um Audiodaten der ersten Kategorie oder Audiodaten der zweiten Kategorie von einem Hostcomputer zu empfangen.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/207,314 | 2008-09-09 | ||
US12/207,314 US8898568B2 (en) | 2008-09-09 | 2008-09-09 | Audio user interface |
PCT/US2009/051954 WO2010030440A1 (en) | 2008-09-09 | 2009-07-28 | Audio user interface |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112009002183T5 true DE112009002183T5 (de) | 2011-12-22 |
Family
ID=41172235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112009002183T Withdrawn DE112009002183T5 (de) | 2008-09-09 | 2009-07-28 | Audiobenutzerschnittstelle |
Country Status (8)
Country | Link |
---|---|
US (1) | US8898568B2 (de) |
EP (1) | EP2324416B1 (de) |
JP (1) | JP5667978B2 (de) |
KR (1) | KR20110038735A (de) |
CN (1) | CN102150128B (de) |
DE (1) | DE112009002183T5 (de) |
HK (1) | HK1160957A1 (de) |
WO (1) | WO2010030440A1 (de) |
Families Citing this family (279)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD822716S1 (en) | 2016-05-13 | 2018-07-10 | Google Llc | Voice interface device |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9477658B2 (en) | 2005-10-26 | 2016-10-25 | Cortica, Ltd. | Systems and method for speech to speech translation using cores of a natural liquid architecture system |
US11032017B2 (en) | 2005-10-26 | 2021-06-08 | Cortica, Ltd. | System and method for identifying the context of multimedia content elements |
US11216498B2 (en) | 2005-10-26 | 2022-01-04 | Cortica, Ltd. | System and method for generating signatures to three-dimensional multimedia data elements |
US9646005B2 (en) | 2005-10-26 | 2017-05-09 | Cortica, Ltd. | System and method for creating a database of multimedia content elements assigned to users |
US11003706B2 (en) | 2005-10-26 | 2021-05-11 | Cortica Ltd | System and methods for determining access permissions on personalized clusters of multimedia content elements |
US9489431B2 (en) | 2005-10-26 | 2016-11-08 | Cortica, Ltd. | System and method for distributed search-by-content |
US9191626B2 (en) | 2005-10-26 | 2015-11-17 | Cortica, Ltd. | System and methods thereof for visual analysis of an image on a web-page and matching an advertisement thereto |
US9256668B2 (en) | 2005-10-26 | 2016-02-09 | Cortica, Ltd. | System and method of detecting common patterns within unstructured data elements retrieved from big data sources |
US9529984B2 (en) | 2005-10-26 | 2016-12-27 | Cortica, Ltd. | System and method for verification of user identification based on multimedia content elements |
US9087049B2 (en) * | 2005-10-26 | 2015-07-21 | Cortica, Ltd. | System and method for context translation of natural language |
US10848590B2 (en) | 2005-10-26 | 2020-11-24 | Cortica Ltd | System and method for determining a contextual insight and providing recommendations based thereon |
US10621988B2 (en) | 2005-10-26 | 2020-04-14 | Cortica Ltd | System and method for speech to text translation using cores of a natural liquid architecture system |
US10191976B2 (en) | 2005-10-26 | 2019-01-29 | Cortica, Ltd. | System and method of detecting common patterns within unstructured data elements retrieved from big data sources |
US8818916B2 (en) | 2005-10-26 | 2014-08-26 | Cortica, Ltd. | System and method for linking multimedia data elements to web pages |
US10614626B2 (en) | 2005-10-26 | 2020-04-07 | Cortica Ltd. | System and method for providing augmented reality challenges |
US9396435B2 (en) | 2005-10-26 | 2016-07-19 | Cortica, Ltd. | System and method for identification of deviations from periodic behavior patterns in multimedia content |
US11019161B2 (en) | 2005-10-26 | 2021-05-25 | Cortica, Ltd. | System and method for profiling users interest based on multimedia content analysis |
US11403336B2 (en) | 2005-10-26 | 2022-08-02 | Cortica Ltd. | System and method for removing contextually identical multimedia content elements |
US10380267B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for tagging multimedia content elements |
US9767143B2 (en) | 2005-10-26 | 2017-09-19 | Cortica, Ltd. | System and method for caching of concept structures |
US9031999B2 (en) | 2005-10-26 | 2015-05-12 | Cortica, Ltd. | System and methods for generation of a concept based database |
US9466068B2 (en) | 2005-10-26 | 2016-10-11 | Cortica, Ltd. | System and method for determining a pupillary response to a multimedia data element |
US10360253B2 (en) | 2005-10-26 | 2019-07-23 | Cortica, Ltd. | Systems and methods for generation of searchable structures respective of multimedia data content |
US8312031B2 (en) | 2005-10-26 | 2012-11-13 | Cortica Ltd. | System and method for generation of complex signatures for multimedia data content |
US9384196B2 (en) | 2005-10-26 | 2016-07-05 | Cortica, Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US10585934B2 (en) | 2005-10-26 | 2020-03-10 | Cortica Ltd. | Method and system for populating a concept database with respect to user identifiers |
US9953032B2 (en) | 2005-10-26 | 2018-04-24 | Cortica, Ltd. | System and method for characterization of multimedia content signals using cores of a natural liquid architecture system |
US10635640B2 (en) | 2005-10-26 | 2020-04-28 | Cortica, Ltd. | System and method for enriching a concept database |
US11620327B2 (en) | 2005-10-26 | 2023-04-04 | Cortica Ltd | System and method for determining a contextual insight and generating an interface with recommendations based thereon |
US10372746B2 (en) | 2005-10-26 | 2019-08-06 | Cortica, Ltd. | System and method for searching applications using multimedia content elements |
US9558449B2 (en) | 2005-10-26 | 2017-01-31 | Cortica, Ltd. | System and method for identifying a target area in a multimedia content element |
US10698939B2 (en) | 2005-10-26 | 2020-06-30 | Cortica Ltd | System and method for customizing images |
US10535192B2 (en) | 2005-10-26 | 2020-01-14 | Cortica Ltd. | System and method for generating a customized augmented reality environment to a user |
US9286623B2 (en) | 2005-10-26 | 2016-03-15 | Cortica, Ltd. | Method for determining an area within a multimedia content element over which an advertisement can be displayed |
US11386139B2 (en) | 2005-10-26 | 2022-07-12 | Cortica Ltd. | System and method for generating analytics for entities depicted in multimedia content |
US10193990B2 (en) | 2005-10-26 | 2019-01-29 | Cortica Ltd. | System and method for creating user profiles based on multimedia content |
US10949773B2 (en) | 2005-10-26 | 2021-03-16 | Cortica, Ltd. | System and methods thereof for recommending tags for multimedia content elements based on context |
US10380623B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for generating an advertisement effectiveness performance score |
US10776585B2 (en) | 2005-10-26 | 2020-09-15 | Cortica, Ltd. | System and method for recognizing characters in multimedia content |
US11604847B2 (en) | 2005-10-26 | 2023-03-14 | Cortica Ltd. | System and method for overlaying content on a multimedia content element based on user interest |
US10742340B2 (en) | 2005-10-26 | 2020-08-11 | Cortica Ltd. | System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto |
US8326775B2 (en) | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US10380164B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for using on-image gestures and multimedia content elements as search queries |
US10607355B2 (en) | 2005-10-26 | 2020-03-31 | Cortica, Ltd. | Method and system for determining the dimensions of an object shown in a multimedia content item |
US9218606B2 (en) | 2005-10-26 | 2015-12-22 | Cortica, Ltd. | System and method for brand monitoring and trend analysis based on deep-content-classification |
US9330189B2 (en) | 2005-10-26 | 2016-05-03 | Cortica, Ltd. | System and method for capturing a multimedia content item by a mobile device and matching sequentially relevant content to the multimedia content item |
US10387914B2 (en) | 2005-10-26 | 2019-08-20 | Cortica, Ltd. | Method for identification of multimedia content elements and adding advertising content respective thereof |
US9372940B2 (en) | 2005-10-26 | 2016-06-21 | Cortica, Ltd. | Apparatus and method for determining user attention using a deep-content-classification (DCC) system |
US8266185B2 (en) | 2005-10-26 | 2012-09-11 | Cortica Ltd. | System and methods thereof for generation of searchable structures respective of multimedia data content |
US9235557B2 (en) | 2005-10-26 | 2016-01-12 | Cortica, Ltd. | System and method thereof for dynamically associating a link to an information resource with a multimedia content displayed in a web-page |
US9639532B2 (en) | 2005-10-26 | 2017-05-02 | Cortica, Ltd. | Context-based analysis of multimedia content items using signatures of multimedia elements and matching concepts |
US11361014B2 (en) | 2005-10-26 | 2022-06-14 | Cortica Ltd. | System and method for completing a user profile |
US10691642B2 (en) | 2005-10-26 | 2020-06-23 | Cortica Ltd | System and method for enriching a concept database with homogenous concepts |
US10180942B2 (en) | 2005-10-26 | 2019-01-15 | Cortica Ltd. | System and method for generation of concept structures based on sub-concepts |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US10733326B2 (en) | 2006-10-26 | 2020-08-04 | Cortica Ltd. | System and method for identification of inappropriate multimedia content |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) * | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8463053B1 (en) | 2008-08-08 | 2013-06-11 | The Research Foundation Of State University Of New York | Enhanced max margin learning on multimodal data mining in a multimedia database |
US8768702B2 (en) * | 2008-09-05 | 2014-07-01 | Apple Inc. | Multi-tiered voice feedback in an electronic device |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
JP4623390B2 (ja) | 2008-10-03 | 2011-02-02 | ソニー株式会社 | 再生装置、再生方法及び再生プログラム |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8600447B2 (en) * | 2010-03-30 | 2013-12-03 | Flextronics Ap, Llc | Menu icons with descriptive audio |
US9634855B2 (en) | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
US8645141B2 (en) * | 2010-09-14 | 2014-02-04 | Sony Corporation | Method and system for text to speech conversion |
US9472181B2 (en) * | 2011-02-03 | 2016-10-18 | Panasonic Intellectual Property Management Co., Ltd. | Text-to-speech device, speech output device, speech output system, text-to-speech methods, and speech output method |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9697871B2 (en) | 2011-03-23 | 2017-07-04 | Audible, Inc. | Synchronizing recorded audio content and companion content |
US8862255B2 (en) | 2011-03-23 | 2014-10-14 | Audible, Inc. | Managing playback of synchronized content |
US9703781B2 (en) | 2011-03-23 | 2017-07-11 | Audible, Inc. | Managing related digital content |
US9706247B2 (en) | 2011-03-23 | 2017-07-11 | Audible, Inc. | Synchronized digital content samples |
US9760920B2 (en) | 2011-03-23 | 2017-09-12 | Audible, Inc. | Synchronizing digital content |
US8948892B2 (en) | 2011-03-23 | 2015-02-03 | Audible, Inc. | Managing playback of synchronized content |
US9734153B2 (en) | 2011-03-23 | 2017-08-15 | Audible, Inc. | Managing related digital content |
CN103988193B (zh) * | 2011-03-23 | 2018-01-16 | 奥德伯公司 | 管理同步内容的播放 |
US8855797B2 (en) | 2011-03-23 | 2014-10-07 | Audible, Inc. | Managing playback of synchronized content |
CN102221922A (zh) * | 2011-03-25 | 2011-10-19 | 苏州瀚瑞微电子有限公司 | 一种支持语音提示的触控系统及其实现方法 |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
DE102011079034A1 (de) | 2011-07-12 | 2013-01-17 | Siemens Aktiengesellschaft | Ansteuerung eines technischen Systems |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US20130131849A1 (en) * | 2011-11-21 | 2013-05-23 | Shadi Mere | System for adapting music and sound to digital text, for electronic devices |
TWI574254B (zh) * | 2012-01-20 | 2017-03-11 | 華碩電腦股份有限公司 | 用於電子系統的語音合成方法及裝置 |
WO2013122269A1 (ko) * | 2012-02-13 | 2013-08-22 | 엘지전자 주식회사 | 단말기의 사용자 인터페이스 제공 방법 |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9037956B2 (en) | 2012-03-29 | 2015-05-19 | Audible, Inc. | Content customization |
US8849676B2 (en) | 2012-03-29 | 2014-09-30 | Audible, Inc. | Content customization |
US9075760B2 (en) | 2012-05-07 | 2015-07-07 | Audible, Inc. | Narration settings distribution for content customization |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9317500B2 (en) | 2012-05-30 | 2016-04-19 | Audible, Inc. | Synchronizing translated digital content |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9824695B2 (en) * | 2012-06-18 | 2017-11-21 | International Business Machines Corporation | Enhancing comprehension in voice communications |
US8972265B1 (en) | 2012-06-18 | 2015-03-03 | Audible, Inc. | Multiple voices in audio content |
US9141257B1 (en) | 2012-06-18 | 2015-09-22 | Audible, Inc. | Selecting and conveying supplemental content |
US9536439B1 (en) | 2012-06-27 | 2017-01-03 | Audible, Inc. | Conveying questions with content |
US9679608B2 (en) | 2012-06-28 | 2017-06-13 | Audible, Inc. | Pacing content |
US9099089B2 (en) | 2012-08-02 | 2015-08-04 | Audible, Inc. | Identifying corresponding regions of content |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US9367196B1 (en) | 2012-09-26 | 2016-06-14 | Audible, Inc. | Conveying branched content |
US9632647B1 (en) | 2012-10-09 | 2017-04-25 | Audible, Inc. | Selecting presentation positions in dynamic content |
US9223830B1 (en) | 2012-10-26 | 2015-12-29 | Audible, Inc. | Content presentation analysis |
CN103839548B (zh) * | 2012-11-26 | 2018-06-01 | 腾讯科技(北京)有限公司 | 一种语音交互方法、装置、系统和移动终端 |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9280906B2 (en) | 2013-02-04 | 2016-03-08 | Audible. Inc. | Prompting a user for input during a synchronous presentation of audio content and textual content |
US9472113B1 (en) | 2013-02-05 | 2016-10-18 | Audible, Inc. | Synchronizing playback of digital content with physical content |
DE212014000045U1 (de) | 2013-02-07 | 2015-09-24 | Apple Inc. | Sprach-Trigger für einen digitalen Assistenten |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US9842584B1 (en) * | 2013-03-14 | 2017-12-12 | Amazon Technologies, Inc. | Providing content on multiple devices |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9317486B1 (en) | 2013-06-07 | 2016-04-19 | Audible, Inc. | Synchronizing playback of digital content with captured physical content |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
AU2014278592B2 (en) | 2013-06-09 | 2017-09-07 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US9565497B2 (en) | 2013-08-01 | 2017-02-07 | Caavo Inc. | Enhancing audio using a mobile device |
WO2015020942A1 (en) | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US9489360B2 (en) | 2013-09-05 | 2016-11-08 | Audible, Inc. | Identifying extra material in companion content |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
AU2015266863B2 (en) | 2014-05-30 | 2018-03-15 | Apple Inc. | Multi-command single utterance input method |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9632748B2 (en) * | 2014-06-24 | 2017-04-25 | Google Inc. | Device designation for audio input monitoring |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9558736B2 (en) * | 2014-07-02 | 2017-01-31 | Bose Corporation | Voice prompt generation combining native and remotely-generated speech data |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US20160092159A1 (en) * | 2014-09-30 | 2016-03-31 | Google Inc. | Conversational music agent |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
PL3385945T3 (pl) * | 2015-09-22 | 2021-05-17 | Vorwerk & Co. Interholding Gmbh | Sposób wytwarzania komunikatu głosowego |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US9898250B1 (en) * | 2016-02-12 | 2018-02-20 | Amazon Technologies, Inc. | Controlling distributed audio outputs to enable voice output |
US9858927B2 (en) * | 2016-02-12 | 2018-01-02 | Amazon Technologies, Inc | Processing spoken commands to control distributed audio outputs |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10535343B2 (en) | 2016-05-10 | 2020-01-14 | Google Llc | Implementations for voice assistant on devices |
KR102177786B1 (ko) * | 2016-05-13 | 2020-11-12 | 구글 엘엘씨 | 미디어 출력 디바이스들 사이의 미디어 전달 |
US10175941B2 (en) * | 2016-05-24 | 2019-01-08 | Oracle International Corporation | Audio feedback for continuous scrolled content |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770428A1 (en) * | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10242557B2 (en) | 2017-06-20 | 2019-03-26 | Erik Ward | User-responsive medical trauma treatment device |
CN107564532A (zh) * | 2017-07-05 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 电子设备的唤醒方法、装置、设备及计算机可读存储介质 |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10733987B1 (en) * | 2017-09-26 | 2020-08-04 | Amazon Technologies, Inc. | System and methods for providing unplayed content |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10908873B2 (en) | 2018-05-07 | 2021-02-02 | Spotify Ab | Command confirmation for a media playback device |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10944859B2 (en) | 2018-06-03 | 2021-03-09 | Apple Inc. | Accelerated task performance |
CN108877767A (zh) * | 2018-06-12 | 2018-11-23 | 浙江吉利控股集团有限公司 | 一种智能语音提示系统及方法 |
EP3598295A1 (de) | 2018-07-18 | 2020-01-22 | Spotify AB | Mensch-maschine-schnittstellen für die auswahl von playlisten auf basis von äusserungen |
CN109151565B (zh) * | 2018-09-04 | 2019-12-20 | 北京达佳互联信息技术有限公司 | 播放语音的方法、装置、电子设备及存储介质 |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11265308B2 (en) * | 2019-03-29 | 2022-03-01 | Vmware, Inc. | Workflow service back end integration |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11984124B2 (en) | 2020-11-13 | 2024-05-14 | Apple Inc. | Speculative task flow execution |
Family Cites Families (675)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6009A (en) * | 1849-01-09 | Improvement in machines for gathering pea-vines | ||
US3828132A (en) | 1970-10-30 | 1974-08-06 | Bell Telephone Labor Inc | Speech synthesis by concatenation of formant encoded words |
US3704345A (en) | 1971-03-19 | 1972-11-28 | Bell Telephone Labor Inc | Conversion of printed text into synthetic speech |
US3979557A (en) | 1974-07-03 | 1976-09-07 | International Telephone And Telegraph Corporation | Speech processor system for pitch period extraction using prediction filters |
BG24190A1 (en) | 1976-09-08 | 1978-01-10 | Antonov | Method of synthesis of speech and device for effecting same |
JPS597120B2 (ja) | 1978-11-24 | 1984-02-16 | 日本電気株式会社 | 音声分析装置 |
US4310721A (en) * | 1980-01-23 | 1982-01-12 | The United States Of America As Represented By The Secretary Of The Army | Half duplex integral vocoder modem system |
US4348553A (en) | 1980-07-02 | 1982-09-07 | International Business Machines Corporation | Parallel pattern verifier with dynamic time warping |
EP0444717B1 (de) | 1982-06-11 | 1996-05-22 | Mitsubishi Denki Kabushiki Kaisha | Vektorquantisierer |
US4688195A (en) | 1983-01-28 | 1987-08-18 | Texas Instruments Incorporated | Natural-language interface generating system |
JPS603056A (ja) | 1983-06-21 | 1985-01-09 | Toshiba Corp | 情報整理装置 |
DE3335358A1 (de) | 1983-09-29 | 1985-04-11 | Siemens AG, 1000 Berlin und 8000 München | Verfahren zur bestimmung von sprachspektren fuer die automatische spracherkennung und sprachcodierung |
US5164900A (en) | 1983-11-14 | 1992-11-17 | Colman Bernath | Method and device for phonetically encoding Chinese textual data for data processing entry |
JPS60116072A (ja) | 1983-11-29 | 1985-06-22 | N K B:Kk | 情報提供システム |
US4726065A (en) * | 1984-01-26 | 1988-02-16 | Horst Froessl | Image manipulation by speech signals |
US4955047A (en) | 1984-03-26 | 1990-09-04 | Dytel Corporation | Automated attendant with direct inward system access |
US4811243A (en) | 1984-04-06 | 1989-03-07 | Racine Marsh V | Computer aided coordinate digitizing system |
US4692941A (en) | 1984-04-10 | 1987-09-08 | First Byte | Real-time text-to-speech conversion system |
US4783807A (en) | 1984-08-27 | 1988-11-08 | John Marley | System and method for sound recognition with feature selection synchronized to voice pitch |
US4718094A (en) * | 1984-11-19 | 1988-01-05 | International Business Machines Corp. | Speech recognition system |
US5165007A (en) | 1985-02-01 | 1992-11-17 | International Business Machines Corporation | Feneme-based Markov models for words |
US4944013A (en) | 1985-04-03 | 1990-07-24 | British Telecommunications Public Limited Company | Multi-pulse speech coder |
US4819271A (en) | 1985-05-29 | 1989-04-04 | International Business Machines Corporation | Constructing Markov model word baseforms from multiple utterances by concatenating model sequences for word segments |
US4833712A (en) | 1985-05-29 | 1989-05-23 | International Business Machines Corporation | Automatic generation of simple Markov model stunted baseforms for words in a vocabulary |
EP0218859A3 (de) | 1985-10-11 | 1989-09-06 | International Business Machines Corporation | Übertragungsschnittstelle für Signalprozessor |
US4776016A (en) | 1985-11-21 | 1988-10-04 | Position Orientation Systems, Inc. | Voice control system |
JPH0833744B2 (ja) | 1986-01-09 | 1996-03-29 | 株式会社東芝 | 音声合成装置 |
US4724542A (en) | 1986-01-22 | 1988-02-09 | International Business Machines Corporation | Automatic reference adaptation during dynamic signature verification |
US5057915A (en) | 1986-03-10 | 1991-10-15 | Kohorn H Von | System and method for attracting shoppers to sales outlets |
US5759101A (en) | 1986-03-10 | 1998-06-02 | Response Reward Systems L.C. | Central and remote evaluation of responses of participatory broadcast audience with automatic crediting and couponing |
US5032989A (en) | 1986-03-19 | 1991-07-16 | Realpro, Ltd. | Real estate search and location system and method |
EP0241170B1 (de) | 1986-03-28 | 1992-05-27 | AT&T Corp. | Anordnung zur Erzeugung eines anpassungsfähigen Spracherkennungssignals |
US4903305A (en) * | 1986-05-12 | 1990-02-20 | Dragon Systems, Inc. | Method for representing word models for use in speech recognition |
ES2047494T3 (es) | 1986-10-03 | 1994-03-01 | British Telecomm | Sistema de traduccion de lenguas. |
EP0287679B1 (de) | 1986-10-16 | 1994-07-13 | Mitsubishi Denki Kabushiki Kaisha | Amplituden-adaptiver vektor-quantisierer |
US4829576A (en) | 1986-10-21 | 1989-05-09 | Dragon Systems, Inc. | Voice recognition system |
US4852168A (en) | 1986-11-18 | 1989-07-25 | Sprague Richard P | Compression of stored waveforms for artificial speech |
US4727354A (en) * | 1987-01-07 | 1988-02-23 | Unisys Corporation | System for selecting best fit vector code in vector quantization encoding |
US4827520A (en) | 1987-01-16 | 1989-05-02 | Prince Corporation | Voice actuated control system for use in a vehicle |
JPH0619965B2 (ja) | 1987-02-13 | 1994-03-16 | 日本電子株式会社 | 走査型電子顕微鏡等における試料交換装置 |
US4965763A (en) | 1987-03-03 | 1990-10-23 | International Business Machines Corporation | Computer method for automatic extraction of commonly specified information from business correspondence |
US5644727A (en) | 1987-04-15 | 1997-07-01 | Proprietary Financial Products, Inc. | System for the operation and management of one or more financial accounts through the use of a digital communication and computation system for exchange, investment and borrowing |
CA1295064C (en) | 1987-05-29 | 1992-01-28 | Kuniyoshi Marui | Voice recognition system used in telephone apparatus |
DE3723078A1 (de) | 1987-07-11 | 1989-01-19 | Philips Patentverwaltung | Verfahren zur erkennung von zusammenhaengend gesprochenen woertern |
CA1288516C (en) | 1987-07-31 | 1991-09-03 | Leendert M. Bijnagte | Apparatus and method for communicating textual and image information between a host computer and a remote display terminal |
US4974191A (en) | 1987-07-31 | 1990-11-27 | Syntellect Software Inc. | Adaptive natural language computer interface system |
US5022081A (en) | 1987-10-01 | 1991-06-04 | Sharp Kabushiki Kaisha | Information recognition system |
US4852173A (en) | 1987-10-29 | 1989-07-25 | International Business Machines Corporation | Design and construction of a binary-tree system for language modelling |
US5072452A (en) | 1987-10-30 | 1991-12-10 | International Business Machines Corporation | Automatic determination of labels and Markov word models in a speech recognition system |
DE3876379T2 (de) | 1987-10-30 | 1993-06-09 | Ibm | Automatische bestimmung von kennzeichen und markov-wortmodellen in einem spracherkennungssystem. |
US4914586A (en) | 1987-11-06 | 1990-04-03 | Xerox Corporation | Garbage collector for hypermedia systems |
US4992972A (en) * | 1987-11-18 | 1991-02-12 | International Business Machines Corporation | Flexible context searchable on-line information system with help files and modules for on-line computer system documentation |
US5220657A (en) | 1987-12-02 | 1993-06-15 | Xerox Corporation | Updating local copy of shared data in a collaborative system |
US4984177A (en) | 1988-02-05 | 1991-01-08 | Advanced Products And Technologies, Inc. | Voice language translator |
US5194950A (en) | 1988-02-29 | 1993-03-16 | Mitsubishi Denki Kabushiki Kaisha | Vector quantizer |
US4914590A (en) | 1988-05-18 | 1990-04-03 | Emhart Industries, Inc. | Natural language understanding system |
FR2636163B1 (fr) | 1988-09-02 | 1991-07-05 | Hamon Christian | Procede et dispositif de synthese de la parole par addition-recouvrement de formes d'onde |
US4839853A (en) | 1988-09-15 | 1989-06-13 | Bell Communications Research, Inc. | Computer information retrieval using latent semantic structure |
JPH0293597A (ja) | 1988-09-30 | 1990-04-04 | Nippon I B M Kk | 音声認識装置 |
US4905163A (en) * | 1988-10-03 | 1990-02-27 | Minnesota Mining & Manufacturing Company | Intelligent optical navigator dynamic information presentation and navigation system |
US5282265A (en) * | 1988-10-04 | 1994-01-25 | Canon Kabushiki Kaisha | Knowledge information processing system |
DE3837590A1 (de) | 1988-11-05 | 1990-05-10 | Ant Nachrichtentech | Verfahren zum reduzieren der datenrate von digitalen bilddaten |
DE68913669T2 (de) | 1988-11-23 | 1994-07-21 | Digital Equipment Corp | Namenaussprache durch einen Synthetisator. |
US5027406A (en) | 1988-12-06 | 1991-06-25 | Dragon Systems, Inc. | Method for interactive speech recognition and training |
US5127055A (en) | 1988-12-30 | 1992-06-30 | Kurzweil Applied Intelligence, Inc. | Speech recognition apparatus & method having dynamic reference pattern adaptation |
US5293448A (en) | 1989-10-02 | 1994-03-08 | Nippon Telegraph And Telephone Corporation | Speech analysis-synthesis method and apparatus therefor |
US5047614A (en) | 1989-01-23 | 1991-09-10 | Bianco James S | Method and apparatus for computer-aided shopping |
SE466029B (sv) * | 1989-03-06 | 1991-12-02 | Ibm Svenska Ab | Anordning och foerfarande foer analys av naturligt spraak i ett datorbaserat informationsbehandlingssystem |
JPH0782544B2 (ja) | 1989-03-24 | 1995-09-06 | インターナショナル・ビジネス・マシーンズ・コーポレーション | マルチテンプレートを用いるdpマツチング方法及び装置 |
US4977598A (en) | 1989-04-13 | 1990-12-11 | Texas Instruments Incorporated | Efficient pruning algorithm for hidden markov model speech recognition |
US5197005A (en) | 1989-05-01 | 1993-03-23 | Intelligent Business Systems | Database retrieval system having a natural language interface |
US5010574A (en) | 1989-06-13 | 1991-04-23 | At&T Bell Laboratories | Vector quantizer search arrangement |
JP2940005B2 (ja) | 1989-07-20 | 1999-08-25 | 日本電気株式会社 | 音声符号化装置 |
US5091945A (en) * | 1989-09-28 | 1992-02-25 | At&T Bell Laboratories | Source dependent channel coding with error protection |
CA2027705C (en) | 1989-10-17 | 1994-02-15 | Masami Akamine | Speech coding system utilizing a recursive computation technique for improvement in processing speed |
US5020112A (en) | 1989-10-31 | 1991-05-28 | At&T Bell Laboratories | Image recognition method using two-dimensional stochastic grammars |
US5220639A (en) | 1989-12-01 | 1993-06-15 | National Science Council | Mandarin speech input method for Chinese computers and a mandarin speech recognition machine |
US5021971A (en) | 1989-12-07 | 1991-06-04 | Unisys Corporation | Reflective binary encoder for vector quantization |
US5179652A (en) * | 1989-12-13 | 1993-01-12 | Anthony I. Rozmanith | Method and apparatus for storing, transmitting and retrieving graphical and tabular data |
AT394262B (de) | 1989-12-15 | 1992-02-25 | Vaillant Gmbh | Einrichtung fuer die einstellung und ueberwachung einer heizungsanlage |
EP0443548B1 (de) | 1990-02-22 | 2003-07-23 | Nec Corporation | Sprachcodierer |
US5301109A (en) | 1990-06-11 | 1994-04-05 | Bell Communications Research, Inc. | Computerized cross-language document retrieval using latent semantic indexing |
JP3266246B2 (ja) | 1990-06-15 | 2002-03-18 | インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン | 自然言語解析装置及び方法並びに自然言語解析用知識ベース構築方法 |
US5202952A (en) | 1990-06-22 | 1993-04-13 | Dragon Systems, Inc. | Large-vocabulary continuous speech prefiltering and processing system |
GB9017600D0 (en) | 1990-08-10 | 1990-09-26 | British Aerospace | An assembly and method for binary tree-searched vector quanisation data compression processing |
US5309359A (en) | 1990-08-16 | 1994-05-03 | Boris Katz | Method and apparatus for generating and utlizing annotations to facilitate computer text retrieval |
US5404295A (en) | 1990-08-16 | 1995-04-04 | Katz; Boris | Method and apparatus for utilizing annotations to facilitate computer retrieval of database material |
US5297170A (en) | 1990-08-21 | 1994-03-22 | Codex Corporation | Lattice and trellis-coded quantization |
US5400434A (en) | 1990-09-04 | 1995-03-21 | Matsushita Electric Industrial Co., Ltd. | Voice source for synthetic speech system |
US5216747A (en) | 1990-09-20 | 1993-06-01 | Digital Voice Systems, Inc. | Voiced/unvoiced estimation of an acoustic signal |
US5128672A (en) | 1990-10-30 | 1992-07-07 | Apple Computer, Inc. | Dynamic predictive keyboard |
US5325298A (en) | 1990-11-07 | 1994-06-28 | Hnc, Inc. | Methods for generating or revising context vectors for a plurality of word stems |
US5317507A (en) | 1990-11-07 | 1994-05-31 | Gallant Stephen I | Method for document retrieval and for word sense disambiguation using neural networks |
US5247579A (en) * | 1990-12-05 | 1993-09-21 | Digital Voice Systems, Inc. | Methods for speech transmission |
US5345536A (en) | 1990-12-21 | 1994-09-06 | Matsushita Electric Industrial Co., Ltd. | Method of speech recognition |
US5127053A (en) | 1990-12-24 | 1992-06-30 | General Electric Company | Low-complexity method for improving the performance of autocorrelation-based pitch detectors |
US5133011A (en) | 1990-12-26 | 1992-07-21 | International Business Machines Corporation | Method and apparatus for linear vocal control of cursor position |
US5268990A (en) | 1991-01-31 | 1993-12-07 | Sri International | Method for recognizing speech using linguistically-motivated hidden Markov models |
GB9105367D0 (en) | 1991-03-13 | 1991-04-24 | Univ Strathclyde | Computerised information-retrieval database systems |
US5303406A (en) | 1991-04-29 | 1994-04-12 | Motorola, Inc. | Noise squelch circuit with adaptive noise shaping |
US5475587A (en) | 1991-06-28 | 1995-12-12 | Digital Equipment Corporation | Method and apparatus for efficient morphological text analysis using a high-level language for compact specification of inflectional paradigms |
US5293452A (en) | 1991-07-01 | 1994-03-08 | Texas Instruments Incorporated | Voice log-in using spoken name input |
US5687077A (en) | 1991-07-31 | 1997-11-11 | Universal Dynamics Limited | Method and apparatus for adaptive control |
US5199077A (en) | 1991-09-19 | 1993-03-30 | Xerox Corporation | Wordspotting for voice editing and indexing |
JP2662120B2 (ja) | 1991-10-01 | 1997-10-08 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 音声認識装置および音声認識用処理ユニット |
JPH05108065A (ja) | 1991-10-15 | 1993-04-30 | Kawai Musical Instr Mfg Co Ltd | 自動演奏装置 |
US5222146A (en) | 1991-10-23 | 1993-06-22 | International Business Machines Corporation | Speech recognition apparatus having a speech coder outputting acoustic prototype ranks |
KR940002854B1 (ko) | 1991-11-06 | 1994-04-04 | 한국전기통신공사 | 음성 합성시스팀의 음성단편 코딩 및 그의 피치조절 방법과 그의 유성음 합성장치 |
US5386494A (en) * | 1991-12-06 | 1995-01-31 | Apple Computer, Inc. | Method and apparatus for controlling a speech recognition function using a cursor control device |
US6081750A (en) | 1991-12-23 | 2000-06-27 | Hoffberg; Steven Mark | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5903454A (en) | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US5502790A (en) | 1991-12-24 | 1996-03-26 | Oki Electric Industry Co., Ltd. | Speech recognition method and system using triphones, diphones, and phonemes |
US5349645A (en) | 1991-12-31 | 1994-09-20 | Matsushita Electric Industrial Co., Ltd. | Word hypothesizer for continuous speech decoding using stressed-vowel centered bidirectional tree searches |
US5267345A (en) | 1992-02-10 | 1993-11-30 | International Business Machines Corporation | Speech recognition apparatus which predicts word classes from context and words from word classes |
ES2128390T3 (es) | 1992-03-02 | 1999-05-16 | At & T Corp | Metodo de adiestramiento y dispositivo para reconocimiento de voz. |
US6055514A (en) | 1992-03-20 | 2000-04-25 | Wren; Stephen Corey | System for marketing foods and services utilizing computerized centraland remote facilities |
US5317647A (en) | 1992-04-07 | 1994-05-31 | Apple Computer, Inc. | Constrained attribute grammars for syntactic pattern recognition |
US5412804A (en) | 1992-04-30 | 1995-05-02 | Oracle Corporation | Extending the semantics of the outer join operator for un-nesting queries to a data base |
US5293584A (en) | 1992-05-21 | 1994-03-08 | International Business Machines Corporation | Speech recognition system for natural language translation |
US5434777A (en) | 1992-05-27 | 1995-07-18 | Apple Computer, Inc. | Method and apparatus for processing natural language |
US5390281A (en) | 1992-05-27 | 1995-02-14 | Apple Computer, Inc. | Method and apparatus for deducing user intent and providing computer implemented services |
US5734789A (en) * | 1992-06-01 | 1998-03-31 | Hughes Electronics | Voiced, unvoiced or noise modes in a CELP vocoder |
US5333275A (en) | 1992-06-23 | 1994-07-26 | Wheatley Barbara J | System and method for time aligning speech |
US5325297A (en) | 1992-06-25 | 1994-06-28 | System Of Multiple-Colored Images For Internationally Listed Estates, Inc. | Computer implemented method and system for storing and retrieving textual data and compressed image data |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
US5412806A (en) | 1992-08-20 | 1995-05-02 | Hewlett-Packard Company | Calibration of logical cost formulae for queries in a heterogeneous DBMS using synthetic database |
GB9220404D0 (en) | 1992-08-20 | 1992-11-11 | Nat Security Agency | Method of identifying,retrieving and sorting documents |
US5333236A (en) | 1992-09-10 | 1994-07-26 | International Business Machines Corporation | Speech recognizer having a speech coder for an acoustic match based on context-dependent speech-transition acoustic models |
US5384893A (en) * | 1992-09-23 | 1995-01-24 | Emerson & Stern Associates, Inc. | Method and apparatus for speech synthesis based on prosodic analysis |
FR2696036B1 (fr) | 1992-09-24 | 1994-10-14 | France Telecom | Procédé de mesure de ressemblance entre échantillons sonores et dispositif de mise en Óoeuvre de ce procédé. |
JPH0772840B2 (ja) | 1992-09-29 | 1995-08-02 | 日本アイ・ビー・エム株式会社 | 音声モデルの構成方法、音声認識方法、音声認識装置及び音声モデルの訓練方法 |
US5758313A (en) | 1992-10-16 | 1998-05-26 | Mobile Information Systems, Inc. | Method and apparatus for tracking vehicle location |
US5455888A (en) | 1992-12-04 | 1995-10-03 | Northern Telecom Limited | Speech bandwidth extension method and apparatus |
US5533182A (en) | 1992-12-22 | 1996-07-02 | International Business Machines Corporation | Aural position indicating mechanism for viewable objects |
US5412756A (en) | 1992-12-22 | 1995-05-02 | Mitsubishi Denki Kabushiki Kaisha | Artificial intelligence software shell for plant operation simulation |
US5390279A (en) * | 1992-12-31 | 1995-02-14 | Apple Computer, Inc. | Partitioning speech rules by context for speech recognition |
US5384892A (en) * | 1992-12-31 | 1995-01-24 | Apple Computer, Inc. | Dynamic language model for speech recognition |
US5734791A (en) | 1992-12-31 | 1998-03-31 | Apple Computer, Inc. | Rapid tree-based method for vector quantization |
US5613036A (en) | 1992-12-31 | 1997-03-18 | Apple Computer, Inc. | Dynamic categories for a speech recognition system |
US6122616A (en) | 1993-01-21 | 2000-09-19 | Apple Computer, Inc. | Method and apparatus for diphone aliasing |
US5890122A (en) | 1993-02-08 | 1999-03-30 | Microsoft Corporation | Voice-controlled computer simulateously displaying application menu and list of available commands |
US5864844A (en) | 1993-02-18 | 1999-01-26 | Apple Computer, Inc. | System and method for enhancing a user interface with a computer based training tool |
CA2091658A1 (en) | 1993-03-15 | 1994-09-16 | Matthew Lennig | Method and apparatus for automation of directory assistance using speech recognition |
US6055531A (en) | 1993-03-24 | 2000-04-25 | Engate Incorporated | Down-line transcription system having context sensitive searching capability |
US5536902A (en) | 1993-04-14 | 1996-07-16 | Yamaha Corporation | Method of and apparatus for analyzing and synthesizing a sound by extracting and controlling a sound parameter |
US5444823A (en) | 1993-04-16 | 1995-08-22 | Compaq Computer Corporation | Intelligent search engine for associated on-line documentation having questionless case-based knowledge base |
US5574823A (en) | 1993-06-23 | 1996-11-12 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Communications | Frequency selective harmonic coding |
US5515475A (en) | 1993-06-24 | 1996-05-07 | Northern Telecom Limited | Speech recognition method using a two-pass search |
JPH0756933A (ja) | 1993-06-24 | 1995-03-03 | Xerox Corp | 文書検索方法 |
JP3685812B2 (ja) | 1993-06-29 | 2005-08-24 | ソニー株式会社 | 音声信号送受信装置 |
US5794207A (en) | 1996-09-04 | 1998-08-11 | Walker Asset Management Limited Partnership | Method and apparatus for a cryptographically assisted commercial network system designed to facilitate buyer-driven conditional purchase offers |
WO1995002221A1 (en) | 1993-07-07 | 1995-01-19 | Inference Corporation | Case-based organizing and querying of a database |
US5495604A (en) | 1993-08-25 | 1996-02-27 | Asymetrix Corporation | Method and apparatus for the modeling and query of database structures using natural language-like constructs |
US5619694A (en) | 1993-08-26 | 1997-04-08 | Nec Corporation | Case database storage/retrieval system |
US5940811A (en) | 1993-08-27 | 1999-08-17 | Affinity Technology Group, Inc. | Closed loop financial transaction method and apparatus |
US5377258A (en) | 1993-08-30 | 1994-12-27 | National Medical Research Council | Method and apparatus for an automated and interactive behavioral guidance system |
US5873056A (en) * | 1993-10-12 | 1999-02-16 | The Syracuse University | Natural language processing system for semantic vector representation which accounts for lexical ambiguity |
US5578808A (en) | 1993-12-22 | 1996-11-26 | Datamark Services, Inc. | Data card that can be used for transactions involving separate card issuers |
US5537618A (en) | 1993-12-23 | 1996-07-16 | Diacom Technologies, Inc. | Method and apparatus for implementing user feedback |
US5621859A (en) | 1994-01-19 | 1997-04-15 | Bbn Corporation | Single tree method for grammar directed, very large vocabulary speech recognizer |
US5584024A (en) | 1994-03-24 | 1996-12-10 | Software Ag | Interactive database query system and method for prohibiting the selection of semantically incorrect query parameters |
US5642519A (en) | 1994-04-29 | 1997-06-24 | Sun Microsystems, Inc. | Speech interpreter with a unified grammer compiler |
EP0684607B1 (de) | 1994-05-25 | 2001-03-14 | Victor Company Of Japan, Limited | Datenwiedergabegerät mit variabler Übertragungsrate |
US5493677A (en) | 1994-06-08 | 1996-02-20 | Systems Research & Applications Corporation | Generation, archiving, and retrieval of digital images with evoked suggestion-set captions and natural language interface |
US5675819A (en) | 1994-06-16 | 1997-10-07 | Xerox Corporation | Document information retrieval using global word co-occurrence patterns |
JPH0869470A (ja) | 1994-06-21 | 1996-03-12 | Canon Inc | 自然言語処理装置及びその方法 |
US5948040A (en) | 1994-06-24 | 1999-09-07 | Delorme Publishing Co. | Travel reservation information and planning system |
US5682539A (en) | 1994-09-29 | 1997-10-28 | Conrad; Donovan | Anticipated meaning natural language interface |
GB2293667B (en) | 1994-09-30 | 1998-05-27 | Intermation Limited | Database management system |
US5715468A (en) | 1994-09-30 | 1998-02-03 | Budzinski; Robert Lucius | Memory system for storing and retrieving experience and knowledge with natural language |
US5661787A (en) | 1994-10-27 | 1997-08-26 | Pocock; Michael H. | System for on-demand remote access to a self-generating audio recording, storage, indexing and transaction system |
US5845255A (en) | 1994-10-28 | 1998-12-01 | Advanced Health Med-E-Systems Corporation | Prescription management system |
US5577241A (en) | 1994-12-07 | 1996-11-19 | Excite, Inc. | Information retrieval system and method with implementation extensible query architecture |
US5748974A (en) | 1994-12-13 | 1998-05-05 | International Business Machines Corporation | Multimodal natural language interface for cross-application tasks |
US5794050A (en) | 1995-01-04 | 1998-08-11 | Intelligent Text Processing, Inc. | Natural language understanding system |
CN1312549C (zh) | 1995-02-13 | 2007-04-25 | 英特特拉斯特技术公司 | 用于安全交易管理和电子权利保护的系统和方法 |
US5701400A (en) | 1995-03-08 | 1997-12-23 | Amado; Carlos Armando | Method and apparatus for applying if-then-else rules to data sets in a relational data base and generating from the results of application of said rules a database of diagnostics linked to said data sets to aid executive analysis of financial data |
US5749081A (en) | 1995-04-06 | 1998-05-05 | Firefly Network, Inc. | System and method for recommending items to a user |
US5642464A (en) | 1995-05-03 | 1997-06-24 | Northern Telecom Limited | Methods and apparatus for noise conditioning in digital speech compression systems using linear predictive coding |
US5664055A (en) | 1995-06-07 | 1997-09-02 | Lucent Technologies Inc. | CS-ACELP speech compression system with adaptive pitch prediction filter gain based on a measure of periodicity |
US5710886A (en) | 1995-06-16 | 1998-01-20 | Sellectsoft, L.C. | Electric couponing method and apparatus |
JP3284832B2 (ja) | 1995-06-22 | 2002-05-20 | セイコーエプソン株式会社 | 音声認識対話処理方法および音声認識対話装置 |
US6038533A (en) | 1995-07-07 | 2000-03-14 | Lucent Technologies Inc. | System and method for selecting training text |
US5999895A (en) | 1995-07-24 | 1999-12-07 | Forest; Donald K. | Sound operated menu method and apparatus |
US6026388A (en) | 1995-08-16 | 2000-02-15 | Textwise, Llc | User interface and other enhancements for natural language information retrieval system and method |
JP3697748B2 (ja) | 1995-08-21 | 2005-09-21 | セイコーエプソン株式会社 | 端末、音声認識装置 |
US5712957A (en) * | 1995-09-08 | 1998-01-27 | Carnegie Mellon University | Locating and correcting erroneously recognized portions of utterances by rescoring based on two n-best lists |
US6173261B1 (en) * | 1998-09-30 | 2001-01-09 | At&T Corp | Grammar fragment acquisition using syntactic and semantic clustering |
US5790978A (en) | 1995-09-15 | 1998-08-04 | Lucent Technologies, Inc. | System and method for determining pitch contours |
US5737734A (en) | 1995-09-15 | 1998-04-07 | Infonautics Corporation | Query word relevance adjustment in a search of an information retrieval system |
US5884323A (en) | 1995-10-13 | 1999-03-16 | 3Com Corporation | Extendible method and apparatus for synchronizing files on two different computer systems |
US5799276A (en) | 1995-11-07 | 1998-08-25 | Accent Incorporated | Knowledge-based speech recognition system and methods having frame length computed based upon estimated pitch period of vocalic intervals |
US5794237A (en) | 1995-11-13 | 1998-08-11 | International Business Machines Corporation | System and method for improving problem source identification in computer systems employing relevance feedback and statistical source ranking |
US5802526A (en) | 1995-11-15 | 1998-09-01 | Microsoft Corporation | System and method for graphically displaying and navigating through an interactive voice response menu |
US5706442A (en) | 1995-12-20 | 1998-01-06 | Block Financial Corporation | System for on-line financial services using distributed objects |
AU1836297A (en) | 1996-01-17 | 1997-08-11 | Personal Agents, Inc. | Intelligent agents for electronic commerce |
US6119101A (en) | 1996-01-17 | 2000-09-12 | Personal Agents, Inc. | Intelligent agents for electronic commerce |
US6125356A (en) | 1996-01-18 | 2000-09-26 | Rosefaire Development, Ltd. | Portable sales presentation system with selective scripted seller prompts |
US5987404A (en) | 1996-01-29 | 1999-11-16 | International Business Machines Corporation | Statistical natural language understanding using hidden clumpings |
US5729694A (en) | 1996-02-06 | 1998-03-17 | The Regents Of The University Of California | Speech coding, reconstruction and recognition using acoustics and electromagnetic waves |
US6076088A (en) | 1996-02-09 | 2000-06-13 | Paik; Woojin | Information extraction system and method using concept relation concept (CRC) triples |
US5835893A (en) | 1996-02-15 | 1998-11-10 | Atr Interpreting Telecommunications Research Labs | Class-based word clustering for speech recognition using a three-level balanced hierarchical similarity |
US5901287A (en) | 1996-04-01 | 1999-05-04 | The Sabre Group Inc. | Information aggregation and synthesization system |
US5867799A (en) * | 1996-04-04 | 1999-02-02 | Lang; Andrew K. | Information system and method for filtering a massive flow of information entities to meet user information classification needs |
US5963924A (en) | 1996-04-26 | 1999-10-05 | Verifone, Inc. | System, method and article of manufacture for the use of payment instrument holders and payment instruments in network electronic commerce |
US5987140A (en) | 1996-04-26 | 1999-11-16 | Verifone, Inc. | System, method and article of manufacture for secure network electronic payment and credit collection |
US5913193A (en) | 1996-04-30 | 1999-06-15 | Microsoft Corporation | Method and system of runtime acoustic unit selection for speech synthesis |
US5857184A (en) | 1996-05-03 | 1999-01-05 | Walden Media, Inc. | Language and method for creating, organizing, and retrieving data from a database |
FR2748342B1 (fr) * | 1996-05-06 | 1998-07-17 | France Telecom | Procede et dispositif de filtrage par egalisation d'un signal de parole, mettant en oeuvre un modele statistique de ce signal |
US5828999A (en) | 1996-05-06 | 1998-10-27 | Apple Computer, Inc. | Method and system for deriving a large-span semantic language model for large-vocabulary recognition systems |
US5826261A (en) | 1996-05-10 | 1998-10-20 | Spencer; Graham | System and method for querying multiple, distributed databases by selective sharing of local relative significance information for terms related to the query |
US6366883B1 (en) | 1996-05-15 | 2002-04-02 | Atr Interpreting Telecommunications | Concatenation of speech segments by use of a speech synthesizer |
US5727950A (en) | 1996-05-22 | 1998-03-17 | Netsage Corporation | Agent based instruction system and method |
US5966533A (en) * | 1996-06-11 | 1999-10-12 | Excite, Inc. | Method and system for dynamically synthesizing a computer program by differentially resolving atoms based on user context data |
US5915249A (en) | 1996-06-14 | 1999-06-22 | Excite, Inc. | System and method for accelerated query evaluation of very large full-text databases |
US5987132A (en) | 1996-06-17 | 1999-11-16 | Verifone, Inc. | System, method and article of manufacture for conditionally accepting a payment method utilizing an extensible, flexible architecture |
US5912952A (en) | 1996-06-27 | 1999-06-15 | At&T Corp | Voice response unit with a visual menu interface |
US5825881A (en) | 1996-06-28 | 1998-10-20 | Allsoft Distributing Inc. | Public network merchandising system |
US6070147A (en) | 1996-07-02 | 2000-05-30 | Tecmark Services, Inc. | Customer identification and marketing analysis systems |
CN100371914C (zh) | 1996-07-22 | 2008-02-27 | Cyva研究公司 | 个人信息安全与交换的工具 |
US5862223A (en) | 1996-07-24 | 1999-01-19 | Walker Asset Management Limited Partnership | Method and apparatus for a cryptographically-assisted commercial network system designed to facilitate and support expert-based commerce |
US5950123A (en) | 1996-08-26 | 1999-09-07 | Telefonaktiebolaget L M | Cellular telephone network support of audible information delivery to visually impaired subscribers |
EP0829811A1 (de) | 1996-09-11 | 1998-03-18 | Nippon Telegraph And Telephone Corporation | Verfahren und System zur Informationswiederauffindung |
US6181935B1 (en) | 1996-09-27 | 2001-01-30 | Software.Com, Inc. | Mobility extended telephone application programming interface and method of use |
US5794182A (en) | 1996-09-30 | 1998-08-11 | Apple Computer, Inc. | Linear predictive speech encoding systems with efficient combination pitch coefficients computation |
US5721827A (en) * | 1996-10-02 | 1998-02-24 | James Logan | System for electrically distributing personalized information |
US6199076B1 (en) * | 1996-10-02 | 2001-03-06 | James Logan | Audio program player including a dynamic program selection controller |
US5913203A (en) | 1996-10-03 | 1999-06-15 | Jaesent Inc. | System and method for pseudo cash transactions |
US5930769A (en) | 1996-10-07 | 1999-07-27 | Rose; Andrea | System and method for fashion shopping |
US5836771A (en) | 1996-12-02 | 1998-11-17 | Ho; Chi Fai | Learning method and system based on questioning |
US6665639B2 (en) * | 1996-12-06 | 2003-12-16 | Sensory, Inc. | Speech recognition in consumer electronic products |
US6078914A (en) | 1996-12-09 | 2000-06-20 | Open Text Corporation | Natural language meta-search system and method |
US5839106A (en) | 1996-12-17 | 1998-11-17 | Apple Computer, Inc. | Large-vocabulary speech recognition using an integrated syntactic and semantic statistical language model |
US5966126A (en) | 1996-12-23 | 1999-10-12 | Szabo; Andrew J. | Graphic user interface for database system |
US5932869A (en) | 1996-12-27 | 1999-08-03 | Graphic Technology, Inc. | Promotional system with magnetic stripe and visual thermo-reversible print surfaced medium |
JP3579204B2 (ja) | 1997-01-17 | 2004-10-20 | 富士通株式会社 | 文書要約装置およびその方法 |
US5941944A (en) | 1997-03-03 | 1999-08-24 | Microsoft Corporation | Method for providing a substitute for a requested inaccessible object by identifying substantially similar objects using weights corresponding to object features |
US6076051A (en) | 1997-03-07 | 2000-06-13 | Microsoft Corporation | Information retrieval utilizing semantic representation of text |
US5930801A (en) | 1997-03-07 | 1999-07-27 | Xerox Corporation | Shared-data environment in which each file has independent security properties |
JPH10320169A (ja) * | 1997-03-14 | 1998-12-04 | Fujitsu Ltd | 情報電子装置 |
US6078898A (en) | 1997-03-20 | 2000-06-20 | Schlumberger Technologies, Inc. | System and method of transactional taxation using secure stored data devices |
US5822743A (en) | 1997-04-08 | 1998-10-13 | 1215627 Ontario Inc. | Knowledge-based information retrieval system |
JP3704925B2 (ja) | 1997-04-22 | 2005-10-12 | トヨタ自動車株式会社 | 移動端末装置及びその音声出力プログラムを記録した媒体 |
US5970474A (en) | 1997-04-24 | 1999-10-19 | Sears, Roebuck And Co. | Registry information system for shoppers |
US5895464A (en) | 1997-04-30 | 1999-04-20 | Eastman Kodak Company | Computer program product and a method for using natural language for the description, search and retrieval of multi-media objects |
WO1999001834A1 (en) | 1997-07-02 | 1999-01-14 | Coueignoux, Philippe, J., M. | System and method for the secure discovery, exploitation and publication of information |
US5860063A (en) * | 1997-07-11 | 1999-01-12 | At&T Corp | Automated meaningful phrase clustering |
US5933822A (en) | 1997-07-22 | 1999-08-03 | Microsoft Corporation | Apparatus and methods for an information retrieval system that employs natural language processing of search results to improve overall precision |
US5974146A (en) | 1997-07-30 | 1999-10-26 | Huntington Bancshares Incorporated | Real time bank-centric universal payment system |
US6016476A (en) | 1997-08-11 | 2000-01-18 | International Business Machines Corporation | Portable information and transaction processing system and method utilizing biometric authorization and digital certificate security |
US5895466A (en) | 1997-08-19 | 1999-04-20 | At&T Corp | Automated natural language understanding customer service system |
US6081774A (en) | 1997-08-22 | 2000-06-27 | Novell, Inc. | Natural language information retrieval system and method |
US6404876B1 (en) | 1997-09-25 | 2002-06-11 | Gte Intelligent Network Services Incorporated | System and method for voice activated dialing and routing under open access network control |
US6023684A (en) | 1997-10-01 | 2000-02-08 | Security First Technologies, Inc. | Three tier financial transaction system with cache memory |
US6035336A (en) | 1997-10-17 | 2000-03-07 | International Business Machines Corporation | Audio ticker system and method for presenting push information including pre-recorded audio |
EP0911808B1 (de) | 1997-10-23 | 2002-05-08 | Sony International (Europe) GmbH | Sprachschnittstelle für ein Hausnetzwerk |
US6108627A (en) | 1997-10-31 | 2000-08-22 | Nortel Networks Corporation | Automatic transcription tool |
US5943670A (en) | 1997-11-21 | 1999-08-24 | International Business Machines Corporation | System and method for categorizing objects in combined categories |
US5960422A (en) | 1997-11-26 | 1999-09-28 | International Business Machines Corporation | System and method for optimized source selection in an information retrieval system |
US6026375A (en) | 1997-12-05 | 2000-02-15 | Nortel Networks Corporation | Method and apparatus for processing orders from customers in a mobile environment |
US6064960A (en) | 1997-12-18 | 2000-05-16 | Apple Computer, Inc. | Method and apparatus for improved duration modeling of phonemes |
US6094649A (en) | 1997-12-22 | 2000-07-25 | Partnet, Inc. | Keyword searches of structured databases |
US20020002039A1 (en) * | 1998-06-12 | 2002-01-03 | Safi Qureshey | Network-enabled audio device |
US20020080163A1 (en) | 1998-02-23 | 2002-06-27 | Morey Dale D. | Information retrieval system |
US6345250B1 (en) * | 1998-02-24 | 2002-02-05 | International Business Machines Corp. | Developing voice response applications from pre-recorded voice and stored text-to-speech prompts |
US6173287B1 (en) | 1998-03-11 | 2001-01-09 | Digital Equipment Corporation | Technique for ranking multimedia annotations of interest |
US6195641B1 (en) * | 1998-03-27 | 2001-02-27 | International Business Machines Corp. | Network universal spoken language vocabulary |
US6026393A (en) | 1998-03-31 | 2000-02-15 | Casebank Technologies Inc. | Configuration knowledge as an aid to case retrieval |
US6233559B1 (en) | 1998-04-01 | 2001-05-15 | Motorola, Inc. | Speech control of multiple applications using applets |
US6173279B1 (en) | 1998-04-09 | 2001-01-09 | At&T Corp. | Method of using a natural language interface to retrieve information from one or more data resources |
US6088731A (en) | 1998-04-24 | 2000-07-11 | Associative Computing, Inc. | Intelligent assistant for use with a local computer and with the internet |
AU3717099A (en) | 1998-04-27 | 1999-11-16 | British Telecommunications Public Limited Company | Database access tool |
US6029132A (en) * | 1998-04-30 | 2000-02-22 | Matsushita Electric Industrial Co. | Method for letter-to-sound in text-to-speech synthesis |
US6016471A (en) * | 1998-04-29 | 2000-01-18 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus using decision trees to generate and score multiple pronunciations for a spelled word |
US6285786B1 (en) | 1998-04-30 | 2001-09-04 | Motorola, Inc. | Text recognizer and method using non-cumulative character scoring in a forward search |
US6144938A (en) | 1998-05-01 | 2000-11-07 | Sun Microsystems, Inc. | Voice user interface with personality |
US7526466B2 (en) | 1998-05-28 | 2009-04-28 | Qps Tech Limited Liability Company | Method and system for analysis of intended meaning of natural language |
US7711672B2 (en) | 1998-05-28 | 2010-05-04 | Lawrence Au | Semantic network methods to disambiguate natural language meaning |
US6778970B2 (en) | 1998-05-28 | 2004-08-17 | Lawrence Au | Topological methods to organize semantic network data flows for conversational applications |
US6563769B1 (en) | 1998-06-11 | 2003-05-13 | Koninklijke Philips Electronics N.V. | Virtual jukebox |
US6144958A (en) | 1998-07-15 | 2000-11-07 | Amazon.Com, Inc. | System and method for correcting spelling errors in search queries |
US6105865A (en) | 1998-07-17 | 2000-08-22 | Hardesty; Laurence Daniel | Financial transaction system with retirement saving benefit |
US6493428B1 (en) | 1998-08-18 | 2002-12-10 | Siemens Information & Communication Networks, Inc | Text-enhanced voice menu system |
US6434524B1 (en) | 1998-09-09 | 2002-08-13 | One Voice Technologies, Inc. | Object interactive user interface using speech recognition and natural language processing |
US6499013B1 (en) | 1998-09-09 | 2002-12-24 | One Voice Technologies, Inc. | Interactive user interface using speech recognition and natural language processing |
DE29825146U1 (de) | 1998-09-11 | 2005-08-18 | Püllen, Rainer | Teilnehmereinheit und System für einen Multimediadienst |
US6266637B1 (en) | 1998-09-11 | 2001-07-24 | International Business Machines Corporation | Phrase splicing and variable substitution using a trainable speech synthesizer |
US6792082B1 (en) | 1998-09-11 | 2004-09-14 | Comverse Ltd. | Voice mail system with personal assistant provisioning |
US6317831B1 (en) | 1998-09-21 | 2001-11-13 | Openwave Systems Inc. | Method and apparatus for establishing a secure connection over a one-way data path |
CA2345662A1 (en) | 1998-10-02 | 2000-04-13 | International Business Machines Corporation | Structure skeletons for efficient voice navigation through generic hierarchical objects |
US7003463B1 (en) * | 1998-10-02 | 2006-02-21 | International Business Machines Corporation | System and method for providing network coordinated conversational services |
US6275824B1 (en) | 1998-10-02 | 2001-08-14 | Ncr Corporation | System and method for managing data privacy in a database management system |
US6360237B1 (en) | 1998-10-05 | 2002-03-19 | Lernout & Hauspie Speech Products N.V. | Method and system for performing text edits during audio recording playback |
GB9821969D0 (en) | 1998-10-08 | 1998-12-02 | Canon Kk | Apparatus and method for processing natural language |
US6928614B1 (en) | 1998-10-13 | 2005-08-09 | Visteon Global Technologies, Inc. | Mobile office with speech recognition |
US6453292B2 (en) | 1998-10-28 | 2002-09-17 | International Business Machines Corporation | Command boundary identifier for conversational natural language |
US6208971B1 (en) | 1998-10-30 | 2001-03-27 | Apple Computer, Inc. | Method and apparatus for command recognition using data-driven semantic inference |
US6321092B1 (en) | 1998-11-03 | 2001-11-20 | Signal Soft Corporation | Multiple input data management for wireless location-based applications |
US6446076B1 (en) | 1998-11-12 | 2002-09-03 | Accenture Llp. | Voice interactive web-based agent system responsive to a user location for prioritizing and formatting information |
DE69925932T2 (de) | 1998-11-13 | 2006-05-11 | Lernout & Hauspie Speech Products N.V. | Sprachsynthese durch verkettung von sprachwellenformen |
US6606599B2 (en) | 1998-12-23 | 2003-08-12 | Interactive Speech Technologies, Llc | Method for integrating computing processes with an interface controlled by voice actuated grammars |
US6246981B1 (en) | 1998-11-25 | 2001-06-12 | International Business Machines Corporation | Natural language task-oriented dialog manager and method |
US7082397B2 (en) | 1998-12-01 | 2006-07-25 | Nuance Communications, Inc. | System for and method of creating and browsing a voice web |
US6260024B1 (en) | 1998-12-02 | 2001-07-10 | Gary Shkedy | Method and apparatus for facilitating buyer-driven purchase orders on a commercial network system |
US7881936B2 (en) | 1998-12-04 | 2011-02-01 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
US6317707B1 (en) | 1998-12-07 | 2001-11-13 | At&T Corp. | Automatic clustering of tokens from a corpus for grammar acquisition |
US6308149B1 (en) | 1998-12-16 | 2001-10-23 | Xerox Corporation | Grouping words with equivalent substrings by automatic clustering based on suffix relationships |
US6523172B1 (en) | 1998-12-17 | 2003-02-18 | Evolutionary Technologies International, Inc. | Parser translator system and method |
US6460029B1 (en) | 1998-12-23 | 2002-10-01 | Microsoft Corporation | System for improving search text |
US6851115B1 (en) | 1999-01-05 | 2005-02-01 | Sri International | Software-based architecture for communication and cooperation among distributed electronic agents |
US7036128B1 (en) | 1999-01-05 | 2006-04-25 | Sri International Offices | Using a community of distributed electronic agents to support a highly mobile, ambient computing environment |
US6513063B1 (en) * | 1999-01-05 | 2003-01-28 | Sri International | Accessing network-based electronic information through scripted online interfaces using spoken input |
US6757718B1 (en) | 1999-01-05 | 2004-06-29 | Sri International | Mobile navigation of network-based electronic information using spoken input |
US6523061B1 (en) * | 1999-01-05 | 2003-02-18 | Sri International, Inc. | System, method, and article of manufacture for agent-based navigation in a speech-based data navigation system |
US6742021B1 (en) | 1999-01-05 | 2004-05-25 | Sri International, Inc. | Navigating network-based electronic information using spoken input with multimodal error feedback |
US7152070B1 (en) | 1999-01-08 | 2006-12-19 | The Regents Of The University Of California | System and method for integrating and accessing multiple data sources within a data warehouse architecture |
US6505183B1 (en) | 1999-02-04 | 2003-01-07 | Authoria, Inc. | Human resource knowledge modeling and delivery system |
JP3629384B2 (ja) * | 1999-06-29 | 2005-03-16 | シャープ株式会社 | 情報選択装置及び記録媒体 |
US6983251B1 (en) * | 1999-02-15 | 2006-01-03 | Sharp Kabushiki Kaisha | Information selection apparatus selecting desired information from plurality of audio information by mainly using audio |
US6317718B1 (en) | 1999-02-26 | 2001-11-13 | Accenture Properties (2) B.V. | System, method and article of manufacture for location-based filtering for shopping agent in the physical world |
GB9904662D0 (en) | 1999-03-01 | 1999-04-21 | Canon Kk | Natural language search method and apparatus |
US20020013852A1 (en) * | 2000-03-03 | 2002-01-31 | Craig Janik | System for providing content, management, and interactivity for thin client devices |
US6356905B1 (en) | 1999-03-05 | 2002-03-12 | Accenture Llp | System, method and article of manufacture for mobile communication utilizing an interface support framework |
US6928404B1 (en) | 1999-03-17 | 2005-08-09 | International Business Machines Corporation | System and methods for acoustic and language modeling for automatic speech recognition with large vocabularies |
US6584464B1 (en) | 1999-03-19 | 2003-06-24 | Ask Jeeves, Inc. | Grammar template query system |
WO2000058946A1 (en) | 1999-03-26 | 2000-10-05 | Koninklijke Philips Electronics N.V. | Client-server speech recognition |
US6356854B1 (en) | 1999-04-05 | 2002-03-12 | Delphi Technologies, Inc. | Holographic object position and type sensing system and method |
US6631346B1 (en) | 1999-04-07 | 2003-10-07 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for natural language parsing using multiple passes and tags |
WO2000060435A2 (en) | 1999-04-07 | 2000-10-12 | Rensselaer Polytechnic Institute | System and method for accessing personal information |
US6647260B2 (en) | 1999-04-09 | 2003-11-11 | Openwave Systems Inc. | Method and system facilitating web based provisioning of two-way mobile communications devices |
US6924828B1 (en) | 1999-04-27 | 2005-08-02 | Surfnotes | Method and apparatus for improved information representation |
US6697780B1 (en) * | 1999-04-30 | 2004-02-24 | At&T Corp. | Method and apparatus for rapid acoustic unit selection from a large speech corpus |
US6741264B1 (en) | 1999-05-11 | 2004-05-25 | Gific Corporation | Method of generating an audible indication of data stored in a database |
AU5451800A (en) | 1999-05-28 | 2000-12-18 | Sehda, Inc. | Phrase-based dialogue modeling with particular application to creating recognition grammars for voice-controlled user interfaces |
US20020032564A1 (en) | 2000-04-19 | 2002-03-14 | Farzad Ehsani | Phrase-based dialogue modeling with particular application to creating a recognition grammar for a voice-controlled user interface |
US6728675B1 (en) | 1999-06-03 | 2004-04-27 | International Business Machines Corporatiion | Data processor controlled display system with audio identifiers for overlapping windows in an interactive graphical user interface |
US6931384B1 (en) | 1999-06-04 | 2005-08-16 | Microsoft Corporation | System and method providing utility-based decision making about clarification dialog given communicative uncertainty |
US6598039B1 (en) | 1999-06-08 | 2003-07-22 | Albert-Inc. S.A. | Natural language interface for searching database |
US7711565B1 (en) | 1999-06-10 | 2010-05-04 | Gazdzinski Robert F | “Smart” elevator system and method |
US8065155B1 (en) | 1999-06-10 | 2011-11-22 | Gazdzinski Robert F | Adaptive advertising apparatus and methods |
US7093693B1 (en) | 1999-06-10 | 2006-08-22 | Gazdzinski Robert F | Elevator access control system and method |
US6615175B1 (en) * | 1999-06-10 | 2003-09-02 | Robert F. Gazdzinski | “Smart” elevator system and method |
US6711585B1 (en) | 1999-06-15 | 2004-03-23 | Kanisa Inc. | System and method for implementing a knowledge management system |
JP3361291B2 (ja) | 1999-07-23 | 2003-01-07 | コナミ株式会社 | 音声合成方法、音声合成装置及び音声合成プログラムを記録したコンピュータ読み取り可能な媒体 |
US6421672B1 (en) | 1999-07-27 | 2002-07-16 | Verizon Services Corp. | Apparatus for and method of disambiguation of directory listing searches utilizing multiple selectable secondary search keys |
JP2001056233A (ja) * | 1999-08-17 | 2001-02-27 | Arex:Kk | 車載用音声情報サービス装置及び該装置を利用する音声情報サービスシステム |
EP1079387A3 (de) | 1999-08-26 | 2003-07-09 | Matsushita Electric Industrial Co., Ltd. | Vorrichtung zum Speichern von Informationen über aufgezeichnete Fernsehsendungen |
US6601234B1 (en) | 1999-08-31 | 2003-07-29 | Accenture Llp | Attribute dictionary in a business logic services environment |
US6697824B1 (en) | 1999-08-31 | 2004-02-24 | Accenture Llp | Relationship management in an E-commerce application framework |
US6912499B1 (en) | 1999-08-31 | 2005-06-28 | Nortel Networks Limited | Method and apparatus for training a multilingual speech model set |
GB2353927B (en) * | 1999-09-06 | 2004-02-11 | Nokia Mobile Phones Ltd | User interface for text to speech conversion |
US7127403B1 (en) | 1999-09-13 | 2006-10-24 | Microstrategy, Inc. | System and method for personalizing an interactive voice broadcast of a voice service based on particulars of a request |
US6601026B2 (en) | 1999-09-17 | 2003-07-29 | Discern Communications, Inc. | Information retrieval by natural language querying |
US6625583B1 (en) | 1999-10-06 | 2003-09-23 | Goldman, Sachs & Co. | Handheld trading system interface |
US6505175B1 (en) | 1999-10-06 | 2003-01-07 | Goldman, Sachs & Co. | Order centric tracking system |
US7020685B1 (en) | 1999-10-08 | 2006-03-28 | Openwave Systems Inc. | Method and apparatus for providing internet content to SMS-based wireless devices |
US7219123B1 (en) | 1999-10-08 | 2007-05-15 | At Road, Inc. | Portable browser device with adaptive personalization capability |
JP5118280B2 (ja) | 1999-10-19 | 2013-01-16 | ソニー エレクトロニクス インク | 自然言語インターフェースコントロールシステム |
US6807574B1 (en) | 1999-10-22 | 2004-10-19 | Tellme Networks, Inc. | Method and apparatus for content personalization over a telephone interface |
JP2001125896A (ja) | 1999-10-26 | 2001-05-11 | Victor Co Of Japan Ltd | 自然言語対話システム |
US7310600B1 (en) | 1999-10-28 | 2007-12-18 | Canon Kabushiki Kaisha | Language recognition using a similarity measure |
US6665640B1 (en) | 1999-11-12 | 2003-12-16 | Phoenix Solutions, Inc. | Interactive speech based learning/training system formulating search queries based on natural language parsing of recognized user queries |
US9076448B2 (en) * | 1999-11-12 | 2015-07-07 | Nuance Communications, Inc. | Distributed real time speech recognition system |
US7392185B2 (en) | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
US6615172B1 (en) | 1999-11-12 | 2003-09-02 | Phoenix Solutions, Inc. | Intelligent query engine for processing voice based queries |
US6633846B1 (en) | 1999-11-12 | 2003-10-14 | Phoenix Solutions, Inc. | Distributed realtime speech recognition system |
US7050977B1 (en) | 1999-11-12 | 2006-05-23 | Phoenix Solutions, Inc. | Speech-enabled server for internet website and method |
US7725307B2 (en) | 1999-11-12 | 2010-05-25 | Phoenix Solutions, Inc. | Query engine for processing voice based queries including semantic decoding |
US6532446B1 (en) | 1999-11-24 | 2003-03-11 | Openwave Systems Inc. | Server based speech recognition user interface for wireless devices |
US6526382B1 (en) | 1999-12-07 | 2003-02-25 | Comverse, Inc. | Language-oriented user interfaces for voice activated services |
US20010030660A1 (en) | 1999-12-10 | 2001-10-18 | Roustem Zainoulline | Interactive graphical user interface and method for previewing media products |
US6978127B1 (en) | 1999-12-16 | 2005-12-20 | Koninklijke Philips Electronics N.V. | Hand-ear user interface for hand-held device |
US6526395B1 (en) * | 1999-12-31 | 2003-02-25 | Intel Corporation | Application of personality models and interaction with synthetic characters in a computing system |
US6556983B1 (en) | 2000-01-12 | 2003-04-29 | Microsoft Corporation | Methods and apparatus for finding semantic information, such as usage logs, similar to a query using a pattern lattice data space |
US6546388B1 (en) | 2000-01-14 | 2003-04-08 | International Business Machines Corporation | Metadata search results ranking system |
US6701294B1 (en) | 2000-01-19 | 2004-03-02 | Lucent Technologies, Inc. | User interface for translating natural language inquiries into database queries and data presentations |
US6829603B1 (en) | 2000-02-02 | 2004-12-07 | International Business Machines Corp. | System, method and program product for interactive natural dialog |
US6895558B1 (en) | 2000-02-11 | 2005-05-17 | Microsoft Corporation | Multi-access mode electronic personal assistant |
US6640098B1 (en) | 2000-02-14 | 2003-10-28 | Action Engine Corporation | System for obtaining service-related information for local interactive wireless devices |
US6760754B1 (en) | 2000-02-22 | 2004-07-06 | At&T Corp. | System, method and apparatus for communicating via sound messages and personal sound identifiers |
US6847979B2 (en) | 2000-02-25 | 2005-01-25 | Synquiry Technologies, Ltd | Conceptual factoring and unification of graphs representing semantic models |
US6720980B1 (en) | 2000-03-01 | 2004-04-13 | Microsoft Corporation | Method and system for embedding voice notes |
US6519566B1 (en) * | 2000-03-01 | 2003-02-11 | International Business Machines Corporation | Method for hands-free operation of a pointer |
US6449620B1 (en) | 2000-03-02 | 2002-09-10 | Nimble Technology, Inc. | Method and apparatus for generating information pages using semi-structured data stored in a structured manner |
US6895380B2 (en) | 2000-03-02 | 2005-05-17 | Electro Standards Laboratories | Voice actuation with contextual learning for intelligent machine control |
AU2001245447A1 (en) | 2000-03-06 | 2001-09-17 | Kanisa Inc. | A system and method for providing an intelligent multi-step dialog with a user |
US6466654B1 (en) | 2000-03-06 | 2002-10-15 | Avaya Technology Corp. | Personal virtual assistant with semantic tagging |
US6757362B1 (en) | 2000-03-06 | 2004-06-29 | Avaya Technology Corp. | Personal virtual assistant |
US6477488B1 (en) | 2000-03-10 | 2002-11-05 | Apple Computer, Inc. | Method for dynamic context scope selection in hybrid n-gram+LSA language modeling |
US6615220B1 (en) | 2000-03-14 | 2003-09-02 | Oracle International Corporation | Method and mechanism for data consolidation |
US6510417B1 (en) | 2000-03-21 | 2003-01-21 | America Online, Inc. | System and method for voice access to internet-based information |
GB2366009B (en) | 2000-03-22 | 2004-07-21 | Canon Kk | Natural language machine interface |
JP3728172B2 (ja) | 2000-03-31 | 2005-12-21 | キヤノン株式会社 | 音声合成方法および装置 |
NL1014847C1 (nl) | 2000-04-05 | 2001-10-08 | Minos B V I O | Gegevensoverdracht. |
US7177798B2 (en) * | 2000-04-07 | 2007-02-13 | Rensselaer Polytechnic Institute | Natural language interface using constrained intermediate dictionary of results |
US6917373B2 (en) | 2000-12-28 | 2005-07-12 | Microsoft Corporation | Context sensitive labels for an electronic device |
US6810379B1 (en) | 2000-04-24 | 2004-10-26 | Sensory, Inc. | Client/server architecture for text-to-speech synthesis |
EP1285330B1 (de) | 2000-05-11 | 2006-08-30 | Nes Stewart Irvine | Zeroklick |
KR100867760B1 (ko) | 2000-05-15 | 2008-11-10 | 소니 가부시끼 가이샤 | 재생장치, 재생방법 및 기록매체 |
US6754504B1 (en) | 2000-06-10 | 2004-06-22 | Motorola, Inc. | Method and apparatus for controlling environmental conditions using a personal area network |
US6691111B2 (en) * | 2000-06-30 | 2004-02-10 | Research In Motion Limited | System and method for implementing a natural language user interface |
US6684187B1 (en) * | 2000-06-30 | 2004-01-27 | At&T Corp. | Method and system for preselection of suitable units for concatenative speech |
US6505158B1 (en) * | 2000-07-05 | 2003-01-07 | At&T Corp. | Synthesis-based pre-selection of suitable units for concatenative speech |
JP3949356B2 (ja) | 2000-07-12 | 2007-07-25 | 三菱電機株式会社 | 音声対話システム |
US7139709B2 (en) | 2000-07-20 | 2006-11-21 | Microsoft Corporation | Middleware layer between speech related applications and engines |
JP2002041276A (ja) | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
US20060143007A1 (en) | 2000-07-24 | 2006-06-29 | Koh V E | User interaction with voice information services |
KR20020009276A (ko) * | 2000-07-25 | 2002-02-01 | 구자홍 | 음악재생기능의 이동통신단말기 및 이동통신단말기에의음악파일 제공방법 |
US7092928B1 (en) | 2000-07-31 | 2006-08-15 | Quantum Leap Research, Inc. | Intelligent portal engine |
US6778951B1 (en) | 2000-08-09 | 2004-08-17 | Concerto Software, Inc. | Information retrieval method with natural language interface |
US20020052747A1 (en) * | 2000-08-21 | 2002-05-02 | Sarukkai Ramesh R. | Method and system of interpreting and presenting web content using a voice browser |
US6766320B1 (en) | 2000-08-24 | 2004-07-20 | Microsoft Corporation | Search engine with natural language-based robust parsing for user query and relevance feedback learning |
DE10042944C2 (de) | 2000-08-31 | 2003-03-13 | Siemens Ag | Graphem-Phonem-Konvertierung |
US6556971B1 (en) | 2000-09-01 | 2003-04-29 | Snap-On Technologies, Inc. | Computer-implemented speech recognition system training |
DE60127274T2 (de) | 2000-09-15 | 2007-12-20 | Lernout & Hauspie Speech Products N.V. | Schnelle wellenformsynchronisation für die verkettung und zeitskalenmodifikation von sprachsignalen |
AU2001295080A1 (en) | 2000-09-29 | 2002-04-08 | Professorq, Inc. | Natural-language voice-activated personal assistant |
US6947728B2 (en) | 2000-10-13 | 2005-09-20 | Matsushita Electric Industrial Co., Ltd. | Mobile phone with music reproduction function, music data reproduction method by mobile phone with music reproduction function, and the program thereof |
US20020046315A1 (en) | 2000-10-13 | 2002-04-18 | Interactive Objects, Inc. | System and method for mapping interface functionality to codec functionality in a portable audio device |
US6832194B1 (en) | 2000-10-26 | 2004-12-14 | Sensory, Incorporated | Audio recognition peripheral system |
US7027974B1 (en) | 2000-10-27 | 2006-04-11 | Science Applications International Corporation | Ontology-based parser for natural language processing |
US7006969B2 (en) | 2000-11-02 | 2006-02-28 | At&T Corp. | System and method of pattern recognition in very high-dimensional space |
WO2002050816A1 (en) | 2000-12-18 | 2002-06-27 | Koninklijke Philips Electronics N.V. | Store speech, select vocabulary to recognize word |
JP2004533666A (ja) | 2000-12-22 | 2004-11-04 | アンソロピクス テクノロジー リミテッド | 通信システム |
US6937986B2 (en) | 2000-12-28 | 2005-08-30 | Comverse, Inc. | Automatic dynamic speech recognition vocabulary based on external sources of information |
MXPA02008345A (es) | 2000-12-29 | 2002-12-13 | Gen Electric | Metodo y sistema para identificar equipo que repetidamente funciona mal. |
US6731312B2 (en) | 2001-01-08 | 2004-05-04 | Apple Computer, Inc. | Media player interface |
US7257537B2 (en) * | 2001-01-12 | 2007-08-14 | International Business Machines Corporation | Method and apparatus for performing dialog management in a computer conversational interface |
US7149319B2 (en) | 2001-01-23 | 2006-12-12 | Phonak Ag | Telecommunication system, speech recognizer, and terminal, and method for adjusting capacity for vocal commanding |
GB2374772B (en) | 2001-01-29 | 2004-12-29 | Hewlett Packard Co | Audio user interface |
US6964023B2 (en) | 2001-02-05 | 2005-11-08 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
US7290039B1 (en) | 2001-02-27 | 2007-10-30 | Microsoft Corporation | Intent based processing |
US6721728B2 (en) | 2001-03-02 | 2004-04-13 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | System, method and apparatus for discovering phrases in a database |
US7000189B2 (en) * | 2001-03-08 | 2006-02-14 | International Business Mahcines Corporation | Dynamic data generation suitable for talking browser |
US20020169605A1 (en) * | 2001-03-09 | 2002-11-14 | Damiba Bertrand A. | System, method and computer program product for self-verifying file content in a speech recognition framework |
WO2002073451A2 (en) | 2001-03-13 | 2002-09-19 | Intelligate Ltd. | Dynamic natural language understanding |
US6448485B1 (en) | 2001-03-16 | 2002-09-10 | Intel Corporation | Method and system for embedding audio titles |
US7058889B2 (en) | 2001-03-23 | 2006-06-06 | Koninklijke Philips Electronics N.V. | Synchronizing text/visual information with audio playback |
US6738743B2 (en) * | 2001-03-28 | 2004-05-18 | Intel Corporation | Unified client-server distributed architectures for spoken dialogue systems |
US6834264B2 (en) | 2001-03-29 | 2004-12-21 | Provox Technologies Corporation | Method and apparatus for voice dictation and document production |
US6996531B2 (en) * | 2001-03-30 | 2006-02-07 | Comverse Ltd. | Automated database assistance using a telephone for a speech based or text based multimedia communication mode |
US6654740B2 (en) | 2001-05-08 | 2003-11-25 | Sunflare Co., Ltd. | Probabilistic information retrieval based on differential latent semantic space |
US7085722B2 (en) | 2001-05-14 | 2006-08-01 | Sony Computer Entertainment America Inc. | System and method for menu-driven voice control of characters in a game environment |
US6944594B2 (en) | 2001-05-30 | 2005-09-13 | Bellsouth Intellectual Property Corporation | Multi-context conversational environment system and method |
US20020194003A1 (en) * | 2001-06-05 | 2002-12-19 | Mozer Todd F. | Client-server security system and method |
US20020198714A1 (en) | 2001-06-26 | 2002-12-26 | Guojun Zhou | Statistical spoken dialog system |
US7139722B2 (en) | 2001-06-27 | 2006-11-21 | Bellsouth Intellectual Property Corporation | Location and time sensitive wireless calendaring |
US7752546B2 (en) * | 2001-06-29 | 2010-07-06 | Thomson Licensing | Method and system for providing an acoustic interface |
US20030020760A1 (en) * | 2001-07-06 | 2003-01-30 | Kazunori Takatsu | Method for setting a function and a setting item by selectively specifying a position in a tree-structured menu |
US6604059B2 (en) | 2001-07-10 | 2003-08-05 | Koninklijke Philips Electronics N.V. | Predictive calendar |
US7987151B2 (en) | 2001-08-10 | 2011-07-26 | General Dynamics Advanced Info Systems, Inc. | Apparatus and method for problem solving using intelligent agents |
US6813491B1 (en) | 2001-08-31 | 2004-11-02 | Openwave Systems Inc. | Method and apparatus for adapting settings of wireless communication devices in accordance with user proximity |
US6892083B2 (en) | 2001-09-05 | 2005-05-10 | Vocera Communications Inc. | Voice-controlled wireless communications system and method |
US7403938B2 (en) | 2001-09-24 | 2008-07-22 | Iac Search & Media, Inc. | Natural language query processing |
US7010581B2 (en) | 2001-09-24 | 2006-03-07 | International Business Machines Corporation | Method and system for providing browser functions on a web page for client-specific accessibility |
US7101185B2 (en) | 2001-09-26 | 2006-09-05 | Scientific Learning Corporation | Method and apparatus for automated training of language learning skills |
US6985865B1 (en) * | 2001-09-26 | 2006-01-10 | Sprint Spectrum L.P. | Method and system for enhanced response to voice commands in a voice command platform |
US6650735B2 (en) | 2001-09-27 | 2003-11-18 | Microsoft Corporation | Integrated voice access to a variety of personal information services |
US7324947B2 (en) * | 2001-10-03 | 2008-01-29 | Promptu Systems Corporation | Global speech user interface |
US7027990B2 (en) | 2001-10-12 | 2006-04-11 | Lester Sussman | System and method for integrating the visual display of text menus for interactive voice response systems |
US7167832B2 (en) | 2001-10-15 | 2007-01-23 | At&T Corp. | Method for dialog management |
EP1440402A1 (de) | 2001-10-22 | 2004-07-28 | Apple Computer, Inc. | Intelligente synchronisation für einen media-player |
US20030167318A1 (en) | 2001-10-22 | 2003-09-04 | Apple Computer, Inc. | Intelligent synchronization of media player with host computer |
GB2381409B (en) | 2001-10-27 | 2004-04-28 | Hewlett Packard Ltd | Asynchronous access to synchronous voice services |
EP1311102A1 (de) | 2001-11-08 | 2003-05-14 | Hewlett-Packard Company | Streaming Audio unter Sprachkontrolle |
NO316480B1 (no) | 2001-11-15 | 2004-01-26 | Forinnova As | Fremgangsmåte og system for tekstuell granskning og oppdagelse |
US6996777B2 (en) | 2001-11-29 | 2006-02-07 | Nokia Corporation | Method and apparatus for presenting auditory icons in a mobile terminal |
TW541517B (en) | 2001-12-25 | 2003-07-11 | Univ Nat Cheng Kung | Speech recognition system |
US20030144846A1 (en) * | 2002-01-31 | 2003-07-31 | Denenberg Lawrence A. | Method and system for modifying the behavior of an application based upon the application's grammar |
US20030158737A1 (en) | 2002-02-15 | 2003-08-21 | Csicsatka Tibor George | Method and apparatus for incorporating additional audio information into audio data file identifying information |
US20030167335A1 (en) * | 2002-03-04 | 2003-09-04 | Vigilos, Inc. | System and method for network-based communication |
JP4039086B2 (ja) * | 2002-03-05 | 2008-01-30 | ソニー株式会社 | 情報処理装置および情報処理方法、情報処理システム、記録媒体、並びにプログラム |
US7197460B1 (en) | 2002-04-23 | 2007-03-27 | At&T Corp. | System for handling frequently asked questions in a natural language dialog service |
US6847966B1 (en) * | 2002-04-24 | 2005-01-25 | Engenium Corporation | Method and system for optimally searching a document database using a representative semantic space |
US7546382B2 (en) | 2002-05-28 | 2009-06-09 | International Business Machines Corporation | Methods and systems for authoring of mixed-initiative multi-modal interactions and related browsing mechanisms |
WO2003102919A1 (en) * | 2002-05-31 | 2003-12-11 | Onkyo Corporation | Network type content reproduction system |
US7398209B2 (en) | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US6999066B2 (en) * | 2002-06-24 | 2006-02-14 | Xerox Corporation | System for audible feedback for touch screen displays |
US7233790B2 (en) | 2002-06-28 | 2007-06-19 | Openwave Systems, Inc. | Device capability based discovery, packaging and provisioning of content for wireless mobile devices |
US7299033B2 (en) | 2002-06-28 | 2007-11-20 | Openwave Systems Inc. | Domain-based management of distribution of digital content from multiple suppliers to multiple wireless services subscribers |
US7693720B2 (en) | 2002-07-15 | 2010-04-06 | Voicebox Technologies, Inc. | Mobile systems and methods for responding to natural language speech utterance |
AU2003274902A1 (en) | 2002-07-25 | 2004-02-16 | Sharp Laboratories Of America, Inc. | Aural user interface |
US7166791B2 (en) * | 2002-07-30 | 2007-01-23 | Apple Computer, Inc. | Graphical user interface and methods of use thereof in a multimedia player |
US7103157B2 (en) * | 2002-09-17 | 2006-09-05 | International Business Machines Corporation | Audio quality when streaming audio to non-streaming telephony devices |
JP2004117905A (ja) * | 2002-09-26 | 2004-04-15 | Fujitsu Ltd | 音声を用いた情報アクセス装置及び方法 |
US20040061717A1 (en) | 2002-09-30 | 2004-04-01 | Menon Rama R. | Mechanism for voice-enabling legacy internet content for use with multi-modal browsers |
US7467087B1 (en) | 2002-10-10 | 2008-12-16 | Gillick Laurence S | Training and using pronunciation guessers in speech recognition |
US7054888B2 (en) | 2002-10-16 | 2006-05-30 | Microsoft Corporation | Optimizing media player memory during rendering |
US20040218451A1 (en) | 2002-11-05 | 2004-11-04 | Said Joe P. | Accessible user interface and navigation system and method |
US7783486B2 (en) | 2002-11-22 | 2010-08-24 | Roy Jonathan Rosser | Response generator for mimicking human-computer natural language conversation |
EP1614102A4 (de) | 2002-12-10 | 2006-12-20 | Kirusa Inc | Techniken zur disambiguation von spracheingaben unter verwendung multimodaler schnittstellen |
US7386449B2 (en) | 2002-12-11 | 2008-06-10 | Voice Enabling Systems Technology Inc. | Knowledge-based flexible natural speech dialogue system |
GB2396927A (en) | 2002-12-30 | 2004-07-07 | Digital Fidelity Ltd | Media file distribution system |
US7956766B2 (en) | 2003-01-06 | 2011-06-07 | Panasonic Corporation | Apparatus operating system |
US7529671B2 (en) | 2003-03-04 | 2009-05-05 | Microsoft Corporation | Block synchronous decoding |
US6980949B2 (en) | 2003-03-14 | 2005-12-27 | Sonum Technologies, Inc. | Natural language processor |
US7496498B2 (en) * | 2003-03-24 | 2009-02-24 | Microsoft Corporation | Front-end architecture for a multi-lingual text-to-speech system |
EP1465047A1 (de) * | 2003-04-03 | 2004-10-06 | Deutsche Thomson-Brandt Gmbh | Verfahren zum Darstellen von Menütasten |
US6728729B1 (en) | 2003-04-25 | 2004-04-27 | Apple Computer, Inc. | Accessing media across networks |
US7421393B1 (en) | 2004-03-01 | 2008-09-02 | At&T Corp. | System for developing a dialog manager using modular spoken-dialog components |
US20050045373A1 (en) | 2003-05-27 | 2005-03-03 | Joseph Born | Portable media device with audio prompt menu |
US7200559B2 (en) | 2003-05-29 | 2007-04-03 | Microsoft Corporation | Semantic object synchronous understanding implemented with speech application language tags |
US7720683B1 (en) | 2003-06-13 | 2010-05-18 | Sensory, Inc. | Method and apparatus of specifying and performing speech recognition operations |
US20060277058A1 (en) | 2003-07-07 | 2006-12-07 | J Maev Jack I | Method and apparatus for providing aftermarket service for a product |
US7757173B2 (en) * | 2003-07-18 | 2010-07-13 | Apple Inc. | Voice menu system |
EP1653361A4 (de) * | 2003-08-08 | 2006-12-13 | Onkyo Kk | Netzwerk-av-system |
US7475010B2 (en) * | 2003-09-03 | 2009-01-06 | Lingospot, Inc. | Adaptive and scalable method for resolving natural language ambiguities |
US7418392B1 (en) | 2003-09-25 | 2008-08-26 | Sensory, Inc. | System and method for controlling the operation of a device by voice commands |
US7155706B2 (en) | 2003-10-24 | 2006-12-26 | Microsoft Corporation | Administrative tool environment |
US20050102625A1 (en) | 2003-11-07 | 2005-05-12 | Lee Yong C. | Audio tag retrieval system and method |
US7584092B2 (en) | 2004-11-15 | 2009-09-01 | Microsoft Corporation | Unsupervised learning of paraphrase/translation alternations and selective application thereof |
US7412385B2 (en) | 2003-11-12 | 2008-08-12 | Microsoft Corporation | System for identifying paraphrases using machine translation |
US8055713B2 (en) | 2003-11-17 | 2011-11-08 | Hewlett-Packard Development Company, L.P. | Email application with user voice interface |
US7447630B2 (en) | 2003-11-26 | 2008-11-04 | Microsoft Corporation | Method and apparatus for multi-sensory speech enhancement |
EP1691343B1 (de) | 2003-12-05 | 2008-09-17 | Kabushiki Kaisha Kenwood | Audioeinrichtungs-steuereinrichtung, audioeinrichtungs-steuerverfahren und programm |
AU2003299312A1 (en) | 2003-12-16 | 2005-07-05 | Loquendo S.P.A. | Text-to-speech method and system, computer program product therefor |
US7427024B1 (en) | 2003-12-17 | 2008-09-23 | Gazdzinski Mark J | Chattel management apparatus and methods |
US7552055B2 (en) | 2004-01-10 | 2009-06-23 | Microsoft Corporation | Dialog component re-use in recognition systems |
WO2005071663A2 (en) | 2004-01-16 | 2005-08-04 | Scansoft, Inc. | Corpus-based speech synthesis based on segment recombination |
US20050165607A1 (en) | 2004-01-22 | 2005-07-28 | At&T Corp. | System and method to disambiguate and clarify user intention in a spoken dialog system |
ATE415684T1 (de) | 2004-01-29 | 2008-12-15 | Harman Becker Automotive Sys | Verfahren und system zur sprachdialogschnittstelle |
KR100462292B1 (ko) | 2004-02-26 | 2004-12-17 | 엔에이치엔(주) | 중요도 정보를 반영한 검색 결과 리스트 제공 방법 및 그시스템 |
US7693715B2 (en) | 2004-03-10 | 2010-04-06 | Microsoft Corporation | Generating large units of graphonemes with mutual information criterion for letter to sound conversion |
US7409337B1 (en) | 2004-03-30 | 2008-08-05 | Microsoft Corporation | Natural language processing interface |
US7496512B2 (en) * | 2004-04-13 | 2009-02-24 | Microsoft Corporation | Refining of segmental boundaries in speech waveforms using contextual-dependent models |
JP2005311864A (ja) * | 2004-04-23 | 2005-11-04 | Toshiba Corp | 家電機器、アダプタ装置および家電機器システム |
US8095364B2 (en) * | 2004-06-02 | 2012-01-10 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
US7720674B2 (en) | 2004-06-29 | 2010-05-18 | Sap Ag | Systems and methods for processing natural language queries |
TWI252049B (en) * | 2004-07-23 | 2006-03-21 | Inventec Corp | Sound control system and method |
US7725318B2 (en) | 2004-07-30 | 2010-05-25 | Nice Systems Inc. | System and method for improving the accuracy of audio searching |
US7853574B2 (en) | 2004-08-26 | 2010-12-14 | International Business Machines Corporation | Method of generating a context-inferenced search query and of sorting a result of the query |
US7716056B2 (en) | 2004-09-27 | 2010-05-11 | Robert Bosch Corporation | Method and system for interactive conversational dialogue for cognitively overloaded device users |
US8107401B2 (en) * | 2004-09-30 | 2012-01-31 | Avaya Inc. | Method and apparatus for providing a virtual assistant to a communication participant |
US7362312B2 (en) | 2004-11-01 | 2008-04-22 | Nokia Corporation | Mobile communication terminal and method |
US7735012B2 (en) * | 2004-11-04 | 2010-06-08 | Apple Inc. | Audio user interface for computing devices |
US7546235B2 (en) | 2004-11-15 | 2009-06-09 | Microsoft Corporation | Unsupervised learning of paraphrase/translation alternations and selective application thereof |
US7552046B2 (en) | 2004-11-15 | 2009-06-23 | Microsoft Corporation | Unsupervised learning of paraphrase/translation alternations and selective application thereof |
US7702500B2 (en) | 2004-11-24 | 2010-04-20 | Blaedow Karen R | Method and apparatus for determining the meaning of natural language |
CN1609859A (zh) | 2004-11-26 | 2005-04-27 | 孙斌 | 搜索结果聚类的方法 |
US7376645B2 (en) | 2004-11-29 | 2008-05-20 | The Intellection Group, Inc. | Multimodal natural language query system and architecture for processing voice and proximity-based queries |
US8214214B2 (en) * | 2004-12-03 | 2012-07-03 | Phoenix Solutions, Inc. | Emotion detection device and method for use in distributed systems |
US20060122834A1 (en) | 2004-12-03 | 2006-06-08 | Bennett Ian M | Emotion detection device & method for use in distributed systems |
US8024194B2 (en) | 2004-12-08 | 2011-09-20 | Nuance Communications, Inc. | Dynamic switching between local and remote speech rendering |
US7636657B2 (en) | 2004-12-09 | 2009-12-22 | Microsoft Corporation | Method and apparatus for automatic grammar generation from data entries |
US7873654B2 (en) * | 2005-01-24 | 2011-01-18 | The Intellection Group, Inc. | Multimodal natural language query system for processing and analyzing voice and proximity-based queries |
US7508373B2 (en) | 2005-01-28 | 2009-03-24 | Microsoft Corporation | Form factor and input method for language input |
GB0502259D0 (en) | 2005-02-03 | 2005-03-09 | British Telecomm | Document searching tool and method |
US7676026B1 (en) | 2005-03-08 | 2010-03-09 | Baxtech Asia Pte Ltd | Desktop telephony system |
US7925525B2 (en) | 2005-03-25 | 2011-04-12 | Microsoft Corporation | Smart reminders |
WO2006129967A1 (en) | 2005-05-30 | 2006-12-07 | Daumsoft, Inc. | Conversation system and method using conversational agent |
US8041570B2 (en) | 2005-05-31 | 2011-10-18 | Robert Bosch Corporation | Dialogue management using scripts |
US8024195B2 (en) | 2005-06-27 | 2011-09-20 | Sensory, Inc. | Systems and methods of performing speech recognition using historical information |
US7826945B2 (en) | 2005-07-01 | 2010-11-02 | You Zhang | Automobile speech-recognition interface |
US7640160B2 (en) | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US9356982B2 (en) | 2005-08-05 | 2016-05-31 | Intel Corporation | System and method for transferring playlists |
US7620549B2 (en) | 2005-08-10 | 2009-11-17 | Voicebox Technologies, Inc. | System and method of supporting adaptive misrecognition in conversational speech |
US8126716B2 (en) * | 2005-08-19 | 2012-02-28 | Nuance Communications, Inc. | Method and system for collecting audio prompts in a dynamically generated voice application |
US7949529B2 (en) | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
US8265939B2 (en) | 2005-08-31 | 2012-09-11 | Nuance Communications, Inc. | Hierarchical methods and apparatus for extracting user intent from spoken utterances |
EP1934971A4 (de) | 2005-08-31 | 2010-10-27 | Voicebox Technologies Inc | Dynamische sprachverschärfung |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
JP4908094B2 (ja) | 2005-09-30 | 2012-04-04 | 株式会社リコー | 情報処理システム、情報処理方法及び情報処理プログラム |
US7930168B2 (en) | 2005-10-04 | 2011-04-19 | Robert Bosch Gmbh | Natural language processing of disfluent sentences |
US8620667B2 (en) | 2005-10-17 | 2013-12-31 | Microsoft Corporation | Flexible speech-activated command and control |
US7707032B2 (en) | 2005-10-20 | 2010-04-27 | National Cheng Kung University | Method and system for matching speech data |
US20070106674A1 (en) | 2005-11-10 | 2007-05-10 | Purusharth Agrawal | Field sales process facilitation systems and methods |
US7822749B2 (en) | 2005-11-28 | 2010-10-26 | Commvault Systems, Inc. | Systems and methods for classifying and transferring information in a storage network |
KR20070057496A (ko) | 2005-12-02 | 2007-06-07 | 삼성전자주식회사 | 액정 표시 장치 |
US8654993B2 (en) * | 2005-12-07 | 2014-02-18 | Apple Inc. | Portable audio device providing automated control of audio volume parameters for hearing protection |
KR100810500B1 (ko) | 2005-12-08 | 2008-03-07 | 한국전자통신연구원 | 대화형 음성 인터페이스 시스템에서의 사용자 편의성증대 방법 |
DE102005061365A1 (de) | 2005-12-21 | 2007-06-28 | Siemens Ag | Verfahren zur Ansteuerung zumindest einer ersten und zweiten Hintergrundapplikation über ein universelles Sprachdialogsystem |
US7996228B2 (en) | 2005-12-22 | 2011-08-09 | Microsoft Corporation | Voice initiated network operations |
US7599918B2 (en) | 2005-12-29 | 2009-10-06 | Microsoft Corporation | Dynamic search with implicit user intention mining |
JP2007183864A (ja) | 2006-01-10 | 2007-07-19 | Fujitsu Ltd | ファイル検索方法及びそのシステム |
US20070174188A1 (en) | 2006-01-25 | 2007-07-26 | Fish Robert D | Electronic marketplace that facilitates transactions between consolidated buyers and/or sellers |
IL174107A0 (en) * | 2006-02-01 | 2006-08-01 | Grois Dan | Method and system for advertising by means of a search engine over a data network |
KR100764174B1 (ko) | 2006-03-03 | 2007-10-08 | 삼성전자주식회사 | 음성 대화 서비스 장치 및 방법 |
US7752152B2 (en) | 2006-03-17 | 2010-07-06 | Microsoft Corporation | Using predictive user models for language modeling on a personal device with user behavior models based on statistical modeling |
JP4734155B2 (ja) | 2006-03-24 | 2011-07-27 | 株式会社東芝 | 音声認識装置、音声認識方法および音声認識プログラム |
US7707027B2 (en) | 2006-04-13 | 2010-04-27 | Nuance Communications, Inc. | Identification and rejection of meaningless input during natural language classification |
US8331574B2 (en) * | 2006-05-10 | 2012-12-11 | Koninklijke Philips Electronics N.V. | Automatic external defibrillator with enhanced clarity of audible prompts |
EP1858005A1 (de) * | 2006-05-19 | 2007-11-21 | Texthelp Systems Limited | Servergenerierter Sprachstrom mit synchronisierter Hervorhebung |
US8423347B2 (en) | 2006-06-06 | 2013-04-16 | Microsoft Corporation | Natural language personal information management |
US7523108B2 (en) | 2006-06-07 | 2009-04-21 | Platformation, Inc. | Methods and apparatus for searching with awareness of geography and languages |
US20100257160A1 (en) | 2006-06-07 | 2010-10-07 | Yu Cao | Methods & apparatus for searching with awareness of different types of information |
US7483894B2 (en) | 2006-06-07 | 2009-01-27 | Platformation Technologies, Inc | Methods and apparatus for entity search |
KR100776800B1 (ko) | 2006-06-16 | 2007-11-19 | 한국전자통신연구원 | 지능형 가제트를 이용한 맞춤형 서비스 제공 방법 및시스템 |
US7548895B2 (en) | 2006-06-30 | 2009-06-16 | Microsoft Corporation | Communication-prompted user assistance |
EP2044804A4 (de) * | 2006-07-08 | 2013-12-18 | Personics Holdings Inc | Persönliches hörhilfegerät und verfahren |
US20080042970A1 (en) * | 2006-07-24 | 2008-02-21 | Yih-Shiuan Liang | Associating a region on a surface with a sound or with another region |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8073681B2 (en) * | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
US20080129520A1 (en) | 2006-12-01 | 2008-06-05 | Apple Computer, Inc. | Electronic device with enhanced audio feedback |
WO2008085742A2 (en) | 2007-01-07 | 2008-07-17 | Apple Inc. | Portable multifunction device, method and graphical user interface for interacting with user input elements in displayed content |
KR100883657B1 (ko) | 2007-01-26 | 2009-02-18 | 삼성전자주식회사 | 음성 인식 기반의 음악 검색 방법 및 장치 |
US7818176B2 (en) | 2007-02-06 | 2010-10-19 | Voicebox Technologies, Inc. | System and method for selecting and presenting advertisements based on natural language processing of voice-based input |
US7801728B2 (en) | 2007-02-26 | 2010-09-21 | Nuance Communications, Inc. | Document session replay for multimodal applications |
US7822608B2 (en) | 2007-02-27 | 2010-10-26 | Nuance Communications, Inc. | Disambiguating a speech recognition grammar in a multimodal application |
US20080221899A1 (en) | 2007-03-07 | 2008-09-11 | Cerra Joseph P | Mobile messaging environment speech processing facility |
US7801729B2 (en) | 2007-03-13 | 2010-09-21 | Sensory, Inc. | Using multiple attributes to create a voice search playlist |
US8219406B2 (en) | 2007-03-15 | 2012-07-10 | Microsoft Corporation | Speech-centric multimodal user interface design in mobile technology |
US7809610B2 (en) | 2007-04-09 | 2010-10-05 | Platformation, Inc. | Methods and apparatus for freshness and completeness of information |
US7983915B2 (en) | 2007-04-30 | 2011-07-19 | Sonic Foundry, Inc. | Audio content search engine |
US8055708B2 (en) | 2007-06-01 | 2011-11-08 | Microsoft Corporation | Multimedia spaces |
US8204238B2 (en) | 2007-06-08 | 2012-06-19 | Sensory, Inc | Systems and methods of sonic communication |
US8190627B2 (en) * | 2007-06-28 | 2012-05-29 | Microsoft Corporation | Machine assisted query formulation |
US8019606B2 (en) * | 2007-06-29 | 2011-09-13 | Microsoft Corporation | Identification and selection of a software application via speech |
JP4424382B2 (ja) * | 2007-07-04 | 2010-03-03 | ソニー株式会社 | コンテンツ再生装置およびコンテンツ自動受信方法 |
JP2009036999A (ja) | 2007-08-01 | 2009-02-19 | Infocom Corp | コンピュータによる対話方法、対話システム、コンピュータプログラムおよびコンピュータに読み取り可能な記憶媒体 |
KR101359715B1 (ko) | 2007-08-24 | 2014-02-10 | 삼성전자주식회사 | 모바일 음성 웹 제공 방법 및 장치 |
US8190359B2 (en) | 2007-08-31 | 2012-05-29 | Proxpro, Inc. | Situation-aware personal information management for a mobile device |
US20090058823A1 (en) | 2007-09-04 | 2009-03-05 | Apple Inc. | Virtual Keyboards in Multi-Language Environment |
US8838760B2 (en) | 2007-09-14 | 2014-09-16 | Ricoh Co., Ltd. | Workflow-enabled provider |
KR100920267B1 (ko) | 2007-09-17 | 2009-10-05 | 한국전자통신연구원 | 음성 대화 분석 시스템 및 그 방법 |
US8706476B2 (en) | 2007-09-18 | 2014-04-22 | Ariadne Genomics, Inc. | Natural language processing method by analyzing primitive sentences, logical clauses, clause types and verbal blocks |
US8165886B1 (en) | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US8036901B2 (en) | 2007-10-05 | 2011-10-11 | Sensory, Incorporated | Systems and methods of performing speech recognition using sensory inputs of human position |
US20090112677A1 (en) | 2007-10-24 | 2009-04-30 | Rhett Randolph L | Method for automatically developing suggested optimal work schedules from unsorted group and individual task lists |
US7840447B2 (en) | 2007-10-30 | 2010-11-23 | Leonard Kleinrock | Pricing and auctioning of bundled items among multiple sellers and buyers |
US7983997B2 (en) | 2007-11-02 | 2011-07-19 | Florida Institute For Human And Machine Cognition, Inc. | Interactive complex task teaching system that allows for natural language input, recognizes a user's intent, and automatically performs tasks in document object model (DOM) nodes |
US8112280B2 (en) | 2007-11-19 | 2012-02-07 | Sensory, Inc. | Systems and methods of performing speech recognition with barge-in for use in a bluetooth system |
US8140335B2 (en) | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US8219407B1 (en) | 2007-12-27 | 2012-07-10 | Great Northern Research, LLC | Method for processing the output of a speech recognizer |
US8099289B2 (en) | 2008-02-13 | 2012-01-17 | Sensory, Inc. | Voice interface and search for electronic devices including bluetooth headsets and remote systems |
US8958848B2 (en) | 2008-04-08 | 2015-02-17 | Lg Electronics Inc. | Mobile terminal and menu control method thereof |
US8666824B2 (en) | 2008-04-23 | 2014-03-04 | Dell Products L.P. | Digital media content location and purchasing system |
US8285344B2 (en) | 2008-05-21 | 2012-10-09 | DP Technlogies, Inc. | Method and apparatus for adjusting audio for a user environment |
US8589161B2 (en) | 2008-05-27 | 2013-11-19 | Voicebox Technologies, Inc. | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
US8694355B2 (en) | 2008-05-30 | 2014-04-08 | Sri International | Method and apparatus for automated assistance with task management |
US8423288B2 (en) | 2009-11-30 | 2013-04-16 | Apple Inc. | Dynamic alerts for calendar events |
US8166019B1 (en) | 2008-07-21 | 2012-04-24 | Sprint Communications Company L.P. | Providing suggested actions in response to textual communications |
KR101005074B1 (ko) | 2008-09-18 | 2010-12-30 | 주식회사 수현테크 | 합성수지제 파이프 연결 고정구 |
US9200913B2 (en) | 2008-10-07 | 2015-12-01 | Telecommunication Systems, Inc. | User interface for predictive traffic |
US8140328B2 (en) | 2008-12-01 | 2012-03-20 | At&T Intellectual Property I, L.P. | User intention based on N-best list of recognition hypotheses for utterances in a dialog |
US8326637B2 (en) | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
US8805823B2 (en) | 2009-04-14 | 2014-08-12 | Sri International | Content processing systems and methods |
KR101581883B1 (ko) | 2009-04-30 | 2016-01-11 | 삼성전자주식회사 | 모션 정보를 이용하는 음성 검출 장치 및 방법 |
EP2426598B1 (de) | 2009-04-30 | 2017-06-21 | Samsung Electronics Co., Ltd. | Vorrichtung und verfahren für benutzerabsichtsermittlung mithilfe multimodaler informationen |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10540976B2 (en) | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
KR101562792B1 (ko) | 2009-06-10 | 2015-10-23 | 삼성전자주식회사 | 목표 예측 인터페이스 제공 장치 및 그 방법 |
US8527278B2 (en) | 2009-06-29 | 2013-09-03 | Abraham Ben David | Intelligent home automation |
US20110047072A1 (en) | 2009-08-07 | 2011-02-24 | Visa U.S.A. Inc. | Systems and Methods for Propensity Analysis and Validation |
US8768313B2 (en) | 2009-08-17 | 2014-07-01 | Digimarc Corporation | Methods and systems for image or audio recognition processing |
EP2473916A4 (de) | 2009-09-02 | 2013-07-10 | Stanford Res Inst Int | Verfahren und vorrichtung zur verwendung eines menschlichen feedbacks in einem intelligenten automatisierten assistenten |
US8321527B2 (en) | 2009-09-10 | 2012-11-27 | Tribal Brands | System and method for tracking user location and associated activity and responsively providing mobile device updates |
KR20110036385A (ko) | 2009-10-01 | 2011-04-07 | 삼성전자주식회사 | 사용자 의도 분석 장치 및 방법 |
US9197736B2 (en) | 2009-12-31 | 2015-11-24 | Digimarc Corporation | Intuitive computing methods and systems |
US20110099507A1 (en) * | 2009-10-28 | 2011-04-28 | Google Inc. | Displaying a collection of interactive elements that trigger actions directed to an item |
US20120137367A1 (en) | 2009-11-06 | 2012-05-31 | Cataphora, Inc. | Continuous anomaly detection based on behavior modeling and heterogeneous information analysis |
US9171541B2 (en) | 2009-11-10 | 2015-10-27 | Voicebox Technologies Corporation | System and method for hybrid processing in a natural language voice services environment |
WO2011059997A1 (en) | 2009-11-10 | 2011-05-19 | Voicebox Technologies, Inc. | System and method for providing a natural language content dedication service |
US8712759B2 (en) | 2009-11-13 | 2014-04-29 | Clausal Computing Oy | Specializing disambiguation of a natural language expression |
KR101960835B1 (ko) | 2009-11-24 | 2019-03-21 | 삼성전자주식회사 | 대화 로봇을 이용한 일정 관리 시스템 및 그 방법 |
US8396888B2 (en) * | 2009-12-04 | 2013-03-12 | Google Inc. | Location-based searching using a search area that corresponds to a geographical location of a computing device |
KR101622111B1 (ko) | 2009-12-11 | 2016-05-18 | 삼성전자 주식회사 | 대화 시스템 및 그의 대화 방법 |
US20110161309A1 (en) | 2009-12-29 | 2011-06-30 | Lx1 Technology Limited | Method Of Sorting The Result Set Of A Search Engine |
US8494852B2 (en) * | 2010-01-05 | 2013-07-23 | Google Inc. | Word-level correction of speech input |
US8334842B2 (en) | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US8626511B2 (en) | 2010-01-22 | 2014-01-07 | Google Inc. | Multi-dimensional disambiguation of voice commands |
US20110218855A1 (en) | 2010-03-03 | 2011-09-08 | Platformation, Inc. | Offering Promotions Based on Query Analysis |
KR101369810B1 (ko) | 2010-04-09 | 2014-03-05 | 이초강 | 로봇을 위한 경험적 상황인식 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체. |
US8265928B2 (en) * | 2010-04-14 | 2012-09-11 | Google Inc. | Geotagged environmental audio for enhanced speech recognition accuracy |
US20110279368A1 (en) | 2010-05-12 | 2011-11-17 | Microsoft Corporation | Inferring user intent to engage a motion capture system |
US8694313B2 (en) * | 2010-05-19 | 2014-04-08 | Google Inc. | Disambiguation of contact information using historical data |
US8522283B2 (en) | 2010-05-20 | 2013-08-27 | Google Inc. | Television remote control data transfer |
US8468012B2 (en) * | 2010-05-26 | 2013-06-18 | Google Inc. | Acoustic model adaptation using geographic information |
US20110306426A1 (en) | 2010-06-10 | 2011-12-15 | Microsoft Corporation | Activity Participation Based On User Intent |
US8234111B2 (en) * | 2010-06-14 | 2012-07-31 | Google Inc. | Speech and noise models for speech recognition |
US8411874B2 (en) * | 2010-06-30 | 2013-04-02 | Google Inc. | Removing noise from audio |
US8775156B2 (en) | 2010-08-05 | 2014-07-08 | Google Inc. | Translating languages in response to device motion |
US8359020B2 (en) | 2010-08-06 | 2013-01-22 | Google Inc. | Automatically monitoring for voice input based on context |
US8473289B2 (en) | 2010-08-06 | 2013-06-25 | Google Inc. | Disambiguating input based on context |
WO2012148904A1 (en) | 2011-04-25 | 2012-11-01 | Veveo, Inc. | System and method for an intelligent personal timeline assistant |
-
2008
- 2008-09-09 US US12/207,314 patent/US8898568B2/en not_active Expired - Fee Related
-
2009
- 2009-07-28 JP JP2011525045A patent/JP5667978B2/ja not_active Expired - Fee Related
- 2009-07-28 EP EP09790882.6A patent/EP2324416B1/de not_active Not-in-force
- 2009-07-28 WO PCT/US2009/051954 patent/WO2010030440A1/en active Application Filing
- 2009-07-28 DE DE112009002183T patent/DE112009002183T5/de not_active Withdrawn
- 2009-07-28 CN CN200980135356.3A patent/CN102150128B/zh not_active Expired - Fee Related
- 2009-07-28 KR KR1020117005433A patent/KR20110038735A/ko not_active Application Discontinuation
-
2012
- 2012-02-09 HK HK12101271.4A patent/HK1160957A1/xx not_active IP Right Cessation
Non-Patent Citations (1)
Title |
---|
IEEE 1394 |
Also Published As
Publication number | Publication date |
---|---|
HK1160957A1 (en) | 2012-08-17 |
CN102150128B (zh) | 2015-02-25 |
US20100064218A1 (en) | 2010-03-11 |
WO2010030440A1 (en) | 2010-03-18 |
JP2012501035A (ja) | 2012-01-12 |
EP2324416A1 (de) | 2011-05-25 |
KR20110038735A (ko) | 2011-04-14 |
US8898568B2 (en) | 2014-11-25 |
EP2324416B1 (de) | 2016-01-13 |
JP5667978B2 (ja) | 2015-02-12 |
CN102150128A (zh) | 2011-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112009002183T5 (de) | Audiobenutzerschnittstelle | |
JP6982602B2 (ja) | スマートデバイス用リソースプッシュ方法、スマートデバイス及びコンピュータ可読記憶媒体 | |
US9824150B2 (en) | Systems and methods for providing information discovery and retrieval | |
US7779357B2 (en) | Audio user interface for computing devices | |
US8438485B2 (en) | System, method, and apparatus for generating, customizing, distributing, and presenting an interactive audio publication | |
US20080046406A1 (en) | Audio and video thumbnails | |
US20100064053A1 (en) | Radio with personal dj | |
US8438145B2 (en) | Methods, systems, and computer program products for determining availability of presentable content via a subscription service | |
US20090063976A1 (en) | Generating a playlist using metadata tags | |
US20050015254A1 (en) | Voice menu system | |
CN109819301B (zh) | 视频的播放方法及装置、终端设备、计算机可读存储介质 | |
CN107040452B (zh) | 一种信息处理方法、装置和计算机可读存储介质 | |
DE102016125806B4 (de) | Verfahren, Systeme und Medien zum Identifizieren und Präsentieren von mehrsprachigen Medieninhaltselementen für Benutzer | |
US8583165B2 (en) | System for cartoon creation and distribution to mobile devices | |
DE202005021803U1 (de) | Tragbare Multimediavorrichtung zur Datenübertragung | |
US8340797B2 (en) | Method and system for generating and processing digital content based on text-to-speech conversion | |
KR20080056013A (ko) | 미디어 선택 방법 및 시스템 | |
JP5020867B2 (ja) | コンテンツ再生装置、コンテンツ再生システム及びプログラム | |
JP2019023805A (ja) | 表示制御装置、表示制御方法及びプログラム | |
JP2009224998A (ja) | コンテンツ再生装置及びプログラム | |
KR100923942B1 (ko) | 웹 페이지로부터 텍스트를 추출하고 이를 음성 데이터파일로 변환하여 제공하기 위한 방법, 시스템 및 컴퓨터판독 가능한 기록 매체 | |
US20150156248A1 (en) | System for creating and distributing content to mobile devices | |
JP2007208876A (ja) | コンテンツ出力装置、及びコンテンツ出力方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R120 | Application withdrawn or ip right abandoned | ||
R120 | Application withdrawn or ip right abandoned |
Effective date: 20130226 |