DE202017105741U1 - Automatisierte Sprachaussprachezuteilung - Google Patents

Automatisierte Sprachaussprachezuteilung Download PDF

Info

Publication number
DE202017105741U1
DE202017105741U1 DE202017105741.0U DE202017105741U DE202017105741U1 DE 202017105741 U1 DE202017105741 U1 DE 202017105741U1 DE 202017105741 U DE202017105741 U DE 202017105741U DE 202017105741 U1 DE202017105741 U1 DE 202017105741U1
Authority
DE
Germany
Prior art keywords
candidate
user
pronunciation
shared device
user profiles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202017105741.0U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202017105741U1 publication Critical patent/DE202017105741U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • G10L15/075Adaptation to the speaker supervised, i.e. under machine guidance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/306User profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/54Presence management, e.g. monitoring or registration for receipt of user log-on information, or the connection status of the users

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Computerprogrammprodukt, wobei das Computerprogrammprodukt Code beinhaltet, der, wenn er durch einen oder mehrere Computer ausgeführt wird, den einen oder die mehreren Computer veranlasst, ein Verfahren durchzuführen, wobei das Verfahren umfasst:
Bestimmen von Kandidatenbenutzerprofilen als einem gemeinsam genutzten Gerät zugeordnet;
Identifizieren, aus den Kandidatenbenutzerprofilen, von Kandidatenausspracheattributen, die mindestens einem von den Kandidatenbenutzerprofilen, die als dem gemeinsam genutzten Gerät zugeordnet bestimmt wurden, zugeordnet sind;
Empfangen einer gesprochenen Äußerung an dem gemeinsam genutzten Gerät;
Bestimmen eines empfangenen Ausspracheattributs basierend auf empfangenen Audiodaten entsprechend der gesprochenen Äußerung;
Vergleichen des empfangenen Ausspracheattributs mit mindestens einem von den Kandidatenausspracheattributen;
Auswählen eines bestimmten Ausspracheattributs von den Kandidatenausspracheattributen basierend auf einem Ergebnis des Vergleichs des empfangenen Ausspracheattributs mit mindestens einem von den Kandidatenausspracheattributen; und
Bereitstellen des bestimmten, aus den Kandidatenausspracheattributen ausgewählten Ausspracheattributs zum Ausgeben der von der gesprochenen Äußerung zugeordneten Audiodaten.

Description

  • TECHNISCHES GEBIET
  • Diese Beschreibung bezieht sich im Allgemeinen auf die Spracherkennung.
  • HINTERGRUND
  • Bestimmte Computergeräte weisen eine Spracherkennungsfunktionalität auf, z. B. sprachaktivierte Geräte, und können angemessene Antworten auf die Äußerung eines Benutzers bereitstellen. Bestimmte dieser Computergeräte mit Spracherkennungsfunktionalität sind gemeinsam genutzte Geräte, die mehrere Benutzer aufweisen, die mit dem gemeinsam genutzten Gerät interagieren. Zusätzlich kann ein bestimmter Benutzer mit mehreren unterschiedlichen Geräten interagieren, die Spracherkennungsfunktionalität aufweisen. In jedem dieser Fälle kann das Computergerät mit Spracherkennungsfunktionalität Schwierigkeiten beim Identifizieren des bestimmten Benutzers haben, der aktuell mit dem Computergerät interagiert. Dementsprechend ergibt die Interaktion des Benutzers mit dem Computergerät oftmals unerwünschte Ergebnisse.
  • KURZDARSTELLUNG
  • Die vorliegende Offenbarung ermöglicht Benutzern, den an einem Gerät empfangenen gesprochenen Äußerungen genau zugeordnet zu werden. Die vorliegende Offenbarung ermöglicht den Geräten außerdem, auf den Empfang einer gesprochenen Äußerung durch Ausführen einer angemessenen Aktion, wie z. B. Bereitstellen einer angemessenen Audioantwort, zu antworten. Folglich können das Konto oder Informationen eines Benutzers über mehrere Geräte verbunden werden, und erzeugen eine vereinheitlichte Benutzererfahrung über alle Geräte, mit denen der Benutzer interagiert. Dieselbe vereinheitlichte Benutzererfahrung wird auch für jeden Benutzer bereitgestellt, der mit einem gemeinsam genutzten Gerät interagiert.
  • Ein innovativer Aspekt des in dieser Spezifikation beschriebenen Gegenstandes kann in einem Computerprogrammprodukt enthalten sein, wobei das Computerprogrammprodukt Code beinhaltet, der, wenn er durch einen oder mehrere Computer ausgeführt wird, den einen oder die mehreren Computer veranlasst, ein Verfahren durchzuführen, das Verfahren beinhaltend die Aktionen des Bestimmens von Kandidatenbenutzerprofilen als einem gemeinsam genutzten Gerät zugeordnet; Identifizieren, aus den Kandidatenbenutzerprofilen, der Kandidatenausspracheattribute, die mindestens einem von den Kandidatenbenutzerprofilen zugeordnet sind, die als dem gemeinsam genutzten Gerät zugeordnet bestimmt wurden; Empfangen einer gesprochenen Äußerung an dem gemeinsam genutzten Gerät; Bestimmen eines empfangenen Ausspracheattributs basierend auf empfangenen Audiodaten entsprechend der gesprochenen Äußerung; Vergleichen des empfangenen Ausspracheattributs mit mindestens einem von den Kandidatenausspracheattributen; Auswählen eines bestimmten Ausspracheattributs von den Kandidatenausspracheattributen basierend auf einem Ergebnis des Vergleichs der empfangenen Ausspracheattribute mit mindestens einem von den Kandidatenausspracheattributen; und Bereitstellen des bestimmten, aus den Kandidatenausspracheattributen ausgewählten Ausspracheattributs zum Ausgeben von der gesprochenen Äußerung zugeordneten Audiodaten.
  • Diese und andere Implementierungen können jeweils optional ein oder mehrere der folgenden Merkmale beinhalten. Beispielsweise kann Bestimmen von Kandidatenbenutzerprofilen als einem gemeinsam genutzten Gerät zugeordnet, Bestimmen eines Verhältnisses zwischen jedem von einer Vielzahl von Benutzerprofilen und dem gemeinsam genutzten Gerät; Bestimmen für jedes Benutzerprofil, ob das Verhältnis eine Zuordnung zwischen dem Benutzerprofil und dem gemeinsam genutzten Gerät angibt; und Identifizieren für jedes Benutzerprofil, das ein Verhältnis aufweist, das eine Zuordnung zwischen dem Benutzerprofil und dem gemeinsam genutzten Gerät angibt, dass das Benutzerprofil eines von den Kandidatenbenutzerprofilen ist, die dem gemeinsam genutzten Gerät zugeordnet sind, beinhalten.
  • Gemäß einem anderen Aspekt des in dieser Spezifikation beschriebenen Gegenstandes umfasst das Verhältnis für jedes der Vielzahl von Benutzerprofilen einen Datensatz darüber, ob das Benutzerprofil an dem gemeinsam genutzten Gerät angemeldet wurde, oder ob mindestens ein dem Benutzerprofil zugeordnetes Benutzergerät mit dem gemeinsam genutzten Gerät kommuniziert hat.
  • Gemäß einem anderen Aspekt des in dieser Spezifikation beschriebenen Gegenstandes umfasst das Verhältnis für jedes der Vielzahl von Benutzerprofilen eine geografische Nähe mindestens eines dem Benutzerprofil zugeordneten Benutzergeräts mit dem gemeinsam genutzten Gerät.
  • Gemäß einem anderen Aspekt des in dieser Spezifikation beschriebenen Gegenstandes umfasst das Verhältnis für jedes von der Vielzahl von Benutzerprofilen eine soziale Konnektivität, wobei die soziale Konnektivität auf mindestens einer sozialen Konnektivitätsmetrik basiert.
  • Ein anderer Aspekt des in dieser Spezifikation beschriebenen Gegenstandes ist in Verfahren enthalten, die die Aktionen des Bereitstellens einer Audioantwort auf die gesprochene Äußerung beinhaltet, wobei die Audioantwort die von den Kandidatenausspracheattributen ausgewählte bestimmte Aussprache beinhaltet.
  • In bestimmten Implementierungen umfasst jedes Benutzerprofil der Kandidatenbenutzerprofile ein oder mehrere Ausspracheattribute, die einer kanonischen ID zugeordnet sind, wobei die kanonische ID eine bestimmte Aussprache repräsentiert.
  • Andere Implementierungen dieser Aspekte beinhalten entsprechende Systeme, Geräte und Computerprogramme, die konfiguriert sind, die Vorgänge von Verfahren durchzuführen, die auf Computer-Speichermedien codiert sind.
  • Implementierungen der vorliegenden Offenbarung stellen mehrere technische Vorteile bereit, wovon einige nachfolgend ausführlicher beschrieben werden. Beispielsweise sind Spracherkennung und Aussprache eines bestimmten Namens, Schlüsselwortes oder einer Phrase vom Rechenaufwand her sehr kostenintensiv, und Implementierungen der vorliegenden Offenbarung verringern die Rechenlast in Zusammenhang mit Identifizieren des Benutzers, Ausführen der Spracherkennung und Bereitstellen der korrekten Aussprache in einer Audioausgabe. Als ein weiteres Beispiel bringt das Verschlanken des durch die vorliegende Offenbarung bereitgestellten Verfahrens die technischen Vorteile des Reduzierens der erforderlichen Bandbreite und Bereitstellen von Batterieleistungseinsparungen. Als ein weiteres Beispiel stellt die vorliegende Offenbarung den technischen Vorteil des Erhöhens der Transkriptionsgenauigkeit bei der Spracherkennung, z. B. durch Reduzieren der Anzahl von Kandidatennamen, -wörtern oder -phrasen, bereit.
  • Die Details einer oder mehrerer Implementierungen sind in den nachstehenden zugehörigen Zeichnungen und der Beschreibung dargelegt. Andere Eigenschaften und Vorteile werden aus der Beschreibung, den Zeichnungen und aus den Ansprüchen ersichtlich.
  • Figurenliste
    • 1 stellt ein exemplarisches Diagramm zum Betrieb eines Sprachaussprachezuteilungssystems gemäß bestimmten Implementierungen dar.
    • 2 stellt ein exemplarisches System zum Betrieb eines Sprachaussprachezuteilungssystems gemäß bestimmten Implementierungen dar.
    • 3 stellt ein exemplarisches Ablaufdiagramm für ein Sprachaussprachezuteilungsverfahren gemäß bestimmten Implementierungen dar.
    • 4 stellt ein Beispiel eines Computergeräts und eines mobilen Computergeräts dar, die verwendet werden können, um die hier beschriebenen Techniken zu implementieren.
  • In den unterschiedlichen Zeichnungen werden gleiche Bezugszeichen und Bezeichnungen für gleiche Elemente verwendet.
  • AUSFÜHRLICHE BESCHREIBUNG
  • 1 stellt ein exemplarisches Diagramm 100 zum Betrieb eines Sprachaussprachezuteilungssystems dar. Ein Benutzer 102 kann eine Äußerung 104/106 aussprechen. Der Benutzer 102 kann über ein Benutzergerät 110, wie z. B. ein Mobilgerät, verfügen. In einem Fall kann der Benutzer eine Äußerung 104 sprechen, die den Namen des Benutzers oder ein bestimmtes Schlüsselwort beinhaltet. In einem anderen Fall kann der Benutzer eine Äußerung 106 sprechen, die die Gegenwart eines Benutzers angibt. Die Äußerung 104/106 kann an einem Computergerät 120, wie z. B. einem gemeinsam genutzten Gerät, empfangen werden. Das Computergerät 120, das auf Systemen und Verfahren basiert, die nachfolgend ausführlicher beschrieben werden, ist in der Lage, die ordnungsgemäße Aussprache des Namens des Benutzers oder eines anderen Schlüsselwortes oder einer Phrase zu bestimmen und auszugeben, die dem Benutzer zugeordnet sind. Beispielsweise kann der Name des Benutzers „Justen“ sein, was wie „Justine“ - Juss-TEEN - und nicht wie „Justin“ - JUH-stin ausgesprochen wird. Das gemeinsam genutzte Gerät 120 kann die angemessene Aussprache von JUH-stin 122 und Juss-TEEN 124 bestimmen. Dementsprechend kann das gemeinsam genutzte Gerät 120 auf die Äußerung mit einer Antwort 130 antworten, die die ordnungsgemäße Aussprache Juss-TEEN beinhaltet.
  • Im Allgemeinen ermöglicht eine Implementierung der vorliegenden Offenbarung Benutzern, dass sie den an einem Gerät empfangenen gesprochenen Äußerungen genau zugeordnet werden. Eine Implementierung der vorliegenden Offenbarung ermöglicht den Geräten außerdem, auf den Empfang einer gesprochenen Äußerung durch Ausführen einer angemessenen Aktion, wie z. B. Bereitstellen einer angemessenen Audioantwort, zu antworten.
  • Beispielsweise kann das Gerät eine Audioantwort bereitstellen, die eines oder mehrere Wörter beinhaltet, die auf eine Weise ausgesprochen werden, die dem/den Benutzer(n) bekannt ist, der/die der gesprochenen Äußerung zugeordnet wurde(n). Dies kann zur Folge haben, dass die Audioantwort für den/die Benutzer erkennbarer und leichter verständlich ist. Es kann für Benutzer, die eine begrenzte Fähigkeit des Verständnisses von Sprache haben, einen besonderen Vorteil geben, wodurch es für diese Benutzer leichter wird, mit dem Gerät zu interagieren. Zusätzlich oder alternativ kann das Gerät eine Aktion für den/die Benutzer ausführen, die der gesprochenen Äußerung zugeordnet wurden, wie z. B. Senden einer E-Mail für das Profil eines Benutzers.
  • Wenn die beschriebenen Implementierungen der vorliegenden Offenbarung in dem Gerät und/oder einer anderen Computervorrichtung, wie z. B. einem Server, implementiert werden, werden die Zuordnungen zwischen gesprochenen Äußerungen und Benutzern auf eine zuverlässige und technisch effiziente Art ausgebildet.
  • Beispielsweise kann das Gerät und/oder die andere Computervorrichtung eine Gruppe von Benutzerprofilen bestimmen, die dem Gerät spezifisch zugeordnet sind, und nach Empfang einer gesprochenen Äußerung von der bestimmten Gruppe von Profilen mindestens ein Benutzerprofil als der gesprochenen Äußerung zugeordnet identifizieren. Diese Identifizierung kann auf einem Vergleich von Ausspracheattributen der Benutzerprofile in der Gruppe von Benutzerprofilen mit Attributen der gesprochenen Äußerung basieren.
  • Die anfängliche Bestimmung der Gruppe von Benutzerprofilen, die dem Gerät spezifisch zugeordnet sind, kann, wie in dieser Spezifikation erklärt, auf unterschiedliche technische Arten ausgeführt werden. Das Bestimmen der anfänglichen Gruppe der dem Gerät zugeordneten Benutzerprofilen kann bedeuten, dass der Vergleich der gesprochenen Äußerung mit Ausspracheattributen von Benutzerprofilen vom Rechenaufwand her bedeutend weniger kostenintensiv ist, als wenn die Gruppe von Benutzerprofilen nicht bestimmt worden wäre.
  • Eine Implementierung der vorliegenden Offenbarung kann die Wirkung haben, dass durch ein Gerät in Reaktion auf den Empfang einer gesprochenen Äußerung ausgeführte Aktionen angemessen, und nicht fehleranfällig sind. Darüber hinaus werden Zusammenhänge zwischen der gesprochenen Äußerung und einzelnen Benutzern auf eine Art hergestellt, die in Bezug auf deren Verwendung von Verarbeitungs- und Speicherkomponenten effizient ist. Dies kann ermöglichen, dass eine Antwort rechtzeitig bereitgestellt wird, selbst wenn das Gerät und/oder andere Computervorrichtungen, die die vorliegende Offenbarung implementieren, begrenzte Verarbeitungskapazitäten aufweisen.
  • Unter Bezugnahme auf 1 kann ein Mechanismus zum Zuordnen der bestimmten Aussprache eines Namens zu einer Einzelperson mit einem verbundenen Konto in einer Audioumgebung bereitgestellt werden, die mehrere Einzelpersonen, basierend auf unterschiedlichen Faktoren, wie z. B. dem Interaktionsverlauf der Einzelperson mit dem Gerät, eine Nähe des Mobilgeräts der Einzelperson und eine Kontoregistrierung beinhaltet. Auf diese Weise werden Benutzernamen durch ein gemeinsam genutztes Gerät korrekt ausgesprochen, das z. B. als Sprachassistent, Audioschnittstelle oder dergleichen agiert. Hierin beschriebene Implementierungen lösen das komplexe technische Problem des korrekten Identifizierens der Aussprache des Namens einer bestimmten Person, und in einigen Fällen Identifizieren eines spezifischen Kontos oder Benutzerprofils, das der Einzelperson gehört, basierend auf Audiowarteschlangen. Um dies zu bewerkstelligen, wird ein Mechanismus in einem Computergerät implementiert, das mehrere Benutzerprofile einem spezifischen Gerät zuordnet und dann eines von diesen mehreren Benutzerprofilen mit einem empfangenen Audiosignal abgleicht. Nach dem Abgleichen des Benutzerprofils mit dem Audiosignal ist das System in der Lage, audiobasierte Antworten an den Benutzer mit der ordnungsgemäßen Aussprache, die innerhalb des Benutzerprofils spezifiziert, oder dem Benutzer zugeordnet ist, bereitzustellen. Daher antwortet das System korrekt und redet die Benutzer an, ohne ihre Namen falsch auszusprechen.
  • Eine Möglichkeit, dass die Benutzerprofile als dem gemeinsam genutzten Gerät zugehörig zugeteilt werden können, basiert auf einer gespeicherten Liste von Benutzerprofilen, die zuvor das Gerät verwendet hatten. Diese Benutzerprofile können das Gerät durch Anmelden an dem Gerät und Ausführen von Aktionen direkt, oder indirekt verwendet haben, indem sie mit dem Gerät über ein anderes Gerät interagiert haben. Eine andere Art, in der die Benutzerprofile als den gemeinsam genutzten Geräten zugehörig zugeteilt werden können, basiert auf Gerätenähe. Beispielsweise kann/können ein oder mehrere in der Nähe befindliche Gerät(e) jedem dieser in der Nähe befindlichen Geräte zugeordnet werden, die dann dem gemeinsam genutzten Gerät zugeordnet werden können. Wenn das gemeinsam genutzte Gerät einen Benutzer in einer Audioantwort referenziert, kann das gemeinsam genutzte Gerät bestimmen, dass der Benutzer wahrscheinlich durch eines der Benutzerprofile repräsentiert wird, das den in der Nähe befindlichen Geräten zugeordnet ist. Eine beliebige Anzahl von Technologien kann zum Bestimmen der Gerätenähe implementiert werden, einschließlich, jedoch nicht beschränkt auf Bluetooth, subhörbaren Schall, empfangenen Audiopegel, GPS oder dergleichen, oder eine beliebige Kombination derselben.
  • Als Alternative oder zusätzlich zu der oben beschriebenen vorherigen Verwendung und Nähe zum Zuordnen der Benutzerprofile als dem gemeinsam genutzten Gerät zugehörig, können auch soziale Verbindungen verwendet werden. Auf diese Weise können potenzielle Benutzer, die über keine zweiten Geräte in dem gleichen Raum als das gemeinsam genutzte Gerät verfügen, und die bis jetzt nicht mit dem gemeinsam genutzten Gerät interagiert haben, identifiziert werden. Beispielsweise kann eine Gruppe solcher potenzieller Benutzer von einer Sammlung sozialer Verbindungen generiert werden, die einem Benutzerprofil zugeordnet sind, das bereits identifiziert wurde. Die soziale Konnektivität kann auf Benutzerinteraktionen, einem sozialen Graphen oder dergleichen basieren. Zusätzlich kann die Sammlung sozialer Verbindungen so gefiltert werden, dass sie diejenigen ausschließt, die nicht in der Nähe oder nicht innerhalb eines Schwellenwertabstands von dem gemeinsam genutzten Gerät sind.
  • Sobald eine Gruppe von Kandidatenbenutzerprofilen identifiziert ist, kann eine Sammlung von Ausspracheattributen, die jedem Profil zugeordnet sind, als eine Kandidatenliste von Ausspracheattributen zum Erkennen der Namen einzelner Benutzer verwendet werden, wenn sie sprechen. Beispielsweise kann ein Vergleich zwischen einer spezifischen Aussprache, die durch ein oder mehrere Ausspracheattribute repräsentiert wird, und dem Audiosegment mit dem Namen des Benutzers gemacht werden. Ein technischer Vorteil der vorliegenden Offenbarung besteht darin, dass durch Bestimmen einer Liste von Kandidatennamen oder Kandidatenausspracheattributen für eine Namens- oder Spracherkennungskomponente des zu verwendenden Systems die Genauigkeit und Geschwindigkeit des Audio-Parsings bedeutend verbessert wird. Ein weiterer technischer Vorteil besteht darin, dass durch Bestimmen der bestimmten Kandidatenbenutzerprofile von allen verfügbaren Benutzerprofilen z. B. der bestimmte „John Smith“ von allen „John Smiths“, auf die sich der Benutzer bezieht, wenn der Benutzer seinen Namen sagt, bestimmt werden kann.
  • 2 stellt ein exemplarisches System 200 zur Sprachaussprachezuteilung dar. Das System 200 kann ein gemeinsam genutztes Gerät 220 beinhalten, das ein Computergerät sein kann, womit mehrere Benutzer entweder direkt oder indirekt interagieren können. Beispielsweise kann das gemeinsam genutzte Gerät 220 ein Mikrofon 230 zum Empfangen von Audio und einen Lautsprecher 280 zum Ausgeben von Audio beinhalten. Das Mikrofon 230 kann z. B. Spracheingabe 210 von einem Benutzer oder von einem anderen Gerät empfangen. Das gemeinsam genutzte Gerät 220 kann Audiodaten entsprechend einer gesprochenen Äußerung als Spracheingabe 210 empfangen. Eine Spracherkennungskomponente des gemeinsam genutzten Geräts 220 kann die empfangenen Audiodaten entsprechend der gesprochenen Äußerung als Spracheingabe 210 analysieren.
  • Das gemeinsam genutzte Gerät 220 kann eine Benutzerprofildatenbank 240 aufrufen. Die Benutzerprofildatenbank 240 kann eine Liste aller registrierten Benutzer beinhalten. Die Benutzerprofildatenbank 240 kann außerdem Informationen speichern, die jedem der in der Benutzerprofildatenbank 240 gespeicherten Benutzer zugeordnet ist. Beispielsweise kann jeder Benutzer ein dem Benutzer zugeordnetes Benutzerprofil aufweisen, das Informationen über den Benutzer beinhaltet. Bei einem Teil der Informationen, die in dem Benutzerprofil enthalten sein können, handelt es sich um eine Aussprache des Namens des Benutzers oder eines anderen Worts oder einer Phrase, die dem Benutzer zugeordnet sind. Die gespeicherte Aussprache des Namens des Benutzers kann Ausspracheattribute beinhalten. Das System kann eine kanonische ID einstellen, die die Aussprache basierend auf den Ausspracheattributen repräsentiert, und die kanonische ID in Verbindung mit dem Benutzer speichern.
  • Das gemeinsam genutzte Gerät 220 kann eine in einem Speichermedium gespeicherte Kandidatenbenutzerprofilliste 250 beinhalten oder aufrufen. Die Kandidatenbenutzerprofilliste 250 kann die Liste von Benutzern beinhalten, die als dem gemeinsam genutzten Gerät 220 zugeordnet identifiziert wurden. Die Kandidatenbenutzerprofilliste 250 kann alle der Benutzerprofilinformationen beinhalten, die zuvor als in der Benutzerprofildatenbank 240 gespeichert beschrieben wurden. Die Kandidatenbenutzerprofilliste 250 kann zudem Informationen beinhalten, die relevant für die vorherige Interaktion des Benutzers mit dem gemeinsam genutzten Gerät 220 sind. Wie zuvor beschrieben, kann jedes in der Kandidatenbenutzerprofilliste 250 gespeicherte Kandidatenbenutzerprofil als in einer Reihe von Arten dem gemeinsam genutzten Gerät 220 zugeordnet bestimmt werden. Beispielsweise kann ein Datensatz darüber, ob das Benutzerprofil an dem gemeinsam genutzten Gerät 220 angemeldet wurde oder ob mindestens eines dem Benutzerprofil zugeordnetes Benutzergerät mit dem gemeinsam genutzten Gerät 220 kommuniziert hat, bestimmt und gespeichert werden. Als andere Beispiele, die nachfolgend ausführlicher beschrieben werden, kann eine geografische Nähe von mindestens einem Benutzergerät zu dem gemeinsam genutzten Gerät bestimmt werden, das dem Benutzerprofil zugeordnet ist, oder eine soziale Konnektivität kann basierend auf mindestens einer sozialen Konnektivitätsmetrik bestimmt werden. Zusätzlich kann jede Kombination dieser Mechanismen verwendet werden, um Benutzerprofile für die Kandidatenbenutzerprofilliste 250 als dem gemeinsam genutzten Gerät 220 zugeordnet zu bestimmen.
  • Das gemeinsam genutzte Gerät 220 kann einen Näherungsdetektor 260 beinhalten oder aufrufen. Der Näherungsdetektor 260 kann eine geografische Nähe eines Benutzers oder eines Geräts, das einem Benutzer zugeordnet ist, in einer beliebigen Reihe von Möglichkeiten bestimmen. Beispielsweise kann der Näherungsdetektor 260 ein WLAN-Signal oder eine WLAN-Verbindung, ein Bluetooth-Signal oder eine Bluetooth-Verbindung, oder ein anderes Verbindungssignal oder eine Verbindung, oder eine beliebige Kombination derselben verwenden, um die geografische Nähe eines Benutzers oder eines einem Benutzer zugeordneten Geräts zu dem gemeinsam genutzten Gerät 220 zu bestimmen. Als ein weiteres Beispiel kann der Näherungsdetektor 260 einen GPS-Sensor oder ein GPS-Signal oder einen anderen Positionierungssensor oder ein Positionierungssignal verwenden, um die geografische Nähe eines Benutzers oder eines einem Benutzer zugeordneten Geräts zu dem gemeinsam genutzten Gerät 220 zu bestimmen. Als weiteres Beispiel kann der Näherungsdetektor 260 subhörbaren Schall verwenden, um die geografische Nähe eines Benutzers oder eines einem Benutzer zugeordneten Geräts zu dem gemeinsam genutzten Gerät 220 zu bestimmen, z. B. durch Senden oder Empfangen eines subhörbaren Tokens, um die Nähe von anderen Geräten zu dem gemeinsam genutzten Gerät 220 zu bestimmen. Als weiteres Beispiel kann der Näherungsdetektor 260 die relative Audiostärke eines an in der Nähe befindlichen Geräten empfangenen Audiosignals vergleichen, um die geografische Nähe eines Benutzers oder eines einem Benutzer zugeordneten Geräts zu dem gemeinsam genutzten Gerät 220 zu bestimmen. Beispielsweise ist es am wahrscheinlichsten, dass das Gerät oder die mehreren Geräte, an denen die Stärke des empfangenen Audiosignals am höchsten ist, die angibt, dass die Stimme des Benutzers am lautesten ist, dem Benutzer zugeordnet wird/werden, der die Äußerung spricht, und ein Benutzerprofil, das dem Benutzer oder dem Gerät zugeordnet ist, identifiziert werden kann.
  • Das gemeinsam genutzte Gerät 220 kann eine soziale Konnektivitätsdatenbank 270 aufrufen. Die soziale Konnektivitätsdatenbank 270 kann einen oder mehrere soziale Graphen oder vorherige Benutzerinteraktionen oder dergleichen beinhalten. Eine Affinitätspunktzahl kann ebenfalls berechnet, und in der sozialen Konnektivitätsdatenbank 270 gespeichert werden, die eine Stärke eines Verhältnisses zwischen jeweiligen Benutzern angibt. Wie zuvor beschrieben, können die sozialen Konnektivitätsdaten in der sozialen Konnektivitätsdatenbank 270 verwendet werden, um die Kandidatenbenutzerprofile als dem gemeinsam genutzten Gerät 220 zugeordnet zu bestimmen, selbst wenn diese Benutzer nicht in der Nähe des gemeinsam genutzten Geräts 220 sind oder zuvor nicht damit interagiert haben. Beispielsweise können alle Benutzer mit einer Affinitätspunktzahl, die einen zuvor festgelegten Schwellenwert erfüllt, als Kandidatenbenutzerprofile in der Kandidatenbenutzerprofilliste 250 enthalten sein, die dem gemeinsam genutzten Gerät 220 zugeordnet ist.
  • Wie zuvor beschrieben, kann das gemeinsam genutzte Gerät 220, nachdem das gemeinsam genutzte Gerät 220 an Mikrofon 230 Audiodaten, die einer gesprochenen Äußerung entsprechen, als Spracheingabe 210 empfangen hat, die empfangenen Audiodaten durch Vergleichen mit Kandidatenausspracheattributen analysieren, die von der Kandidatenbenutzerprofilliste 250 bestimmt wurden. Ein bestimmtes Ausspracheattribut kann von den Kandidatenausspracheattributen basierend auf dem Vergleich identifiziert werden, woraufhin die angemessene Aussprache unter Verwendung des bestimmten Ausspracheattributs in Audioausgabe 290 von Lautsprecher 280 bereitgestellt werden kann. Der Lautsprecher 280 kann in dem gemeinsam genutzten Gerät 220 enthalten sein, oder kann dem gemeinsam genutzten Gerät 220 zugeordnet oder damit verbunden sein.
  • Auf diese Weise kann das gemeinsam genutzte Gerät 220 auf die Spracheingabe 210 mit Audioausgabe 290 unter Verwendung der ordnungsgemäßen Aussprache antworten, die durch das identifizierte bestimmte Ausspracheattribut spezifiziert ist.
  • 3 stellt ein exemplarisches Ablaufdiagramm für ein Sprachaussprachezuteilungsverfahren 300 dar. Das Sprachaussprachezuteilungsverfahren 300 kann das Bestimmen von Kandidatenbenutzerprofilen als einem gemeinsam genutzten Gerät bei 310 zugeordnet beinhalten. Diese Bestimmung von Kandidatenbenutzerprofilen als einem gemeinsam genutzten Gerät zugeordnet, kann Bestimmen eines Verhältnisses zwischen jedem von mehreren Benutzerprofilen und dem gemeinsam genutzten Gerät beinhalten, und Bestimmen für jedes Benutzerprofil, ob diese Beziehung eine Zuordnung zwischen dem Benutzerprofil und dem gemeinsam genutzten Profil angibt. Anschließend kann das Benutzerprofil für jedes Benutzerprofil, das ein Verhältnis aufweist, das eine Zuordnung zu dem gemeinsam genutzten Gerät angibt, als eines der Kandidatenbenutzerprofile, die dem gemeinsam genutzten Gerät zugeordnet sind, identifiziert werden.
  • Das Verfahren des Bestimmens, ob das Verhältnis zwischen jedem von mehreren Benutzerprofilen und dem gemeinsam genutzten Gerät eine Zuordnung zwischen dem Benutzerprofil und dem gemeinsam genutzten Gerät angibt, kann z. B. Bestimmen beinhalten, ob das Benutzerprofil an dem gemeinsam genutzten Gerät angemeldet war oder ob mindestens ein dem Benutzerprofil zugeordnetes Benutzergerät mit dem gemeinsam genutzten Gerät kommuniziert hat. Das Verhältnis zwischen jedem von mehreren Benutzerprofilen und dem gemeinsam genutzten Gerät, das bestimmt wird, kann z. B. eine geografische Nähe von mindestens einem Benutzergerät, das dem Benutzerprofil zugeordnet ist, zu dem gemeinsam genutzten Gerät beinhalten. Als weiteres Beispiel kann das Verhältnis zwischen jedem von mehreren Benutzerprofilen und dem gemeinsam genutzten Gerät, das bestimmt wird, eine soziale Konnektivität beinhalten, wobei die soziale Konnektivität auf mindestens einer sozialen Konnektivitätsmetrik basiert. Beispielsweise kann die soziale Konnektivität auf einem oder mehreren sozialen Graphen, einer oder mehreren Interaktionen zwischen Benutzern oder einer berechneten Affinitätspunktzahl zwischen Benutzern oder dergleichen, oder einer beliebigen Kombination derselben basieren.
  • Unter Bezugnahme auf 3 kann das Verfahren bei 320 Identifizieren, aus den Kandidatenbenutzerprofilen, von Kandidatenausspracheattributen, die mindestens einem von den Kandidatenbenutzerprofilen zugeordnet sind, die als dem gemeinsam genutzten Gerät zugeordnet bestimmt werden, beinhalten. Beispielsweise kann ein Kandidatenbenutzerprofil ein oder mehrere Ausspracheattribute beinhalten, die die Aussprache eines Namens, einer Phrase oder eines anderen Schlüsselwortes repräsentieren. Ein Kandidatenbenutzerprofil kann eine kanonische ID beinhalten, die das eine oder die mehreren Ausspracheattribute repräsentiert, die dem Kandidatenbenutzerprofil zugeordnet sind. Beispielsweise kann der Name eines Benutzers in eine kanonische Form geparst werden, die eine Beschreibung der Aussprache des Namens sein kann, basierend auf den Ausspracheattributen, die dem Kandidatenbenutzerprofil zugeordnet sind. Daher können die kanonischen Kandidaten-IDs identifiziert werden, die mindestens einem der Kandidatenbenutzerprofile zugeordnet sind.
  • Bei 330 kann eine gesprochene Äußerung an dem gemeinsam genutzten Gerät empfangen werden. Die gesprochene Äußerung kann dem Namen eines Benutzers, einem bestimmten Schlüsselwort, einer bestimmten Phrase oder Befehl oder dergleichen entsprechen. Die gesprochene Äußerung kann z. B. an einem Mikrofon des gemeinsam genutzten Geräts empfangen, oder dem gemeinsam genutzten Gerät zugeordnet werden. Ein empfangenes Ausspracheattribut kann bei 340 basierend auf empfangenen Audiodaten entsprechend der gesprochenen Äußerung bestimmt werden. Beispielsweise kann ein Spracherkennungsverfahren aufgerufen werden, um das Ausspracheattribut basierend auf den empfangenen Audiodaten zu bestimmen, die der gesprochenen Äußerung entsprechen.
  • Das empfangene Ausspracheattribut kann mit mindestens einem von den Kandidatenausspracheattributen bei 350 verglichen werden. Beispielsweise kann das empfangene Ausspracheattribut mit einem Kandidatenausspracheattribut verglichen werden, um zu bestimmen, ob eine wahrscheinliche Übereinstimmung zwischen dem Kandidatenausspracheattribut und dem empfangenen Ausspracheattribut vorhanden ist. Das empfangene Ausspracheattribut kann mit jedem von den mehreren Kandidatenausspracheattributen verglichen werden, und eine Wahrscheinlichkeit oder Möglichkeit einer Übereinstimmung kann für das empfangene Ausspracheattribut mit jedem von den mehreren Kandidatenausspracheattributen bestimmt werden.
  • Bei 360 kann ein bestimmtes Ausspracheattribut von den Kandidatenausspracheattributen basierend auf einem Ergebnis des Vergleichs des empfangenen Ausspracheattributs mit mindestens einem von den Kandidatenausspracheattributen ausgewählt werden. Beispielsweise kann das bestimmte Ausspracheattribut basierend auf Identifizieren einer Übereinstimmung zwischen dem bestimmten Ausspracheattribut und dem empfangenen Ausspracheattribut ausgewählt werden. Das bestimmte Ausspracheattribut kann z. B. basierend auf Identifizieren der wahrscheinlichsten oder höchsten Möglichkeit einer Übereinstimmung zwischen einem von den Kandidatenausspracheattributen und dem empfangenen Ausspracheattribut ausgewählt werden.
  • Das aus den Kandidatenausspracheattributen ausgewählte bestimmte Ausspracheattribut kann bei 370 zum Ausgeben von Audiodaten bereitgestellt werden, das der gesprochenen Äußerung zugeordnet ist. Beispielsweise kann das gemeinsam genutzte Gerät eine Antwort auf die gesprochene Äußerung generieren, die die ordnungsgemäße Aussprache eines Namens oder Wortes basierend auf dem bestimmten Ausspracheattribut beinhaltet. Daher kann das Verfahren 300 Bereitstellen einer Audioantwort auf die gesprochene Äußerung beinhalten, wobei die Audioantwort die bestimmte Aussprache beinhaltet, die von den Kandidatenausspracheattributen ausgewählt wird.
  • In einigen Fällen könnten die empfangenen Audiodaten als mehreren Benutzerprofilen von den Kandidatenbenutzerprofilen zugeordnet bestimmt werden. Dies kann eintreten, wenn mehrere Benutzer z. B. dieselben Namen oder ähnliche Namen gemeinsam nutzen. In diesen Fällen kann das ausgewählte Benutzerprofil nach Bestimmen von mehreren Benutzerprofilen korrigiert werden, indem der Benutzer nach oder über andere Identifizierungsinformationselemente, wie z. B. Name, Telefonnummer, E-Mail-Adresse oder dergleichen, gefragt wird. Diese Korrektur kann nur dann fortgesetzt werden, wenn dem Benutzer eine spezifische Aktion, z. B. Aufzeichnen von etwas Spezifischem für diesen Benutzer, zugeteilt werden muss.
  • In anderen Fällen, wenn mehrere Benutzerprofile bestimmt werden, wenn das genaue Benutzerprofil für einen repräsentierten Benutzer nicht unmittelbar benötigt wird, um eine bestimmte Aktion auszuführen, kann dieselbe Aussprache verwendet werden, um den Benutzer angemessen anzusprechen, d. h. unabhängig davon, um welchen der mehreren Benutzer es sich bei dem Benutzer tatsächlich handelt, da die Aussprache unter den mehreren Benutzern gemeinsam genutzt wird. In diesen Fällen kann das System einen Zustand, der auf das Ausspracheattribut, z. B. die ausgesprochene Version des Namens, Bezug nimmt, und die mehreren Kandidatenbenutzerprofile speichern, die als den empfangenen Audiodaten zugeordnet bestimmt werden. Das System kann dann auf diesen gespeicherten Status für Interaktionen mit dem Benutzer Bezug nehmen. Wenn das System auf ein Ereignis oder eine Aktion trifft, die eine Zuteilung zu einem spezifischen Benutzerprofil unter den mehreren Benutzerprofilen erfordert, kann das System mit der Korrektur, wie zuvor beschrieben, fortfahren, indem es z. B. Identifizierungsinformationen von dem Benutzer abfragt, um das bestimmte Benutzerprofil für den Benutzer zu bestimmen, der die Äußerung aussprach.
  • Gemäß diesem Verfahren kann der Benutzer, sobald die korrekte Aussprache identifiziert ist, selbst wenn sie mehreren Benutzerprofilen zugeordnet ist, durch seinen Namen als eine Entität referenziert werden, während die Aktionen des Benutzers dem Konto des Benutzers jedoch nicht zugeteilt werden können. In diesen Fällen weist das System eine Gruppe von Aktionen auf, an denen es mit dem Benutzer beteiligt werden kann, die kein spezifisches Benutzerprofil, d. h. einen Status nur mit ausgesprochenem Namen, erfordern und eine zweite Gruppe von Aktionen, die das spezifische Benutzerprofil, d. h. einen benutzerspezifischen Status, erfordern. Wenn das System in dem Status nur mit ausgesprochenem Namen arbeitet und in dem benutzerspezifischen Status an einer Aktion beteiligt werden muss, für die das benutzerspezifische Profil erforderlich ist, kann das System ein Ereignis verarbeiten, wobei der Benutzer gebeten wird, benutzerspezifische Informationen bereitzustellen, um zu spezifizieren, welches der Konten das des Benutzers ist.
  • Auf diese Weise können Benutzer mit dem gemeinsam genutzten Gerät organischer interagieren, wobei das Bedürfnis zum Abfragen oder Erhalten von einzigartig identifizierbaren Informationen von dem Benutzer verzögert wird, um mit einer Audioantwort an den Benutzer fortzufahren. Daher kann das gemeinsam genutzte Gerät nicht nur unterscheiden, welche Benutzer anwesend sind oder mit denselben interagieren, sondern auch unter Verwendung der korrekten Aussprache antworten und den Benutzer anreden.
  • 4 zeigt ein Beispiel eines generischen Computergeräts 400 und eines generischen mobilen Computergeräts 450, die mit den hier beschriebenen Techniken verwendet werden können. Computergerät 400 soll verschiedene Formen von Digitalcomputern, zum Beispiel Laptops, Desktops, Workstations, persönliche digitale Assistenten, Server, Blade-Server, Mainframes und andere geeignete Computer, darstellen. Das Computergerät 450 soll verschiedene Formen von Mobilgeräten wie persönliche digitale Assistenten, Mobiltelefone, Smartphones und andere ähnliche Computergeräte darstellen. Die hier dargestellten Komponenten, deren Verbindungen, Beziehungen und Funktionen sind im rein exemplarischen Sinne zu erachten und stellen keine Einschränkung von in diesem Dokument beschriebenen und/oder beanspruchten Implementierungen dar.
  • Das Computergerät 400 beinhaltet einen Prozessor 402, einen Speicher 404, ein Speichergerät 406, eine Hochgeschwindigkeitsschnittstelle 408, die mit Speicher 404 und Hochgeschwindigkeits-Erweiterungsanschlüssen 410 verbindet, und eine Niedergeschwindigkeitsschnittstelle 412, die mit dem Niedergeschwindigkeitsbus 414 und dem Speichergerät 406 verbindet. Alle Komponenten 402, 404, 406, 408, 410 und 412 sind über verschiedene Busse miteinander verbunden und können auf einer gemeinsamen Hauptplatine oder auf andere angemessene Weisen installiert sein. Der Prozessor 402 kann Ausführungsanweisungen innerhalb des Computergeräts 400, darunter auch Anweisungen, die im Speicher 404 oder im Speichergerät 406 gespeichert sind, verarbeiten, um die grafischen Informationen für eine GUI auf einem externen Eingabe-/Ausgabegerät, z. B. auf dem mit der Hochgeschwindigkeitsschnittstelle 408 verbundenen Bildschirm 416, anzuzeigen. In anderen Implementierungen können gegebenenfalls mehrere Prozessoren und/oder mehrere Busse zusammen mit mehreren Speichern und Speicherarten verwendet sein. Es können außerdem auch mehrere Computergeräte 400 verbunden sein, wobei jedes Gerät Teile der notwendigen Vorgänge (z. B. als Serverbank, Gruppe von Blade-Servern oder Mehrprozessorsystem) bereitstellt.
  • Der Speicher 404 speichert Informationen innerhalb des Computergeräts 400. In einer Implementierung handelt es sich bei dem Speicher 404 um eine nicht flüchtige Speichereinheit oder -einheiten. In einer weiteren Implementierung handelt es sich bei Speicher 404 um eine nicht flüchtige Speichereinheit bzw. -einheiten. Der Speicher 404 kann zudem eine andere Form von computerlesbarem Medium, wie beispielsweise ein magnetischer oder optischer Datenträger, sein.
  • Das Speichergerät 406 ist in der Lage, Massenspeicher für die Computergeräte 400 bereitzustellen. In einer Implementierung kann das Speichergerät 406 ein computerlesbares Medium, wie z. B. ein Floppy-Disk-Laufwerk, ein Festplattenlaufwerk, ein optisches Laufwerk, eine Magnetbandeinheit, ein Flash-Speicher oder ein anderes ähnliches Solid-State-Speichergerät oder eine Reihe von Geräten, darunter auch Geräte in einem Speichernetzwerk oder anderen Konfigurationen, sein oder beinhalten. Ein Computerprogrammprodukt kann physisch in einem Informationsträger enthalten sein. Das Computerprogrammprodukt kann außerdem Befehle enthalten, die bei Ausführung ein oder mehrere Verfahren wie diejenigen, die vorstehend beschrieben sind, ausführen. Der Informationsträger ist ein computer- oder maschinenlesbares Medium wie der Speicher 404, das Speichergerät 406 oder Speicher auf Prozessor 402.
  • Hochgeschwindigkeitscontroller 408 verwaltet bandbreitenintensive Vorgänge für das Computergerät 400, während Niedergeschwindigkeitscontroller 412 weniger bandbreitenintensive Vorgänge verwaltet. Diese Zuordnung von Funktionen ist jedoch nur exemplarisch. In einer Implementierung ist der Hochgeschwindigkeitscontroller 408 gekoppelt mit Speicher 404, Anzeige 416 (z. B., über einen Grafikprozessor oder -beschleuniger) und mit den Hochgeschwindigkeitserweiterungsanschlüssen 410, die verschiedene Erweiterungskarten (nicht dargestellt) aufnehmen können. In der Implementierung ist der Niedergeschwindigkeitscontroller 412 mit dem Speichergerät 406 und dem Niedergeschwindigkeits-Erweiterungsanschluss 414 verbunden. Der Niedergeschwindigkeits-Erweiterungsanschluss, der ggf. verschiedene Kommunikationsanschlüsse (z. B. USB, Bluetooth, Ethernet, Funkethernet) beinhaltet, kann an ein oder mehrere Eingabe-/Ausgabegeräte wie eine Tastatur, ein Zeigegerät, einen Scanner oder, z. B. durch einen Netzwerkadapter, an ein Netzwerkgerät wie einen Switch oder Router gekoppelt sein.
  • Das Computergerät 400 kann, wie in der Figur dargestellt, in einer Reihe unterschiedlicher Formen implementiert sein. So kann es beispielsweise als Standardserver 420 oder in einer Gruppe jener Server mehrfach implementiert sein. Es kann außerdem als Teil eines Rackserversystems 424 implementiert sein. Zusätzlich kann es in einem Personal-Computer, wie z. B. einem Laptop 422, implementiert sein. Alternativ können Komponenten von Computergerät 400 mit anderen Komponenten in einem Mobilgerät (nicht dargestellt), wie z. B. Gerät 450, kombiniert sein. Jedes dieser Geräte kann ein oder mehrere Computergerät(e) 400, 450, enthalten, während sich ein gesamtes System ggf. aus mehreren miteinander kommunizierenden Computergeräten 400, 450 zusammensetzt.
  • Das Computergerät 450 beinhaltet neben anderen Komponenten einen Prozessor 452, einen Speicher 464, ein Ein-/Ausgabegerät, wie z. B. einen Bildschirm 454, eine Kommunikationsschnittstelle 466 und einen Empfänger 468. Das Gerät 450 kann ebenfalls mit einem Speichergerät, wie z. B. einem Microdrive, oder einem anderen Gerät ausgestattet sein, um zusätzlichen Speicher bereitzustellen. Alle Komponenten 450, 452, 464, 454, 466 und 468 sind miteinander über verschiedene Busse verbunden und verschiedene der Komponenten können auf einer gemeinsamen Hauptplatine oder auf eine andere angemessene Weise installiert sein.
  • Der Prozessor 452 kann Befehle in dem Computergerät 640, darunter auch die im Speicher 464 gespeicherten Befehle, ausführen. Der Prozessor kann als ein Chipsatz von Chips implementiert sein, die separate und mehrere analoge und digitale Prozessoren beinhalten. Der Prozessor kann zum Beispiel die Koordinierung der anderen Komponenten des Geräts 450, wie z. B. die Steuerung der Benutzeroberflächen, die vom Gerät 450 ausgeführten Anwendungen und die drahtlose Kommunikation des Geräts 450, ermöglichen.
  • Der Prozessor 452 kann über die Steuerschnittstelle 648 und die Anzeigeschnittstelle 456 verbunden mit einer Anzeige 454 mit einem Benutzer kommunizieren. Die Anzeige 454 kann beispielsweise eine TFT-LCD-(Dünnschichttransistor-Flüssigkristallanzeige) oder eine OLED- (organische Leuchtdioden) -Anzeige oder eine andere geeignete Anzeigetechnologie sein. Die Anzeigeschnittstelle 456 kann geeignete Schaltungen zum Ansteuern der Anzeige 454 umfassen, um einem Benutzer grafische und andere Informationen zu präsentieren. Die Steuerschnittstelle 458 kann Befehle von einem Benutzer empfangen und sie zur Eingabe in den Prozessor 452 konvertieren. Zusätzlich kann eine externe Schnittstelle 462 in Kommunikation mit Prozessor 452 bereitgestellt werden, um die Nahbereichskommunikation von Gerät 450 mit anderen Geräten zu ermöglichen. Die externe Schnittstelle 462 kann beispielsweise in einigen Implementierungen eine drahtgebundene Verbindung oder in anderen Implementierungen eine drahtlose Verbindung sein, zudem können auch mehrere Schnittstellen verwendet werden.
  • Der Speicher 464 speichert Informationen innerhalb des Computergeräts 450. Der Speicher 464 kann als ein oder mehrere von einem computerlesbaren Medium oder von mehreren computerlesbaren Medien, einem flüchtigen Speicher oder flüchtigen Speichern oder einem nicht flüchtigen Speicher oder nicht flüchtigen Speichern implementiert werden. Die Speichererweiterung 454 kann ebenfalls durch die Erweiterungsschnittstelle 452, zu der beispielsweise eine SIMM-Schnittstelle (Single In Line Memory Module) gehören kann, mit Gerät 450 bereitgestellt und verbunden sein. Die Speichererweiterung 454 kann zusätzlichen Speicherplatz für das Gerät 450 bereitstellen oder ebenfalls Anwendungen oder andere Informationen für das Gerät 450 speichern. Insbesondere kann der Erweiterungsspeicher 454 Befehle zum Ausführen oder Ergänzen der oben beschriebenen Prozesse, sowie sichere Informationen beinhalten. So kann zum Beispiel die Speichererweiterung 454 als Sicherheitsmodul für Gerät 450 bereitgestellt und mit Anweisungen programmiert werden, die eine sichere Nutzung von Gerät 450 gewährleisten. Zusätzlich dazu können über die SIMM-Karten sichere Anwendungen zusammen mit zusätzlichen Informationen, wie dem Ablegen von Identifizierungsinformationen auf der SIMM-Karte auf eine Weise bereitgestellt werden, die nicht gehackt werden kann.
  • Der Speicher kann, wie nachstehend beschrieben, zum Beispiel Flashspeicher und/oder NVRAM-Speicher beinhalten. In einer Implementierung ist ein Computerprogrammprodukt in einem Informationsträger physisch enthalten. Das Computerprogrammprodukt enthält Befehle, die bei Ausführung ein oder mehrere Verfahren wie die vorstehend beschriebenen durchführen. Der Informationsträger ist ein computer- oder maschinenlesbares Medium wie der Speicher 464, Erweiterungsspeicher 454, Speicher auf Prozessor 452 oder ein ausgebreitetes Signal, das beispielsweise über den Sendeempfänger 468 oder die externe Schnittstelle 462 empfangen werden kann.
  • Das Gerät 450 kann über die Kommunikationsschnittstelle 466 drahtlos kommunizieren, die bei Bedarf eine digitale Signalverarbeitungsschaltung beinhalten kann. Die Kommunikationsschnittstelle 466 kann Verbindungen unter Verwendung verschiedener Kommunikationsmodi oder -protokolle, wie z. B. GSM-Sprachanrufe, SMS, EMS, oder MMS-Messaging, CDMA, TDMA, PDC, WCDMA, CDMA2000 oder GPRS, bereitstellen. Diese Kommunikation kann beispielsweise durch Funkfrequenz-Sendeempfänger 468 erfolgen. Zusätzlich kann eine Kurzstreckenkommunikation stattfinden, wie unter Verwendung eines Bluetooth-, WLAN- oder anderen solchen Sendeempfängers (nicht dargestellt). Zusätzlich kann das GPS-Empfängermodul (GPS = Globales Positionsbestimmungssystem) 450 zusätzliche navigations- und standortbezogene drahtlose Daten an Gerät 450 bereitstellen, die von Anwendungen auf dem Gerät 450 entsprechend verwendet werden.
  • Gerät 450 kann zudem unter Verwendung des Audiocodec 460, der gesprochene Informationen von einem Benutzer empfangen und diese in nutzbare digitale Informationen konvertieren kann, hörbar kommunizieren. Der Audiocodec 460 kann ebenfalls hörbaren Ton für einen Benutzer, wie beispielsweise durch einen Lautsprecher z. B. in einem Mobilteil von Gerät 450, erzeugen. Dieser Ton kann einen Ton von Sprachanrufen, aufgenommene Töne (z. B. Sprachnachrichten, Musikdateien usw.) und auch Töne beinhalten, die von Anwendungen erzeugt werden, die auf Gerät 450 ausgeführt werden.
  • Computergerät 450 kann, wie in der Figur dargestellt, in einer Reihe unterschiedlicher Formen implementiert sein. Es kann beispielsweise als ein Mobiltelefon 480 implementiert sein. Es kann außerdem als Teil eines Smartphones 482, persönlichen digitalen Assistenten oder eines anderen ähnlichen Mobilgeräts implementiert sein.
  • Es wurde eine Reihe von Implementierungen beschrieben. Trotzdem versteht es sich, dass verschiedene Modifikationen durchgeführt werden können, ohne vom Sinn und Umfang der Offenbarung abzuweichen. Zum Beispiel können verschiedene Formen der vorstehend dargestellten Abläufe verwendet und Schritte neu geordnet, hinzugefügt oder entfernt werden.
  • Implementierungen der Erfindung und die in dieser Spezifikation beschriebenen Funktionsvorgänge können in digitalen elektronischen Schaltungen oder in Computersoftware, -Firmware oder -Hardware, darunter auch in den in dieser Spezifikation offenbarten Strukturen und deren strukturellen Entsprechungen oder in Kombinationen von einer oder mehrerer derselben, implementiert werden. Implementierungen der Erfindung können als ein oder mehrere Computerprogrammprodukte implementiert werden, d. h. als ein oder mehrere Module von Computerprogrammbefehlen, die auf einem computerlesbaren Medium zur Ausführung codiert sind, oder um den Betrieb von Datenverarbeitungsvorrichtungen zu steuern. Das maschinenlesbare Speichermedium kann ein maschinenlesbares Datenspeichergerät, ein maschinenlesbares Speichersubstrat, ein Arbeitsspeicher, eine Stoffzusammensetzung, die ein maschinenlesbares verbreitetes Signal bewirkt, oder eine Kombination aus einem oder mehreren derselben sein. Der Begriff „Datenverarbeitungsvorrichtung“ umfasst alle Vorrichtungen, Geräte und Maschinen zum Verarbeiten von Daten, einschließlich beispielsweise eines programmierbaren Prozessors, eines Computers oder mehrerer Prozessoren oder Computer. Die Vorrichtung kann neben der Hardware auch einen Code beinhalten, der eine Ausführungsumgebung für das betreffende Computerprogramm bildet, z. B. einen Code, der Prozessor-Firmware, einen Protokollstapel, ein Datenbank-Managementsystem, ein Betriebssystem oder eine Kombination einer oder mehrerer der genannten darstellt. Ein propagiertes Signal ist ein künstlich erzeugtes Signal, wie z. B. ein maschinengeneriertes elektrisches, optisches oder elektromagnetisches Signal, das erzeugt wird, um Informationen für die Übermittlung an eine geeignete Empfangsvorrichtung zu codieren.
  • Ein Computerprogramm (auch als Programm, Software, Software-Anwendung, Script oder Code bekannt) kann in jeder Form von Programmiersprache, darunter auch in kompilierten oder interpretierten Sprachen, geschrieben und in jeder Form angewendet werden, darunter auch als eigenständiges Programm oder als Modul, Komponente, Subroutine oder andere Einheit, die für die Verwendung in einer Computerumgebung geeignet ist. Ein Computerprogramm entspricht nicht unbedingt einer Datei in einem Dateisystem. Ein Programm kann in einem Teil einer Datei, die andere Programme oder Daten enthält (z. B. ein oder mehrere Scripts, die in einem Dokument in Markup-Sprache gespeichert sind), in einer einzelnen Datei speziell für das betreffende Programm oder in mehreren koordinierten Dateien (z. B. Dateien, die ein oder mehrere Module, Unterprogramme oder Teile von Code speichern) gespeichert sein. Ein Computerprogramm kann auf einem Computer oder auf mehreren Computern bereitgestellt und ausgeführt werden, die sich an einem Standort oder an mehreren Standorten verteilt befinden und über ein Kommunikationsnetzwerk miteinander verbunden sind.
  • Diese Computerprogramme (auch bekannt als Programme, Software, Softwareanwendungen oder Code) umfassen Maschinenbefehle für einen programmierbaren Prozessor und können in einer höheren prozeduralen und/oder objektorientierten Programmiersprache und/oder in Assembler-/Maschinensprache implementiert sein. Wie hier verwendet, bezeichnen die Begriffe „maschinenlesbares Medium“, „computerlesbares Medium“ ein beliebiges Computerprogrammprodukt, eine beliebige Vorrichtung und/oder ein beliebiges Gerät (z. B. magnetische Platten, optische Datenträger, Speicher, programmierbare Logikbausteine (PLDs)), die verwendet werden, um einem programmierbaren Prozessor, darunter auch einem maschinenlesbaren Medium, das Maschinenbefehle als maschinenlesbares Signal empfängt, Maschinenbefehle und/oder Daten bereitzustellen. Der Begriff „maschinenlesbares Signal“ bezeichnet ein beliebiges Signal, das verwendet wird, um einem programmierbaren Prozessor Maschinenbefehle und/oder Daten bereitzustellen.
  • Die in dieser Beschreibung beschriebenen Prozesse und Logikabläufe können durch einen oder mehrere programmierbare Prozessoren ausgeführt werden, die ein oder mehrere Computerprogramme ausführen, um Funktionen durch Verarbeiten von Eingabedaten und Erzeugen von Ausgaben auszuführen. Die Prozesse und Logikabläufe können zudem durch eine Spezial-Logikschaltung, wie z. B. einen FPGA (Universalschaltkreis) oder eine ASIC (anwendungsspezifische integrierte Schaltung) ausgeführt, und das Gerät in Form derselben implementiert werden.
  • Prozessoren, die für die Ausführung eines Computerprogramms geeignet sind, beinhalten beispielsweise sowohl Universal- als auch Spezialmikroprozessoren, sowie einen oder mehrere Prozessoren einer beliebigen Art von digitalem Computer. Im Allgemeinen empfängt ein Prozessor Befehle und Daten von einem Festwertspeicher oder einem wahlfreien Zugriffsspeicher oder von beiden. Die wesentlichen Elemente eines Computers sind ein Prozessor für das Ausführen von Befehlen und ein oder mehrere Speichergeräte für das Speichern von Befehlen und Daten. Im Allgemeinen gehören zu einem Computer außerdem ein oder mehrere Massenspeichergeräte zum Speichern von Daten, wie z. B. magnetische, magneto-optische oder optische Laufwerke, um Daten zu empfangen und/oder zu senden, oder ein Computer ist operativ an dasselbe Speichergerät gekoppelt. Ein Computer muss jedoch nicht über diese Geräte verfügen. Des Weiteren kann ein Computer in einem anderen Gerät, wie z. B. einem Tabletcomputer, einem Mobiltelefon, einem persönlichen digitalen Assistenten (PDA), einem mobilen Audioplayer, einem globalen Positionsbestimmungssystem-(GPS)-Empfänger integriert sein, um nur einige Beispiele zu nennen. Computerlesbare Medien, die zum Speichern von Computerprogrammanweisungen und Daten geeignet sind, beinhalten alle Formen von nicht flüchtigem Speichern, Medien und Speichergeräten, einschließlich beispielsweise Halbleiterspeichergeräte, wie z. B. EPROM, EEPROM und Flash-Speichergeräte, magnetische Datenträger, wie z. B. eingebaute Festplattenlaufwerken oder Wechselplatten, magneto-optische Platten sowie CD-ROMs und DVD-ROMs. Der Prozessor und der Speicher können durch eine Spezial-Logikschaltung ergänzt oder in dieselbe integriert werden.
  • Um eine Interaktion mit einem Benutzer bereitzustellen, können Implementierungen der Erfindung auf einem Computer implementiert werden, der ein Anzeigegerät (wie z. B. einen CRT-(Kathodenstrahlröhren) oder LCD-(Flüssigkristallanzeige) -Monitor) aufweist, um dem Benutzer Informationen anzuzeigen, sowie eine Tastatur und ein Zeigegerät (z. B. eine Maus oder einen Trackball) aufweist, mittels denen der Benutzer eine Eingabe an dem Computer vornehmen kann. Darüber hinaus können andere Geräte verwendet werden, um die Interaktion mit einem Benutzer zu ermöglichen; zum Beispiel kann es sich bei der Rückmeldung an den Benutzer um jegliche Art von sensorischer Rückmeldung, wie z. B. visuelle, akustische oder taktile Rückmeldungen, handeln; zudem können die Eingaben des Benutzers in beliebiger Form, darunter auch akustisch, sprachlich oder taktil, empfangen werden.
  • Implementierungen der Erfindung können in einem Computersystem implementiert sein, das eine Backendkomponente, wie z. B. einen Datenserver, oder eine Middlewarekomponente, wie z. B. einen Applikationsserver, oder eine Frontendkomponente, wie z. B. einen Clientcomputer, der eine grafische Benutzeroberfläche oder einen Web-Browser aufweist, durch den ein Benutzer mit einer Implementierung der Erfindung interagieren kann, oder eine Kombination aus einer oder mehreren dieser Backend-, Middleware- oder Frontendkomponenten beinhaltet. Die Komponenten des Systems können durch eine beliebige Form oder ein beliebiges Medium digitaler Datenkommunikation, wie z. B. ein Kommunikationsnetzwerk, miteinander verbunden sein. So beinhalten beispielsweise Kommunikationsnetzwerke ein lokales Netzwerk („LAN“), ein Großraumnetzwerk („WAN“), z. B. das Internet.
  • Das Computersystem kann Clients und Server beinhalten. Ein Client und Server befinden sich im Allgemeinen entfernt voneinander und interagieren typischerweise über ein Kommunikationsnetzwerk. Die Beziehung von Client und Server ergibt sich durch Computerprogramme, die auf den jeweiligen Computern ausgeführt werden und in einer Client-Server-Beziehung zueinander stehen.
  • Während diese Offenbarung viele Spezifika enthält, sollen diese nicht als Beschränkung des Umfangs der Offenbarung oder des Patentanspruchs verstanden werden, sondern vielmehr als besondere Merkmale bestimmter Implementierungen dieser Offenbarung. Bestimmte Merkmale, die in dieser Spezifikation im Zusammenhang mit separaten Implementierungen beschrieben werden, können darüber hinaus in Kombination in einer einzelnen Implementierung implementiert werden. Umgekehrt können verschiedene Merkmale, die im Kontext einer einzelnen Implementierung beschrieben sind, auch in mehreren Implementierungen getrennt oder in einer geeigneten Teilkombination implementiert werden. Außerdem können, auch wenn die Merkmale vorstehend ggf. als in bestimmten Kombinationen wirkend beschrieben und zunächst auch als solche beansprucht werden, in einigen Fällen ein oder mehrere Merkmale einer beanspruchten Kombination aus der Kombination herausgenommen und die beanspruchte Kombination auf eine Teilkombination oder eine Variante einer Teilkombination gerichtet werden.
  • Gleichermaßen soll, obgleich die Vorgänge in den Zeichnungen in einer bestimmten Reihenfolge dargestellt sind, dies nicht so verstanden werden, dass die besagten Vorgänge in der dargestellten Reihenfolge oder in fortlaufender Reihenfolge durchgeführt werden müssen bzw. alle veranschaulichten Vorgänge durchgeführt werden müssen, um die erwünschten Ergebnisse zu erzielen. Unter bestimmten Umständen können Multitasking und Parallelverarbeitung von Vorteil sein. Darüber hinaus sollte die Trennung verschiedener Systemkomponenten in den vorstehend beschriebenen Implementierungen nicht als in allen Implementierungen erforderlich ausgelegt werden, zudem sollte davon ausgegangen werden, dass die beschriebenen Programmkomponenten und Systeme im Allgemeinen in einem einzelnen Software-Produkt oder in mehreren Software-Produkten gebündelt integriert sein können.
  • In allen Fällen, in denen eine HTML-Datei erwähnt ist, können stattdessen andere Dateitypen oder Formate verwendet werden. Zum Beispiel kann eine HTML-Datei durch XML, JSON, Klartext oder andere Arten von Dateien ersetzt werden. Des Weiteren können, wo eine Tabelle oder Hashtabelle angegeben wird, andere Datenstrukturen (wie z. B. Tabellenkalkulationen, relationale Datenbanken oder strukturierte Dateien) verwendet werden.
  • Verschiedene Implementierungen der hier beschriebenen Systeme und Techniken können in digitalen elektronischen Schaltungen, integrierten Schaltungen, speziell konzipierten ASICs (anwendungsorientierten integrierten Schaltungen), Computerhardware, Firmware, Software und/oder Kombinationen derselben realisiert sein. Diese verschiedenen Implementierungen können eine Implementierung in einem oder mehreren Computerprogrammen umfassen, die auf einem programmierbaren System ausführbar und/oder interpretierbar sind, das mindestens einen programmierbaren Prozessor beinhaltet, bei dem es sich um einen Spezialprozessor oder einen Universalprozessor handeln kann und der zum Empfangen von Daten und Anweisungen von und zum Übertragen von Daten und Anweisungen an ein Speichersystem, mindestens ein Eingabegerät und mindestens eine Ausgabegerät gekoppelt ist.
  • Somit wurden bestimmte Implementierungen der vorliegenden Offenbarung beschrieben. Andere Implementierungen fallen in den Umfang der folgenden Ansprüche. Die in den Ansprüchen ausgeführten Vorgänge können beispielsweise in einer anderen Reihenfolge ausgeführt werden und dennoch wünschenswerte Ergebnisse erzielen. Es wurde eine Anzahl von Implementierungen beschrieben. Trotzdem versteht es sich, dass verschiedene Modifikationen durchgeführt werden können, ohne vom Sinn und Umfang der Offenbarung abzuweichen. Zum Beispiel können verschiedene Formen der vorstehend dargestellten Abläufe verwendet und Schritte neu geordnet, hinzugefügt oder entfernt werden. Dementsprechend liegen andere Implementierungen im Geltungsbereich der folgenden Ansprüche.

Claims (21)

  1. Computerprogrammprodukt, wobei das Computerprogrammprodukt Code beinhaltet, der, wenn er durch einen oder mehrere Computer ausgeführt wird, den einen oder die mehreren Computer veranlasst, ein Verfahren durchzuführen, wobei das Verfahren umfasst: Bestimmen von Kandidatenbenutzerprofilen als einem gemeinsam genutzten Gerät zugeordnet; Identifizieren, aus den Kandidatenbenutzerprofilen, von Kandidatenausspracheattributen, die mindestens einem von den Kandidatenbenutzerprofilen, die als dem gemeinsam genutzten Gerät zugeordnet bestimmt wurden, zugeordnet sind; Empfangen einer gesprochenen Äußerung an dem gemeinsam genutzten Gerät; Bestimmen eines empfangenen Ausspracheattributs basierend auf empfangenen Audiodaten entsprechend der gesprochenen Äußerung; Vergleichen des empfangenen Ausspracheattributs mit mindestens einem von den Kandidatenausspracheattributen; Auswählen eines bestimmten Ausspracheattributs von den Kandidatenausspracheattributen basierend auf einem Ergebnis des Vergleichs des empfangenen Ausspracheattributs mit mindestens einem von den Kandidatenausspracheattributen; und Bereitstellen des bestimmten, aus den Kandidatenausspracheattributen ausgewählten Ausspracheattributs zum Ausgeben der von der gesprochenen Äußerung zugeordneten Audiodaten.
  2. Computerprogrammprodukt nach Anspruch 1, das Verfahren umfassend Ausführen eines Spracherkennungsverfahrens zum Bestimmen des empfangenen Ausspracheattributs basierend auf den empfangenen Audiodaten, die der gesprochenen Äußerung entsprechen.
  3. Computerprogrammprodukt nach Anspruch 1 oder Anspruch 2, wobei Bestimmen von Kandidatenbenutzerprofilen als einem gemeinsam genutzten Gerät zugeordnet, umfasst: Bestimmen eines Verhältnisses zwischen jedem von einer Vielzahl von Benutzerprofilen und dem gemeinsam genutzten Gerät; Bestimmen für jedes Benutzerprofil, ob das Verhältnis eine Zuordnung zwischen dem Benutzerprofil und dem gemeinsam genutzten Profil angibt; und Identifizieren für jedes Benutzerprofil, das ein Verhältnis aufweist, das eine Zuordnung zu dem gemeinsam genutzten Gerät angibt, dass das Benutzerprofil eines von den Kandidatenbenutzerprofilen ist, die dem gemeinsam genutzten Gerät zugeordnet sind.
  4. Computerprogrammprodukt nach Anspruch 3, wobei das Verhältnis für jedes der Vielzahl von Benutzerprofilen einen Datensatz darüber umfasst, ob das Benutzerprofil an dem gemeinsam genutzten Gerät angemeldet wurde, oder ob mindestens ein dem Benutzerprofil zugeordnetes Benutzergerät mit dem gemeinsam genutzten Gerät kommuniziert hat.
  5. Computerprogrammprodukt nach Anspruch 3, wobei das Verhältnis für jedes der Vielzahl von Benutzerprofilen eine geografische Nähe mindestens eines dem Benutzerprofil zugeordneten Benutzergeräts mit dem gemeinsam genutzten Gerät umfasst.
  6. Computerprogrammprodukt nach Anspruch 3, wobei das Verhältnis für jedes der Vielzahl von Benutzerprofilen eine soziale Konnektivität umfasst, wobei die soziale Konnektivität auf mindestens einer sozialen Konnektivitätsmetrik basiert.
  7. Computerprogrammprodukt nach einem der vorangegangenen Ansprüche, wobei jedes Benutzerprofil der Kandidatenbenutzerprofile eines oder mehrere Ausspracheattribute umfasst, die einer kanonischen ID zugeordnet sind, wobei die kanonische ID eine bestimmte Aussprache repräsentiert.
  8. Computerprogrammprodukt nach einem der vorangegangenen Ansprüche, das Verfahren ferner umfassend: Bereitstellen einer Audioantwort auf die gesprochene Äußerung, wobei die Audioantwort die bestimmte, aus den Kandidatenausspracheattributen ausgewählte Aussprache beinhaltet.
  9. System, umfassend einen oder mehrere Computer und ein oder mehrere Speichergeräte, die Anweisungen speichern, welche bei Ausführung durch den einen oder die mehreren Computer durchführbar sind, den einen oder die mehreren Computer zu veranlassen, Vorgänge auszuführen, umfassend: Bestimmen von Kandidatenbenutzerprofilen als einem gemeinsam genutzten Gerät zugeordnet; Identifizieren, aus den Kandidatenbenutzerprofilen, von Kandidatenausspracheattributen, die mindestens einem von den Kandidatenbenutzerprofilen, die als dem gemeinsam genutzten Gerät zugeordnet bestimmt wurden, zugeordnet sind; Empfangen einer gesprochenen Äußerung an dem gemeinsam genutzten Gerät; Bestimmen eines empfangenen Ausspracheattributs basierend auf empfangenen Audiodaten entsprechend der gesprochenen Äußerung; Vergleichen des empfangenen Ausspracheattributs mit mindestens einem von den Kandidatenausspracheattributen; Auswählen eines bestimmten Ausspracheattributs von den Kandidatenausspracheattributen basierend auf einem Ergebnis des Vergleichs der empfangenen Ausspracheattribute mit mindestens einem von den Kandidatenausspracheattributen; und Bereitstellen des bestimmten, aus den Kandidatenausspracheattributen ausgewählten Ausspracheattributs zum Ausgeben der von der gesprochenen Äußerung zugeordneten Audiodaten.
  10. System nach Anspruch 9, wobei Bestimmen von Kandidatenbenutzerprofilen als einem gemeinsam genutzten Gerät zugeordnet, umfasst: Bestimmen eines Verhältnisses zwischen jedem von einer Vielzahl von Benutzerprofilen und dem gemeinsam genutzten Gerät; Bestimmen für jedes Benutzerprofil, ob das Verhältnis eine Zuordnung zwischen dem Benutzerprofil und dem gemeinsam genutzten Profil angibt; und Identifizieren für jedes Benutzerprofil, das ein Verhältnis aufweist, das eine Zuordnung zu dem gemeinsam genutzten Gerät angibt, dass das Benutzerprofil eines von den Kandidatenbenutzerprofilen ist, die dem gemeinsam genutzten Gerät zugeordnet sind.
  11. System nach Anspruch 10, wobei das Verhältnis für jedes der Vielzahl von Benutzerprofilen einen Datensatz darüber umfasst, ob das Benutzerprofil an dem gemeinsam genutzten Gerät angemeldet wurde, oder ob mindestens ein dem Benutzerprofil zugeordnetes Benutzergerät mit dem gemeinsam genutzten Gerät kommuniziert hat.
  12. System nach Anspruch 10, wobei das Verhältnis für jedes der Vielzahl von Benutzerprofilen eine geografische Nähe mindestens eines dem Benutzerprofil zugeordneten Benutzergeräts mit dem gemeinsam genutzten Gerät umfasst.
  13. System nach Anspruch 10, wobei das Verhältnis für jedes der Vielzahl von Benutzerprofilen eine soziale Konnektivität umfasst, wobei die soziale Konnektivität auf mindestens einer sozialen Konnektivitätsmetrik basiert.
  14. System nach einem der Ansprüche 9 bis 13, wobei jedes Benutzerprofil der Kandidatenbenutzerprofile eines oder mehrere Ausspracheattribute umfasst, die einer kanonischen ID zugeordnet sind, wobei die kanonische ID eine bestimmte Aussprache repräsentiert.
  15. System nach einem der Ansprüche 9 bis 14, ferner umfassend: Bereitstellen einer Audioantwort auf die gesprochene Äußerung, wobei die Audioantwort die bestimmte, aus den Kandidatenausspracheattributen ausgewählte Aussprache beinhaltet.
  16. Computerlesbares Speichergerät, welches Anweisungen speichert, die durch einen oder mehrere Computer ausführbar sind, die bei einer solchen Ausführung den einen oder die mehreren Computer zum Ausführen von Vorgängen veranlassen, umfassend: Bestimmen von Kandidatenbenutzerprofilen als einem gemeinsam genutzten Gerät zugeordnet; Identifizieren, aus den Kandidatenbenutzerprofilen, von Kandidatenausspracheattributen, die mindestens einem von den Kandidatenbenutzerprofilen, die als dem gemeinsam genutzten Gerät zugeordnet bestimmt wurden, zugeordnet sind; Empfangen einer gesprochenen Äußerung an dem gemeinsam genutzten Gerät; Bestimmen eines empfangenen Ausspracheattributs basierend auf empfangenen Audiodaten entsprechend der gesprochenen Äußerung; Vergleichen des empfangenen Ausspracheattributs mit mindestens einem von den Kandidatenausspracheattributen; Auswählen eines bestimmten Ausspracheattributs von den Kandidatenausspracheattributen basierend auf einem Ergebnis des Vergleichs des empfangenen Ausspracheattributs mit mindestens einem von den Kandidatenausspracheattributen; und Bereitstellen des bestimmten, aus den Kandidatenausspracheattributen ausgewählten Ausspracheattributs zum Ausgeben der von der gesprochenen Äußerung zugeordneten Audiodaten.
  17. Computerlesbares Speichergerät nach Anspruch 16, wobei Bestimmen von Kandidatenbenutzerprofilen als einem gemeinsam genutzten Gerät zugeordnet, umfasst: Bestimmen eines Verhältnisses zwischen jedem von einer Vielzahl von Benutzerprofilen und dem gemeinsam genutzten Gerät; Bestimmen für jedes Benutzerprofil, ob das Verhältnis eine Zuordnung zwischen dem Benutzerprofil und dem gemeinsam genutzten Profil angibt; und Identifizieren für jedes Benutzerprofil, das ein Verhältnis aufweist, das eine Zuordnung zu dem gemeinsam genutzten Gerät angibt, dass das Benutzerprofil eines von den Kandidatenbenutzerprofilen ist, die dem gemeinsam genutzten Gerät zugeordnet sind.
  18. Computerlesbares Speichergerät nach Anspruch 17, wobei das Verhältnis für jedes der Vielzahl von Benutzerprofilen einen Datensatz darüber umfasst, ob das Benutzerprofil an dem gemeinsam genutzten Gerät angemeldet wurde, oder ob mindestens ein dem Benutzerprofil zugeordnetes Benutzergerät mit dem gemeinsam genutzten Gerät kommuniziert hat.
  19. Computerlesbares Speichergerät nach Anspruch 17, wobei das Verhältnis für jedes der Vielzahl von Benutzerprofilen eine geografische Nähe mindestens eines dem Benutzerprofil zugeordneten Benutzergeräts mit dem gemeinsam genutzten Gerät umfasst.
  20. Computerlesbares Speichergerät nach Anspruch 17, wobei das Verhältnis für jedes der Vielzahl von Benutzerprofilen eine soziale Konnektivität umfasst, wobei die soziale Konnektivität auf mindestens einer sozialen Konnektivitätsmetrik basiert.
  21. Computerlesbares Speichergerät nach einem der Ansprüche 16 bis 20, wobei jedes Benutzerprofil der Kandidatenbenutzerprofile eines oder mehrere Ausspracheattribute umfasst, die einer kanonischen ID zugeordnet sind, wobei die kanonische ID eine bestimmte Aussprache repräsentiert.
DE202017105741.0U 2016-12-29 2017-09-21 Automatisierte Sprachaussprachezuteilung Active DE202017105741U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/394,104 2016-12-29
US15/394,104 US10013971B1 (en) 2016-12-29 2016-12-29 Automated speech pronunciation attribution

Publications (1)

Publication Number Publication Date
DE202017105741U1 true DE202017105741U1 (de) 2018-04-03

Family

ID=59485451

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102017121913.7A Pending DE102017121913A1 (de) 2016-12-29 2017-09-21 Automatisierte Sprachaussprachezuteilung
DE202017105741.0U Active DE202017105741U1 (de) 2016-12-29 2017-09-21 Automatisierte Sprachaussprachezuteilung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102017121913.7A Pending DE102017121913A1 (de) 2016-12-29 2017-09-21 Automatisierte Sprachaussprachezuteilung

Country Status (8)

Country Link
US (3) US10013971B1 (de)
EP (1) EP3485486B1 (de)
JP (2) JP6821814B2 (de)
KR (2) KR102276282B1 (de)
CN (2) CN108257608B (de)
DE (2) DE102017121913A1 (de)
GB (1) GB2558353A (de)
WO (1) WO2018125289A1 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013971B1 (en) * 2016-12-29 2018-07-03 Google Llc Automated speech pronunciation attribution
US11632345B1 (en) * 2017-03-31 2023-04-18 Amazon Technologies, Inc. Message management for communal account
US20190073994A1 (en) * 2017-09-05 2019-03-07 Microsoft Technology Licensing, Llc Self-correcting computer based name entity pronunciations for speech recognition and synthesis
US10930274B2 (en) 2018-11-30 2021-02-23 International Business Machines Corporation Personalized pronunciation hints based on user speech
WO2020213767A1 (ko) * 2019-04-19 2020-10-22 엘지전자 주식회사 다중 디바이스 제어 시스템과 방법 및 이를 실행하기 위한 컴포넌트가 저장된 비 일시적 컴퓨터 판독 가능 매체
US11263400B2 (en) * 2019-07-05 2022-03-01 Google Llc Identifying entity attribute relations
KR20210089295A (ko) * 2020-01-07 2021-07-16 엘지전자 주식회사 인공지능 기반의 정보 처리 방법
CN111554300B (zh) * 2020-06-30 2021-04-13 腾讯科技(深圳)有限公司 音频数据处理方法、装置、存储介质及设备
US11615795B2 (en) 2020-08-03 2023-03-28 HCL America Inc. Method and system for providing secured access to services rendered by a digital voice assistant
US20220417047A1 (en) * 2021-06-25 2022-12-29 Microsoft Technology Licensing, Llc Machine-learning-model based name pronunciation
US20230138820A1 (en) * 2021-10-28 2023-05-04 Microsoft Technology Licensing, Llc Real-time name mispronunciation detection

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029200A (en) 1989-05-02 1991-07-02 At&T Bell Laboratories Voice message system using synthetic speech
GB9223066D0 (en) * 1992-11-04 1992-12-16 Secr Defence Children's speech training aid
TW274135B (de) 1994-09-14 1996-04-11 Hitachi Seisakusyo Kk
WO1998014934A1 (en) * 1996-10-02 1998-04-09 Sri International Method and system for automatic text-independent grading of pronunciation for language instruction
US5897616A (en) * 1997-06-11 1999-04-27 International Business Machines Corporation Apparatus and methods for speaker verification/identification/classification employing non-acoustic and/or acoustic models and databases
US6078885A (en) * 1998-05-08 2000-06-20 At&T Corp Verbal, fully automatic dictionary updates by end-users of speech synthesis and recognition systems
US7283964B1 (en) 1999-05-21 2007-10-16 Winbond Electronics Corporation Method and apparatus for voice controlled devices with improved phrase storage, use, conversion, transfer, and recognition
US8065155B1 (en) 1999-06-10 2011-11-22 Gazdzinski Robert F Adaptive advertising apparatus and methods
JP3542026B2 (ja) 2000-05-02 2004-07-14 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声認識システム、音声認識方法およびコンピュータ可読な記録媒体
US6738738B2 (en) 2000-12-23 2004-05-18 Tellme Networks, Inc. Automated transformation from American English to British English
KR100406307B1 (ko) * 2001-08-09 2003-11-19 삼성전자주식회사 음성등록방법 및 음성등록시스템과 이에 기초한음성인식방법 및 음성인식시스템
US7043431B2 (en) 2001-08-31 2006-05-09 Nokia Corporation Multilingual speech recognition system using text derived recognition models
US6985865B1 (en) 2001-09-26 2006-01-10 Sprint Spectrum L.P. Method and system for enhanced response to voice commands in a voice command platform
US7027832B2 (en) * 2001-11-28 2006-04-11 Qualcomm Incorporated Providing custom audio profile in wireless device
US7693720B2 (en) 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
US7593849B2 (en) * 2003-01-28 2009-09-22 Avaya, Inc. Normalization of speech accent
WO2005027093A1 (en) 2003-09-11 2005-03-24 Voice Signal Technologies, Inc. Generation of an alternative pronunciation
US7266495B1 (en) 2003-09-12 2007-09-04 Nuance Communications, Inc. Method and system for learning linguistically valid word pronunciations from acoustic data
ATE426526T1 (de) * 2003-10-21 2009-04-15 Johnson Controls Tech Co System und verfahren zur auswahl eines benutzersprachprofils fur eine vorrichtung in einem fahrzeug
US7299181B2 (en) 2004-06-30 2007-11-20 Microsoft Corporation Homonym processing in the context of voice-activated command systems
US8255223B2 (en) 2004-12-03 2012-08-28 Microsoft Corporation User authentication by combining speaker verification and reverse turing test
CN101443787B (zh) 2006-02-17 2012-07-18 徕美股份公司 用于ocr系统中的不确定识别单词的验证的方法和系统
US8015014B2 (en) 2006-06-16 2011-09-06 Storz Endoskop Produktions Gmbh Speech recognition system with user profiles management component
US8972268B2 (en) 2008-04-15 2015-03-03 Facebook, Inc. Enhanced speech-to-speech translation system and methods for adding a new word
GB2457855B (en) 2006-11-30 2011-01-12 Nat Inst Of Advanced Ind Scien Speech recognition system and speech recognition system program
US20080153465A1 (en) 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Voice search-enabled mobile device
US8886545B2 (en) 2007-03-07 2014-11-11 Vlingo Corporation Dealing with switch latency in speech recognition
US8032383B1 (en) * 2007-05-04 2011-10-04 Foneweb, Inc. Speech controlled services and devices using internet
CN101441869A (zh) * 2007-11-21 2009-05-27 联想(北京)有限公司 语音识别终端用户身份的方法及终端
CN101266600A (zh) * 2008-05-07 2008-09-17 陈光火 多媒体多语言互动同步翻译方法
US8510103B2 (en) 2009-10-15 2013-08-13 Paul Angott System and method for voice recognition
CA2795812A1 (en) * 2010-04-07 2011-10-13 Max Value Solutions INTL, LLC Method and system for name pronunciation guide services
CN102682763B (zh) 2011-03-10 2014-07-16 北京三星通信技术研究有限公司 修正语音输入文本中命名实体词汇的方法、装置及终端
US20120253817A1 (en) 2011-04-04 2012-10-04 Mitel Networks Corporation Mobile speech attendant access
US9009041B2 (en) 2011-07-26 2015-04-14 Nuance Communications, Inc. Systems and methods for improving the accuracy of a transcription using auxiliary data such as personal data
US20130110511A1 (en) 2011-10-31 2013-05-02 Telcordia Technologies, Inc. System, Method and Program for Customized Voice Communication
US8719202B1 (en) * 2011-11-22 2014-05-06 Intellectual Ventures Fund 79 Llc Methods, devices, and mediums associated with monitoring and managing exercise fitness
CN104854537B (zh) * 2013-01-04 2018-08-10 英特尔公司 与计算设备的多距离、多模态自然用户交互
US9460088B1 (en) 2013-05-31 2016-10-04 Google Inc. Written-domain language modeling with decomposition
US9298811B2 (en) * 2013-07-15 2016-03-29 International Business Machines Corporation Automated confirmation and disambiguation modules in voice applications
CN103442290A (zh) * 2013-08-15 2013-12-11 安徽科大讯飞信息科技股份有限公司 基于电视终端用户及语音的信息提供方法及系统
US10885918B2 (en) 2013-09-19 2021-01-05 Microsoft Technology Licensing, Llc Speech recognition using phoneme matching
US9489943B2 (en) 2013-10-16 2016-11-08 Interactive Intelligence Group, Inc. System and method for learning alternate pronunciations for speech recognition
US9263032B2 (en) 2013-10-24 2016-02-16 Honeywell International Inc. Voice-responsive building management system
US9589562B2 (en) 2014-02-21 2017-03-07 Microsoft Technology Licensing, Llc Pronunciation learning through correction logs
US9711141B2 (en) * 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US10102852B2 (en) 2015-04-14 2018-10-16 Google Llc Personalized speech synthesis for acknowledging voice actions
US10366158B2 (en) * 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10832684B2 (en) 2016-08-31 2020-11-10 Microsoft Technology Licensing, Llc Personalization of experiences with digital assistants in communal settings through voice and query processing
US10013971B1 (en) * 2016-12-29 2018-07-03 Google Llc Automated speech pronunciation attribution

Also Published As

Publication number Publication date
JP6821814B2 (ja) 2021-01-27
GB2558353A (en) 2018-07-11
US10559296B2 (en) 2020-02-11
KR20210088743A (ko) 2021-07-14
US10013971B1 (en) 2018-07-03
US20180286382A1 (en) 2018-10-04
CN110349591B (zh) 2021-02-26
CN108257608B (zh) 2019-06-28
JP2020503561A (ja) 2020-01-30
US20200243063A1 (en) 2020-07-30
CN110349591A (zh) 2019-10-18
US20180190262A1 (en) 2018-07-05
EP3485486B1 (de) 2019-11-13
KR102276282B1 (ko) 2021-07-12
JP2021060620A (ja) 2021-04-15
WO2018125289A1 (en) 2018-07-05
JP7163424B2 (ja) 2022-10-31
US11081099B2 (en) 2021-08-03
GB201715809D0 (en) 2017-11-15
EP3485486A1 (de) 2019-05-22
CN108257608A (zh) 2018-07-06
DE102017121913A1 (de) 2018-07-05
KR102493292B1 (ko) 2023-01-30
KR20190100309A (ko) 2019-08-28

Similar Documents

Publication Publication Date Title
DE202017105741U1 (de) Automatisierte Sprachaussprachezuteilung
DE112016000292B4 (de) Verfahren und Vorrichtung zur die Privatsphäre bewahrenden Trainingskorpusauswahl
DE102016125494B4 (de) Das sichere Ausführen von Sprachfunktionen unter der Verwendung kontextabhängiger Signale
DE202016008230U1 (de) Sprachwiedererkennung mit externen Datenquellen
DE202017106606U1 (de) Hotword-Erkennung auf der Server-Seite
DE202015010012U1 (de) Aktivierungswort-Ermittlung auf mehreren Vorrichtungen
DE112016001852T5 (de) Entwicklersprachaktionssystem
DE102016125508B4 (de) Auffindbarkeitssystem für Sprachaktionen
DE112015003382B4 (de) Spracherkennungseinrichtung und Spracherkennungsverfahren
DE202017104895U1 (de) Hotword-Detektion bei mehreren Vorrichtungen
DE102017125396A1 (de) Abfrage-Endpunktbestimmung auf Basis der Lippenerkennung
DE112016002185T5 (de) Sprachaktivitätserkennung
DE112017004374T5 (de) System und Verfahren zur Spracherkennung
DE102017122358A1 (de) Bedingte Bereitstellung von Zugriff durch interaktive Assistentenmodul
DE102015203372A1 (de) Begriffsklärung dynamischer befehle
DE102018108947A1 (de) Vorrichtung zum Korrigieren eines Äußerungsfehlers eines Benutzers und Verfahren davon
DE102019119171A1 (de) Spracherkennung für fahrzeugsprachbefehle
DE112018006101T5 (de) Dynamische Anmeldung einer benutzerdefinierten Aufweck-Schlüsselphrase für ein sprachfähiges Computersystem
DE102016125141B4 (de) Suchergebnis unter vorherigem Abrufen von Sprachanfragen
DE102017115383A1 (de) Audio-slicer
DE102014107028B4 (de) Verbesserte biometrische Passwortsicherheit
DE102017115936A1 (de) Systeme und Verfahren zum Aktivieren eines Sprachassistenten und Bereitstellen eines Indikators, dass der Sprachassistent Hilfe zu leisten hat
DE112017000177T5 (de) Authentifizierung von paketierten Audiosignalen
DE112016007250B4 (de) Verfahren und System zum Optimieren von Spracherkennung und Informationssuche basierend auf Gesprächsgruppenaktivitäten
DE112015006831T5 (de) Dynamisches Akustikmodell für Fahrzeug

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years