DE102018114533A1 - Systeme und Verfahren zur Identifikation von Antwortanfragen an einer Peripherievorrichtung - Google Patents

Systeme und Verfahren zur Identifikation von Antwortanfragen an einer Peripherievorrichtung Download PDF

Info

Publication number
DE102018114533A1
DE102018114533A1 DE102018114533.0A DE102018114533A DE102018114533A1 DE 102018114533 A1 DE102018114533 A1 DE 102018114533A1 DE 102018114533 A DE102018114533 A DE 102018114533A DE 102018114533 A1 DE102018114533 A1 DE 102018114533A1
Authority
DE
Germany
Prior art keywords
peripheral device
voice input
processor
communication protocol
wake
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018114533.0A
Other languages
English (en)
Inventor
John Weldon Nicholson
Daryl Cromer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of DE102018114533A1 publication Critical patent/DE102018114533A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

In einem Aspekt enthält eine erste Vorrichtung zumindest einen Prozessor, ein Mikrofon, das für den zumindest einen Prozessor zugänglich ist, eine Kommunikationsschnittstelle, die für den zumindest einen Prozessor zugänglich ist, und Speicher, der für den zumindest einen Prozessor zugänglich ist. Der Speicher hält Instruktionen bereit, die von dem zumindest einen Prozessor ausführbar sind zum Erwarten einer ersten Spracheingabe umfassend eine Antwortanfrage und Empfangen der ersten Spracheingabe umfassend die Antwortanfrage von dem Mikrofon. Die Instruktionen sind auch ausführbar von dem zumindest einen Prozessor zum Übertragen eines Aufweckbefehls an eine zweite Vorrichtung, die von der ersten Vorrichtung verschieden ist, in Erwiderung auf den Empfang der ersten Spracheingabe umfassend die Antwortanfrage. Der Aufweckbefehl wird über die Kommunikationsschnittstelle unter Verwendung eines Peripherievorrichtungs-Kommunikationsprotokolls übertragen.

Description

  • HINTERGRUND
  • Personalcomputer (PC) verbrauchen eine relative große Menge an Leistung, wenn sie vollständig angeschaltet sind. Deshalb werden PCs manchmal in einen Niedrigleistungs-Schlafzustand versetzt, um Energie und Batterieleistung zu sparen, jedoch weisen diese als Konsequenz nicht dieselben Rechenkapazitäten wie im vollständig angeschalteten Zustand auf. Um den PC aus einem solchen Schlafzustand anzuschalten kann der PC aufgeweckt werden.
  • Jedoch bevorzugen, wie hierin erkannt wird, viele Benutzer eine „immer-an“-Funktionalität für deren PCs, genauso wie sie es für deren Smartphones und Tablets tun, die typischerweise nicht in dieselbe tiefe Art von Schlafzustand wie PCs eintreten. Wie ebenfalls hierein erkannt wird, ist ein Grund hierfür, dass Benutzer wann immer sie wünschen eine Spracheingabe an einen digitalen Assistenten bereitstellen können, der von dem PC betrieben wird, ohne eine relativ lange Zeitdauer zu warten, die der PC benötigt, um aus dem Schlafzustand geweckt zu werden, um dann in der Lage zu sein, die Eingabe unter Verwendung des digitalen Assistenten zu verarbeiten. Es sind gegenwärtig keine adäquaten Lösungen für das vorgenannte, computerbezogene, technologische Problem bekannt, das in den konkurrierenden Interessen von Leistungseinsparung und immer-an liegt.
  • ZUSAMMENFASSUNG
  • Demgemäß enthält in einem Aspekt eine erste Vorrichtung zumindest einen Prozessor, ein Mikrofon, das für den zumindest einen Prozessor zugänglich ist, eine Kommunikationsschnittstelle, die für den zumindest einen Prozessor zugänglich ist und Speicher, der für den zumindest einen Prozessor zugänglich ist. Der Speicher hält Instruktionen bereit, die von dem zumindest einen Prozessor ausführbar sind zum Erwarten einer ersten Spracheingabe umfassend eine Antwortanfrage und zum Empfangen der ersten Spracheingabe, die die die Antwortanfrage umfasst von dem Mikrofon. Die Instruktionen sind auch ausführbar von dem zumindest einen Prozessor zum Übertragen eines Aufweckbefehls an eine zweite Vorrichtung, die von der ersten Vorrichtung verschieden ist, in Erwiderung auf den Empfang der ersten Spracheingabe umfassend die Antwortanfrage. Der Aufweckbefehl wird über die Kommunikationsschnittstelle unter Verwendung eines Peripherievorrichtungs-Kommunikationsprotokolls übertragen.
  • In einem anderen Aspekt enthält ein Verfahren ein Empfangen und Identifizieren einer Antwortanfrage an einer Peripherievorrichtung, wobei die Antwortanfrage unter Verwendung eines digitalen Signalprozessors (DSP) identifiziert wird. Das Verfahren enthält auch ein Übertragen eines Aufwecksignals von der Peripherievorrichtung an eine zweite Vorrichtung, die von der Peripherievorrichtung verschieden ist, und in Erwiderung auf die Identifikation der Antwortanfrage an der Peripherievorrichtung. Das Aufwecksignal wird an die zweite Vorrichtung unter Verwendung eines Kommunikationsprotokolls, das die Peripherievorrichtung sonst verwendet, um mit der zweiten Vorrichtung zu kommunizieren, übertragen.
  • In einem weiteren Aspekt enthält ein computerlesbares Speichermedium, das kein transientes Signal ist, Instruktionen, die von zumindest einen Prozessor ausführbar sind zum Empfangen einer Antwortanfrage an einer Peripherievorrichtung. Die Instruktionen sind auch ausführbar von dem zumindest einen Prozessor zum Übertragen eines Aufweckbefehls von der Peripherievorrichtung an eine zweite Vorrichtung, die von der Peripherievorrichtung verschieden ist, und in Erwiderung auf den Empfang der Antwortanfrage an der Peripherievorrichtung. Der Aufweckbefehl wird an die zweite Vorrichtung unter Verwendung eines Kommunikationsprotokolls übertragen, das die Peripherievorrichtung auch verwendet, um mit der zweiten Vorrichtung zu anderen Zwecken als der Übertragung des Aufweckbefehls zu kommunizieren.
  • Die Details der vorliegenden Prinzipien in Bezug auf deren Struktur und Bedienung können am besten mit Bezug auf die beigefügten Zeichnungen verstanden werden, in denen sich gleiche Bezugszeichen auf gleiche Teile beziehen und in denen:
  • Figurenliste
    • 1 ein Blockdiagramm eines Beispielsystems in Übereinstimmung mit vorliegenden Prinzipien ist;
    • 2 ein Blockdiagramm eines Beispielnetzwerks von Vorrichtungen in Übereinstimmung mit vorliegenden Prinzipien ist;
    • 3 eine beispielhafte Illustration in Übereinstimmung mit vorliegenden Prinzipien ist;
    • 4 und 5 Flussdiagramme von Beispielalgorithmen in Übereinstimmung mit vorliegenden Prinzipien sind; und
    • 6 eine Beispielbenutzeroberfläche (UI) in Übereinstimmung mit vorliegenden Prinzipien ist.
  • DETAILLIERTE BESCHREIBUNG
  • Wie hierin offenbart können Weckmechanismen, wie „wake-on-USB“, Bluetooth-Aufwecken, LAN-Aufwecken, WLAN-Aufwecken, etc. für eine Peripherievorrichtung verwendet werden, um einen PC aufzuwecken, sobald dieser durch eine „immer-an“-Antwortanfrage oder eine Sprachauslösung für einen digitalen Assistenten ausgelöst wird, die an einer Peripherievorrichtung empfangen wird.
  • Zusätzlich kann eine Sprachanfrage, die an der Peripherievorrichtung im Anschluss an einen Empfang einer Sprachauslösung empfangen wird, gepuffert und dann an den PC übertragen werden, worauf ein PC-Aufwecken folgt (z.B. gepuffert mit Geschwindigkeiten schneller als Echtzeit, mit der die Eingabe empfangen wurde). Der Übertragung des Audiopuffers folgend kann eine Sprachzufuhr an den PC von dem Mikrofon der Peripherievorrichtung in ein streamendes Mikrofonsignal umgewandelt werden.
  • In Bezug auf jegliche hierin diskutierten Computersysteme kann ein System Server- und Client-Komponenten enthalten, die über ein Netzwerk verbunden sind, sodass Daten zwischen den Client- und Server-Komponenten ausgetauscht werden können. Die Client-Komponenten können eine oder mehrere Berechnungsvorrichtungen enthalten, inklusive Fernseher (z.B. Smart-TVs, internetfähige TVs), Computer, wie Desktop-, Laptop- und Tablet-Computer, sogenannte konvertierbare Vorrichtungen (die z.B. eine Tablet-Konfiguration und einen Laptop-Konfiguration aufweisen) und andere mobile Vorrichtungen, inklusive Smartphones. Diese Clientvorrichtungen können als nicht-einschränkende Beispiele Betriebssysteme von Apple, Google oder Microsoft einsetzen. Ein Unix- oder ähnliches Betriebssystem wie Linux kann verwendet werden. Diese Betriebssysteme können einen oder mehrere Browser ausführen, wie einen Browser, der von Microsoft oder Google oder Mozilla hergestellt wurde oder ein anderes Browserprogramm, das auf Webseiten und Applikationen zugreifen kann, die von Internetservern über ein Netzwerk, wie das Internet, ein lokales Intranet oder ein virtuelles privates Netzwerk bereitgestellt werden.
  • Wie hierein verwendet beziehen sich Instruktionen auf computerimplementierte Schritte zum Verarbeiten von Informationen in dem System. Instruktionen können in Software, Firmware oder Hardware oder Kombinationen davon implementiert sein und jede Art von programmierten Schritten, die von Komponenten des Systems vorgenommen werden, enthalten; somit werden illustrative Komponenten, Blöcke, Module, Schaltungen und Schritte manchmal in Bezug auf deren Funktionalität dargelegt.
  • Ein Prozessor kann jeder konventionelle Allzweck-Einzel- oder -Mehrchipprozessor sein, der Logik mittels verschiedener Zeilen wie Adresszeilen, Datenzeilen und Steuerungszeilen und Registern und Schieberegistern ausführen kann. Weiter können jede hierin beschriebenen logischen Blöcke, Module und Schaltungen mit einem Allzweck-Prozessor, einem digitalen Signalprozessor (DSP) einer feldprogrammierbaren Gatteranordnung (FPGA) oder anderen programmierbaren Logikvorrichtungen, wie einem applikationsspezifischen integrierten Schaltkreis (ASIC), diskreter Gatter- oder Transistorlogik, diskreten Hardwarekomponenten oder jeder Kombination davon implementiert oder ausgeführt sein, die ausgebildet ist, die hierin beschriebenen Funktionen durchzuführen. Ein Prozessor kann durch eine Steuervorrichtung oder eine Zustandsmaschine oder eine Kombination von Berechnungsvorrichtungen implementiert sein.
  • Softwaremodule und/oder Applikationen, die hierin durch Flussdiagramme und/oder Benutzerschnittstellen beschrieben werden, können verschiedenen Unterroutinen, Prozeduren, etc. enthalten. Ohne die Offenbarung zu beschränken kann Logik, die als von einem bestimmten Modul ausgeführt bezeichnet wird, auf andere Softwaremodule umverteilt und/oder miteinander in einem einzelnen Modul kombiniert und/oder in einer teilbaren Bibliothek verfügbar gemacht werden.
  • Logik kann, wenn sie in Software implementiert wird, in einer passenden Sprache geschrieben sein, so wie C# oder C++, jedoch nicht beschränkt darauf, und kann auf einem computerlesbaren Speichermedium (das kein transientes, propagierendes Signal an sich ist), so wie einem wahlfreiem Zugriffsspeicher (RAM), Nur-Lese-Speicher (ROM), elektrisch löschbarer Nur-Lese-Speicher (EEPROM), Kompaktdisk-Nur-Lese-Speicher (CD-ROM) oder andere optische Diskspeicher wie eine digitale vielseitige Disk (DVD), magnetische Diskspeicher oder andere magnetische Speichervorrichtungen inklusive entfernbare Speicherlaufwerke, etc. gespeichert oder dadurch übertragen werden.
  • In einem Beispiel kann ein Prozessor auf Informationen über dessen Eingangsleitungen aus Datenspeicher, so wie das computerlesbare Speichermedium, zugreifen und/oder der Prozessor kann auf Informationen drahtlos von einem Internetserver durch Aktivierung eines drahtlosen Transceivers zum Senden und Empfangen von Daten zugreifen. Daten werden typischerweise von analogen Signalen in digitale umgewandelt durch Schaltungen zwischen der Antenne und den Registern des Prozessors, wenn sie empfangen werden und von digital in analog, wenn sie übertragen werden. Der Prozessor verarbeitet dann die Daten durch dessen Schieberegister, um berechnete Daten auf Ausgangsleitungen auszugeben, um die berechneten Daten auf der Vorrichtung zu präsentieren.
  • Komponenten, die in einer Ausführungsform enthalten sind, können in anderen Ausführungsformen in jeglicher passenden Kombination verwendet werden. Zum Beispiel kann jede der verschiedenen hierin beschriebenen und/oder in den Figuren abgebildeten Komponenten kombiniert, ausgetauscht oder aus anderen Ausführungsformen ausgenommen werden.
  • „Ein System, aufweisend zumindest einen von A, B und C“ (genauso „ein System, aufweisend zumindest einen von A, B oder C“ und „ein System, aufweisend zumindest einen von A, B, C) enthält Systeme die A alleine, B alleine, C alleine, A und B zusammen, A und C zusammen, B und C zusammen und/oder A, B und C zusammen enthalten, etc.
  • Der Begriff „Schaltung“ oder „Schaltkreis“ kann in der Zusammenfassung, Beschreibung und/oder Ansprüchen verwendet werden. Es ist im Stand der Technik wohlbekannt, dass der Begriff „Schaltkreis“ alle Stufen von verfügbarer Integration enthält, z.B. von diskreten Logikschaltungen bis zur höchsten Stufe der Schaltungsintegration, wie VLSI, und enthält programmierbare Logikkomponenten, die zum Durchführen der Funktionen einer Ausführungsform programmiert sind sowie als Allzweck- oder Sonderprozessoren mit Instruktionen zum Durchführen solcher Funktionen programmiert sind.
  • Nun ist insbesondere in Bezug auf 1 ein Beispiel-Blockdiagramm eines Informationshandhabungssystems und/oder Computersystems 100 gezeigt, von dem verstanden wird, ein Gehäuse für die unten beschriebenen Komponenten aufzuweisen. In einigen Ausführungsformen kann das System 100 ein Desktop-Computersystem, so wie eines aus der ThinkCentre®- oder ThinkPad®-Serie von Personalcomputern, wie sie von Lenovo (US) Inc. aus Morrisville, NC verkauft werden, oder ein Workstation-Computer, so wie die ThinkStation®, die von Lenovo (US) Inc. aus Morrisville, NC verkauft werden, sein kann; jedoch kann, wie es von der Beschreibung hierin offensichtlich wird, eine Client-Vorrichtung, ein Server oder andere Maschinen in Übereinstimmung mit vorliegenden Prinzipien andere Merkmale oder nur solche Merkmale des Systems 100 enthalten. Das System 100 kann auch z.B. eine Spielekonsole, wie XBOX®, sein und/oder kann System 100 ein drahtloses Telefon, Notebook-Computer und/oder andere tragbare computerfähige Vorrichtung sein.
  • Wie in 1 gezeigt kann das System 100 einen sogenannten Chipsatz 110 enthalten. Ein Chipsatz bezieht sich auf eine Gruppe integrierter Schaltungen oder Chips, die ausgebildet sind, zusammen zu arbeiten. Chipsätze werden üblicherweise als ein einzelnes Produkt vermarktet (z.B. Chipsätze, die unter den Marken INTEL®, AMD®, etc. vermarktet werden).
  • In dem Beispiel von 1 weist der Chipsatz 110 eine bestimmte Architektur auf, die in einem gewissen Grad, abhängig von der Marke oder dem Hersteller, variieren kann. Die Architektur des Chipsatzes 110 enthält eine Kern- und Speicher-Steuergruppe 120 und eine I/O-Steuerzentrale 150, die Informationen (z.B. Daten, Signale, Befehle, etc.) zum Beispiel über eine direkte Verwaltungsschnittstelle oder eine direkte Medienschnittstelle (DMI) 142 oder eine Verbindungssteuerung 144 austauschen. In dem Beispiel von 1 ist die DMI 142 eine Chip-zu-Chip-Schnittstelle (auf die sich manchmal als eine Verbindung zwischen einer „Northbridge“ und einer „Southbridge“ bezogen wird).
  • Die Kern- und Speicher-Steuergruppe 120 enthält einen oder mehrere Prozessoren 122 (z.B. einzelkern oder mehrkern, etc.), so wie ein Allzweck-Prozessor/eine zentrale Recheneinheit (CPU) und/oder ein digitaler Signalprozessor (DSP), und eine Speicher-Steuerzentrale 126, die Informationen über einen Vorderseitenbus (FSB) 124 austauschen. Wie hierin beschrieben können verschiedene Komponenten der Kern- und Speicher-Steuergruppe 120 auf einem einzelnen Prozessorchip integriert sein, um zum Beispiel einen Chip zu erzeugen, der die herkömmliche „Northbridge“-Typ-Architektur ablöst.
  • Die Speicher-Steuerzentrale 126 koppelt mit Speicher 140. Die Speicher-Steuerzentrale 126 kann zum Beispiel Unterstützung für DDR-SDRAM-Speicher (z.B. DDR, DDR2, DDR3, etc.) bereitstellen. Im Allgemeinen ist der Speicher 140 eine Art wahlfreier Zugriffsspeicher (RAM). Auf ihn wird häufig als „Systemspeicher“ Bezug genommen.
  • Die Speicher-Steuerzentrale 126 kann weiter eine Niedrigspannungs-Differenzsignal-Schnittstelle (LVDS) 132 enthalten. Die LVDS 132 kann eine sogenannten LVDS-Anzeigeschnittstelle (LDI) zur Unterstützung einer Anzeigevorrichtung 192 (z.B. ein CRT, ein Flachbild, ein Projektor, eine touchfähige Anzeige, etc.) sein. Ein Block 138 enthält einige Beispiele von Technologien, die von der LVDS-Schnittstelle 132 unterstützt werden (z.B. serielles digitales Video, HDMI/DVI, Display Port). Die Speicher-Steuerzentrale 126 enthält auch eine oder mehrere PCI-Express-Schnittstellen (PCI-E) 134, zum Beispiel zur Unterstützung von diskreter Grafik 136. Diskrete Grafik, die eine PCI-E-Schnittstelle verwendet, ist eine alternative Herangehensweise an einen beschleunigten Grafikanschluss (AGP) geworden. Die Speicher-Steuerzentrale 126 kann zum Beispiel einen PCI-E-Anschluss mit 16 Leitungen (x16) für eine externe, PCI-E-basierte Grafikkarte (z.B. inklusive einer oder mehrerer GPUs) enthalten. Ein Beispielsystem kann AGP oder PCI-E zur Unterstützung der Grafik enthalten.
  • In Beispielen, in denen sie verwendet wird kann die I/O-Steuerzentrale 150 eine Vielzahl von Schnittstellen enthalten. Das Beispiel von 1 enthält eine SATA-Schnittstelle 151, eine oder mehrere PCI-E-Schnittstellen 152 (optional eine oder mehrere veraltete PCI-Schnittstellen), eine oder mehrere USB-Schnittstellen 153, eine LAN-Schnittstelle 154 (allgemeiner eine Netzwerkschnittstelle zur Kommunikation über zumindest ein Netzwerk, wie das Internet, ein WAN, ein LAN, etc. unter Führung des Prozessors 122), eine Allzweck-I/O-Schnittstelle (GPIO) 155, eine Niedrigzahl-Pin (LPC)-Schnittstelle 170, eine Leistungsverwaltungsschnittstelle 161, eine Taktgeneratorschnittstelle 162, eine Audioschnittstelle 163 (z.B. für Lautsprecher 194 um Audio auszugeben), eine Gesamtbetriebskosten (TCO)-Schnittstelle 164, eine Systemverwaltungsbus-Schnittstelle (z.B. eine Multimaster serielle Computerbus-Schnittstelle) 165 und eine serielle periphere Flashspeicher-/-steuerungsschnittstelle (SPI Flash) 166, die in dem Beispiel von 1 BIOS 168 und Bootcode 190 enthält. In Bezug auf Netzwerkverbindungen kann die I/O-Steuerzentrale 150 integrierte Gigabit-Ethernet-Steuerleitungen enthalten, die mit einem PCI-E-Schnittstellenanschluss gebündelt sind. Andere Netzwerkmerkmale können unabhängig von einer PCI-E-Schnittstelle operieren.
  • Die Schnittstellen der I/O-Steuerzentrale 150 können eine Kommunikation mit verschiedenen Vorrichtungen, Netzwerken, etc. bereitstellen. Zum Beispiel stellt die SATA-Schnittstelle 151, wo sie verwendet wird, Lese-, Schreib- oder Lese- und Schreibinformationen an eines oder mehrere Laufwerke wie HDDs, SDDs oder eine Kombination davon bereit, jedoch werden in jedem Fall die Laufwerke 180 z.B. als greifbare computerlesbare Speichermedien verstanden, die nicht transiente, sich verbreitende Signale sind. Die I/O-Steuerzentrale 150 kann auch eine fortgeschrittene Hoststeuerschnittstelle (AHCI) zur Unterstützung einer oder mehrerer Laufwerke 180 enthalten. Die PCI-E-Schnittstelle 152 ermöglicht drahtlose Verbindungen 182 mit Vorrichtungen, Netzwerken, etc. Die USB-Schnittstelle 153 versorgt Eingabevorrichtungen 184, so wie Tastaturen (KB), Mäuse und verschiedene andere Vorrichtungen (z.B. Kameras, Telefone, Speicher, Mediaplayer, etc.).
  • In dem Beispiel von 1 stellt die LPC-Schnittstelle 170 die Verwendung von einem oder mehreren ASICs 171, einem vertrauenswürdigen Plattformmodul (TPM) 172, einem Super-I/O 173, einer Firmwarezentrale 174, BIOS-Unterstützung 175 sowie verschiedene Arten von Speicher 176 wie ROM 177, Flash 178 und nichtflüchtiger RAM (NVRAM) 179 bereit. In Bezug auf das TPM 172 kann dieses Modul in Form eines Chips ausgebildet sein, der verwendet werden kann, um Software und Hardwarevorrichtungen zu authentifizieren. Zum Beispiel kann ein TPM ausgebildet sein, eine Plattformauthentifizierung durchzuführen und kann verwendet werden, um zu verifizieren, dass ein System, das Zugriff ersucht, das erwartete System ist.
  • Das System 100 kann ausgebildet sein, beim Aufstarten Bootcode 190 für den BIOS 168 auszuführen, wie innerhalb des SPI-Flash 166 gespeichert, und danach Daten unter der Steuerung von einem oder mehreren Betriebssystemen und Anwendungssoftware (wie z.B. in dem Systemspeicher 140 gespeichert) zu verarbeiten. Ein Betriebssystem kann in einer Vielzahl von Orten gespeichert sein und zum Beispiel auf dieses nach Instruktionen des BIOS 168 zugegriffen werden.
  • Das System 100 kann auch eine oder mehrere Kommunikationsschnittstellen 191 zur Kommunikation zwischen einer Peripherievorrichtung und einer zweiten Vorrichtung, wie einem Personalcomputer, wie hierin offenbart, enthalten. Die Kommunikationsschnittstelle(n) 191 können für eine oder mehrere von Bluetooth- oder Bluetooth-Niedrigenergiekommunikation, Nahfeldkommunikationsprotokoll (NFC) und/oder einer Radiofrequenz-Identifikation (RFID)-Kommunikation, Universaler-Serieller-Bus (USB)/Busleitungskommunikation (z.B. drahtgebunden oder drahtlos), einer lokalen Netzwerkkommunikation, einem Weitverkehrsnetz (WAN) -Kommunikation, Wi-Fi/Wi-Fi-Direktkommunikation insbesondere oder sogar Infrarot (IR)-Kommunikation bereitgestellt sein.
  • Weiter kann das System 100 einen Audioempfänger/Mikrofon 193 enthalten, das eine Eingabe an den Prozessor 122 basierend auf ermitteltem Audio bereitstellt, so wie durch einen Benutzer, der eine hörbare Spracheingabe an das Mikrofon 193 in Übereinstimmung mit vorliegenden Prinzipien bereitstellt.
  • Zusätzlich, obwohl aus Klarheitsgründen nicht gezeigt, kann das System 100 in einigen Ausführungsformen ein Gyroskop enthalten, das die Orientierung des Systems 100 erfasst und/oder misst und das eine diesbezügliche Eingabe an den Prozessor 122 bereitstellt, sowie einen Beschleunigungssensor, der Beschleunigung und/oder Bewegung des Systems 100 erfasst und eine diesbezügliche Eingabe an den Prozessor 122 bereitstellt. Weiter kann das System eine Kamera enthalten, die eine oder mehrere Bilder erfasst und eine diesbezügliche Eingabe an den Prozessor 122 bereitstellt. Die Kamera kann eine Thermografiekamera, eine digitale Kamera wie eine Webkamera, eine dreidimensionale (3D)-Kamera und/oder eine Kamera die anderweitig in das System integriert ist und durch den Prozessor 122 steuerbar ist, um Aufnahmen/Bilder und/oder Video erfasst. Das System 100 kann auch einen GPS-Transceiver enthalten, der ausgebildet ist, geografische Positionsinformationen von zumindest einem Satelliten zu empfangen und die Information an den Prozessor 122 bereitzustellen. Jedoch muss verstanden werden, dass ein anderer passender Positionsempfänger anders als ein GPS-Empfänger in Übereinstimmung mit den vorliegenden Prinzipien verwendet werden kann, um den Ort des Systems 100 zu bestimmen.
  • Es muss verstanden werden, dass eine Beispiel-Clientvorrichtung oder eine andere Maschine/Computer weniger oder mehr Merkmale als für das System 100 von 1 gezeigt enthalten können. In jedem Fall muss zumindest basierend auf dem vorgenannten verstanden werden, dass das System 100 ausgebildet ist, vorliegende Prinzipien vorzunehmen.
  • Mit Bezug zu 2 sind nun Beispielvorrichtungen gezeigt, die über ein Netzwerk 200, wie das Internet in Übereinstimmung mit vorliegenden Prinzipien kommunizieren. Es muss verstanden werden, dass jede der in Bezug auf 2 beschriebenen Vorrichtungen zumindest einige der Merkmale, Komponenten und/oder Elemente des oben beschriebenen Systems 100 enthalten können.
  • 2 zeigt einen Notebook-Computer und/oder konvertierbaren Computer 202, einen Desktop-Computer 204, eine tragbare Vorrichtung 206, wie eine Smartwatch, einen Smart-Fernseher (TV) 208, ein Smartphone 210, einen Tablet-Computer 212, eine Peripherievorrichtung 216 und einen Server 214, wie einen Internetserver, der Cloudspeicher bereitstellen kann, auf den die Vorrichtungen 202-212, 216 zugreifen können. Es muss verstanden werden, dass die Vorrichtungen 202-216 ausgebildet sind, miteinander über das Netzwerk 200 zu kommunizieren, um die vorliegenden Prinzipien vorzunehmen.
  • Die Peripherievorrichtung 216 kann detaillierter beschrieben werden, als dass sie eine eigenständige Tastatur, wie eine drahtlose Tastatur, eine eigenständige Maus, wie eine drahtlose Maus, einen eigenständigen Lautsprecher, wie ein drahtloser Lautsprecher, oder eine eigenständige Kamera, wie eine digitale Kamera, Webcam oder drahtlose Kamera sein kann. Die Peripherievorrichtung 216 kann auch ein eigenständiges Mikrofon, wie ein drahtloses Mikrofon sein, ob jedoch ein eigenständiges Mikrofon oder eine andere Art von Peripherievorrichtung, wie ein drahtloser Lautsprecher oder eine drahtlose Tastatur vorliegt, muss nichtsdestotrotz verstanden werden, dass die Peripherie ein daran angeordnetes Mikrofon zum Empfangen einer Spracheingabe in Übereinstimmung mit vorliegenden Prinzipen enthalten kann.
  • Die Peripherievorrichtung 216 kann auch Speicher enthalten, der Instruktionen zum Ausführen von Logik in Übereinstimmung mit vorliegenden Prinzipien enthält, wie auch eine Kommunikationsschnittstelle zur Kommunikation mit einem Personalcomputer (PC), so wie der Desktop-Computer 204 oder Notebook/Laptop-Computer 202, mit dem die Peripherievorrichtung 216 nicht greifbar gekoppelt oder daran angeordnet sein kann (selbst wenn sie drahtlos damit kommuniziert). Die Kommunikationsschnittstelle kann z.B. eine drahtlose Kommunikationsschnittstelle zur Kommunikation sein, die eines oder mehrere von einem Bluetooth- oder Bluetooth-Niedrigenergie-Kommunikationsprotokoll, einem Nahfeld-Kommunikationsprotokoll (NFC) und/oder einem Radiofrequenz-Identifikation (RFID)-Protokoll, einem Universaler-Serieller-Bus (USB)-Kommunikationsprotokoll, einem lokalen Netzwerk (LAN)-Kommunikationsprotokoll, einem Weitverkehrsnetz (WAN)-Kommunikationsprotokoll oder sogar einem Infrarot (IR)-Kommunikationsprotokoll verwendet.
  • Es muss weiter verstanden werden, dass zusätzlich dazu, dass sie ihr eigenes Mikrofon, Speicher und Kommunikationsschnittstelle aufweist, die Peripherievorrichtung 216 auch einen oder mehrere Prozessoren enthalten kann, wie einen digitalen Signalprozessor (DSP), eine feldprogrammierbare Gatteranordnung (FPGA) oder sogar eine andere Art von programmierbarer Logikvorrichtung zum Empfangen einer Spracheingabe einer Antwortanfrage, die dann verwendet werden kann, einen Allzweck-Prozessor/eine zentrale Recheneinheit an einer zweiten Vorrichtung aufzuwecken, wie hierin beschrieben.
  • Es wird nun in Bezug auf 3 fortgefahren, in der eine Beispielillustration gezeigt ist, wie ein Benutzer eine Peripherievorrichtung verwenden kann, um die Assistenz eines digitalen/persönlichen Assistenten erhalten kann, um eine Aufgabe durchzuführen. Wie in 3 gezeigt sitzt ein Benutzer 300 auf einer Couch 302 in einem Raum 304 während er Audio-Video-Inhalte anschaut, die auf einem Fernseher 306 präsentiert werden. In dem Raum 304 befindet sich ebenfalls ein Schreibtisch 308, auf dem ein Personalcomputer 310 angeordnet ist, wie ein Laptop-Computer. Der Computer 310 wird verstanden eine digitale/persönliche Assistentenapplikation aufzuweisen, die in dessen Speicher gespeichert ist und die von dem Allzweck-Prozessor/der zentralen Recheneinheit (CPU) des Computers 310 ausgeführt werden kann.
  • Ebenfalls befinden sich eine oder mehrere Peripherievorrichtungen auf dem Schreibtisch 308, wie ein eigenständiger Bluetooth-Lautsprecher 312, eine drahtlose Tastatur 314, eine drahtlose Maus und ein eigenständiges Mikrofon 318. Wie 3 entnommen werden kann, kann jede der Peripherievorrichtungen 312-318 drahtlos mit dem Personalcomputer 310 kommunizieren, sind aber nicht greifbar mit dem Gehäuse des Personalcomputers 310 gekoppelt, wie durch eine drahtgebundene Verbindung oder indem sie tatsächlich an dem Gehäuse selbst befestigt sind.
  • Es muss verstanden werden, dass sich in der gezeigten Illustration 300 der Personalcomputer 310 in einem Schlafzustand befindet, in dem der Computer 310 nicht vollständig in einen „Aus“-Zustand heruntergefahren wurde, sondern stattdessen in einem Niedrigleistungszustand von einem vollständig angeschalteten Zustand gebracht wurde. In dem Schlafzustand kann der Computer 310 seinen Zustand aufrechterhalten und/oder Daten in dessen wahlfreiem Zugriffsspeicher (RAM) geladen haben, so wie diese in den RAM während des vollständig angeschalteten Zustands geladen worden wären (so wie dessen digitale Assistentenapplikation in den RAM geladen zu haben). Alternativ können in dem Schlafzustand die Zustandsdaten von dem RAM aus dem RAM in einen Festplattenspeicher verschoben worden sein (hierauf wird manchmal speziell als „Hibernations“-Zustand Bezug genommen). Jedoch kann in jedem Fall der Allzweck-Prozessor und/oder die CPU während des Schlafzustands ausgeschaltet werden, um Leistung zu sparen, obwohl die Zustandsdaten im RAM oder anderen Speicher aufrechterhalten werden.
  • Zusätzlich kann der Computer 310, während er sich im Schlafzustand befindet, weiter drahtlose Kommunikation mit den Peripherievorrichtungen 312-318 unter Verwendung einer drahtlosen Kommunikationsschnittstelle an dem Computer 310 aufrechterhalten, wobei die drahtlose Kommunikationsschnittstelle ihren eigenen Prozessor (z.B. einen Mikroprozessor) zum Aufrechterhalten einer solchen Kommunikation aufweist, während sich der Computer 310 in dem Schlafzustand befindet.
  • Wie in 3 gezeigt kann der Benutzer 300 eine erste Spracheingabe „Hey, digitaler Assistent“ einer Antwortanfrage für einen digitalen Assistenten bereitstellen, auf die eine zweite Spracheingabe folgt, die eine von dem digitalen Assistenten auszuführende Aufgabe anfragt. In diesem Fall enthält die zweite Spracheingabe „zeige mir Bilder der Chinesischen Mauer und des Taj Mahal“. Basierend auf einem Merkmal/einer Applikation eines digitalen Assistenten, der auf zumindest einer der Peripherievorrichtungen 312-318 unter Verwendung eines DSPs und/oder FPGAs an der entsprechenden Peripherievorrichtung ausgeführt wird, und basierend auf der Spracheingabe, die an der Peripherievorrichtung durch ein Mikrofon, das mit dem Gehäuse der Peripherievorrichtung gekoppelt ist, empfangen wird, kann die Peripherievorrichtung die Antwortanfrage unter Verwendung des DSPs (der ausgebildet oder vorprogrammiert sein kann, die Antwortanfrage zu erkennen) erkennen, um dann zu wissen, folgende Spracheingaben zu puffern, sodass der Computer 310 die folgenden Spracheingaben schließlich verarbeiten und eine Ausgabe als Antwort auf die Anfrage bereitstellen kann.
  • Dadurch wird verstanden werden, dass das Merkmal/die Applikation des digitalen Assistenten, die an der Peripherievorrichtung ausgeführt wird, in Verbindung mit der Applikation des digitalen Assistenten, wie sie auf dem Computer 310 gespeichert ist, arbeiten kann, sodass sobald der Computer 310 aus dessen Schlafzustand geweckt wurde, die zweite Spracheingabe an den Computer 310 weitergegeben werden kann. Die Applikation des digitalen Assistenten, die auf dem Computer 310 gespeichert ist, kann dann ausgeführt werden, um die zweite Spracheingabe zu verarbeiten und eine damit übereinstimmende Aufgabe auszuführen. Jede zusätzliche Spracheingabe, die an der Peripherievorrichtung empfangen wird, nachdem der Computer 310 aus dessen Schlafzustand heraus übergegangen ist, kann dann von dem Mikrofon der Peripherievorrichtung an den Computer 310 gestreamt werden, sodass der digitale Assistent, der auf dem Computer 310 ausgeführt wird, diese Eingabe ebenso verarbeiten kann.
  • Ohne die Antwortanfrage könnte jede folgende Spracheingabe nicht anderweitig von der Peripherievorrichtung verarbeitet oder gepuffert werden, da der Benutzer 300 vielmehr nur allgemein mit einer anderen Person reden könnte, als eine Spracheingabe an eine Vorrichtung bereitzustellen. Da jedoch die Antwortanfrage bereitgestellt wurde, kann die Peripherievorrichtung, an der die Antwortanfrage erkannt wurde, ein Aufwecksignal/-befehl an den Computer 310 übertragen, um ihn aufzuwecken und die zusätzliche Spracheingabe „zeige mir Bilder der Chinesischen Mauer und des Taj Mahal“ kann gepuffert und dann an den Computer 310 weitergegeben werden.
  • Demgemäß kann die Peripherievorrichtung, sobald der Computer 310 aufgewacht ist und ein Signal zurück zur Peripherievorrichtung überträgt, dass er erwacht ist, diese gepufferte Spracheingabe an den Computer 310 weitergeben, sodass der digitale Assistent, der nun vollständig auf dem Computer 310 ausgeführt wird, die Eingabe verarbeiten kann, um eine Aufgabe durchzuführen. In diesem Fall ist die Aufgabe eine Präsentation von Bildern der Chinesischen Mauer und des Taj Mahals.
  • Beispiellogik, die von einer Peripherievorrichtung und einem Personalcomputer in Übereinstimmung mit den vorliegenden Prinzipien ausgeführt werden kann, wird in 4 und 5 gezeigt. 4 zeigt Beispiellogik, die von einer Peripherievorrichtung ausgeführt werden kann, während 5 Beispiellogik zeigt, die von einem Personalcomputer ausgeführt werden kann.
  • Beginnend mit 4 ist Beispiellogik zur Ausführung durch eine Peripherievorrichtung gezeigt, so wie eine oder mehrere von den oben beschriebenen Vorrichtungen 312-318. In einigen Beispielen kann insbesondere ein DSP verwendet werden, um die Logik auszuführen.
  • Die Logik kann bei Block 400 von 4 beginnen, wo die Peripherievorrichtung ihr Mikrofon einschalten kann. In einigen Beispielen kann das Mikrofon nur in Erwiderung auf den Empfang einer drahtlosen Übertragung von einem Personalcomputer (PC) eingeschaltet werden, mit der sie kommuniziert, dass der PC in einen Schlafzustand eingetreten ist. In anderen Beispielen kann das Mikrofon immer angeschaltet sein, unabhängig von dem Anschaltzustand des PCs.
  • Von Block 400 kann die Logik dann zu Block 402 fortfahren. Bei Block 402 kann die Peripherievorrichtung eine Spracheingabe einer Antwortanfrage von einem Benutzer erwarten. Die Logik kann dann zu Block 404 fortfahren, wo die Peripherievorrichtung eine Spracheingabe durch deren Mikrofon empfangen kann. Die Logik kann dann zur Entscheidungsraute 406 fortfahren, wo die Peripherievorrichtung unter Verwendung ihres DSPs die Eingabe wie von dem Mikrofon empfangen verarbeiteten kann, um zu bestimmen, ob eine Antwortanfrage in der Eingabe enthalten war. Eine negative Bestimmung bei Raute 406 kann die Logik dazu führen, zurück zu 402 zu gehen, wo die Logik erneut eine Eingabe einer Antwortanfrage erwarten kann.
  • Jedoch kann die Logik in Erwiderung auf eine bestätigende Bestimmung bei Raute 406 stattdessen zu Block 408 fortfahren. Bei Block 408 kann die Logik ein Aufwecksignal/-befehl an den PC unter Verwendung eines Peripherievorrichtungs-Kommunikationsprotokolls übertragen. Beispiele von Peripherievorrichtungs-Kommunikationsprotokollen enthalten ein Bluetooth-Kommunikationsprotokoll, ein Universaler-Serieller-Bus (USB)-Kommunikationsprotokoll, ein lokales Netzwerk (LAN)-Kommunikationsprotokoll und ein Weitverkehrsnetz (WAN)-Kommunikationsprotokoll. Das Signal/der Befehl, der bereitgestellt werden kann, kann ein „Wake-On-USB“-Befehl oder ein anderer USB-Aufweckbefehl, ein Bluetooth-Aufweckbefehl, etc. sein. Es ist jedoch unabhängig davon zu verstehen, dass das Peripherievorrichtungs-Kommunikationsprotokoll, das verwendet wird, um das Aufwecksignal zu übertragen eines sein kann, das die Peripherievorrichtung auch verwendet, um mit dem PC zu einem anderen Zweck als die Übertragung des Aufweckbefehls zu kommunizieren. Somit kann zum Beispiel, wenn die Peripherievorrichtung eine drahtlose Maus wäre, die ein drahtloses USB-Kommunikationsprotokoll verwendet, das Aufwecksignal unter Verwendung desselben Protokolls und derselben Übertragungsfrequenz, die die drahtlose Maus auch verwendet, um Bewegungsdaten an den PC zur Bewegung, die auf einer Bewegung der Maus selbst basiert, eines Zeigers, der auf einem Display des PCs angezeigt wird, übertragen werden.
  • Von Block 408 kann die Logik dann zu Block 410 fortfahren, wo die Peripherievorrichtung eine erste Spracheingabe empfangen und puffern kann, die unter Verwendung des Mikrofons der Peripherievorrichtung im Anschluss an die Antwortanfrage empfangen wird. Die erste Spracheingabe kann dadurch gepuffert werden, dass sie im RAM oder anderem Speicher der Peripherievorrichtung gespeichert wird. Die Logik kann dann zu Block 412 fortfahren, wo die Peripherievorrichtung einen Hinweis von dem PC empfangen kann, dass er aus dessen Schlafzustand erwacht ist.
  • In Erwiderung auf den Empfang des Signals bei Block 412 kann die Logik dann zu Block 414 fortfahren, wo die Peripherievorrichtung die gepufferte erste Eingabe an den PC übertragen kann und in einigen Ausführungsformen auch die Eingabe, die auf die Antwortanfrage hinweist übertragen kann. Von Block 414 kann die Logik dann zu Block 416 fortfahren, wo die Logik jede zusätzliche zweite Spracheingabe, die nach der ersten Spracheingabe über das Mikrofon der Spracheingabe zur weiteren Bearbeitung durch den digitalen Assistenten des PCs empfangen wurde streamt.
  • Nun unter Beschreibung von 5 zeigt diese Beispiellogik, die von einem Personalcomputer in Übereinstimmung mit vorliegenden Prinzipien ausgeführt werden kann. Beginnend bei Block 500 kann der PC sich selbst in einem Schlafzustand bringen, so wie in Erwiderung auf eine Inaktivität oder dadurch, dass er nicht anderweitig von einem Benutzer für eine Schwellwert-Zeitperiode verwendet wird. Von Block 500 kann die Logik zu Block 502 fortfahren, wo der PC eine (z.B. periodische) Kommunikation mit einer Peripherievorrichtung unter Verwendung eines Peripherievorrichtungs-Kommunikationsprotokolls und eines dedizierten Prozessors aufrechterhält, so wie ein Mikroprozessor, der dazu ausgebildet ist und der innerhalb einer Netzwerkschnittstellenkarte oder einer anderen Peripherievorrichtungs-Kommunikationsschnittstelle an dem PC angeordnet ist.
  • Von Block 502 kann die Logik mit Block 504 fortfahren. Bei Block 504 kann der PC ein Aufwecksignal von der Peripherievorrichtung empfangen, das an dem PC über das Peripherievorrichtungs-Kommunikationsprotokoll empfangen wird, das verwendet wird, um die Kommunikation mit der Peripherievorrichtung aufrechtzuerhalten. In Erwiderung auf den Empfang des Aufwecksignals kann die Logik zu Block 506 fortfahren, wo der PC aus dessen Schlafzustand geweckt werden kann und beginnen oder fortfahren kann, eine digitale Assistentenapplikation auszuführen, die an dem PC gespeichert ist, die ausgeführt worden sein kann, bevor der PC in seinen Schlafzustand eingetreten ist.
  • Nach Block 506 kann die Logik zu Block 508 fortfahren, wo der PC einen Hinweis an die Peripherievorrichtung übertragen kann, dass er aufgeweckt wurde, so wie den Hinweis durch das gleiche Peripherievorrichtungs-Kommunikationsprotokoll zu übertragen, durch das das Aufwecksignal empfangen wurde. Von Block 508 kann die Logik zu Block 510 fortfahren, wo der PC eine erste Spracheingabe empfangen kann, die an der Peripherievorrichtung selbst eingesammelt wurde, die an der Peripherievorrichtung gepuffert wurde, während der PC aus seinem Schlafzustand aufgewacht ist, wie durch die Peripherievorrichtung unter Verwendung des drahtlosen Kommunikationsprotokolls bereitgestellt.
  • Nach Block 510 kann die Logik zu Block 512 fortfahren. Bei Block 512 kann der PC beginnen, die erste Spracheingabe unter Verwendung der Ausführung der digitalen Assistentenapplikation an dem PC zu verarbeiten. Die Logik kann dann zu Block 514 fortfahren, wo der PC jede zusätzliche gestreamte zweite Spracheingabe empfangen kann, die auch durch das Mikrofon der Peripherievorrichtung empfangen werden kann. Die Logik kann sich dann zu Block 516 bewegen, wo der PC die Verarbeitung der ersten Spracheingabe fortsetzen kann und auch jede zweite Spracheingabe verarbeiten kann, die empfangen wird. Basierend auf der Verarbeitung der Eingabe kann der PC eine Aufgabe in Übereinstimmung mit der ersten und zweiten Spracheingabe durchführen. Als Beispiele können die Aufgabe sein für den digitalen Assistenten eine E-Mail an einen Kontakt des Benutzers zu senden, das Internet für die Antwort auf eine von dem Benutzer aufgeworfene Frage zu durchsuchen oder Fotos zu zeigen, wie oben in Bezug auf 3 diskutiert. Dementsprechend muss im Allgemeinen verstanden werden, dass die Funktionen, die der Assistent in der Lage ist auszuführen im Allgemeinen ähnlich sind zu denen, die zum Beispiel von Amazons Alexa, Apples Siri oder dem Lenovo Smart Assistent, wie von Lenovo (US) Inc. aus Morrisville, NC verkauft, ausgeführt werden.
  • Fortführend mit der detaillierten Beschreibung in Bezug auf 6 zeigt diese eine Beispiel-Benutzerschnittstelle (UI) 600, die auf einer Anzeige in Übereinstimmung mit den vorliegenden Prinzipien präsentiert werden kann, so wie auf einer Anzeige an einem oder anderweitig zugreifbar durch einen PC. Die UI 600 kann dazu dienen, Einstellungen eines digitalen Assistenten in Übereinstimmung mit den vorliegenden Prinzipien zu konfigurieren. Jede Option an der UI 600, die unten diskutiert werden wird, kann unter Verwendung des jeweiligen Auswahlknopfes, der benachbart zu der jeweiligen Option angezeigt wird, ausgewählt werden.
  • Die UI 600 kann eine erste Option 602 enthalten, die auswählbar ist, um die Verwendung der Peripherievorrichtung zu Zwecken der Ausführung eines digitalen Assistenten zur Durchführung einer Aufgabe zu ermöglichen, wie hierin offenbart. Zum Beispiel kann eine Auswahl der ersten Option 602 eine Einstellung anschalten, die die Ausführung der Logik von einer oder beiden von 4 und 5 ermöglicht, sodass eine Antwortanfrage an einer Peripherievorrichtung empfangen werden kann, verwendet werden kann, um einen PC aufzuwecken und dann eine zusätzliche Spracheingabe, die an der Peripherievorrichtung empfangen wurde, zur Verarbeitung an den PC weiteregegeben wird, um unter Verwendung des digitalen Assistenten des PCs verarbeitet zu werden.
  • Die UI 600 kann auch Optionen 604, 606 enthalten, um jeweils eine bestimmtes Peripherievorrichtungs-Kommunikationsprotokoll auszuwählen zur Verwendung für eine Kommunikation von Aufwecksignalen, Spracheingabe, Hinweisen, etc. zwischen einer Peripherievorrichtung und PC wie hierin offenbart. Dadurch kann Option 604 ausgewählt werden, um eine Verwendung eines USB-Aufweckens und/oder einer USB-Kommunikation zu ermöglichen, während Option 606 ausgewählt werden kann, um eine Verwendung eines Bluetooth-Aufweckens und/oder einer Bluetooth-Kommunikation zu ermöglichen. Weiter können andere Peripherievorrichtungs-Kommunikationsprotokolle ebenso aufgelistet sein, jedoch wurden nur USB und Bluetooth aus Gründen der Einfachheit gezeigt.
  • Die UI kann auch Optionen 608, 610 und 612 enthalten, um jeweilige bestimmte Peripherievorrichtungen in Kommunikation mit dem PC auszuwählen, zur Verwendung zum Empfangen von Antwortanfragen und Spracheingaben, um diese an den PC weiterzugeben, wie hierin offenbart. Entsprechend kann Option 608 ausgewählt werden, um die Verwendung eines Bluetooth-Lautsprechers zu ermöglichen, der mit dem PC kommuniziert, Option 610 kann ausgewählt werden um die Verwendung einer drahtlosen Tastatur zu ermöglichen, die mit dem PC kommuniziert, und Option 612 kann ausgewählt werden, um die Verwendung eines eigenständigen Mikrofons zu ermöglichen, das mit dem PC kommuniziert. Weiter können andere Peripherievorrichtungen ebenso aufgelistet sein, jedoch wurden nur der Bluetooth-Lautsprecher, die drahtlose Tastatur und das Mikrofon aus Gründen der Einfachheit gezeigt.
  • Ausgehend von 6 muss verstanden werden, dass in einigen Ausführungsformen ein Fernseher eine Peripherievorrichtung in Übereinstimmung mit vorliegenden Prinzipien darstellen kann. Ein Smartphone oder Tablet-Computer und eine von Bluetooth- oder WiFi-Kommunikation kann auch verwendet werden, wenn gewünscht.
  • Es muss weiter verstanden werden, dass, obwohl Ausführungsformen oben in Verbindung mit Peripherievorrichtungen offenbart wurden, in einigen Ausführungsformen auch ein eingebettetes Modul innerhalb eines PC-Gehäuses unter Verwendung eines internen Verbinders in Übereinstimmung mit den vorliegenden Prinzipien verwendet werden kann.
  • Bevor abgeschlossen wird, muss verstanden werden, dass, obwohl eine Software-Applikation zur Durchführung der vorliegenden Prinzipien mit einer Vorrichtung so wie System 100 verkauft werden kann, die vorliegenden Prinzipien in Beispielen, in denen solch eine Applikation von einem Server über ein Netzwerk wie das Internet auf eine Vorrichtung heruntergeladen wird, anzuwenden sind. Weiterhin sind die vorliegenden Prinzipien in Beispielen anzuwenden, in denen solch eine Applikation auf einem computerlesbaren Speichermedium enthalten ist, das verkauft und/oder bereitgestellt wird, wobei ein computerlesbares Speichermedium kein transientes, propagierendes Signal und/oder kein Signal an sich ist.
  • Es muss verstanden werden, dass, während vorliegende Prinzipien in Bezug auf einige beispielhafte Ausführungsformen beschrieben worden sind, diese nicht beabsichtigt sind, einschränkend zu sein und dass verschiedene alternative Anordnungen verwendet werden können, um den hierin beanspruchten Gegenstand zu implementieren. Komponenten, die in einer Ausführungsform enthalten sind können in anderen Ausführungsformen in jeglicher angemessenen Kombination verwendet werden. Zum Beispiel kann jede der verschiedenen hierin beschriebenen und/oder in den Figuren abgebildeten Komponenten kombiniert, ausgetauscht oder von anderen Ausführungsformen ausgeschlossen werden.

Claims (21)

  1. WAS BEANSPRUCHT WIRD:
  2. Erste Vorrichtung, umfassend: - zumindest einen Prozessor; - ein Mikrofon, das für den zumindest einen Prozessor zugänglich ist; - eine Kommunikationsschnittstelle, die für den zumindest einen Prozessor zugänglich ist; und - Speicher, der für den zumindest einen Prozessor zugänglich ist und Instruktionen bereithält, die von dem zumindest einen Prozessor ausführbar sind zum: - Erwarten einer ersten Spracheingabe umfassend eine Antwortanfrage; - Empfangen der ersten Spracheingabe umfassend die Antwortanfrage von dem Mikrofon; und - Übertragen eines Aufweckbefehls an eine zweite Vorrichtung, die von der ersten Vorrichtung verschieden ist, in Erwiderung auf den Empfang der ersten Spracheingabe umfassend die Antwortanfrage, wobei der Aufweckbefehl über die Kommunikationsschnittstelle unter Verwendung eines Peripherievorrichtungs-Kommunikationsprotokolls übertragen wird.
  3. Erste Vorrichtung nach Anspruch 1, wobei die erste Vorrichtung eine Peripherievorrichtung ist.
  4. Erste Vorrichtung nach Anspruch 2, wobei die Peripherievorrichtung ausgewählt ist aus der Gruppe bestehend aus: einer Tastatur, einer Maus, einem Lautsprecher, einer Kamera.
  5. Erste Vorrichtung nach Anspruch 3, wobei der zumindest eine Prozessor einen digitalen Signalprozessor (DSP) umfasst.
  6. Erste Vorrichtung nach Anspruch 2, wobei die Peripherievorrichtung ein eigenständiges Mikrofon ist.
  7. Erste Vorrichtung nach Anspruch 1, wobei das Peripherievorrichtungs-Kommunikationsprotokoll ausgewählt ist aus der Gruppe bestehend aus: einem Bluetooth-Kommunikationsprotokoll, einem Universaler-Serieller-Bus (USB)-Kommunikationsprotokoll, einem lokalen Netzwerk (LAN)-Kommunikationsprotokoll und einem Weitverkehrsnetz (WAN)-Kommunikationsprotokoll.
  8. Erste Vorrichtung nach Anspruch 1, wobei die zweite Vorrichtung ein Personalcomputer ist, der ausgewählt ist aus der Gruppe bestehend aus: einem Laptop-Computer, einem Desktop-Computer.
  9. Erste Vorrichtung nach Anspruch 1, wobei die Instruktionen von dem zumindest einen Prozessor ausführbar sind zum: - Puffern von einer zweiten Spracheingabe, die anders ist als die Antwortanfrage, an der Vorrichtung; - Empfangen eines Hinweises, dass die zweite Vorrichtung in einen Wachzustand übergegangen ist; und - Weitergeben der gepufferten zweiten Spracheingabe an die zweite Vorrichtung in Erwiderung auf das Empfangen des Hinweises.
  10. Erste Vorrichtung nach Anspruch 8, wobei die Instruktionen von dem zumindest einen Prozessor ausführbar sind zum: - Streamen einer dritten Spracheingabe, die an dem Mikrofon empfangen wird, an die zweite Vorrichtung im Anschluss an die Weitergabe der gepufferten zweiten Spracheingabe an die zweite Vorrichtung.
  11. Verfahren, umfassend: - Empfangen und Identifizieren einer Antwortanfrage an einer Peripherievorrichtung, wobei die Antwortanfrage unter Verwendung eines digitalen Signalprozessors (DSP) identifiziert wird; - Übertragen eines Aufwecksignals von der Peripherievorrichtung an eine zweite Vorrichtung, die von der Peripherievorrichtung verschieden ist, und in Erwiderung auf die Identifikation der Antwortanfrage an der Peripherievorrichtung, wobei das Aufwecksignal an die zweite Vorrichtung unter Verwendung eines Kommunikationsprotokolls, das die Peripherievorrichtung sonst verwendet, um mit der zweiten Vorrichtung zu kommunizieren, übertragen wird.
  12. Verfahren nach Anspruch 10, umfassend: - Puffern einer ersten Spracheingabe, die anders ist als die Antwortanfrage, an der Peripherievorrichtung; - Empfangen eines Hinweises an der Peripherievorrichtung, dass die zweite Vorrichtung in einen Wachzustand übergegangen ist; und - Übertragen der ersten Spracheingabe von der Peripherievorrichtung an die zweite Vorrichtung und in Erwiderung auf den Empfang des Hinweises.
  13. Verfahren nach Anspruch 11, umfassend: - Übertragen einer zweiten Spracheingabe von der Peripherievorrichtung an die zweite Vorrichtung im Anschluss an die Weitergabe der ersten Spracheingabe an die zweite Vorrichtung.
  14. Verfahren nach Anspruch 11, umfassend: - Empfangen des Aufwecksignals an der zweiten Vorrichtung; - Aufwecken der zweiten Vorrichtung aus einem Schlafzustand in Erwiderung auf den Empfang des Aufwecksignals; - Übertragen des Hinweises von der zweiten Vorrichtung an die Peripherievorrichtung und in Erwiderung auf das Aufwecken der zweiten Vorrichtung aus dem Schlafzustand; - Empfangen der ersten Spracheingabe von der Peripherievorrichtung; und - Ausführen eines digitalen Assistenten an der zweiten Vorrichtung, um eine Aufgabe zumindest gemäß der ersten Spracheingabe durchzuführen.
  15. Verfahren nach Anspruch 10, wobei die Peripherievorrichtung ausgewählt ist aus der Gruppe bestehend aus: einer Tastatur, einer Maus, einem Lautsprecher, einer Kamera.
  16. Verfahren nach Anspruch 10, wobei die Peripherievorrichtung ein eigenständiges Mikrofon ist.
  17. Verfahren nach Anspruch 10, umfassend: - Verwenden eines digitalen Signalprozessors (DSP) in der Peripherievorrichtung, um die Antwortanfrage zu empfangen und zu identifizieren; und - Verwenden des DSPs, um das Aufwecksignal zu übertragen.
  18. Verfahren nach Anspruch 10, wobei das Kommunikationsprotokoll ausgewählt ist aus der Gruppe bestehend aus: einem Bluetooth-Kommunikationsprotokoll, einem Universaler-Serieller-Bus (USB)-Kommunikationsprotokoll.
  19. Verfahren nach Anspruch 10, wobei die zweite Vorrichtung ein Personalcomputer ist, der ausgewählt ist aus der Gruppe bestehend aus: einem Laptop-Computer, einem Desktop-Computer.
  20. Computerlesbares Speichermedium, das kein transientes Signal ist, wobei das computerlesbare Speichermedium Instruktionen umfasst, die von zumindest einen Prozessor ausführbar sind zum: - Empfangen einer Antwortanfrage an einer Peripherievorrichtung; - Übertragen eines Aufweckbefehls von der Peripherievorrichtung an eine zweite Vorrichtung, die von der Peripherievorrichtung verschieden ist, und in Erwiderung auf den Empfang der Antwortanfrage an der Peripherievorrichtung, wobei der Aufweckbefehl an die zweite Vorrichtung unter Verwendung eines Kommunikationsprotokolls übertragen wird, das die Peripherievorrichtung auch verwendet um mit der zweiten Vorrichtung zu anderen Zwecken als der Übertragung des Aufweckbefehls zu kommunizieren.
  21. Computerlesbares Speichermedium nach Anspruch 19, wobei die Peripherievorrichtung eine ist von einer Tastatur, einer Maus, einem Lautsprecher, einer Kamera und einem eigenständigen Mikrofon; wobei das Kommunikationsprotokoll eines ist von einem Bluetooth-Kommunikationsprotokoll und einem Universaler-Serieller-Bus (USB)-Kommunikationsprotokoll; wobei die zweite Vorrichtung eine ist von einem Laptop-Computer und einem Desktop-Computer und wobei die Instruktionen von dem zumindest einem Prozessor ausführbar sind zum: - Puffern einer ersten Spracheingabe an der Peripherievorrichtung, die anders ist als die Antwortanfrage, die an der Peripherievorrichtung empfangen wird; - Empfangen eines Signals an der Peripherievorrichtung, dass die zweite Vorrichtung in einen Wachzustand übergegangen ist; und - Übertragen der ersten Spracheingabe an die zweite Vorrichtung von der Peripherievorrichtung und in Erwiderung auf den Empfang des Hinweises.
DE102018114533.0A 2017-06-19 2018-06-18 Systeme und Verfahren zur Identifikation von Antwortanfragen an einer Peripherievorrichtung Pending DE102018114533A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/626,721 US10283117B2 (en) 2017-06-19 2017-06-19 Systems and methods for identification of response cue at peripheral device
US15/626,721 2017-06-19

Publications (1)

Publication Number Publication Date
DE102018114533A1 true DE102018114533A1 (de) 2018-12-20

Family

ID=64457308

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018114533.0A Pending DE102018114533A1 (de) 2017-06-19 2018-06-18 Systeme und Verfahren zur Identifikation von Antwortanfragen an einer Peripherievorrichtung

Country Status (2)

Country Link
US (2) US10283117B2 (de)
DE (1) DE102018114533A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109686364A (zh) * 2018-12-28 2019-04-26 合肥凯捷技术有限公司 一种车载语音唤醒人机交换系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10283117B2 (en) * 2017-06-19 2019-05-07 Lenovo (Singapore) Pte. Ltd. Systems and methods for identification of response cue at peripheral device
EP3477425B1 (de) * 2017-10-27 2020-09-16 Fujitsu Client Computing Limited Computersystem, client-vorrichtung und anzeigevorrichtung
CN109599111A (zh) * 2019-01-02 2019-04-09 百度在线网络技术(北京)有限公司 语音交互方法、装置和存储介质
CN110312235A (zh) * 2019-05-16 2019-10-08 深圳市豪恩声学股份有限公司 实时语音唤醒的音频设备、运行方法、装置及存储介质
CN113157240A (zh) * 2021-04-27 2021-07-23 百度在线网络技术(北京)有限公司 语音处理方法、装置、设备、存储介质及计算机程序产品

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6070140A (en) * 1995-06-05 2000-05-30 Tran; Bao Q. Speech recognizer
US5704009A (en) * 1995-06-30 1997-12-30 International Business Machines Corporation Method and apparatus for transmitting a voice sample to a voice activated data processing system
JP3933698B2 (ja) * 1996-07-11 2007-06-20 株式会社セガ 音声認識装置、音声認識方法及びこれを用いたゲーム機
FI20030660A0 (fi) * 2003-05-02 2003-05-02 Nokia Corp Menetelmä päätelaitteen tehonsäästöön langattomassa lähiverkossa ja päätelaite
US7660578B2 (en) * 2003-05-02 2010-02-09 Nokia Corporation Method for saving power in a wireless terminal and a terminal
KR100652645B1 (ko) * 2004-07-23 2006-12-06 엘지전자 주식회사 푸시 투 토크형 이동 통신 단말기의 음성 검출 및 인식을이용한 발언권 관리 장치와 방법
US7904113B2 (en) * 2004-11-12 2011-03-08 Interdigital Technology Corporation Method and apparatus for detecting and selectively utilizing peripheral devices
JP4667082B2 (ja) * 2005-03-09 2011-04-06 キヤノン株式会社 音声認識方法
KR100762636B1 (ko) * 2006-02-14 2007-10-01 삼성전자주식회사 네트워크 단말의 음성 검출 제어 시스템 및 방법
US20070281748A1 (en) * 2006-05-31 2007-12-06 Spectralink Corp. Method & apparatus for unlocking a mobile phone keypad
KR100744301B1 (ko) * 2006-06-01 2007-07-30 삼성전자주식회사 음성 인식을 이용하여 동작 모드를 전환하는 휴대 단말기및 그 방법
US8234120B2 (en) * 2006-07-26 2012-07-31 Nuance Communications, Inc. Performing a safety analysis for user-defined voice commands to ensure that the voice commands do not cause speech recognition ambiguities
US20080082338A1 (en) * 2006-09-29 2008-04-03 O'neil Michael P Systems and methods for secure voice identification and medical device interface
US8886545B2 (en) * 2007-03-07 2014-11-11 Vlingo Corporation Dealing with switch latency in speech recognition
US8099289B2 (en) * 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
US20090210233A1 (en) * 2008-02-15 2009-08-20 Microsoft Corporation Cognitive offloading: interface for storing and composing searches on and navigating unconstrained input patterns
US8924893B2 (en) * 2009-10-14 2014-12-30 At&T Mobility Ii Llc Locking and unlocking of an electronic device using a sloped lock track
US8402533B2 (en) * 2010-08-06 2013-03-19 Google Inc. Input to locked computing device
US20120052907A1 (en) * 2010-08-30 2012-03-01 Sensory, Incorporated Hands-Free, Eyes-Free Mobile Device for In-Car Use
US8340975B1 (en) * 2011-10-04 2012-12-25 Theodore Alfred Rosenberger Interactive speech recognition device and system for hands-free building control
US8666751B2 (en) * 2011-11-17 2014-03-04 Microsoft Corporation Audio pattern matching for device activation
US9117449B2 (en) * 2012-04-26 2015-08-25 Nuance Communications, Inc. Embedded system for construction of small footprint speech recognition with user-definable constraints
KR20130133629A (ko) * 2012-05-29 2013-12-09 삼성전자주식회사 전자장치에서 음성명령을 실행시키기 위한 장치 및 방법
US10304465B2 (en) * 2012-10-30 2019-05-28 Google Technology Holdings LLC Voice control user interface for low power mode
US20140244273A1 (en) * 2013-02-27 2014-08-28 Jean Laroche Voice-controlled communication connections
US9361885B2 (en) * 2013-03-12 2016-06-07 Nuance Communications, Inc. Methods and apparatus for detecting a voice command
KR102147346B1 (ko) * 2014-06-23 2020-08-24 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
US9412361B1 (en) * 2014-09-30 2016-08-09 Amazon Technologies, Inc. Configuring system operation using image data
US9318107B1 (en) * 2014-10-09 2016-04-19 Google Inc. Hotword detection on multiple devices
KR102299330B1 (ko) * 2014-11-26 2021-09-08 삼성전자주식회사 음성 인식 방법 및 그 전자 장치
US10283117B2 (en) * 2017-06-19 2019-05-07 Lenovo (Singapore) Pte. Ltd. Systems and methods for identification of response cue at peripheral device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109686364A (zh) * 2018-12-28 2019-04-26 合肥凯捷技术有限公司 一种车载语音唤醒人机交换系统

Also Published As

Publication number Publication date
US20180366115A1 (en) 2018-12-20
US10283117B2 (en) 2019-05-07
US20190139549A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
DE102018114533A1 (de) Systeme und Verfahren zur Identifikation von Antwortanfragen an einer Peripherievorrichtung
US11157335B2 (en) Methods and systems for multiple access to a single hardware data stream
DE102016118680A1 (de) Situationsabhängiges Aufheben eines Weckwortes zum Aktivieren einer Sprachbefehlseingabe
DE102018111900A1 (de) Systeme und Verfahren zum Bestimmen eines Reaktionshinweises für einen digitalen Assistenten basierend auf einem Kontext
DE102017115936A1 (de) Systeme und Verfahren zum Aktivieren eines Sprachassistenten und Bereitstellen eines Indikators, dass der Sprachassistent Hilfe zu leisten hat
DE102017122427A1 (de) Automatische Anpassung einer Lautstärke eines Lautsprechers eines Gerätes basierend auf einer Amplitude einer Spracheingabe in das Gerät
DE102014117504A1 (de) Verwenden von Kontext zum Interpretieren von natürlichen Spracherkennungsbefehlen
DE102014106579A1 (de) Besondere Gesten für Kamerasteuerungs- und Bildverarbeitungsverfahren
DE102015100471A1 (de) Automatische Steuerung der Anzeige von Videocontent unter Verwendung von Augendetektion
DE102015108004A1 (de) Darstellen einer Nutzerschnittstelle auf einem ersten Gerät basierend auf der Erfassung eines zweiten Gerätes in einer Umgebung des ersten Geräts
DE102015100900A1 (de) Einstellen einer Spracherkennung unter Verwendung einer Kontextinformation
DE102016122716A1 (de) Arbeitsbereichsübergänge in einer erweiterten Realität, basierend auf einem kontextuellen Umfeld
DE112016000159B4 (de) Systeme und Verfahren zum Verlängern der Batteriebetriebsdauer durch Überwachung der Mobilanwendungsaktivität
DE102018114453A1 (de) Interaktive Sessions
US20180324703A1 (en) Systems and methods to place digital assistant in sleep mode for period of time
DE102014117343B4 (de) Erfassen einer Pause in einer akustischen Eingabe in ein Gerät
DE102017115933B4 (de) Koordinieren einer Eingabe an mehreren lokalen Geräten
DE102016122733A1 (de) Bestimmen ob ein Inhalt zu drehen ist basierend auf einer Identifizierung einer Winkelgeschwindigkeit und/oder einer Beschleunigung eines Gerätes
DE102019104950A1 (de) Inhalt übertragen
DE102017126306A1 (de) Kontextabhängiger Koversionsmodus für digitalen Assistenten
DE102017120697A1 (de) Eye-Tracking Auswahlvalidierung
DE102022104709A1 (de) Ultrabreitband zum Identifizieren und Steuern eines weiteren Geräts
DE102016121634A1 (de) Darstellung von Informationen basierend darauf, ob ein Nutzer in physischem Kontakt mit einem Gerät ist
DE102017109503A1 (de) Audiogeräteanordnungen in konvertierbaren elektronischen Geräten
US20160148342A1 (en) Movement of displayed element from one display to another

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE