DE102017119814A1 - Präsentieren visueller informationen auf einem display - Google Patents

Präsentieren visueller informationen auf einem display Download PDF

Info

Publication number
DE102017119814A1
DE102017119814A1 DE102017119814.8A DE102017119814A DE102017119814A1 DE 102017119814 A1 DE102017119814 A1 DE 102017119814A1 DE 102017119814 A DE102017119814 A DE 102017119814A DE 102017119814 A1 DE102017119814 A1 DE 102017119814A1
Authority
DE
Germany
Prior art keywords
visual information
display
processor
audible command
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017119814.8A
Other languages
English (en)
Inventor
Song Wang
Jian Li
Ming Qian
Jianbang Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of DE102017119814A1 publication Critical patent/DE102017119814A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Zum Präsentieren von visuellen Informationen an einem Display bestimmt ein Prozessor, als Reaktion auf einen hörbaren Befehl von einem Benutzer visuelle Informationen zu zeigen. Der Prozessor identifiziert ferner ein Display, das der Benutzer betrachten kann und auf das über die Kommunikations-Hardware zugegriffen werden kann. Zudem präsentiert der Prozessor die visuellen Informationen auf dem Display über die Kommunikations-Hardware.

Description

  • GEBIET
  • Der hierin offenbarte Gegenstand betrifft visuelle Informationen und betrifft genauer gesagt das Präsentieren visueller Informationen auf einem Display.
  • HINTERGRUND
  • ALLGEMEINER STAND DER TECHNIK
  • Ein Sprachassistent antwortet auf hörbare Befehle mit Inhalt.
  • KURZDARSTELLUNG
  • Es wird eine Vorrichtung zum Präsentieren visueller Informationen auf einem Display offenbart. Die Vorrichtung umfasst Kommunikations-Hardware, einen Prozessor und einen Speicher, der Code speichert, der durch den Prozessor ausführbar ist. Der Prozessor bestimmt, dass als Reaktion auf einen hörbaren Befehl von einem Benutzer visuelle Informationen gezeigt werden. Der Prozessor identifiziert ferner ein Display, das der Benutzer betrachten kann und auf das über die Kommunikations-Hardware zugegriffen werden kann. Zudem präsentiert der Prozessor die visuellen Informationen auf dem Display über die Kommunikations-Hardware. Ein Verfahren und ein Computerprogrammprodukt führen ebenfalls die Funktionen der Vorrichtung aus.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Eine genauere Beschreibung der zuvor kurz beschriebenen Ausführungsformen wird mit Bezug auf spezifische Ausführungsformen gegeben, die in den beiliegenden Zeichnungen abgebildet sind. Mit dem Verständnis, dass diese Zeichnungen nur einige Ausführungsformen der Erfindung abbilden und daher nicht als ihren Umfang einschränkend anzusehen sind, werden die Ausführungsformen mit zusätzlicher Spezifizität und zusätzlichem Detail durch die Verwendung der beiliegenden Zeichnungen beschrieben und erklärt. Es zeigen:
  • 1A ein schematisches Blockdiagramm, das eine Ausführungsform eines Sprachassistentensystems abbildet;
  • 1B eine perspektivische Zeichnung, die eine Ausführungsform eines Sprachassistenten abbildet;
  • 1C eine perspektivische Zeichnung, die eine Ausführungsform eines elektronischen Gerätes als Computer mit einem Display abbildet;
  • 1D eine Zeichnung in Vorderansicht, die eine Ausführungsform eines elektronischen Gerätes als Mobiltelefon mit einem Display abbildet;
  • 2 ein schematisches Blockdiagramm, das eine Ausführungsform von hörbaren Befehlsdaten abbildet;
  • 3 ein schematisches Blockdiagramm, das eine Ausführungsform einer Antwort abbildet;
  • 4 ein schematisches Blockdiagramm, das eine Ausführungsform eines Sprachassistenten abbildet;
  • 5A ein schematisches Ablaufschema, das eine Ausführungsform eines Verfahrens zum Präsentieren visueller Informationen abbildet;
  • 5B ein schematisches Ablaufschema, das eine Ausführungsform eines Verfahrens zum Bestimmen visueller Informationen abbildet; und
  • 5C ein schematisches Ablaufschema, das eine Ausführungsform eines Verfahrens zum Auswählen visueller Informationen abbildet.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Wie es der Fachmann verstehen wird, können die Aspekte der Ausführungsformen als System, Verfahren oder Programmprodukt ausgebildet sein. Entsprechend können die Ausführungsformen die Form einer Ausführungsform ganz als Hardware, einer Ausführungsform ganz als Software (einschließlich Firmware, residenter Software, Mikrocode usw.) oder einer Ausführungsform, die Software- und Hardware-Aspekte kombiniert, annehmen, die hierin alle allgemein als „Schaltung”, „Modul” oder „System” bezeichnet werden können. Ferner können die Ausführungsformen die Form eines Programmprodukts annehmen, das in einem oder mehreren computerlesbaren Speichergeräten, die maschinenlesbaren Code, computerlesbaren Code und/oder Programmcode speichern, der nachstehend als Code bezeichnet wird, ausgebildet sein. Die Speichergeräte können materiell, nicht transitorisch und/oder nicht übertragend sein. Die Speichergeräte können nicht als Signale ausgebildet sein. Bei einer bestimmten Ausführungsform verwenden die Speichergeräte nur Signale, um auf Code zuzugreifen.
  • Viele der in dieser Beschreibung beschriebenen Funktionseinheiten wurden als Module bezeichnet, um insbesondere ihre Umsetzungsunabhängigkeit hervorzuheben. Ein Modul kann z.B. als Hardware-Schaltung umgesetzt werden, die spezifische VLSI-Schaltungen oder Gate-Arrays, handelsübliche Halbleiter, wie etwa Logikchips, Transistoren oder andere diskrete Bauteile, umfasst. Ein Modul kann auch in programmierbaren Hardware-Geräten, wie etwa Field Programmable Gate-Arrays, programmierbaren Logikbausteinen, programmierbaren logischen Geräten oder dergleichen, umgesetzt werden.
  • Module können auch als Code und/oder Software zur Ausführung durch diverse Arten von Prozessoren umgesetzt werden. Ein identifiziertes Codemodul kann beispielsweise einen oder mehrere physische oder logische Blöcke von ausführbarem Code umfassen, der bzw. die beispielsweise als Objekt, Prozedur oder Funktion organisiert sein kann bzw. können. Dennoch müssen die ausführbaren Elemente eines identifizierten Moduls nicht räumlich zusammenliegen, sondern können disparate Anweisungen umfassen, die an verschiedenen Stellen gespeichert sind, die, wenn sie logisch zusammengefügt werden, das Modul bilden und den angegebenen Zweck für das Modul erfüllen.
  • In der Tat kann ein Codemodul einer einzigen Anweisung oder vielen Anweisungen entsprechen und kann sogar über mehrere verschiedene Codesegmente, über verschiedene Programme und über mehrere Speichergeräte verteilt sein. Ähnlich können Betriebsdaten hierin innerhalb von Modulen identifiziert und abgebildet werden und können in einer beliebigen geeigneten Form ausgebildet sein und innerhalb einer beliebigen geeigneten Art von Datenstruktur organisiert sein. Die Betriebsdaten können als einzelner Datensatz erhoben werden oder können über verschiedene Stellen verteilt sein, einschließlich über verschiedene computerlesbare Speichergeräte. Wenn ein Modul oder Teile eines Moduls als Software umgesetzt wird bzw. werden, werden die Software-Teile auf einem oder mehreren computerlesbaren Speichergeräten gespeichert.
  • Alle Kombinationen von einem oder mehreren computerlesbaren Medien können verwendet werden. Das computerlesbare Medium kann ein computerlesbares Speichermedium sein. Das computerlesbare Speichermedium kann ein Speichergerät sein, welches den Code speichert. Das Speichergerät kann beispielsweise ohne Einschränkung ein elektronisches, magnetisches, optisches, elektromagnetisches, infrarotes, holografisches, mikromechanisches oder Halbleiter-System, -Vorrichtung oder -Gerät oder eine beliebige geeignete Kombination derselben sein.
  • Genauere Beispiele (eine nicht erschöpfende Liste) des Speichergerätes würde Folgendes umfassen: eine elektrische Verbindung, die einen oder mehrere Drähte aufweist, eine tragbare Computerdiskette, eine Festplatte, einen Arbeitsspeicher (RAM), einen Festwertspeicher (ROM), einen löschbaren programmierbaren Festwertspeicher (EPROM oder Flash-Speicher), einen tragbaren Compact Disk Festwertspeicher (CD-ROM), ein optisches Speichergerät, ein magnetisches Speichergerät oder eine beliebige geeignete Kombination derselben. Im Kontext der vorliegenden Druckschrift kann ein computerlesbares Speichermedium ein beliebiges materielles Medium sein, das ein Programm zur Verwendung durch ein System, eine Vorrichtung oder ein Gerät zum Ausführen von Anweisungen oder in Verbindung damit enthalten oder speichern kann.
  • Code zum Ausführen von Vorgängen für Ausführungsformen kann in einer beliebigen Kombination von einer oder mehreren Programmiersprachen verfasst sein, wozu eine objektorientierte Programmiersprache, wie etwa Python, Ruby, Java, Smalltalk, C++ oder dergleichen, und herkömmliche prozedurale Programmiersprachen, wie etwa die Programmiersprache „C” oder dergleichen, und/oder Maschinensprachen, wie etwa Assemblersprachen, gehören. Der Code kann vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als selbstständiges Software-Paket, teilweise auf dem Computer des Benutzers und teilweise auf einem Remote-Computer oder vollständig auf dem Remote-Computer oder Server ausgeführt werden. In letzterem Fall kann der Remote-Computer an den Computer des Benutzers über eine beliebige Art von Netzwerk, wozu ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetz (WAN) gehören, angeschlossen sein, oder kann die Verbindung mit einem externen Computer (z.B. über das Internet unter Verwendung eines Internet Service Providers) hergestellt werden.
  • Eine Bezugnahme in der gesamten vorliegenden Beschreibung auf „eine Ausführungsform” oder ähnliche Ausdrücke bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder ein bestimmtes Kennzeichen, das bzw. die in Verbindung mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform enthalten ist. Somit können sich Erscheinungen der Redewendungen „bei einer Ausführungsform” und ähnliche Ausdrücke in der gesamten vorliegenden Beschreibung alle auf die gleiche Ausführungsform beziehen, bedeuten jedoch „eine oder mehrere aber nicht alle Ausführungsformen”, soweit es nicht ausdrücklich anderweitig vorgegeben ist. Die Begriffe „umfassend”, „aufweisend” und ihre Varianten bedeuten „umfassend jedoch ohne Einschränkung”, soweit es nicht ausdrücklich anderweitig vorgegeben ist. Eine aufgeführte Liste von Elementen bedingt nicht, dass eines oder alle der Elemente gegenseitig ausschließlich sind, soweit es nicht ausdrücklich anderweitig vorgegeben ist. Die Begriffe „ein”, „eine” und „der, die, das” beziehen sich auch auf „ein oder mehrere”, soweit nicht ausdrücklich anderweitig vorgegeben.
  • Ferner können die beschriebenen Merkmale, Strukturen oder Kennzeichen der Ausführungsformen in einer beliebigen geeigneten Art kombiniert werden. In der folgenden Beschreibung werden zahlreiche spezifische Einzelheiten bereitgestellt, wie etwa Programmierbeispiele, Softwaremodule, Benutzerauswahlen, Netzwerktransaktionen, Datenbankabfragen, Datenbankstrukturen, Hardware-Module, Hardware-Schaltungen, Hardware-Chips, usw., um ein umfassendes Verständnis der Ausführungsformen bereitzustellen. Der Fachmann auf diesem Gebiet wird jedoch erkennen, dass die Ausführungsformen ohne eine oder mehrere der spezifischen Einzelheiten oder mit anderen Verfahren, Bauteilen, Materialien und so weiter in die Praxis umgesetzt werden können. In anderen Fällen werden hinlänglich bekannte Strukturen, Materialien oder Vorgänge nicht gezeigt oder ausführlich beschrieben, um eine Verschleierung der Aspekte einer Ausführungsform zu vermeiden.
  • Nachstehend werden die Aspekte der Ausführungsformen mit Bezug auf schematische Ablaufschemata und/oder schematische Blockdiagramme von Verfahren, Vorrichtungen, Systemen und Programmprodukten gemäß den Ausführungsformen beschrieben. Es versteht sich, dass jeder Block der schematischen Ablaufschemata und/oder der schematischen Blockdiagramme und Kombinationen von Blöcken in den schematischen Ablaufschemata und/oder schematischen Blockdiagrammen durch Code umgesetzt werden kann. Dieser Code kann einem Prozessor eines universellen Computers, eines spezifischen Computers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu ergeben, so dass die Anweisungen, die über den Prozessor des Computers oder der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführt werden, Mittel erstellen, um die Funktionen/Aktionen umzusetzen, die in dem Block oder den Blöcken der Ablaufschemata und/oder der schematischen Blockdiagramme vorgegeben sind.
  • Der Code kann auch in einem Speichergerät gespeichert werden, welches einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder andere Geräte anweisen kann, auf eine bestimmte Art und Weise zu funktionieren, so dass die Anweisungen, die in dem Speichergerät gespeichert sind, ein Produkt ergeben, das Anweisungen umfasst, welche die Funktion/Aktion umsetzen, die in dem Block oder den Blöcken der schematischen Ablaufschemata und/oder der schematischen Blockdiagramme vorgegeben ist.
  • Der Code kann auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder andere Geräte geladen werden, um zu bewirken, dass eine Reihe von Betriebsschritten auf dem Computer, der anderen programmierbaren Vorrichtung oder anderen Geräten ausgeführt werden, um einen computerumgesetzten Prozess zu ergeben, so dass der Code, der auf dem Computer oder der anderen programmierbaren Vorrichtung ausgeführt wird, Prozesse bereitstellt, um die Funktionen/Aktionen umzusetzen, die in dem Block oder den Blöcken des Ablaufschemas und/oder des Blockdiagramms vorgegeben sind.
  • Die schematischen Ablaufschemata und/oder schematischen Blockdiagramme in den Figuren bilden die Architektur, die Funktionalität und die Betätigung möglicher Umsetzungen von Vorrichtungen, Systemen, Verfahren und Programmprodukten gemäß diversen Ausführungsformen ab. In dieser Hinsicht kann jeder Block in den schematischen Ablaufschemata und/oder den schematischen Blockdiagrammen ein Modul, ein Segment oder einen Codeabschnitt darstellen, das bzw. der eine oder mehrere ausführbare Anweisungen des Codes zum Umsetzen der vorgegebenen logischen Funktion(en) umfasst.
  • Es sei ebenfalls zu beachten, dass bei einigen alternativen Umsetzungen die in dem Block erwähnten Funktionen in einer anderen Reihenfolge als in den Figuren erwähnt erfolgen können. Beispielsweise können zwei Blöcke, die nacheinander gezeigt sind, eigentlich im Wesentlichen gleichzeitig ausgeführt werden, oder können die Blöcke, je nach der betroffenen Funktionalität, manchmal in umgekehrter Reihenfolge ausgeführt werden. Es können andere Schritte und Verfahren erdacht werden, deren Funktion, Logik oder Auswirkung mit einem oder mehreren Blöcken, oder Teilen davon, der abgebildeten Figuren gleichwertig sind.
  • Obwohl diverse Pfeilarten und Linienarten in dem Ablaufschema und/oder den Blockdiagrammen verwendet werden können, versteht es sich, dass diese den Umfang der entsprechenden Ausführungsformen nicht einschränken. Einige Pfeile oder andere Verbindungselemente können nämlich verwendet werden, um nur den logischen Ablauf der abgebildeten Ausführungsform anzugeben. Ein Pfeil kann z.B. einen Warte- oder Überwachungszeitraum unbestimmter Dauer zwischen den aufgeführten Schritten der abgebildeten Ausführungsform angeben. Es sei ebenfalls zu beachten, dass jeder Block der Blockdiagramme und/oder der Ablaufschemata und Kombinationen von Blöcken in den Blockdiagrammen und/oder den Ablaufschemata mit speziellen Systemen auf Hardware-Basis, welche die vorgegebenen Funktionen oder Aktionen ausführen, oder mit Kombinationen von spezieller Hardware und Code umgesetzt werden kann bzw. können.
  • Die Beschreibung von Elementen in jeder Figur kann sich auf Elemente der vorhergehenden Figuren beziehen. Die gleichen Zahlen beziehen sich auf die gleichen Elemente in allen Figuren, einschließlich alternativer Ausführungsformen gleicher Elemente.
  • 1A ist ein schematisches Blockdiagramm, das eine Ausführungsform eines Sprachassistentensystems 100 abbildet. Das Sprachassistentensystem 100 kann hörbare Befehle von einem Benutzer empfangen und auf jeden hörbaren Befehl antworten. Bei der abgebildeten Ausführungsform umfasst das Sprachassistentensystem 100 einen Server 105, ein Netzwerk 115, einen Sprachassistenten 110 und mindestens ein elektronisches Gerät 125.
  • Der Sprachassistent 110 kann einen hörbaren Befehl von dem Benutzer empfangen. Der Sprachassistent 110 kann den hörbaren Befehl verarbeiten und darauf antworten. Zudem kann der Sprachassistent 110 dem Server 105 den hörbaren Befehl über das Netzwerk 115 mitteilen. Das Netzwerk 115 kann eines oder mehrere von Internet, einem lokalen Netzwerk, einem WiFi-Netzwerk, einem Mobilfunknetzwerk, einem Bluetooth-Netzwerk oder Kombinationen davon umfassen. Der Server 105 kann den hörbaren Befehl verarbeiten und eine Antwort auf den hörbaren Befehl generieren. Der Server 105 kann dem Sprachassistenten 110 die Antwort über das Netzwerk 115 mitteilen, und der Sprachassistent 110 kann dem Benutzer die Antwort hörbar mitteilen.
  • Das elektronische Gerät 125 kann von dem Sprachassistenten 110 getrennt und eigenständig sein. Es kann sein, dass das elektronische Gerät 125 und der Sprachassistent 110 keine Bauteile gemeinsam haben. Zudem kann es sein, dass das elektronische Gerät 125 nicht zum integrierten Betrieb mit dem Sprachassistenten 110 ausgelegt ist. Beispielsweise kann das elektronische Gerät 125 ein Computer, ein Handy, ein Fernseher, ein Kühlschrank oder dergleichen sein. Das elektronische Gerät 125 umfasst ein Display 120. Das Display 120 kann von dem Sprachassistenten 110 und/oder dem Server 105 getrennt und eigenständig sein.
  • Der Sprachassistent 110 antwortet typischerweise auf hörbare Befehle mit hörbarem Inhalt. Beispielsweise kann der Sprachassistent 110 als Reaktion auf den hörbaren Befehl hörbare Informationen präsentieren, wie etwa Nachrichten, eine Wettervorhersage, einen Lieferstatus und dergleichen. Zudem kann der Sprachassistent 110 eine Steuerfunktion ausführen, wie etwa das Anschalten von Licht. Der Sprachassistent 110 kann ferner als Reaktion auf den hörbaren Befehl Unterhaltungsinhalt, wie etwa Musik, präsentieren.
  • Leider kann eine geeignete Antwort auf den hörbaren Befehl visuelle Informationen umfassen. Zudem kann es sein, dass der hörbare Inhalt keine geeignete Antwort auf den hörbaren Befehl umfasst. Die hierin beschriebenen Ausführungsformen bestimmen, dass als Reaktion auf den hörbaren Befehl von dem Benutzer visuelle Informationen gezeigt werden. Die Ausführungsformen identifizieren ferner ein Display, wie etwa das Display 120 des elektronischen Gerätes 125, das der Benutzer betrachten kann und auf das über Kommunikations-Hardware zugegriffen werden kann. Die Ausführungsformen können die visuellen Informationen an dem Display über die Kommunikations-Hardware präsentieren, wie es nachstehend beschrieben wird.
  • 1B ist eine perspektivische Zeichnung, die eine Ausführungsform des Sprachassistenten 110 abbildet. Bei der abgebildeten Ausführungsform ist der Sprachassistent 110 ein Zylinder mit einem Mikrofon 135. Der Sprachassistent 110 kann in anderen Ausführungsformen und Konfigurationen organisiert sein. Der Sprachassistent 110 umfasst kein systemeigenes Display. Dadurch kann der Sprachassistent 110 nicht eigenständig visuelle Informationen präsentieren.
  • 1C ist eine perspektivische Zeichnung, die eine Ausführungsform eines elektronischen Gerätes 125 als Computer abbildet. Das elektronische Computer-Gerät 125 umfasst ein Display 120. Das elektronische Computer-Gerät 125 kann mit dem Netzwerk 115 kommunizieren. Bei einer Ausführungsform umfasst das elektronische Computer-Gerät 125 eine Kamera 145.
  • 1D ist eine Zeichnung in Vorderansicht, die eine Ausführungsform eines elektronischen Gerätes 125 als Mobiltelefon abbildet. Das elektronische Mobiltelefon-Gerät 125 umfasst ein Display 120. Das elektronische Mobiltelefon-Gerät 125 kann mit dem Netzwerk 115 kommunizieren. Bei einer Ausführungsform umfasst das elektronische Mobiltelefon-Gerät 125 eine Kamera 145.
  • 2 ist ein schematisches Blockdiagramm, das eine Ausführungsform von hörbaren Befehlsdaten 200 abbildet. Die hörbaren Befehlsdaten 200 können einen hörbaren Befehl 205 und diesbezügliche Informationen speichern. Die hörbaren Befehlsdaten 200 können als Datenstruktur in einem Speicher organisiert sein. Bei der abgebildeten Ausführungsform umfassen die hörbaren Befehlsdaten 200 den hörbaren Befehl 205, einen visuellen Anfrageaufruf 210, eine Vielzahl von Antworten 215, eine Display-Adresse 220 und ein Display-Größe 225.
  • Der hörbare Befehl 205 kann ein analoges Signal von dem Mikrofon 135 aufzeichnen. Zudem kann der hörbare Befehl 205 ein digitalisiertes Signal des Analogsignals speichern. Bei einer gewissen Ausführungsform speichert der hörbare Befehl 205 eine Textversion des analogen Signals und/oder des digitalisierten Signals.
  • Der visuelle Anfrageaufruf 210 kann ein Wort oder eine Redewendung aufzeichnen, die angeben, dass der Benutzer möchte, dass eine Antwort auf den hörbaren Befehl 205 visuelle Informationen umfasst. Die Tabelle 1 zeigt Beispiele von visuellen Anfrageaufrufen 210, wobei die Beispiele nicht einschränkend sind. Tabelle 1
    Zeige
    Zeig es mir
    Zeige an
    Präsentiere
    Lass mich sehen
    Zeige mir
    Bilde ab
  • Die Antwort 215 kann jeweils eine Antwort umfassen, die für den hörbaren Befehl 205 generiert wird. Die Antwort 215 kann hörbaren Inhalt, visuellen Inhalt oder Kombinationen davon umfassen. Die Antwort 215 wird in 3 ausführlicher beschrieben.
  • Die Display-Adresse 220 kann eine Adresse eines Displays 120 und/oder eines elektronischen Gerätes 125, welches das Display 120 einschließt, umfassen. Die Display-Adresse 220 kann eines oder mehrere von einer logischen Adresse, einer Anschlussadresse, einer elektronischen Gerätekennung, eines Berechtigungsnachweises eines elektronischen Gerätes und dergleichen umfassen. Bei einer Ausführungsform umfasst die Display-Adresse 220 eine Gerätekennung für das elektronische Gerät 125 und/oder das Display 120, welches an dem elektronischen Gerät 125 gehostet wird. Beispielsweise kann die Gerätekennung „Telefon” ein elektronisches Mobiltelefon-Gerät 125 angeben. Die Display-Adresse 220 kann Displays 120 und/oder elektronische Geräte 125 aufzeichnen, die in der Vergangenheit verwendet wurden, um visuelle Informationen zu präsentieren.
  • Die Display-Größe 225 kann die Abmessungen des Displays 120 aufzeichnen. Zudem kann die Display-Größe 225 eine Auflösung des Displays 120, die Helligkeits-, Farb- und Kontrastparameter für das Display 120 und/oder eine Bildwiederholrate für das Display 120 angeben.
  • 3 ist ein schematisches Blockdiagramm, das eine Ausführungsform der Antwort 215 aus 2 abbildet. Die Antwort 215 kann als Datenstruktur in einem Speicher organisiert sein. Die Antwort 215 kann als eine mögliche geeignete Antwort auf einen hörbaren Befehl 205 generiert werden. Bei der abgebildeten Ausführungsform umfasst die Antwort 215 eine Antwortquelle 250, eine Antworteinstufung 255, visuelle Informationen 260 und hörbare Informationen 265.
  • Die Antwortquelle 250 kann einen Weg zu einer möglichen Antwort auf den hörbaren Befehl 205 aufzeichnen. Der Weg kann ein Index auf eine Datenbank sein, die auf dem Server 105 gespeichert ist. Alternativ kann der Weg eine Uniform Resource Locator (URL) zu einem Suchergebnis sein, das als mögliche Antwort auf den hörbaren Befehl 205 identifiziert wird.
  • Die Antworteinstufung 255 kann eine absolute Einstufung der Antwort in Bezug auf den hörbaren Befehl 205 angeben. Beispielsweise kann eine Antwort, die den hörbaren Befehl 205 vollständig erfüllt, eine absolute Einstufung von 100 % aufweisen. Ähnlich kann eine Antwort, die den hörbaren Befehl 205 nur teilweise erfüllt, eine absolute Einstufung von 10 % aufweisen.
  • Alternativ kann die Antworteinstufung 255 eine absolute Einstufung der Antwort im Vergleich zu anderen Antworten auf den hörbaren Befehl 205 angeben. Beispielsweise kann die Antworteinstufung 255 für eine erste Antwort eine 1 sein, was eine beste und/oder am besten geeignete Antwort angibt, während die Antworteinstufung 255 für eine zweite Antwort 2 sein kann, was eine zweitbeste und/oder am zweitbesten geeignete Antwort angibt.
  • Die visuellen Informationen 260 können eines oder mehrere von einem Bild, einem Video, einer Tabelle oder einer Grafik umfassen. Die visuellen Informationen 260 können eine mögliche geeignete Antwort auf den hörbaren Befehl 205 sein. Die hörbaren Informationen 265 können eine mögliche geeignete Antwort auf den hörbaren Befehl 205 umfassen. Eine Antwort 215 kann die visuellen Informationen 260, die hörbaren Informationen 265 oder Kombinationen davon umfassen.
  • 4 ist ein schematisches Blockdiagramm, das eine Ausführungsform des Sprachassistenten 110 abbildet. Bei der abgebildeten Ausführungsform umfasst der Sprachassistent 110 einen Prozessor 405, einen Speicher 410, Kommunikations-Hardware 415, das Mikrofon 135 und einen Lautsprecher 140. Der Prozessor 405, der Speicher 410 und die Kommunikations-Hardware 415 können in dem Sprachassistenten 110 und/oder dem Server 105 ausgebildet sein.
  • Der Speicher 410 kann ein Halbleiter-Speichergerät, ein Festplattenlaufwerk, ein optisches Speichergerät, ein mikromechanisches Speichergerät oder eine Kombination davon umfassen. Der Speicher 410 kann Code speichern. Der Prozessor 405 kann den Code ausführen.
  • Die Kommunikations-Hardware 415 kann mit anderen Geräten kommunizieren. Bei einer Ausführungsform kommuniziert die Kommunikations-Hardware 415 mit dem Netzwerk 115. Beispielsweise kann der Sprachassistent 110 über die Kommunikations-Hardware 415 und das Netzwerk 115 mit dem elektronischen Gerät 125 kommunizieren. Die Kommunikations-Hardware 415 kann eine drahtlose Netzwerkschnittstelle, eine drahtgebundene Netzwerkschnittstelle und eine Infrarot-Netzwerkschnittstelle oder Kombinationen davon umfassen.
  • Das Mikrofon 135 kann den hörbaren Befehl 205 von dem Benutzer empfangen. Der Lautsprecher 140 kann dem Benutzer hörbare Informationen 265 mitteilen. Der Sprachassistent 110 ist jedoch nicht in der Lage, dem Benutzer die visuellen Informationen 260 direkt mitzuteilen. Der Sprachassistent 110 kann das Display 120 identifizieren, das der Benutzer betrachten kann und auf das über die Kommunikations-Hardware 415 zugegriffen werden kann, und die visuellen Informationen auf dem Display 120 über die Kommunikations-Hardware 415 präsentieren, wie es nachstehend beschrieben wird.
  • 5A ist ein schematisches Ablaufschema, das eine Ausführungsform eines Verfahrens 500 zum Präsentieren visueller Informationen abbildet. Das Verfahren 500 kann dem Benutzer die visuellen Informationen 260 auf dem Display 120 präsentieren. Das Verfahren 500 kann durch den Sprachassistenten 110, den Server 105 und/oder das elektronische Gerät 125 ausgeführt werden. Zudem kann das Verfahren 500 durch die Prozessoren des Sprachassistenten 110 und/oder des Servers 105 ausgeführt werden.
  • Das Verfahren 500 beginnt, und bei einer Ausführungsform empfängt 505 der Prozessor 405 den hörbaren Befehl 205 von dem Mikrofon 135. Der Prozessor 405 und/oder die dazugehörige Hardware kann bzw. können ein hörbares Signal, das den hörbaren Befehl 205 umfasst, in ein digitales Signal und/oder die Textdarstellung des hörbaren Befehls 205 umwandeln.
  • Der Prozessor 405 kann ferner eine oder mehrere Antworten 215 berechnen 510, die für den hörbaren Befehl 205 geeignet ist bzw. sind. Bei einer Ausführungsform verwendet der Prozessor 405 den hörbaren Befehl 205 als einen Index, um auf die eine oder die mehreren Antworten 215 aus einer Datenbank auf dem Server 105 zuzugreifen. Alternativ kann der Prozessor 405 den hörbaren Befehl 205 als Suchbegriff verwenden und die eine oder die mehreren Antworten 215 aus einer Suche basierend auf dem Suchbegriff wiederherstellen.
  • Der Prozessor 405 kann bestimmen 515, ob die visuellen Informationen 260 zu zeigen sind. Bei einer Ausführungsform bestimmt 515 der Prozessor 405, dass die visuellen Informationen 260 zu zeigen sind, falls eine geeignete Antwort 215 die visuellen Informationen 260 umfasst. Die Bestimmung 515, die visuellen Informationen 260 zu zeigen, wird in 5C ausführlicher beschrieben. Falls der Prozessor 405 bestimmt 515, dass die visuellen Informationen 260 nicht zu zeigen sind, präsentiert der Prozessor 405 die hörbaren Informationen 265 einer geeigneten Antwort 215, und das Verfahren 500 ist beendet.
  • Falls der Prozessor 405 bestimmt 515, dass die visuellen Informationen 260 zu zeigen sind, identifiziert 520 der Prozessor 405 ein Display 120. Das Display 120 kann durch den Benutzer zu betrachten und über die Kommunikations-Hardware 415 zugänglich sein. Bei einer Ausführungsform befragt der Prozessor 405 über das Netzwerk 115lokale elektronische Geräte 125. Der Prozessor 405 kann identifizieren 520, welche elektronischen Geräte 125 ein Display 120 umfassen. Zudem kann der Prozessor 405 identifizieren 520, welche elektronischen Geräte 125 mit Displays 120 den Prozessor 405 auf das entsprechende Display 120 zugreifen lassen. Das Identifizieren 520 des Displays 120 wird in 5B ausführlicher beschrieben.
  • Der Prozessor 405 kann auf das Display 120 zugreifen 525. Der Prozessor 405 kann auf das Display 120 unter Verwendung der Display-Adresse 220 zugreifen 525. Beispielsweise kann der Prozessor 405 auf das Display 120 unter Verwendung einer Standortadresse für das elektronische Gerät 125, einer Anschlussadresse für das elektronische Gerät 125, einer Kennung des elektronischen Gerätes, eines Berechtigungsnachweises des elektronischen Gerätes zugreifen 525. Wenn der Prozessor 405 auf das Display 120 zugegriffen 525 hat, kann der Prozessor 405 dem elektronischen Gerät 125 die visuellen Informationen 260 unter Verwendung der Display-Adresse 220 mitteilen.
  • Bei einer Ausführungsform bearbeitet 530 der Prozessor 405 die visuellen Informationen 260, damit diese auf das Display 120 passen. Der Prozessor 405 kann die Daten über das Display 120 des elektronischen Gerätes 125 abrufen und die Daten in der Display-Größe 225 speichern. Zudem kann der Prozessor 405 die visuellen Informationen 260 bearbeiten 530, damit diese auf das Display 225 passen. Bei einer Ausführungsform umfasst das Bearbeiten 530 der visuellen Informationen 260 eines oder mehrere von Ändern der Größe der visuellen Informationen 260, Zuschneiden der visuellen Informationen 260, Ändern der Größe der Spalten der visuellen Informationen 260, Ändern der Größe der Zeilen der visuellen Informationen 260, Hinzufügen von Spalten zu den visuellen Informationen 260 und Hinzufügen von Zeilen zu den visuellen Informationen 260.
  • Der Prozessor 405 kann die visuellen Informationen 260 auf dem Display 120 über die Kommunikations-Hardware 415 präsentieren 535, und das Verfahren 500 ist beendet. Der Prozessor 405 kann die visuellen Informationen 260 über die Kommunikations-Hardware 415 und das Netzwerk 115 dem elektronischen Gerät 125 an der Display-Adresse 220 mitteilen. Die visuellen Informationen 260 können auch den Berechtigungsnachweis des elektronischen Gerätes umfassen, der angibt, dass das elektronische Gerät 125 die visuellen Informationen 260 anzeigen soll. Das elektronische Gerät 125 kann die visuellen Informationen 260 auf dem Display 120 anzeigen. Bei einer Ausführungsform zeigt das elektronische Gerät 125 die visuellen Informationen 260 als Reaktion auf das Empfangen des Berechtigungsnachweises des elektronischen Gerätes an.
  • 5B ist ein schematisches Ablaufschema, das eine Ausführungsform eines Verfahrens 600 zum Bestimmen visueller Informationen abbildet. Das Verfahren 600 kann bestimmen, ob die visuellen Informationen 260 zu präsentieren sind. Zudem kann das Verfahren 600 den Schritt 520 aus 5A beschreiben. Das Verfahren 600 kann durch den Sprachassistenten 110, den Server 105 und/oder das elektronische Gerät 125 ausgeführt werden. Zudem kann das Verfahren 600 durch die Prozessoren des Sprachassistenten 110 und/oder des Servers 105 ausgeführt werden.
  • Das Verfahren 600 beginnt, und bei einer Ausführungsform fragt 605 der Prozessor 405 den Benutzer nach einem Display 120, an dem er die visuellen Informationen 260 präsentieren soll. Beispielsweise kann der Prozessor 405 fragen 605 „Ich habe visuelle Informationen. Bitte geben Sie ein Display an, um die visuellen Informationen zu empfangen.” Zudem kann der Prozessor 405 Anweisungen zum Angeben des Displays 120 mitteilen. Beispielsweise kann der Prozessor 405 mitteilen, dass der Benutzer eine Kopplungsfunktion an dem elektronischen Gerät 125 aktiviert.
  • Bei einer Ausführungsform kann der Prozessor 405 fragen 605, dass der Benutzer angibt, ob ein Display 120, das in der Vergangenheit von dem Sprachassistenten 110 verwendet wurde, verwendet werden soll, um die visuellen Informationen 260 zu präsentieren. Beispielsweise kann der Prozessor 405 fragen 605 „Ich habe visuelle Informationen. Soll ich die visuellen Informationen auf Ihrem Telefon präsentieren?” Die Display-Adresse 220 kann die logische Adresse, die Anschlussadresse, einen Berechtigungsnachweis des elektronischen Gerätes und andere Informationen für ein Display 120, das in der Vergangenheit verwendet wurde, in der Display-Adresse 220 speichern.
  • Der Prozessor 405 kann den Benutzer fragen 605, ein Display 120 vorzuschlagen, auf dem die visuellen Informationen 260 zu präsentieren sind. Beispielsweise kann der Prozessor 405 fragen 605 „Ich habe visuelle Informationen. Wo soll ich die visuellen Informationen präsentieren?”
  • Der Prozessor 405 kann bestimmen 610, ob eine Display-Angabe des Benutzers von dem Benutzer empfangen wird. Die Display-Angabe des Benutzers kann die Aktivierung einer Kopplungsfunktion an dem elektronischen Gerät 125 sein. Alternativ kann die Display-Angabe des Benutzers ein hörbarer Befehl 205 sein, der ein elektronisches Gerät 125 und/oder ein Display 120 identifiziert. Beispielsweise kann die Display-Angabe des Benutzers der Ausdruck „auf meinem Telefon” sein, der die Gerätekennung „Telefon” umfasst. Der Prozessor 405 kann als Reaktion auf die Gerätekennung „Telefon” ein elektronisches Mobiltelefon-Gerät 125 identifizieren.
  • Zudem kann die Display-Angabe des Benutzers eine positive Antwort auf einen Vorschlag sein, ein Display 120 zu verwenden, welches in der Vergangenheit verwendet wurde. Beispielsweise kann der Benutzer auf die Frage „Ich habe visuelle Informationen. Soll ich die visuellen Informationen auf Ihrem Telefon präsentieren?” mit „Ja” antworten. Der Prozessor 405 kann unter Verwendung der Gerätekennung „Telefon” das elektronische Mobiltelefon-Gerät 125 identifizieren.
  • Falls die Display-Angabe des Benutzers empfangen wird, bestimmt der Prozessor 620, ob das Display 120, das durch die Anzeige-Angabe des Benutzers angegeben wird, zugänglich ist, wie es nachstehend beschrieben wird. Falls keine Display-Angabe des Benutzers empfangen wird, identifiziert 615 der Prozessor 405 ein sichtbares Display 120.
  • Der Prozessor 405 kann ein sichtbares Display 120, identifizieren 615, falls das Display 120 in einem sichtbaren Radius des Benutzers liegt. Bei einer Ausführungsform wird der Standort des Displays 120 aus der Stärke der Kommunikationen zwischen dem elektronischen Gerät 125, welches das Display 120 hostet, und dem Sprachassistenten 110 und/oder dem Netzwerk 115 bestimmt. Zudem kann der Prozessor 405 ein sichtbares Display 120 identifizieren, falls der Benutzer von der Kamera 145 des elektronischen Gerätes 125, welches das Display 120 hostet, identifiziert werden kann.
  • Der Prozessor 405 kann bestimmen 620, ob das Display 120, das durch die Display-Angabe des Benutzers angegeben wird und/oder als sichtbares Display 120 identifiziert wird, zugänglich ist. Bei einer Ausführungsform bestimmt 620 der Prozessor 405, ob die Display-Adresse 220 Informationen zum Zugreifen auf das elektronische Gerät 125, welches das Display 120 hostet, umfasst.
  • Alternativ kann der Prozessor 405 das elektronische Gerät 125, welches das Display hostet, befragen. Der Prozessor 405 kann die Display-Adresse 220 für das elektronische Gerät 125 unter Verwendung von Informationen generieren, die als Reaktion auf die Anfrage empfangen werden. Bei einer Ausführungsform ist das Display 120 zugänglich, falls das elektronische Gerät 125, welches das Display 120 hostet, den Berechtigungsnachweis ds elektronischen Gerätes bereitstellt.
  • Falls das Display 120 nicht zugänglich ist, dann ist das Verfahren 600 beendet. Falls das Display 120 zugänglich ist, kann der Prozessor 405 das zugängliche Display 120 identifizieren, und das Verfahren ist beendet. Bei einer Ausführungsform wird eine Vielzahl von zugänglichen Displays 120 identifiziert und dem Benutzer in dem Menü präsentiert. Der Benutzer kann eines der zugänglichen Displays 120 auswählen, und das ausgewählte Display 120 wird als zugängliches Display 120 identifiziert 625.
  • 5C ist ein schematisches Ablaufschema, das eine Ausführungsform eines Verfahrens 700 zum Auswählen visueller Informationen abbildet. Das Verfahren 700 kann bestimmen, ob visuelle Informationen 260 als Reaktion auf den hörbaren Befehl 205 zu zeigen sind. Zudem kann das Verfahren 700 den Schritt 515 aus 5A ausführen. Das Verfahren 700 kann durch den Sprachassistenten 110, den Server 105 und/oder das elektronische Gerät 125 ausgeführt werden. Zudem kann das Verfahren 700 durch die Prozessoren des Sprachassistenten 110 und/oder des Servers 105 ausgeführt werden.
  • Das Verfahren 700 beginnt, und bei einer Ausführungsform bestimmt 705 der Prozessor 405, ob ein visueller Anfrageaufruf 210 durch den Sprachassistenten 110 empfangen wird. Falls der visuelle Anfrageaufruf 210 empfangen wird, kann der Prozessor 405 visuelle Informationen 260 als Reaktion auf den hörbaren Befehl 205 zeigen 725, und das Verfahren 700 ist beendet. Bei einer Ausführungsform berechnet der Prozessor 405 eine Antwort 215 auf den hörbaren Befehl 205, welche visuelle Informationen 260 umfasst.
  • Falls kein visueller Anfrageaufruf 210 empfangen wird, kann der Prozessor 405 eine Vielzahl von Antworten 215 auf den hörbaren Befehl 205 berechnen. Der Prozessor 405 kann die Vielzahl von Antworten 215 berechnen, wie in Schritt 510 aus 5A beschrieben.
  • Der Prozessor 405 kann ferner die Vielzahl von Antworten durch das Berechnen der Antworteinstufungen 255 für jede Antwort 215 einstufen 715. Jede Antworteinstufung 255 kann als Funktion des hörbaren Befehls 205 und/oder der Antwort 215 berechnet werden.
  • Der Prozessor 405 kann bestimmen 720, ob die am höchsten eingestufte Antwort 215 auf den hörbaren Befehl 205 visuelle Informationen 260 umfasst. Falls die am höchsten eingestufte Antwort 215 auf den hörbaren Befehl 205 visuelle Informationen 260 umfasst, kann der Prozessor 405 bestimmen, die am höchsten eingestufte Antwort 215 und die visuellen Informationen 260 zu zeigen, und das Verfahren 700 ist beendet. Falls die am höchsten eingestufte Antwort 215 auf den hörbaren Befehl 205 keine visuellen Informationen 260 umfasst, ist das Verfahren 700 beendet. Zudem kann der Prozessor 405 dem Benutzer die hörbaren Informationen für die am höchsten eingestufte Antwort 215 präsentieren.
  • Die Ausführungsformen bestimmen, visuelle Informationen als Reaktion auf einen hörbaren Befehl 205 von einem Benutzer zu zeigen. Die Ausführungsformen können bestimmen, die visuellen Informationen 260 zu zeigen, falls eine geeignete Antwort 215 die visuellen Informationen 260 umfasst. Die Bestimmung, die visuellen Informationen 260 zu zeigen, kann deshalb erfolgen, weil eine Antwort 215 mit visuellen Informationen 260 am höchsten eingestuft ist. Alternativ kann die Bestimmung, die visuellen Informationen 260 zu zeigen, als Reaktion auf einen visuellen Anfrageaufruf 210 erfolgen.
  • Die Ausführungsformen identifizieren ferner ein Display 120, welches der Benutzer betrachten kann und auf das über die Kommunikations-Hardware 415 des Sprachassistenten 110 zugegriffen werden kann. Dem Sprachassistent 110 fehlt ein systemeigenes Display 120, so dass die Verwendung eines Displays 120 notwendig ist, das von einem anderen elektronischen Gerät 125 gehostet wird. Die Ausführungsformen präsentieren die visuellen Informationen 260 auf dem Display 120 des elektronischen Gerätes 125 über die Kommunikations-Hardware 415, wodurch der Benutzer die visuellen Informationen 216 als Reaktion auf den hörbaren Befehl 205 empfangen kann.
  • Die Ausführungsformen können in anderen spezifischen Formen umgesetzt werden. Die beschriebenen Ausführungsformen sind in jeder Hinsicht als rein exemplarisch und nicht als einschränkend anzusehen. Der Umfang der Erfindung wird daher durch die beiliegenden Ansprüche anstatt durch die vorstehende Beschreibung angegeben. Alle Änderungen, die unter die Bedeutung und in den Bereich der Gleichwertigkeit der Ansprüche fallen, sollen in ihrem Umfang enthalten sein.

Claims (20)

  1. Vorrichtung, umfassend: – Kommunikations-Hardware; – einen Prozessor; – einen Speicher, der Code speichert, der durch den Prozessor ausführbar ist, zum: – Bestimmen, dass visuelle Informationen als Reaktion auf einen hörbaren Befehl von einem Benutzer gezeigt werden; – Identifizieren eines Displays, das der Benutzer betrachten kann und auf das über die Kommunikations-Hardware zugegriffen werden kann; und – Präsentieren der visuellen Informationen auf dem Display über die Kommunikations-Hardware.
  2. Vorrichtung nach Anspruch 1, wobei das Display von der Vorrichtung getrennt und eigenständig ist.
  3. Vorrichtung nach Anspruch 1, wobei die visuellen Informationen eines oder mehrere von einem Bild, einem Video, einer Tabelle und einer Grafik umfassen.
  4. Vorrichtung nach Anspruch 1, wobei der Prozessor bestimmt, dass die visuellen Informationen zu zeigen sind, falls der hörbare Befehl einen visuellen Anfrageaufruf umfasst.
  5. Vorrichtung nach Anspruch 1, wobei der Prozessor bestimmt, dass die visuellen Informationen zu zeigen sind, falls die am höchsten eingestufte Antwort auf den hörbaren Befehl die visuellen Informationen umfasst.
  6. Vorrichtung nach Anspruch 1, wobei der Code ferner durch den Prozessor ausführbar ist, um die visuellen Informationen zu bearbeiten, damit diese auf das Display passen.
  7. Vorrichtung nach Anspruch 6, wobei das Bearbeiten der visuellen Informationen eines oder mehrere von Ändern der Größe der visuellen Informationen, Zuschneiden der visuellen Informationen, Ändern der Größe der Spalten der visuellen Informationen, Ändern der Größe der Zeilen der visuellen Informationen, Hinzufügen von Spalten zu den visuellen Informationen und Hinzufügen von Zeilen zu den visuellen Informationen umfasst.
  8. Vorrichtung nach Anspruch 1, wobei die hörbaren Befehlsdaten für den hörbaren Befehl eines oder mehrere von einem visuellen Anfrageaufruf, einer oder mehreren Antworten, einer Display-Adresse für das Display und einer Display-Größe für das Display umfassen.
  9. Verfahren, umfassend folgende Schritte: – Bestimmen, unter Verwendung eines Prozessors, dass visuelle Informationen als Reaktion auf einen hörbaren Befehl von einem Benutzer gezeigt werden; – Identifizieren eines Displays, das der Benutzer betrachten kann und auf das über Kommunikations-Hardware zugegriffen werden kann; und – Präsentieren der visuellen Informationen auf dem Display über die Kommunikations-Hardware.
  10. Verfahren nach Anspruch 9, wobei das Display von einem Sprachassistenten, der bestimmt, die visuellen Informationen zu zeigen, getrennt und eigenständig ist.
  11. Verfahren nach Anspruch 9, wobei die visuellen Informationen eines oder mehrere von einem Bild, einem Video, einer Tabelle und einer Grafik umfassen.
  12. Verfahren nach Anspruch 9, wobei das Verfahren bestimmt, dass die visuellen Informationen zu zeigen sind, falls der hörbare Befehl einen visuellen Anfrageaufruf umfasst.
  13. Verfahren nach Anspruch 9, wobei das Verfahren bestimmt, dass die visuellen Informationen zu zeigen sind, falls die am höchsten eingestufte Antwort auf den hörbaren Befehl die visuellen Informationen umfasst.
  14. Verfahren nach Anspruch 9, wobei das Verfahren ferner das Bearbeiten der visuellen Informationen umfasst, damit diese auf das Display passen.
  15. Verfahren nach Anspruch 14, wobei das Bearbeiten der visuellen Informationen eines oder mehrere von Ändern der Größe der visuellen Informationen, Zuschneiden der visuellen Informationen, Ändern der Größe der Spalten der visuellen Informationen, Ändern der Größe der Zeilen der visuellen Informationen, Hinzufügen von Spalten zu den visuellen Informationen und Hinzufügen von Zeilen zu den visuellen Informationen umfasst.
  16. Verfahren nach Anspruch 9, wobei die hörbaren Befehlsdaten für den hörbaren Befehl eines oder mehrere von einem visuellen Anfrageaufruf, einer oder mehreren Antworten, einer Display-Adresse für das Display und einer Display-Größe für das Display umfassen.
  17. Programmprodukt, umfassend ein computerlesbares Speichermedium, das Code speichert, der durch einen Prozessor ausführbar ist, wobei der ausführbare Code Code umfasst, um Folgendes auszuführen: – Bestimmen, dass visuelle Informationen als Reaktion auf einen hörbaren Befehl von einem Benutzer gezeigt werden; – Identifizieren eines Displays, das der Benutzer betrachten kann und auf das über Kommunikations-Hardware zugegriffen werden kann; und – Präsentieren der visuellen Informationen auf dem Display über die Kommunikations-Hardware.
  18. Programmprodukt nach Anspruch 17, wobei die visuellen Informationen eines oder mehrere von einem Bild, einem Video, einer Tabelle und einer Grafik umfassen.
  19. Programmprodukt nach Anspruch 17, wobei der Prozessor bestimmt, dass die visuellen Informationen zu zeigen sind, falls der hörbare Befehl einen visuellen Anfrageaufruf umfasst.
  20. Programmprodukt nach Anspruch 17, wobei der Prozessor bestimmt, dass die visuellen Informationen zu zeigen sind, falls die am höchsten eingestufte Antwort auf den hörbaren Befehl die visuellen Informationen umfasst.
DE102017119814.8A 2016-08-31 2017-08-29 Präsentieren visueller informationen auf einem display Pending DE102017119814A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/253,390 US10521187B2 (en) 2016-08-31 2016-08-31 Presenting visual information on a display
US15/253,390 2016-08-31

Publications (1)

Publication Number Publication Date
DE102017119814A1 true DE102017119814A1 (de) 2018-03-01

Family

ID=61166834

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017119814.8A Pending DE102017119814A1 (de) 2016-08-31 2017-08-29 Präsentieren visueller informationen auf einem display

Country Status (3)

Country Link
US (1) US10521187B2 (de)
CN (1) CN107808666B (de)
DE (1) DE102017119814A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177510A (ja) * 2019-04-19 2020-10-29 コニカミノルタ株式会社 ユーザインターフェイス装置および画像形成装置
KR20210068901A (ko) * 2019-12-02 2021-06-10 삼성전자주식회사 음성 기반 인터페이스를 제공하는 전자 장치 및 그의 제어 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7721301B2 (en) * 2005-03-31 2010-05-18 Microsoft Corporation Processing files from a mobile device using voice commands
US7792674B2 (en) * 2007-03-30 2010-09-07 Smith Micro Software, Inc. System and method for providing virtual spatial sound with an audio visual player
US20120278759A1 (en) * 2008-05-07 2012-11-01 Carrot Medical Llc Integration system for medical instruments with remote control
US20100017466A1 (en) * 2008-06-17 2010-01-21 Douglas Trauner System and method for dynamic processing of measurement metrics and tagging measurement metrics
US20100241507A1 (en) * 2008-07-02 2010-09-23 Michael Joseph Quinn System and method for searching, advertising, producing and displaying geographic territory-specific content in inter-operable co-located user-interface components
US8442498B2 (en) * 2008-12-19 2013-05-14 Verizon Patent And Licensing Inc. Methods, systems and computer program products for remote DVR interface provisioning
US20100175026A1 (en) * 2009-01-05 2010-07-08 Bortner Christopher F System and method for graphical content and media management, sorting, and retrieval
US8825668B2 (en) * 2011-11-16 2014-09-02 Google Inc. Method and apparatus for updating song playlists based on received user ratings
US20130322689A1 (en) * 2012-05-16 2013-12-05 Ubiquity Broadcasting Corporation Intelligent Logo and Item Detection in Video
US9098163B2 (en) * 2012-07-20 2015-08-04 Sony Corporation Internet TV module for enabling presentation and navigation of non-native user interface on TV having native user interface using either TV remote control or module remote control
US20140073255A1 (en) * 2012-09-07 2014-03-13 Google Inc. System and method for interacting with content of an electronic device
US10152459B2 (en) * 2013-02-20 2018-12-11 Google Llc Intelligent window placement with multiple windows using high DPI screens
US10133546B2 (en) * 2013-03-14 2018-11-20 Amazon Technologies, Inc. Providing content on multiple devices
KR20150068828A (ko) * 2013-12-12 2015-06-22 삼성전자주식회사 영상표시장치, 영상표시장치의 구동방법, 영상표시방법 및 컴퓨터 판독가능 기록매체
US10209853B2 (en) * 2013-12-20 2019-02-19 Robert Bosch Gmbh System and method for dialog-enabled context-dependent and user-centric content presentation
CN104751740A (zh) * 2013-12-25 2015-07-01 珠海格力电器股份有限公司 显示方法、显示器件和天井式空调机
RU2014111971A (ru) * 2014-03-28 2015-10-10 Юрий Михайлович Буров Способ и система голосового интерфейса
US20160070580A1 (en) * 2014-09-09 2016-03-10 Microsoft Technology Licensing, Llc Digital personal assistant remote invocation
US9860306B2 (en) * 2014-09-24 2018-01-02 Microsoft Technology Licensing, Llc Component-specific application presentation histories

Also Published As

Publication number Publication date
CN107808666B (zh) 2021-11-23
US20180060030A1 (en) 2018-03-01
CN107808666A (zh) 2018-03-16
US10521187B2 (en) 2019-12-31

Similar Documents

Publication Publication Date Title
DE102017007998A1 (de) Produktempfehlungen auf der basis von ansichten einer erweiterten realität
DE102018004974A1 (de) Globale Vektorempfehlungen auf der Basis von impliziten Interaktions- und Profildaten
DE112017001416T5 (de) Benutzerschnittstellenelement zum Anzeigen ähnlicher Ergebnisse
DE112019005489T5 (de) Bestimmung visueller attribute zur inhaltsauswahl
DE102009040570A1 (de) Verfahren und System zum Erzeugen eines dynamischen Hilfe-Dokuments
DE102016125508A1 (de) Auffindbarkeitssystem für Sprachaktionen
DE112019000687T5 (de) Fotorealistische dreidimensionale texturierung unter verwendung kanonischer ansichten und eines zweistufigen ansatzes
DE102020007191A1 (de) Maschinelles Lernen zur Digitalbildauswahl unter Objektvarianten
DE102013017085A1 (de) System für eine tiefe Verknüpfung und Suchmaschinenunterstützung für Webseiten, in die eine Drittanwendung und Komponenten integriert sind
DE102013210891A1 (de) Dynamisches Substituieren von Übersetzungen
DE112018005087T5 (de) Verbesserung von suchabfragen durch kontextanalyse
DE102018103468A1 (de) Informationsverarbeitungssystem, informationsverarbeitungsverfahren und programm
DE202016008323U1 (de) Das Einbeziehen auswählbarer Anwendungslinks in Konversationen mit persönlichen Assistenz-Modulen
DE112015005186T5 (de) Strukturierte Entitätsinformationsseite
DE102017005964A1 (de) Techniken zum Auswählen von Objekten in Bildern
DE102013213047A1 (de) System, Verfahren und Computerprogrammprodukt zum Testen von Vorrichtungsparametern
DE112019000206T5 (de) Dynamisches Erstellen und Konfigurieren eines Lernmodells für Dialogagenten
DE102014117895A1 (de) Hinweis-basierte Spot-Healing-Techniken
DE112021000226T5 (de) Mensch-maschine-interaktion verfahren und vorrichtung, speichermedium undelektronisches gerät
DE112016000962T5 (de) System und verfahren zur strukturierung von bewertungen mit automatisch erzeugten tags
DE112015004331T5 (de) Benachrichtigen von Nutzern über relevante Inhalte
DE112013000393T5 (de) Zuordnung von Webanwendungsinhalten
DE202017105856U1 (de) Benachrichtigungssystem mit inhaltsspezifischen Schlüsselworten
DE102014011901A1 (de) Auf einem Vorrichtungskontext basierende Benutzerschnittstelle
DE102015103401A1 (de) Tragbares Gerät mit einer öffentlichen Anzeige und privaten Anzeigebereichen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE