DE102018101477A1 - Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm - Google Patents

Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm Download PDF

Info

Publication number
DE102018101477A1
DE102018101477A1 DE102018101477.5A DE102018101477A DE102018101477A1 DE 102018101477 A1 DE102018101477 A1 DE 102018101477A1 DE 102018101477 A DE102018101477 A DE 102018101477A DE 102018101477 A1 DE102018101477 A1 DE 102018101477A1
Authority
DE
Germany
Prior art keywords
request
user
information
information processing
context
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018101477.5A
Other languages
English (en)
Inventor
Kazunori Araki
Shusuke Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE102018101477A1 publication Critical patent/DE102018101477A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4812Task transfer initiation or dispatching by interrupt, e.g. masked
    • G06F9/4831Task transfer initiation or dispatching by interrupt, e.g. masked with variable priority
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/48Indexing scheme relating to G06F9/48
    • G06F2209/486Scheduler internals

Abstract

Es wird eine Informationsverarbeitungsvorrichtung bereitgestellt, umfassend: eine Detektionseinheit, ausgelegt zum Detektieren eines Kontexts in Bezug auf einen Benutzer; und eine Anforderungsverarbeitungseinheit, ausgelegt zum Bestimmen auf einer Basis des Kontexts, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist.

Description

  • VERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung beansprucht den Nutzen der japanischen Prioritäts-Patentanmeldung JP 2017-010850 , eingereicht am 25.1.2017, deren gesamte Inhalte hiermit durch Bezugnahme aufgenommen werden.
  • STAND DER TECHNIK
  • Die vorliegende Offenbarung betrifft eine Informationsverarbeitungsvorrichtung, ein Informationsverarbeitungsverfahren und ein Programm.
  • In den letzten Jahren sind verschiedene Arten von Technologien zum Verarbeiten von Anforderungen von Benutzern bekannt gewesen. Zum Beispiel gibt es offenbarte Technologien zum Bestimmen, ob einer neuen Anforderung zu unterbrechen erlaubt wird, abhängig davon, ob die Unterbrechung erlaubt ist, falls die neue Anforderung im Eingang zusätzlich zu einer Anforderung, die sich gerade in Verarbeitung befindet (siehe JP H7-121226A ).
  • KURZFASSUNG
  • Es ist jedoch erwünscht, eine Technologie bereitzustellen, die geeigneter bestimmen kann, welche Anforderung vorzugsweise zu verarbeiten ist.
  • Gemäß einer Ausführungsform der vorliegenden Offenbarung wird eine Informationsverarbeitungsvorrichtung bereitgestellt, umfassend: eine Detektionseinheit, ausgelegt zum Detektieren eines Kontexts in Bezug auf einen Benutzer; und eine Anforderungsverarbeitungseinheit, ausgelegt zum Bestimmen auf einer Basis des Kontexts, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist.
  • Gemäß einer Ausführungsform der vorliegenden Offenbarung wird ein Informationsverarbeitungsverfahren bereitgestellt, umfassend: Detektieren eines Kontexts in Bezug auf einen Benutzer; und Bestimmen durch einen Prozessor auf einer Basis des Kontexts, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist.
  • Gemäß einer Ausführungsform der vorliegenden Offenbarung wird ein Programm bereitgestellt, das bewirkt, dass ein Computer als Informationsverarbeitungsvorrichtung fungiert, die Folgendes umfasst: eine Detektionseinheit, ausgelegt zum Detektieren eines Kontexts in Bezug auf einen Benutzer; und eine Anforderungsverarbeitungseinheit, ausgelegt zum Bestimmen auf einer Basis des Kontexts, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist.
  • Wie oben beschrieben stellen die Ausführungsformen der vorliegenden Offenbarung Technologien bereit, die geeigneter bestimmen können, welche Anforderung vorzugsweise zu verarbeiten ist. Man beachte, dass die oben beschriebenen Effekte nicht notwendigerweise einschränkend sind. Mit den obigen Effekten oder anstelle dieser können ein beliebiger der in der vorliegenden Patentschrift beschriebenen Effekte oder andere Effekte erzielt werden, die aus der vorliegenden Patentschrift erfasst werden können.
  • Figurenliste
    • 1 ist eine Darstellung eines Konfigurationsbeispiels für ein Informationsverarbeitungssystem gemäß einer ersten Ausführungsform;
    • 2 ist eine Darstellung eines Funktionskonfigurationsbeispiels für einen Agenten;
    • 3 ist eine Darstellung eines ausführlichen Konfigurationsbeispiels für eine Steuereinheit;
    • 4 ist eine Blockdarstellung eines Funktionskonfigurationsbeispiels für eine Servervorrichtung gemäß der ersten Ausführungsform;
    • 5 ist eine Darstellung eines Beispiels für Kontextlisteninformationen;
    • 6 ist eine Darstellung eines Konfigurationsbeispiels für relevante Informationen, in denen Kontexte, Attributinformationen und Prioritäten miteinander assoziiert sind;
    • 7 ist eine Darstellung eines Beispiels für eine Anforderungswarteschlangentabelle;
    • 8 ist eine Darstellung eines Beispiels für ein Schirmbild, das einem Benutzer präsentiert wird, falls eine Unterbrechung auftritt;
    • 9 ist eine Darstellung eines Beispiels für eine Sprachnachricht, die einem Benutzer präsentiert wird, falls eine Unterbrechung auftritt;
    • 10 ist eine Darstellung eines Beispiels für Berechnung von Prioritäten von Anforderungen, falls mehrere Kontexte detektiert werden und Attributtypen identisch sind;
    • 11 ist eine Darstellung eines Beispiels für Berechnung von Prioritäten von Anforderungen, falls mehrere Kontexte gelöscht werden und Attributtypen voneinander verschieden sind;
    • 12 ist eine Darstellung eines Beispiels für das Umlenken relevanter Informationen eines anderen Benutzers;
    • 13 ist eine Darstellung eines Beispiels für relevante Informationen, die zusätzlich mit Konfidenzgraden auf der Basis von Rückmeldung von Benutzern assoziiert sind;
    • 14 ist ein Flussdiagramm eines Beispiels für Operation des sequentiellen Extrahierens und Verarbeitens von Anforderungen aus einer Anforderungswarteschlange;
    • 15 ist ein Flussdiagramm eines Beispiels für Operation, die durchgeführt wird, wenn eine neue Anforderung eingegeben wird, falls es eine Anforderung gibt, die sich in Verarbeitung befindet;
    • 16 ist eine Darstellung eines Konfigurationsbeispiels für ein Informationsverarbeitungssystem gemäß einer zweiten Ausführungsform;
    • 17 ist eine Darstellung eines ausführlichen Konfigurationsbeispiels für eine Steuereinheit;
    • 18 ist eine Darstellung eines Funktionskonfigurationsbeispiels für eine Servervorrichtung gemäß der zweiten Ausführungsform;
    • 19 ist eine Darstellung eines Beispiels für eine Aufgabenstatustabelle;
    • 20 ist ein Flussdiagramm eines Beispiels für Operation, die durch einen Agenten ausgeführt wird, um zu bestimmen, ob eine Anforderung als ein Ausführungsziel zu setzen ist oder nicht;
    • 21 ist ein Flussdiagramm eines Beispiels für Operation, die durch eine Servervorrichtung ausgeführt wird, um zu bestimmen, ob eine Anforderung als ein Ausführungsziel zu setzen ist oder nicht;
    • 22 ist ein Flussdiagramm eines anderen Beispiels für Operation, die durch eine Servervorrichtung ausgeführt wird, um einen Agenten zur Ausführung einer Anforderung auszuwählen;
    • 23 ist eine Darstellung eines Konfigurationsbeispiels für ein Informationsverarbeitungssystem gemäß einer dritten Ausführungsform;
    • 24 ist eine Darstellung eines Konfigurationsbeispiels für eine Steuereinheit;
    • 25 ist ein Flussdiagramm eines Beispiels für Operation, die durch einen Agenten (Kindervorrichtung) ausgeführt wird, um zu bestimmen, ob eine Anforderung als ein Ausführungsziel zu setzen ist oder nicht;
    • 26 ist ein Flussdiagramm eines Beispiels für Operation, die durch einen Agenten (Elternvorrichtung) ausgeführt wird, um einen Agenten zur Ausführung einer Anforderung auszuwählen;
    • 27 ist ein Flussdiagramm eines anderen Beispiels für Operation, die durch einen Agenten (Elternvorrichtung) ausgeführt wird, um einen Agenten zur Ausführung einer Anforderung auszuwählen;
    • 28 ist eine Darstellung eines Konfigurationsbeispiels für ein Informationsverarbeitungssystem gemäß einer vierten Ausführungsform;
    • 29 ist eine Darstellung eines ausführlichen Konfigurationsbeispiels für eine Steuereinheit;
    • 30 ist eine Darstellung eines Beispiels für Korrespondenzbeziehungen zwischen Bedingungen und Präsentationsmodi;
    • 31 ist eine Darstellung eines Beispiels für eine Korrespondenzbeziehung zwischen Bedingungen und Präsentationsmodi für jeden Benutzer;
    • 32 ist eine Darstellung eines Beispiels für eine Korrespondenzbeziehung zwischen Bedingungen und Präsentationsmodi für jeden Benutzer;
    • 33 ist eine Darstellung eines Beispiels für Präsentation in einem Sprach-Hauptpräsentationsmodus;
    • 34 ist eine Darstellung eines Beispiels für Präsentation in einem Sprache-und-Video-Präsentationsmodus;
    • 35 ist eine Darstellung eines Beispiels für Präsentation in einem Sprache-und-Video-Präsentationsmodus;
    • 36 ist eine Darstellung eines anderen Beispiels für Präsentation in einem Sprach-Hauptpräsentationsmodus;
    • 37 ist eine Darstellung eines anderen Beispiels für Präsentation in einem Sprache-und-Video-Präsentationsmodus;
    • 38 ist eine Darstellung eines anderen Beispiels für Präsentation in einem Sprache-und-Video-Präsentationsmodus;
    • 39 ist ein Flussdiagramm eines Beispiels für Operation, einem Benutzer Präsentationsinformationen als Reaktion auf eine durch den Benutzer eingegebene Anforderung zu präsentieren;
    • 40 ist eine Darstellung einer Anzeigeeinheit und eines Schirms gemäß einer ersten Modifikation;
    • 41 ist eine Darstellung einer Anzeigeeinheit und eines Schirms gemäß einer zweiten Modifikation;
    • 42 ist eine Darstellung einer Anzeigeeinheit und eines Schirms gemäß einer dritten Modifikation;
    • 43 ist eine Darstellung einer Anzeigeeinheit und eines Schirms gemäß einer vierten Modifikation;
    • 44 ist eine Darstellung einer Anzeigeeinheit und eines Schirms gemäß einer fünften Modifikation;
    • 45 ist eine Darstellung eines Beispiels für Präsentation von Präsentationsinformationen angesichts Zuständen mehrerer Benutzer; und
    • 46 ist eine Blockdarstellung eines Hardware-Konfigurationsbeispiels für eine Informationsverarbeitungsvorrichtung.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORM(EN)
  • Im Folgenden wird eine bevorzugte Ausführungsform bzw. werden bevorzugte Ausführungsformen der vorliegenden Offenbarung ausführlich unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Man beachte, dass in der vorliegenden Patentschrift und in den angefügten Zeichnungen Strukturelemente, die im Wesentlichen dieselbe Funktion und Struktur aufweisen, mit denselben Bezugszahlen bezeichnet werden und wiederholte Erläuterung dieser Strukturelemente unterlassen wird.
  • Außerdem werden in der vorliegenden Patentschrift und in den Zeichnungen mehrere Strukturelemente, die im Wesentlichen dieselbe oder ähnliche Funktion und Struktur aufweisen, manchmal durch Verwendung verschiedener Alphabete nach denselben Bezugszahlen voneinander unterschieden. Falls es jedoch nicht notwendig ist, die mehrere Strukturelemente, die im Wesentlichen dieselbe oder ähnliche Funktion und Struktur aufweisen, besonders zu unterscheiden, wird dieselbe Bezugszahl alleine angefügt. Außerdem werden ähnliche Strukturelemente gemäß verschiedenen Ausführungsformen manchmal unter Verwendung verschiedener Alphabete nach denselben Bezugszahlen voneinander unterschieden. Falls es jedoch nicht notwendig ist, solche ähnlichen Strukturelemente besonders zu unterscheiden, wird dieselbe Bezugszahl alleine angefügt.
  • Man beachte, dass die Beschreibung in der folgenden Reihenfolge gegeben wird.
  • 0.
    Übersicht (vorzugsweise zu verarbeitende Anforderung)
    1.
    Erste Ausführungsform
    1.1.
    Systemkonfigurationsbeispiel
    1.2.
    Funktionskonfigurationsbeispiel für Agenten
    1.3.
    Funktionskonfigurationsbeispiel für Servervorrichtung
    1.4.
    Einzelheiten von Funktionen des Informationsverarbeitungssystems
    1.5.
    Operationsbeispiel
    2.
    Zweite Ausführungsform
    2.1.
    Systemkonfigurationsbeispiel
    2.2.
    Funktionskonfigurationsbeispiel für Agenten
    2.3.
    Funktionskonfigurationsbeispiel für Servervorrichtung
    2.4.
    Einzelheiten von Funktionen des Informationsverarbeitungssystems
    2.5.
    Operationsbeispiel
    3.
    Dritte Ausführungsform
    3.1.
    Systemkonfigurationsbeispiel
    3.2.
    Funktionskonfigurationsbeispiel für übergeordnete Vorrichtung
    3.3.
    Operationsbeispiel
    4.
    Übersicht (Steuerung von dem Benutzer zu präsentierenden Informationen)
    5.
    Vierte Ausführungsform
    5.1.
    Systemkonfigurationsbeispiel
    5.2.
    Funktionskonfigurationsbeispiel für Agenten
    5.3.
    Einzelheiten von Funktionen des Informationsverarbeitungssystems
    5.4.
    Operationsbeispiel
    5.5.
    Proaktive Präsentation vom Agenten
    5.6.
    Anzeigeeinheit und Schirm gemäß Modifikationen
    5.7.
    Beispiel für Präsentation gemäß mehreren Benutzern
    6.
    Hardware-Konfigurationsbeispiel
    7.
    Schlussbemerkungen
  • < Übersicht (vorzugsweise zu verarbeitende Anforderung)>
  • Als Erstes wird eine Übersicht über eine Technologie zum Bestimmen, welche Anforderung vorzugsweise zu verarbeiten ist, beschrieben. In den letzten Jahren sind verschiedene Arten von Technologien zum Verarbeiten von Anforderungen von Benutzern bekannt gewesen. Zum Beispiel gibt es offenbarte Technologien zum Bestimmen, ob einer neuen Anforderung zu unterbrechen zu erlauben ist, abhängig davon, ob die Unterbrechung erlaubt ist, falls die neue Anforderung zusätzlich zu einer Anforderung, die aktuell verarbeitet wird, eingegeben wird.
  • Außerdem sind Technologien zum Bestimmen, welche Anforderung vorzugsweise zu verarbeiten ist, auf der Basis von mit Anforderungen assoziierten Prioritäten bekannt gewesen. Solche Prioritäten werden manuell im Voraus durch einen Benutzer in anfänglichen Einstellungen oder dergleichen registriert. Es ist jedoch schwierig, geeigneter zu bestimmen, welche Anforderung vorzugsweise zu verarbeiten ist, falls die im Voraus registrierten Prioritäten sich nicht ändern.
  • Spezieller wird angenommen, dass eine Mutter und ein Kind an einem Morgen vor dem zur-Arbeit-Gehen einen Agenten benutzen. Zu diesem Zeitpunkt fragt ein Vater den Agenten nach Verkehrsinformationen. In einer solchen Situation sollte eine Priorität der durch den Vater eingegebenen Anforderung vergrößert werden. Falls jedoch dem Vater keine hohe Priorität gesetzt ist, kann die Anforderung vom Vater manchmal ignoriert oder zurückgestellt werden.
  • Deshalb wird in der vorliegenden Patentschrift hauptsächlich eine Technologie beschrieben, die geeigneter bestimmen kann, welche Anforderung vorzugsweise zu verarbeiten ist.
  • Es wurde die Übersicht über die Technologie zum Bestimmen, welche Anforderung vorzugsweise zu verarbeiten ist, beschrieben.
  • < Erste Ausführungsform>
  • Als Erstes wird eine erste Ausführungsform beschrieben.
  • [ Systemkonfigurationsbeispiel]
  • Als Erstes wird unter Bezugnahme auf die beigefügten Zeichnungen ein Konfigurationsbeispiel für ein Informationsverarbeitungssystem gemäß der ersten Ausführungsform beschrieben. 1 ist eine Darstellung eines Konfigurationsbeispiels für das Informationsverarbeitungssystem gemäß der ersten Ausführungsform. Wie in 1 dargestellt, umfasst ein Informationsverarbeitungssystem 1A gemäß der ersten Ausführungsform eine Informationsverarbeitungsvorrichtung 10A, Steuerungen 20-1 bis 20-N (N ist eine natürliche Zahl) und eine Servervorrichtung 30A. Die Informationsverarbeitungsvorrichtung 10A und die Servervorrichtung 30A sind in der Lage, über ein Kommunikationsnetzwerk 931 miteinander zu kommunizieren.
  • Außerdem beschreibt die vorliegende Patentschrift hauptsächlich einen Fall, dass die Informationsverarbeitungsvorrichtung 10A ein Agent ist, der dafür ausgelegt ist, Ausführung der Verarbeitung von Anforderungen (wie etwa einer nachfolgend zu beschreibenden ersten Anforderung und zweiten Anforderung) im Namen von Benutzern U-1 bis U-N zu steuern. Deshalb wird die Informationsverarbeitungsvorrichtung 10A im Folgenden hauptsächlich als der „Agent“ bezeichnet. Die Informationsverarbeitungsvorrichtung 10A kann durch die Benutzer U-1 bis U-N eingegebene Anforderungen verarbeiten. Die Informationsverarbeitungsvorrichtung 10A ist jedoch nicht auf den Agenten beschränkt.
  • Die vorliegende Patentschrift beschreibt hauptsächlich einen Fall, dass jeder der Benutzer U-1 bis U-N eine einzelne Steuerung 20 benutzten kann. Einige oder alle der Benutzer U-1 bis U-N können jedoch in der Lage sein, mehrere Steuerungen 20 zu benutzen, oder können nicht berechtigt sein, irgendeine Steuerung 20 zu benutzen. Wenn die Steuerung 20 Operationseingaben durch den Benutzer U empfängt, sendet die Steuerung 20 eine der Operation entsprechende Anforderung zu dem Agenten 10A. Die Steuerung 20 kann eine Fernbedienung oder ein Smartphone sein.
  • Außerdem ist es auch möglich, dass jeder der Benutzer U-1 bis U-N durch Sprache eine Anforderung an den Agenten 10 eingibt. Man beachte, dass im Folgenden die Wörter „Sprache“ (oder „Sprechen“) und das Wort „Ton“ verschieden verwendet werden. Zum Beispiel bedeutet mit Bezug auf durch den Agenten 10 gesammelten Ton „Sprache“ und „Sprechen“ hauptsächlich das Sprechen eines Benutzers, und der „Ton“ bedeutet sowohl das Sprechen eines Benutzers als auch durch Dinge erzeugten Ton.
  • Außerdem wird angenommen, dass die Servervorrichtung 30A ein Computer, wie etwa eine Servervorrichtung, ist. Die Servervorrichtung 30A verwaltet den Agenten 10A. Man beachte, dass bei der ersten Ausführungsform die Anzahl der Agenten 10A hauptsächlich als eins angenommen wird. Ähnlich wie bei der zweiten Ausführungsform und nachfolgenden Ausführungsformen kann jedoch die Anzahl der Agenten 10A gemäß der ersten Ausführungsform zwei oder mehr sein. In einem solchen Fall kann die Servervorrichtung 30A die mehreren Agenten 10A verwalten.
  • Es wurde oben das Konfigurationsbeispiel für das Informationsverarbeitungssystem 1A gemäß der ersten Ausführungsform beschrieben.
  • [ Funktionskonfigurationsbeispiel für Agenten]
  • Als Nächstes wird ein Funktionskonfigurationsbeispiel für den Agenten 10A beschrieben.
  • 2 ist eine Darstellung des Funktionskonfigurationsbeispiels für den Agenten 10A. Wie in 2A dargestellt, umfasst der Agent 10A eine Tonsammeleinheit 113, eine Bildgebungseinheit 114, eine Distanzdetektionseinheit 115, eine Empfangseinheit 116, eine Steuereinheit 120A, eine Speicherungseinheit 130, eine Kommunikationseinheit 140, eine Anzeigesteuereinheit 160 und eine Tonausgabeeinheit 160. Der Agent 10A und die Steuerung 20 sind in der Lage, über ein Netzwerk (wie etwa ein drahtloses lokales Netzwerk (LAN) oder dergleichen) miteinander zu kommunizieren. Außerdem ist der Agent 10A über das Kommunikationsnetzwerk 931 mit der Servervorrichtung 30 verbunden. Zum Beispiel umfasst das Kommunikationsnetzwerk 931 das Internet.
  • Die Tonsammeleinheit 113 hat eine Funktion des Beschaffens von Ton mittels Tonsammlung. Zum Beispiel umfasst die Tonsammeleinheit 113 ein Mikrofon, und der Ton wird mittels des Mikrofons gesammelt. Die Anzahl der in der Tonsammeleinheit 113 enthaltenen Mikrofone ist nicht speziell begrenzt, solange die Anzahl der Mikrofone eins oder mehr ist. Außerdem sind Positionen des einen oder der mehreren in der Tonsammeleinheit 113 enthaltenen Mikrofone nicht speziell beschränkt. Man beachte, dass die Tonsammeleinheit 113 eine andere Tonsammelvorrichtung als das Mikrofon umfassen kann, solange die Vorrichtung eine Toninformations-Sammelfunktion aufweist.
  • Die Bildgebungseinheit 114 hat eine Funktion des Eingebens eines Bildes mittels Bilderfassung. Zum Beispiel umfasst die Bildgebungseinheit 114 eine Kamera (mit einem Bildsensor), und es wird ein durch die Kamera erfasstes Bild eingegeben. Die Art der Kamera ist nicht beschränkt. Zum Beispiel kann die Kamera eine Weitwinkelkamera, eine Tiefenkamera oder eine Kamera sein, die dafür ausgelegt ist, ein Bild zu beschaffen, das zum Detektieren des Blicks des Benutzers U verwendet wird. Die Anzahl der in der Bildgebungseinheit 114 enthaltenen Kameras ist nicht speziell beschränkt, solange die Anzahl der Kameras eins oder mehr ist. Außerdem sind Positionen der einen oder mehreren in der Bildgebungseinheit 114 enthaltenen Kameras nicht speziell beschränkt. Außerdem können die eine oder mehreren Kameras eine monokulare Kamera umfassen oder eine Stereokamera umfassen.
  • Die Distanzdetektionseinheit 115 hat eine Funktion des Detektierens einer Distanz zum Benutzer U. Zum Beispiel umfasst die Distanzdetektionseinheit 115 einen Entfernungsbestimmungssensor und beschafft eine Distanz zum Benutzer U, die durch den Entfernungsbestimmungssensor detektiert wird. Eine Position des Entfernungsbestimmungssensors ist nicht speziell beschränkt. Außerdem ist die Art des Entfernungsbestimmungssensors nicht speziell beschränkt. Zum Beispiel kann der Entfernungsbestimmungssensor ein Infrarotdistanzsensor sein oder kann ein Ultraschalldistanzsensor sein. Als Alternative ist es auch möglich, dass die Distanzdetektionseinheit 115 eine Distanz auf der Basis einer Tonlautstärke von Sprache des Benutzers U, die durch die Tonsammeleinheit 113 gesammelt wird, detektiert. Außerdem ist es auch möglich, dass die Distanzdetektionseinheit 115 eine Distanz auf der Basis einer Größe des Benutzers U in dem durch die Bildgebungseinheit 114 erfassten Bild detektiert.
  • Die Empfangseinheit 116 umfasst eine Kommunikationsschaltung. Die Empfangseinheit 116 empfängt von den Steuerungen 20 gesendete Anforderungen. Man beachte, dass die Empfangseinheit 116 mit einer Art eines von der Steuerung 20 gesendeten drahtlosen Signals kompatibel ist. Anders ausgedrückt ist, falls die Art des von der Steuerung 20 gesendeten drahtlosen Signals eine Funkwelle ist, die Empfangseinheit 116 in der Lage, die Funkwelle zu empfangen. Als Alternative ist, falls die Art des von der Steuerung 20 gesendeten drahtlosen Signals Infrarotlicht ist, die Empfangseinheit 116 in der Lage, das Infrarotlicht zu empfangen.
  • Die Kommunikationseinheit 140 umfasst eine Kommunikationsschaltung. Die Kommunikationseinheit 140 hat Funktionen des Beschaffens von Daten von der Servervorrichtung 30A, die mit dem Kommunikationsnetzwerk 931 verbunden ist, und des Bereitstellens von Daten für die Servervorrichtung 30A über das Kommunikationsnetzwerk 931. Zum Beispiel wird die Kommunikationseinheit 140 durch eine Kommunikationsschnittstelle implementiert. Man beachte, dass die Anzahl der mit dem Kommunikationsnetzwerk 931 verbundenen Servervorrichtungen 30A eins oder mehr sein kann.
  • Die Speicherungseinheit 130 umfasst Speicher. Die Speicherungseinheit 130 ist ein Speicherungsmedium, das dafür ausgelegt ist, durch die Steuereinheit 120A auszuführende Programme zu speichern und zum Ausführen der Programme notwendige Daten zu speichern. Außerdem speichert die Speicherungseinheit 130 vorübergehend Daten zur Berechnung, die durch die Steuereinheit 120A durchzuführen ist. Die Speicherungsvorrichtung 130 kann zum Beispiel durch eine magnetische Speicherungsvorrichtung, eine Halbleiterspeicherungsvorrichtung, eine optische Speicherungsvorrichtung oder eine magnetooptische Speicherungsvorrichtung implementiert werden.
  • Die Anzeigeeinheit 150 hat eine Funktion des Anzeigens verschiedener Arten von Schirmbildern. In der vorliegenden Patentschrift wird hauptsächlich angenommen, dass die Anzeigesteuereinheit 150 ein Projektor (wie etwa ein Einzelfokusprojektor) ist. Die Art der Anzeigesteuereinheit 150 ist jedoch nicht beschränkt. Zum Beispiel kann die Anzeigesteuereinheit 150 eine Flüssigkristallanzeige oder eine organische Elektrolumineszenz- bzw. EL-Anzeige sein, solange die Anzeigesteuereinheit 150 eine Anzeige ist, die in der Lage ist, Schirmbilder anzuzeigen, die Benutzern sichtbar sind. Außerdem wird in der vorliegenden Patentschrift hauptsächlich angenommen, dass die Anzeigesteuereinheit 150 ein Schirmbild an einer relativ hohen Position (wie etwa einer Wandoberfläche) oder an einer relativ niedrigen Position (wie etwa einem Körper des Agenten oder einem Platz in der Nähe der Hände eines Benutzers) anzeigt. Die Position, an der die Anzeigeeinheit 150 ein Schirmbild anzeigt, ist jedoch nicht beschränkt.
  • Die Steuereinheit 120A steuert die jeweiligen Einheiten in dem Agenten 10A. 3 ist eine Darstellung eines ausführlichen Konfigurationsbeispiels für die Steuereinheit 120A. Wie in 3 dargestellt, umfasst die Steuereinheit 120A eine Detektionseinheit 121, eine Anforderungsverarbeitungseinheit 122A und eine Ausführungssteuereinheit 123. Einzelheiten dieser Funktionsblöcke werden später beschrieben. Man beachte, dass zum Beispiel die Steuereinheit 120A durch eine oder mehrere Zentralverarbeitungseinheiten (CPUs) oder dergleichen implementiert werden kann. Falls die Steuereinheit 120A durch eine Verarbeitungsvorrichtung, wie etwa die CPU, implementiert wird, kann die Verarbeitungsvorrichtung durch eine elektronische Schaltung implementiert werden.
  • Wieder mit Bezug auf die Beschreibung unter Bezugnahme auf 2 hat die Tonausgabeeinheit 160 eine Funktion des Ausgebens von Ton. Zum Beispiel umfasst die Tonausgabeeinheit 160 einen Lautsprecher, und Ton wird mittels des Lautsprechers ausgegeben. Die Anzahl der in der Tonausgabeeinheit 160 enthaltenen Lautsprecher ist nicht speziell beschränkt, solange die Anzahl der Lautsprecher eins oder mehr ist. Außerdem sind Positionen des einen oder der mehreren in der Tonausgabeeinheit 160 enthaltenen Lautsprecher nicht speziell beschränkt. Man beachte, dass die Tonausgabeeinheit 160 eine andere Tonausgabevorrichtung als den Lautsprecher (wie etwa Ohrhörer oder ein Headset) umfassen kann, solange die Tonausgabevorrichtung eine Tonausgabefunktion aufweist.
  • Es wurde oben das Funktionskonfigurationsbeispiel für den Agenten 10A gemäß der ersten Ausführungsform beschrieben.
  • [ Funktionskonfigurationsbeispiel für die Servervorrichtung]
  • Als Nächstes wird ein Funktionskonfigurationsbeispiel für die Servervorrichtung 30A gemäß der ersten Ausführungsform beschrieben. 4 ist eine Blockdarstellung des Funktionskonfigurationsbeispiels für die Servervorrichtung 30A gemäß der ersten Ausführungsform. Wie in 4 dargestellt, umfasst die Servervorrichtung 30A eine Steuereinheit 310A, eine Kommunikationseinheit 340 und eine Speicherungseinheit 350. Als Nächstes werden diese Funktionsblöcke in der Servervorrichtung 30A beschrieben.
  • Die Steuereinheit 310A steuert jeweilige Einheiten in der Servervorrichtung 30A. Man beachte, dass zum Beispiel die Steuereinheit 310A durch eine Verarbeitungsvorrichtung, wie etwa eine oder mehrere Zentralverarbeitungseinheiten (CPUs) oder dergleichen implementiert werden kann. Falls die Steuereinheit 310A durch eine Verarbeitungsvorrichtung wie die CPU implementiert wird, kann die Verarbeitungsvorrichtung durch eine elektronische Schaltung implementiert werden.
  • Die Kommunikationseinheit 340 umfasst eine Kommunikationsschaltung. Die Kommunikationseinheit 140 hat Funktionen des Kommunizierens mit anderen Vorrichtungen über das Netzwerk 931 (1). Zum Beispiel wird die Kommunikationseinheit 340 durch eine Kommunikationsschnittstelle implementiert. Zum Beispiel ist die Kommunikationseinheit 340 in der Lage, über das Netzwerk 931 mit dem Agenten 10A zu kommunizieren (1).
  • Die Speicherungseinheit 350 umfasst Speicher. Die Speicherungseinheit 130 ist eine Speicherungsvorrichtung, die dafür ausgelegt ist, Programme zur Ausführung durch die Steuereinheit 310A und zum Ausführen der Programme notwendige Daten zu speichern. Außerdem speichert die Speicherungseinheit 350 vorübergehend Daten für durch die Steuereinheit 310A durchzuführende Berechnung. Man beachte, dass die Speicherungseinheit 350 eine magnetische Speicherungsvorrichtung, eine Halbleiter-Speicherungsvorrichtung, eine optische Speicherungsvorrichtung oder eine magnetooptische Speicherungsvorrichtung sein kann.
  • Es wurde oben das Funktionskonfigurationsbeispiel für die Servervorrichtung 30A gemäß der ersten Ausführungsform beschrieben.
  • [ Einzelheiten von Funktionen des Informationsverarbeitungssystems]
  • Als Nächstes werden Einzelheiten der Funktionen des Informationsverarbeitungssystems 1A gemäß der ersten Ausführungsform beschrieben. Bei der ersten Ausführungsform detektiert die Detektionseinheit 121 Kontexte in Bezug auf Benutzer. Als Nächstes bestimmt die Anforderungsverarbeitungseinheit 122A auf der Basis der durch die Detektionseinheit 121 detektierten Kontexte, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist. Durch Verwendung solcher Strukturelemente ist es möglich, geeigneter zu bestimmen, welche Anforderung vorzugsweise zu verarbeiten ist.
  • Der Kontext in Bezug auf den Benutzer ist nicht speziell beschränkt. Zum Beispiel kann der Kontext in Bezug auf den Benutzer beliebige von Zeitinformationen in Bezug auf den Benutzer, Wetterinformationen in Bezug auf den Benutzer, Umgebungsinformationen in Bezug auf den Benutzer und Sprachinhalt in Bezug auf den Benutzer umfassen. 5 ist eine Darstellung eines Beispiels für Kontextlisteninformationen. 5 zeigt Kontextlisteninformationen 151, die ein Beispiel für Kontexte in Bezug auf Benutzer sind.
  • Hier können die Zeitinformationen in Bezug auf einen Benutzer Zeitinformationen sein, zu denen aktuelle Zeit, in der der Benutzer existiert, gehört. Die Zeitinformationen können Informationen sein, die Zeitschlitze angeben (wie etwa den Zeitschlitz von 6:00 bis 11:00 morgens und mittags) oder können Informationen sein, die Tage angeben (wie etwa Wochentage, Feiertage, Montag und Sonntag). Die aktuelle Zeit kann von einem Zeitgeber in dem Agenten 10A oder einem Zeitgeber in einer Vorrichtung außerhalb des Agenten 10A (wie etwa der Servervorrichtung 30A) beschafft werden. Außerdem können die Zeitinformationen in Bezug auf einen Benutzer von einer Vorrichtung in dem Agenten 10A oder einer Vorrichtung außerhalb des Agenten 10A (wie etwa der Servervorrichtung 30A) geeignet beschafft werden.
  • Die Wetterinformationen in Bezug auf einen Benutzer können Informationen über Wetter an einem Ort, an dem der Benutzer existiert, sein. Die Wetterinformationen können Informationen sein, die Wetter angeben (wie etwa sonnig, wolkig oder regnerisch). Der Ort, an dem der Benutzer existiert, kann durch eine gewisse Positionsbestimmungsfunktion beschafft sein oder kann im Voraus durch den Benutzer gesetzt werden. Außerdem können die Wetterinformationen in Bezug auf einen Benutzer von einer Vorrichtung in dem Agenten 10A oder einer Vorrichtung außerhalb des Agenten 10A (wie etwa der Servervorrichtung 30A) geeignet beschafft werden.
  • Die Umgebungsinformationen in Bezug auf einen Benutzer können Informationen sein, die eine Umgebung um einen Ort angeben, an dem der Benutzer existiert. Die Umgebungsinformationen können Informationen sein, die Helligkeit angeben (zum Beispiel Helligkeit der Umgebung ist 10 lx oder weniger), oder können Informationen sein, die Tonlautstärke angeben (zum Beispiel umgebender Umgebungston ist 60 db oder mehr). Die Informationen, die Helligkeit angeben, können durch einen optischen Sensor detektiert werden, falls der optische Sensor in dem Agenten 10A enthalten ist. Außerdem können die Tonlautstärke angebenden Informationen durch einen Tonsensor detektiert werden, falls der Tonsensor in dem Agenten 10A enthalten ist.
  • Der Sprachinhalt in Bezug auf einen Benutzer kann mittels Spracherkennung beschafft werden, die an den durch die Tonsammeleinheit 113 detektierten Toninformationen ausgeführt wird. Die Spracherkennung kann durch den Agenten 10A durchgeführt werden oder kann durch eine Vorrichtung außerhalb des Agenten 10A (wie etwa die Servervorrichtung 30A) durchgeführt werden. Außerdem kann der Sprachinhalt in Bezug auf den Benutzer Textdaten sein, die selbst mittels der Spracherkennung beschafft werden, oder kann Schlüsselwörter sein, die aus den mittels der Spracherkennung beschafften Textdaten erkannt werden.
  • Spezieller kann die Anforderungsverarbeitungseinheit 122A auf der Basis eines Vergleichs zwischen einer Priorität der ersten Anforderung und einer Priorität der zweiten Anforderung bestimmen, ob die erste Anforderung oder die zweite Anforderung vorzugsweise zu verarbeiten ist. Zum Beispiel kann die Anforderungsverarbeitungseinheit 122A bestimmen, eine Anforderung, die unter der Priorität der ersten Anforderung und der Priorität der zweiten Anforderung höhere Priorität aufweist, vorzugsweise zu verarbeiten.
  • Es ist möglich, eine beliebige Weise zur Bestimmung der Priorität der ersten Anforderung und der Priorität der zweiten Anforderung zu bestimmen. 6 ist eine Darstellung eines Konfigurationsbeispiels für relevante Informationen, in denen Kontexte, Attributinformationen und Prioritäten miteinander assoziiert sind. Wie in 6 dargestellt, umfassen die relevanten Informationen 152 Kontexte, Attributinformationen (Kombination aus einem Attributtyp „Attribut“ und einem Attributwert „Wert“ in dem in 6 dargestellten Beispiel) und Prioritäten („Prioritätsbewertung“ in dem in 6 dargestellten Beispiel), die miteinander assoziiert sind.
  • Solche relevanten Informationen 152 können geeignet durch die Anforderungsverarbeitungseinheit 122A von einer Vorrichtung in dem Agenten 10A oder einer Vorrichtung außerhalb des Agenten 10A (wie etwa der Servervorrichtung 30A) beschafft werden. Zum Beispiel kann die Anforderungsverarbeitungseinheit 122A die Priorität der ersten Anforderung auf der Basis von Attributinformationen der ersten Anforderung und der durch die Detektionseinheit 121 detektierten Kontexte beschaffen und die Priorität der zweiten Anforderung auf der Basis von Attributinformationen der zweiten Anforderung und der Kontexte beschaffen.
  • Hier können die Attributinformationen der ersten Anforderung und die Attributinformationen der zweiten Anforderung jeweils einen Attributtyp und einen dem Attributtyp entsprechenden Attributwert umfassen. In diesem Fall ist es zum Beispiel nur notwendig, dass die Anforderungsverarbeitungseinheit 122A die Attributinformationen (Kombination aus dem Attributtyp und dem Attributwert) der ersten Anforderung und die Attributinformationen der zweiten Anforderung beschafft und Prioritäten aus den relevanten Informationen 152 beschafft. Die Prioritäten entsprechen den durch die Detektionseinheit 121 detektierten Kontexten, den Attributinformationen (Kombination aus dem Attributtyp und dem Attributwert) der ersten Anforderung und den Attributinformationen der zweiten Anforderung.
  • Der Attributtyp kann Informationen umfassen, die einen Benutzer angeben („Person“ in dem in 6 dargestellten Beispiel), und Informationen, die eine Vorrichtung angeben („modal“, in 6 dargestellt). Außerdem zeigt das Beispiel in 6 „Benutzer A (Vater)“ und „Benutzer B (Sprecher)“ als Attributwerte entsprechend dem Attributtyp „Person“. Außerdem zeigt das Beispiel in 6 „Steuerung“ und „Sprache“ als Attributwerte entsprechend dem Attributtyp „Modal“.
  • Falls zum Beispiel der Kontext „Morgen an einem Wochentag“ ist, wird eine Anforderung vom Vater vor dem Gehen zur Arbeit als priorisiert betrachtet. In den relevanten Informationen 152 ist es deshalb vorzuziehen, den Kontext „Morgen an einem Wochentag“ mit dem Attributtyp „Person“ und dem Attributwert „Benutzer A (Vater)“ zu assoziieren.
  • Falls als ein anderes Beispiel der Kontext „Helligkeit der Umgebung ist 10 lx oder weniger“ ist, wird eine Anforderung der modalen „Sprache“ als priorisiert betrachtet, da in einer solchen Situation oft fehlerhafte Operation an der Steuerung ausgeführt wird. Deshalb ist es in den relevanten Informationen 152 vorzuziehen, den Kontext „Helligkeit der Umgebung ist 10 lx oder weniger“ mit dem Attributtyp „Modal“ und dem Attributwert „Sprache“ zu assoziieren.
  • Falls als Alternative der Kontext „umgebender Umgebungston ist 60 db oder mehr“ ist, wird eine Anforderung der modalen „Steuerung“ als priorisiert betrachtet, da Sprache in einer solchen Situation oft fehlerhaft erkannt wird. Deshalb ist es in den relevanten Informationen 152 vorzuziehen, den Kontext „umgebender Umgebungston ist 60 db oder mehr“ mit dem Attributtyp „modal“ und dem Attributwert „Steuerung“ zu assoziieren.
  • Als weiteres Beispiel wird, falls der Kontext „mittels der Spracherkennung erhaltene Textdaten umfassen ein Schlüsselwort ,Hilfe‘“ ist, eine Anforderung von einem Sprecher „Benutzer B (Sprecher)“ des Schlüsselworts““ als priorisiert betrachtet. Deshalb ist es in den relevanten Informationen 152 vorzuziehen, den Kontext „mittels der Spracherkennung erhaltene Textdaten umfassen ein Schlüsselwort ,Hilfe‘“ mit dem Attributtyp „Person“ und dem Attributwert „Benutzer B (Sprecher)“ zu assoziieren.
  • Falls als ein anderes Beispiel der Kontext „es regnet“ ist, wird eine Anforderung der modalen „Sprache“ als priorisiert betrachtet, da die Umgebung oft dunkel wird. Deshalb ist es in den relevanten Informationen 152 vorzuziehen, den Kontext „es regnet“ mit dem Attributtyp „Modal“ und dem Attributwert „Sprache“ zu assoziieren.
  • Als weitere Beispiele wird in den Fällen von Kontexten „ein Benutzer blickt den Agenten an“, „ein Benutzer hat seine Augen weit offen (absolut oder im Vergleich mit einer Referenzgröße seiner Augen)“, „Tonlautstärke von Sprache von einem Benutzer wird lauter“, „eine Tonhöhe von Sprache von einem Benutzer wird höher“, „ein Benutzer blickt finster“, eine Anforderung von diesem Benutzer als priorisiert betrachtet. Deshalb ist es in den relevanten Informationen 152 vorzuziehen, einen solchen Kontext mit dem Attributtyp „Person“ und einem solchen Benutzer zu assoziieren.
  • Man beachte, dass falls der Attributtyp einer Anforderung „Person“ umfasst, eine beliebige Weise zum Erkennen des Attributwerts „Benutzer A“ oder dergleichen entsprechend dem Attributtyp „Person“ der Anforderung verwendet werden kann. Falls zum Beispiel der Attributtyp „Person“ umfasst, ist es möglich, dass die Anforderungsverarbeitungseinheit 122A einen auf der Basis eines Spracherkennungsergebnisses erkannten Attributwert beschafft. Als Alternative ist es möglich, dass die Anforderungsverarbeitungseinheit 122A einen auf der Basis eines Gesichtserkennungsergebnisses erkannten Attributwert beschafft. In einem solchen Fall kann Sprache oder ein Gesichtsbild, die für die Erkennung verwendet werden, im Voraus registriert werden. Außerdem kann, falls Sprache oder ein Gesicht eines nichtregistrierten Benutzers erkannt wird, der Benutzer neu registriert werden.
  • Als Nächstes wird eine Anforderung, die sich in Verarbeitung befindet, als ein Beispiel für die erste Anforderung beschrieben, und eine Anforderung, die neu eingegeben wird, wird als ein Beispiel für die zweite Anforderung beschrieben. Die erste Anforderung ist jedoch nicht auf die Anforderung beschränkt, die sich in Verarbeitung befindet. Außerdem ist die zweite Anforderung nicht auf die Anforderung beschränkt, die neu eingegeben wird. Zum Beispiel können die erste Anforderung und/oder die zweite Anforderung eine unverarbeitete Anforderung sein (eine Anforderung, die sich in einer Anforderungswarteschlange befindet).
  • Eine Anforderung, die neu in den Agenten 10A eingegeben wird, wird zu einer Anforderungswarteschlange hinzugefügt, solange keine Unterbrechung einer Anforderung, die sich in Verarbeitung befindet, auftritt. Außerdem kann die Anforderungsverarbeitungseinheit 122A sequentiell eine Anforderung mit der höchsten Priorität aus der Anforderungswarteschlange extrahieren und die Anforderung verarbeiten. Die Anforderungen in der Anforderungswarteschlange werden als eine Anforderungswarteschlangentabelle in dem Agenten 10A verwaltet.
  • 7 ist eine Darstellung eines Beispiels für die Anforderungswarteschlangentabelle. Wie in 7 dargestellt umfasst die Anforderungswarteschlangentabelle 153 Anforderungsverarbeitungsreihenfolge, Anforderungen entsprechende Aufgaben, Benutzer, die die Anforderungen ausgegeben haben, modal und Statusse, die miteinander assoziiert sind. Wie in 7 dargestellt, hat eine Anforderung, die einen Status von „in Verarbeitung“ aufweist, die höchste Priorität. Diese Anforderung wird aus einer Nachrichtenwarteschlange extrahiert und befindet sich aktuell in Verarbeitung. Außerdem ist eine Anforderung, die einen Status von „auf Verarbeitung wartend“ aufweist, eine Anforderung in der Nachrichtenwarteschlange.
  • Hier setzt die Anforderungsverarbeitungseinheit 122A Verarbeitung des Prozesses, der sich in Verarbeitung befindet, fort, falls die Anforderungsverarbeitungseinheit 122A die Priorität der Anforderung, die sich in Verarbeitung befindet, und die Priorität einer Anforderung, die neu eingegeben wird, vergleicht und bestimmt, die Anforderung, die sich in Verarbeitung befindet, vorzugsweise zu verarbeiten.
  • Andererseits kann die Ausführungssteuereinheit 123 die Anforderung, die sich in Verarbeitung befindet, mit der Anforderung, die neu eingegeben wird, unterbrechen, falls die Ausführungssteuereinheit 123 die Priorität der Anforderung, die sich in Verarbeitung befindet, und die Priorität der Anforderung, die neu eingegeben wird, vergleicht und bestimmt, die Anforderung, die neu eingegeben wird, vorzugsweise zu verarbeiten. Falls eine solche Unterbrechung auftritt, kann die Ausführungssteuereinheit 123 die Ausgabe von vorbestimmten Ausgabeinformationen steuern. Die Ausgabeinformationen können einem Benutzer präsentiert werden, der die Anforderung, die sich in Verarbeitung befindet, ausgegeben hat, oder einem Benutzer, der die Anforderung, die neu eingegeben wird, ausgegeben hat.
  • Die Art der Ausgabeinformationen ist hier nicht beschränkt. Zum Beispiel ist es möglich, die Ausgabeinformationen visuell zu präsentieren. Die Ausgabeinformationen können visuell präsentiert werden, indem der Agent 10A eine vorbestimmte Geste durchführt (wie etwa eine Geste, einem Benutzer, der eine zu unterbrechende Anforderung ausgegeben hat, eine Handfläche einer Hand zu zeigen) oder kann visuell durch Hardware präsentiert werden, wie etwa Lichtemission von einer Lampe (wie etwa einer Lichtemission von einer roten Lampe). Als Alternative können die Ausgabeinformationen Präsentation der Anforderungswarteschlangentabelle 153 selbst, die in dem Agenten 10A verwaltet wird, sein.
  • 8 ist eine Darstellung eines Beispiels für ein Schirmbild, das einem Benutzer präsentiert wird, falls eine Unterbrechung auftritt. Wie in 8 dargestellt, kann die Ausführungssteuereinheit 123 die Anzeigeeinheit 150 so steuern, dass die Anzeigeeinheit 150 die Anforderungswarteschlangentabelle 153 präsentiert. Um es leicht zu machen, die unterbrechende Anforderung und die Anforderung, die unterbrochen wurde, zu erkennen, ist es zu diesem Zeitpunkt möglich, dass die Ausführungssteuereinheit 123 vorbestimmte Animationseffekte (wie etwa einen Blinkeffekt) auf eine Zeile der unterbrechenden Anforderung und eine Zeile der Anforderung, die unterbrochen wurde, in der Anforderungswarteschlangentabelle 153 anwendet.
  • Als Alternative ist es möglich, die Ausgabeinformationen durch Ton zu präsentieren. 9 ist eine Darstellung eines Beispiels für eine Sprachnachricht, die einem Benutzer präsentiert wird, falls eine Unterbrechung auftritt. Wie in 9 gezeigt, kann die Ausführungssteuereinheit 123 Ausgabe einer vorbestimmten Sprachnachricht 161 steuern (einer Sprachnachricht „Verarbeitung der Anforderung, die aktuell in Verarbeitung war, wird unterbrochen, weil ich eine Anforderung empfangen habe, die höhere Priorität aufweist als die Anforderung, die sich aktuell in Verarbeitung befand“ in dem in 9 dargestellten Beispiel). Die Sprachnachricht 161 ist jedoch nicht speziell beschränkt.
  • Oben wurde hauptsächlich der Fall beschrieben, dass ein Kontext durch die Detektionseinheit 121 detektiert wird. Die Detektionseinheit 121 kann jedoch mehrere Kontexte detektieren. Zum Beispiel wird angenommen, dass die Detektionseinheit 121 einen ersten Kontext und einen zweiten Kontext detektiert und ein Attributtyp entsprechend dem ersten Kontext und ein Attributtyp entsprechend dem zweiten Kontext identisch sind. In einem solchen Fall ist es möglich, dass die Anforderungsverarbeitungseinheit 122A die Priorität der ersten Anforderung und die Priorität der zweiten Anforderung auf der Basis von Berechnung jeweiliger Prioritäten in Bezug auf identische Attributinformationen entsprechend dem ersten Kontext und dem zweiten Kontext beschafft.
  • 10 ist eine Darstellung eines Beispiels für Berechnung von Prioritäten von Anforderungen, falls mehrere Kontexte detektiert werden und Attributtypen identisch sind. In dem in 10 dargestellten Beispiel wird angenommen, dass ein Kontext „Morgen“ und ein Kontext „Wochentag“ detektiert werden.
  • Eine Korrespondenztabelle 154-1 umfasst verschiedene Arten von Informationen (Attributtypen, Attributwerte und Prioritäten) entsprechend dem Kontext „Morgen“ und verschiedene Arten von Informationen entsprechend dem Kontext „Wochentag“. Wie in einer Korrespondenztabelle 155-1 dargestellt, werden in diesem Fall Prioritäten „0,9“ und „0,8“ in Bezug auf identische Attributinformationen (wie etwa den Attributtyp „Person“ und Attributwert „Benutzer A“) multipliziert, und eine Priorität einer Anforderung, die diese Attributinformationen aufweist, kann als „0,72“ berechnet werden. Man beachte, dass die Berechnung von Prioritäten nicht auf die Multiplikation von Prioritäten beschränkt ist. Die Berechnung von Prioritäten kann Addition von Prioritäten oder ein Mittelwert von Prioritäten sein.
  • Als Alternative wird angenommen, dass die Detektionseinheit 121 einen ersten Kontext und einen zweiten Kontext detektiert und ein Attributtyp entsprechend dem ersten Kontext und ein Attributtyp entsprechend dem zweiten Kontext voneinander verschieden sind. In einem solchen Fall ist es möglich, dass die Anforderungsverarbeitungseinheit 122A die Priorität der ersten Anforderung und die Priorität der zweiten Anforderung auf der Basis von Berechnung jeweiliger Prioritäten in Bezug auf verschiedene Attributinformationen entsprechend dem ersten Kontext und dem zweiten Kontext beschafft.
  • 11 ist eine Darstellung eines Beispiels für Berechnung von Prioritäten von Anforderungen, falls mehrere Kontexte detektiert werden und Attributtypen voneinander verschieden sind. In dem in 11 dargestellten Beispiel wird angenommen, dass ein Kontext „Morgen“ und ein Kontext „Helligkeit der Umgebung ist 10 lx oder weniger“ detektiert werden.
  • Eine Korrespondenztabelle 154-2 umfasst verschiedene Arten von Informationen (Attributtypen, Attributwerte und Prioritäten) entsprechend dem Kontext „Morgen“ und verschiedene Arten von Informationen entsprechend dem Kontext „Helligkeit der Umgebung ist 10 lx oder weniger“. Wie in einer Korrespondenztabelle 155-2 dargestellt werden in diesem Fall Prioritäten „0,9“ und „0,9“ in Bezug auf verschiedene Attributinformationen (wie etwa eine Kombination eines Attributtyps „Person“ und eines Attributwerts „Benutzer A“ und eine Kombination eines Attributtyps „Modal“ und eines Attributwerts „Sprach-UI“) multipliziert, und eine Priorität einer Anforderung, die diese Attributinformationen aufweist, kann als „0,81“ berechnet werden. Man beachte, dass die Berechnung von Prioritäten nicht auf die Multiplikation von Prioritäten beschränkt ist. Die Berechnung von Prioritäten kann Addition von Prioritäten oder ein Mittelwert von Prioritäten sein.
  • Oben wurde das Beispiel für die Kontexte beschrieben. In einigen Fällen umfasst der Kontext eine Beziehung zwischen einem bestimmten Parameter und einer Schwelle. Zum Beispiel umfasst der Kontext „umgebender Umgebungston ist 60 db oder mehr“ eine Beziehung zwischen einem Parameter „umgebender Umgebungston“ und einer Schwelle „60 db“. Eine solche Schwelle kann im Voraus durch einen Benutzer gesetzt werden oder kann sich dynamisch ändern. Zum Beispiel ist es mit Bezug auf den umgebenden Umgebungston vorzuziehen, dass sich die Schwelle dynamisch ändert, da eine optimale Schwelle als sich abhängig von einem Ort, an dem der Agent 10A platziert ist, ändernd betrachtet wird.
  • Speziell kann die Tonsammeleinheit 113 weiter für einen vorbestimmten Zeitraum den umgebenden Umgebungston in einer Umgebung, in der der Agent 10A platziert ist, detektieren. Danach kann die Anforderungsverarbeitungseinheit 122A einen Mittelwert des in dem vorbestimmten Zeitraum detektierten umgebenden Umgebungstons als Kriterium setzen und einen von dem Kriterium um x% verschiedenen Wert als die Schwelle (abnormer Wert) verwenden.
  • Oben wurde das Beispiel für die relevanten Informationen 152 beschrieben, in denen Attributinformationen und Prioritäten miteinander assoziiert sind (6). Es kann eine beliebige Weise zum Setzen solcher relevanten Informationen 152 verwendet werden. Zum Beispiel kann ein Anbieter eines Produkts (Dienstes) des Agenten 10A die relevanten Informationen 152 vor dem Bereitstellen des Produkts (Dienstes) setzen. Als Alternative ist es auch möglich, dass ein Benutzer die relevanten Informationen 152 setzt. Es wird jedoch auch angenommen, dass die relevanten Informationen 152 so gesetzt werden, dass die relevanten Informationen 152 mit dem Benutzer des Agenten 10A und der Umgebung, in der der Agent 10A platziert ist, übereinstimmen.
  • Speziell wird auch angenommen, dass die Servervorrichtung 30A auch relevante Informationen eines anderen Benutzers verwaltet. Deshalb ist es auch möglich, dass die Anforderungsverarbeitungseinheit 122A relevante Informationen eines anderen Benutzers als die relevanten Informationen 152 beschafft. Der andere Benutzer weist eine vorbestimmte analoge Beziehung mit dem Benutzer des Agenten 10A auf. Die vorbestimmte analoge Beziehung ist nicht speziell beschränkt.
  • Zum Beispiel kann die vorbestimmte analoge Beziehung eine Beziehung sein, bei der Ähnlichkeit zwischen Informationen in Bezug auf den Benutzer des Agenten 10A und Informationen in Bezug auf den anderen Benutzer eine Schwelle übersteigen, oder kann eine Beziehung sein, bei der die Informationen in Bezug auf den anderen Benutzer die höchste Ähnlichkeit mit den Informationen in Bezug auf den Benutzer des Agenten 10A aufweisen. Die Ähnlichkeit zwischen den Informationen in Bezug auf den Benutzer des Agenten 10A und den Informationen in Bezug auf den anderen Benutzer ist nicht speziell beschränkt. Die Ähnlichkeit kann eine Kosinus-Ähnlichkeit sein.
  • 12 ist eine Darstellung eines Beispiels für das Umlenken von relevanten Informationen eines anderen Benutzers. Wie in 12 gezeigt, speichert die Speicherungseinheit 350 der Servervorrichtung 30A Informationen 156 in Bezug auf mehrere Benutzer. In dem in 12 dargestellten Beispiel wird angenommen, dass „Familie A“ der andere Benutzer ist. Außerdem wird angenommen, dass „Familie B“ der Benutzer des Agenten 10A ist. In diesem Fall bezieht sich die Steuereinheit 310A auf die Informationen 156 in Bezug auf die mehreren Benutzer und bestimmt, dass die Informationen in Bezug auf den anderen Benutzer „Familie A“ eine vorbestimmte analoge Beziehung mit den Informationen in Bezug auf den Benutzer des Agenten 10A „Familie B“ aufweisen.
  • Wie in 12 dargestellt ist es deshalb möglich, dass die Kommunikationseinheit 340 relevante Informationen 152-1 des anderen Benutzers „Familie A“ als relevante Informationen des Benutzers des Agenten 10A „Familie B“ zu dem Agenten 10A sendet. In diesem Fall kann in dem Agenten 10A die Kommunikationseinheit 140 die relevanten Informationen 152-1 des anderen Benutzers „Familie A“ empfangen, und die Anforderungsverarbeitungseinheit 122A kann Prioritäten von Anforderungen auf der Basis der relevanten Informationen 152-1 des anderen Benutzers „Familie A“ bestimmen.
  • Außerdem können die relevanten Informationen des Agenten 10A (wie etwa die relevanten Informationen 152-1 des anderen Benutzers „Familie A“) auf der Basis von Rückmeldung vom Benutzer mit Konfidenzgraden assoziiert werden, und auf der Basis der Konfidenzgrade kann eine Notwendigkeit der Annahme bestimmt werden. Spezieller assoziiert die Anforderungsverarbeitungseinheit 122A die Konfidenzgrade auf der Basis von Rückmeldung vom Benutzer mit den relevanten Informationen des Agenten 10A. Danach muss die Anforderungsverarbeitungseinheit 122A nicht bestimmen, ob die erste Anforderung oder die zweite Anforderung vorzugsweise zu verarbeiten ist, falls der Konfidenzgrad in Bezug auf die Attributinformationen der ersten Anforderung und/oder die Attributinformationen der zweiten Anforderung kleiner als eine vorbestimmte Schwelle sind.
  • Die vorbestimmte Schwelle kann hier eine Pseudozufallszahl sein. Der Konfidenzgrad kann zum Beispiel in einem Bereich von 0 ≤ Konfidenzgrad ≤ 1 liegen. Außerdem kann ein anfänglicher Wert des Konfidenzgrads auf einen beliebigen Wert in einem Bereich von 0 bis 1 (wie etwa 0,5) gesetzt werden.
  • Als Nächstes kann, falls die Detektionseinheit 121 positive Rückmeldung vom Benutzer detektiert, die Anforderungsverarbeitungseinheit 122A Belohnung auf „+1“ setzen. Außerdem kann, falls die Detektionseinheit 121 negative Rückmeldung vom Benutzer detektiert, die Anforderungsverarbeitungseinheit 122A Belohnung auf „0“ setzen. Außerdem kann, falls die Detektionseinheit 121 verschiedene Rückmeldung von mehreren Benutzern detektiert und mindestens ein Benutzer die negative Rückmeldung gegeben hat, die Anforderungsverarbeitungseinheit 122A in Betracht ziehen, dass die negative Rückmeldung empfangen wird.
  • Der Konfidenzgrad kann durch die Anforderungsverarbeitungseinheit 122A auf der Basis eines Gesamtbelohnungswerts/einer Gesamtzahl von Versuchen berechnet werden. 13 ist eine Darstellung eines Beispiels für relevante Informationen 152-2, die auf der Basis von Rückmeldung von Benutzern zusätzlich mit Konfidenzgraden assoziiert werden.
  • Zum Beispiel kann die positive Rückmeldung UI-Operation sein, die positive Gefühle (wie etwa Betätigung einer positiv angebenden Taste), vorbestimmte Sprache, die Dankbarkeit zeigt (gesprochen von einem unterbrechenden Benutzer) (wie etwa eine Nachricht „danke“) oder implizites Verhalten auf der Basis der Dankbarkeit (wie etwa Verhalten des Zeigens eines bestimmten Gesichtsausdrucks wie etwa Lächeln) angibt.
  • Die negative Rückmeldung kann zum Beispiel UI-Operation sein, die negative Gefühle (wie etwa Betätigung einer negativ angebenden Taste), vorbestimmte Sprache, die ein empörtes Gefühl zeigt (gesprochen von einem unterbrochenen Benutzer) (wie etwa eine Nachricht „Bitte nicht vordrängeln“) oder implizites Verhalten auf der Basis des empörten Gefühls (wie etwa Verhalten des Zeigens eines bestimmten Gesichtsausdruchs, wie etwa eines finsteren Gesichts) angibt.
  • Außerdem besteht eine Möglichkeit, dass ein neuer Benutzer (wie etwa ein unregistrierter Benutzer) eine Anforderung ausgibt. Zum Beispiel wird angenommen, dass der Agent 10A gewöhnlich von einem Vater, einer Mutter und ihrem Kind in ihrem Zuhause verwendet wird, aber eine Großmutter, die weit entfernt wohnt, sie hier zuhause besucht. In einem solchen Fall ist es möglich, dass die Anforderungsverarbeitungseinheit 122A eine Priorität eines anderen Benutzers, der eine vorbestimmte analoge Beziehung mit dem neuen Benutzer aufweist, als eine Priorität des neuen Benutzers beschafft. Wie oben beschrieben ist die vorbestimmte analoge Beziehung nicht speziell beschränkt.
  • Es wurden oben die Einzelheiten der Funktionen des Informationsverarbeitungssystems 1A gemäß der ersten Ausführungsform beschrieben.
  • [ Operationsbeispiel]
  • Als Nächstes wird ein Operationsbeispiel für das Informationsverarbeitungssystem 1A gemäß der ersten Ausführungsform beschrieben.
  • 14 ist ein Flussdiagramm eines Beispiels für Operation des sequentiellen Extrahierens und Verarbeitens von Anforderungen aus einer Anforderungswarteschlange. Wie in 14 dargestellt, beendet die Anforderungsverarbeitungseinheit 122A ihre Operation, falls die Größe einer Anforderungswarteschlange „null“ ist („Nein“ in S11).
  • Falls dagegen die Größe einer Anforderungswarteschlange „null“ überschreitet („Ja“ in S11), extrahiert die Anforderungsverarbeitungseinheit 122A eine Anforderung, die die höchste Priorität aufweist, aus der Anforderungswarteschlange und verarbeitet die extrahierte Anforderung (S12). Nach dem Verarbeiten der Anforderung löscht die Anforderungsverarbeitungseinheit 122A die Anforderung aus der Anforderungswarteschlange (S13) und kehrt zu S11 zurück.
  • 15 ist ein Flussdiagramm eines Beispiels für Operation, die ausgeführt wird, wenn eine neue Anforderung eingegeben wird, falls es eine Anforderung gibt, die sich in Verarbeitung befindet. Wie in 15 dargestellt bestimmt die Anforderungsverarbeitungseinheit 122A, wenn eine neue Anforderung eingegeben ist, ob sich eine andere Anforderung in Verarbeitung befindet oder nicht (S21). Falls sich die andere Anforderung nicht in Verarbeitung befindet („Nein“ in S21), schreitet die Anforderungsverarbeitungseinheit 122A zu S26. Falls sich dagegen die andere Anforderung in Verarbeitung befindet („Ja“ in S21), beschafft die Anforderungsverarbeitungseinheit 122A einen durch die Detektionseinheit 121 detektierten Kontext (S22).
  • Als Nächstes bestimmt die Anforderungsverarbeitungseinheit 122A, ob der durch die Detektionseinheit 121 detektierte Kontext in den relevanten Informationen 152 enthalten ist (S23). Falls es keine entsprechende Anforderung gibt („Nein“ in S23), schreitet die Anforderungsverarbeitungseinheit 122A zu S26. Falls es dagegen eine entsprechende Anforderung gibt („Ja“ in S23), beschafft die Anforderungsverarbeitungseinheit 122A ein Attribut in Bezug auf den Kontext aus den relevanten Informationen 152 (S24).
  • Als Nächstes bestimmt die Anforderungsverarbeitungseinheit 122A, ob die relevanten Informationen 152 einen dem Attribut entsprechenden Attributwert umfassen (S25). Falls es keinen entsprechenden Attributwert gibt („Nein“ in S25), fügt die Anforderungsverarbeitungseinheit 122A die Anforderung, die neu eingegeben wird, zu der Anforderungswarteschlange hinzu (S26). Falls es dagegen einen entsprechenden Attributwert gibt („Ja“ in S25) und ein Konfidenzgrad in Bezug auf den entsprechenden Attributwert kleiner als eine Pseudozufallszahl (Rand) ist („Nein“ in SS251), fügt die Anforderungsverarbeitungseinheit 122A die Anforderung, die neu eingegeben wird, zu der Anforderungswarteschlange hinzu (S26). Falls es dagegen einen entsprechenden Attributwert gibt („Ja“ in S25) und der Konfidenzgrad in Bezug auf den entsprechenden Attributwert die Pseudozufallszahl (Rand) oder mehr ist („Ja“ in S251), beschafft die Anforderungsverarbeitungseinheit 122A eine Priorität in Bezug auf den Attributwert und bestimmt auf der Basis eines Vergleichs zwischen den Prioritäten, ob die Anforderung, die neu eingegeben wird, oder die Anforderung, die sich in Verarbeitung befindet, zu priorisieren ist (S27). Falls auf der Basis des Vergleichs zwischen den Prioritäten bestimmt wird, dass die Anforderung, die neu eingegeben wird, zu priorisieren ist (anders ausgedrückt, falls eine Aufgabe, die sich in Verarbeitung befindet, unterbrochen wird) („Ja“ in S28), benachrichtigt die Ausführungssteuereinheit 123 den Benutzer über das Auftreten der Unterbrechung (S29) und schreitet zu S30. Falls dagegen auf der Basis des Vergleichs zwischen den Prioritäten bestimmt wird, dass die Anforderung, die sich in Verarbeitung befindet, zu priorisieren ist (anders ausgedrückt, falls eine Aufgabe, die sich in Verarbeitung befindet, nicht unterbrochen wird) („Nein“ in S28), aktualisiert die Anforderungsverarbeitungseinheit 122A die Anforderungswarteschlangentabelle (S30) und beendet ihre Operation.
  • Es wurde oben das Operationsbeispiel für das Informationsverarbeitungssystem 1A gemäß der ersten Ausführungsform beschrieben.
  • Es wurde oben die erste Ausführungsform beschrieben.
  • < Zweite Ausführungsform>
  • Als Nächstes wird eine zweite Ausführungsform beschrieben. Bei der ersten Ausführungsform wird hauptsächlich angenommen, dass die Anzahl des Agenten 10 eins ist. Bei der zweiten Ausführungsform wird hauptsächlich ein Fall beschrieben, bei dem die Anzahl der Agenten 10 zwei oder mehr ist.
  • [Systemkonfigurationsbeispiel]
  • Als Erstes wird unter Bezugnahme auf die beigefügten Zeichnungen ein Konfigurationsbeispiel für ein Informationsverarbeitungssystem gemäß der zweiten Ausführungsform beschrieben. 16 ist eine Darstellung eines Konfigurationsbeispiels für das Informationsverarbeitungssystem gemäß der zweiten Ausführungsform. Wie in 16 dargestellt, umfasst ein Informationsverarbeitungssystem 1B gemäß der zweiten Ausführungsform Agenten 10B-1 bis 10B-N, Steuerungen 20-1 bis 20-N (N ist eine natürliche Zahl) und eine Servervorrichtung 30B. Man beachte, dass in dem in 16 dargestellten Beispiel die Anzahl der Agenten 10 dieselbe wie die Anzahl der Steuerungen 20 ist. Die Anzahl der Agenten 10 kann jedoch von der Anzahl der Steuerungen 20 verschieden sein.
  • Wie in 16 dargestellt ist es, falls ein Benutzer U-2 eine Anforderung „Bitte zeige meinen Zeitplan“ ausgibt, notwendig, zu spezifizieren, welcher der Agenten 10B-1 bis 10B-N die Anforderung verarbeitet. Man beachte, dass bei der zweiten Ausführungsform die Servervorrichtung 30B eine Aufgabenstatustabelle 157 speichert. Die Aufgabenstatustabelle 157 wird zur Verwaltung jeweiliger Aufgaben der Agenten 10B-1 bis 10B-N verwendet. Einzelheiten der Aufgabenstatustabelle 157 werden später beschrieben.
  • Es wurde das Konfigurationsbeispiel für das Informationsverarbeitungssystem 1B gemäß der zweiten Ausführungsform beschrieben.
  • [ Funktionskonfigurationsbeispiel für Agenten]
  • Als Nächstes wird ein Funktionskonfigurationsbeispiel für den Agenten 10B gemäß der zweiten Ausführungsform beschrieben. Der Agent 10B gemäß der zweiten Ausführungsform ist insofern von dem Agenten 10A gemäß der ersten Ausführungsform verschieden, als der Agent 10B anstelle der Steuereinheit 120A eine Steuereinheit 120B umfasst. Im Folgenden wird hauptsächlich ein Funktionskonfigurationsbeispiel für die Steuereinheit 120B beschrieben. 17 ist eine Darstellung eines ausführlichen Konfigurationsbeispiels für die Steuereinheit 120B. Wie in 17 dargestellt, umfasst die Steuereinheit 120B die Detektionseinheit 121, eine Anforderungsverarbeitungseinheit 122B und die Ausführungssteuereinheit 123. Die Anforderungsverarbeitungseinheit 122B wird hauptsächlich später beschrieben.
  • Es wurde oben das Funktionskonfigurationsbeispiel für den Agenten 10B gemäß der zweiten Ausführungsform beschrieben.
  • [ Funktionskonfigurationsbeispiel für Servervorrichtung]
  • Als Nächstes wird ein Funktionskonfigurationsbeispiel für die Servervorrichtung 30B gemäß der zweiten Ausführungsform beschrieben. 18 ist eine Darstellung des Funktionskonfigurationsbeispiels für die Servervorrichtung 30B gemäß der zweiten Ausführungsform. Wie in 18 dargestellt, ist die Servervorrichtung 30B gemäß der zweiten Ausführungsform insofern von der Servervorrichtung 30A gemäß der ersten Ausführungsform verschieden, als die Servervorrichtung 30B anstelle der Steuereinheit 310A eine Steuereinheit 310B umfasst. Speziell umfasst die Steuereinheit 310B eine Distanzbeschaffungseinheit 311, eine Auswahleinheit 312 und eine Ausführungsanweisungs-Ausgabeeinheit 313. Ein Funktionskonfigurationsbeispiel für die Steuereinheit 310B wird hauptsächlich später beschrieben.
  • Es wurde oben das Funktionskonfigurationsbeispiel für die Servervorrichtung 30B gemäß der zweiten Ausführungsform beschrieben.
  • [ Einzelheiten von Funktionen des Informationsverarbeitungssystems]
  • Als Nächstes werden Einzelheiten der Funktionen des Informationsverarbeitungssystems 1B gemäß der zweiten Ausführungsform beschrieben. 19 ist eine Darstellung eines Beispiels für die Aufgabenstatustabelle. Wie in 19 dargestellt, sind in der Aufgabenstatustabelle 157 Agent-IDs, Statusse (wie etwa ob der Agent auf eine Anforderung reagiert oder ob der Agent keine zu verarbeitende Anforderung aufweist (der Agent verfügbar ist)), Identifikationsinformationen von Antwortzielbenutzern und Arten von Aufgaben entsprechend Anforderungen, die sich in Verarbeitung befinden, miteinander assoziiert.
  • Zu diesen Zeitpunkt, zum Beispiel falls die Servervorrichtung 30B bestimmt, dass eine Anforderung von einem Benutzer U-2 durch den Agenten 10B-1 unter den Agenten 10B-1 bis 10B-2 zu verarbeiten ist, ist es zum Beispiel nur notwendig, dass die Anforderungsverarbeitungseinheit 122B in dem Agenten 10B-1 die Anforderung von dem Benutzer U-2 als ein Ausführungsziel setzt (zum Beispiel ist es nur notwendig, dass die Anforderungsverarbeitungseinheit 122B in dem Agenten 10B-1 die Anforderung von dem Benutzer U-2 zu der Anforderungswarteschlange hinzufügt).
  • Falls dagegen nicht bestimmt wird, dass die Anforderung von dem Benutzer U-2 durch den Agenten 10B-1 unter den Agenten 10B-1 bis 10B-2 zu verarbeiten ist, muss die Anforderungsverarbeitungseinheit 122B in dem Agenten 10B-1 die Anforderung von dem Benutzer U-2 nicht als das Ausführungsziel setzen (zum Beispiel muss die Anforderungsverarbeitungseinheit 122B in dem Agenten 10B-1 die Anforderung von dem Benutzer U-2 nicht zu der Anforderungswarteschlange hinzufügen).
  • Falls zum Beispiel der Agent 10B-1 unter den Agenten 10B-1 bis 10B-2 dem Benutzer U-2 am Nächsten ist, kann die Servervorrichtung 30B bestimmen, dass die Anforderung von dem Benutzer U-2 durch den Agenten 10B-1 zu verarbeiten ist. Falls als Alternative der Agent 10B-1 keine Anforderung zu verarbeiten hat (eine der Anforderung entsprechende Aufgabe), kann die Servervorrichtung 30B bestimmen, dass die Anforderung von dem Benutzer U-2 durch den Agenten 10B-1 unter den Agenten 10B-1 bis 10B-2 zu verarbeiten ist.
  • Falls der Agent 10B-1 keine Anforderung zu verarbeiten hat (eine der Anforderung entsprechende Aufgabe), kann wie oben beschrieben bestimmt werden, dass die Anforderung von dem Benutzer U-2 durch den Agenten 10B-1 zu verarbeiten ist. Es wird jedoch auch angenommen, dass der Agent 10B-1 von dem Benutzer U-2 entfernt ist. In einem solchen Fall ist es deshalb möglich, dass die Anforderungsverarbeitungseinheit 122B in dem Agenten 10B-1 eine Reaktion auf die Anforderung ändert. Zum Beispiel kann die Anforderungsverarbeitungseinheit 122B eine Kombination von Sprache und Schirmanzeige als die Reaktion auf die Anforderung verwenden, kann große Sprache als die Reaktion auf die Anforderung verwenden oder kann Schirmanzeige, in der große Zeichen angezeigt werden, als die Reaktion auf die Anforderung verwenden.
  • Es wurden oben die Einzelheiten der Funktionen des Informationsverarbeitungssystems 1B gemäß der zweiten Ausführungsform beschrieben.
  • [ Operationsbeispiel]
  • Als Nächstes wird ein Operationsbeispiel für das Informationsverarbeitungssystem 1B gemäß der zweiten Ausführungsform beschrieben. 20 ist ein Flussdiagramm eines Beispiels für durch den Agenten 10B-1 durchgeführte Operation zur Bestimmung, ob eine Anforderung als ein Ausführungsziel zu setzen ist oder nicht. Man beachte, dass es möglich ist, dass die Agenten 10B-2 bis 10B-N ähnliche Operation ausführen. Wie in 20 dargestellt bewirkt, wenn eine Anforderung von dem Benutzer U-2 empfangen wird (S41), die Anforderungsverarbeitungseinheit 122B des Agenten 10B-1, dass eine Distanz zwischen dem Benutzer U-2 und dem Agenten 10B-1 zu der Servervorrichtung 30B gesendet wird (S42).
  • Wenn die Kommunikationseinheit 140 eine Reaktionsausführungsanweisung zum Reagieren auf die Anforderung von der Servervorrichtung 30B empfängt („Ja“ in S43), reagiert die Anforderungsverarbeitungseinheit 122B auf die Anforderung (S44). Wenn dagegen die Kommunikationseinheit 140 nicht die Reaktionsausführungsanweisung zum Reagieren auf die Anforderung von der Servervorrichtung 30B empfängt („Nein“ in S43), reagiert die Anforderungsverarbeitungseinheit 122B nicht auf die Anforderung und beendet ihre Operation.
  • 21 ist ein Flussdiagramm eines Beispiels für Operation, die durch die Servervorrichtung 30B zum Auswählen eines Agenten zum Ausführen einer Anforderung ausgeführt wird. Wie in 21 dargestellt, empfängt die Kommunikationseinheit 340 der Servervorrichtung 30B eine Distanz zwischen dem Agenten 10B-1 und dem Benutzer U-2 von dem Agenten 10B-1 (S51). Auf ähnliche Weise empfängt die Kommunikationseinheit 340 Distanzen zwischen den Agenten 10B-2 bis 10B-N und dem Benutzer U-2 von den Agenten 10B-2 bis 10B-N. Die Distanzbeschaffungseinheit 311 beschafft diese Distanzen.
  • Als Nächstes wählt die Auswahleinheit 312 einen Agenten, der dem Benutzer U-2 am Nächsten ist, aus den Agenten 10B-1 bis 10B-N (S52). Die Ausführungsanweisungs-Ausgabeeinheit 313 bewirkt das Senden einer Reaktionsausführungsanweisung zu dem durch die Auswahleinheit 312 ausgewählten Agenten (S53). Wenn die Übertragung der Reaktionsausführungsanweisung endet, endet die Operation.
  • 22 ist ein Flussdiagramm eines anderen Beispiels für Operation, die durch die Servervorrichtung 30B zum Auswählen eines Agenten zur Ausführung einer Anforderung ausgeführt wird. Wie in 22 dargestellt, empfängt die Kommunikationseinheit 340 der Servervorrichtung 30B eine Distanz zwischen dem Agenten 10B-1 und dem Benutzer U-2 von dem Agenten 10B-1 (S51). Auf ähnliche Weise empfängt die Kommunikationseinheit 340 Distanzen zwischen den Agenten 10B-2 bis 10B-N und dem Benutzer U-2 von den Agenten 10B-2 bis 10B-N. Die Distanzbeschaffungseinheit 311 beschafft diese Distanzen.
  • Als Nächstes bestimmt die Auswahleinheit 312, ob es einen verfügbaren Agenten gibt oder nicht (S54). Falls es keinen verfügbaren Agenten gibt („Nein“ in S54), wählt die Auswahleinheit 312 einen dem Benutzer U-2 nächsten Agenten(S52) und schreitet zu S53. Falls es dagegen verfügbare Agenten gibt („Ja“ in S54), wählt die Auswahleinheit 312 einen dem Benutzer U-2 nächsten Agenten unter den verfügbaren Agenten (S55) aus. Die Ausführungsanweisungs-Ausgabeeinheit 313 bewirkt das Senden einer Reaktionsausführungsanweisung zu dem durch die Auswahleinheit 312 ausgewählten Agenten (S53). Wenn die Übertragung der Reaktionsausführungsanweisung endet, endet die Operation.
  • Es wurde oben das Operationsbeispiel für das Informationsverarbeitungssystem 1B gemäß der zweiten Ausführungsform beschrieben.
  • Es wurde oben die zweite Ausführungsform beschrieben.
  • < Dritte Ausführungsform>
  • Als Nächstes wird eine dritte Ausführungsform beschrieben. Ähnlich wie bei der zweiten Ausführungsform gibt es bei der dritten Ausführungsform mehrere Agenten 10.
  • [ Systemkonfigurationsbeispiel]
  • Als Erstes wird unter Bezugnahme auf die beigefügten Zeichnungen ein Konfigurationsbeispiel für ein Informationsverarbeitungssystem gemäß der dritten Ausführungsform beschrieben. 23 ist eine Darstellung eines Konfigurationsbeispiels für das Informationsverarbeitungssystem gemäß der dritten Ausführungsform. Wie in 23 dargestellt, umfasst ein Informationsverarbeitungssystem 1C gemäß der dritten Ausführungsform Agenten 10C-1 bis 10C-N, Steuerungen 20-1 bis 20-N (N ist eine natürliche Zahl) und eine Servervorrichtung 30A. Man beachte, dass in dem in 23 dargestellten Beispiel die Anzahl der Agenten 10 dieselbe wie die Anzahl der Steuerungen 20 ist. Ähnlich wie bei der zweiten Ausführungsform kann die Anzahl der Agenten 10 jedoch von der Anzahl der Steuerungen 20 verschieden sein.
  • Wie in 23 dargestellt, ist es ähnlich wie bei der zweiten Ausführungsform, falls ein Benutzer U-2 eine Anforderung „Bitte zeige meinen Zeitplan“ ausgibt, notwendig zu spezifizieren, welcher der Agenten 10C-1 bis 10C-N die Anforderung verarbeitet. Man beachte, dass bei der dritten Ausführungsform der Agent 10C-G (Elternvorrichtung) die Aufgabenstatustabelle 157 speichert. Außerdem fungieren die mehreren Agenten 10 außer dem Agenten 10C-G (Elternvorrichtung) als Kindervorrichtungen.
  • Zum Festlegen des Agenten 10C-G (Elternvorrichtung) kann eine beliebige Weise verwendet werden. Zum Beispiel kann der Agent 10C-G (Elternvorrichtung) manuell durch einen Benutzer festgelegt werden. Als Alternative kann ein System (wie etwa die Servervorrichtung 30A) den Agenten 10C-G (Elternvorrichtung) automatisch unter Agenten in einer Kommunikationsreichweite festlegen. Zum Beispiel kann der Agent 10C-G (Elternvorrichtung) zufällig festgelegt werden, oder ein Agent, der die höchste Kontakthäufigkeit mit einem Benutzer aufweist, kann als der Agent 10C-G (Elternvorrichtung) festgelegt werden. Außerdem können die Kindervorrichtungen über Nahfeldkommunikation oder dergleichen miteinander kommunizieren.
  • Es wurde oben das Konfigurationsbeispiel für das Informationsverarbeitungssystem 1C gemäß der dritten Ausführungsform beschrieben.
  • [ Funktionskonfigurationsbeispiel für Elternvorrichtung]
  • Als Nächstes wird ein Funktionskonfigurationsbeispiel für den Agenten 10C-G (Elternvorrichtung) gemäß der dritten Ausführungsform beschrieben. Der Agent 10C-G (Elternvorrichtung) gemäß der dritten Ausführungsform ist insofern von dem Agenten 10B gemäß der zweiten Ausführungsform verschieden, als der Agent 10C-G anstelle der Steuereinheit 120B eine Steuereinheit 120C umfasst. Im Folgenden wird hauptsächlich ein Funktionskonfigurationsbeispiel für die Steuereinheit 120C beschrieben. 24 ist eine Darstellung eines ausführlichen Konfigurationsbeispiels für die Steuereinheit 120C.
  • Wie in 24 dargestellt, umfasst die Steuereinheit 120C in dem Agenten 10C-G (Elternvorrichtung) die Detektionseinheit 121, die Anforderungsverarbeitungseinheit 122B und die Ausführungssteuereinheit 123. Außerdem umfasst die Steuereinheit 120C in dem Agenten 10C-G (Elternvorrichtung) auch die Distanzbeschaffungseinheit 311, die Auswahleinheit 312 und die Ausführungsanweisungs-Ausgabeeinheit 313.
  • Es wurde oben das Funktionskonfigurationsbeispiel für den Agenten 10C-G (Elternvorrichtung) gemäß der dritten Ausführungsform beschrieben.
  • [ Operationsbeispiel]
  • Als Nächstes wird ein Operationsbeispiel für das Informationsverarbeitungssystem 1C gemäß der dritten Ausführungsform beschrieben. 25 ist ein Flussdiagramm eines Beispiels für Operation, die durch den Agenten 10C-1 (Kindervorrichtung) ausgeführt wird, um zu bestimmen, ob eine Anforderung als ein Ausführungsziel zu setzen ist oder nicht. Man beachte, dass es möglich ist, dass die anderen Kindervorrichtungen ähnliche Operation ausführen. Wie in 25 dargestellt, bewirkt, wenn eine Anforderung von dem Benutzer U-2 empfangen wird (S61) die Anforderungsverarbeitungseinheit 122B in dem Agenten 10C-1 (Kindervorrichtung), das eine Distanz zwischen dem Benutzer U-2 und dem Agenten 10C-1 (Kindervorrichtung) zu dem Agenten 10C-G (Elternvorrichtung) gesendet wird (S62).
  • Wenn die Kommunikationseinheit 140 eine Reaktionsausführungsanweisung zum Reagieren auf die Anforderung von dem Agenten 10C-G (Elternvorrichtung) empfängt („Ja“ in S63), reagiert die Anforderungsverarbeitungseinheit 122B auf die Anforderung (S64). Wenn die Kommunikationseinheit 140 dagegen nicht die Reaktionsausführungsanweisung zum Reagieren auf die Anforderung von dem Agenten 10C-G (Elternvorrichtung) empfängt („Nein“ in S63), reagiert die Anforderungsverarbeitungseinheit 122B nicht auf die Anforderung und beendet ihre Operation.
  • 26 ist ein Flussdiagramm eines Beispiels für Operation, die durch den Agenten 10C-G (Elternvorrichtung) zum Auswählen eines Agenten zum Ausführen einer Anforderung ausgeführt wird. Wie in 26 dargestellt, empfängt die Kommunikationseinheit 340 des Agenten 10C-G (Elternvorrichtung) eine Distanz zwischen dem Agenten 10C-1 (Kindervorrichtung) und dem Benutzer U-2 von dem Agenten 10C-1 (S71). Auf ähnliche Weise empfängt die Kommunikationseinheit 340 Distanzen von den anderen Kindervorrichtungen. Die Distanzbeschaffungseinheit 311 beschafft diese Distanzen.
  • Als Nächstes wählt die Auswahleinheit 312 einen dem Benutzer U-2 nächsten Agenten aus allen Kindervorrichtungen aus (S72). Die Ausführungsanweisungs-Ausgabeeinheit 313 bewirkt das Senden einer Reaktionsausführungsanweisung zu dem durch die Auswahleinheit 312 ausgewählten Agenten (S73). Wenn die Übertragung der Reaktionsausführungsanweisung beendet ist, endet die Operation.
  • 27 ist ein Flussdiagramm eines anderen Beispiels für Operation, die durch den Agenten 10C-G (Elternvorrichtung) zum Auswählen eines Agenten zur Ausführung einer Anforderung ausgeführt wird. Wie in 27 dargestellt, empfängt die Kommunikationseinheit 340 des Agenten 10C-G (Elternvorrichtung) eine Distanz zwischen dem Agenten 10C-1 (Kindervorrichtung) und dem Benutzer U-2 von dem Agenten 10C-1 (Kindervorrichtung) (S71). Auf ähnliche Weise empfängt die Kommunikationseinheit 340 Distanzen von den anderen Kindervorrichtungen. Die Distanzbeschaffungseinheit 311 beschafft diese Distanzen.
  • Als Nächstes bestimmt die Auswahleinheit 312, ob es einen verfügbaren Agenten gibt oder nicht (S74). Falls es keinen verfügbaren Agenten gibt („Nein“ in S74) wählt die Auswahleinheit 312 einen dem Benutzer U-2 nächsten Agenten aus (S72) und schreitet zu S73. Falls es dagegen verfügbare Agenten gibt („Ja“ in S74), wählt die Auswahleinheit 312 einen dem Benutzer U-2 nächsten Agenten aus den verfügbaren Agenten aus (S75). Die Ausführungsanweisungs-Ausgabeeinheit 313 bewirkt das Senden einer Reaktionsausführungsanweisung zu dem durch die Auswahleinheit 312 ausgewählten Agenten (S73). Wenn die Übertragung der Reaktionsausführungsanweisung beendet ist, endet die Operation.
  • Es wurde oben das Operationsbeispiel für das Informationsverarbeitungssystem 1C gemäß der dritten Ausführungsform beschrieben.
  • Es wurde oben die dritte Ausführungsform beschrieben.
  • < Übersicht (Steuerung von dem Benutzer zu präsentierenden Informationen)>
  • Es wurde oben hauptsächlich die Technologie zum Bestimmen, welche Anforderung vorzugsweise zu verarbeiten ist, beschrieben. Als Nächstes wird hauptsächlich eine Technologie zum Steuern von Informationen, die einem Benutzer zu präsentieren sind, beschrieben. In den letzten Jahren waren Technologien in Bezug auf Robotervorrichtungen, die einen Dialog mit einem Benutzer durchführen, bekannt. Zum Beispiel wird eine Technologie, um einem Benutzer Präsentationsinformationen zu präsentieren, offenbart. Die Präsentationsinformationen basieren auf Gefühlen des Benutzers, die aus Inhalt eines Sprechens des Benutzers bestimmt werden, und einem Freundschaftsgrad mit dem Benutzer, der im Voraus registriert wird.
  • Außerdem sind Technologien in Bezug auf einen Agenten, der einen Dialog mit einem Benutzer durch Verwendung von auf Sprachinformationen basierenden Präsentationsinformationen durchführt, bekannt. Außerdem sind auch Technologien in Bezug auf einen Agenten, der auch einem Benutzer Videoinformationen als Präsentationsinformationen zusätzlich zu Sprachinformationen präsentiert, bekannt. Falls es möglich ist, sowohl Sprachinformationen als auch Videoinformationen einem Benutzer auf eine solche Weise als Präsentationsinformationen zu präsentieren, kann ein für jeden Benutzer wünschenswerter Dialog durchgeführt werden, indem die Sprachinformationen und die Videoinformationen jedem Benutzer effizient präsentiert werden.
  • Als Nächstes werden zwei spezifische Beispiele verwendet. In einem ersten Beispiel wird angenommen, dass ein Benutzer von einem Agenten anfordert, Informationen in Bezug auf Wetter zu präsentieren. In diesem Fall wird betrachtet, dass als Reaktion auf die Anforderung nur Sprachinformationen (wie etwa Sprachinformationen „Morgen wird es sonnig“) einem Benutzer in einem Zustand präsentiert werden, in dem der Benutzer keinen Schirm sehen kann. Andererseits ist es möglich, dass ein Benutzer in einem Zustand, in dem der Benutzer einen Schirm sehen kann, nicht nur die Sprachinformationen, sondern auch Videoinformationen auf einem Schirm verwendet. Eine Präsentation für einen Benutzer wird jedoch redundant, wenn dem Benutzer durch Verwendung der Videoinformationen präsentierter Inhalt derselbe wie dem Benutzer durch die Sprachinformationen präsentierter Inhalt ist.
  • In einem zweiten Beispiel wird angenommen, dass ein Benutzer von einem Agenten anfordert, Informationen empfohlener Ausflugsziele zu präsentieren. In diesem Fall wird betrachtet, dass die empfohlenen Orte einem Benutzer in einem Zustand präsentiert werden, in dem der Benutzer einen Schirm nicht sehen kann, auf solche Weise, dass alle empfohlenen Ziele sequentiell durch Verwendung von Sprachinformationen wie „Empfohlene Orte sind A, B, C ...“ präsentiert werden. Wenn dagegen nur die Sprachinformationen einem Benutzer in einem Zustand präsentiert werden, in dem der Benutzer einen Schirm sehen kann, muss der Benutzer auf den Abschluss der Wiedergabe der Sprachinformationen aller empfohlener Orte warten, obwohl der Benutzer Videoinformationen verwenden kann.
  • In einem solchen Fall ist es vorzuziehen, einem Benutzer zu präsentierende Sprachinformationen und Videoinformationen zum Beispiel abhängig davon zu steuern, ob der Benutzer einen Schirm jetzt visuell erkennt oder nicht. Zum Beispiel ist es in dem ersten Beispiel möglich, eine für den Benutzer wünschenswerte Präsentation bereitzustellen, indem dem Benutzer, der jetzt den Schirm visuell erkennt, Videoinformationen in Bezug auf Wetter bereitgestellt werden, während zusätzlich Sprachinformationen bereitgestellt werden (zusätzliche Informationen wie „Bitte viel trinken, weil es heute sehr heiß wird“). Dagegen ist es möglich, Sprachinformationen alleine als Reaktion auf eine Anforderung von einem Benutzer bereitzustellen, der jetzt den Schirm visuell nicht erkennt.
  • In dem zweiten Beispiel ist es möglich, Präsentation bereitzustellen, die für den Benutzer wünschenswert ist, der jetzt den Schirm visuell erkennt, indem Videoinformationen einer Liste von Empfehlungsinformationen bereitgestellt werden, während eine Demonstrative (wie etwa „An welchen dieser sind Sie interessiert?“) durch Verwendung von Sprachinformationen präsentiert wird. Dagegen ist es möglich, Sprachinformationen alleine als Reaktion auf eine Anforderung von einem Benutzer bereitzustellen, der jetzt den Schirm nicht visuell erkennt.
  • Wie oben beschrieben ist es zum Beispiel vorzuziehen, Sprachinformationen und Videoinformationen, die einem Benutzer zu präsentieren sind, abhängig davon zu steuern, ob der Benutzer jetzt visuell einen Schirm erkennt. Als Nächstes wird hauptsächlich eine Technologie beschrieben, die in der Lage ist, die mehreren dem Benutzer zu präsentierenden Elemente von Präsentationsinformationen auf eine Weise zu steuern, die vom Benutzer erwünscht wird. Man beachte, dass Arten der mehreren Elemente von Präsentationsinformationen nicht speziell beschränkt sind. Auf ähnliche Weise wie bei dem oben beschriebenen Beispiel wird hauptsächlich ein Fall angenommen, in dem die mehreren Elemente von Präsentationsinformationen Videoinformationen und Sprachinformationen umfassen. Die Videoinformationen können ein Standbild oder ein bewegtes Bild sein.
  • Es wurde oben hauptsächlich die Übersicht über die Technologie zum Steuern von einem Benutzer zu präsentierenden Informationen beschrieben.
  • < Vierte Ausführungsform>
  • Als Nächstes wird eine vierte Ausführungsform beschrieben. Bei der ersten Ausführungsform wird hauptsächlich angenommen, dass die Anzahl des Agenten 10 eins ist. Bei der vierten Ausführungsform wird auch hauptsächlich angenommen, dass die Anzahl des Agenten 10 eins ist. Es ist jedoch auch möglich, dass es mehrere der Agenten 10 gibt.
  • [Systemkonfigurationsbeispiel]
  • Als Erstes wird unter Bezugnahme auf die beigefügten Zeichnungen ein Konfigurationsbeispiel für ein Informationsverarbeitungssystem gemäß der vierten Ausführungsform beschrieben. 28 ist eine Darstellung eines Konfigurationsbeispiels für das Informationsverarbeitungssystem gemäß der vierten Ausführungsform. Wie in 28 dargestellt, umfasst ein Informationsverarbeitungssystem 1D gemäß der vierten Ausführungsform einen Agenten 10D. Man beachte, dass bei der vierten Ausführungsform hauptsächlich angenommen wird, dass das Informationsverarbeitungssystem 1D keine Servervorrichtung umfasst, die in der Lage ist, über das Kommunikationsnetzwerk mit dem Agenten 10D zu kommunizieren. Es ist jedoch möglich, dass das Informationsverarbeitungssystem 1D eine solche Servervorrichtung umfasst.
  • Man beachte, dass bei der vierten Ausführungsform hauptsächlich angenommen wird, dass Präsentationsinformationen einem Benutzer U-1 als Reaktion auf eine Anforderung präsentiert werden. Es ist jedoch möglich, dem Benutzer U-1 die Präsentationsinformationen ungeachtet des Empfangs der Anforderung vom Benutzer U-1 zu präsentieren. Man beachte, dass bei der vierten Ausführungsform hauptsächlich ein Fall beschrieben wird, bei dem eine Anforderung auf der Basis eines Sprechens des Benutzers U-1 ausgegeben wird. Es ist jedoch auch möglich, eine Anforderung auf der Basis von Operation auszugeben, die an einer Steuerung ausgeführt wird, ähnlich wie bei der ersten bis dritten Ausführungsform. Man beachte, dass es auch möglich ist, die Präsentationsinformationen den Benutzern U-2 bis U-N auf ähnliche Weise wie für den Benutzer U-1 zu präsentieren.
  • Es wurde oben das Konfigurationsbeispiel für das Informationsverarbeitungssystem 1D gemäß der vierten Ausführungsform beschrieben.
  • [ Funktionskonfigurationsbeispiel für Agenten]
  • Als Nächstes wird ein Funktionskonfigurationsbeispiel für den Agenten 10D gemäß der vierten Ausführungsform beschrieben. Der Agent 10D gemäß der vierten Ausführungsform ist insofern von dem Agenten 10A gemäß der ersten Ausführungsform verschieden, als der Agent 10D anstelle der Steuereinheit 120A eine Steuereinheit 120D umfasst. Im Folgenden wird hauptsächlich ein Funktionskonfigurationsbeispiel für die Steuereinheit 120D beschrieben. 29 ist eine Darstellung eines ausführlichen Konfigurationsbeispiels für die Steuereinheit 120D. Wie in 29 dargestellt, umfasst die Steuereinheit 120D eine Lagebestimmungseinheit 124, eine Lageinformations-Beschaffungseinheit 125, eine Präsentationssteuereinheit 126 und eine Lernprozesseinheit 127.
  • Es wurde oben das Funktionskonfigurationsbeispiel für den Agenten 10D gemäß der vierten Ausführungsform beschrieben.
  • [ Einzelheiten von Funktionen des Informationsverarbeitungssystems]
  • Als Nächstes werden Einzelheiten der Funktionen des Informationsverarbeitungssystems 1D gemäß der vierten Ausführungsform beschrieben. Bei der vierten Ausführungsform beschafft die Lagebestimmungseinheit 124 Sensordaten und bestimmt eine Lage des Benutzers U-1 auf der Basis der Sensordaten, um Lageinformationen des Benutzer U-1 zu beschaffen. Bei der vierten Ausführungsform wird hauptsächlich angenommen, dass die Sensordaten ein durch die Bildgebungseinheit 114 aufgenommenes Bild sind. Die Sensordaten sind jedoch nicht auf das durch die Bildgebungseinheit 114 aufgenommene Bild beschränkt. Falls zum Beispiel ein Sensor (wie etwa ein Beschleunigungssensor) an dem Benutzer U-1 angebracht ist, können die Sensordaten durch den an den Benutzer U-1 angebrachten Sensor detektiert werden. Man beachte, dass statt des Agenten 10D die Servervorrichtung die Lagebestimmungseinheit 124 umfassen kann.
  • Die Lageinformationen des Benutzers U-1 können Informationen auf der Basis einer Richtung eines Teils des Körpers des Benutzers U-1 oder einer Richtung des ganzen Körpers des Benutzers U-1 sein. Zum Beispiel können die Lageinformationen des Benutzers U-1 eine Richtung des Gesichts des Benutzers U-1 oder einen Blick des Benutzers U-1 umfassen. Außerdem können die Lageinformationen des Benutzers U-1 Haltungsinformationen des Benutzers U-1 umfassen. Die Haltungsinformationen können Körperformdaten (wie etwa Skelettinformationen) selbst sein oder können ein Klassifikationsergebnis der Körperformdaten sein (wie etwa ein Stehzustand, Sitzzustand und dergleichen. Außerdem können die Lageinformationen des Benutzers U-1 Aktivitätsinformationen des Benutzers U-1 umfassen (wie etwa Lesen, Saubermachen, Essen und dergleichen).
  • Die Lageinformations-Beschaffungseinheit 125 beschafft durch die Lagebestimmungseinheit 124 bestimmte Lageinformationen des Benutzers U-1. Als Nächstes steuert die Präsentationssteuereinheit 126 Präsentation der Präsentationsinformationen für den Benutzer U-1. In diesem Fall steuert die Präsentationssteuereinheit 126 mehrere Elemente von Präsentationsinformationen mit verschiedenen Formen, abhängig von den Lageinformationen des Benutzers U-1. Dies ermöglicht die Steuerung der mehreren dem Benutzer zu präsentierenden Elemente von Präsentationsinformationen auf eine vom Benutzer gewünschte Weise. Man beachte, dass wie oben beschrieben bei der vierten Ausführungsform hauptsächlich angenommen wird, dass die mehreren Elemente von Präsentationsinformationen Videoinformationen und Sprachinformationen umfassen.
  • Es wird ein ausführliches Beispiel für eine Korrespondenzbeziehung zwischen Lageinformationen des Benutzers U-1, Videoinformationen und Sprachinformationen beschrieben. Bei der vierten Ausführungsform wird angenommen, dass es Präsentation in einem „Sprache-und-Video-Präsentationsmodus“ und Präsentation in einem „Sprach-Hauptpräsentationsmodus“ gibt. Falls speziell die Lageinformationen des Benutzers U-1 eine erste Bedingung (die im Folgenden auch als „Schirmsichtbarkeitsbedingung“ bezeichnet wird) erfüllt, steuert die Präsentationssteuereinheit 126 Präsentation in dem „Sprache-und-Video-Präsentationsmodus“, der der Schirmsichtbarkeitsbedingung zugeordnet ist. Falls dagegen die Lageinformationen des Benutzers U-1 eine zweite Bedingung (die im Folgenden auch als „Schirmnichtsichtbarkeitsbedingung“ bezeichnet wird) erfüllt, steuert die Präsentationssteuereinheit 126 Präsentation in dem „Sprach-Hauptpräsentationsmodus“, der der Schirmnichtsichtbarkeitsbedingung zugeordnet ist.
  • Der „Sprache-und-Video-Präsentationsmodus“ ist hier ein Modus zum Präsentieren sowohl von Videoinformationen als auch von Sprachinformationen für den Benutzer U-1. Anders ausgedrückt steuert, falls die Schirmsichtbarkeitsbedingung erfüllt ist, die Präsentationssteuereinheit 126 Präsentation sowohl von Videoinformationen als auch von Sprachinformationen für den Benutzer U-1. Die Videoinformationen und Sprachinformationen sind der Schirmsichtbarkeitsbedingung zugeordnet. Es kann eine beliebige Weise zum Präsentieren der Sprachinformationen verwendet werden. Zum Beispiel können die Sprachinformationen durch Verwendung von Text-zu-Sprache (TTS) präsentiert werden. Im „Sprache-und-Video-Präsentationsmodus“ müssen die Sprachinformationen jedoch nicht dem Benutzer U-1 präsentiert werden (natürlich ist es vorzuziehen, die Sprachinformationen zu präsentieren).
  • Dagegen ist der „Sprach-Hauptpräsentationsmodus“ ein Modus zum Präsentieren von Sprachinformationen für den Benutzer U-1. Falls anders ausgedrückt die Schirmnichtsichtbarkeitsbedingung erfüllt ist, steuert die Präsentationssteuereinheit 126 Präsentation von Sprachinformationen für den Benutzer U-1. Die Sprachinformationen sind der Schirmnichtsichtbarkeitsbedingung zugeordnet. Es ist jedoch auch möglich, zusätzlich zu den Sprachinformationen im „Sprach-Hauptpräsentationsmodus“ dem Benutzer U-1 Videoinformationen zu präsentieren. Falls anders ausgedrückt die Schirmnichtsichtbarkeitsbedingung erfüllt ist, ist es möglich, dass die Präsentationssteuereinheit 126 Präsentation von Videoinformationen für den Benutzer U-1 steuert. Die Videoinformationen sind der Schirmnichtsichtbarkeitsbedingung zugeordnet. Selbst falls die Videoinformationen dem Benutzer U-1 präsentiert werden, ist es jedoch wünschenswert, Sprachinformationen zu präsentieren, so dass der Benutzer U-1 den Reaktionsinhalt ausreichend nur durch die Sprachinformationen verstehen kann.
  • 30 ist eine Darstellung eines Beispiels für Korrespondenzbeziehungen zwischen Bedingungen und Präsentationsmodi. Wie in 30 dargestellt, kann die Schirmsichtbarkeitsbedingung eine Bedingung umfassen, dass der Benutzer U-1 einen die Videoinformationen zeigenden Schirm (der im Folgenden auch einfach als „Schirm“ bezeichnet wird) jetzt visuell erkennt. Außerdem kann die Schirmsichtbarkeitsbedingung eine Bedingung umfassen, dass sich der Benutzer U-1 in einem Zustand befindet, in der Lage zu sein, den Schirm visuell zu erkennen. Außerdem kann die Schirmsichtbarkeitsbedingung eine Bedingung umfassen, dass Verhalten des Benutzers U-1 nicht durch visuelles Erkennen des Schirms unterbrochen wird.
  • Dagegen kann wie in 30 dargestellt die Schirmnichtsichtbarkeitsbedingung eine Bedingung umfassen, dass der Benutzer den Schirm jetzt nicht visuell erkennt. Außerdem kann die Schirmnichtsichtbarkeitsbedingung eine Bedingung umfassen, dass sich der Benutzer U-1 in einem Zustand befindet, nicht in der Lage zu sein, den Schirm visuell zu erkennen. Außerdem kann die Schirmnichtsichtbarkeitsbedingung eine Bedingung umfassen, dass Verhalten des Benutzers U-1 durch visuelles Erkennen des Schirms unterbrochen wird.
  • Zum Beispiel kann wie in 30 dargestellt die Präsentationssteuereinheit 126 auf der Basis einer Richtung des Gesichts des Benutzers U-1 oder eines Blicks des Benutzers U-1 bestimmen, ob der Benutzer U-1 jetzt den Schirm visuell erkennt (Muster 1). Falls speziell der Blick oder die Richtung des Gesichts des Benutzers U-1 eine vorbestimmte Positionsbeziehung mit dem Schirm aufweist, ist es möglich, dass die Präsentationssteuereinheit 126 bestimmt, dass der Benutzer U-1 den Schirm jetzt visuell erkennt. Falls dagegen der Blick oder die Richtung des Gesichts des Benutzers U-1 keine vorbestimmte Positionsbeziehung mit dem Schirm aufweist, ist es möglich, dass die Präsentationssteuereinheit 126 bestimmt, dass der Benutzer U1 jetzt den Schirm nicht visuell erkennt.
  • Hier kann eine beliebige Weise zum Setzen einer Position des Schirms verwendet werden. Falls zum Beispiel die Position des Schirms automatisch auf der Basis eines durch die Bildgebungseinheit 114 aufgenommenen Bildes erkannt wird, ist es möglich, die automatisch erkannte Position des Schirms als die Position des Schirms zu setzen. Als Alternative ist es auch möglich, eine Position eines Schirms im Voraus manuell zu setzen.
  • Spezieller kann die Präsentationssteuereinheit 126 bestimmen, dass der Benutzer U-1 jetzt den Schirm visuell erkennt, falls sich der Blick oder die Richtung des Gesichts des Benutzers U-1 (oder ein Sichtkegelstumpf auf der Basis der Richtung des Gesichts oder ein Sichtkegelstumpf auf der Basis des Blicks) mit dem Schirm schneidet. Dagegen kann die Präsentationssteuereinheit 126 bestimmen, dass der Benutzer U-1 den Schirm jetzt nicht visuell erkennt, falls sich der Blick oder die Richtung des Gesichts des Benutzers U-1 (oder ein Sichtkegelstumpf auf der Basis der Richtung des Gesichts oder ein Sichtkegelstumpf auf der Basis des Blicks) mit dem Schirm nicht schneidet.
  • Außerdem kann die Präsentationssteuereinheit 126 bestimmen, dass der Benutzer U-1 den Schirm jetzt nicht visuell erkennt, wenn sich der Benutzer U-1 nicht in der maximalen sichtbaren Distanz von dem Schirm befindet, selbst falls sich der Blick oder die Richtung des Gesichts des Benutzers U-1 (oder ein Sichtkegelstumpf auf der Basis der Richtung des Gesichts oder ein Sichtkegelstumpf auf der Basis des Blicks) mit dem Schirm schneidet. Falls aktuell zum Beispiel Zeichen auf dem Schirm angezeigt werden, ist es möglich, dass die Präsentationssteuereinheit 126 die maximale sichtbare Distanz auf der Basis der Anzeigegrößen der Zeichen berechnet.
  • Außerdem kann die Präsentationssteuereinheit 126 bestimmen, dass der Benutzer U-1 den Schirm jetzt nicht visuell erkennt, wenn es ein Hindernis zwischen dem Benutzer U-1 und dem Schirm gibt, selbst falls sich der Blick oder die Richtung des Gesichts des Benutzers U-1 (oder ein Sichtkegelstumpf auf der Basis der Richtung des Gesichts oder ein Sichtkegelstumpf auf der Basis des Blicks) mit dem Schirm schneidet. Zum Beispiel ist es möglich, dass die Präsentationssteuereinheit 126 bestimmt, dass es ein Hindernis zwischen dem Benutzer U-1 und dem Schirm gibt, falls auf der Basis eines durch die Bildgebungseinheit 114 aufgenommenen Bildes ein Objekt zwischen dem Benutzer U-1 und dem Schirm detektiert wird.
  • Außerdem kann die Präsentationssteuereinheit 126, wie in 30 dargestellt, auf der Basis von Haltungsinformationen des Benutzers U-1 bestimmen, ob sich der Benutzer U-1 in dem Zustand befindet, in der Lage zu sein, den Schirm (Muster 2) visuell zu erkennen. Speziell kann die Präsentationssteuereinheit 126 eine sichtbare Entfernung (wie etwa eine Winkelbreite einer Gesichtsrichtung) des Benutzers U-1 gemäß den Haltungsinformationen des Benutzers U-1 berechnen und kann bestimmen, dass sich der Benutzer U-1 in dem Zustand befindet, den Schirm visuell zu erkennen, falls die sichtbare Entfernung eine vorbestimmte Positionsbeziehung mit dem Schirm aufweist. Falls dagegen die sichtbare Entfernung nicht die vorbestimmte Positionsbeziehung mit dem Schirm aufweist, ist es möglich, dass die Präsentationssteuereinheit 126 bestimmt, dass sich der Benutzer U-1 in dem Zustand befindet, nicht in der Lage zu sein, den Schirm visuell zu erkennen.
  • Zum Beispiel kann im Voraus eine Beziehung zwischen den Haltungsinformationen des Benutzers U-1 und der sichtbaren Entfernung des Benutzers U-1 festgelegt werden. Falls zum Beispiel die Haltungsinformationen des Benutzers U01 den „stehenden Zustand“ angeben, kann die sichtbare Entfernung breiter als ein Fall sein, in dem die Haltungsinformationen des Benutzers U-1 den „sitzenden Zustand“ angeben.
  • Spezieller kann die Präsentationssteuereinheit 126 bestimmen, dass sich der Benutzer U-1 in dem Zustand befindet, in der Lage zu sein, den Schirm visuell zu erkennen, falls die sichtbare Entfernung des Benutzers U-1 entsprechend den Haltungsinformationen des Benutzers U-1 sich mit dem Schirm schneitet. Dagegen kann die Präsentationssteuereinheit 126 bestimmen, dass sich der Benutzer U-1 in dem Zustand befindet, nicht in der Lage zu sein, den Schirm visuell zu erkennen, falls sich die sichtbare Entfernung des Benutzers U-1 entsprechend den Haltungsinformationen des Benutzers U-1 nicht mit dem Schirm schneidet.
  • Außerdem kann die Präsentationssteuereinheit 126 bestimmen, dass sich der Benutzer U-1 in dem Zustand befindet, nicht in der Lage zu sein, den Schirm visuell zu erkennen, wenn eine Distanz zwischen dem Benutzer U-1 und dem Schirm die maximale sichtbare Distanz übersteigt, selbst falls sich die sichtbare Entfernung des Benutzers U-1 entsprechend den Haltungsinformationen des Benutzers U-1 mit dem Schirm schneidet. Als Alternative kann die Präsentationssteuereinheit 126 bestimmen, dass sich der Benutzer U-1 in dem Zustand befindet, nicht in der Lage zu sein, den Schirm visuell zu erkennen, wenn ein Hindernis zwischen dem Benutzer U-1 und dem Schirm besteht, selbst falls sich die sichtbare Entfernung des Benutzers U-1 entsprechend den Haltungsinformationen des Benutzers U-1 mit dem Schirm schneidet.
  • Außerdem kann die Präsentationssteuereinheit 126, wie in 30 dargestellt, auf der Basis von Aktivitätsinformationen des Benutzers U-1 bestimmen, ob Verhalten des Benutzers U-1 durch visuelles Erkennen des Schirms (Muster 3) unterbrochen wird. Speziell kann die Präsentationssteuereinheit 126 bestimmen, dass Verhalten des Benutzer U-1 durch visuelles Erkennen des Schirms nicht unterbrochen wird, falls die Aktivitätsinformationen des Benutzers U-1 erste Aktivitätsinformationen sind (wie etwa ein Zustand, in dem ein Benutzer auf einem Sofa sitzt). Dagegen kann die Präsentationssteuereinheit 126 bestimmen, dass das Verhalten des Benutzers U-1 durch visuelles Erkennen des Schirms unterbrochen wird, falls die Aktivitätsinformationen des Benutzers U-1 zweite Aktivitätsinformationen sind (wie etwa Lesen, Saubermachen, Essen und dergleichen).
  • Wie oben beschrieben ist auf gleichförmige Weise trotz Benutzern die Schirmsichtbarkeitsbedingung dem „Sprache-und-Video-Präsentationsmodus“ zugeordnet, und die Schirmnichtsichtbarkeitsbedingung ist dem „Sprach-Hauptpräsentationsmodus“ zugeordnet. Es besteht jedoch eine Wahrscheinlichkeit, dass ein wünschenswerter Präsentationsmodus abhängig davon, welche Bedingung erfüllt ist, zwischen Benutzern unterschiedlich sein kann. Deshalb ist abhängig von jedem Benutzer die Schirmsichtbarkeitsbedingung dem „Sprache-und-Video-Präsentationsmodus“ zugeordnet und die Schirmnichtsichtbarkeitsbedingung dem „Sprach-Hauptpräsentationsmodus“ zugeordnet. Außerdem kann es möglich sein, eine solche Zuordnung abhängig von jedem Benutzer zu ändern.
  • Zum Beispiel ist es möglich, dass die Lernprozesseinheit 127 die Zuordnung zwischen der Schirmsichtbarkeitsbedingung entsprechend dem Benutzer U-1 und dem Sprache-und-Video-Präsentationsmodus ändert, falls auf der Basis des der Schirmsichtbarkeitsbedingung zugeordneten Sprache-und-Video-Präsentationsmodus nach dem Steuern der Präsentation für den Benutzer U-1 der erste Zustand des Benutzers U-1 detektiert wird. Außerdem kann die Lernprozesseinheit 127 die Schirmsichtbarkeitsbedingung entsprechend dem Benutzer U-1 neu dem Sprach-Hauptpräsentationsmodus zuordnen.
  • Hier kann der erste Zustand eine durch den Benutzer U-1 ausgeführte vorbestimmte Änderungsoperation sein. Zum Beispiel kann die Änderungsoperation eine Änderung angebende vorbestimmte Geste, ein Änderung angebendes Sprechen oder eine andere Operation sein. Als Alternative kann der erste Zustand ein Zustand sein, in dem der Benutzer U-1 den Schirm nicht visuell erkennt (ein Zustand, in dem der Schirm keine vorbestimmte Positionsbeziehung mit einem Blick oder einer Richtung des Gesichts des Benutzers U-1 aufweist).
  • Dagegen ist es möglich, dass die Lernprozesseinheit 127 die Zuordnung zwischen der Schirmnichtsichtbarkeitsbedingung entsprechend dem Benutzer U-1 und dem Sprach-Hauptpräsentationsmodus ändert, falls auf der Basis des der Schirmsichtbarkeitsbedingung zugeordneten Sprach-Hauptpräsentationsmodus der zweite Zustand des Benutzers U-1 nach dem Steuern der Präsentation für den Benutzer U-1 detektiert wird. Außerdem kann die Lernprozesseinheit 127 die Schirmnichtsichtbarkeitsbedingung entsprechend dem Benutzer U-1 neu dem Sprache-und-Video-Präsentationsmodus zuordnen.
  • Der zweite Zustand kann hier eine durch den Benutzer U-1 ausgeführte vorbestimmte Änderungsoperation sein. Zum Beispiel kann die Änderungsoperation eine Änderung angebende vorbestimmte Geste, ein Änderung angebendes Sprechen oder eine andere Operation sein. Als Alternative kann der zweite Zustand ein Zustand sein, indem der Benutzer U-1 den Schirm visuell erkennt (ein Zustand, in dem der Schirm eine vorbestimmte Positionsbeziehung mit einem Blick oder einer Richtung des Gesichts des Benutzers U-1 aufweist).
  • 31 und 32 sind Darstellungen eines Beispiels für eine Korrespondenzbeziehung zwischen Bedingungen und Präsentationsmodi für jeden Benutzer. In 31 besteht eine Bedingung, dass der Schirm nicht in einer Entfernung enthalten ist, die Haltungsinformationen entspricht (sichtbare Entfernung), als Beispiel für die Schirmnichtsichtbarkeitsbedingung. Jeweilige Sprach-Hauptpräsentationsmodi der Benutzer U-1 bis U-N werden der Bedingung zugeordnet, dass der Schirm nicht in der Haltungsinformationen entsprechenden Entfernung (sichtbaren Entfernung) enthalten ist. Außerdem zeigt 31 eine Bedingung, dass es ein Hindernis gibt. Jeweilige Sprach-Hauptpräsentationsmodi der Benutzer U-1 bis U-N werden der Bedingung zugeordnet, dass sich hier ein Hindernis zwischen dem Benutzer und dem Schirm befindet.
  • Außerdem zeigt 31 eine Bedingung, dass der Schirm weit entfernt ist. Mit Bezug auf die Benutzer U-1 und U-N werden die Zuordnungen so geändert, dass jeweilige Sprache-und-Video-Präsentationsmodi der Benutzer U-1 und U-N der Bedingung zugeordnet werden, dass der Benutzer weit von dem Schirm entfernt ist (einer Bedingung, dass die Distanz zwischen dem Benutzer und dem Schirm die maximale sichtbare Entfernung überschreitet). Mit Bezug auf andere Benutzer U-2 bis U-(N-1) werden Sprach-Hauptpräsentationsmodi der Bedingung zugeordnet, dass der Benutzer weit von dem Schirm entfernt ist (einer Bedingung, dass die Distanz zwischen dem Benutzer und dem Schirm die maximale sichtbare Entfernung überschreitet).
  • 32 zeigt eine Bedingung, dass Aktivitätsinformationen des Benutzers die zweiten Aktivitätsinformationen sind (beliebige von Lesen, Saubermachen und Essen), als Beispiel für die Schirmnichtsichtbarkeitsbedingung. Mit Bezug auf den Benutzer U-N wird die Zuordnung so geändert, dass der Sprache-und-Video-Präsentationsmodus einer Bedingung zugeordnet wird, dass Aktivitätsinformationen des Benutzers „Lesen“ angeben. Mit Bezug auf jeden der Benutzer U-1 bis U-(N-1) wird der Sprach-Hauptpräsentationsmodus der Bedingung zugeordnet, dass Aktivitätsinformationen des Benutzers „Lesen“ angeben.
  • Außerdem wird mit Bezug auf jeden der Benutzer U-1 bis U-N der Sprach-Hauptpräsentationsmodus einer Bedingung zugeordnet, dass Aktivitätsinformationen des Benutzers „Sauermachen“ angeben. Außerdem wird mit Bezug auf die Benutzer U-1 bis U-(N-1) die Assoziation so geändert, dass die Sprache-und-Video-Präsentationsmodi einer Bedingung zugeordnet werden, dass Aktivitätsinformationen des Benutzers „Essen“ angeben. Mit Bezug auf den Benutzer U-N wird der Sprach-Hauptpräsentationsmodus der Bedingung zugeordnet, dass Aktivitätsinformationen des Benutzers „Essen“ angeben.
  • Als Nächstes werden spezifische Beispiele für die Präsentationsinformationen beschrieben. 33 ist eine Darstellung eines Beispiels für Präsentation im Sprach-Hauptpräsentationsmodus. Hier wird angenommen, dass der Benutzer U-1 „Was ist heute los?“ sagt, um eine Anforderung von „Präsentation des heutigen Plans“ einzugeben. 33 zeigt eine Wand Wa als Schirm zum Zeigen von Videoinformationen. Die Benutzerin U-1 erkennt jedoch den Schirm nicht visuell (da sie zum Beispiel jetzt ein Zimmer saubermacht). Deshalb bestimmt die Präsentationssteuereinheit 126, dass die Lageinformationen des Benutzers U-1 die Schirmnichtsichtbarkeitsbedingung erfüllen, und steuert Präsentation durch Verwendung des Sprach-Hauptpräsentationsmodus.
  • Wie oben beschrieben kann in dem Sprach-Hauptpräsentationsmodus die Präsentationssteuereinheit 126 Sprachinformationen alleine dem Benutzer U-1 präsentieren (Videoinformationen müssen nicht angezeigt werden). In diesem Fall ist es wünschenswert, Sprachinformationen dergestalt zu präsentieren, dass der Benutzer U-1 den Reaktionsinhalt nur durch die Sprachinformationen ausreichend verstehen kann. In dem in 33 dargestellten Beispiel umfassen die Sprachinformationen 168-1 den heutigen Plan.
  • 34 und 35 sind Darstellungen von Beispielen für Präsentation im Sprache-und-Video-Präsentationsmodus. Hier wird auch angenommen, dass der Benutzer U-1 „Was ist heute los?“ sagt, um eine Anforderung von „Präsentation des heutigen Plans“ einzugeben. In den in 34 und 35 dargestellten Beispielen erkennt der Benutzer U-1 den Schirm visuell. Deshalb bestimmt die Präsentationssteuereinheit 126, dass die Lageinformationen des Benutzers U-1 die Schirmsichtbarkeitsbedingung erfüllen, und steuert Präsentation durch Verwendung des Sprache-und-Video-Präsentationsmodus.
  • Wie oben beschrieben ist es im Sprache-und-Video-Präsentationsmodus möglich, dass die Präsentationssteuereinheit 126 dem Benutzer U-1 sowohl die Videoinformationen als auch die Sprachinformationen präsentiert. In diesem Fall ist die Schirmsichtbarkeitsbedingung erfüllt. Die in dem Sprache-und-Video-Präsentationsmodus präsentierten Videoinformationen können deshalb verglichen mit den im Sprach-Hauptpräsentationsmodus präsentierten Videoinformationen eine größere Menge an Informationen aufweisen. Dagegen können die im Sprache-und-Video-Präsentationsmodus präsentierten Sprachinformationen verglichen mit den im Sprach-Hauptpräsentationsmodus präsentierten Sprachinformationen eine kleinere Menge an Informationen aufweisen.
  • Zum Beispiel können die im Sprache-und-Video-Präsentationsmodus präsentierten Videoinformationen Grafik- und/oder Textdaten umfassen. In dem in 34 dargestellten Beispiel steuert die Präsentationssteuereinheit 126 Präsentation eines Zeitplans (Kreisdiagramm) als Videoinformationen 158-1 durch Verwendung sowohl von Grafik- als auch von Textdaten. In diesem Fall können die im Sprache-und-Video-Präsentationsmodus präsentierten Sprachinformationen einfache Sprachinformationen sein (können ein demonstratives und/oder ein abkürzendes Wort umfassen). In dem in 34 dargestellten Beispiel steuert die Präsentationssteuereinheit 126 Präsentation einfacher Sprachinformationen 168-2, die ein demonstratives „dies“ umfassen.
  • In dem in 35 dargestellten Beispiel steuert die Präsentationssteuereinheit 126 Präsentation des Zeitplans als Videoinformationen 158-2 durch Verwendung von Textdaten. Außerdem steuert in dem in 35 dargestellten Beispiel die Präsentationssteuereinheit 126 Präsentation simpler Sprachinformationen 168-2, darunter ein demonstratives „dies“, auf ähnliche Weise wie bei dem Beispiel in 34.
  • Außerdem ist es im Sprache-und-Video-Präsentationsmodus auch möglich, dass die Präsentationssteuereinheit 126 Steuerung dergestalt durchführt, dass Inhalt, der in Worten schwierig zu erläutern ist, als Videoinformationen präsentiert wird. Zum Beispiel wird angenommen, dass als Reaktion auf eine Anforderung Kandidaten gefunden werden. In einem solchen Fall ist es möglich, dass die Präsentationssteuereinheit 126 Präsentation simpler Sprachinformationen, wie etwa „Wie wär's damit?“ steuert und Steuerung dergestalt durchführt, dass Bilder der Kandidaten durch Verwendung von Grafik präsentiert werden.
  • Außerdem ist es auch möglich, dass die Präsentationssteuereinheit 126 Präsentation simpler Sprachinformationen steuert, wie etwa „Wie wäre es mit dieser Größe?“ und Steuerung dergestalt durchführt, dass der Benutzer die Größen von Kandidaten durch Sehen von Grafiken verstehen kann. Spezieller ist es möglich, zu bewirken, dass der Benutzer die Größe des Kandidaten versteht, indem ein Bild eines Dings mit ähnlicher Größe wie der Kandidat präsentiert wird (wie etwa dreimal die Größe des Tokio-Doms, oder wie etwa dieselbe Größe wie ein A4-Notizblock). Es ist vorzuziehen, ein Bild eines Dings mit ähnlicher Größe wie ein Kandidat in seiner realen Größe anzuzeigen.
  • Außerdem ist es auch möglich, dass die Präsentationssteuereinheit 126 Präsentation simpler Sprachinformationen steuert, wie etwa „Wie wäre es mit dieser Farbe?“ und Steuerung dergestalt durchführt, dass die Kandidatenfarbe durch Verwendung einer Grafik angezeigt wird. Außerdem ist es auch möglich, dass die Präsentationssteuereinheit 126 Präsentation simpler Sprachinformationen steuert, wie etwa „Wie wäre es mit diesem Gewicht?“ und Präsentation dergestalt steuert, dass der Benutzer das Kandidatengewicht durch Verwendung einer Grafik verstehen kann. Spezieller kann Präsentation, durch die der Benutzer Gewicht eines Kandidaten verstehen kann, Präsentation eines Bildes eines Dings sein, dessen Gewicht dem Kandidaten ähnlich ist.
  • Als Nächstes wird ein anderes spezifisches Beispiel für die Präsentationsinformationen beschrieben. 36 ist eine Darstellung eines anderen Beispiels für Präsentation im Sprach-Hauptpräsentationsmodus. Hier wird angenommen, dass die Benutzerin U-1 „Wie wird das Wetter heute?“ sagt, um eine Anforderung von „Präsentation des heutigen Wetters“ einzugeben. 36 zeigt eine Wand Wa als Schirm zum Zeigen von Videoinformationen. Die Benutzerin U-1 erkennt den Schirm jedoch nicht visuell (da sie jetzt zum Beispiel ein Zimmer saubermacht). Deshalb bestimmt die Präsentationssteuereinheit 126, dass die Lageinformationen der Benutzerin U-1 die Schirmnichtsichtbarkeitsbedingung erfüllen, und steuert Präsentation durch Verwendung des Sprach-Hauptpräsentationsmodus.
  • Wie oben beschrieben kann im Sprach-Hauptpräsentationsmodus die Präsentationssteuereinheit 126 Sprachinformationen alleine der Benutzerin U-1 präsentieren (es müssen keine Videoinformationen angezeigt werden). In diesem Fall ist es wünschenswert, Sprachinformationen dergestalt zu präsentieren, dass die Benutzerin U-1 den Reaktionsinhalt ausreichend nur durch die Sprachinformationen verstehen kann. In dem in 36 dargestellten Beispiel umfassen die Sprachinformationen 168-3 die heutige Wettervorhersage.
  • 37 und 38 sind Darstellungen weiterer Beispiele für Präsentation im Sprache-und-Video-Präsentationsmodus. Hier wird auch angenommen, dass die Benutzerin U-1 „Wie wird das Wetter heute?“ sagt, um eine Anforderung von „Präsentation des heutigen Wetters“ einzugeben. In den in 37 und 38 dargestellten Beispielen erkennt die Benutzerin U-1 visuell den Schirm. Deshalb bestimmt die Präsentationssteuereinheit 126, dass die Lageinformationen der Benutzerin U-1 die Schirmsichtbarkeitsbedingung erfüllen, und steuert Präsentation durch Verwendung des Sprache-und-Video-Präsentationsmodus.
  • Wie oben beschrieben ist es im Sprache-und-Video-Präsentationsmodus möglich, dass die Präsentationssteuereinheit 126 der Benutzerin U-1 sowohl die Videoinformationen als auch die Sprachinformationen präsentiert. Zum Beispiel können die im Sprache-und-Video-Präsentationsmodus präsentierten Videoinformationen Grafik- und/oder Textdaten umfassen. In dem in 37 dargestellten Beispiel steuert die Präsentationssteuereinheit 126 Präsentation der Wettervorhersage als Videoinformationen 158-3 durch Verwendung einer Grafik. In diesem Fall können die im Sprache-und-Video-Präsentationsmodus präsentierten Sprachinformationen zusätzliche Sprachinformationen umfassen. In dem in 37 dargestellten Beispiel steuert die Präsentationssteuereinheit 126 Präsentation von Sprachinformationen 168-4 einschließlich zusätzlicher Sprachinformationen „Bitte Wetter berücksichtigen, wenn Sie Ihre Wäsche draußen aufhängen wollen“.
  • In dem in 38 dargestellten Beispiel steuert die Präsentationssteuereinheit 126 Präsentation der Wettervorhersage als Videoinformationen 158-4 durch Verwendung von Textdaten. Außerdem steuert in dem in 38 dargestellten Beispiel die Präsentationssteuereinheit 126 Präsentation von Sprachinformationen 168-4, einschließlich zusätzlicher Sprachinformationen „Bitte Wetter berücksichtigen, wenn Sie Ihre Wäsche draußen aufhängen wollen“ auf ähnliche Weise wie bei dem Beispiel in 37.
  • Es wurden oben die Einzelheiten der Funktionen des Informationsverarbeitungssystems 1D gemäß der vierten Ausführungsform beschrieben.
  • [ Operationsbeispiel]
  • Als Nächstes wird ein Operationsbeispiel für das Informationsverarbeitungssystem 1D gemäß der vierten Ausführungsform beschrieben. 39 ist ein Flussdiagramm eines Beispiels für Operation, dem Benutzer U-1 als Reaktion auf eine durch den Benutzer U-1 eingegebene Anforderung Präsentationsinformationen zu präsentieren. Man beachte, dass hier hauptsächlich ein Beispiel beschrieben wird, bei dem der Benutzer U-1 eine Anforderung eingibt und als Reaktion auf die Anforderung dem Benutzer U-1 Präsentationsinformationen präsentiert werden. Wie oben beschrieben ist es jedoch möglich, die Präsentationsinformationen dem Benutzer U-1 zu präsentieren, gleichgültig ob die Anforderung eingegeben wird.
  • Wie in 39 dargestellt, beschafft die Lagebestimmungseinheit 124 Sensordaten (S101) und bestimmt eine Lage des Benutzers U-1 auf der Basis der Sensordaten (S102). Dadurch kann die Lagebestimmungseinheit 124 Lageinformationen des Benutzers U-1 beschaffen. Wie oben beschrieben können die Lageinformationen eine Richtung des Gesichts oder eines Blicks, Haltungsinformationen oder Aktivitätsinformationen umfassen. Die Lageinformationsbeschaffungseinheit 125 beschafft durch die Lagebestimmungseinheit 124 bestimmte Lageinformationen des Benutzers U-1.
  • Als Nächstes beendet, falls der Benutzer U-1 keine Anforderung eingibt („Nein“ in S103) die Präsentationssteuereinheit 126 ihre Operation. Falls dagegen eine Anforderung durch den Benutzer U-1 eingegeben wird („Ja“ in S103), spezifiziert die Präsentationssteuereinheit 126 einen Präsentationsmodus entsprechend der Lage des Benutzers U-1 (S104). Speziell spezifiziert, falls die Lageinformationen die Schirmsichtbarkeitsbedingung erfüllen, die Präsentationssteuereinheit 126 den Sprache-und-Video-Präsentationsmodus, der der Schirmsichtbarkeitsbedingung zugeordnet ist. Falls die Lageinformationen dagegen die Schirmnichtsichtbarkeitsbedingung erfüllen, spezifiziert die Präsentationssteuereinheit 126 den Sprach-Hauptpräsentationsmodus, der der Schirmnichtsichtbarkeitsbedingung zugeordnet ist.
  • Die Präsentationssteuereinheit 126 steuert eine Reaktion auf die Anforderung (Präsentation von Präsentationsinformationen) auf der Basis des spezifizierten Präsentationsmodus (S 105). Danach beschafft die Lernprozesseinheit 127 einen Zustand des Benutzers U-1 nach dem Reagieren auf die Anforderung auf der Basis des spezifizierten Präsentationsmodus. Falls der Zustand des Benutzers U-1 ein vorbestimmter Zustand ist, führt die Lernprozesseinheit 127 als Nächstes einen Prozess aus, um die Zuordnung zwischen der Bedingung und dem Präsentationsmodus zu ändern (S 106), und die Operation endet.
  • Falls zum Beispiel die durch den Benutzer U-1 ausgeführte vorbestimmte Änderungsoperation oder ein Zustand, in dem der Benutzer U-1 den Schirm nicht visuell erkennt, nach dem Ausgeben der Reaktion auf der Basis des Sprache-und-Video-Präsentationsmodus, der der Schirmsichtbarkeitsbedingung zugeordnet ist, detektiert wird, ändert die Lernprozesseinheit 127 die Zuordnung dergestalt, dass der Ton-Hauptpräsentationsmodus der Schirmsichtbarkeitsbedingung zugeordnet wird. Falls dagegen die durch den Benutzer U-1 ausgeführte vorbestimmte Änderungsoperation oder ein Zustand, indem der Benutzer U-1 visuell den Schirm erkennt, nach dem Ausgeben der Reaktion auf der Basis des Sprach-Hauptpräsentationsmodus, der der Schirmnichtsichtbarkeitsbedingung zugeordnet ist, detektiert wird, ändert die Lernprozesseinheit 127 die Zuordnung dergestalt, dass der Ton-und-Video-Präsentationmodus der Schirmnichtsichtbarkeitsbedingung zugeordnet wird.
  • Es wurde oben das Operationsbeispiel für das Informationsverarbeitungssystem 1D gemäß der vierten Ausführungsform beschrieben.
  • [ Proaktive Präsentation vom Agenten]
  • Wie oben beschrieben ist es möglich, dem Benutzer U-1 die Präsentationsinformationen zu präsentieren, gleichgültig, ob eine Anforderung vom Benutzer U-1 eingegeben wird. Anders ausgedrückt ist es möglich, dass der Agent 10D die Präsentationsinformationen dem Benutzer U-1 proaktiv präsentiert, gleichgültig, ob eine Anforderung vom Benutzer U-1 eingegeben wird. Selbst in einem solchen Fall ist es möglich, dass die Präsentationssteuereinheit 126 Präsentation von Präsentationsinformationen für den Benutzer U-1 auf der Basis von Präsentationsmodi steuert, die Lageinformationen des Benutzers U-1 entsprechen.
  • Falls jedoch der Agent 10D dem Benutzer U-1 Präsentationsinformationen ohne jegliche Vorwarnung präsentiert, wird in Betracht gezogen, dass der Benutzer U-1 den Schirm nicht mit dem Timing des Starts des Präsentierens der Präsentationsinformationen visuell erkennt. Deshalb ist es vorzuziehen, dass die Präsentationssteuereinheit 126 bewirkt, dass der Benutzer U-1 den Schirm visuell erkennt, indem vorbestimmter Ton ausgegeben wird (wie etwa der Toneffekt (SE) oder TTS) und dann einen Präsentationsmodus auf der Basis von Lageinformationen des Benutzers U-1 spezifiziert.
  • [ Anzeigeeinheit und Schirm gemäß Modifikationen]
  • In der der obigen Beschreibung wurde hauptsächlich angenommen, dass die Anzeigeeinheit 150 ein stationärer Projektor (wie etwa ein Einzelfokusprojektor) ist. Die Installationsposition der Anzeigeeinheit 150 ist jedoch nicht beschränkt. Außerdem wurde hauptsächlich angenommen, dass die Anzeigeeinheit 150 Videoinformationen auf der Wand anzeigt. Die Position der Anzeigeeinheit 150 und die Position des Schirms, auf dem die Videoinformationen durch die Anzeigeeinheit 150 angezeigt werden, sind jedoch nicht auf die Wand beschränkt. Die Position der Anzeigeeinheit 150 und die Position des Schirms, auf dem die Videoinformationen durch die Anzeigeeinheit 150 angezeigt werden, sind nicht auf die Wand beschränkt. Als Nächstes werden die Anzeigeeinheit 150 und der Schirm gemäß Modifikationen beschrieben.
  • 40 ist eine Darstellung einer Anzeigeeinheit 150 und eines Schirms gemäß einer ersten Modifikation. Wie in 40 dargestellt, kann die Anzeigeeinheit 150 ein Fernsehgerät sein. Mit Bezug auf 40 werden Videoinformationen 158 durch das Fernsehgerät angezeigt, das als ein Beispiel für die Anzeigeeinheit 150 dient. In diesem Fall ist ein Schirm, auf dem die Videoinformationen 158 durch die Anzeigesteuereinheit 150 angezeigt werden, eine vordere Oberfläche des Fernsehgeräts.
  • 41 ist eine Darstellung einer Anzeigeeinheit 150 und eines Schirms gemäß einer zweiten Modifikation. Wie in 41 dargestellt, kann die Anzeigeeinheit 150 ein an einer Decke angebrachter Projektor sein. In diesem Fall kann der an der Decke angebrachte Projektor ein Einzelfokusprojektor, ein omnidirektionaler Projektor mit der Fähigkeit zum omnidirektionalen Projizieren eines Videos oder ein Projektor des angetriebenen Typs sein, der zur Steuerung einer Anzeigeposition (Projektionsrichtung) fähig ist. In diesem Fall wird, wie in 41 dargestellt, eine Position eines Schirms, auf dem Videoinformationen durch die Anzeigeeinheit 150 projiziert werden, die Wand Wa sein.
  • 42 ist eine Darstellung einer Anzeigeeinheit 150 und eines Schirms gemäß einer dritten Modifikation. Wie in 42 dargestellt, kann die Anzeigeeinheit 150 ein stationärer Projektor (wie etwa ein Einzelfokusprojektor) sein, der auf einem Tisch Ta platziert wird. In diesem Fall kann, wie in 42 dargestellt, eine Position eines Schirms, auf dem durch die Anzeigeeinheit 150 Videoinformationen projiziert werden, eine obere Oberfläche des Tisches Ta sein.
  • 43 ist eine Darstellung einer Anzeigeeinheit 150 und eines Schirms gemäß einer vierten Modifikation. Wie in 43 dargestellt, kann die Anzeigeeinheit 150 ein an einer Decke über dem Tisch Ta angebrachter Projektor sein. In diesem Fall kann der an der Decke angebrachte Projektor ein Einzelfokusprojektor oder ein Projektor des angetriebenen Typs sein, der zur Steuerung einer Anzeigeposition (Projektionsrichtung) fähig ist. In diesem Fall kann, wie in 43 dargestellt, eine Position eines Schirms, auf dem Videoinformationen durch die Anzeigeeinheit 150 projiziert werden, eine obere Oberfläche des Tisches Ta sein.
  • 44 ist eine Darstellung einer Anzeigeeinheit 150 und eines Schirms gemäß einer fünften Modifikation. Wie in 44 dargestellt, kann die Anzeigeeinheit 150 ein Projektor (wie etwa ein Einzelfokusprojektor) sein, der an dem Tisch Ta angebracht ist, dergestalt, dass ein Video in Richtung einer unteren Seite des Tisches Ta von einer oberen Seite des Tisches Ta aus projiziert wird. In diesem Fall kann, wie in 44 dargestellt, eine Position eines Schirms, auf dem Videoinformationen durch die Anzeigeeinheit 150 projiziert werden, eine obere Oberfläche des Tisches Ta sein.
  • [ Beispiel für Präsentation gemäß mehreren Benutzern]
  • Es wurde oben das Beispiel für Präsentation von Präsentationsinformationen für einen einzigen Benutzer (Benutzer U-1) beschrieben. Hier wird ein Beispiel für Präsentation von Präsentationsinformationen für mehrere Benutzer (Benutzer U-1 bis U-N) beschrieben. Spezieller wird ein Beispiel für Präsentation von Präsentationsinformationen im Hinblick auf Situationen der mehreren Benutzer beschrieben.
  • Die Situationen der Benutzer sind nicht beschränkt. Die Situationen des Benutzers können zum Beispiel eine Lage des Benutzers umfassen (zum Beispiel, ob die Lageinformationen die Schirmsichtbarkeitsbedingung oder die Schirmnichtsichtbarkeitsbedingung erfüllen). Als Alternative können die Situationen des Benutzers eine Position des Benutzers umfassen (zum Beispiel eine Distanz vom Schirm). Als Alternative können die Situationen des Benutzers ein Attribut des Benutzers umfassen (zum Beispiel Geschlecht, Alter (wie etwa Erwachsener oder Kind), Sprache, Informationen, die angeben, ob der Benutzer in Familienmitgliedern enthalten ist, die im Agenten gesetzt sind, oder dergleichen). Als Alternative können die Situationen des Benutzers Informationen umfassen, die angeben, ob der Benutzer eine Person ist, die die Anforderung eingegeben hat (Sprecher), Informationen, die angeben, ob der Benutzer ein Empfänger von durch den Agenten präsentierten Präsentationsinformationen ist, und dergleichen.
  • Zum Beispiel kann eine Lage und eine Position (wie etwa eine Distanz von einem Schirm) eines Benutzers auf die oben beschriebene Weise detektiert werden. Außerdem wird das Attribut des Benutzers im Voraus mit Identifikationsinformationen des Benutzers assoziiert. Ein Attribut in Bezug auf die Identifikationsinformationen des Benutzers kann detektiert werden, falls der Benutzer mittels einer Gesichtserkennungstechnologie durch Verwendung eines durch die Bildgebungseinheit 114 aufgenommenen Bildes erkannt wird. Es ist möglich, auf der Basis einer Ankunftsrichtung detektierter Sprechsprache zu detektieren, ob der Benutzer der Sprecher ist. Es ist möglich, auf der Basis von Inhalt der Präsentationsinformationen zu detektieren, ob der Benutzer der Empfänger der Präsentationsinformationen ist.
  • 45 ist eine Darstellung eines Beispiels für Präsentation von Präsentationsinformationen im Hinblick auf Zustände mehrerer Benutzer. Zum Beispiel führt die Präsentationssteuereinheit 126 Steuerung dergestalt durch, dass Elemente von Präsentationsinformationen, die den jeweiligen Situationen der mehreren Benutzer entsprechen, präsentiert werden. 45 zeigt einen Benutzer U-1 und einen Benutzer U-2 als Beispiel für die mehreren Benutzer. In diesem Fall ist es möglich, dass die Präsentationssteuereinheit 126 Präsentation von ersten Präsentationsinformationen entsprechend einer Situation des Benutzers U-1 und Präsentation von zweiten Präsentationsinformationen entsprechend einer Situation des Benutzers U-2 steuert.
  • Speziell ist in dem in 45 dargestellten Beispiel der Benutzer U-1 ein Erwachsener und der Benutzer U-2 ein Kind. Hier wird angenommen, dass der erwachsene Benutzer U-1 „Wie wird das Wetter heute?“ sagt, um eine Anforderung von „Präsentation der heutigen Wettervorhersage“ einzugeben. In einem solchen Fall kann die Präsentationssteuereinheit 126 Steuerung dergestalt durchführen, dass Präsentationsinformationen für Erwachsene (wie etwa Videoinformationen 158-4, die das ausführliche Wetter zeigen) dem erwachsenen Benutzer U-1 präsentiert werden. Die Präsentationsinformationen für Erwachsene können Sprachinformationen sein. Andererseits ist es möglich, Steuerung dergestalt durchzuführen, dass Präsentationsinformationen für Kinder (wie etwa Videoinformationen 158-3, die große Symbole anzeigen, die das Wetter repräsentieren) dem Kindbenutzer U-2 präsentiert werden.
  • In einem solchen Fall können die Präsentationsinformationen für Erwachsene (wie etwa Videoinformationen 158-4, die das ausführliche Wetter zeigen) in der Nähe des erwachsenen Benutzers U-1 angezeigt werden (in dem in 45 dargestellten Beispiel einer oberen Oberfläche eines Tisches Ta in der Nähe des erwachsenen Benutzers U-1). Dagegen können die Präsentationsinformationen für Kinder (wie etwa Videoinformationen 158-3, die große Symbole anzeigen, die das Wetter repräsentieren) in der Nähe des Kindbenutzers U-2 angezeigt werden (in dem in 45 dargestellten Beispiel einer Wand Wa in der Nähe des Kindbenutzers U-2).
  • Als Alternative ist es möglich, dass die Präsentationssteuereinheit 126 einen zu priorisierenden Benutzer aus den mehreren Benutzern auswählt und mehrere Elemente von Präsentationsinformationen auf der Basis von Lageinformationen des ausgewählten Benutzers steuert. Die mehreren Elemente von Präsentationsinformationen, die Lageinformationen der Benutzer entsprechen, können wie oben beschrieben gesteuert werden. Anders ausgedrückt kann die Präsentationssteuereinheit 126 Präsentation im Sprache-und-Video-Präsentationsmodus steuern, falls die Lageinformationen des Benutzers die Schirmsichtbarkeitsbedingung erfüllen. Außerdem kann die Präsentationssteuereinheit 126 Präsentation im Sprach-Hauptpräsentationsmodus steuern, falls die Lageinformationen des Benutzers die Schirmnichtsichtbarkeitsbedingung erfüllen.
  • Es kann eine beliebige Weise zum Auswählen eines zu priorisierenden Benutzers verwendet werden. Zum Beispiel kann die Präsentationssteuereinheit 126 einen Sprecher aus mehreren Benutzern als einen zu priorisierenden Benutzer auswählen. Als Alternative kann die Präsentationssteuereinheit 126 eine Person, die Präsentationsinformationen empfängt, aus den mehreren Benutzern als einen zu priorisierenden Benutzer auswählen.
  • Als Alternative kann die Präsentationssteuereinheit 126 eine Person, die einem Schirm am nächsten ist, unter mehreren Benutzern als einen zu priorisierenden Benutzer auswählen.
  • Außerdem kann die Präsentationssteuereinheit 126 einen Erwachsenen unter mehreren Benutzern als einen zu priorisierenden Benutzer auswählen. Als Alternative kann die Präsentationssteuereinheit 126 ein Kind als einen unter mehreren Benutzern zu priorisierenden Benutzer auswählen. Zum Beispiel ist es möglich, auf der Basis von Inhalt von Präsentationsinformationen zu bestimmen, ob ein Erwachsener oder ein Kind auszuwählen ist.
  • Außerdem kann die Präsentationssteuereinheit 126 eine Person, die es am schwierigsten findet, den Schirm zu sehen, als einen unter mehreren Benutzern zu priorisierenden Benutzer auswählen. Anders ausgedrückt kann, wenn es mindestens eine Person gibt, die die Schirmnichtsichtbarkeitsbedingung erfüllt, die Präsentationssteuereinheit 126 den Sprach-Hauptpräsentationsmodus auswählen. Wenn dagegen alle Personen die Schirmsichtbarkeitsbedingung erfüllen, kann die Präsentationssteuereinheit 126 den Sprache-und-Video-Präsentationsmodus auswählen.
  • Außerdem kann die Präsentationssteuereinheit 126 eine Person, die in Familienmitgliedern, die in dem Agenten gesetzt sind, enthalten sind, als einen unter mehreren Benutzern zu priorisierenden Benutzer auswählen. Anders ausgedrückt muss die Präsentationssteuereinheit 126 nicht eine Person auswählen, die nicht in den Familienmitgliedern enthalten ist, die in dem Agenten gesetzt sind (wie etwa ein Gast, der eine Wohnung besucht).
  • Außerdem kann die Präsentationssteuereinheit 126 eine Person unter Verwendung einer selben Sprache wie einer im Agenten gesetzten Sprache (wie etwa einer vom Agenten zum Präsentieren der Präsentationsinformationen verwendeten Sprache) verwendet, als einen unter mehreren Benutzern zu priorisierenden Benutzer auswählen. Falls zum Beispiel der Agent japanisch verwendet, um die Präsentationsinformationen zu präsentieren, kann die Präsentationssteuereinheit 126 als einen Benutzer, der unter mehreren Benutzern zu priorisieren ist, eine Person auswählen, die japanisch spricht.
  • Es wurde oben die vierte Ausführungsform beschrieben.
  • < Hardware-Konfigurationsbeispiel>
  • Als Nächstes wird unter Bezugnahme auf 46 ein Hardware-Konfigurationsbeispiel für die Informationsverarbeitungsvorrichtung (Agent) 10 gemäß der Ausführungsform der vorliegenden Offenbarung beschrieben. 46 ist eine Blockdarstellung eines Hardware-Konfigurationsbeispiels für die Informationsverarbeitungsvorrichtung 10 gemäß der Ausführungsform der vorliegenden Offenbarung. Man beachte, dass eine Hardwarekonfiguration der Servervorrichtung 30 gemäß der Ausführungsform der vorliegenden Offenbarung dem Hardware-Konfigurationsbeispiel für die Informationsverarbeitungsvorrichtung 10, die in 46 dargestellt ist, ähnlich sein kann.
  • Wie in 46 dargestellt, umfasst die Informationsverarbeitungsvorrichtung 10 eine Zentralverarbeitungseinheit (CPU) 901, Festwertspeicher (ROM) 903 und Direktzugriffsspeicher (RAM) 905. Außerdem kann die Informationsverarbeitungsvorrichtung 10 einen Host-Bus 907, eine Brücke 909, einen externen Bus 911, eine Schnittstelle 913, eine Eingabevorrichtung 915, eine Ausgabevorrichtung 917, eine Speicherungsvorrichtung 919, ein Laufwerk 921, einen Verbindungsport 923 und eine Kommunikationsvorrichtung 925 umfassen. Außerdem kann die Informationsverarbeitungsvorrichtung 10 eine Bildgebungsvorrichtung 933 und einen Sensor 935, je nachdem, wie es notwendig ist, umfassen. Die Informationsverarbeitungsvorrichtung 10 kann eine Verarbeitungsschaltung umfassen, wie etwa einen Digitalsignalprozessor (DSP) oder eine anwendungsspezifische integrierte Schaltung (ASIC), als Alternative zu oder zusätzlich zu der CPU 901.
  • Die CPU 901 fungiert als arithmetische Verarbeitungsvorrichtung und Steuervorrichtung und steuert die Gesamtoperation oder einen Teil der Operation der Informationsverarbeitungsvorrichtung 10 gemäß verschiedenen Programmen, die im ROM 903, RAM 905, der Speicherungsvorrichtung 919 oder einem wechselbaren Aufzeichnungsmedium 927 aufgezeichnet sind. Der ROM 903 speichert Programme, Operationsparameter und dergleichen, die durch die CPU 901 verwendet werden. Der RAM 905 speichert vorübergehend Programme, die verwendet werden, wenn die CPU 901 läuft, und Parameter, die sich je nach Fall ändern, wenn die CPU 901 läuft. Die CPU 901, der ROM 903 und der RAM 905 sind über den Host-Bus 907 miteinander verbunden, der durch einen internen Bus implementiert wird, wie etwa einen CPU-Bus oder dergleichen. Außerdem ist der Host-Bus 907 über die Brücke 909 mit dem externen Bus 911 verbunden, wie etwa einem PCI-Bus (Peripheral Component Interconnect/Interface).
  • Die Eingabevorrichtung 915 ist eine Vorrichtung, die durch einen Benutzer bedient wird, wie etwa eine Maus, eine Tastatur, ein Touchpanel, eine Taste, ein Schalter oder ein Hebel. Die Eingabevorrichtung 915 kann ein Mikrofon umfassen, das dafür ausgelegt ist, Sprache von Benutzern zu detektieren. Die Eingabevorrichtung 915 kann eine Fernbedienungsvorrichtung sein, die zum Beispiel Infrarotstrahlung und eine andere Art von Funkwellen verwendet. Als Alternative kann die Eingabevorrichtung 915 eine externe Verbindungsvorrichtung 929 sein, wie etwa ein Mobiltelefon, die einer Operation der Informationsverarbeitungsvorrichtung 10 entspricht. Die Eingabevorrichtung 915 umfasst eine Eingabesteuerschaltung, ausgelegt zum Erzeugen von Eingangssignalen auf der Basis von Informationen, die durch einen Benutzer eingegeben werden, um die erzeugten Eingangssignale an die CPU 901 auszugeben. Ein Benutzer gibt verschiedene Arten von Daten in die Informationsverarbeitungsvorrichtung 10 ein und weist die Informationsverarbeitungsvorrichtung 10 an, eine Verarbeitungsoperation auszuführen, indem die Eingabevorrichtung 915 betätigt wird. Außerdem kann die Bildgebungsvorrichtung 933 (die später beschrieben wird) als die Eingabevorrichtung fungieren, indem ein Bild von Bewegung von Händen eines Benutzers aufgenommen wird oder ein Bild eines Fingers eines Benutzers aufgenommen wird. In diesem Fall kann eine Zeigeposition gemäß der Bewegung der Hände oder einer Richtung des Fingers festgelegt werden.
  • Die Ausgabevorrichtung 917 umfasst eine Vorrichtung, die einen Benutzer visuell oder hörbar über beschaffte Informationen benachrichtigen kann. Die Ausgabevorrichtung 917 kann zum Beispiel eine Anzeigevorrichtung sein, wie etwa eine Flüssigkristallanzeige (LCD), ein Plasmaanzeigepanel (PDP), eine organische Elektrolumineszenz- bzw. EL-Anzeige oder ein Projektor, eine Hologramm-Anzeigevorrichtung, eine Audioausgabevorrichtung, wie etwa ein Lautsprecher oder ein Kopfhörer, oder ein Drucker. Die Ausgabevorrichtung 917 gibt in Form von Video wie Text und ein Bild oder in Form von Ton, wie Sprache und Akustik, ein Ergebnis aus, das mittels eines Prozesses erhalten wird, der durch die Informationsverarbeitungsvorrichtung 10 ausgeführt wird. Außerdem kann die Ausgabevorrichtung 917 eine Lampe oder dergleichen zum Beleuchten der Umgebung umfassen.
  • Die Speicherungsvorrichtung 919 ist eine Vorrichtung zur Datenspeicherung, die ein Beispiel für die Speicherungseinheit der Informationsverarbeitungsvorrichtung 10 ist. Die Speicherungsvorrichtung 919 wird zum Beispiel durch eine magnetische Speicherungsvorrichtung, wie etwa ein Festplattenlaufwerk (HDD), eine Halbleiter-Speicherungsvorrichtung, eine optische Speicherungsvorrichtung oder eine magnetooptische Speicherungsvorrichtung implementiert. Die Speicherungsvorrichtung 919 speichert Programme und verschiedene Arten von Daten, die durch die CPU 910 auszuführen sind, und verschiedene Arten von Daten, die von außen beschafft werden.
  • Das Laufwerk 921 ist ein Leser/Schreiber für das wechselbare Aufzeichnungsmedium 927, wie etwa einen magnetischen Datenträger, einen optischen Datenträger, einen magnetooptischen Datenträger und Halbleiterspeicher und ist in die Informationsverarbeitungsvorrichtung 10 eingebaut oder extern an diese angeschlossen. Das Laufwerk 921 liest auf dem eingelegten wechselbaren Aufzeichnungsmedium 927 aufgezeichnete Informationen aus und gibt die Informationen an den RAM 905 aus. Das Laufwerk 921 schreibt die Aufzeichnung in das eingelegte wechselbare Aufzeichnungsmedium 927.
  • Der Verbindungsport 923 ist ein Port, der verwendet wird, um direkt Vorrichtungen mit der Informationsverarbeitungsvorrichtung 10 zu verbinden. Zum Beispiel kann der Verbindungsport 923 ein USB-Port (Universal Serial Bus), ein IEEE1394-Port und ein SCSI-Port (Small Computer System Interface) oder dergleichen sein. Außerdem kann der Verbindungsport 923 ein RS-232C-Port, ein optischer Audioanschluss, ein HDMI-Port (High-Definition Multimedia Interface, eingetragenes Warenzeichen) oder dergleichen sein. Es ist möglich, verschiedene Arten von Daten zwischen der Informationsverarbeitungsvorrichtung 10 und der externen Verbindungsvorrichtung 929 auszutauschen, indem die externe Verbindungsvorrichtung 929 mit dem Verbindungsport 923 verbunden wird.
  • Die Kommunikationsvorrichtung 925 ist eine Kommunikationsschnittstelle, die zum Beispiel eine Kommunikationsvorrichtung zur Verbindung mit einem Kommunikationsnetzwerk 931 umfasst. Die Kommunikationsvorrichtung 925 kann zum Beispiel ein verdrahtetes oder drahtloses lokales Netzwerk (LAN), Bluetooth (eingetragenes Warenzeichen) oder eine Kommunikationskarte für einen drahtlosen USB (WUSB) sein. Die Kommunikationsvorrichtung 925 kann auch zum Beispiel ein Router für optische Kommunikation, ein Router für asymmetrischen digitalen Teilnehmeranschluss (ADSL), ein Modem für verschiedene Arten von Kommunikation oder dergleichen sein. Zum Beispiel sendet und empfängt die Kommunikationsvorrichtung 925 Signale im Internet oder sendet Signale zu und empfängt Signale von einer anderen Kommunikationsvorrichtung durch Verwendung eines vorbestimmten Protokolls wie etwa TCP/IP. Das Kommunikationsnetzwerk 931, mit dem sich die Kommunikationsvorrichtung 925 verbindet, ist zusätzlich ein Netzwerk, das auf verdrahtete oder drahtlose Weise verbunden ist. Das Kommunikationsnetzwerk 931 ist zum Beispiel das Internet, ein Heim-LAN, Infrarotkommunikation, Funkkommunikation, Satellitenkommunikation oder dergleichen.
  • Die Bildgebungsvorrichtung 933 ist eine Vorrichtung, die dafür ausgelegt ist, ein Bild eines realen Raums durch Verwendung eines Bildsensors, wie etwa eines CCD (Charge Coupled Device) oder CMOS (Complementary Metal Oxide Semiconductor) und verschiedener Glieder, wie etwa einer Linse zum Steuern der Bilderzeugung eines Subjektbildes auf dem Bildsensor aufzunehmen und erzeugt das aufgenommene Bild. Die Bildgebungsvorrichtung 933 kann ein Standbild oder ein bewegtes Bild aufnehmen.
  • Bei dem Sensor 935 handelt es sich um verschiedene Sensoren, wie zum Beispiel einen Entfernungsbestimmungssensor, einen Beschleunigungssensor, einen Kreiselsensor, einen geomagnetischen Sensor, einen optischen Sensor oder einen Tonsensor. Der Sensor 935 beschafft Informationen bezüglich eines Zustands der Informationsverarbeitungsvorrichtung 10, wie eine Lage eines Gehäuses der Informationsverarbeitungsvorrichtung 10, und Informationen bezüglich einer die Informationsverarbeitungsvorrichtung 10 umgebenden Umgebung, wie etwa Leuchtintensität und Geräusche um die Informationsverarbeitungsvorrichtung 10 herum. Der Sensor 935 kann einen GPS-Sensor (Global Positioning System) umfassen, der dafür ausgelegt ist, GPS-Signale zu empfangen, um Breitengrad, Längengrad und Höhe der Vorrichtung zu messen.
  • < Schlussbemerkungen>
  • Wie oben beschrieben wird gemäß der Ausführungsform der vorliegenden Offenbarung die Informationsverarbeitungsvorrichtung bereitgestellt, die eine Detektionseinheit, ausgelegt zum Detektieren eines Kontexts in Bezug auf einen Benutzer, und eine Anforderungsverarbeitungseinheit, ausgelegt zum Bestimmen, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist, auf einer Basis des Kontexts umfasst. Gemäß einer solchen Konfiguration ist es möglich, eine Technologie bereitzustellen, die geeigneter bestimmen kann, welche Anforderung vorzugsweise zu verarbeiten ist.
  • Außerdem wird gemäß der Ausführungsform der vorliegenden Offenbarung die Informationsverarbeitungsvorrichtung bereitgestellt, die die Lageinformations-Beschaffüngseinheit, ausgelegt zum Beschaffen von Lageinformationen eines Benutzers, und die Präsentationssteuereinheit, ausgelegt zum Steuern der Präsentation von Präsentationsinformationen für den Benutzer, umfasst. Die Präsentationssteuereinheit steuert mehrere Elemente der Präsentationsinformationen, die verschiedene Formen aufweisen, auf der Basis der Lageinformationen. Gemäß einer solchen Konfiguration ist es möglich, eine Technologie bereitzustellen, die in der Lage ist, die mehreren Elemente von Präsentationsinformationen, die dem Benutzer zu präsentieren sind, auf eine vom Benutzer gewünschte Weise zu steuern.
  • Für Fachleute ist erkennbar, dass verschiedene Modifikationen, Kombinationen, Subkombinationen und Abänderungen abhängig von Entwurfsanforderungen und anderen Faktoren auftreten können, soweit sie in den Schutzumfang der angefügten Ansprüche oder ihrer Äquivalente fallen.
  • Zum Beispiel ist es möglich, die oben beschriebenen Ausführungsformen geeignet zu kombinieren. Spezieller ist es möglich, die vierte Ausführungsform und beliebige der ersten bis dritten Ausführungsformen zu kombinieren. Spezieller ist es möglich, gemäß einer beliebigen der ersten bis dritten Ausführungsform zu bestimmen, welche Anforderung vorzugsweise zu verarbeiten ist, und auf der Basis eines Ergebnisses des Bestimmens, welche Anforderung vorzugsweise zu verarbeiten ist, gemäß der vierten Ausführungsform eine Reaktion auf eine Anforderung als Präsentationsinformationen einem Benutzer zu präsentieren.
  • Außerdem ist es auch möglich, ein Programm zu erstellen, um zu bewirken, dass Hardware, wie etwa CPU, ROM und RAM, die in einen Computer eingebettet ist, Funktionen ausführt, die den Funktionen der Steuereinheit 120 äquivalent sind. darüber hinaus kann es möglich sein, ein computerlesbares Aufzeichnungsmedium bereitzustellen, auf dem das Programm aufgezeichnet ist.
  • Zum Beispiel sind die Positionen der jeweiligen Strukturelemente nicht speziell beschränkt, solange Operation der Informationsverarbeitungsvorrichtung 10 und der Server-Vorrichtung 30 erzielt wird. Ein Teil von durch jede Einheit der Informationsverarbeitungsvorrichtung 10 ausgeführten Verarbeitung kann durch die Server-Vorrichtung 30 ausgeführt werden. Als spezifisches Beispiel kann die Server-Vorrichtung 30 oder dergleichen einen Teil oder alle der in der Steuerung 110 der Informationsverarbeitungsvorrichtung 10 enthaltenen Blöcke umfassen. Außerdem kann ein Teil von durch jede Einheit der Server-Vorrichtung 30 ausgeführten Verarbeitung durch die Informationsverarbeitungsvorrichtung 10 ausgeführt werden.
  • Ferner sind die in der vorliegenden Patentschrift beschriebenen Effekte lediglich veranschaulichende oder exemplifizierte Effekte und sind nicht beschränkend. Das heißt, mit den obigen Effekten oder anstelle dieser kann die Technologie gemäß der vorliegenden Offenbarung andere Effekte erzielen, die für Fachleute aus der Beschreibung der vorliegenden Patentschrift klar sind.
  • Außerdem kann die vorliegende Technologie auch wie nachfolgend konfiguriert werden.
    1. (1) Informationsverarbeitungsvorrichtung, umfassend:
      • eine Detektionseinheit, ausgelegt zum Detektieren eines Kontexts in Bezug auf einen Benutzer; und
      • eine Anforderungsverarbeitungseinheit, ausgelegt zum Bestimmen auf einer Basis des Kontexts, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist.
    2. (2) Informationsverarbeitungsvorrichtung nach (1), wobei der Kontext in Bezug auf den Benutzer mindestens beliebige der Folgenden umfasst: Zeitinformationen in Bezug auf den Benutzer, Wetterinformationen in Bezug auf den Benutzer, Umgebungsinformationen in Bezug auf den Benutzer und Sprachinhalt in Bezug auf den Benutzer.
    3. (3) Informationsverarbeitungsvorrichtung nach (1) oder (2), wobei die Anforderungsverarbeitungseinheit auf einer Basis eines Vergleichs zwischen einer Priorität der ersten Anforderung und einer Priorität der zweiten Anforderung bestimmt, ob die erste Anforderung oder die zweite Anforderung vorzugsweise zu verarbeiten ist.
    4. (4) Informationsverarbeitungsverfahren nach (3), wobei die Anforderungsverarbeitungseinheit die Priorität der ersten Anforderung auf einer Basis des Kontexts und von Attributinformationen der ersten Anforderung beschafft und die Priorität der zweiten Anforderung auf einer Basis des Kontexts und von Attributinformationen der zweiten Anforderung beschafft.
    5. (5) Informationsverarbeitungsverfahren nach (4), wobei die Attributinformationen der ersten Anforderung und die Attributinformationen der zweiten Anforderung jeweils einen Attributtyp und einen dem Attributtyp entsprechenden Attributwert umfassen.
    6. (6) Informationsverarbeitungsverfahren nach (5), wobei der Attributtyp Informationen, die einen Benutzer angeben, oder Informationen, die eine Vorrichtung angeben, umfasst.
    7. (7) Informationsverarbeitungsverfahren nach (6), wobei, falls der Attributtyp die Informationen umfasst, die den Benutzer angeben, die Anforderungsverarbeitungseinheit den Attributwert beschafft, der auf einer Basis eines Spracherkennungsergebnisses oder eines Gesichtserkennungsergebnisses erkannt wird.
    8. (8) Informationsverarbeitungsverfahren nach einem von (5) bis (7), wobei, falls ein erster Kontext und ein zweiter Kontext durch die Detektionseinheit detektiert werden und Attributtypen entsprechend dem ersten Kontext und dem zweiten Kontext identisch sind, die Anforderungsverarbeitungseinheit jeweilige Prioritäten der ersten Anforderung und der zweiten Anforderung auf einer Basis von Berechnung jeweiliger Prioritäten in Bezug auf identische Attributinformationen entsprechend dem ersten Kontext und dem zweiten Kontext beschafft.
    9. (9) Informationsverarbeitungsverfahren nach einem von (5) bis (7), wobei, falls ein erster Kontext und ein zweiter Kontext durch die Detektionseinheit detektiert werden und Attributtypen entsprechend dem ersten Kontext und dem zweiten Kontext voneinander verschieden sind, die Anforderungsverarbeitungseinheit jeweilige Prioritäten der ersten Anforderung und der zweiten Anforderung auf einer Basis von Berechnung jeweiliger Prioritäten in Bezug auf verschiedene Elemente von Attributinformationen entsprechend dem ersten Kontext und dem zweiten Kontext beschafft.
    10. (10) Informationsverarbeitungsverfahren nach einem von (4) bis (9), wobei die Anforderungsverarbeitungseinheit relevante Informationen eines anderen Benutzers mit einer vorbestimmten analogen Beziehung mit einem Benutzer der Informationsverarbeitungsvorrichtung als relevante Informationen beschafft, in denen der Kontext, die Attributinformationen und die Priorität miteinander assoziiert sind.
    11. (11) Informationsverarbeitungsverfahren nach (10), wobei die Anforderungsverarbeitungseinheit nicht bestimmt, ob die erste Anforderung oder die zweite Anforderung vorzugsweise zu verarbeiten ist, falls die relevanten Informationen mit einem Konfidenzgrad auf der Basis von Rückmeldung vom Benutzer assoziiert sind und der Konfidenzgrad in Bezug auf die Attributinformationen der ersten Anforderung und/oder die Attributinformationen der zweiten Anforderung kleiner als eine vorbestimmte Schwelle ist.
    12. (12) Informationsverarbeitungsverfahren nach einem von (1) bis (11), wobei die erste Anforderung eine Anforderung ist, die sich in Verarbeitung befindet, und die zweite Anforderung eine Anforderung ist, die neu eingegeben wird.
    13. (13) Informationsverarbeitungsverfahren nach (12), umfassend: eine Ausführungssteuereinheit, ausgelegt zum Steuern der Ausgabe vorbestimmter Ausgabeinformationen, falls bestimmt wird, dass die Anforderung, die neu eingegeben wird, vorzugsweise zu verarbeiten ist.
    14. (14) Informationsverarbeitungsverfahren nach (12), umfassend: eine Ausführungssteuereinheit, ausgelegt zum Fortsetzen der Verarbeitung der Anforderung, die sich in Verarbeitung befindet, falls die Anforderungsverarbeitungseinheit bestimmt, dass die Anforderung, die sich in Verarbeitung befindet, vorzugsweise zu verarbeiten ist.
    15. (15) Informationsverarbeitungsverfahren nach einem von (1) bis (14), wobei die Informationsverarbeitungsvorrichtung ein Agent ist, der dafür ausgelegt ist, die Ausführung von Verarbeitung der ersten Anforderung und der zweiten Anforderung im Namen des Benutzers zu steuern.
    16. (16) Informationsverarbeitungsverfahren nach einem von (1) bis (15), wobei die Anforderungsverarbeitungseinheit eine Anforderung von dem Benutzer als ein Ausführungsziel setzt, falls bestimmt wird, dass die Anforderung von dem Benutzer durch die Informationsverarbeitungsvorrichtung unter mehreren Informationsverarbeitungsvorrichtungen zu verarbeiten ist.
    17. (17) Informationsverarbeitungsverfahren nach (16), wobei bestimmt wird, dass die Anforderung vom Benutzer durch die Informationsverarbeitungsvorrichtung zu verarbeiten ist, falls der Benutzer der Informationsverarbeitungsvorrichtung unter den mehreren Informationsverarbeitungsvorrichtungen am Nächsten ist.
    18. (18) Informationsverarbeitungsverfahren nach (16) oder (17), wobei bestimmt wird, dass die Anforderung vom Benutzer durch die Informationsverarbeitungsvorrichtung unter den mehreren Informationsverarbeitungsvorrichtungen zu verarbeiten ist, falls die Informationsverarbeitungsvorrichtung keine zu verarbeitende Anforderung aufweist.
    19. (19) Informationsverarbeitungsverfahren, umfassend:
      • Detektieren eines Kontexts in Bezug auf einen Benutzer; und
      • Bestimmen durch einen Prozessor auf einer Basis des Kontexts, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist.
    20. (20) Programm, das bewirkt, dass ein Computer als Informationsverarbeitungsvorrichtung fungiert, die Folgendes umfasst:
      • eine Detektionseinheit, ausgelegt zum Detektieren eines Kontexts in Bezug auf einen Benutzer; und
      • eine Anforderungsverarbeitungseinheit, ausgelegt zum Bestimmen auf einer Basis des Kontexts, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2017010850 [0001]
    • JP H7121226 A [0003]

Claims (20)

  1. Informationsverarbeitungsvorrichtung, umfassend: eine Detektionseinheit, ausgelegt zum Detektieren eines Kontexts in Bezug auf einen Benutzer; und eine Anforderungsverarbeitungseinheit, ausgelegt zum Bestimmen auf einer Basis des Kontexts, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist.
  2. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei der Kontext in Bezug auf den Benutzer mindestens beliebige der Folgenden umfasst: Zeitinformationen in Bezug auf den Benutzer, Wetterinformationen in Bezug auf den Benutzer, Umgebungsinformationen in Bezug auf den Benutzer und Sprachinhalt in Bezug auf den Benutzer.
  3. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Anforderungsverarbeitungseinheit auf einer Basis eines Vergleichs zwischen einer Priorität der ersten Anforderung und einer Priorität der zweiten Anforderung bestimmt, ob die erste Anforderung oder die zweite Anforderung vorzugsweise zu verarbeiten ist.
  4. Informationsverarbeitungsverfahren nach Anspruch 3, wobei die Anforderungsverarbeitungseinheit die Priorität der ersten Anforderung auf einer Basis des Kontexts und von Attributinformationen der ersten Anforderung beschafft und die Priorität der zweiten Anforderung auf einer Basis des Kontexts und von Attributinformationen der zweiten Anforderung beschafft.
  5. Informationsverarbeitungsverfahren nach Anspruch 4, wobei die Attributinformationen der ersten Anforderung und die Attributinformationen der zweiten Anforderung jeweils einen Attributtyp und einen dem Attributtyp entsprechenden Attributwert umfassen.
  6. Informationsverarbeitungsverfahren nach Anspruch 5, wobei der Attributtyp Informationen, die einen Benutzer angeben, oder Informationen, die eine Vorrichtung angeben, umfasst.
  7. Informationsverarbeitungsverfahren nach Anspruch 6, wobei, falls der Attributtyp die Informationen umfasst, die den Benutzer angeben, die Anforderungsverarbeitungseinheit den Attributwert beschafft, der auf einer Basis eines Spracherkennungsergebnisses oder eines Gesichtserkennungsergebnisses erkannt wird.
  8. Informationsverarbeitungsverfahren nach Anspruch 5, wobei, falls ein erster Kontext und ein zweiter Kontext durch die Detektionseinheit detektiert werden und Attributtypen entsprechend dem ersten Kontext und dem zweiten Kontext identisch sind, die Anforderungsverarbeitungseinheit jeweilige Prioritäten der ersten Anforderung und der zweiten Anforderung auf einer Basis von Berechnung jeweiliger Prioritäten in Bezug auf identische Attributinformationen entsprechend dem ersten Kontext und dem zweiten Kontext beschafft.
  9. Informationsverarbeitungsverfahren nach Anspruch 5, wobei, falls ein erster Kontext und ein zweiter Kontext durch die Detektionseinheit detektiert werden und Attributtypen entsprechend dem ersten Kontext und dem zweiten Kontext voneinander verschieden sind, die Anforderungsverarbeitungseinheit jeweilige Prioritäten der ersten Anforderung und der zweiten Anforderung auf einer Basis von Berechnung jeweiliger Prioritäten in Bezug auf verschiedene Elemente von Attributinformationen entsprechend dem ersten Kontext und dem zweiten Kontext beschafft.
  10. Informationsverarbeitungsverfahren nach Anspruch 4, wobei die Anforderungsverarbeitungseinheit relevante Informationen eines anderen Benutzers mit einer vorbestimmten analogen Beziehung mit einem Benutzer der Informationsverarbeitungsvorrichtung als relevante Informationen beschafft, in denen der Kontext, die Attributinformationen und die Priorität miteinander assoziiert sind.
  11. Informationsverarbeitungsverfahren nach Anspruch 10, wobei die Anforderungsverarbeitungseinheit nicht bestimmt, ob die erste Anforderung oder die zweite Anforderung vorzugsweise zu verarbeiten ist, falls die relevanten Informationen mit einem Konfidenzgrad auf der Basis von Rückmeldung vom Benutzer assoziiert sind und der Konfidenzgrad in Bezug auf die Attributinformationen der ersten Anforderung und/oder die Attributinformationen der zweiten Anforderung kleiner als eine vorbestimmte Schwelle ist.
  12. Informationsverarbeitungsverfahren nach Anspruch 1, wobei die erste Anforderung eine Anforderung ist, die sich in Verarbeitung befindet, und die zweite Anforderung eine Anforderung ist, die neu eingegeben wird.
  13. Informationsverarbeitungsverfahren nach Anspruch 12, umfassend: eine Ausführungssteuereinheit, ausgelegt zum Steuern der Ausgabe vorbestimmter Ausgabeinformationen, falls bestimmt wird, dass die Anforderung, die neu eingegeben wird, vorzugsweise zu verarbeiten ist.
  14. Informationsverarbeitungsverfahren nach Anspruch 12, umfassend: eine Ausführungssteuereinheit, ausgelegt zum Fortsetzen der Verarbeitung der Anforderung, die sich in Verarbeitung befindet, falls die Anforderungsverarbeitungseinheit bestimmt, dass die Anforderung, die sich in Verarbeitung befindet, vorzugsweise zu verarbeiten ist.
  15. Informationsverarbeitungsverfahren nach Anspruch 1, wobei die Informationsverarbeitungsvorrichtung ein Agent ist, der dafür ausgelegt ist, die Ausführung von Verarbeitung der ersten Anforderung und der zweiten Anforderung im Namen des Benutzers zu steuern.
  16. Informationsverarbeitungsverfahren nach Anspruch 1, wobei die Anforderungsverarbeitungseinheit eine Anforderung von dem Benutzer als ein Ausführungsziel setzt, falls bestimmt wird, dass die Anforderung von dem Benutzer durch die Informationsverarbeitungsvorrichtung unter mehreren Informationsverarbeitungsvorrichtungen zu verarbeiten ist.
  17. Informationsverarbeitungsverfahren nach Anspruch 16, wobei bestimmt wird, dass die Anforderung vom Benutzer durch die Informationsverarbeitungsvorrichtung zu verarbeiten ist, falls der Benutzer der Informationsverarbeitungsvorrichtung unter den mehreren Informationsverarbeitungsvorrichtungen am Nächsten ist.
  18. Informationsverarbeitungsverfahren nach Anspruch 16, wobei bestimmt wird, dass die Anforderung vom Benutzer durch die Informationsverarbeitungsvorrichtung unter den mehreren Informationsverarbeitungsvorrichtungen zu verarbeiten ist, falls die Informationsverarbeitungsvorrichtung keine zu verarbeitende Anforderung aufweist.
  19. Informationsverarbeitungsverfahren, umfassend: Detektieren eines Kontexts in Bezug auf einen Benutzer; und Bestimmen durch einen Prozessor auf einer Basis des Kontexts, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist.
  20. Programm, das bewirkt, dass ein Computer als Informationsverarbeitungsvorrichtung fungiert, die Folgendes umfasst: eine Detektionseinheit, ausgelegt zum Detektieren eines Kontexts in Bezug auf einen Benutzer; und eine Anforderungsverarbeitungseinheit, ausgelegt zum Bestimmen auf einer Basis des Kontexts, ob eine erste Anforderung oder eine zweite Anforderung vorzugsweise zu verarbeiten ist.
DE102018101477.5A 2017-01-25 2018-01-23 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm Withdrawn DE102018101477A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-010850 2017-01-25
JP2017010850 2017-01-25

Publications (1)

Publication Number Publication Date
DE102018101477A1 true DE102018101477A1 (de) 2018-07-26

Family

ID=62813080

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018101477.5A Withdrawn DE102018101477A1 (de) 2017-01-25 2018-01-23 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm

Country Status (4)

Country Link
US (1) US20200125398A1 (de)
CN (1) CN110100257A (de)
DE (1) DE102018101477A1 (de)
WO (1) WO2018139036A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210119966A (ko) 2019-01-29 2021-10-06 소니그룹주식회사 정보 기기, 정보 처리 방법, 정보 처리 프로그램, 제어 장치, 제어 방법 및 제어 프로그램
US11334383B2 (en) * 2019-04-24 2022-05-17 International Business Machines Corporation Digital assistant response system to overlapping requests using prioritization and providing combined responses based on combinability
KR102245953B1 (ko) * 2019-06-05 2021-04-28 엘지전자 주식회사 복수의 전자기기의 제어방법
US20230333805A1 (en) * 2021-04-08 2023-10-19 Panasonic Intellectual Property Management Co., Ltd. Control method, controller, and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121226A (ja) 1993-10-27 1995-05-12 Sony Corp ロボツト制御装置
JP2017010850A (ja) 2015-06-24 2017-01-12 株式会社村田製作所 Esd保護装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012222586A (ja) * 2011-04-08 2012-11-12 Hitachi Consumer Electronics Co Ltd 情報処理装置
JP2015039094A (ja) * 2011-11-24 2015-02-26 シャープ株式会社 コンテンツ提供装置、コンテンツ提供装置にて実行されるプログラム、テレビ受像機、プログラムを記憶した記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121226A (ja) 1993-10-27 1995-05-12 Sony Corp ロボツト制御装置
JP2017010850A (ja) 2015-06-24 2017-01-12 株式会社村田製作所 Esd保護装置

Also Published As

Publication number Publication date
WO2018139036A1 (ja) 2018-08-02
CN110100257A (zh) 2019-08-06
US20200125398A1 (en) 2020-04-23

Similar Documents

Publication Publication Date Title
DE102018101477A1 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102017012415B4 (de) Identifikation eines virtuellen Assistenten von nahgelegenen Rechenvorrichtungen
DE112016006351T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US11861061B2 (en) Virtual sharing of physical notebook
DE112015002463T5 (de) Systeme und Verfahren zum gestischen Interagieren in einer im Umfeld vorhandenen Computerumgebung
DE102018103572A1 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium
DE102017209504A1 (de) Datenbezogene Erkennung und Klassifizierung von natürlichen Sprachereignissen
DE112018003273T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium
CN103135916A (zh) 手持无线设备中的智能图形界面
JP2020530604A (ja) 画像応答自動アシスタントのためのシステム、方法、および装置
DE112018001224T5 (de) Datenprozessor, Datenverarbeitungsverfahren und Aufzeichnungsmedium
DE102018103468A1 (de) Informationsverarbeitungssystem, informationsverarbeitungsverfahren und programm
DE102017115936A1 (de) Systeme und Verfahren zum Aktivieren eines Sprachassistenten und Bereitstellen eines Indikators, dass der Sprachassistent Hilfe zu leisten hat
WO2018087971A1 (ja) 移動体制御装置および移動体制御プログラム
DE112019000018T5 (de) Anheben, um zu sprechen
DE112017006882T5 (de) Kontextabhängige, umgebungsbasierte nutzerschnittstelle
JP2010224715A (ja) 画像表示システム、デジタルフォトフレーム、情報処理システム、プログラム及び情報記憶媒体
WO2017175442A1 (ja) 情報処理装置、および情報処理方法
CN111093028A (zh) 一种信息处理方法和电子设备
DE112019003773T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungssystem, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm
DE112018007850T5 (de) Spracherkennungssystem
DE102022101104A1 (de) Gerät und Verfahren zur Steuerung der Kommunikation von Informationen
JP2022070805A (ja) プログラム、情報処理装置及び方法
DE112016001499T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
WO2018139050A1 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee