JP2015132878A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2015132878A
JP2015132878A JP2014002536A JP2014002536A JP2015132878A JP 2015132878 A JP2015132878 A JP 2015132878A JP 2014002536 A JP2014002536 A JP 2014002536A JP 2014002536 A JP2014002536 A JP 2014002536A JP 2015132878 A JP2015132878 A JP 2015132878A
Authority
JP
Japan
Prior art keywords
information
user
expected value
output
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014002536A
Other languages
English (en)
Inventor
淳己 大村
Junki Omura
淳己 大村
道成 河野
Michinari Kono
道成 河野
麗子 桐原
Reiko Kirihara
麗子 桐原
智 朝川
Satoshi Asakawa
智 朝川
伊藤 洋子
Yoko Ito
洋子 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014002536A priority Critical patent/JP2015132878A/ja
Priority to PCT/JP2014/078111 priority patent/WO2015104883A1/ja
Publication of JP2015132878A publication Critical patent/JP2015132878A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザのアクションに対してより柔軟な応答を実現する。
【解決手段】ユーザのアクションを示すデータを取得し、上記取得されたデータに基づいて、上記ユーザに対して出力される情報に向けられる注意力の期待値を算出し、上記期待値を上記情報の出力制御のために提供するように構成されるプロセッサを備える情報処理装置が提供される。
【選択図】図1

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
システムからユーザへの情報提示を最適化するための技術は、これまでに種々提案されている。例えば、特許文献1には、生成された所定個の発話内容の候補から無音を示す候補、および生成された所定個の発話内容の候補の各々に対して形態素解析を行って候補の各々から自立語を抽出し、生成された所定個の発話内容の候補中に無音を示す候補、または自立語を含まない候補が存在する場合には、入力された発話音声を無視し、表示装置およびスピーカから応答内容が応答されないように制御する技術が記載されている。これによって、入力された音声を棄却する場合に、より適切な対応を行うことができる。
また、特許文献2には、音声情報、表情情報および遅延時間情報を利用して、迅速かつ正確に人間とエージェント間の対話を管理するための方法および装置と、これを利用した音声対話システムが記載されている。より具体的には、音声対話システムにおいて、ユーザが発話した音声から分析された対話情報を利用して第1対話順序情報を生成するステップと、ユーザの顔映像から分析された表情情報を利用して第2対話順序情報を生成するステップと、第1対話順序情報、第2対話順序情報、システムの状態情報、ユーザの音声入力の有無およびユーザの無応答時間を利用して、最終的な対話順序を決定するステップとが実行される。
特開2010−151941号公報 特開2004−206704号公報
上記の特許文献1に記載された技術では、ユーザの発話内容に基づいてシステムの応答の有無を制御する。また、特許文献2に記載された技術では、ユーザの発話や表情、遅延時間に応じてシステムが発話するか否かを決定する。このような技術によって、例えば音声によるユーザへの情報提示をある程度最適化することができる。しかしながら、ユーザの発話や表情というのは、その時にシステムによって提示された情報がユーザにとって適切であるか否かを推定するための断片的な材料にすぎないため、上記のような技術による情報提示の最適化にはなおも改善の余地があった。
そこで、本開示では、ユーザのアクションに対してより柔軟な応答を実現することが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提案する。
本開示によれば、ユーザのアクションを示すデータを取得し、上記取得されたデータに基づいて、上記ユーザに対して出力される情報に向けられる注意力の期待値を算出し、上記期待値を上記情報の出力制御のために提供するように構成されるプロセッサを備える情報処理装置が提供される。
また、本開示によれば、プロセッサが、ユーザのアクションを示すデータを取得し、上記取得されたデータに基づいて、上記ユーザに対して出力される情報に向けられる注意力の期待値を算出し、上記期待値を上記情報の出力制御のために提供することを含む情報処理方法が提供される。
また、本開示によれば、ユーザのアクションを示すデータを取得し、上記取得されたデータに基づいて、上記ユーザに対して出力される情報に向けられる注意力の期待値を算出し、上記期待値を上記情報の出力制御のために提供する機能をコンピュータに実現させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザのアクションに対してより柔軟な応答を実現することができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係るシステムの概略的な機能構成を示すブロック図である。 本開示の一実施形態に係るシステムの装置構成例を示す図である。 本開示の一実施形態に係る算出ルールDBの例を示す図である。 本開示の一実施形態に係る表示方法の選択の例を示すフローチャートである。 本開示の一実施形態に係る出力方法の選択の例を示すフローチャートである。 図5の例をより具体的に示す図である。 本開示の一実施形態に係る表示色選択の例を示す図である。 本開示の一実施形態に係る情報のストックの第1の例について説明するための図である。 本開示の一実施形態に係る情報のストックの第2の例について説明するための図である。 本実施の一実施形態に係る情報のストックのための処理を示すフローチャートである。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.システム構成
2.算出ルールの例
3.出力制御の例
3−1.表示方法の変更の例
3−2.出力方法の変更の例
3−3.その他の例
4.情報のストックの例
5.ハードウェア構成
6.補足
(1.システム構成)
図1は、本開示の一実施形態に係るシステムの概略的な機能構成を示すブロック図である。図1を参照すると、システム10は、カメラ101と、センサ103と、マイクロフォン105と、アクションデータ取得部107と、アクションDB109と、行動認識サーバ111と、注意力期待値算出部と、出力制御部115と、情報生成部117と、情報キャッシュDB119と、情報サーバ121と、ディスプレイ123と、スピーカ125と、その他出力装置127と、フィードバック解析部129と、算出ルールDB131とを含む。
システム10は、ユーザに情報を提示するために用いられる。例えば、システム10は、ユーザが装着または携帯する端末装置を介して、同じユーザに継続的に情報を提示するためのものであってもよい。あるいは、システム10は、据え置き型の端末装置を介して、その近傍に居合わせた不特定なユーザ(その一部が特定可能であってもよい)に情報を提示するためのものであってもよい。
カメラ101は、システム10のユーザを撮影可能である。カメラ101は、ユーザのアクションを示す画像データを取得することが可能である。センサ103は、ユーザをセンシング対象とする各種のセンサである。例えば、センサ103は、ユーザに装着または携帯される端末装置に搭載される、加速度センサやジャイロセンサ、地磁気センサ、GPS受信機などを含む。また、例えば、センサ103は、超音波センサや赤外線センサなどを含んでもよい。センサ103は、ユーザのアクションを示すセンサデータを取得することが可能である。マイクロフォン105は、ユーザの近傍で発生した音声を拾得することが可能である。マイクロフォン105は、ユーザのアクションを示す音声データを取得する。マイクロフォン105は、音声データに基づいて音源の方向を特定することが可能なようにマイクロフォンアレイを構成していてもよい。上記のカメラ101、センサ103、およびマイクロフォン105の一部または全部によって取得されたデータは、アクションデータ取得部107に提供される。
さらに、アクションデータ取得部107は、行動認識サーバ111からユーザの行動認識情報を取得してもよい。行動認識サーバ111は、システム10に含まれていてもよいし、システム10の外部のサービスであってもよい。行動認識サーバ111は、例えば各種の行動認識技術に基づいて、ユーザの行動を認識する。行動の認識には、例えばシステム10のセンサ103やカメラ101、マイクロフォン105によって取得されたデータが利用されうる。この場合、データは、センサ103や、カメラ101、マイクロフォン105から、別途行動認識サーバ111に送信される(図示せず)。あるいは、行動認識サーバ111は、システム10の外部の端末装置などによって取得されたセンサデータなどに基づいてユーザの行動を認識してもよい。
アクションデータ取得部107は、例えば情報処理装置のプロセッサによって実現されるデータ取得/管理機能であり、ユーザのアクションを示す各種のデータを取得/管理する。上述の通り、ユーザのアクションは、カメラ101、センサ103、マイクロフォン105、および/または行動認識サーバ111から提供されうる。さらに、アクションデータ取得部107は、ユーザがシステム10に含まれる端末装置、またはそれ以外の端末装置において実行した操作の情報を取得してもよい。この場合、例えば、ウェブブラウザを用いた情報検索のキーワードや、ユーザが利用したコンテンツの情報などが取得されうる。アクションデータ取得部107は、提供されたデータ(以下、アクションデータともいう)を必要に応じてアクションDB109に格納してから、注意力期待値算出部113に提供する。また、アクションデータ取得部107は、アクションデータをフィードバック解析部129に提供してもよい。
ここで、アクションデータによって示されるユーザのアクションについて説明する。例えば、ユーザのアクションは、ユーザのモーションまたは表情を含んでもよい。この場合、例えば、最新の、または直近のアクションデータに基づいて、注意力期待値算出部113が、これから出力される情報に向けられるユーザの注意力の期待値を算出してもよい。また、ユーザのアクションは、ディスプレイ123やスピーカ125から出力された情報に対するリアクションを含んでもよい。この場合、リアクションを示すアクションデータに基づいて、注意力期待値算出部113が、次に情報が出力された場合のユーザの注意力の期待値を算出したり、フィードバック解析部129が期待値算出の妥当性の検証を実施したりする。
アクションDB109は、例えば情報処理装置のメモリまたはストレージによって実現されるデータベースであり、アクションデータ取得部107が取得したアクションデータが一時的または継続的に格納される。例えば、アクションデータ取得部107が取得したアクションデータは、アクションDB109に一時的に格納された後、またはアクションDB109に格納されることなく、注意力期待値算出部113に提供されてもよい。この場合、注意力期待値算出部113は、ユーザの最新のアクションに基づいて期待値を算出することになる。あるいは、アクションデータ取得部107が取得したアクションデータは、アクションDB109に継続的に格納されてもよい。この場合、アクションデータ取得部107は、アクションDB109に蓄積されたアクションデータの中から、必要な期間のデータを読み出して注意力期待値算出部113に提供する。この場合、注意力期待値算出部113は、ユーザのアクションの履歴に基づいて期待値を算出することになる。
注意力期待値算出部113は、例えば情報処理装置のプロセッサによって実現される演算機能であり、アクションデータ取得部107によって取得されたアクションデータに基づいて、ユーザに対して出力される情報に向けられる注意力の期待値を算出する。ここで、注意力(attention)は、出力された情報に向けられるユーザの注意の程度を意味する。注意力期待値算出部113は、算出した注意力の期待値を、情報の出力制御のために出力制御部115に提供する。
ここで、出力される情報に向けられる注意力は、ユーザの状況に応じて変動しうる。例えば、ユーザがディスプレイ123などを備える端末装置に向けて視線を向けたり、端末装置に向けて呼びかけたりした場合、出力される情報には多くの注意が払われると予想される。一方、ユーザが他のユーザと会話中であったり、電車に乗っていたりする場合、特に音声で出力される情報に対してはあまり注意が払われない(耳に入らない)可能性が高い。注意力期待値算出部113は、例えば、カメラ101や、センサ103、マイクロフォン105、行動認識サーバ111などから提供されるアクションデータに基づいてユーザの状況を推定し、状況に応じた注意力の期待値を算出することができる。注意力期待値算出部113は、ユーザのアクションと注意力の期待値とを関連付けた算出ルールDB131のデータを参照することによって、期待値を算出してもよい。
また、出力される情報に向けられる注意力は、出力される情報の内容によっても変動しうる。例えば、ユーザが興味のあるキーワードがディスプレイ123に表示されたり、スピーカ125から出力されたりすれば、ユーザは出力される情報に多くの注意を払うと予想される。注意力期待値算出部113は、出力される予定の情報の内容を情報生成部117から取得し、情報の内容と、アクションデータ、例えばユーザが過去に実行した情報検索のキーワードなどから推定されるユーザが興味のある内容とを比較し、一致または共通する点があれば、注意力の期待値を引き上げることができる。注意力期待値算出部113は、情報の内容に関するアクションと注意力の期待値とを関連付けた算出ルールDB131のデータを参照することによって、期待値を算出してもよい。
なお、注意力期待値算出部113は、上記のようにアクションデータに基づいてユーザの注意力の期待値を算出するにあたり、ユーザの最新のアクションを示すアクションデータだけを利用してもよいし、ユーザのアクションの履歴を示すアクションデータを利用してもよい。最新のアクションに基づいて期待値を算出する場合、演算量を削減し、低負荷で迅速に期待値を算出することができる。一方、アクションの履歴に基づいて期待値を算出する場合、ユーザのアクションの文脈をふまえて期待値を算出することができ、期待値の精度が向上する。例えば、アクションの履歴に基づいて期待値を算出する場合、ユーザの最新のアクションが同じでも、注意力期待値算出部113によって算出される注意力の期待値が異なることがありうる。
さらに、注意力期待値算出部113は、アクションデータに基づいてユーザの注意力の期待値を算出するにあたり、アクションデータに基づくユーザのアクションの推測の精度に基づいて注意力を補正してもよい。アクションデータは、例えばカメラ101によって提供されるユーザの画像データや、センサ103によって提供されるユーザのセンシングデータや、マイクロフォン105によって提供されるユーザの近傍における音声データを含む。注意力期待値算出部113は、これらのデータに基づいてユーザのアクションを推定するが、推定の精度は時によって異なりうる。
出力制御部115は、例えば情報処理装置のプロセッサによって実現される演算機能であり、注意力期待値算出部113によって算出されたユーザの注意力の期待値に基づいて、ユーザに対する情報の出力を制御する。より具体的には、出力制御部115は、ユーザの注意力の期待値に基づいて、情報を出力するか否かを決定してもよい。例えば、情報生成部117によって生成された何らかの情報について、出力制御部115は、注意力期待値算出部113によって算出された期待値を参照し、期待値が閾値を下回る場合には情報の出力を抑止し、そうでない場合には情報の出力を実行してもよい。また、出力制御部115は、ユーザの注意力の期待値に基づいて、情報の出力方法を選択してもよい。例えば、情報生成部117によって生成される情報が、ディスプレイ123を介して画像として出力してもよく、スピーカ125を介して音声として出力してもよいような場合に、出力制御部115は、注意力期待値算出部113によって算出された期待値を参照し、期待値が閾値を下回る場合には情報を画像として出力し、そうでない場合には情報を音声として出力してもよい。
さらに、出力制御部115は、ユーザの注意力の期待値が低いために出力されなかった情報を、期待値が高いときに出力してもよい。上述のように、出力制御部115は、例えば、注意力期待値算出部113によって算出されたユーザの注意力の期待値が閾値を下回る場合に、情報の出力を抑止する。このとき、ユーザは、例えば一時的に忙しい状態であって、その少し後であれば抑止された情報についても提供されることを望んでいる場合もありうる。このような場合に、出力制御部115は、先に出力を抑止した結果、情報生成部117が情報キャッシュDB119に一時的に格納した情報を取得して、ユーザに対して出力してもよい。
情報生成部117は、例えば情報処理装置のプロセッサによって実現される演算機能であり、例えば情報サーバ121から提供される情報に基づいて、出力制御部115を介してユーザに対して出力するための情報を生成する。情報サーバ121は、システム10に含まれていてもよいし、システム10の外部のサービスであってもよい。例えば、情報サーバ121は、行動認識サーバ111と連携して、ユーザの行動を支援するための情報(ユーザの現在地の近傍にあるスポットの情報、ユーザのスケジュール情報、または交通情報など)を情報生成部117にプッシュ送信する。また、例えば、情報サーバ121は、端末装置において提供される他のサービスと連携して、ユーザへのメッセージの着信や新着情報の配信などの通知を情報生成部117にプッシュ送信してもよい。あるいは、情報サーバ121は、情報生成部117が(ユーザ操作によらず)自動的に送信するリクエストに応じて上記のような情報や通知を送信してもよい。
上述のように、情報生成部117によって生成された情報は、出力制御部115の制御に従って、ディスプレイ123、スピーカ125、および/またはその他出力装置127から、ユーザに対して出力される。従って、情報生成部117は、ディスプレイ123が表示するための画像データ、スピーカ125が出力するための音声データ、および/またはその他出力装置127を動作させるための制御信号を生成する。なお、情報生成部117は、上記のようなデータまたは信号を情報サーバ121から受信してそのまま出力してもよいし、情報サーバ121から受信した情報に基づいて上記のようなデータまたは信号を生成してもよい。出力制御部115がユーザの注意力の期待値に基づいて情報の出力方法を制御する場合、情報生成部117は、選択された出力方法に応じた情報を生成しうる。例えば、出力制御部115がディスプレイ123を介して情報を出力することを決定した場合、情報生成部117は画像データを生成しうる。また、例えば、出力制御部115がスピーカ125を介して情報を出力することを決定した場合、情報生成部117は音声データを生成しうる。
また、情報生成部117は、出力制御部115がユーザの注意力の期待値に基づいて情報の出力を抑止することを決定した場合に、生成した情報を情報キャッシュDB119に一時的に格納する。情報キャッシュDB119は、例えば情報処理装置のメモリまたはストレージによって実現されるデータベースであり、情報生成部117によって生成された情報を一時的に格納する。情報キャッシュDB119には、上記のように出力されなかった情報が格納される他、出力された情報も、例えばユーザから再出力を要求された場合のために所定の期間にわたって格納されてもよい。また、上述のように、注意力期待値算出部113によるユーザの注意力の期待値の算出が、出力される予定の情報の内容に基づいて実施される場合もあるため、情報生成部117は、生成された情報、またはその内容を示す情報を、出力に先立って注意力期待値算出部113に提供してもよい。
ディスプレイ123は、システム10のユーザに向けて画像を表示する。スピーカ125は、ユーザに向けて音声を出力する。その他出力装置127は、例えば後述するようなイルミネーションやバイブレータなどを含みうる。上述したように、出力制御部115は、これらの出力装置を介した情報の出力を、注意力期待値算出部113によって算出されたユーザの注意力の期待値に基づいて制御する。ここで、例えばカメラ101、センサ103、および/またはマイクロフォン105(以下、総称して入力装置ともいう)は、ディスプレイ123、スピーカ125、および/またはその他出力装置127(以下、総称して出力装置ともいう)から出力される情報に向けられるユーザの注意力の期待値を算出するために、ユーザのアクションを示すデータを取得する。従って、入力装置と出力装置とは、例えば同一の端末装置、または互いの位置関係が固定された端末装置に設けられていることが望ましい。
フィードバック解析部129は、例えば情報処理装置のプロセッサによって実現される演算機能であり、ユーザのアクションを、情報出力に関する出力制御部115の制御に対するフィードバックとして解析する。例えば、注意力期待値算出部113によって算出された期待値に基づく出力制御部115の制御に従って情報の出力が実行された場合に、その情報に対するユーザのリアクションを示すデータから、出力の制御が適切であったかを推測することができる。例えば、ユーザが出力された情報を全く無視していた場合、実際のユーザの注意力は、算出された期待値よりも低かったと推測される。フィードバック解析部129は、解析の結果に基づいて、算出ルールDB131に格納された算出ルールを修正してもよい。また、フィードバック解析部129は、解析の結果に基づいて、注意力期待値算出部113での算出処理において使用されるパラメータなどを修正してもよい。
算出ルールDB131は、例えば情報処理装置のメモリまたはストレージによって実現されるデータベースであり、ユーザのアクションと注意力の期待値とを関連付けるデータが格納される。算出ルールDB131のデータは、例えば予め用意されたものであってもよい。さらに、上記のフィードバック解析部129による解析の結果に基づいて、データが修正されてもよい。このような修正が繰り返された場合、算出ルールDB131のデータは、出力された情報に対するユーザのリアクションに基づく学習によって形成されているともいえる。例えば、注意力期待値算出部113は、アクションデータ取得部107が取得したアクションデータによって示されるユーザのアクションに基づいて算出ルールDB131を参照し、注意力の期待値を示すスコアを取得する。このとき、注意力期待値算出部113は、複数のユーザのアクションに基づいて算出ルールDB131を参照し、取得された複数のスコアを重みづけして足し合わせることによって注意力の期待値を算出してもよい。例えば、「電車に乗っている」かつ「他のユーザと会話中」といったように、例えば異なる入力データに基づいて複数のアクションが重複して検出される場合がありうる。
図2は、本開示の一実施形態に係るシステムの装置構成例を示す図である。図2を参照すると、システム10は、端末装置151と、サーバ152とを含みうる。また、サーバ152は、図示された例のサーバ152a,152bのように、複数のサーバを含んでもよい。
端末装置151は、例えば、ユーザに対して情報を出力する機能と、ユーザのアクションを示すデータを取得する機能と、情報やデータをサーバ152との間でやりとりする機能とを有する。端末装置151は、例えば、スマートフォン、ウェアラブル端末、タブレット端末、パーソナルコンピュータ、テレビ、ゲーム機などでありうる。端末装置151は、特定のユーザによって携帯されるものであってもよいし、不特定のユーザによって使用される据え置き型のものであってもよい。端末装置151は、例えば、後述するような情報処理装置のハードウェア構成によって実現される。
サーバ152は、例えば、端末装置151から受信されたデータを処理する機能と、端末装置151において出力するための情報を送信する機能とを有する。サーバ152は、例えば、ネットワーク上の1または複数のサーバ装置によって実現される。それぞれのサーバ装置は、後述するような情報処理装置のハードウェア構成によって実現される。
例えば、図1に示した機能構成のうち、カメラ101、センサ103、マイクロフォン105、ディスプレイ123、スピーカ125、およびその他出力装置127が端末装置151において実現され、それ以外の機能構成がサーバ152において実現される。このとき、例えばサーバ152bにおいてアクションデータ取得部107が実現され、サーバ152aにおいて注意力期待値算出部113および出力制御部115が実現される、といったように、複数のサーバの間に機能が分散して実現されてもよい。
別の例では、図1に示した機能構成のうち、行動認識サーバ111、および情報サーバ121がサーバ152において実現され、それ以外の機能構成が端末装置151において実現されてもよい。このように、システム10において、本実施形態に係る情報処理装置、例えば注意力期待値算出部113および出力制御部115を実現する情報処理装置は、端末装置151であってもよく、サーバ152であってもよい。サーバ152は、上述のように複数のサーバ(図示された例のように2つには限らず、3つ以上であってもよい)を含んでもよい。
さらに、例えば、アクションデータ取得部107が行動認識サーバ111からのデータを取得せず、情報生成部117も情報サーバ121からのデータを取得しないような場合には、図1に示したようなシステム10の機能構成(上記の2つのサーバを除く)の全体が端末装置151において実現されてもよい。この場合、システム10はサーバ152を含まなくてもよい。
(2.算出ルールの例)
図3は、本開示の一実施形態に係る算出ルールDBの例を示す図である。図3には、算出ルールDBに格納されるデータの例として、アクションと、注意力スコアと、ソースと、条件とを関連付けたレコード131a〜131eが示されている。
アクションは、アクションデータ取得部107が取得するアクションデータが所定の条件を満たした場合に特定されるユーザのアクションである。注意力スコアは、それぞれのアクションが特定された場合に、ユーザに対して出力される情報に向けられる注意力の期待値に対応するスコアである。ソースは、それぞれのアクションを特定するためのアクションデータを提供する。条件は、それぞれのアクションを特定するために、ソースによって提供されるアクションデータが満たすべき条件である。
例えば、レコード131aは、「視線を向ける」というユーザのアクションが、カメラ101によってユーザが端末装置に視線を向けたことが検出された場合に特定され、8.0の注意力スコアが与えられることを定義している。なお、図示された例において、注意力スコアは0〜10の範囲で定義されているため、8.0は比較的高い注意力の期待値を意味する。また、例えば注意力期待値算出部113において実行される、ユーザの視線を検出するための画像処理については、公知のさまざまな技術を利用することが可能であるため、詳細な説明は省略する。
また、例えば、レコード131bは、「呼びかける」というユーザのアクションが、マイクロフォン105によってユーザの発話が検出され、かつ他のユーザの発話が検出されなかった場合に特定され、9.0の注意力スコアが与えられることを定義している。なお、例えば注意力期待値算出部113において実行される、ユーザの発話音声と他のユーザの発話音声とを識別するための音声処理については、公知のさまざまな技術を利用することが可能であるため、詳細な説明は省略する。また、例えば注意力期待値算出部113は、同様に公知の様々な技術を利用して、ユーザの発話内容を検出してもよい。この場合、例えば、「呼びかける」というユーザのアクションを特定するための条件として、ユーザが所定の呼びかけの言葉、例えば「おーい」、「ねえ」などを発話することを定義してもよい。
以下、レコード131c、レコード131d、レコード131e、および図示していない他のレコードでも、同様にしてユーザのアクションと注意力スコア、およびそれを特定するためのソースならびに条件とが関連付けられる。例えば、レコード131cは、レコード131bの「呼びかける」の場合と同様にマイクロフォン105によってユーザの発話が検出された場合であっても、他のユーザの発話も同時に検出された場合には、「(他のユーザとの)会話」という別のアクションが特定され、注意力スコアが低くなる(「呼びかける」の9.0に対し、「会話」は0.5)ことを定義している。また、レコード131dは、行動認識サーバ111から提供される行動認識データに基づいて、「電車に乗る」というユーザの行動が認識された場合には「電車に乗る」というアクションが特定されることを定義している。
また、レコード131eは、情報生成部117が出力する予定の情報の内容が、ユーザアクション取得部107が取得した検索履歴よって示される検索キーワードを含む場合に、「過去に検索」というユーザのアクションが特定されることを定義している。図示された例では、レコード131eのように、情報の内容に関するアクションと注意力の期待値とを関連付けるレコードが、他のアクションと注意力の期待値とを関連付けるデータと共通の形式で算出ルールDB131に格納されているが、他の例では、情報の内容と注意力の期待値とを関連付けるデータが、アクションと注意力の期待値とを関連付けるデータとは別の形式で算出ルールDB131に格納されてもよい。
上述のように、注意力期待値算出部113は、図示した例のような算出ルールDB131を参照して、ユーザに対して出力される情報に向けられる注意力の期待値を算出する。このとき、注意力期待値算出部113は、例えば図示された例における注意力スコアをそのまま注意力の期待値として用いてもよいし、複数のアクションが重複して検出された場合には、注意力スコアを重みづけして足し合わせることによって注意力の期待値を算出してもよい。
さらに、注意力期待値算出部113は、アクションデータに基づいてユーザのアクションを推測し、推測の精度に基づいて注意力の期待値を調整してもよい。この場合、注意力の期待値は、推測の精度が低ければ、平均値に近づくように調整されてもよい。例えば、注意力スコアが平均値(5.0とする)よりも高いアクション、例えば「視線を向ける」、「呼びかける」などについては、アクションデータに基づく推測の精度が低いと判断される場合(例えば、画像解析の結果において、ユーザが端末装置に視線を向けている確率が優勢ではあるがあまり高くないような場合)に注意力スコアが一時的に引き下げられてもよい。また、注意力スコアが平均値よりも低いアクション、例えば「会話」、「電車に乗る」などについては、アクションデータに基づく推測の精度が低いと判断される場合に注意力スコアが一時的に引き上げられてもよい。これは、推測の精度が低い場合には、特定されたアクションの信頼度を低く見積もり、算出される注意力の期待値をアクションが特定されなかった場合に近づけるための処理である。他の例では、推測の精度が低い場合に、注意力スコアが一律に一時的に引き下げられてもよい。
本実施形態におけるユーザの注意力の期待値の算出の具体的な例について、さらに説明する。以下の具体的な例は、例えば、注意力期待値算出部113の処理ロジックによって実現されてもよいし、算出ルールDB131に格納されるデータによって実現されてもよい。
例えば、注意力期待値算出部113は、ユーザの発話(呼びかけ)に特定の語句が含まれる場合に、算出される注意力の期待値を引き上げてもよい。より具体的には、「急いで」、「ねえ」、「答えて」などの発話を他のアクション(例えば視線を向けるなど)と組み合わせることによって、算出される注意力の期待値が引き上げられる。他にも、特定のコマンド(システムの名称を含むコマンドなど)や、端末装置を指さすアクションによって、注意力の期待値が引き上げられうる。これを利用して、ユーザは、システムが呼びかけに反応しやすいように制御することができる。
また、例えば、注意力期待値算出部113は、ユーザのアクションとして推測される周辺環境に基づいて、注意力の期待値を算出してもよい。より具体的には、例えば、注意力期待値算出部113は、ユーザが1人だけでいると推定される場合、算出される注意力の期待値を引き上げてもよい。ユーザが1人でいる場合、電話している場合などを除いて独り言を言う可能性は低いため、ユーザの発話が検出された場合、他のユーザがいる場合に比べてそれがシステムへの呼びかけである可能性は高いと推測される。一方、注意力期待値算出部113は、テレビの音や、電車の騒音などのノイズが多い環境では、ユーザの発話が検出された場合でも、算出される期待値を引き下げてもよい。例えばスピーカ125を介して音声で情報を提供してもユーザの注意が向けられる可能性が低いためである。ただし、スピーカ125での音声出力において、ビームフォーミングやノイズキャンセリングなどが十分に可能である場合には、ノイズが多い環境であっても算出される期待値を引き下げなくてもよい。
また、例えば、注意力期待値算出部113は、ユーザが同じ内容を続けて発話した場合には、算出される注意力の期待値を引き上げてもよい。この場合、ユーザはシステムに何らかの応答を求めている可能性が高いため、その前にシステムからの音声出力があった場合でもそうでなくても、ユーザが出力される情報に向ける注意力の期待値は高いと推定される。
また、例えば、注意力期待値算出部113は、システムとユーザとの間で1回以上の対話が既に発生している場合、その後のユーザのアクションに基づいて算出される注意力の期待値を引き上げてもよい。これは、システムとの対話の後のユーザのアクションは、システムから出力された情報に関連する可能性が高いと推定されるためである。ただし、例えばユーザが対話の後に情報を提供する端末装置から離れたような場合には、注意力の期待値は低くなりうる。
また、例えば、注意力期待値算出部113は、ユーザがシステムに対して特徴的な対話をした場合に、算出される注意力の期待値を引き上げてもよい。より具体的には、方言を使ったり、声高に発話したり、語尾または語頭に何らかのキーワードをつけたりした場合、ユーザがシステムに通じるような特徴をつけて発話を実行したものと推定されるため、注意力の期待値は高くなりうる。
また、例えば、注意力期待値算出部113は、ユーザの状態に応じて、出力方法ごとに注意力の期待値を算出してもよい。例えば、行動認識結果などから、ユーザが仕事中であったり、会議中であったり、電車で移動中であったりすることが特定される場合、注意力期待値算出部113は、音声出力について算出される注意力の期待値を引き下げてもよい。一方、この場合、注意力期待値算出部113は、ユーザのジェスチャや簡単なアクション(例えば、端末装置を叩いたり振ったりすること)について算出される注意力の期待値を引き上げてもよい。ユーザが睡眠中であれば、ユーザからの意図的なアクションはないと推測されるため、何らかのアクションが検出された場合にも算出される注意力の期待値が引き下げられるか、一律に0に設定されてもよい。ただし、ユーザの睡眠のログ、例えば寝相、寝言、脈拍、睡眠レベルなどを検出する場合には、この限りではない。
また、例えば、注意力期待値算出部113は、ユーザの発話に含まれる語句に応じて、算出される注意力の期待値を補正してもよい。例えば、注意力期待値算出部113は、特定の人物(例えば、家族、友人、会社の上司など)や、特定の内容(例えば、記念日、借りた本の返却日、公的書類の提出日など)に関する語句がユーザの発話に含まれる場合に、ユーザが重要度の高い会話をしていると判定し、算出される注意力の期待値を引き上げてもよい。これによって、例えば、ユーザが忘れてはいけない重要な情報をリマインドすることができる。
(3.出力制御の例)
(3−1.表示方法の選択の例)
図4は、本開示の一実施形態に係る表示方法の選択の例を示すフローチャートである。図4を参照すると、出力制御部115は、まず、注意力期待値算出部113によって算出された注意力の期待値が第1の閾値th1を超えているか否かを判定する(S101)。ここで、期待値が第1の閾値th1を超えていれば、出力制御部115は、ディスプレイ123において、最前面に表示されるウインドウで情報を表示させる(S103)。これは、出力される情報に対するユーザの注意力が最も高い(ユーザが出力される情報に対して高い注意を払っている)と推測される場合の処理である。最前面に表示されるウインドウで情報を表示させれば、ユーザは、すぐに多くの情報を得ることができる。
一方、S101において注意力の期待値が第1の閾値th1を超えていなかった場合、さらに、出力制御部115は、期待値が第2の閾値th2を超えているか否かを判定する(S105)。第2の閾値th2は、第1の閾値th1よりも小さい。ここで、期待値が第2の閾値th2を超えていれば、出力制御部115は、ディスプレイ123において、ポップアップのウインドウで情報を表示させる(S107)。これは、出力される情報に対するユーザの注意力が中程度(ユーザが出力される情報に対して注意を払うかもしれないし、払わないかもしれない)と推測される場合の処理である。ポップアップのウインドウで情報を表示させれば、ユーザが情報を必要としない場合でもあまり邪魔にはならない。
一方、S105において注意力の期待値が第2の閾値th2を超えていなかった場合、出力制御部115は、情報を出力させることなく処理を終了する。つまり、出力制御部115は、情報の出力を抑止する。これは、出力される情報に対するユーザの注意力が低い(ユーザが出力される情報に対してほとんど注意を払わず、むしろ邪魔になるかもしれない)と推測される場合の処理である。なお、この場合に出力されなかった情報は、情報キャッシュDB119に格納され、後で出力されてもよい。
(3−2.出力方法の選択の例)
図5は、本開示の一実施形態に係る出力方法の選択の例を示すフローチャートである。図5を参照すると、出力制御部115は、まず、注意力期待値算出部113によって算出された注意力の期待値が第1の閾値th1を超えているか否かを判定する(S151)。ここで、期待値が第1の閾値th1を超えていれば、出力制御部115は、ディスプレイ123およびスピーカ125の両方を使用して情報を出力させる(S153)。これは、出力される情報に対するユーザの注意力が最も高い(ユーザが出力される情報に対して高い注意を払っている)と推測される場合の処理である。ディスプレイ123およびスピーカ125の両方を使用して情報を出力すれば、ユーザは、短時間の間の多くの情報を得ることができる。
一方、S151において注意力の期待値が第1の閾値th1を超えていなかった場合、さらに、出力制御部115は、期待値が第2の閾値th2を超えているか否かを判定する(S155)。第2の閾値th2は、第1の閾値th1よりも小さい。ここで、期待値が第2の閾値th2を超えていれば、出力制御部115は、ディスプレイ123のみを使用して情報を出力させる(S157)。これは、出力される情報に対するユーザの注意力が中程度(ユーザが出力される情報に対して注意を払うかもしれないし、払わないかもしれない)と推測される場合の処理である。ディスプレイ123のみを使用して情報を出力すれば、ユーザが情報を必要としない場合でもあまり邪魔にはならない。
一方、S155において注意力の期待値が第2の閾値th2を超えていなかった場合、出力制御部115は、情報を出力させることなく処理を終了する。つまり、出力制御部115は、情報の出力を抑止する。これは、出力される情報に対するユーザの注意力が低い(ユーザが出力される情報に対してほとんど注意を払わず、むしろ邪魔になるかもしれない)と推測される場合の処理である。図4の例と同様に、出力されなかった情報は情報キャッシュDB119に格納され、後で出力されてもよい。
図6は、図5の例をより具体的に示す図である。(a)に示すように、ユーザは他のユーザと会話している。この場合、注意力期待値算出部113は、例えばマイクロフォン105によって取得された音声データに基づいてユーザのアクションを特定し、例えば図3に示したような算出ルールDB131のデータを参照して、比較的低い期待値を算出する。図示された例において、この期待値は、第1の閾値th1と第2の閾値th2との間にある。従って、図5のフローチャートにおけるS157の処理が実行され、(b)に示すように、ディスプレイ123のみを使用して情報が出力される。
ここで、ユーザは、ディスプレイ123に表示された情報に興味を示し、(c)に示すように、「それもっと見せて!」と端末装置に向かって呼びかけている。注意力期待値算出部113は、例えばマイクロフォン105によって取得された音声データに基づいてユーザのアクションを特定し、同様に、ルールDB131のデータを参照して、比較的高い期待値を算出する。図示された例において、この期待値は、第1の閾値th1を超えている。従って、図5のフローチャートにおけるS153の処理が実行され、(c)に示すように、ディスプレイ123における表示とスピーカ125から出力された音声125vとの両方を使用して情報が出力される。
なお、図6の例では、ユーザの会話の内容(イタリアンレストランについて)に対応した情報が出力されている。このような情報は、例えば、情報生成部117が、マイクロフォン105によって取得された音声データに基づいてユーザの発話内容を特定し、発話内容に関連する情報を情報サーバ121から取得することによって生成される。発話内容の特定のための音声処理については、公知のさまざまな技術を利用することが可能であるため、詳細な説明は省略する。また、この場合、注意力期待値算出部113は、出力される予定の情報の内容がユーザの発話内容に含まれることによって、算出される注意力の期待値を引き上げてもよい。
(3−3.その他の例)
図7は、本開示の一実施形態に係る表示色選択の例を示す図である。図7を参照すると、ユーザは、腕輪上のウェアラブル端末装置を装着して街を歩いている。ここで、ユーザは、ある店舗(SHOP)の近傍を通りかかった。この店舗は、ユーザが以前に実行した情報検索における検索キーワード(「イタリアン」とする)に関連する店舗(イタリアンレストラン)であった。この場合、例えば、情報生成部117は、センサ103に含まれるGPS受信機によって特定されるユーザの位置情報と、以前にアクションデータ取得部107によって取得されたユーザの情報検索の履歴から推定される店舗(SHOP)とユーザとの関係(店舗がユーザの興味の対象である可能性がある)とに基づいて、ユーザに店舗(SHOP)が近くにあることを通知する情報を生成する。あるいは、店舗(SHOP)とユーザとの関係は、外部サービスが保有するユーザのプロフィール情報などを利用して推定されてもよい。例えば、飲食店の店舗情報提供サービスでは、店舗情報のブックマークや、店舗情報の検索履歴、類似した属性を有する他のユーザが登録した店舗情報などが保持されている。ソーシャルメディアのサービスでは、サービスや店舗についてユーザがソーシャルメディア上で表明した評価の情報などが保持されている。情報生成部117は、例えばこのような情報に基づいて、店舗(SHOP)とユーザとの関係を推定し、さらにユーザの位置情報に基づいてユーザに店舗(SHOP)が近くにあることを通知する情報を生成してもよい。
図示された例において、ユーザへの通知情報は、その他出力装置127に含まれるイルミネーションによって出力される。出力制御部115は、注意力期待値算出部113によって算出された注意力の期待値に応じて、図7の(a)〜(c)に示すように、イルミネーションの表示色を変更してもよい。例えば、出力制御部115は、ユーザの注意力の期待値が高い場合には目立つ色でイルミネーションを発光させ、期待値が低い場合には地味な色で発光させるか、発光させなくてもよい。あるいは、出力制御部115は、ユーザの注意力の期待値が高い場合には(ユーザが既に気付いている可能性が高いため)地味な色でイルミネーションを発光させ、ユーザの注意力の期待値が低い場合には(ユーザがまだ気付いていない可能性が高いため)目立つ色でイルミネーションを発光させてもよい。
(4.情報のストックの例)
続いて、図8および図9を参照して、本開示の一実施形態に係る情報のストックの例について説明する。なお、以下の図8および図9では、システムによって検出されているユーザとの間のコミュニケーションの状態が、図の右下に示すようなインジケータによって表現されている。インジケータは、例えば端末装置にその他出力装置127として設けられるイルミネーションなどによって実際に表示されてもよいし、図8および図9における説明のための表示(実際に表示されるわけではない)として解釈されてもよい。
図8は、本開示の一実施形態に係る情報のストックの第1の例について説明するための図である。図8の例では、(a)に示すように、ユーザが「今日の予定は?」と発話している間、システムはユーザが発話中であることを検出している。ここで、(b)に示すように、システムはユーザの発話内容を正しく検出せず、出力された情報に対するユーザの注意力の期待値を低く算出してしまったため、情報生成部117が生成した情報を出力せず、ストックしてしまった。ここで、ユーザは、システムからの応答がないことに気づき、「おーい」と呼びかけている。(c)に示すように、ユーザからの呼びかけを正しく検出したシステムは、ユーザの注意力の期待値が高いものと推測し、ストックされた情報を出力する。より具体的には、システムは、「失礼しました。今日は大崎でランチです」という、スピーカ125から出力された音声125vによってユーザに情報を提供する。
図9は、本開示の一実施形態に係る情報のストックの第2の例について説明するための図である。図9の例では、(a)に示すように、ユーザが「今日の予定は?」と発話している間、システムはユーザが発話中であることを検出している。さらに、(b)に示すように、ユーザと会話している他のユーザが「空いてるよ」と返答したため、システムはユーザが他のユーザと会話中であることから、出力された情報に対するユーザの注意力の期待値が低いものと推測し、情報生成部117が生成した情報を出力せず、ストックした。図8の例とは異なり、ユーザは実際にシステムからの情報を必要としていたわけではなかった(他のユーザとの会話で今日の予定を尋ねただけであった)ため、システムが情報をストックした判断は正しかった。その後、所定の時間が経過した場合、(c)に示すように、システムはストックされた情報を不要になったものとして破棄し、定常状態に戻る。なお、(b)の時点で情報を破棄せずにストックするのは、他のユーザと会話中であることが誤検出されており、ユーザが実際には情報を必要としていたことが分かった場合(図8の(b)のように呼びかけられたりした場合)に情報を出力できる状態を維持するためである。
図10は、本実施の一実施形態に係る情報のストックのための処理を示すフローチャートである。図10を参照すると、出力制御部115は、まず、注意力期待値算出部113によって算出された注意力の期待値が第1の閾値th1を超えているか否かを判定する(S201)。ここで、期待値が第1の閾値th1を超えていれば、出力制御部115は、さらに、情報キャッシュDB119にストックされた情報があるか否かを判定する(S203)。ここで、ストックされた情報があった場合、出力制御部115は、ストックされた情報を出力する(S205)。これは、例えば図8の例において(c)に示された処理である。続いて、出力制御部115は、情報生成部117によって生成された他の情報(より新しい情報でありうる)があれば、当該情報を出力する(S207)。
一方、S201において注意力の期待値が第1の閾値th1を超えていなかった場合、さらに、出力制御部115は、期待値が第2の閾値th2を超えているか否かを判定する(S209)。第2の閾値th2は、第1の閾値th1よりも小さい。ここで、期待値が第2の閾値th2を超えていれば、出力制御部115は、情報生成部117によって生成された情報を出力する(S207)。つまり、図示された例では、注意力の期待値が第1の閾値th1と第2の閾値th2との間である場合には、ストックされた情報は出力されないが、例えば新たに情報生成部117によって生成された情報は出力される。一方、S209で注意力の期待値が第2の閾値th2を超えていなかった場合、出力制御部115は、情報をストックする(S211)。
なお、上記のような情報のストックの例では、さまざまな変形が可能である。例えば、情報が(例えば誤って)ストックされた場合にユーザがシステムからストックされた情報を引き出すためのアクションとしては、例えば呼びかける、同じことをもう一度言う、見つめる(視線を向ける)、顔を向ける、端末装置のボタンなどを操作する、手をたたく、黙る(システムの応答を待つ)などがありうる。システムでは、これらのアクションが、ストックされた情報を引き出すためのアクションとして登録されていてもよい。この場合、システムは、ストックされた情報を出力するときに、正しく応答できなかったことに対する謝罪のメッセージなどを加えてもよい(例えば図8の例における(c)でのシステムの応答)。また、ストックされている情報を表示する前段階として、認識されているユーザのアクションを表示し(「他のユーザと会話中ではないのですか?」など)、ユーザがそれでもなお情報の提供を要求した場合にストックされた情報を出力してもよい。
また、ストックされている情報が複数ある場合もありうる。その場合は、例えばストックされた情報をディスプレイ123において一覧表示させ、どの情報を出力するかをユーザに選択させてもよい。なお、ストックされた情報は、上記の図9の例のように所定の時間が経過した場合には破棄されうるが、そのための時間は任意に設定されうる。例えば、情報の内容に応じて、数分から数時間、または数日などの時間が、ストックされた情報が破棄されるまでの時間として設定されてもよい。
(5.ハードウェア構成)
次に、図11を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図11は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態における端末装置やサーバを実現しうる。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(6.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置(端末装置またはサーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)ユーザのアクションを示すデータを取得し、
前記取得されたデータに基づいて、前記ユーザに対して出力される情報に向けられる注意力の期待値を算出し、
前記期待値を前記情報の出力制御のために提供する
ように構成されるプロセッサを備える情報処理装置。
(2)前記プロセッサは、前記ユーザの最新のアクションに基づいて前記期待値を算出する、前記(1)に記載の情報処理装置。
(3)前記プロセッサは、前記ユーザのアクションの履歴に基づいて前記期待値を算出する、前記(1)または(2)に記載の情報処理装置。
(4)前記ユーザのアクションは、前記ユーザのモーションまたは表情を含む、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)前記ユーザのアクションは、既に出力された前記情報に対するリアクションを含む、前記(4)に記載の情報処理装置。
(6)前記プロセッサは、さらに、前記リアクションを示すデータに基づいて前記期待値の算出ルールを修正するように構成される、前記(5)に記載の情報処理装置。
(7)前記期待値は、前記情報を出力するか否かを決定するために提供される、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記プロセッサは、さらに、前記情報の出力制御を実行し、前記期待値が低いために出力されなかった前記情報を前記期待値が高いときに出力する、前記(7)に記載の情報処理装置。
(9)前記期待値は、前記情報の出力方法を選択するために提供される、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)前記プロセッサは、前記取得されたデータに基づいて前記ユーザのアクションを推測し、該推測の精度に基づいて前記期待値を調整する、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記プロセッサは、前記推測の精度が低い場合に前記期待値を平均値に近づける、前記(10)に記載の情報処理装置。
(12)前記プロセッサは、前記ユーザのアクションに特定の語句の発話が含まれる場合に、前記期待値を引き上げる、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)前記プロセッサは、前記ユーザのアクションとして推測されるユーザの周辺環境に基づいて前記期待値を算出する、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)プロセッサが、
ユーザのアクションを示すデータを取得し、
前記取得されたデータに基づいて、前記ユーザに対して出力される情報に向けられる注意力の期待値を算出し、
前記期待値を前記情報の出力制御のために提供する
ことを含む情報処理方法。
(15)ユーザのアクションを示すデータを取得し、
前記取得されたデータに基づいて、前記ユーザに対して出力される情報に向けられる注意力の期待値を算出し、
前記期待値を前記情報の出力制御のために提供する
機能をコンピュータに実現させるためのプログラム。
10 システム
101 カメラ
103 センサ
105 マイクロフォン
107 アクションデータ取得部
109 アクションDB
113 注意力期待値算出部
115 出力制御部
117 情報生成部
119 情報キャッシュDB
123 ディスプレイ
125 スピーカ
127 その他出力装置
129 フィードバック解析部
131 算出ルールDB

Claims (15)

  1. ユーザのアクションを示すデータを取得し、
    前記取得されたデータに基づいて、前記ユーザに対して出力される情報に向けられる注意力の期待値を算出し、
    前記期待値を前記情報の出力制御のために提供する
    ように構成されるプロセッサを備える情報処理装置。
  2. 前記プロセッサは、前記ユーザの最新のアクションに基づいて前記期待値を算出する、請求項1に記載の情報処理装置。
  3. 前記プロセッサは、前記ユーザのアクションの履歴に基づいて前記期待値を算出する、請求項1に記載の情報処理装置。
  4. 前記ユーザのアクションは、前記ユーザのモーションまたは表情を含む、請求項1に記載の情報処理装置。
  5. 前記ユーザのアクションは、既に出力された前記情報に対するリアクションを含む、請求項4に記載の情報処理装置。
  6. 前記プロセッサは、さらに、前記リアクションを示すデータに基づいて前記期待値の算出ルールを修正するように構成される、請求項5に記載の情報処理装置。
  7. 前記期待値は、前記情報を出力するか否かを決定するために提供される、請求項1に記載の情報処理装置。
  8. 前記プロセッサは、さらに、前記情報の出力制御を実行し、前記期待値が低いために出力されなかった前記情報を前記期待値が高いときに出力する、請求項7に記載の情報処理装置。
  9. 前記期待値は、前記情報の出力方法を選択するために提供される、請求項1に記載の情報処理装置。
  10. 前記プロセッサは、前記取得されたデータに基づいて前記ユーザのアクションを推測し、該推測の精度に基づいて前記期待値を調整する、請求項1に記載の情報処理装置。
  11. 前記プロセッサは、前記推測の精度が低い場合に前記期待値を平均値に近づける、請求項10に記載の情報処理装置。
  12. 前記プロセッサは、前記ユーザのアクションに特定の語句の発話が含まれる場合に、前記期待値を引き上げる、請求項1に記載の情報処理装置。
  13. 前記プロセッサは、前記ユーザのアクションとして推測されるユーザの周辺環境に基づいて前記期待値を算出する、請求項1に記載の情報処理装置。
  14. プロセッサが、
    ユーザのアクションを示すデータを取得し、
    前記取得されたデータに基づいて、前記ユーザに対して出力される情報に向けられる注意力の期待値を算出し、
    前記期待値を前記情報の出力制御のために提供する
    ことを含む情報処理方法。
  15. ユーザのアクションを示すデータを取得し、
    前記取得されたデータに基づいて、前記ユーザに対して出力される情報に向けられる注意力の期待値を算出し、
    前記期待値を前記情報の出力制御のために提供する
    機能をコンピュータに実現させるためのプログラム。
JP2014002536A 2014-01-09 2014-01-09 情報処理装置、情報処理方法およびプログラム Pending JP2015132878A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014002536A JP2015132878A (ja) 2014-01-09 2014-01-09 情報処理装置、情報処理方法およびプログラム
PCT/JP2014/078111 WO2015104883A1 (ja) 2014-01-09 2014-10-22 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014002536A JP2015132878A (ja) 2014-01-09 2014-01-09 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2015132878A true JP2015132878A (ja) 2015-07-23

Family

ID=53523725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014002536A Pending JP2015132878A (ja) 2014-01-09 2014-01-09 情報処理装置、情報処理方法およびプログラム

Country Status (2)

Country Link
JP (1) JP2015132878A (ja)
WO (1) WO2015104883A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173404A1 (ja) * 2017-03-24 2018-09-27 ソニー株式会社 情報処理装置および情報処理方法
JP2020004137A (ja) * 2018-06-28 2020-01-09 エヌ・ティ・ティ・コミュニケーションズ株式会社 評価装置、評価方法および評価プログラム
WO2021039190A1 (ja) 2019-08-27 2021-03-04 ソニー株式会社 情報処理装置、その制御方法及びプログラム
WO2021039191A1 (ja) 2019-08-27 2021-03-04 ソニー株式会社 情報処理装置、その制御方法及びプログラム
US11682389B2 (en) 2019-02-06 2023-06-20 Toyota Jidosha Kabushiki Kaisha Voice conversation system, control system for voice conversation system, and control program, and control method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009223187A (ja) * 2008-03-18 2009-10-01 Pioneer Electronic Corp 表示内容制御装置、表示内容制御方法及び表示内容制御方法プログラム
JP2011135419A (ja) * 2009-12-25 2011-07-07 Fujitsu Ten Ltd データ通信システム、車載機、通信端末、サーバ装置、プログラム、及び、データ通信方法
JP2011239247A (ja) * 2010-05-12 2011-11-24 Nippon Hoso Kyokai <Nhk> デジタル放送受信装置および関連情報提示プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173404A1 (ja) * 2017-03-24 2018-09-27 ソニー株式会社 情報処理装置および情報処理方法
JPWO2018173404A1 (ja) * 2017-03-24 2020-01-23 ソニー株式会社 情報処理装置および情報処理方法
US11183167B2 (en) 2017-03-24 2021-11-23 Sony Corporation Determining an output position of a subject in a notification based on attention acquisition difficulty
JP6992800B2 (ja) 2017-03-24 2022-01-13 ソニーグループ株式会社 情報処理装置および情報処理方法
JP2020004137A (ja) * 2018-06-28 2020-01-09 エヌ・ティ・ティ・コミュニケーションズ株式会社 評価装置、評価方法および評価プログラム
US11682389B2 (en) 2019-02-06 2023-06-20 Toyota Jidosha Kabushiki Kaisha Voice conversation system, control system for voice conversation system, and control program, and control method
WO2021039190A1 (ja) 2019-08-27 2021-03-04 ソニー株式会社 情報処理装置、その制御方法及びプログラム
WO2021039191A1 (ja) 2019-08-27 2021-03-04 ソニー株式会社 情報処理装置、その制御方法及びプログラム
US12001226B2 (en) 2019-08-27 2024-06-04 Sony Group Corporation Information processing apparatus, control method, and program

Also Published As

Publication number Publication date
WO2015104883A1 (ja) 2015-07-16

Similar Documents

Publication Publication Date Title
AU2018241137B2 (en) Dynamic thresholds for always listening speech trigger
AU2018271099B2 (en) Far-field extension for digital assistant services
US11133008B2 (en) Reducing the need for manual start/end-pointing and trigger phrases
KR20200039030A (ko) 디지털 어시스턴트 서비스의 원거리 확장
WO2015104883A1 (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2019098038A1 (ja) 情報処理装置、及び情報処理方法
WO2019107145A1 (ja) 情報処理装置、及び情報処理方法
US11244682B2 (en) Information processing device and information processing method
WO2023038654A1 (en) Using large language model(s) in generating automated assistant response(s)
US11250873B2 (en) Information processing device and information processing method
WO2017175442A1 (ja) 情報処理装置、および情報処理方法
WO2016206646A1 (zh) 使机器装置产生动作的方法及系统
US20230367960A1 (en) Summarization based on timing data
US20200234187A1 (en) Information processing apparatus, information processing method, and program
JP2021113835A (ja) 音声処理装置および音声処理方法
JP7450748B2 (ja) 情報表示装置及び情報表示方法
JP2018120390A (ja) 情報処理装置、情報処理方法およびプログラム
US20230306968A1 (en) Digital assistant for providing real-time social intelligence
US20200168179A1 (en) Information processing apparatus, information processing method, and program
WO2019054009A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021119642A (ja) 情報処理装置、情報処理方法、および、記録媒体
KR20170093631A (ko) 적응적 컨텐츠 출력 방법