JP2021182172A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2021182172A
JP2021182172A JP2018143309A JP2018143309A JP2021182172A JP 2021182172 A JP2021182172 A JP 2021182172A JP 2018143309 A JP2018143309 A JP 2018143309A JP 2018143309 A JP2018143309 A JP 2018143309A JP 2021182172 A JP2021182172 A JP 2021182172A
Authority
JP
Japan
Prior art keywords
information
user
agent
display
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018143309A
Other languages
English (en)
Inventor
賢次 杉原
Kenji Sugihara
真里 斎藤
Mari Saito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2018143309A priority Critical patent/JP2021182172A/ja
Priority to US17/250,432 priority patent/US20210256263A1/en
Priority to PCT/JP2019/029467 priority patent/WO2020026986A1/ja
Publication of JP2021182172A publication Critical patent/JP2021182172A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Abstract

【課題】ユーザに与える不快感を低減させつつユーザに提案を行う情報処理装置、情報処理方法及びプログラムを提供する。【解決手段】情報処理装置の制御部は、ユーザの行動情報を取得する行動情報取得部と、前記行動情報に基づいて、前記行動情報を取得した時点におけるユーザの周辺環境に関連するユーザへの提案情報を取得する提案情報取得部と、前記提案情報に基づいて、前記ユーザの視野内に前記提案情報に応じた行動を行うアバターオブジェクトを表示するよう表示装置を制御する表示制御部と、を備える。【選択図】図3

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、ユーザ情報に応じた画像をユーザに提供する技術が知られている。例えば、ユーザの行動情報に応じた画像をユーザに提供する技術が開示されている(例えば、特許文献1参照)。また、ユーザ情報を取得し、取得したユーザ情報に応じた提案情報をテキストデータとしてユーザに提供する技術が知られている。
国際公開第2016/157677号
しかし、ユーザにとって不要な情報が提案情報に含まれている場合などには、提案情報をテキストデータとしてユーザに提供する場合、ユーザに不快感を与えてしまうことがあり得る。そこで、ユーザに与える不快感を低減させつつユーザに提案を行うことが可能な技術が提供されることが望まれる。
本開示によれば、ユーザの行動情報を取得する行動情報取得部と、前記行動情報に基づいて、前記行動情報を取得した時点における前記ユーザの周辺環境に関連する前記ユーザへの提案情報を取得する提案情報取得部と、前記提案情報に基づいて、前記ユーザの視野内に前記提案情報に応じた行動を行うアバターオブジェクトを表示するよう表示装置を制御する表示制御部と、を備える、情報処理装置が提供される。
本開示によれば、ユーザの行動情報を取得することと、前記行動情報に基づいて、前記行動情報を取得した時点における前記ユーザの周辺環境に関連する前記ユーザへの提案情報を取得することと、前記提案情報に基づいて、前記ユーザの視野内に前記提案情報に応じた行動を行うアバターオブジェクトを表示するよう表示装置を制御することと、を含む、情報処理方法が提供される。
本開示によれば、コンピュータを、ユーザの行動情報を取得する行動情報取得部と、前記行動情報に基づいて、前記行動情報を取得した時点における前記ユーザの周辺環境に関連する前記ユーザへの提案情報を取得する提案情報取得部と、前記提案情報に基づいて、前記ユーザの視野内に前記提案情報に応じた行動を行うアバターオブジェクトを表示するよう表示装置を制御する表示制御部と、を備える情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザに与える不快感を低減させつつユーザに提案を行うことが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理システムの構成例を示す図である。 情報処理装置の機能構成例を示す図である。 制御部の詳細構成例を示す図である。 提案定義情報の構成例を示す図である。 エージェント定義情報の構成例を示す図である。 思考を伴う行動に対応するエージェントモデル情報の例を示す図である。 知覚行動に対応するエージェントモデル情報の構成例を示す図である。 マップ情報の構成例を示す図である。 エージェントに思考を伴う行動を行わせる第1の例について説明するための図である。 エージェントに思考を伴う行動を行わせる第2の例について説明するための図である。 エージェントに思考を伴う行動を行わせる第3の例について説明するための図である。 エージェントに知覚行動を行わせる第1の例について説明するための図である。 エージェントに知覚行動を行わせる第2の例について説明するための図である。 エージェントに知覚行動を行わせる第3の例について説明するための図である。 エージェントに知覚行動を行わせる第4の例について説明するための図である。 情報処理装置の動作の例を示すフローチャートである。 情報処理装置の動作の例を示すフローチャートである。 情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
0.概要
1.実施形態の詳細
1.1.システム構成例
1.2.情報処理装置の機能構成例
1.3.情報処理システムの機能詳細
1.3.1.エージェント制御に利用される情報
1.3.2.エージェントの制御
1.3.3.情報処理装置の動作
1.3.4.各種の変形例
2.ハードウェア構成例
3.むすび
<0.概要>
まず、本開示の実施形態の概要を説明する。近年、ユーザ情報に応じた画像をユーザに提供する技術が知られている。例えば、ユーザの行動情報に応じた画像をユーザに提供する技術が開示されている。また、ユーザ情報を取得し、取得したユーザ情報に応じた提案情報をテキストデータとしてユーザに提供する技術が知られている。
しかし、ユーザにとって不要な情報が提案情報に含まれている場合などには、提案情報をテキストデータとしてユーザに提供する場合、ユーザに不快感を与えてしまうことがあり得る。そこで、本明細書においては、ユーザに与える不快感を低減させつつユーザに提案を行うことが可能な技術について主に説明する。
具体的に、本開示の実施形態においては、提案情報に応じた行動を行うオブジェクトが表示される。これによって、提案情報がテキストデータとしてユーザに提供される場合と比較して、提案情報がオブジェクトを介して間接的にユーザに提供されるため、ユーザに与える不快感を低減させつつユーザに提案を行うことができる。以下では、提案情報に応じた行動を行うオブジェクトの例として、アバターオブジェクトが用いられる場合を主に想定する。しかし、提案情報に応じた行動を行うオブジェクトは、アバターオブジェクトに限定されない。
また、以下では、提案情報に応じた行動を行うオブジェクトを「エージェント」と称する場合がある。エージェントには、ユーザの代わりに処理を行うオブジェクトという意味も存在し得る。しかし、本開示の実施形態に係るエージェントは、ユーザの代わりに処理を行うオブジェクトであるとは限らず、本開示の実施形態に係るエージェントが行う処理の種類は、特に限定されない。
さらに、本開示の実施形態においては、エージェントが表示部150(図2)の表示領域に表示されるオブジェクト(仮想オブジェクト)である場合を主に説明する。しかし、エージェントは、自立的に移動可能な実オブジェクトであってもよい。このとき、実オブジェクトはどのようにして移動可能にされていてもよい。例えば、実オブジェクトが回転体(例えば、タイヤ、ホイールまたはローラなど)を備えている場合、実オブジェクトは、当該回転体を回転駆動することによって面上(床面上など)を移動可能であってもよい。あるいは、実オブジェクトが足部を備えている場合、実オブジェクトは、足部を歩行するように駆動することによって面上(床面上など)を移動可能であってもよい。
以上において、本開示の実施形態の概要について説明した。
<1.実施形態の詳細>
まず、本開示の実施形態の詳細について説明する。
[1.1.システム構成例]
まず、図面を参照しながら、本開示の実施形態に係る情報処理システムの構成例について説明する。図1は、本開示の実施形態に係る情報処理システムの構成例を示す図である。図1に示したように、本開示の実施形態に係る情報処理システムは、情報処理装置10を備える。情報処理装置10は、ユーザ20によって利用される。
なお、本実施形態においては、情報処理装置10がユーザ20の頭部に装着されるHMD(Head Mounted Display)である場合を主に説明する。情報処理装置10がHMDである場合には、画角に制約があっても視野を容易に移動させることが可能である。特に、本実施形態においては、情報処理装置10がシースルー型のHMDである場合を主に説明する。しかし、情報処理装置10はHMDに限定されない。例えば、情報処理装置10は、スマートフォンであってもよいし、携帯電話であってもよいし、タブレット端末であってもよいし、カメラであってもよいし、PC(Personal Computer)であってもよいし、他の機器であってもよい。
ユーザ20は、実空間を視認可能である。図1に示した例では、情報処理装置10が視野50−1を形成し、ユーザ20は、視野50−1を通して実空間を視認可能である。実空間には、どのようなオブジェクトが存在していてもよい。図1に示した例では、上記のエージェントとは異なるオブジェクトの例として、実オブジェクト31−1(飲食店)が実空間に存在している。しかし、実オブジェクト31−1(飲食店)はオブジェクトの一例に過ぎない。したがって、実オブジェクト31−1(飲食店)の代わりに他のオブジェクトが実空間に存在してもよい。
以上、本開示の実施形態に係る情報処理システムの構成例について説明した。
[1.2.情報処理装置の機能構成例]
続いて、情報処理装置10の機能構成例について説明する。図2は、情報処理装置10の機能構成例を示す図である。図2に示したように、情報処理装置10は、センサ部110、制御部120、記憶部130、通信部140および表示部150を有している。また、情報処理装置10は、通信ネットワークを介してサーバ装置(不図示)と接続されていてもよい。通信ネットワークは、例えば、インターネットを含む。
センサ部110は、センサを含んで構成され、センサによってユーザの行動情報を検出する。ユーザの行動情報には、ユーザの行動履歴(例えば、歩行中、電車乗車中など)、ユーザの行動履歴から推定される行動傾向、ユーザの動き、ユーザが存在する時刻(例えば、現在時刻)、ユーザの位置(例えば、ユーザの現在位置)、ユーザの視線、ユーザの生体情報、ユーザの音声などが含まれてよい。例えば、センサ部110が加速度センサおよびジャイロセンサの少なくともいずれか一方を含んで構成されている場合、加速度センサおよびジャイロセンサの少なくともいずれか一方に基づいて、ユーザの行動履歴およびユーザの動きが検出されてよい。
また、センサ部110が時計を含んで構成されている場合、時計によってユーザが存在する時刻(例えば、現在時刻)が検出されてよい。センサ部110が位置センサ(例えば、GPS(Global Positioning System)センサなど)を含んで構成されている場合、位置センサによってユーザの位置(例えば、ユーザの現在位置)が検出されてよい。
また、センサ部110がイメージセンサを含んで構成されている場合、イメージセンサによって撮像された画像に基づいて、ユーザの視線が検出されてよい。ここでは、イメージセンサによって撮像された画像から瞳孔の中心位置およびプルキニエ像の位置関係が検出され、当該位置関係に基づいて視線が検出される場合を主に想定する。しかし、ユーザの視線はどのようにして検出されてもよい。例えば、ユーザの頭部の姿勢がユーザの視線として検出されてもよい。
また、センサ部110が生体センサを含んで構成されている場合、生体センサによって生体情報が検出されてよい。例えば、生体センサが脳波センサを含んで構成される場合、生体情報は、脳波センサによって検出された脳波を含んでもよい。例えば、センサ部110がマイクロフォンを含んで構成されている場合、マイクロフォンによってユーザの音声が検出されてよい。
また、センサ部110は、ユーザの頭部(センサ部110)の位置および姿勢を検出する機能を有する。例えば、センサ部110は、位置センサ(例えば、GPS(Global Positioning System)センサなど)を含んで構成され、ユーザの位置(例えば、ユーザの現在位置)と同様に、位置センサによってユーザの頭部の位置を検出してよい。
また、センサ部110は、地磁気センサを含んで構成され、地磁気センサによってユーザの頭部の姿勢を検出してよい。さらに、センサ部110は、地磁気センサに加えて、または、地磁気センサの代わりに、加速度センサおよびジャイロセンサの少なくともいずれか一方に基づいて、より高精度にユーザの頭部の姿勢を検出してもよい。あるいは、情報処理装置10の外部にカメラが設置されている場合には、当該カメラによって撮像された画像から認識される顔または身体の向きがユーザの頭部の姿勢として検出されてもよい。
通信部140は、通信回路を含んで構成され、通信ネットワークに接続されたサーバ装置(不図示)からのデータの取得および当該サーバ装置(不図示)へのデータの提供を、通信ネットワークを介して行う機能を有する。例えば、通信部140は、通信インターフェースにより構成される。なお、通信ネットワークに接続されるサーバ装置(不図示)は、1つであってもよいし、複数であってもよい。
記憶部130は、メモリを含んで構成され、制御部120によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする記録媒体である。また、記憶部130は、制御部120による演算のためにデータを一時的に記憶する。記憶部130は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または、光磁気記憶デバイスなどにより構成される。
表示部150は、各種の画面を表示する機能を有する。表示部150の種類は限定されない。例えば、表示部150は、ユーザに視認可能な表示を行うことが可能なディスプレイであればよく、液晶ディスプレイであってもよいし、有機EL(Electro−Luminescence)ディスプレイであってもよい。
制御部120は、情報処理装置10の各部の制御を実行する。制御部120は、例えば、1または複数のCPU(Central Processing Unit;中央演算処理装置)などで構成されていてよい。制御部120がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。制御部120は、かかる処理装置によってプログラムが実行されることによって実現され得る。
図3は、制御部120の詳細構成例を示す図である。図3に示したように、制御部120は、コンテキスト取得部121、提案情報取得部122、環境情報取得部123、属性情報取得部124および表示制御部129を備える。これらの各機能ブロックについての詳細は、後に説明する。
以上、本実施形態に係る情報処理装置10の機能構成例について説明した。
[1.3.情報処理システムの機能詳細]
続いて、本実施形態に係る情報処理システムの機能詳細について説明する。
(1.3.1.エージェント制御に利用される情報)
図4〜図8を参照しながら、エージェント制御に利用される各種情報の例について説明する。図4〜図8を参照すると、エージェント制御に利用される各種情報の例として、提案定義情報131、エージェント定義情報132、思考を伴う行動に対応するエージェントモデル情報133、知覚行動に対応するエージェントモデル情報134、マップ情報135が示されている。エージェント制御に利用される各種情報は、記憶部130によって記憶されており、記憶部130から適宜に取得されて利用され得る。
図4は、提案定義情報131の構成例を示す図である。図4に示されるように、提案定義情報131は、コンテキストと提案情報とが関連付けられて構成されている。例えば、コンテキストには、上記した行動情報(例えば、ユーザの行動履歴(現在の行動も含み得る)、ユーザの行動傾向、ユーザの動き、ユーザが存在する時刻(例えば、現在時刻)、ユーザの位置(例えば、ユーザの現在位置)、ユーザの視線、ユーザの生体情報、ユーザの音声など)の他、ユーザの予定情報(例えば、ユーザが何時から何時まで何をする予定であるのかを示す情報など)、ユーザのプロファイル(例えば、ユーザの性別、年齢、趣味など)が含まれてもよい。
図5は、エージェント定義情報132の構成例を示す図である。図5に示されるように、エージェント定義情報132は、提案情報とエージェントの行動と行動種別と知覚種別とが関連付けられて構成されている。エージェントの行動は、エージェントに行わせる行動を示す。また、行動種別は、エージェントに行わせる行動の種別を示す。図5に示されるように、行動種別には、「思考」を伴う行動と「知覚」する行動(以下、単に「知覚行動」とも言う)とが存在し得る。
図6は、思考を伴う行動に対応するエージェントモデル情報133の例を示す図である。図6に示されるように、思考を伴う行動に対応するエージェントモデル情報133は、ユーザ属性情報とエージェントモデルとが関連付けられて構成されている。図6に示された例では、ユーザ属性情報「イベント参加者」に対して、「イベント参加者の服装をした人型エージェント」が関連付けられている。しかし、ユーザの属性情報はイベント参加者に限定されない。例えば、ユーザの属性情報は、ユーザの性別情報を含んでもよいし、ユーザの年齢情報を含んでもよい。
図7は、知覚行動に対応するエージェントモデル情報134の構成例を示す図である。図7に示されるように、知覚行動に対応するエージェントモデル情報134は、知覚種別とエージェントモデルとが関連付けられて構成されている。知覚種別は、知覚行動の種別を示す。図7には、知覚種別の例として、「嗅覚」が示されているが、知覚種別は「嗅覚」に限定されない。例えば、知覚種別は、視覚を含んでもよいし、聴覚を含んでもよいし、触覚を含んでもよいし、味覚を含んでもよい。エージェントモデルも「犬型エージェント」に限定されない。
図8は、マップ情報135の構成例を示す図である。図8に示されるように、マップ情報135は、センサデータと実オブジェクトの情報とが関連付けられて構成されている。センサデータの例としては、ユーザの位置情報(例えば、緯度経度など)が挙げられる。また、実オブジェクトの情報としては、実オブジェクトの種類に関する情報が挙げられる。ここで、実オブジェクトの種類は限定されない。例えば、実オブジェクトの種類は、店舗の種類(例えば、コンビニエンスストア、喫茶店、飲食店など)であってもよいし、施設の種類(例えば、駅など)などであってもよい。
以上、エージェント制御に利用される各種情報の例について説明した。
(1.3.2.エージェントの制御)
続いて、エージェントの制御例について説明する。ここで、情報処理装置10において、コンテキスト取得部121は、ユーザのコンテキストを取得する。コンテキスト取得部121は、コンテキストの例としての行動情報を取得する行動情報取得部としても機能し得る。提案情報取得部122は、コンテキスト取得部121によって取得されたコンテキストに基づいて、コンテキストを取得した時点におけるユーザの周辺環境に関連するユーザへの提案情報を取得する。表示制御部129は、提案情報に基づいて、ユーザの視野内に提案情報に応じた行動を行うエージェントを表示するよう表示部150(表示装置)を制御する。
かかる構成によれば、提案情報がテキストデータとしてユーザに提供される場合と比較して、提案情報がオブジェクトを介して間接的にユーザに提供されるため、ユーザに与える不快感を低減させつつユーザに提案を行うことができる。さらに、かかる構成によれば、ユーザによる明示的な入力がなされなくても、自動的に取得されたコンテキストに基づいて提案情報が取得されるため、ユーザの入力に掛かる負担が軽減される。
以下では、図9〜図15を参照しながら(適宜に図1〜図8も参照しながら)、エージェントの制御例について説明する。具体的には、最初に、図9〜図11を参照しながら(適宜に図1〜図8も参照しながら)、エージェントに思考を伴う行動を行わせる例を説明する。続いて、図12〜図15を参照しながら(適宜に図1〜図8も参照しながら)、エージェントに知覚行動を行わせる例を説明する。
図9は、エージェントに思考を伴う行動を行わせる第1の例について説明するための図である。図9を参照すると、ユーザ20の視野50−2が示されている。実空間には実オブジェクト31−1(飲食店)が存在しており、視野50−2には実オブジェクト31−1(飲食店)が存在している。また、マップ情報135(図8)として、実オブジェクトの種類(飲食店)とその実オブジェクトの位置情報とが関連付けられてなる情報が登録されている場合を想定する。
また、提案定義情報131(図4)として、コンテキスト「ユーザの現在位置が飲食店の位置から所定の距離以内であり、かつ、現在時刻がお昼の時間帯(11時〜13時)に属する」と、提案情報「飲食店で食事をする」とが関連付けられてなる情報が登録されている場合を想定する。また、エージェント定義情報132(図5)として、提案情報「飲食店で食事をする」とエージェントの行動「飲食店に向かう」と行動種別「思考を伴う行動」が関連付けられてなる情報が登録されている場合を想定する。
このとき、環境情報取得部123は、環境情報を取得する。より具体的に、環境情報取得部123は、センサ部110によってユーザの位置および姿勢が検出された場合、ユーザの位置および姿勢とマップ情報135(図8)とに基づいて、ユーザと実オブジェクト31−1(飲食店)との相対的な位置関係(例えば、ユーザの視野における実オブジェクト31−1(飲食店)の位置)を環境情報として取得する。
ユーザと実オブジェクト31−1(飲食店)との相対的な位置関係は、どのようにして取得されてもよい。例えば、ユーザと実オブジェクト31−1(飲食店)との相対的な位置関係は、ユーザの視野の撮像画像から直接認識されてもよい。さらに、環境情報は、ユーザと実オブジェクト31−1(飲食店)との相対的な位置関係に限定されない。例えば、環境情報は、マイクロフォンによって検出されるユーザの周囲の環境音であってもよいし、照度センサによって検出される照度であってもよい。
コンテキスト取得部121は、環境情報に基づいて、ユーザの位置(現在位置)が飲食店の位置から所定の距離以内であることを取得する。さらに、コンテキスト取得部121は、現在時刻に基づいて、現在時刻がお昼の時間帯(11時〜13時)に属することを取得する。提案情報取得部122は、ユーザの周辺環境に関連するユーザへの提案情報を取得する。より具体的には、提案情報取得部122は、提案定義情報131(図4)に基づいて、コンテキスト「ユーザの位置(現在位置)が飲食店の位置から所定の距離以内であり、かつ、現在時刻がお昼の時間帯(11時〜13時)に属する」に対応する提案情報「飲食店で食事をする」を取得する。
さらに、表示制御部129は、エージェント定義情報132(図5)に基づいて、提案情報「飲食店で食事をする」に対応するエージェントの行動「飲食店に向かう」および行動種別「思考を伴う行動」を取得する。表示制御部129は、提案情報取得部122によって取得されたエージェントの行動「飲食店に向かう」を行うエージェント(エージェント32−1およびエージェント32−2)を視野50−2内に表示するよう表示部150を制御する。なお、視野50−2内に表示されるエージェントの数は2つに限定されず、1つであってもよいし、3つ以上であってもよい。
より具体的に、属性情報取得部124は、提案情報取得部122によって行動種別「思考を伴う行動」が取得された場合、ユーザ属性情報を取得する。表示制御部129は、属性情報取得部124によって取得されたユーザ属性情報に対応するエージェントを取得する。そして、表示制御部129は、取得したエージェントを表示するよう表示部150を制御する。
例えば、ユーザ属性情報は、提案の根拠となるコンテキストであってよい。例えば、イベント参加の予定があるというコンテキストに基づいて提案情報が取得された場合、属性情報「イベント参加者」がよく有している外観(例えば、服装、持ち物など)のエージェントが表示されてもよい。これによって、エージェントの外観を見るだけで、イベント参加者への提案がなされていることが容易に把握され得る。属性情報「イベント参加者」は、性別または年齢などに置き換えられてもよい。また、行動履歴に基づいて提案情報が取得された場合には、ユーザの行動に際してユーザに同行したエージェントが表示されてもよい。
ここでは、属性情報取得部124が、ユーザ属性情報「イベント参加者」を取得し、表示制御部129が、思考を伴う行動に対応するエージェントモデル情報133に基づいて、ユーザ属性情報「イベント参加者」に対応するエージェントモデル「イベント参加者の服装のモデル」を取得する場合を想定する。このとき、表示制御部129は、エージェントの行動「飲食店に向かう」を行うエージェントモデル「イベント参加者の服装のモデル」(エージェント32−1およびエージェント32−2)を視野50−2内に表示するよう表示部150を制御する。
図9を参照すると、イベント参加者の服装のエージェント32−1およびエージェント32−2が、視野50−2内において実オブジェクト31−1(飲食店)に向かっている様子が表示されている。また、図9を参照すると、表示制御部129によって、提案情報「飲食店で食事をする」に関連するコメント41−1がエージェント32−2に関連付けられて表示されている。しかし、コメント41−1は、どのようにして出力されてもよく、音声として出力されてもよい。
なお、ここでは、ユーザ属性情報がイベント参加者を含む例を想定した。しかし、ユーザ属性情報はイベント参加者を含む例に限定されない。例えば、ユーザ属性情報は、ユーザの服装を含んでもよいし、ユーザの性別情報を含んでもよい。かかる場合には、表示制御部129は、属性情報取得部124によって取得されたユーザ属性情報に対応するエージェント(例えば、ユーザ属性情報と実質的に同一の属性情報に対応するエージェント)を取得する。そして、表示制御部129は、取得したエージェントを表示するよう表示部150を制御する。これによって、自分と似た人の行動には従いやすいというユーザの心理的な特性を利用して、より効果的にユーザへの提案を行うことが可能となる。
例えば、属性情報取得部124は、ユーザ属性情報「ユーザの服装」を取得し、表示制御部129は、ユーザ属性情報「ユーザの服装」に対応するエージェントモデル「ユーザの服装と実質的に同一の服装のモデル」を表示するよう表示部150を制御すればよい。あるいは、属性情報取得部124は、ユーザ属性情報「ユーザの性別情報」を取得し、表示制御部129は、ユーザ属性情報「ユーザの性別情報」に対応するエージェントモデル「ユーザの性別と同じ性別のモデル」を表示するよう表示部150を制御すればよい。
ユーザ属性情報はどのようにして取得されてもよい。例えば、センサ部110による撮像画像から認識された服装がユーザ属性情報として取得されてもよい。あるいは、現在時刻から所定の時間以内に登録されている予定情報に対応する服装がユーザ属性情報として取得されてもよい。例えば、今日の予定情報としてイベント参加の予定情報が登録されている場合、そのイベントへの参加時によく着用する服装がユーザ属性情報として取得されてもよい。また、あらかじめ登録されたプロファイルからユーザの性別情報または年齢情報がユーザ属性情報として取得されてもよい。
図10は、エージェントに思考を伴う行動を行わせる第2の例について説明するための図である。図10を参照すると、ユーザ20の視野50−3が示されている。実空間には実オブジェクト31−2(コンビニエンスストア)が存在しており、視野50−3には実オブジェクト31−2(コンビニエンスストア)が存在している。また、マップ情報135(図8)として、実オブジェクトの種類(コンビニエンスストア)とその実オブジェクトの位置情報とが関連付けられてなる情報が登録されている場合を想定する。
また、提案定義情報131として、コンテキスト「ユーザの現在位置がコンビニエンスストアの位置から所定の距離以内であり、かつ、今日の天気予報は雨が降る予報である」と、提案情報「雨具を購入する」とが関連付けられてなる情報が登録されている場合を想定する。また、エージェント定義情報132として、提案情報「雨具を購入する」とエージェントの行動「コンビニエンスストアの前に存在する」と行動種別「思考を伴う行動」とが関連付けられてなる情報が登録されている場合を想定する。
その他、提案定義情報131として、コンテキスト「ユーザの現在位置がコンビニエンスストアの位置から所定の距離以内であり、かつ、今日の予定情報としてイベント参加の予定情報が登録されている」と、提案情報「ペンライトの電池を購入する」とが関連付けられてなる情報が登録されている場合を想定する。また、エージェント定義情報132として、提案情報「ペンライトの電池を購入する」とエージェントの行動「コンビニエンスストアの前に存在する」と行動種別「思考を伴う行動」とが関連付けられてなる情報が登録されている場合を想定する。
上記と同様にして、環境情報取得部123は、環境情報を取得する。より具体的に、環境情報取得部123は、ユーザと実オブジェクト31−2(コンビニエンスストア)との相対的な位置関係(例えば、ユーザの視野における実オブジェクト31−2(コンビニエンスストア)の位置)を環境情報として取得する。
コンテキスト取得部121は、環境情報に基づいて、ユーザの位置(現在位置)が実オブジェクト31−2(コンビニエンスストア)の位置から所定の距離以内であることを取得する。さらに、コンテキスト取得部121は、(例えば、所定のWebページから取得される)天気予報に基づいて、今日の天気予報は雨が降る予報であることを取得する。提案情報取得部122は、ユーザの周辺環境に関連するユーザへの提案情報を取得する。ここでは、ユーザの周辺環境は、ユーザの周辺の気象を含む。より具体的には、提案情報取得部122は、提案定義情報131に基づいて、コンテキスト「ユーザの位置(現在位置)がコンビニエンスストアの位置から所定の距離以内であり、かつ、今日の天気予報は雨が降る予報である」に対応する提案情報「雨具を購入する」を取得する。
さらに、表示制御部129は、エージェント定義情報132に基づいて、提案情報「雨具を購入する」に対応するエージェントの行動「コンビニエンスストアの前に存在する」および行動種別「思考を伴う行動」を取得する。表示制御部129は、気象に関連する行動を行うエージェントを表示するよう表示部150を制御する。気象に関連する行動は、雨具の購入に関連する行動(例えば、コンビニエンスストアの前に存在する行動)を含んでよい。
より具体的に、表示制御部129は、提案情報取得部122によって取得されたエージェントの行動「コンビニエンスストアの前に存在する」を行うエージェント(エージェント32−3、エージェント32−4およびエージェント32−6)を視野50−3内に表示するよう表示部150を制御する。なお、雨具の購入に関連する行動は、コンビニエンスストアの前に存在する行動の代わりに、コンビニエンスストアに入っていく行動であってもよいし、コンビニエンスストアから出てくる行動であってもよい。さらに、コンビニエンスストアは、雨具を販売する店舗の一例に過ぎないため、コンビニエンスストアは雨具を販売する他の店舗に置き換えられてもよい。
さらに、コンテキスト取得部121は、記憶部130から、今日の予定情報としてイベント参加の予定情報が登録されていることを取得する。提案情報取得部122は、ユーザの周辺環境に関連するユーザへの提案情報を取得する。より具体的には、提案情報取得部122は、提案定義情報131に基づいて、コンテキスト「ユーザの現在位置がコンビニエンスストアの位置から所定の距離以内であり、かつ、今日の予定情報としてイベント参加の予定情報が登録されている」に対応する提案情報「ペンライトの電池を購入する」を取得する。
さらに、表示制御部129は、エージェント定義情報132に基づいて、提案情報「ペンライトの電池を購入する」に対応するエージェントの行動「コンビニエンスストアの前に存在する」および行動種別「思考を伴う行動」を取得する。表示制御部129は、周辺環境に関連する購買行動を行うエージェントを表示するよう表示部150を制御する。より具体的に、表示制御部129は、購買行動を行うことが可能な店舗前にエージェントを配置するよう表示部150を制御する。
さらに具体的に、表示制御部129は、提案情報取得部122によって取得されたエージェントの行動「コンビニエンスストアの前に存在する」を行うエージェント(エージェント32−5)を視野50−3内に表示するよう表示部150を制御する。なお、購買行動は、コンビニエンスストアの前に存在する行動の代わりに、コンビニエンスストアに入っていく行動であってもよいし、コンビニエンスストアから出てくる行動であってもよい。さらに、コンビニエンスストアは、購買行動を行うことが可能な店舗の一例に過ぎないため、コンビニエンスストアは購買行動を行うことが可能な他の店舗に置き換えられてもよい。
図10を参照すると、表示制御部129によって、提案情報「雨具を購入する」に関連するコメント41−2がエージェント32−3に関連付けられて表示され、提案情報「雨具を購入する」に関連するコメント41−3がエージェント32−4に関連付けられて表示され、提案情報「雨具を購入する」に関連するコメント41−5がエージェント32−6に関連付けられて表示されている。また、提案情報「ペンライトの電池を購入する」に関連するコメント41−4がエージェント32−5に関連付けられて表示されている。しかし、コメント41−2〜41−5は、どのようにして出力されてもよく、音声として出力されてもよい。
例えば、これらのコメントが音声として出力される場合、エージェントに対応するエリアにユーザ20の視線が向いたことが検出された場合に、そのエージェントに対応するコメントが出力されてもよい。あるいは、複数の音声が同時に出力されている状態であっても、人は自分の興味がある音声を自然に聞き取ることができるという現象(いわゆる「カクテルパーティ効果」)を利用して、すべてのコメントが同時に音声として出力されてもよい。
図11は、エージェントに思考を伴う行動を行わせる第3の例について説明するための図である。図11を参照すると、ユーザ20の視野50−4が示されている。提案定義情報131として、コンテキスト「疲労状態」と、提案情報「回復」とが関連付けられてなる情報が登録されている場合を想定する。また、エージェント定義情報132として、提案情報「回復」とエージェントの行動「回復行動」と行動種別「思考を伴う行動」とが関連付けられてなる情報が登録されている場合を想定する。
コンテキスト取得部121は、ユーザの行動情報の例として、ユーザ20の疲労状態を示す状態情報を取得する。ここでは、疲労状態として、ユーザ20の歩行距離が所定の距離以上である場合を想定する。歩行距離は、加速度センサによって検出された加速度およびジャイロセンサによって検出された角速度に基づいて測定され得る。しかし、疲労状態は、かかる例に限定されない。
提案情報取得部122は、コンテキスト「疲労状態」に対応する提案情報「回復」を取得する。さらに、表示制御部129は、エージェント定義情報132に基づいて、提案情報「回復」に対応するエージェントの行動「回復行動」および行動種別「思考を伴う行動」を取得する。表示制御部129は、ユーザの疲労状態に応じた回復行動を行うエージェントを表示するよう表示部150を制御する。
より具体的に、表示制御部129は、提案情報取得部122によって取得されたエージェントの行動「回復行動」を行うエージェント(エージェント32−7)を視野50−4内に表示するよう表示部150を制御する。なお、提案情報「回復」は、休憩および水分補給のうち少なくとも1つを含んでよく、エージェントの行動「回復行動」は、休憩に関連する行動および水分補給に関連する行動のうち少なくとも1つを含んでよい。
図11を参照すると、回復行動の例として、疲労が蓄積した表情をするエージェント32−7が表示されている。しかし、回復行動は、かかる例に限定されない。例えば、回復行動は、休憩を行う行動であってもよいし、水分補給を行う行動であってもよいし、飲み物を買う行動であってもよい。また、図11を参照すると、表示制御部129によって、提案情報「回復」に関連するコメント41−6がエージェント32−7に関連付けられて表示されている。しかし、コメント41−6は、どのようにして出力されてもよく、音声として出力されてもよい。
図12は、エージェントに知覚行動を行わせる第1の例について説明するための図である。図12を参照すると、ユーザ20の視野50−5が示されている。実空間には実オブジェクト31−3(喫茶店)が存在しており、視野50−5には実オブジェクト31−3(喫茶店)が存在している。また、マップ情報135(図8)として、実オブジェクトの種類(喫茶店)とその実オブジェクトの位置情報とが関連付けられてなる情報が登録されている場合を想定する。
また、提案定義情報131(図4)として、コンテキスト「ユーザの現在位置が喫茶店の位置から所定の距離以内であり、かつ、喫茶店によく行く行動傾向がある」と、提案情報「喫茶店の前で匂いを嗅ぐ」とが関連付けられてなる情報が登録されている場合を想定する。また、エージェント定義情報132(図5)として、提案情報「喫茶店の前で匂いを嗅ぐ」とエージェントの行動「匂い粒子に鼻を向ける」と行動種別「知覚行動」と知覚種別「嗅覚」とが関連付けられてなる情報が登録されている場合を想定する。
上記と同様にして、環境情報取得部123は、環境情報を取得する。より具体的に、環境情報取得部123は、ユーザと実オブジェクト31−3(喫茶店)との相対的な位置関係(例えば、ユーザの視野における実オブジェクト31−3(喫茶店)の位置)を環境情報として取得する。
コンテキスト取得部121は、環境情報に基づいて、ユーザの位置(現在位置)が喫茶店の位置から所定の距離以内であることを取得する。さらに、コンテキスト取得部121は、喫茶店によく行く行動傾向があることを取得する。提案情報取得部122は、ユーザの周辺環境に関連するユーザへの提案情報を取得する。より具体的には、提案情報取得部122は、提案定義情報131(図4)に基づいて、コンテキスト「ユーザの位置(現在位置)が喫茶店の位置から所定の距離以内であり、かつ、喫茶店によく行く行動傾向があること」に対応する提案情報「喫茶店の前で匂いを嗅ぐ」を取得する。
さらに、表示制御部129は、エージェント定義情報132(図5)に基づいて、提案情報「喫茶店の前で匂いを嗅ぐ」に対応するエージェントの行動「匂い粒子に鼻を向ける」、行動種別「知覚行動」および知覚種別「嗅覚」を取得する。表示制御部129は、提案情報取得部122によって行動種別「知覚行動」が取得された場合、視覚、味覚、嗅覚、聴覚および触覚のうち少なくとも1つに関連する周辺環境に対する知覚行動を行うエージェントを表示するよう表示部150を制御する。特に、表示制御部129は、提案情報取得部122によって行動種別「知覚行動」および知覚種別「嗅覚」が取得された場合、匂い粒子に鼻を向けるよう(周辺環境に含まれる匂い粒子に向かってエージェントの鼻方向を変更するよう)表示部150を制御する。
より具体的に、表示制御部129は、知覚行動に対応するエージェントモデル情報134に基づいて、知覚種別「嗅覚」に対応するエージェントモデル「犬型エージェント」を取得する。そして、表示制御部129は、エージェントの行動「匂い粒子に鼻を向ける」を行うエージェントモデル「犬型エージェント」(エージェント32−8)を視野50−5内に表示するよう表示部150を制御する。
知覚種別「嗅覚」に対応するエージェントモデル「犬型エージェント」が表示されることによって、知覚種別「嗅覚」がユーザに把握されやすくなる。あるいは、エージェントモデル「犬型エージェント」の代わりにエージェントモデル「人型エージェント」が表示されてもよいが、知覚種別「嗅覚」に対応する感覚器官「鼻」が強調されるようなエフェクトが人型エージェントに施されるとよい。また、エージェントモデルの鼻が匂い粒子に向けられることによって、どの方向に向かって匂いを嗅げばよいかがユーザに把握されやすくなる。匂い粒子が存在する方向は、実オブジェクト31−3(喫茶店)の位置に向かう方向であってよい。
図13は、エージェントに知覚行動を行わせる第2の例について説明するための図である。図13を参照すると、ユーザ20の視野50−6が示されている。実空間には実オブジェクト31−4が存在しており、視野50−6にはユーザ20との通信相手を撮像して得られた仮想オブジェクト33−1が存在している。なお、図13に示されるように、実オブジェクト31−4は移動物体(例えば、人、自転車、自動車など)であることが主に想定されるが、実オブジェクト31−4の種類は限定されない。また、仮想オブジェクト33−1は、通信相手を撮像して得られた仮想オブジェクトに限定されない。
また、提案定義情報131として、コンテキスト「ユーザに向かって実オブジェクトが近づいている、かつ、表示部が仮想オブジェクト表示中である」と、提案情報「実オブジェクトに視線を向ける」とが関連付けられてなる情報が登録されている場合を想定する。また、エージェント定義情報132として、提案情報「実オブジェクトに視線を向ける」とエージェントの行動「実オブジェクトの方向に視線方向を変更する」と行動種別「知覚行動」と知覚種別「視覚」とが関連付けられてなる情報が登録されている場合を想定する。
このとき、環境情報取得部123は、環境情報を取得する。より具体的に、環境情報取得部123は、センサ部110に含まれるイメージセンサによって撮像された画像に基づいて、実オブジェクト31−4の位置(情報処理装置10と実オブジェクト31−4との相対的な位置関係)を取得する。また、環境情報取得部123は、実オブジェクト31−4の位置の変化(例えば、ユーザに向かって実オブジェクト31−4が近づいているか否か)を環境情報として取得する。
コンテキスト取得部121は、環境情報に基づいて、ユーザに向かって実オブジェクト31−4が近づいていることを取得する。さらに、コンテキスト取得部121は、表示部150が仮想オブジェクト33−1を表示中であることを取得する。提案情報取得部122は、ユーザの周辺環境に関連するユーザへの提案情報を取得する。より具体的には、提案情報取得部122は、提案定義情報131に基づいて、コンテキスト「ユーザに向かって実オブジェクトが近づいている、かつ、表示部が仮想オブジェクト表示中である」に対応する提案情報「実オブジェクトに視線を向ける」を取得する。
さらに、表示制御部129は、エージェント定義情報132に基づいて、提案情報「実オブジェクトに視線を向ける」に対応するエージェントの行動「実オブジェクトの方向に視線方向を変更する」、行動種別「知覚行動」および知覚種別「視覚」を取得する。表示制御部129は、提案情報取得部122によって行動種別「知覚行動」および知覚種別「視覚」が取得された場合、実オブジェクトの方向に視線方向を変更するよう(周辺環境に含まれる実オブジェクトの方向を向くようにエージェントの視線方向を変更するよう)表示部150を制御する。
より具体的に、表示制御部129は、知覚行動に対応するエージェントモデル情報134に基づいて、知覚種別「視覚」に対応するエージェントモデル「人型エージェント」を取得する。そして、表示制御部129は、エージェントの行動「実オブジェクト(実オブジェクト31−4)に視線を向ける」を行うエージェントモデル「人型エージェント」(エージェント32−9)を視野50−6内に表示するよう表示部150を制御する。
人の視線が向いている方向は、他の動物の視線が向いている方向よりも把握しやすいため、知覚種別「視覚」に対応するエージェントモデルとして「人型エージェント」が表示されることによって、ユーザはエージェントの視線変更に気づきやすくなる。また、エージェントモデルの視線が実オブジェクトに向けられることによって、どの方向に視線を向ければよいかがユーザに把握されやすくなる。
図14は、エージェントに知覚行動を行わせる第3の例について説明するための図である。図14を参照すると、ユーザ20の視野50−7が示されている。実空間には実オブジェクト31−5(景勝地)が存在しており、視野50−5には実オブジェクト31−5(景勝地)が存在している。また、マップ情報135(図8)として、実オブジェクトの種類(景勝地)とその実オブジェクトの位置情報とが関連付けられてなる情報が登録されている場合を想定する。
また、提案定義情報131として、コンテキスト「ユーザの現在位置が景勝地の位置から所定の距離以内である」と、提案情報「耳を澄ます」とが関連付けられてなる情報が登録されている場合を想定する。また、エージェント定義情報132として、提案情報「耳を澄ます」とエージェントの行動「音に向かって耳を傾ける」と行動種別「知覚行動」と知覚種別「聴覚」とが関連付けられてなる情報が登録されている場合を想定する。
上記と同様にして、環境情報取得部123は、環境情報を取得する。より具体的に、環境情報取得部123は、ユーザと実オブジェクト31−3(景勝地)との相対的な位置関係(例えば、ユーザの視野における実オブジェクト31−3(景勝地)の位置)を環境情報として取得する。
コンテキスト取得部121は、環境情報に基づいて、ユーザの位置(現在位置)が景勝地の位置から所定の距離以内であることを取得する。提案情報取得部122は、ユーザの周辺環境に関連するユーザへの提案情報を取得する。より具体的には、提案情報取得部122は、提案定義情報131に基づいて、コンテキスト「ユーザの位置(現在位置)が景勝地の位置から所定の距離以内である」に対応する提案情報「耳を澄ます」を取得する。
さらに、表示制御部129は、エージェント定義情報132(図5)に基づいて、提案情報「耳を澄ます」に対応するエージェントの行動「音に向かって耳を傾ける」、行動種別「知覚行動」および知覚種別「聴覚」を取得する。表示制御部129は、提案情報取得部122によって行動種別「知覚行動」および知覚種別「聴覚」が取得された場合、音に向かって耳を傾けるよう(周辺環境に含まれる音に向かってエージェントの耳を傾けるよう)表示部150を制御する。
より具体的に、表示制御部129は、知覚行動に対応するエージェントモデル情報134に基づいて、知覚種別「視覚」に対応するエージェントモデル「うさぎ型エージェント」を取得する。そして、表示制御部129は、エージェントの行動「音に向かって耳を傾ける」を行うエージェントモデル「うさぎエージェント」(エージェント32−10)を視野50−7内に表示するよう表示部150を制御する。
知覚種別「聴覚」に対応するエージェントモデル「うさぎ型エージェント」が表示されることによって、知覚種別「聴覚」がユーザに把握されやすくなる。あるいは、エージェントモデル「うさぎ型エージェント」の代わりにエージェントモデル「人型エージェント」が表示されてもよいが、知覚種別「聴覚」に対応する感覚器官「耳」が強調されるようなエフェクトが人型エージェントに施されるとよい。また、エージェントモデルの耳が音に傾けられることによって、どの方向に向かって耳を澄ませばよいかがユーザに把握されやすくなる。音が存在する方向は、実オブジェクト31−5(景勝地)の位置に向かう方向であってよい。
図15は、エージェントに知覚行動を行わせる第4の例について説明するための図である。図15を参照すると、ユーザ20の視野50−8が示されている。実空間には実オブジェクト31−5が存在しており、視野50−8にはユーザ20との通信相手を撮像して得られた仮想オブジェクト33−1が存在している。なお、図15に示されるように、実オブジェクト31−5は人であることが主に想定されるが、実オブジェクト31−5の種類は限定されない。また、仮想オブジェクト33−1は、通信相手を撮像して得られた仮想オブジェクトに限定されない。
また、提案定義情報131として、コンテキスト「靴紐が解けている」と、提案情報「足元を見る」とが関連付けられてなる情報が登録されている場合を想定する。また、エージェント定義情報132として、提案情報「足元を見る」とエージェントの行動「否定的なリアクションを再現する」と行動種別「知覚行動」と知覚種別「視覚」とが関連付けられてなる情報が登録されている場合を想定する。
このとき、環境情報取得部123は、環境情報を取得する。より具体的に、環境情報取得部123は、センサ部110に含まれるイメージセンサによって撮像された画像に基づいて、実オブジェクト31−5の位置(情報処理装置10と実オブジェクト31−5との相対的な位置関係)を取得する。また、環境情報取得部123は、実オブジェクト31−5のユーザに対するリアクション(例えば、ユーザに対して視線を向けているか否かなど)を環境情報として取得する。
ここでは、コンテキスト取得部121は、環境情報に基づいて、実オブジェクト31−5のユーザに対する否定的なリアクションを取得する。図15に示されるように、否定的なりアクションは、周辺環境にいる実オブジェクト31−5がユーザに対して視線を向けることを含んでよい。コンテキスト取得部121は、否定的なリアクションに基づいてユーザの行動情報を判定する。図15に示された例では、実オブジェクト31−5の視線がユーザの足元に向いている。そこで、コンテキスト取得部121は、ユーザの靴紐が解けていると判定する。
提案情報取得部122は、ユーザの周辺環境に関連するユーザへの提案情報を取得する。より具体的には、提案情報取得部122は、提案定義情報131に基づいて、コンテキスト「靴紐が解けている」に対応する提案情報「足元を見る」を取得する。
さらに、表示制御部129は、エージェント定義情報132に基づいて、提案情報「足元を見る」に対応するエージェントの行動「否定的なリアクションを再現する」、行動種別「知覚行動」および知覚種別「視覚」を取得する。表示制御部129は、提案情報取得部122によって行動種別「知覚行動」および知覚種別「視覚」が取得された場合、否定的なリアクションを再現するエージェントを表示するよう表示部150を制御する。
より具体的に、表示制御部129は、知覚行動に対応するエージェントモデル情報134に基づいて、知覚種別「視覚」に対応するエージェントモデル「人型エージェント」を取得する。そして、表示制御部129は、エージェントの行動「否定的なリアクションを再現する」を行うエージェントモデル「人型エージェント」(エージェント32−11)を視野50−8内に表示するよう表示部150を制御する。図15に示された例では、エージェント32−11は、ユーザに対して視線を向けるという否定的なリアクションを再現している。
以上、エージェントの制御例について説明した。
(1.3.3.情報処理装置の動作)
図16および図17を参照しながら、情報処理装置10の動作の例について説明する。図16および図17は、情報処理装置10の動作の例を示すフローチャートである。なお、図16および図17に示したフローチャートは、情報処理装置10の動作の一例を示すに過ぎない。したがって、情報処理装置10の動作は、図16および図17に示した例に限定されない。
まず、図16に示されたように、コンテキスト取得部121によって、コンテキストが取得される(S11)。コンテキストには、上記したように、ユーザの行動情報の他、ユーザの予定情報、ユーザのプロファイルが含まれてよい。提案情報取得部122は、コンテキスト取得部121によって取得されたコンテキストに基づいて、提案情報の取得を試みる(S12)。提案情報が取得されなかった場合には(S13において「No」)、S11に動作が移行される。一方、提案情報が取得された場合には(S13において「Yes」)、S14に動作が移行される。
表示制御部129は、提案情報が思考を伴う行動に対応しない場合には(S14において「No」)、S16に進む。一方、提案情報が思考を伴う行動に対応する場合には(S14において「Yes」)、エージェントの表現要素(上記では、エージェントモデルを特定するための要素)にエージェント属性情報を追加して(S15)、S16に進む。
また、表示制御部129は、提案情報が知覚行動に対応しない場合には(S16において「No」)、S18に進む。一方、提案情報が知覚行動に対応する場合には(S16において「Yes」)、エージェントの表現要素(エージェントモデルを特定するための要素)に知覚種別を追加して(S17)、S18に進む。表示制御部129は、エージェントの表現要素に基づいてエージェントモデル(例えば、表現要素に対応するエージェントモデル)を決定する(S18)。
なお、エージェントの表現要素が複数である場合には、複数の表現要素それぞれに対応するエージェントモデルが決定されてよい。例えば、知覚種別「視覚」と知覚種別「嗅覚」が表現要素である場合、知覚種別「視覚」に対応するエージェントモデル「人型エージェント」と知覚種別「嗅覚」に対応するエージェント「犬型エージェント」が決定されてよい。あるいは、ユーザ属性情報「イベント参加者」と知覚種別「視覚」が表現要素である場合、ユーザ属性情報「イベント参加者」に対応するエージェントモデル「イベント参加者の服装をした人型エージェント」と知覚種別「視覚」に対応するエージェントモデル「人型エージェント」が決定されてよい。
図17に進んで、表示制御部129は、決定したエージェントモデルを用いてエージェントを表示するよう表示部150を制御する(S21)。表示制御部129は、ユーザがエージェントに気づいた状態が検出されない場合、かつ、処理終了指示が検出されない場合(S22において「No」)、S22に動作を移行させる。一方、表示制御部129は、ユーザがエージェントに気づいた状態が検出された場合、または、処理終了指示が検出された場合(S22において「Yes」)、提示情報に応じた行動を行うエージェントを表示するよう表示部150を制御する(S23)。
なお、表示制御部129は、ユーザがエージェントに気づいた状態が検出されるまで、ユーザの注意を惹きやすい所定の行動をエージェントに行わせてもよい。ユーザがエージェントに気づいたか否か(ユーザがエージェントに注目しているか否か)は、ユーザの視線または顔がユーザの視野内のエージェントに向いているかに基づいて判断してもよいし、ユーザの生体情報の変化に基づいて判断してもよい。また、表示制御部129は、ユーザがエージェントに気づいたか否かに関わらず、一律に提示情報に応じた行動を行うエージェントを表示するよう表示部150を制御してもよい。
あるいは、表示制御部129は、提案情報が思考を伴う行動に対応する場合には、ユーザがエージェントに気づいた状態が検出された場合に、提示情報に応じた行動を行うエージェントを表示するよう表示部150を制御してもよい。一方、表示制御部129は、提案情報が知覚行動に対応する場合には、ユーザがエージェントに気づいたか否かに関わらず、一律に提示情報に応じた行動を行うエージェントを表示するよう表示部150を制御してもよい。また、処理終了指示は、ユーザの注目がエージェントから外れたことによって検出されてもよい。
表示制御部129は、エージェントの行動に従ってユーザが行動しない場合、かつ、ユーザがエージェントを無視しない場合、かつ、処理終了指示が検出されない場合(S24において「No」)、S24に動作を移行させる。ユーザがエージェントを無視したか否かは、ユーザの視線または顔がユーザの視野内のエージェント以外の場所を向いているか否かに基づいて判断してもよいし、ユーザの生体情報の変化に基づいて判断してもよい。あるいは、表示制御部129は、ユーザが所定の時間以上エージェントの行動に従って行動しなかった場合に、ユーザがエージェントを無視したと見做してもよい。
一方、表示制御部129は、エージェントの行動に従ってユーザが行動した場合、または、ユーザがエージェントを無視した場合、または、処理終了指示が検出された場合(S24において「Yes」)、表示終了処理を行う(S25)。なお、表示制御部129は、表示終了処理において、エージェントをユーザの視野から削除してもよいし、提案状態に応じた行動をエージェントに行わせるのを停止してもよいし、提案状態に応じた行動とは異なる行動(デフォルト動作)をエージェントに継続させてもよい。
以上、情報処理装置10の動作の例について説明した。
(1.3.4.各種の変形例)
上記のようにして、本開示の実施形態に係るエージェントの制御が実行される。しかし、エージェントの制御は、上記した例に限定されない。例えば、上記では、思考を伴う行動をエージェントに行わせる例および知覚行動をエージェントに行わせる例について説明した。しかし、思考を伴う行動をエージェントに行わせる例および知覚行動をエージェントに行わせる例は、上記した例に限定されない。以下では、思考を伴う行動をエージェントに行わせる例および知覚行動をエージェントに行わせる例についてさらに説明する。
まず、思考を伴う行動をエージェントに行わせる例について説明する。例えば、コンテキスト取得部121によってユーザがイベント会場の最寄り駅に到達したことが取得された場合に、表示制御部129は、ユーザと同一または類似する格好(例えば、服装、持ち物など)をしたエージェント(人型エージェントなど)を表示するよう表示部150を制御してもよい。ユーザは、かかるエージェントを視認することによって、自分が向かう先にイベント会場があることを察することができる。
このとき、ユーザは、エージェント(人型エージェントなど)の持ち物を視認することによって、イベント会場に到達するまでに入手したほうがよいものを察することができる。また、ユーザは、買い物をしているエージェント(人型エージェントなど)を視認することによって、入手したほうがよいものを察することができる。あるいは、ユーザは、かかるエージェントを視認することによって、自身が向かう先にある休憩スペースが既に満席である可能性のあることを察することができる。
また、例えば、コンテキスト取得部121によって所定のコンテキストが取得された場合、表示制御部129は、ユーザに同行しているエージェントに所定の行動をさせてもよい。例えば、コンテキスト取得部121によってユーザの疲労状態を示す状態情報が取得された場合、表示制御部129は、エージェントに疲れた仕草をさせてもよい。ユーザは、かかるエージェントを視認することによって、自分もそろそろ休憩したほうがよいと察することができる。
あるいは、コンテキスト取得部121によって、(例えば、ユーザが撮像された画像に基づいて)最後にユーザが水分補給をしてから所定の距離以上歩行したことまたは所定の時間が経過したことが取得された場合、表示制御部129は、エージェントに水分補給をさせてもよい。ユーザは、かかるエージェントを視認することによって、自分もそろそろ水分補給をしたほうがよいと察することができる。
また、コンテキスト取得部121によって所定のコンテキストが取得された場合、表示制御部129は、エージェントに所定の行動をさせてもよい。例えば、コンテキスト取得部121によって(例えば、他人が撮像された画像に基づいて)他人がユーザの胸元を見ていることが取得された場合、表示制御部129は、エージェントにユーザの胸元を見させてもよい。あるいは、コンテキスト取得部121によって(例えば、ユーザが撮像された画像に基づいて)ユーザのボタンの掛け違いが取得された場合、表示制御部129は、エージェントにユーザの胸元を見させてもよい。ユーザは、かかるエージェントを視認することによって、自分の胸元を確認して、ボタンの掛け違いに気づくことができる。
例えば、コンテキスト取得部121によって(例えば、他人が撮像された画像に基づいて)他人がユーザの足元を見ていることが取得された場合、表示制御部129は、エージェントにユーザの足元を見させてもよい。あるいは、コンテキスト取得部121によって(例えば、ユーザが撮像された画像に基づいて)ユーザの靴紐が解けていることが取得された場合、表示制御部129は、エージェントにユーザの足元を見させてもよい。ユーザは、かかるエージェントを視認することによって、自分の足元を確認して、靴紐が解けていることに気づくことができる。
例えば、コンテキスト取得部121によって(例えば、他人が撮像された画像に基づいて)イヤホンでユーザが音楽を聴いている間に他人がユーザを見ていること(例えば、不快な表情でユーザを見ていること)が取得された場合、表示制御部129は、音漏れを示す所定の行動(例えば、耳を塞ぐ行動、音漏れさせながら音楽を聴いて周囲に迷惑を掛ける行動など)をエージェントにさせてもよい。ユーザは、かかるエージェントを視認することによって、イヤホンまたはヘッドホンから周囲に漏れている音の大きさを確認して、音漏れを察することができる(音量を上げすぎないように注意することができる)。
あるいは、コンテキスト取得部121によって、(例えば、ユーザが撮像された画像に基づいて)ユーザに向かって実オブジェクト(例えば、人、自転車、自動車など)が近づいていること取得された場合、表示制御部129は、実オブジェクト(例えば、人、自転車、自動車など)に視線を向けるようにエージェントを変更してもよい。ユーザは、かかるエージェントを視認することによって、自分も周囲の安全を確認したほうがよいと察することができる。
例えば、コンテキスト取得部121によって(例えば、匂いセンサによって検出された匂いに基づいて)シャンプーの匂いが取得された場合、表示制御部129は、匂いに注意を払う所定の行動(例えば、匂いを嗅ぐ行動など)をエージェントにさせてもよい。ユーザは、かかるエージェントを視認することによって、知人がシャンプーを変えたことを察することができる。
<2.ハードウェア構成例>
次に、図18を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成例について説明する。図18は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
図18に示されるように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含む。さらに、情報処理装置10は、撮像装置933、およびセンサ935を含む。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro−Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などであり得る。出力装置917は、情報処理装置10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置10と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置10の筐体の姿勢など、情報処理装置10自体の状態に関する情報や、情報処理装置10の周辺の明るさや騒音など、情報処理装置10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
<3.むすび>
以上説明したように、本開示の実施形態によれば、ユーザの行動情報を取得する行動情報取得部と、前記行動情報に基づいて、前記行動情報を取得した時点における前記ユーザの周辺環境に関連する前記ユーザへの提案情報を取得する提案情報取得部と、前記提案情報に基づいて、前記ユーザの視野内に前記提案情報に応じた行動を行うアバターオブジェクトを表示するよう表示装置を制御する表示制御部と、を備える、情報処理装置が提供される。かかる構成によれば、ユーザに与える不快感を低減させつつユーザに提案を行うことが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した制御部120が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
例えば、上記した情報処理装置10の動作が実現されれば、各構成の位置は特に限定されない。情報処理装置10における各部の処理の一部または全部はサーバ装置(不図示)によって行われてもよい。具体的な一例として、情報処理装置10における制御部120が有する各ブロックの一部または全部は、サーバ装置(不図示)などに存在していてもよい。例えば、情報処理装置10におけるコンテキスト取得部121、提案情報取得部122、環境情報取得部123、属性情報取得部124および表示制御部129の一部または全部は、サーバ装置(不図示)などに存在していてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの行動情報を取得する行動情報取得部と、
前記行動情報に基づいて、前記行動情報を取得した時点における前記ユーザの周辺環境に関連する前記ユーザへの提案情報を取得する提案情報取得部と、
前記提案情報に基づいて、前記ユーザの視野内に前記提案情報に応じた行動を行うアバターオブジェクトを表示するよう表示装置を制御する表示制御部と、
を備える、情報処理装置。
(2)
前記ユーザの属性情報を取得する属性情報取得部を更に備え、
前記表示制御部は、前記属性情報に対応する前記アバターオブジェクトを表示するよう前記表示装置を制御する、
前記(1)に記載の情報処理装置。
(3)
前記ユーザの属性情報は、性別情報を含む、
前記(2)に記載の情報処理装置。
(4)
前記ユーザの属性情報は、ユーザの服装を含む、
前記(2)または(3)に記載の情報処理装置。
(5)
前記表示制御部は、前記ユーザの属性情報と実質的に同一の属性情報に対応する前記アバターオブジェクトを表示するよう前記表示装置を制御する、
前記(2)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記表示制御部は、視覚、味覚、嗅覚、聴覚および触覚のうち少なくとも1つに関連する前記周辺環境に対する知覚行動を行う前記アバターオブジェクトを表示するよう前記表示装置を制御する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記表示制御部は、前記周辺環境に含まれる実オブジェクトの方向を向くよう前記アバターオブジェクトの視線方向を変更するよう前記表示装置を制御する、
前記(6)に記載の情報処理装置。
(8)
前記表示制御部は、前記周辺環境に含まれる匂い粒子に向かって前記アバターオブジェクトの鼻方向を変更するよう前記表示装置を制御する、
前記(6)に記載の情報処理装置。
(9)
前記表示制御部は、前記周辺環境に含まれる音に向かって前記アバターオブジェクトの耳を傾けるよう前記表示装置を制御する、
前記(6)に記載の情報処理装置。
(10)
前記周辺環境は、前記ユーザの周辺の気象を含み、
前記表示制御部は、前記気象に関連する行動を行う前記アバターオブジェクトを表示するよう前記表示装置を制御する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(11)
前記気象に関連する行動は、雨具の購入に関連する行動を含む、
前記(10)に記載の情報処理装置。
(12)
前記表示制御部は、前記周辺環境に関連する購買行動を行う前記アバターオブジェクトを表示するよう前記表示装置を制御する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(13)
前記表示制御部は、前記購買行動を行うことが可能な店舗前に前記アバターオブジェクトを配置するよう前記表示装置を制御する、
前記(12)に記載の情報処理装置。
(14)
前記行動情報は、前記ユーザの疲労状態を示す状態情報を含み、
前記表示制御部は、前記状態情報に応じた回復行動を行う前記アバターオブジェクトを表示するよう前記表示装置を制御する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(15)
前記回復行動は、休憩に関連する行動および水分補給に関連する行動のうち少なくとも1つを含む、
前記(14)に記載の情報処理装置。
(16)
前記行動情報は、前記周辺環境の画像認識結果に基づく前記周辺環境にいる人の前記ユーザに対する否定的なリアクションに基づいて判定され、
前記表示制御部は、前記否定的なリアクションを再現する前記アバターオブジェクトを表示するよう前記表示装置を制御する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(17)
前記否定的なリアクションは、前記周辺環境にいる人が前記ユーザに対して視線を向けることを含む、
前記(16)に記載の情報処理装置。
(18)
前記情報処理装置は、HMD(Head Mounted Display)である、
前記(1)〜(17)のいずれか一項に記載の情報処理装置。
(19)
ユーザの行動情報を取得することと、
前記行動情報に基づいて、前記行動情報を取得した時点における前記ユーザの周辺環境に関連する前記ユーザへの提案情報を取得することと、
前記提案情報に基づいて、前記ユーザの視野内に前記提案情報に応じた行動を行うアバターオブジェクトを表示するよう表示装置を制御することと、
を含む、情報処理方法。
(20)
コンピュータを、
ユーザの行動情報を取得する行動情報取得部と、
前記行動情報に基づいて、前記行動情報を取得した時点における前記ユーザの周辺環境に関連する前記ユーザへの提案情報を取得する提案情報取得部と、
前記提案情報に基づいて、前記ユーザの視野内に前記提案情報に応じた行動を行うアバターオブジェクトを表示するよう表示装置を制御する表示制御部と、
を備える情報処理装置として機能させるためのプログラム。
10 情報処理装置
110 センサ部
120 制御部
121 コンテキスト取得部
122 提案情報取得部
123 環境情報取得部
124 属性情報取得部
129 表示制御部
130 記憶部
131 提案定義情報
132 エージェント定義情報
133 思考を伴う行動に対応するエージェントモデル情報
134 知覚行動に対応するエージェントモデル情報
135 マップ情報
140 通信部
150 表示部
20 ユーザ
31 実オブジェクト
32 エージェント
33 仮想オブジェクト
41 コメント
50 視野


Claims (20)

  1. ユーザの行動情報を取得する行動情報取得部と、
    前記行動情報に基づいて、前記行動情報を取得した時点における前記ユーザの周辺環境に関連する前記ユーザへの提案情報を取得する提案情報取得部と、
    前記提案情報に基づいて、前記ユーザの視野内に前記提案情報に応じた行動を行うアバターオブジェクトを表示するよう表示装置を制御する表示制御部と、
    を備える、情報処理装置。
  2. 前記ユーザの属性情報を取得する属性情報取得部を更に備え、
    前記表示制御部は、前記属性情報に対応する前記アバターオブジェクトを表示するよう前記表示装置を制御する、
    請求項1に記載の情報処理装置。
  3. 前記ユーザの属性情報は、性別情報を含む、
    請求項2に記載の情報処理装置。
  4. 前記ユーザの属性情報は、ユーザの服装を含む、
    請求項2に記載の情報処理装置。
  5. 前記表示制御部は、前記ユーザの属性情報と実質的に同一の属性情報に対応する前記アバターオブジェクトを表示するよう前記表示装置を制御する、
    請求項2に記載の情報処理装置。
  6. 前記表示制御部は、視覚、味覚、嗅覚、聴覚および触覚のうち少なくとも1つに関連する前記周辺環境に対する知覚行動を行う前記アバターオブジェクトを表示するよう前記表示装置を制御する、
    請求項1に記載の情報処理装置。
  7. 前記表示制御部は、前記周辺環境に含まれる実オブジェクトの方向を向くよう前記アバターオブジェクトの視線方向を変更するよう前記表示装置を制御する、
    請求項6に記載の情報処理装置。
  8. 前記表示制御部は、前記周辺環境に含まれる匂い粒子に向かって前記アバターオブジェクトの鼻方向を変更するよう前記表示装置を制御する、
    請求項6に記載の情報処理装置。
  9. 前記表示制御部は、前記周辺環境に含まれる音に向かって前記アバターオブジェクトの耳を傾けるよう前記表示装置を制御する、
    請求項6に記載の情報処理装置。
  10. 前記周辺環境は、前記ユーザの周辺の気象を含み、
    前記表示制御部は、前記気象に関連する行動を行う前記アバターオブジェクトを表示するよう前記表示装置を制御する、
    請求項1に記載の情報処理装置。
  11. 前記気象に関連する行動は、雨具の購入に関連する行動を含む、
    請求項10に記載の情報処理装置。
  12. 前記表示制御部は、前記周辺環境に関連する購買行動を行う前記アバターオブジェクトを表示するよう前記表示装置を制御する、
    請求項1に記載の情報処理装置。
  13. 前記表示制御部は、前記購買行動を行うことが可能な店舗前に前記アバターオブジェクトを配置するよう前記表示装置を制御する、
    請求項12に記載の情報処理装置。
  14. 前記行動情報は、前記ユーザの疲労状態を示す状態情報を含み、
    前記表示制御部は、前記状態情報に応じた回復行動を行う前記アバターオブジェクトを表示するよう前記表示装置を制御する、
    請求項1に記載の情報処理装置。
  15. 前記回復行動は、休憩に関連する行動および水分補給に関連する行動のうち少なくとも1つを含む、
    請求項14に記載の情報処理装置。
  16. 前記行動情報は、前記周辺環境の画像認識結果に基づく前記周辺環境にいる人の前記ユーザに対する否定的なリアクションに基づいて判定され、
    前記表示制御部は、前記否定的なリアクションを再現する前記アバターオブジェクトを表示するよう前記表示装置を制御する、
    請求項1に記載の情報処理装置。
  17. 前記否定的なリアクションは、前記周辺環境にいる人が前記ユーザに対して視線を向けることを含む、
    請求項16に記載の情報処理装置。
  18. 前記情報処理装置は、HMD(Head Mounted Display)である、
    請求項1に記載の情報処理装置。
  19. ユーザの行動情報を取得することと、
    前記行動情報に基づいて、前記行動情報を取得した時点における前記ユーザの周辺環境に関連する前記ユーザへの提案情報を取得することと、
    前記提案情報に基づいて、前記ユーザの視野内に前記提案情報に応じた行動を行うアバターオブジェクトを表示するよう表示装置を制御することと、
    を含む、情報処理方法。
  20. コンピュータを、
    ユーザの行動情報を取得する行動情報取得部と、
    前記行動情報に基づいて、前記行動情報を取得した時点における前記ユーザの周辺環境に関連する前記ユーザへの提案情報を取得する提案情報取得部と、
    前記提案情報に基づいて、前記ユーザの視野内に前記提案情報に応じた行動を行うアバターオブジェクトを表示するよう表示装置を制御する表示制御部と、
    を備える情報処理装置として機能させるためのプログラム。


JP2018143309A 2018-07-31 2018-07-31 情報処理装置、情報処理方法およびプログラム Pending JP2021182172A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018143309A JP2021182172A (ja) 2018-07-31 2018-07-31 情報処理装置、情報処理方法およびプログラム
US17/250,432 US20210256263A1 (en) 2018-07-31 2019-07-26 Information processing apparatus, information processing method, and program
PCT/JP2019/029467 WO2020026986A1 (ja) 2018-07-31 2019-07-26 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018143309A JP2021182172A (ja) 2018-07-31 2018-07-31 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2021182172A true JP2021182172A (ja) 2021-11-25

Family

ID=69232562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018143309A Pending JP2021182172A (ja) 2018-07-31 2018-07-31 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20210256263A1 (ja)
JP (1) JP2021182172A (ja)
WO (1) WO2020026986A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117836813A (zh) * 2021-08-25 2024-04-05 索尼半导体解决方案公司 信息处理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4533705B2 (ja) * 2003-09-01 2010-09-01 パナソニック株式会社 車載対話装置
US20050054381A1 (en) * 2003-09-05 2005-03-10 Samsung Electronics Co., Ltd. Proactive user interface
JP2011137844A (ja) * 2008-04-18 2011-07-14 Revirth Corp 電子地図上の登録データ表示システム、表示データの作成方法及び装置
JP6102939B2 (ja) * 2012-11-22 2017-03-29 ソニー株式会社 情報処理装置、システム、情報処理方法およびプログラム
WO2015033151A2 (en) * 2013-09-04 2015-03-12 Zero360, Inc. Processing system and method
US9852234B2 (en) * 2015-09-16 2017-12-26 Brian Gannon Optimizing apparel combinations
US11380039B2 (en) * 2017-12-14 2022-07-05 Magic Leap, Inc. Contextual-based rendering of virtual avatars

Also Published As

Publication number Publication date
US20210256263A1 (en) 2021-08-19
WO2020026986A1 (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
CN108028957B (zh) 信息处理装置、信息处理方法和机器可读介质
EP2981070B1 (en) Information processing device, notification state control method, and program
US9316502B2 (en) Intelligent mobility aid device and method of navigating and providing assistance to a user thereof
CN110996796B (zh) 信息处理设备、方法和程序
WO2016181670A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6402718B2 (ja) 情報処理装置、制御方法およびプログラム
CA2886948A1 (en) Method relating to presence granularity with augmented reality
US11016558B2 (en) Information processing apparatus, and information processing method to determine a user intention
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US11169599B2 (en) Information processing apparatus, information processing method, and program
WO2019215983A1 (ja) 情報処理システム、情報処理方法、および記録媒体
WO2016158003A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2021182172A (ja) 情報処理装置、情報処理方法およびプログラム
WO2016143415A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6992799B2 (ja) 情報処理装置、情報処理方法およびプログラム
US11792484B2 (en) Information providing system, information providing method and management apparatus for information providing system for providing information obtained through a robot
JP2005173419A (ja) 手話解釈装置
JP6559096B2 (ja) 情報出力システム及び情報出力方法
US11270682B2 (en) Information processing device and information processing method for presentation of word-of-mouth information
WO2015194215A1 (ja) 情報処理装置、情報処理方法およびプログラム
US11244510B2 (en) Information processing apparatus and method capable of flexibility setting virtual objects in a virtual space

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222