JP2019101743A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2019101743A
JP2019101743A JP2017231960A JP2017231960A JP2019101743A JP 2019101743 A JP2019101743 A JP 2019101743A JP 2017231960 A JP2017231960 A JP 2017231960A JP 2017231960 A JP2017231960 A JP 2017231960A JP 2019101743 A JP2019101743 A JP 2019101743A
Authority
JP
Japan
Prior art keywords
display
user
information
item
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017231960A
Other languages
English (en)
Inventor
壮一郎 稲谷
Soichiro Inatani
壮一郎 稲谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2017231960A priority Critical patent/JP2019101743A/ja
Priority to PCT/JP2018/040071 priority patent/WO2019107040A1/ja
Priority to US16/766,484 priority patent/US11170539B2/en
Publication of JP2019101743A publication Critical patent/JP2019101743A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】表示アイテムがユーザの視界に与える影響を低減し、ユーザは快適にAR重畳技術を体験できる。【解決手段】ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御する表示制御部、を備える、情報処理装置により、表示アイテムがユーザの視界に与える影響を低減し、ユーザは快適にAR重畳技術を体験することができる。【選択図】図4

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
近年、現実空間(以下、実空間と称す。)に、付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれるAR重畳技術が開発されている。重畳される付加的な情報は、テキスト、アイコンまたはアニメーションなど様々な種類の表示アイテムがユーザの眼前に表示されることで可視化され得る。
特許文献1では、表示アイテムが多岐にわたり、複数の表示アイテムが表示されている場合において、ユーザが必要な表示アイテムを見落とすリスクを低減するために表示アイテムの表示を制御する技術が開示されている。
特開2014−71811号公報
しかし、特許文献1では、複数の表示アイテムが表示または消去される際の、表示アイテムの制御方法に関しては、開示されていなかった。そのため、複数の表示アイテムが一斉に表示されたり、消去されたりすることにより、ユーザの視界全体に影響を与える可能性があった。表示アイテムがユーザの視界全体に影響を与えると、ユーザが煩わしさを感じることがあり、ユーザがAR重畳技術を体験する上で不快と感じる要因の一因となり得た。
上記事情に鑑みれば、表示アイテムがユーザの視界に与える影響を低減し、ユーザが快適にAR重畳技術を体験できることが望ましい。
本開示によれば、ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御する表示制御部、を備える、情報処理装置が提供される。
また、本開示によれば、プロセッサが、ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御すること、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータを、ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御する表示制御部、として機能させるためのプログラム、が提供される。
本開示によれば、ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御することで、ユーザの視界に与える影響を低減させることができる。
以上説明したように本開示によれば、表示アイテムがユーザの視界に与える影響を低減し、ユーザは快適にAR重畳技術を体験できる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システムの概要を説明する説明図である。 同実施形態に係る情報処理システムの概要を説明する説明図である。 同実施形態に係る情報処理システムの概要を説明する説明図である。 同実施形態に係る情報処理システムを説明するブロック図である。 同実施形態に係る情報処理システムの動作の流れを示すフローチャートである。 同実施形態による表示制御の一例を示す図である。 同実施形態による表示制御の一例を示す図である。 同実施形態による表示制御の一例を示す図である。 同実施形態に係る表示順序の一例を示す図である。 同実施形態に係る表示順序の一例を示す図である。 同実施形態に係る表示順序の一例を示す図である。 同実施形態に係る表示順序の一例を示す図である。 同実施形態に係る表示順序の一例を示す図である。 同実施形態に係る情報処理システムのハードウェア構成の一例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示の一実施形態に係る情報処理システムの概要
1.1.外部構成
1.2.技術概要
2.情報処理システムの構成
3.動作処理の流れ
4.表示制御例
4.1.トリガに基づいた表示制御
4.2.キャンセル動作による表示制御の解除
4.3.ユーザの状態に応じた表示制御
5.表示順序例
6.変形例
7.ハードウェア構成例
8.まとめ
<1.本開示の一実施形態に係る情報処理システムの概要>
[1.1.外部構成]
まず、図1を参照して、本開示の一実施形態に係る情報処理システムの概要を説明する。図1は、本開示の一実施形態に係る情報処理システムが適用された表示装置O及び表示装置OによるユーザUserの視界を示す図である。図1に示す表示装置Oは、ARグラスまたはHMD(Head Mounted Display)とも称される装置である。表示装置Oは、図1に示すような装着状態において、ユーザの眼前に、右眼用と左眼用の一対の表示部Oa及びObが配置されている。この表示部Oa及びObには、例えば透過型のディスプレイが用いられ、表示装置Oは透過型のディスプレイの透過率を制御することで、スルー状態、(即ち透明)または半透明の状態に制御することができる。表示部Oa及びObがスルー状態とされることで、表示装置Oを眼鏡のように使用できるため、ユーザは表示装置Oを常時装着していても、通常の生活には支障がなく行動ができる。
表示部Oa及びObは、透明または半透明の状態のまま、テキストや図等の画像を表示することで、実空間の風景に表示アイテムを重畳表示することができる。即ち、表示装置Oは、透過型のARグラスとして実現されてもよい。
図1では、表示部Oa内に、実空間の建物X1、建物X2及びバスX3に対応した表示アイテムx1、x2及びx3が表示されている様子を示している。本開示の技術は、このような実空間の風景に表示アイテムを重畳表示させる場合に適用され得る。
また、表示部Oa及びObは、撮像された実空間の撮像画像を表示しつつ、実空間の撮像画像に表示アイテムを重畳表示することも可能である。また、表示部Oa及びObは、あたかも実空間を撮像したかのような画像を表示しつつ、当該仮想空間の画像に表示アイテムを重畳表示することも可能である。すなわち、表示装置Oは、ビデオシースルー型の表示装置であってもよい。
表示部Oa及びObには、多様なコンテンツが表示アイテムとして表示され得る。コンテンツは、例えば時刻、地図、ゲームプログラムに基づくゲーム画像、ユーザの入力操作が可能なアイコンなど、表示対象となるあらゆるデータが想定される。
以上、本開示の技術が適用され得る表示装置Oの一例について説明した。なお、以下では、本開示の情報処理システムを備える表示装置OがARグラスである場合に関して、説明を行う。
[1.2.技術概要]
ここでは、図2を参照して、本開示の技術概要に関して説明を行う。図2は、表示装置Oを装着したユーザ視界40及び42を示している。この時、ユーザ視界40では、ユーザは、立ち止まっており、ユーザ視界40には、表示アイテム400A、400B及び400Cが表示されている。ユーザが立ち止まっているため、ユーザ視界40の一部が表示アイテム400A、400B及び400Cによって遮られたとしても問題ない。
一方で、ユーザが歩き出す際は、表示アイテムによりユーザの視界が遮られた状態であると、ユーザが実空間を視認する上で、障害となったり、煩わしさを感じたりし得る。よって、例えば、ユーザが、歩き始める際には、ユーザ視界42に示すように、表示アイテム400A、400B及び400Cをユーザ視界42から消去して、ユーザが実空間を視認しやすくする。
図2では、表示アイテムを消去する際に、消去トリガを検出する(S40)ことによって、表示アイテム400A、400B及び400Cが同タイミングで一斉に消され(S41、42、43)、表示制御が終了する(S44)。
しかしながら、ユーザが立ち止まっている状態から歩く状態となる際に、表示アイテム400A、400B及び400Cを一斉に消すと、ユーザの視界に与える影響または変化が大きい。そのため、ユーザが視野の変化に適応しがたく、ユーザがAR重畳技術を体験する上で不快に感じることがある。
そこで、図3を参照して、本開示の技術概要を説明する。図3は、図2と同様に、表示装置Oを装着したユーザ視界1を示している。この時、ユーザ視界1においてユーザは、立ち止まっており、ユーザ視界1には、表示アイテム1A、1B及び1Cが表示されている。ユーザ視界2では、表示アイテム1A、1B及び1Cがユーザ視界2から消去された状態を示している。
本開示の技術では、例えば、ユーザが立ち止まっている状態から歩く状態に変化する行動変化により、トリガが検出(S1)され、表示アイテム1A、1B及び1Cがそれぞれ、表示アイテム1A(S2)、表示アイテム1B(S3)、表示アイテム1C(S4)の順で消える表示の制御を行う。最終的に、表示アイテム1Cを消すことで、表示制御が終了する(S5)。このように、本開示の技術では、ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御することを可能にする。
なお、環境情報とは、ユーザの周囲の環境の輝度情報、色情報、音情報、又はデプス情報等であり、実空間に存在する建物または障害物等の物体の形状、位置及び動きに関する情報を含む。また、ユーザ情報とは、ユーザの視線及び視野情報、姿勢情報、又は移動情報等を含む。これらの環境情報及びユーザ情報に基づいて、表示順序は決定され得る。
以上では、本開示の技術概要を説明した。詳細な説明は次項以降にて行う。
<2.情報処理システムの構成>
ここでは、情報処理システム5に関して、図4を参照して説明する。図4は、同実施形態に係る情報処理システム5の構成の一例を示すブロック図である。情報処理システム5は、情報処理装置50、表示装置51及びセンサ装置52を備える。
情報処理システム5では、情報処理装置50は、表示アイテムの有無の制御処理を行う上で必要な情報をセンサ装置52から取得し、表示装置51にてユーザに表示アイテムの有無が視認できるように、表示制御を行う。これより、各構成の詳細について説明を行う。
[センサ装置52]
センサ装置52は、情報処理装置50により使用されるユーザ情報及び環境情報を取得する機能を有する。ユーザ情報及び環境情報を得られるセンサであれば、センサの種類は限られず、搭載される各種センサの数も限られない。本実施形態においては、カメラ521、デプスセンサ522、マイクロフォン523、加速度センサ524及び測位センサ525を備えるセンサ装置52に関して説明する。
(カメラ521)
カメラ521は、RGBカメラまたはサーモカメラ等の画像(静止画像又は動画像)を撮像する撮像装置であり、レンズ系、駆動系、及び撮像素子を有してもよい。カメラ521により得られた撮像画像は、画像解析に使用されてもよく、表示装置51にて表示するために使用されてもよい。
また、カメラ521は、実空間を撮像して環境情報を取得するために用いられてもよく、ユーザに対して向けられることで、ユーザの眼球の動き、視線等の視線情報を解析し、ユーザ情報を取得するために用いられてもよい。このように、カメラ521は、環境情報及びユーザ情報を取得できるため、表示アイテムまたは実空間に対するユーザの着目状況等を把握することができる。
(デプスセンサ522)
デプスセンサ522は、実空間における物体の深度情報を取得する機能を有する。例えば、デプスセンサ522は、赤外線測距装置、超音波測距装置、LiDAR(Laser Imaging Detection and Ranging)又はステレオカメラ等を含んでもよい。デプスセンサ522にて取得された深度情報は、ユーザに対する表示アイテムの表示位置等を決定するため等に用いられ、ユーザが適切な位置で表示アイテムを視認できる様に使用される。
(マイクロフォン523)
マイクロフォン523は、周囲の音を収音し、アンプおよびADC(Analog Digital Converter)を介してデジタル信号に変換した音声データを出力する装置である。マイクロフォン523にて収音された音声に応じて、表示アイテムの有無を制御する際に、出力される表示態様を変化させることができる。集音された音声に応じて表示態様を変化させる例としては、ユーザの右側から車の音が近づく音声を収音した場合、ユーザの右側から左側に表示アイテムを移動させるように表示アイテムを消去させてもよい等が挙げられる。このように、マイクロフォン523にて収音された音声の方向に応じて表示アイテムを消去する方向を制御することで、ユーザがより直観的に車が近づいている方向と危険予知を行うことができる。
(加速度センサ524)
加速度センサ524は、重力加速度を測定し、重力加速度の大きさおよび方向を表すセンサデータ(加速度データ)を取得することができる。センサ装置52がユーザに装着されている場合には、センサ装置52は、ユーザの動きまたはジェスチャ等の情報を取得することができる。例えば、加速度センサ524がユーザの頭部に装着されていると、加速度センサ524は、ユーザの首ふりまたはうなずき等の情報を得ることができる。また、加速度センサ524に替えて、ジャイロセンサのような角速度を検出するセンサを用いてもよい。
(測位センサ525)
測位センサ525は、ユーザの位置に関する情報を取得する機能を有する。測位センサ525は、例えば、GNSS(Global Navigation Satellite System)信号を受信して装置の緯度、経度及び高度を測定するGNSSセンサであってもよい。他には、測位センサは、無線アクセスポイントから受信される無線信号の強度に基づいて測位を実行するセンサであってもよい。GNSSと更にステップカウンタを備えることにより、ユーザの位置だけでなく、ユーザの移動速度に関しても情報を取得することができる。
また、これらの各種センサを用いて、センサ装置52は、SLAM(Simultaneous Localization and Mapping)技術により、ユーザの位置情報および移動速度に関する情報を取得してもよい。
[情報処理装置50]
情報処理装置50は、センサ装置52から、表示アイテムの表示制御に必要なユーザ情報及び環境情報を検出及び取得し、表示装置51における表示アイテムの有無を制御する。情報処理装置50は、I/F部501、検出部502、制御部503及び記憶部504を含む。
(I/F部501)
I/F部501は、情報処理装置50と他の機器とを接続するための接続装置である。I/F部501は、例えば、USB(Universal Serial Bus)コネクタ等により実現され、表示装置51及びセンサ装置52の各構成要素との間で情報の入出力を行う。
(検出部502)
検出部502は、ユーザ位置情報検出部5021、ユーザ動作情報検出部5022、トリガ検出部5023、及び環境情報取得部5024を含む。検出部502では、センサ装置52が取得したセンサ情報から、対象とするユーザ情報及び環境情報を各構成要素にて抽出し、かつ制御部503において制御の基となる検出データを制御部503に出力する機能を有する。
・ユーザ位置情報検出部5021
ユーザ位置情報検出部5021は、ユーザ情報の内、ユーザの位置に関する情報を検出する機能を有する。ユーザの位置に関する情報とは、実空間におけるユーザの位置、ユーザの移動方向または移動速度等の移動情報を含む。
・ユーザ動作情報検出部5022
ユーザ動作情報検出部5022は、ユーザ情報の内、ユーザの動作に関する情報を検出する機能を有する。ユーザの動作とは、ユーザの姿勢及びユーザのジェスチャ等を含む。ユーザの動作とは、ユーザが立ち止まる状態か、歩いている状態か、または立っている状態か、座っている状態か等も含み、ユーザのジェスチャとは、ユーザの首ふりまたはうなずき、空中ポインティングジェスチャ等も含む。
また、ユーザの動作に関する情報は、ユーザの視線を示す情報を含み得る。ユーザの視線を示す情報は、ユーザの視線の位置及び視線方向を示す情報を含む。また、ユーザの視線を示す情報は、ユーザの顔や頭の向きを示す情報を含んでもよく、さらに眼球の向きを示す情報を含んでもよい。
・トリガ検出部5023
トリガ検出部5023は、ユーザの位置情報および動作情報を含むユーザの行動変化に関する情報の中から、表示制御を行う所定の行動変化を示すトリガであるか否かを判断する。そして、トリガ検出部5023は、ユーザの行動変化が所定のトリガであれば、トリガ信号として検出する機能を有する。
所定の行動変化とは、ユーザが静止した状態または移動している状態、歩行中の状態または走っている状態、早歩き若しくは小走りの状態等のユーザ動作に関する情報を含み得る。また、ユーザが車に乗っている場合は、車が停止又は走行の状態であるか、若しくは、前進又は後進しているかの状態を含み得る。
更には、トリガ検出部5023は、ユーザが立っている状態か、座っている状態か等の情報をトリガとしてもよく、ユーザのジェスチャをトリガとしてもよい。ユーザのジェスチャとは、ユーザの首ふりまたはうなずき、空中ポインティングジェスチャ及び他の人に話しかける等の行動も含み得る。
・環境情報取得部5024
環境情報取得部5024は、センサ装置52によりセンシングされた情報に基づいて、環境情報を検出する機能を有する。環境情報取得部5024にて取得された環境情報は、制御部503に備えられた表示順序生成部5031において、表示アイテムの表示順序を生成するために使用され得る。
環境情報は、実空間に存在する建物または障害物等の物体の形状、位置及び動きを示す情報を含む。実空間に存在する物体が、建物であれば、ユーザが事前に建物を認識している可能性が高い。そのため、表示アイテムが建物に重畳されていてもユーザは不快に感じる可能性が低い。しかし、実空間に存在する物体が、障害物または、動きを有する物体である場合、ユーザが事前に認識している可能性が低い。この場合、ユーザにとって、表示アイテムが障害物などの物体に重畳されてしまうと、ユーザが不快に感じることが考えられる。この様に実空間の物体に対する様々な情報を取得することにより、制御部503は表示アイテムの有無を制御することができる。
また、環境情報は、実空間における環境音に関する情報を含み得る。環境音を把握することにより、制御部503が表示アイテムの表示の有無を制御する際に、例えば、車が近づく環境音を収音した際には、近づく車とは反対方向に表示アイテムが消去される制御をすることができる。このような制御が可能になることにより、ユーザがより快適にAR重畳技術を体験することができる。
[制御部503]
制御部503は、表示順序生成部5031及び表示制御部5032を含む。制御部503は、検出部502により検出されたユーザ情報及び環境情報に基づいて、表示順序を生成し、ユーザの視界に対する影響を低減させて、表示アイテムの有無を制御する機能を有する。
・表示順序生成部5031
表示順序生成部5031では、表示アイテムの有無が制御される際に、どの順番で消えるのか、どの順番で表示するのか、の表示順序を生成する機能を有する。表示順序は、表示制御部5032により、時系列に表示アイテムの有無が制御される順序を示す。表示アイテムが時系列で表示制御されることにより、ユーザの視界に対する影響を徐々に与えることができる。これにより、表示アイテムが一斉に表示または消去される際の視界の変化によるユーザが感じる煩わしさを軽減することができる。なお本明細書において、表示順序は、高いほど先に表示され、低いほど後に表示されるとする。つまり、表示アイテムを表示する際には、表示アイテムの表示順序が高いほど、先に表示が行われる。一方で、表示アイテムを消去する際には、表示アイテムの表示順序が低いほど、先に表示が消去される。
表示順序生成部5031は、表示順序を環境情報またはユーザ情報に応じて決定する。例えば、環境情報を用いる場合、表示順序生成部5031は、ユーザと実空間の建物との距離に応じて、表示順序を決定する。また、ユーザ情報を用いる場合、表示順序生成部5031は、ユーザの視線情報に応じて表示順序を決定する。このような表示順序のバリエーションは、その詳細を後述する。
表示アイテムの表示順序は、環境情報及びユーザ情報から取得された情報に基づいてユーザの視界に対する影響度に応じて決定されてもよい。ユーザの視界に対する影響度とは、ユーザが不快と感じやすい表示アイテムの表示状態を示す指標である。ユーザの視界に対する影響度は、表示アイテムの表示位置、表示アイテムが表示される領域(表示領域)、ユーザの視野範囲に基づいて、計算を行い算出することができる。
・表示制御部5032
表示制御部5032は、表示順序生成部5031により生成された表示順序に応じて、表示アイテムの表示の有無を表示装置51にて制御する機能を有する。また、表示制御部5032は、表示アイテムを表示または消去する際の表示態様を制御する機能も有する。
表示制御部5032は、表示順序に従って、異なるタイミングで表示アイテムを表示させる、または表示アイテムを消去させてもよい。表示制御部5032が、表示アイテムを表示させる際には、表示順序に従って、表示順序が高い表示アイテムから先に表示を開始し、先に表示された表示アイテムの表示開始タイミングと異なるタイミングで、次の表示アイテムの表示を開始する。先に表示された表示アイテムの表示開始タイミングと次に表示される表示アイテムの表示開始タイミングは、同時でなく異なっていればよい。
表示制御部5032が、表示アイテムを消去させる際には、表示順序に従って、表示順序が低い表示アイテムから先に表示アイテムの消去を開始する。先に消去された表示アイテムの消去開始タイミングと異なるタイミングで、次の表示アイテムの消去を開始する。先に消去された表示アイテムの消去開始タイミングと次に消去される表示アイテムの消去開始タイミングは、同時でなく異なっていればよい。
上述したように、表示アイテムの表示および消去の開始タイミングが異なることにより、一斉に表示アイテムが表示または消去されることを抑制し、表示アイテムが徐々に表示または消去されるため、ユーザの視界に与える影響を抑制することができる。
表示アイテムを表示または消去する際の表示態様とは、表示アイテムが表示または消去される際の視覚的表現を示す。例えば、表示制御部5032は、表示アイテムが消去される際に、表示順序に応じて、表示アイテムが表示部外に移動する表現を用いて、表示アイテムが消去される際の表示態様を制御してもよい。
一方で、表示制御部5032は、表示アイテムが表示される際に、表示順序に応じて、表示アイテムが表示部内に移動する表現を用いて表示制御してもよい。このように表示アイテムが移動して表示アイテムの有無が制御されることにより、ユーザへの視界に与える影響が少なく、ユーザが快適にAR重畳技術を体感できる。
さらに、表示アイテムを移動させる方向は、環境情報に応じて決定されても良い。例えば、ユーザに車が近づいている場合には、車が近づく方向とは反対方向に表示アイテムが移動することにより、ユーザに車が迫っていることを知らせながら表示を制御することができる。
また、表示制御部5032は、表示アイテムが消去される際に、表示アイテムを表示順序に応じて、表示アイテムがフェードアウトする表現を用いて、表示アイテムを消去する表示態様を制御してもよい。
一方で、表示制御部5032は、表示アイテムが表示される際に、表示順序に応じて、表示アイテムがフェードインする表現を用いて表示制御してもよい。このように表示アイテムが徐々に変化して表示アイテムの有無が制御されることにより、ユーザへの視界に与える影響が少なく、ユーザが快適にAR重畳技術を体感できる。
上記のフェードイン及びフェードアウトの表現方法としては、例えば、表示アイテムの透過度が徐々に変化する表現であってもよく、表示アイテムの解像度が徐々に変化する表現であってもよい。このように表示アイテムが徐々に変化して表示アイテムの有無が制御されることにより、ユーザへの視界に与える影響が少なく、ユーザが快適にAR重畳技術を体感できる。ここまでで、表示制御部5032が制御する表示態様に関して説明したが、表示態様はかかる例に限定されず、他の多様な表示態様を含み得る。
記憶部504は、上述した制御部503または検出部502が各機能を実行するためのプログラムやパラメータを格納する。例えば記憶部504には、検出部502によるユーザ情報及び環境情報の認識処理に用いる認識アルゴリズム、表示順序の生成処理に用いる各種閾値等が記憶されている。
[表示装置51]
表示装置51は、情報処理装置50にて生成された表示順序に基づいて、表示部における表示アイテムの表示出力を行う機能を有する。表示装置51では、例えば、ARグラス511、車のフロントガラス512またはスマートフォン513を含んでもよい。ARグラス511は、画面を有し、画像の表示が可能な眼鏡型の装着機器である。車のフロントガラス512は、表示部または画面を有し、画像表示が可能であるフロントガラスである。スマートフォン513は、画面を有し、画像、音声及び振動等を出力する無線通信可能な携帯モバイル機器である。表示装置51は、このように画像等の表示が可能であればかかる例に限定されない。
ここまででは、情報処理システム5が備える各構成に関して説明を行った。各構成は、単独で用いられてもよく、各構成が複合されて用いられてもよい。
<3.動作処理の流れ>
ここでは、上述した各構成が動作する動作の流れに関して、図5を参照して説明を行う。まず、情報処理装置50の電源ボタン等が押下される(S110)。
次に、センサ装置52から取得したセンサ情報に基づいて、ユーザ位置情報検出部5021及びユーザ動作情報検出部5022により、ユーザ位置情報及びユーザ動作情報が検出される(S112、S114)。
次に、センサ装置52から取得したセンサ情報に基づいて、環境情報取得部5024は、環境情報を取得する(S116)。
次に、表示順序生成部5031は、ユーザ情報及び環境情報に基づいて、表示アイテムの表示順序を生成する(S118)。
次に、トリガ検出部5023は、ユーザ情報に基づいて、トリガが検出されたか否かを判断する(S120)。ここで、トリガが検出されなかった場合、再度ユーザの位置情報の検出及びユーザ動作情報の検出を開始し、繰り返し表示順序の生成が継続して行われる。トリガ検出部5023にてトリガが検出された場合には、次の処理へ進む。
次に、表示制御部5032は、生成された表示順序に基づいて、表示アイテムの表示または消去、及び表示態様の表示制御を行う(S122)。
次に、表示の制御中に、キャンセル動作が行われたか否かを判断する(S124)。例えば、表示アイテムの表示制御の最中には、ユーザが表示制御を中断したい場合が生じ得る。その際にキャンセル動作が、検出されることにより、表示制御の解除を行うことができる。ここでいうキャンセル動作とは、あらかじめキャンセル動作として設定されたジェスチャであり、例えば、ユーザの首ふりまたはうなずき等のジェスチャであってもよい。これらのジェスチャを検出することで、ユーザは表示制御の解除を指示することができる。ここでは、ジェスチャを例示したが、キャンセル動作は、音声の入力等でもよく、ユーザが「解除」等の音声を発して、音声を解析することによりキャンセル動作を検出してもよい。
次に、キャンセル動作が検出された場合、表示制御部5032は、表示制御の解除または、表示アイテムを表示制御前の表示状態に戻す処理を行う。例えば、表示制御部5032は、表示アイテムを、キャンセル動作の検出が行われた時点における状態に留める制御を行ってもよく、表示アイテムの有無が制御される前の状態に戻す制御を行ってもよい(S126)。
キャンセル動作が検出されない場合は、表示制御が行われて(S122)、情報処理システム5は動作処理を終了する(S128)。
ここまででは、情報処理システム5が動作処理を行う流れに関して説明を行った。動作順序はかかる例に限定されない。例えば、ユーザ位置情報の検出及びユーザ動作情報の検出の後に、環境情報が取得される旨を記載したが、これらは、順不同であり、同時に行われてもよい。
<4.表示制御例>
ここでは、表示アイテムの有無に関する表示制御を行う例について、図6〜8を参照して説明する。
[4.1.トリガに基づいた表示制御]
図6では、トリガに基づいた表示アイテムの有無の制御に関して説明する。図6は、ユーザが歩いている状態から立ち止まった際に、表示アイテムを表示させる表示制御を示す。ユーザ視界10では、歩いている状態のユーザの視界を表している。ユーザ視界10には、ユーザが歩く道路Xが存在する。ユーザ視界10における表示空間110は、表示アイテムが表示され得る領域を表している。表示制御が実行されると、表示空間110に表示アイテムが表示される。ユーザ視界10においては、まだ表示制御は実行されておらず、表示空間110において表示アイテムは視認されない。
ユーザ視界12では、ユーザが立ち止まった状態のユーザの視界を表している。ユーザが立ち止まったことをトリガ検出部5023がトリガとして検出し、表示制御部5032が表示アイテムの有無の制御を開始する。ユーザ視界12では、あらかじめ表示順序生成部5031により決定された表示順序に応じて、まず表示アイテム110Aが表示される。ユーザ視界14では、継続してユーザは立ち止まった状態にあり、表示アイテム110Bが表示アイテム110Aの次に表示された様子を示している。ユーザ視界16では、継続してユーザは立ち止まった状態にあり、表示アイテム110Cが、表示アイテム110A及び110Bに続いて表示された様子を示している。
この様に、ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示制御部5032は、表示部における表示アイテムの有無を制御してもよい。これにより、ユーザの視界に与える影響を低減しつつ、表示アイテムの表示を制御することが可能となり、ユーザが快適にAR重畳技術を体感することができる。
図6では、ユーザが歩いている状態から立ち止まる状態となる行動変化をトリガとして、表示制御部5032が表示制御を行ったが、かかる例に限定されない。他にも、トリガの種類としては、ユーザが歩く状態から走る状態となる行動変化をトリガとしてもよく、ユーザが立った状態から座った状態となる姿勢の変化をトリガとしてもよい。このように、ユーザのあらゆる行動変化をトリガとして検出することで、表示制御部5032は、ユーザの状況に応じた表示アイテムの表示制御を実現することができる。
また、図6では、表示アイテムが順番に表示される一例を示したが、ユーザが立ち止まっている状態から歩いている状態となるユーザの行動変化をトリガとする場合、表示アイテムは順番に消去されてもよい。ユーザが歩き出す際には、表示アイテムが表示されたままであると、ユーザの視界を遮ることがあるため、表示アイテムを消去することで、ユーザへの煩わしさを低減することができる。この際には図6にて順番に表示アイテムを表示させたように、順番に(例えば、図6の表示アイテムを表示させた順序とは逆の順序で)表示アイテムを消去することで、ユーザの視界に与える影響をより小さくすることができ、ユーザは表示アイテムの有無による視界の変化に適用しやすくなる。
[4.2.キャンセル動作による表示制御の解除]
図7では、トリガに基づいた表示制御中にキャンセル動作が検出される場合に関して説明する。図7は、ユーザが継続して歩いている状態を示し、ユーザ視界20では、ユーザが歩いている際のユーザの視界を表している。ユーザ視界20には、ユーザが歩く道路Xが存在する。ユーザ視界20における表示空間210は、表示アイテムが表示され得る領域を表している。表示制御が開始されると、表示空間210に表示アイテムが表示され得る。ユーザ視界20においては、まだ、表示制御は開始されておらず、表示空間210において表示アイテムは視認されない。
ユーザ視界22では、ユーザが継続して歩いているものの、トリガ検出部5023が、ユーザが歩いている状態から立ち止まった状態に変化したと誤ってトリガ検出した様子を示している。ユーザ視界22では、表示順序生成部5031により生成された表示順序に従って、表示アイテム210Aが表示された様子を示している。続いて、ユーザ視界24では、表示順序に従い、表示アイテム210Bが、表示アイテム210Aの後に表示されている。しかしながら、ユーザは実際には立ち止まっておらず、トリガ検出は誤っているため、ユーザは、表示制御を解除するために、キャンセル動作のジェスチャG1を行う。ここでは、キャンセル動作のジェスチャG1として首ふりジェスチャを挙げたが、かかる例に限定されない。キャンセル動作は、音声であってもよい。
キャンセル動作のジェスチャG1を検出すると表示制御部5032は表示の制御を解除してもよい。ユーザ視界26では、表示アイテムが表示されていない表示空間210Cを示している。この様に、キャンセル動作のジェスチャG1が行われた後は、その後以降に表示される表示アイテムの表示制御が中断されてもよい。また、表示アイテムの表示の中断だけではなく、表示制御が開始する前の状態に戻ってもよい。ユーザ視界28は、表示制御部5032が表示の制御を開始する前の状態に戻ったユーザの視界を表している。この様に表示制御部5032が、表示制御を解除することにより、ユーザの視界を遮ることを防止することができる。
[4.3.ユーザの移動状態に応じた表示制御]
表示制御部5032は、ユーザの移動状態に応じて、表示アイテムの有無を制御してもよい。図8を参照して、ユーザの移動状態に応じた表示制御に関して説明を行う。図8では、ユーザが立ち止まった状態から、歩き始め、さらには走り始める様子を示している。まず、ユーザ視界30は、ユーザが立ち止まっている状態の前を向いた視線の先の視界を示している。ユーザの視界30bは、ユーザが立ち止まっている状態の足元の視界を示している。ユーザが立ち止まっている状態であれば、表示アイテムがユーザの視界を遮っても、ユーザの視界に与える影響は小さいため、表示アイテムは全てが表示されてもよい。ユーザ視界30及び30bでは、表示アイテムが全て表示されている状態を示しており、表示アイテム310A〜310Dが表示されている。
ユーザ視界32及び32bは、ユーザの状態が立ち止まった状態から歩く状態に変化した際のユーザの視界を示している。ユーザが歩き出す際には、ユーザの足元には、表示アイテムは表示されない方がよいため、ユーザの足元の視界32bでは、表示アイテム310Aは、表示順序が低く、表示アイテム310Aは最先に消去される。
ユーザ視界34及び34bでは、継続してユーザは歩いている。よって表示順序に従って、表示アイテム310Aの次に、表示アイテム310Bが消去される。ユーザ視界36では、ユーザは歩いている状態から、走っている状態となった様子を示している。ユーザが走る際には、移動速度が速いため、ユーザの視界では、表示アイテムがより表示されない方がユーザは快適に行動することができる。ユーザ視界36では、ユーザが走り始めたことをトリガとして、表示アイテム310C及び310Dが視界から消去された様子を示している。この様に、ユーザの移動状態に応じて、表示制御部5032は、表示アイテムの有無を制御してもよい。
ここでは、ユーザが立ち止まった状態から走り始めるまでの移動状態に応じた表示制御の方法を説明した。具体的に、立ち止まった状態とは、ユーザの移動速度が1.5km/h以下であってもよく、歩いている状態とは3km/h以上であってもよく、走った状態は6km/h以上であってもよい。この様に、第1の閾値、第2の閾値、第3の閾値を設けることで、ユーザの移動状態をトリガ検出する際に用いて、ユーザの移動状態に対して、表示制御部5032は、細やかな表示制御を行ってもよい。ここでは、所定の閾値を3種類の閾値として設定したが、閾値設定の数は限られない。また、閾値の値は任意に設定することが可能である。
以上までで、表示アイテムの表示の有無の制御を行う一例を示した。
<5.表示順序例>
ここでは、表示アイテムの有無を制御する際の表示の有無の制御順序のバリエーションを説明する。表示アイテムの表示順序は、ユーザの視界に対する影響度に応じて、決定される。ユーザに対する影響度とは、表示アイテムの表示位置、表示アイテムの表示領域、およびユーザの視野範囲に基づいて計算が可能である。
例えば、表示アイテムの表示領域が同等の領域を有する表示アイテムがある場合、表示アイテムの表示位置がユーザに近くなる程、ユーザの視界に占める表示領域の割合が大きくなる。よって、ユーザの視界に対する影響度は大きくなる。一方で、表示アイテムの表示位置がユーザに近くても表示アイテムの表示領域がそもそも小さい場合は、ユーザは煩わしさを感じにくい。そのため、ユーザの視界に対する影響度は小さくなる。また、表示アイテムがユーザに近い位置にあっても、ユーザが遠くを見ている場合は、ユーザは煩わしさを感じにくい。このように、ユーザの視野範囲が表示アイテムの位置と異なる場合には、ユーザの視界に対する影響度は小さい。
上述のように、表示アイテムの表示位置、表示領域およびユーザの視野範囲により、ユーザの視界への影響度は変化し得る。よって、これらの観点からユーザへの影響度の計算を行い、表示アイテムの表示順序を決定する。ここからは、図9A〜図9Eを参照して表示アイテムの表示順序の一例を説明する。
図9Aは、表示アイテムの表示順序の一例を示した図である。図9Aは、ユーザU1の手元におけるユーザ視界60aを示している。ユーザU1の手を始点として、表示アイテムがQa1、Qa2、Qa3、の順に表示されている。この時ユーザU1は、立ち止まっている状態である。ユーザの身体に近い表示アイテムほど、ユーザは、立ち止まった状態から歩き始める際に邪魔になりにくい。そのため、ユーザU1の身体に近い表示アイテムほどユーザの視界に対する影響は小さくなる。よって、ユーザU1が歩き始める際に、表示制御部5032は、表示アイテムQa1〜Qa3の内、ユーザに遠い表示アイテムから順に表示アイテムQa3、Qa2、Qa1の順に表示アイテムを消去する制御を行っても良い。これにより、ユーザは煩わしさを感じることなく、AR重畳体験を行うことができる。
図9Bは、表示アイテムの表示順序の一例を示した図である。図9Bは、ユーザU1の足元におけるユーザ視界60bを示している。ユーザU1の足元を始点として、表示アイテムがQb3、Qb2、Qb1、の順に表示されている。この時ユーザU1は、立ち止まっている状態である。ユーザの足元に近い表示アイテムほど、ユーザが歩き出す際に煩わしさを感じやすい。よってこの場合では、ユーザが歩き始める際に、表示制御部5032は、表示アイテムQb3〜Qb1の内、ユーザに近い表示アイテムQb3から順に表示アイテムQb3、Qb2、Qb1の順に表示アイテムを消去する制御を行っても良い。これにより、ユーザは煩わしさを感じることなく、AR重畳体験を行うことができる。
図9Cは、表示アイテムの表示順序の一例を示した図である。図9Cは、ユーザU1が前を向いて歩いている際のユーザ視界60cを示している。ユーザ視界60cには、ユーザU1が移動していく道路Xが示されている。ユーザU1は道路Xに沿って、移動する。ユーザU1の移動方向の直線に近い表示アイテムほど、ユーザU1に対して障害物となり得るため、ユーザU1は煩わしさを感じる。この際には、表示制御部5032は、ユーザU1を始点としてユーザU1の移動方向に向かう直線に近い表示アイテムQc3から順に、表示アイテムQc3、Qc2、Qc1の順に表示アイテムを消去する制御をしても良い。これにより、ユーザU1は煩わしさを感じることなく、AR重畳体験を行うことができる。
図9Dは、表示アイテムの表示順序の一例を示した図である。図9Dは、ユーザU1の視界を示している。ユーザU1は、ユーザ視界60dに占める表示領域の割合が大きいほど、煩わしさを感じやすい。これにより、表示制御部5032は、表示アイテムの表示領域が大きい表示アイテムQd3を最先に消去し、表示アイテムQd2、Qd1の順に表示を消去する表示制御をおこなっても良い。
図9Eは、表示アイテムの表示順序の一例を示した図である。図9Eは、ユーザU1の視界を示している。ユーザ視界60eには、障害物QeXが存在する。この時、障害物QeXに対して、表示アイテムの表示領域が占める割合が大きいほど、ユーザU1は、障害物を認識しづらく、煩わしさを感じやすい。これにより、表示制御部5032は、ユーザU1が歩き始める際に、表示アイテムの表示領域が、障害物QeXの領域と重なる領域が大きい表示アイテムほど先に表示アイテムを消去する表示制御を行っても良い。ここでは、ユーザU1が歩き出す際に、表示アイテムQe3、Qe2、Qe1の順に表示アイテムを消去する制御を行ってもよい。
他には、表示順序の一例としては、ユーザU1に定位して配置される表示アイテムの方が、実空間に定位して配置される表示アイテムよりも表示順序が低くなる。ユーザU1に定位して配置されている表示アイテムとは、例えば、実空間の建物や道路等に対応して表示される表示アイテムではない表示アイテムを示し得る。
具体的には、ユーザU1に定位して配置されている表示アイテムとは、時刻などの表示を示す。一方で、実空間に定位して配置される表示アイテムとは、建物に関する表示アイテム等のことを示し得る。建物に定位する表示アイテムは、ユーザU1が建物をすでに認識している可能性が高いため、その建物に対応する表示アイテムが存在していてもユーザは表示アイテムで隠れる実空間の物体を予測しやすい。そのため、表示アイテムがもたらすユーザの視界への影響度は少ない。しかしながら、ユーザU1に定位した表示アイテムは、該表示アイテムに対応する実空間の物体が無いことが多い。この場合には、ユーザU1に定位した表示アイテムは実空間の物体を隠していることがあり、ユーザが実空間の物体を認識していない可能性がある。よって、ユーザU1が歩き始める際には、表示制御部5032は、ユーザの頭に定位する表示アイテムほど先に、消去してもよい。これによりユーザの視界に対する影響を少なく、表示アイテムの有無を制御することができる。
他には、表示順序の一例としては、風景の差分が大きい領域に存在する表示アイテムほど、表示順序が低いとしてもよい。風景の差分とは、表示アイテムが表示された領域における所定の時間内の画像変化量を表す。風景の差分が大きいと、該風景に新たな物体が存在している可能性が高く、ユーザはその新たな物体に対して認識が困難である可能性が高い。そのため、ユーザが歩き始める際には、風景の差分が大きい領域に存在する表示アイテムほど、先に消去されてもよい。これによりユーザの視界に対する影響を少なく、表示アイテムの有無を制御することができる。
ここまででは、表示アイテムの表示順序のバリエーションに関して説明をおこなった。このように表示順序は、表示アイテムの表示位置、表示アイテムの表示領域、およびユーザの視野範囲により決定され、ユーザの視界に与える影響がより少ない順序として生成されれば、いかなる順序でも良い。
<6.変形例>
上述した表示アイテムの制御例は、主にユーザU1が歩き始めたり立ち止まったりする場合に対して説明を行った。しかし、それらはかかる一例にすぎず、ユーザU1が乗車する場合にも本開示の技術は適用可能である。ここでは、ユーザU1が乗車した場合に適用される表示アイテムの制御例に関して説明を行う。
本開示の技術は、車のフロントガラスまたはリアガラスに使用されてもよい。本開示の技術は、車が徐々に速度を上げるような移動状態が連続的に変化するユーザの移動変化よりも、車が発進停止する際のような非連続的な移動変化に対して、より効果的である。
例えば、本開示の技術は、車が前発進する際のフロントガラスに適用され得る。車が前発進する際に、別の車が近づいていると、近づく車とは反対方向に表示アイテムの消去を制御する。この時、ユーザに対して、車が近づく方向を示唆することができ、表示アイテムの有無を制御する際に、より安全にユーザを誘導することができる。
他には、本開示の技術は、ユーザが乗る車が後発進する際のリアガラスに適用され得る。車が後発進する際は、前発進する際よりも、死角が多くなる。例えば、車のリアガラスに本開示の技術を適用すると、障害物と車との距離が近いほど、先に表示アイテムを消去することにより、ユーザは、障害物と車との距離を直観的に把握することができる。これにより、ユーザは衝突の危険を予知することが可能となる。
また、表示アイテムの調光度合いを変化させることにより、ユーザに直観的に衝突の危険を示唆してもよい。例えば、より障害物と車との距離が近い表示アイテムほど、表示アイテムの明るさを増加させてもよい。これにより、表示アイテムがより明るくなることで、ユーザの着目を得やすく、かつ表示内容が見えやすくなる。よってユーザは、より直観的に危険を予知することが可能となる。
以上のように、本開示の技術は、ユーザが停止、歩行するなどの際に用いられるだけでなく、車などで移動を始める際にも用いられてもよい。
<7.ハードウェア構成例>
最後に、図10を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図10は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図10に示す情報処理装置900は、例えば、図4に示した情報処理装置50を実現し得る。本実施形態に係る情報処理装置50による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図10に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、電気回路、DSP(Digital Signal Processor)若しくはASIC(Application Specific Integrated Circuit)等の処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図4に示す検出部502及び制御部503の機能を実行し得る。
CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA(Personal Digital Assistant)等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、EL (electroluminescence)ディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、出力装置907は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置を用いる場合は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。出力装置907は、例えば、図4に示す表示装置51の機能を実行し得る。
ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図4に示す記憶部504の機能を実行し得る。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、図4に示すI/F部501の機能を実行し得る。
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
また、情報処理装置50に内蔵されるCPU、ROM及びRAMなどのハードウェアを上述した本実施形態に係る情報処理装置50の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記録媒体も提供される。
<8.まとめ>
以上、図1〜図10を参照して、本開示の一実施形態について詳細に説明した。本実施形態に係る情報処理システム5は、ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御する表示制御部、を備える。これにより、表示アイテムがユーザの視界に与える影響を低減し、ユーザが快適にAR重畳技術を体験できる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御する表示制御部、を備える、情報処理装置。
(2)
前記表示順序は、前記表示制御部により、時系列に前記表示アイテムの有無が制御される順序である、前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記表示順序に従って、異なるタイミングで前記表示アイテムを表示させる、または前記表示アイテムを消去する、前記(1)または(2)に記載の情報処理装置。
(4)
前記環境情報は、前記ユーザの周囲の環境の輝度情報、色情報、音情報、又はデプス情報の少なくとも1つ以上を含む、前記(1)〜(3)のいずれか一項に記載の情報処理装置。
(5)
前記ユーザ情報は、前記ユーザの視線及び視野情報、姿勢情報、又は移動情報の少なくとも1つ以上を含む、前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記表示制御部は、前記表示部の表示領域の内外に前記表示アイテムを移動させることで、前記表示アイテムの有無を制御する、前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記表示制御部は、前記表示部の表示領域内で、前記表示アイテムをフェードイン及びフェードアウトすることで、前記表示アイテムの有無を制御する、前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(8)
前記表示アイテムの表示順序は、前記ユーザの視界に対する影響度に応じて決定される、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記影響度は、前記表示アイテムの表示位置、前記表示アイテムが表示される表示領域、及び前記ユーザの視野範囲に基づいて決定される、前記(8)に記載の情報処理装置。
(10)
前記表示アイテムの表示順序は、前記表示アイテムの表示領域が前記表示部の面積を占める占有割合が小さいほど高くなる、前記(9)に記載の情報処理装置。
(11)
前記表示アイテムの表示順序は、前記表示アイテムの表示位置が、前記ユーザの身体に接近するほど高くなる、前記(9)に記載の情報処理装置。
(12)
前記表示アイテムの表示順序は、前記表示アイテムの表示位置が、前記ユーザの足元に近くなるほど低くなる、前記(9)に記載の情報処理装置。
(13)
前記表示アイテムの表示順序は、前記表示アイテムの表示位置が、前記ユーザを始点として前記ユーザの移動方向に向けた直線に近いほど低くなる、前記(9)に記載の情報処理装置。
(14)
前記表示アイテムの表示順序は、前記表示アイテムの表示領域が、実空間に存在する障害物の領域と重なる割合が大きいほど低くなる、前記(9)に記載の情報処理装置。
(15)
前記表示アイテムの表示順序では、前記ユーザに定位して配置される前記表示アイテムの方が、前記表示部を介した実空間に定位して配置される前記表示アイテムより低くなる、前記(8)に記載の情報処理装置。
(16)
前記ユーザによるキャンセル動作を検知した場合、前記表示制御部は前記表示アイテムの制御を解除する、前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記キャンセル動作は、ジェスチャ、又は音声の少なくともいずれかを含む、前記(16)に記載の情報処理装置。
(18)
前記表示制御部は、前記ユーザの移動状態に応じて、前記表示アイテムの有無を制御する、前記(1)または(5)に記載の情報処理装置。
(19)
プロセッサが、
ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御すること、を含む情報処理方法。
(20)
コンピュータを、
ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御する表示制御部、として機能させるためのプログラム。
50 情報処理装置
51 表示装置
52 センサ装置
502 検出部
503 制御部
5021 ユーザ位置情報検出部
5022 ユーザ動作情報検出部
5023 トリガ検出部
5024 環境情報取得部
503 制御部
5031 表示順序生成部
5032 表示制御部

Claims (20)

  1. ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御する表示制御部、を備える、情報処理装置。
  2. 前記表示順序は、前記表示制御部により、時系列に前記表示アイテムの有無が制御される順序である、請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記表示順序に従って、異なるタイミングで前記表示アイテムを表示させる、または前記表示アイテムを消去する、請求項2に記載の情報処理装置。
  4. 前記環境情報は、前記ユーザの周囲の環境の輝度情報、色情報、音情報、又はデプス情報の少なくとも1つ以上を含む、請求項1に記載の情報処理装置。
  5. 前記ユーザ情報は、前記ユーザの視線及び視野情報、姿勢情報、又は移動情報の少なくとも1つ以上を含む、請求項1に記載の情報処理装置。
  6. 前記表示制御部は、前記表示部の表示領域の内外に前記表示アイテムを移動させることで、前記表示アイテムの有無を制御する、請求項1に記載の情報処理装置。
  7. 前記表示制御部は、前記表示部の表示領域内で、前記表示アイテムをフェードイン及びフェードアウトすることで、前記表示アイテムの有無を制御する、請求項1に記載の情報処理装置。
  8. 前記表示アイテムの表示順序は、前記ユーザの視界に対する影響度に応じて決定される、請求項3に記載の情報処理装置。
  9. 前記影響度は、前記表示アイテムの表示位置、前記表示アイテムが表示される表示領域、及び前記ユーザの視野範囲に基づいて決定される、請求項8に記載の情報処理装置。
  10. 前記表示アイテムの表示順序は、前記表示アイテムの表示領域が前記表示部の面積を占める占有割合が小さいほど高くなる、請求項9に記載の情報処理装置。
  11. 前記表示アイテムの表示順序は、前記表示アイテムの表示位置が、前記ユーザの身体に接近するほど高くなる、請求項9に記載の情報処理装置。
  12. 前記表示アイテムの表示順序は、前記表示アイテムの表示位置が、前記ユーザの足元に近くなるほど低くなる、請求項9に記載の情報処理装置。
  13. 前記表示アイテムの表示順序は、前記表示アイテムの表示位置が、前記ユーザを始点として前記ユーザの移動方向に向けた直線に近いほど低くなる、請求項9に記載の情報処理装置。
  14. 前記表示アイテムの表示順序は、前記表示アイテムの表示領域が、実空間に存在する障害物の領域と重なる割合が大きいほど低くなる、請求項9に記載の情報処理装置。
  15. 前記表示アイテムの表示順序では、前記ユーザに定位して配置される前記表示アイテムの方が、前記表示部を介した実空間に定位して配置される前記表示アイテムより低くなる、請求項8に記載の情報処理装置。
  16. 前記ユーザによるキャンセル動作を検知した場合、前記表示制御部は前記表示アイテムの制御を解除する、請求項1に記載の情報処理装置。
  17. 前記キャンセル動作は、ジェスチャ、又は音声の少なくともいずれかを含む、請求項16に記載の情報処理装置。
  18. 前記表示制御部は、前記ユーザの移動状態に応じて、前記表示アイテムの有無を制御する、請求項5に記載の情報処理装置。
  19. プロセッサが、
    ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御すること、を含む情報処理方法。
  20. コンピュータを、
    ユーザの行動変化をトリガとして、環境情報またはユーザ情報に応じて決定された表示アイテムの表示順序に基づいて、表示部における前記表示アイテムの有無を制御する表示制御部、として機能させるためのプログラム。
JP2017231960A 2017-12-01 2017-12-01 情報処理装置、情報処理方法及びプログラム Pending JP2019101743A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017231960A JP2019101743A (ja) 2017-12-01 2017-12-01 情報処理装置、情報処理方法及びプログラム
PCT/JP2018/040071 WO2019107040A1 (ja) 2017-12-01 2018-10-29 情報処理装置、情報処理方法及びプログラム
US16/766,484 US11170539B2 (en) 2017-12-01 2018-10-29 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017231960A JP2019101743A (ja) 2017-12-01 2017-12-01 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2019101743A true JP2019101743A (ja) 2019-06-24

Family

ID=66663935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017231960A Pending JP2019101743A (ja) 2017-12-01 2017-12-01 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US11170539B2 (ja)
JP (1) JP2019101743A (ja)
WO (1) WO2019107040A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017036953A1 (en) * 2015-09-02 2017-03-09 Thomson Licensing Method, apparatus and system for facilitating navigation in an extended scene
JP2022110509A (ja) * 2021-01-18 2022-07-29 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5942477B2 (ja) * 2012-02-29 2016-06-29 富士ゼロックス株式会社 設定装置及びプログラム
JP5935640B2 (ja) 2012-10-01 2016-06-15 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US10269179B2 (en) * 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
JP2017174018A (ja) * 2016-03-22 2017-09-28 Line株式会社 表示制御方法、プログラム、及び端末
JP6348537B2 (ja) * 2016-05-27 2018-06-27 京セラ株式会社 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム
JP6740157B2 (ja) * 2017-03-13 2020-08-12 株式会社東芝 解析装置、解析方法、及び、プログラム

Also Published As

Publication number Publication date
WO2019107040A1 (ja) 2019-06-06
US20200380733A1 (en) 2020-12-03
US11170539B2 (en) 2021-11-09

Similar Documents

Publication Publication Date Title
US11386626B2 (en) Information processing apparatus, information processing method, and program
US10788673B2 (en) User-based context sensitive hologram reaction
JP6844542B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11695908B2 (en) Information processing apparatus and information processing method
KR20190000860A (ko) 적응형 증강현실 제공 방법
US20180054611A1 (en) Image display apparatus and operating method thereof
KR102562285B1 (ko) 사용자 인터페이스와 연관된 몰입을 조정 및/또는 제어하기 위한 방법
JP2017537368A (ja) 視線によって制御されるヘッドマウント型ディスプレイ装置、その制御方法、及びその制御のためのコンピュータプログラム
US20120229509A1 (en) System and method for user interaction
US20180254038A1 (en) Information processing device, information processing method, and program
WO2017169273A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7059934B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019244670A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11151804B2 (en) Information processing device, information processing method, and program
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
JP2019092216A (ja) 情報処理装置、情報処理方法及びプログラム
WO2019142560A1 (ja) 視線を誘導する情報処理装置
WO2019107040A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2017169272A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20210232219A1 (en) Information processing apparatus, information processing method, and program
US20230370578A1 (en) Generating and Displaying Content based on Respective Positions of Individuals
US20240094819A1 (en) Devices, methods, and user interfaces for gesture-based interactions
US20230162450A1 (en) Connecting Spatially Distinct Settings
WO2021241110A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN115814405A (zh) 游戏中的录像方法、装置、电子设备及存储介质