JPWO2019087513A1 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JPWO2019087513A1
JPWO2019087513A1 JP2019549871A JP2019549871A JPWO2019087513A1 JP WO2019087513 A1 JPWO2019087513 A1 JP WO2019087513A1 JP 2019549871 A JP2019549871 A JP 2019549871A JP 2019549871 A JP2019549871 A JP 2019549871A JP WO2019087513 A1 JPWO2019087513 A1 JP WO2019087513A1
Authority
JP
Japan
Prior art keywords
virtual object
display
information processing
real
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019549871A
Other languages
English (en)
Other versions
JP7156301B2 (ja
Inventor
敦 石原
敦 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019087513A1 publication Critical patent/JPWO2019087513A1/ja
Application granted granted Critical
Publication of JP7156301B2 publication Critical patent/JP7156301B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想オブジェクトの視認性の低下を抑制しつつ、仮想オブジェクトの表示に対する違和感を低減することが可能な技術が望まれる。【解決手段】撮像装置によって撮像された画像に応じた実空間の認識結果に基づいて決定された前記実空間における仮想オブジェクトの位置を取得する位置取得部と、前記仮想オブジェクトの位置と、前記実空間に存在し前記仮想オブジェクトの位置から離れている実オブジェクトの特徴とに基づいて、前記仮想オブジェクトの少なくとも境界の表示を制御する表示制御部と、を備える、情報処理装置が提供される。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、ユーザに対して仮想オブジェクトを提示する技術が開示されている。例えば、画像に映る物体の位置または姿勢を認識する認識部と、認識部による認識の安定度に応じて物体に関連する仮想オブジェクトの表示を変化させる表示制御部とを備える画像処理装置に関する技術が開示されている(例えば、特許文献1参照。)。かかる技術によれば、仮想オブジェクトの表示の乱れによってユーザに混乱を与えることが回避される。
一方、仮想オブジェクトの表示の乱れとは別に、仮想オブジェクトの表示遅延が生じ得る。さらに、表示遅延とは別に、ユーザにとって仮想オブジェクトの表示遅延がどの程度知覚されやすいかといった概念も存在する。以下では、ユーザによる表示遅延の知覚のされやすさを「表示遅延感」とも言う。
特開2012−221250号公報
ここで、仮想オブジェクトの表示遅延感が強くなるほど、仮想オブジェクトの表示遅延に対する違和感も大きくなってしまう可能性がある。一方、仮想オブジェクトの表示を大きく変えるほど仮想オブジェクトの視認性が低下してしまう可能性がある。そこで、仮想オブジェクトの視認性の低下を抑制しつつ、仮想オブジェクトの表示に対する違和感を低減することが可能な技術が望まれる。
本開示によれば、撮像装置によって撮像された画像に応じた実空間の認識結果に基づいて決定された前記実空間における仮想オブジェクトの位置を取得する位置取得部と、前記仮想オブジェクトの位置と、前記実空間に存在し前記仮想オブジェクトの位置から離れている実オブジェクトの特徴とに基づいて、前記仮想オブジェクトの少なくとも境界の表示を制御する表示制御部と、を備える、情報処理装置が提供される。
本開示によれば、撮像装置によって撮像された画像に応じた実空間の認識結果に基づいて算出された仮想カメラの位置に基づいて決定された仮想オブジェクトの位置を取得することと、前記仮想オブジェクトの位置と実空間に存在する実オブジェクトの特徴とに基づいて、前記仮想オブジェクトのうち少なくとも境界の表示を制御することと、を含む、情報処理方法が提供される。
本開示によれば、コンピュータを、撮像装置によって撮像された画像に応じた実空間の認識結果に基づいて算出された仮想カメラの位置に基づいて決定された仮想オブジェクトの位置を取得する位置取得部と、前記仮想オブジェクトの位置と実空間に存在する実オブジェクトの特徴とに基づいて、前記仮想オブジェクトのうち少なくとも境界の表示を制御する表示制御部と、を備える情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、仮想オブジェクトの視認性の低下を抑制しつつ、仮想オブジェクトの表示に対する違和感を低減することが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態の概要を説明するための図である。 本開示の実施形態の概要を説明するための図である。 本開示の実施形態の概要を説明するための図である。 本開示の実施形態に係る情報処理装置の機能構成例を示す図である。 制御部の詳細構成例を示す図である。 仮想オブジェクトおよび仮想オブジェクトの特徴ごとの表示遅延感の予測強度の例を示す図である。 仮想オブジェクトおよび仮想オブジェクトの特徴ごとの表示遅延感の予測強度の例を示す図である。 仮想オブジェクトおよび仮想オブジェクトの特徴ごとの表示遅延感の予測強度の例を示す図である。 仮想オブジェクトの色を変更する例を示す図である。 仮想オブジェクトの輝度を変更する例を示す図である。 実オブジェクトの輝度と仮想オブジェクトの輝度と表示遅延感の予測強度との関係の例を示す図である。 ユーザに視線が向くように目を動かす仮想オブジェクトの例を示す図である。 仮想オブジェクトの輝度を変更する例を示す図である。 実オブジェクトを構成する線の位置に基づく表示遅延感の予測強度の算出例を説明するための図である。 本実施形態に係る情報処理装置の動作例を示すフローチャートである。 情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
0.概要
1.実施形態の詳細
1.1.情報処理装置の機能構成例
1.2.情報処理装置の機能詳細
1.3.情報処理装置の動作例
2.ハードウェア構成例
3.むすび
<0.概要>
まず、図1を参照しながら、本開示の実施形態の概要を説明する。近年、ユーザに対して仮想オブジェクトを提示する技術が開示されている。例えば、画像に映る物体(実オブジェクト)の位置または姿勢を認識する認識部と、認識部による認識の安定度に応じて物体に関連する仮想オブジェクトの表示を変化させる表示制御部とを備える画像処理装置に関する技術が開示されている。かかる技術によれば、仮想オブジェクトの表示の乱れによってユーザに混乱を与えることが回避される。
一方、仮想オブジェクトの表示の乱れとは別に、仮想オブジェクトの表示遅延が生じ得る。図1を参照しながら詳細に説明する。図1は、本開示の実施形態の概要を説明するための図である。図1を参照すると、実空間にユーザUが存在している。時刻t1において、ユーザUの視野70−1には、仮想オブジェクト30−1が配置されている。
ここで、ユーザUに対して仮想オブジェクト30−1が提示されるに際しては、視野分析用撮像部111(図5)(例えば、ステレオカメラなど)によって得られたセンシングデータに基づいて、視野分析用撮像部111(図5)の位置および姿勢(仮想カメラの位置)が認識される。そして、仮想カメラの位置に基づいて、視野70−1における仮想オブジェクト30−1の位置が決定され、決定された仮想オブジェクト30−1の位置に基づいてディスプレイによって仮想オブジェクト30−1が表示される。
このとき、仮想カメラの位置は更新され続けるため、仮想オブジェクの位置が決定された時点と仮想オブジェクトがディスプレイによって表示された時点との間においては、仮想オブジェクトの位置にずれが生じてしまう。すなわち、視野70−2に示すように、実際にディスプレイによって表示される仮想オブジェクト30−2の位置は、現在(時刻t2)の仮想カメラの位置から期待される仮想オブジェクトの位置32−2との間にずれが生じてしまう。かかる現象を表示遅延と呼ぶ。
さらに、表示遅延とは別に、ユーザUにとって仮想オブジェクトの表示遅延がどの程度知覚されやすいかといった概念も存在する。以下では、ユーザUによる表示遅延の知覚のされやすさを「表示遅延感」とも言う。一例として、仮想オブジェクトの周囲に実オブジェクトが存在しない場合には、仮想オブジェクトの表示遅延を目立たせる実オブジェクトが仮想オブジェクトの周囲に存在しないために、仮想オブジェクトの表示遅延感が小さいことが想定される。
図2は、本開示の実施形態の概要を説明するための図である。図2を参照すると、時刻t14において、ユーザUの視野70−14には、仮想オブジェクト30−14が配置されている。そして、時刻t14から時刻t15までにユーザUが首を右に移動させている。そのため、視野70−14が視野70−15に移動されている。このとき、視野70−15に示すように、実際にディスプレイによって表示される仮想オブジェクト30−15の位置は、現在(時刻t15)の仮想カメラの位置から期待される仮想オブジェクトの位置32−15との間にずれが生じてしまう。そして、実オブジェクト40−2が仮想オブジェクト30−15の近くに存在するために、表示遅延感が大きいことが想定される。
一方、仮想オブジェクトの近くに仮想オブジェクトと輝度が類似しない実オブジェクトが存在する場合には、当該実オブジェクトが仮想オブジェクトの表示遅延を目立たせてしまうために、仮想オブジェクトの表示遅延感が大きいことが想定される。また、仮想オブジェクトに動きがない場合と比較して仮想オブジェクトに動きがある場合のほうが、仮想オブジェクトの表示遅延が目立ちにくいために、仮想オブジェクトの表示遅延感が小さいことが想定される。
図3は、本開示の実施形態の概要を説明するための図である。図3を参照すると、時刻t16において、ユーザUの視野70−16には、仮想オブジェクト30−16が配置されている。そして、時刻t16から時刻t17までにユーザUが首を右に移動させている。そのため、視野70−16が視野70−17に移動されている。このとき、視野70−17に示すように、実際にディスプレイによって表示される仮想オブジェクト30−17の位置は、現在(時刻t17)の仮想カメラの位置から期待される仮想オブジェクトの位置32−13との間にずれが生じてしまう。そして、実オブジェクト40−2が仮想オブジェクト30−15の近くに存在するが、仮想オブジェクト30−17の鮮明度が低下されているため、表示遅延感が小さいことが想定される。
仮想オブジェクトの表示遅延感が強くなるほど、仮想オブジェクトの表示遅延に対する違和感も大きくなってしまう可能性がある。一方、仮想オブジェクトの表示を大きく変えるほど仮想オブジェクトの視認性が低下してしまう可能性がある。そこで、本明細書においては、仮想オブジェクトの視認性の低下を抑制しつつ、仮想オブジェクトの表示に対する違和感を低減することが可能な技術を主に提案する。
情報処理装置10は、ユーザUの視野に実オブジェクトが存在する場合、実オブジェクトの情報の例として、ユーザUと実オブジェクトとの距離を検出する。本開示の実施形態においては、情報処理装置10は、ステレオカメラを有しており、ステレオカメラによって撮像された左画像および右画像に基づいてデプスマップを生成し、デプスマップに基づいてユーザUと実オブジェクトとの距離を検出する場合を主に想定する。しかし、ユーザUと実オブジェクトとの距離はどのように検出されてもよい。例えば、情報処理装置10が距離センサを有する場合、距離センサによって、ユーザUと実オブジェクトとの距離が検出されてもよい。距離センサは、TOF(Time of Flight)センサなどであってもよい。
なお、実オブジェクトの種類(例えば、実オブジェクトの形状、サイズ、色、輝度、動きなど)は特に限定されない。また、図1には、仮想オブジェクト30の例として円筒形状のオブジェクトが示されているが、仮想オブジェクト30の種類(例えば、仮想オブジェクト30の形状、サイズ、色、輝度、動きなど)は特に限定されない。
図1を参照すると、情報処理装置10がユーザUの頭部に装着されるゴーグル型のHMD(Head Mounted Display)によって構成される場合が例として示されている。しかし、HMDの形態は、ゴーグル型に限定されず、グラス型などであってもよい。また、情報処理装置10はHMDに限定されない。例えば、情報処理装置10は、スマートフォンであってもよいし、タブレット端末であってもよいし、携帯電話であってもよいし、他のモバイルデバイスであってもよい。
また、本開示の実施形態においては、情報処理装置10が透過型のディスプレイを有する場合を主に想定する。このとき、ユーザUは、ディスプレイによって表示された仮想オブジェクト30を視認するとともにディスプレイの奥側に実オブジェクトを視認することが可能である。しかし、情報処理装置10は、非透過型のディスプレイを有してもよい。このとき、ユーザUは、ディスプレイによって表示された仮想オブジェクト30と情報処理装置10が有するカメラによって撮像されてディスプレイによって表示された画像によって実オブジェクトを視認することが可能である。
以上において、本開示の実施形態の概要について説明した。
<1.実施形態の詳細>
続いて、本開示の実施形態の詳細について説明する。
[1.1.情報処理装置の機能構成例]
続いて、本開示の実施形態に係る情報処理装置10の機能構成例について説明する。図4は、本開示の実施形態に係る情報処理装置10の機能構成例を示す図である。図4に示したように、情報処理装置10は、視野分析用撮像部111、センサ部112、制御部120、記憶部130および表示部150を有している。
視野分析用撮像部111は、ユーザUの視野を撮像することによって画像(視野分析用画像)を得る機能を有する。例えば、視野分析用撮像部111は、ステレオカメラを含んでおり、ステレオカメラによって撮像された左画像および右画像を得る。ステレオカメラによって撮像された左画像および右画像は、測距部124(図5)による距離の検出に利用される。なお、上記したように、ステレオカメラおよび測距部124の代わりに、各種の距離センサが利用されてもよい。また、視野分析用撮像部111は、情報処理装置10と一体化されていてもよいし、情報処理装置10とは別体として存在していてもよい。
センサ部112は、センサを含んで構成され、ユーザUの視野の動きを検出する機能を有する。例えば、センサ部112は、加速度センサを含んで構成され、加速度センサによって検出された加速度によってユーザUの視野の動きを検出してよい。あるいは、センサ部112は、ジャイロセンサを含んで構成され、ジャイロセンサによって検出された角速度によってユーザUの視野の動きを検出してよい。なお、視野分析用撮像部111によって撮像された視野分析用画像に基づいて、ユーザUの視野の動きが検出される場合には、センサ部112が設けられていなくてもよい。
記憶部130は、メモリを含んで構成され、制御部120によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする記録媒体である。また、記憶部130は、制御部120による演算のためにデータを一時的に記憶する。記憶部130は、磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または、光磁気記憶デバイスなどにより構成される。
表示部150は、各種の画面を表示する機能を有する。表示部150の種類は限定されない。例えば、表示部150は、ユーザに視認可能な表示を行うことが可能なディスプレイ(表示装置)であればよい。より具体的に、表示部150は、液晶ディスプレイであってもよいし、有機EL(Electro−Luminescence)ディスプレイであってもよい。
制御部120は、情報処理装置10の各部の制御を実行する。図5は、制御部120の詳細構成例を示す図である。図5に示したように、制御部120は、実空間情報取得部121、実オブジェクト検出部122、測距部124、自己位置推定部125、アプリケーション実行部126、位置取得部127および表示制御部128を備える。これらの各機能ブロックについての詳細は、後に説明する。なお、制御部120は、例えば、1または複数のCPU(Central Processing Unit;中央演算処理装置)などで構成されていてよい。制御部120がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。
以上、本実施形態に係る情報処理装置10の機能構成例について説明した。
[1.2.情報処理装置の機能詳細]
続いて、本実施形態に係る情報処理装置10の機能詳細について説明する。本開示の実施形態に係る情報処理装置10において、実空間情報取得部121は、実空間に配置された実オブジェクト(以下、「物体」とも言う。)の情報を取得する。より具体的に、実空間情報取得部121は、実オブジェクトが写る左画像および右画像を視野分析用撮像部111から取得することによって、実オブジェクトの情報を取得する。
測距部124は、視野分析用撮像部111によって撮像された左画像および右画像に基づいてデプスマップを生成し、生成したデプスマップを表示制御部128に出力する。
実オブジェクト検出部122は、視野分析用撮像部111によって撮像された左画像および右画像に基づいて視野に所定の実オブジェクト(例えば、平面など)が存在するか否かを判断する。実オブジェクト検出部122は、視野に所定の実オブジェクトが存在する場合、視野における所定の実オブジェクトの特徴(例えば、実空間における平面の位置など)を検出し、アプリケーション実行部126および表示制御部128に出力する。なお、実オブジェクト検出部122は、測距部124によって生成されたデプスマップに基づいて所定の実オブジェクトの特徴を検出してもよい。
自己位置推定部125は、実空間の認識結果に基づいて、視野分析用撮像部111の実空間における位置および姿勢(仮想カメラの位置)を自己位置として推定する。自己位置推定部125は、視野分析用撮像部111によって時間的に連続して撮像された複数の画像に基づいて実空間を認識する。このとき、自己位置推定部125は、認識精度を高めるために、センサ部112によって得られたセンシングデータ(例えば、加速度センサによって検出された加速度、ジャイロセンサによって検出された角速度など)をさらに加味して実空間を認識してもよい。
アプリケーション実行部126は、仮想空間に配置する仮想オブジェクトを決定し、仮想空間における仮想オブジェクトの位置を決定する。このとき、アプリケーション実行部126は、実オブジェクト検出部122によって検出された実オブジェクトの特徴に基づいて仮想オブジェクトの位置を決定してもよい。一例として、アプリケーション実行部126は、実オブジェクト検出部122によって平面の位置が検出された場合には、実オブジェクト検出部122によって検出された平面の位置を、仮想オブジェクトが配置される位置として決定してもよい。
アプリケーション実行部126は、仮想オブジェクトの仮想空間における位置と視野分析用撮像部111の実空間における位置および姿勢(仮想カメラの位置)とに基づいて、仮想オブジェクトの視野における位置、および、視野分析用撮像部111と仮想オブジェクトとの距離を検出する。なお、アプリケーションの種類は特に限定されない。一例として、アプリケーションは、ゲームアプリケーションであってもよい。
位置取得部127は、アプリケーション実行部123によって得られた仮想オブジェクトの位置を取得する。位置取得部127は、アプリケーション実行部123によって得られた仮想オブジェクトの仮想空間における位置を取得する。また、位置取得部127は、アプリケーション実行部123によって得られた仮想オブジェクトの視野における位置を取得する。
表示制御部128は、実オブジェクト検出部122によって検出された実オブジェクトの特徴を取得する。また、表示制御部128は、測距部124によって生成されたデプスマップを取得する。また、表示制御部128は、位置取得部127によって取得された仮想オブジェクトの位置を取得する。
ここで、表示制御部128は、位置取得部127によって取得された仮想オブジェクトの位置と実オブジェクト検出部122によって検出された実空間に存在し仮想オブジェクトの位置から離れている実オブジェクトの特徴とに基づいて、仮想オブジェクトの少なくとも境界の表示を制御する。かかる構成によれば、仮想オブジェクトの視認性の低下を抑制しつつ、仮想オブジェクトの表示に対する違和感を低減することが可能となる。例えば、表示制御部128は、仮想オブジェクトと実オブジェクトが第1の位置関係にある場合、仮想オブジェクトの少なくとも境界の表示を、仮想オブジェクトと実オブジェクトが第1の位置関係とは異なる第2の位置関係にある場合とは異ならせる。このとき、表示制御部128は、仮想オブジェクトが提示されるユーザの視野の動きに応じて、仮想オブジェクトと実オブジェクトの位置関係が第1の位置関係から第2の位置関係に変化した場合、仮想オブジェクトの少なくとも境界の表示を変化させてもよい。
より具体的には、表示制御部128は、実オブジェクトの特徴に基づいて、仮想オブジェクトの表示遅延感の予測強度を算出する。そして、表示制御部128は、仮想オブジェクトの位置と表示遅延感の予測強度とに基づいて、仮想オブジェクトのうち少なくとも境界の表示を制御する。より具体的には、表示制御部128は、仮想オブジェクトの位置、形状、動き、色、輝度、境界の鮮明度の少なくともいずれか一つを制御してよい。
実オブジェクトの特徴は特に限定されない。例えば、実オブジェクトの特徴は、実オブジェクトの形状および動きの少なくともいずれか一つを含んでもよい。例えば、実オブジェクトのエッジの直線部分の割合が多いほど、仮想オブジェクトの表示遅延感が大きくなると考えられる。そこで、表示制御部128は、実オブジェクトのエッジの直線部分の割合が多いほど、表示遅延感の予測強度を大きくするとよい。
また、実オブジェクトの動きが大きいほど、仮想オブジェクトの表示遅延感は小さくなると考えられる。そこで、表示制御部128は、実オブジェクトの動きが大きいほど、表示遅延感の予測強度を大きくするとよい。
表示制御部128は、実オブジェクトの特徴に基づいて表示遅延感の予測強度を算出してもよいし、仮想オブジェクトの特徴に基づいて表示遅延感の予測強度を算出してもよいし、実オブジェクトの特徴および仮想オブジェクトの特徴の双方に基づいて表示遅延感の予測強度を算出してもよい。
仮想オブジェクトの特徴は特に限定されない。例えば、仮想オブジェクトの特徴は、仮想オブジェクトの形状および動きの少なくともいずれか一つを含んでもよい。例えば、仮想オブジェクトのエッジの直線部分の割合が多いほど、仮想オブジェクトの表示遅延感が大きくなると考えられる。そこで、表示制御部128は、仮想オブジェクトのエッジの直線部分の割合が多いほど、表示遅延感の予測強度を大きくするとよい。
また、仮想オブジェクトの動きが大きいほど、仮想オブジェクトの表示遅延感は小さくなると考えられる。そこで、表示制御部128は、仮想オブジェクトの動きが大きいほど、表示遅延感の予測強度を大きくするとよい。
ここで、表示遅延感の予測強度は、仮想オブジェクトごとに決められていてよい。また、表示遅延感の予測強度は、仮想オブジェクトの特徴ごとにあらかじめ決められていてよい。以下では、仮想オブジェクトの表示遅延感の予測強度が仮想オブジェクトおよび仮想オブジェクトの特徴ごとにあらかじめ決められている場合について具体的に説明する。図6〜図8は、仮想オブジェクトおよび仮想オブジェクトの特徴ごとの表示遅延感の予測強度の例を示す図である。
図6を参照すると、エッジの直線部分の割合が高い仮想オブジェクト30−31に対応する表示遅延感の予測強度が「1.0」として示され、エッジの直線部分の割合が中程度の仮想オブジェクト30−32に対応する表示遅延感の予測強度が「0.9」として示され、エッジの直線部分の割合が低い仮想オブジェクト30−33に対応する表示遅延感の予測強度が「0.7」として示されている。
図7を参照すると、動きのない仮想オブジェクト30−34に対応する表示遅延感の予測強度が「0.4」として示され、ユーザに視線が向くように目を動かす仮想オブジェクト30−35に対応する表示遅延感の予測強度が「0.35」として示され、動きの激しい仮想オブジェクト30−36に対応する表示遅延感の予測強度が「0.25」として示されている。ユーザに視線が向くように目を動かす仮想オブジェクト30−35については、図12を参照しながら後に説明する。
図8を参照すると、尻尾を小さく上下に振る動きをする仮想オブジェクト30−37に対応する表示遅延感の予測強度が「0.15」として示され、首を左右に大きく振る動きをする仮想オブジェクト30−38に対応する表示遅延感の予測強度が「0.1」として示されている。
以上に示したようにして、表示遅延感の予測強度が決められていてよい。そして、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、仮想オブジェクトのうち少なくとも境界の表示を変更するとよい。より具体的には、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、仮想オブジェクトの位置、形状、動き、色、輝度、境界の鮮明度の少なくともいずれか一つを変更するとよい。
なお、仮想オブジェクトの表示遅延感の予測強度は、アプリケーションにおいて仮想オブジェクトおよび仮想オブジェクトの特徴ごとにあらかじめ決められていてよい。そして、表示遅延感の予測強度が閾値を超える場合における変更後の仮想オブジェクトも、アプリケーションにおいて回避パターンとしてあらかじめ決められていてよい。変更後の仮想オブジェクトは、一つに決められてもよいし、表示遅延感の予測強度が大きいほど、表示遅延感の予測強度の低下幅が大きくなるように仮想オブジェクトが変更されてもよい。以下では、仮想オブジェクトの表示の変更の例について説明する。
図9は、仮想オブジェクトの色を変更する例を示す図である。図9を参照すると、時刻t3において、ユーザUの視野70−3に仮想オブジェクト30−3が配置されている。そして、時刻t3から時刻t4までに、ユーザUは首を右に動かしているため、時刻t4においては、ユーザUの視野70−3が視野70−4に移動している。
このとき、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、仮想オブジェクト30−3の色を薄くするとよい。これによって、仮想オブジェクト30−4の表示遅延感が小さくなると考えられる。例えば、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、仮想オブジェクト30−3との距離が所定の距離よりも小さい実オブジェクト40−1の色に仮想オブジェクト30−3の色を近づけるとよい(仮想オブジェクト30−4)。これによって、仮想オブジェクト30−4の表示遅延感が小さくなると考えられる。
なお、図9に示した例において、表示遅延感の予測強度はどのように算出されてもよい。一例として、実オブジェクト40−1の特徴が、実オブジェクト40−1の色を含み、仮想オブジェクト30−3の特徴が、仮想オブジェクト30−3の色を含む場合、表示制御部128は、実オブジェクト40−1の色と仮想オブジェクト30−3の色との類似度が小さいほど、表示遅延感の予測強度を大きく算出してよい。
図10は、仮想オブジェクトの輝度を変更する例を示す図である。図10を参照すると、時刻t5において、ユーザUの視野70−5に仮想オブジェクト30−5が配置されている。そして、時刻t5から時刻t6までに、ユーザUは首を右に動かしているため、時刻t6においては、ユーザUの視野70−5が視野70−6に移動している。
このとき、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、仮想オブジェクト30−5の輝度を低下させるとよい。これによって、仮想オブジェクト30−6の表示遅延感が小さくなると考えられる。例えば、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、仮想オブジェクト30−5との距離が所定の距離よりも小さい実オブジェクト40−1の輝度に仮想オブジェクト30−5の輝度を近づけるとよい(仮想オブジェクト30−6)。
なお、図10に示した例において、表示遅延感の予測強度はどのように算出されてもよい。一例として、実オブジェクト40−1の特徴が、実オブジェクト40−1の輝度を含み、仮想オブジェクト30−5の特徴が、仮想オブジェクト30−5の輝度を含む場合、表示制御部128は、実オブジェクト40−1の輝度と仮想オブジェクト30−5の輝度との差が大きいほど、表示遅延感の予測強度を大きく算出してよい。
図11は、実オブジェクトの輝度と仮想オブジェクトの輝度と表示遅延感の予測強度との関係の例を示す図である。図11を参照すると、実オブジェクト40−3の輝度と仮想オブジェクト30−39〜30−42それぞれの輝度とに対応する表示遅延感の予測強度が示されている。図11に示したように、実オブジェクトの輝度と仮想オブジェクトの輝度との差が大きいほど、仮想オブジェクトの表示遅延感の予測強度が大きくてなっていてよい。
また、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、仮想オブジェクトに動きを付与し、または、仮想オブジェクトの動きを強めてもよい。例えば、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、動きのない状態からユーザに視線が向くように目を動かす状態に仮想オブジェクトの動きを変更してよい。これによって、仮想オブジェクトの表示遅延感が小さくなると考えられる。
図12は、ユーザに視線が向くように目を動かす仮想オブジェクトの例を示す図である。図12を参照すると、時刻t7から時刻t9までに、ユーザUが首を左から右に動かしているため、視野70−7から視野70−9に視野が移動している。このとき、仮想オブジェクト30−7は、ユーザに視線が向くように目を動かしてよい(仮想オブジェクト30−8、30−9)。
図13は、仮想オブジェクトの輝度を変更する例を示す図である。図13を参照すると、時刻t10において、ユーザUの視野70−10に仮想オブジェクト30−10が配置されている。そして、時刻t10から時刻t11までに、ユーザUは首を右に動かしているため、時刻t11においては、ユーザUの視野70−10が視野70−11に移動している。
このとき、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、仮想オブジェクト30−10の境界の視認性(例えば、鮮明度)を低下させるとよい(仮想オブジェクト30−10にブラーを施すとよい)(仮想オブジェクト30−11)。これによって、仮想オブジェクト30−10の表示遅延感が小さくなると考えられる。
あるいは、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、仮想オブジェクトの位置を実オブジェクトから遠ざけるとよい。これによって、仮想オブジェクトの表示遅延感が小さくなると考えられる。例えば、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、仮想オブジェクトの位置を仮想オブジェクトとの距離が所定の距離よりも小さい実オブジェクトから遠ざけるとよい。
あるいは、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、仮想オブジェクトの形状を変更するとよい。これによって、仮想オブジェクトの表示遅延感が小さくなると考えられる。例えば、表示制御部128は、表示遅延感の予測強度が閾値を超える場合、エッジの直線部分の割合がより低くなるように仮想オブジェクトの形状を変更するとよい。
また、表示遅延感の予測強度の算出には、実オブジェクトを構成する直線の位置が考慮されてもよい。すなわち、実オブジェクトの特徴が、実オブジェクトを構成する直線の位置を含み、仮想オブジェクトの特徴が、仮想オブジェクトの位置を含む場合、表示制御部128は、仮想オブジェクトの位置と実オブジェクトを構成する直線の位置との距離が近いほど、表示遅延感の予測強度を大きく算出してよい。かかる例について、図14を参照しながら詳細に説明する。
図14は、実オブジェクトを構成する直線の位置に基づく表示遅延感の予測強度の算出例を説明するための図である。図14を参照すると、ユーザUの視野70−21が示されている。ユーザUの視野70−21には、仮想オブジェクト30−21および仮想オブジェクト30−22が配置されている。
また、仮想オブジェクト30−21から所定の距離以内に、実オブジェクト40−4を構成する1本の直線、実オブジェクト40−5を構成する2本の直線、実オブジェクト40−6を構成する1本の直線が存在している。そして、仮想オブジェクト30−21から各直線までの垂線E11〜E14が示されている。
ここで、表示制御部128が、仮想オブジェクトの位置と実オブジェクトを構成する直線の位置との距離が近いほど、表示遅延感の予測強度を大きく算出する場合を想定する。かかる場合、表示制御部128は、垂線E11〜E14それぞれに対応する表示遅延感の予測強度を「0.2」「0.18」「0.15」「0.05」として算出してよい。
そして、表示制御部128は、仮想オブジェクト30−21の標準の表示遅延感の予測強度を「1.0」とした場合、仮想オブジェクト30−21の標準の表示遅延感の予測強度「1.0」に、垂線E11〜E14それぞれに対応する表示遅延感の予測強度「0.2」「0.18」「0.15」「0.05」を加算することによって、仮想オブジェクト30−21の表示遅延感の予測強度を「1.58」と算出してよい。
また、仮想オブジェクト30−22から所定の距離以内に、実オブジェクト40−7を構成する3本の直線が存在している。そして、仮想オブジェクト30−22から各直線までの垂線E21〜E23が示されている。同様にして、表示制御部128は、垂線E21〜E23それぞれに対応する表示遅延感の予測強度を「0.03」「0.018」「0.01」として算出してよい。
そして、表示制御部128は、仮想オブジェクト30−21の標準の表示遅延感の予測強度を「1.0」とした場合、仮想オブジェクト30−21の標準の表示遅延感の予測強度「1.0」に、垂線E21〜E23それぞれに対応する表示遅延感の予測強度「0.03」「0.018」「0.01」を加算することによって、仮想オブジェクト30−22の表示遅延感の予測強度を「1.058」と算出してよい。
図14を参照しながら、実オブジェクトを構成する直線の位置に基づく表示遅延感の予測強度の算出例を説明した。なお、実オブジェクトを構成する直線の位置の代わりに、実オブジェクトを構成する直線の方向に基づいて表示遅延感の予測強度が算出されてもよい。このとき、実オブジェクトを構成する直線と、仮想オブジェクトを構成する直線とが平行に近いほど、表示遅延感の予測強度は大きく算出されてよい。
より具体的に、実オブジェクトの特徴が、実オブジェクトを構成する直線の方向を含み、仮想オブジェクトの特徴が、仮想オブジェクトを構成する直線の方向を含む場合、表示制御部128は、仮想オブジェクトを構成する直線の方向と実オブジェクトを構成する直線の方向とのなす角度が小さいほど、表示遅延感の予測強度を大きく算出してよい。このとき、図14に示した場合と同様に、仮想オブジェクトと実オブジェクトを構成する直線との距離が所定の距離よりも小さい場合における表示遅延感の予測強度のみ、仮想オブジェクトの標準の表示遅延感の予測強度に加算されてよい。
なお、仮想オブジェクトを構成する直線の方向と実オブジェクトを構成する直線の方向とのなす角度の算出には、仮想オブジェクトを構成する直線の方向ベクトルと実オブジェクトを構成する直線の方向ベクトルとの内積が用いられてよい。
以上においては、表示制御部128が、実オブジェクトの特徴および仮想オブジェクトの少なくともいずれか一方に基づいて仮想オブジェクトの表示を制御する例について説明した。しかし、仮想カメラの動きによっても、表示遅延感が変化する可能性がある。そこで、表示制御部128は、実オブジェクトの特徴および仮想オブジェクトの少なくともいずれか一方の代わりに、あるいは、表示制御部128は、実オブジェクトの特徴および仮想オブジェクトの少なくともいずれか一方に追加して、仮想カメラの動きに基づいて、仮想オブジェクトのうち少なくとも境界の表示を制御してもよい。
表示制御部128は、仮想カメラの動きが所定の動きを超える場合、仮想オブジェクトのうち少なくとも境界の表示を変更してもよい。例えば、表示制御部128は、仮想カメラの動きが所定の動きを超える場合、仮想オブジェクトの表示遅延感の予測強度を大きくしてもよい。例えば、表示制御部128は、仮想カメラの動きが大きくなるほど、仮想オブジェクトの表示遅延感の予測強度を大きく算出してもよい。表示遅延感の予測強度に基づく仮想オブジェクトの表示制御は、上記と同様に実行されてよい。
以上、本実施形態に係る情報処理装置10の機能詳細について説明した。
[1.3.情報処理装置の動作例]
続いて、本実施形態に係る情報処理装置10の動作例について説明する。図15は、本実施形態に係る情報処理装置10の動作例を示すフローチャートである。なお、図15に示した動作例は、本実施形態に係る情報処理装置10の動作の一例を示したに過ぎない。したがって、本実施形態に係る情報処理装置10の動作は、図15に示した動作例に限定されない。
図15に示すように、自己位置推定部125は、視野分析用撮像部111によって時間的に連続して撮像された複数の画像に基づいて実空間を認識する(S11)。自己位置推定部125は、実空間の認識結果に基づいて、視野分析用撮像部111の実空間における位置および姿勢(仮想カメラの位置)を自己位置として推定する。
アプリケーション実行部126は、仮想空間に配置する仮想オブジェクトを決定し(S12)、仮想オブジェクトの表示遅延感の予測強度、回避パターンおよび閾値の組み合わせを表示制御部128に通知する(S13)。アプリケーション実行部126は、仮想空間における仮想オブジェクトの位置を決定する(S14)。表示制御部128は、仮想オブジェクトの特徴および実オブジェクトの特徴の少なくともいずれか一方に基づいて、表示遅延感の予測強度を算出する(S15)。
表示制御部128は、表示遅延感の予測強度が閾値を超える場合には(S16において「Yes」)、回避パターンに基づいて、仮想オブジェクトの表示方法を変更し(S17)、S16に動作を移行させる。このように表示遅延感の予測強度が閾値を超えなくなるまで、仮想オブジェクトの各特徴それぞれに対応する回避パターンに基づいて順次に仮想オブジェクトの表示方法が変更されてよい。
一方、表示制御部128は、表示遅延感の予測強度が閾値を超えない場合には(S16において「No」)、仮想オブジェクトの描画を行って(S18)、仮想オブジェクトの特徴および実オブジェクトの特徴の少なくともいずれか一方が変更されたなどの理由により、再判定の必要がある場合には(S19において「Yes」)、動作をS15に移行させるが、再判定の必要がない場合には(S19において「No」)、S11に動作が移行されてよい。
以上において、本実施形態に係る情報処理装置10の動作例について説明した。
<2.ハードウェア構成例>
次に、図16を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成例について説明する。図16は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
図16に示すように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置10は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro−Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などであり得る。出力装置917は、情報処理装置10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置10と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置10の筐体の姿勢など、情報処理装置10自体の状態に関する情報や、情報処理装置10の周辺の明るさや騒音など、情報処理装置10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
<3.むすび>
以上説明したように、本開示の実施形態によれば、撮像装置によって撮像された画像に応じた実空間の認識結果に基づいて算出された仮想カメラの位置に基づいて決定された仮想オブジェクトの位置を取得する位置取得部127と、前記仮想オブジェクトの位置と実空間に存在する物体の特徴とに基づいて、前記仮想オブジェクトのうち少なくとも境界の表示を制御する表示制御部128と、を備える、情報処理装置10が提供される。
かかる構成によれば、仮想オブジェクトの視認性の低下を抑制しつつ、仮想オブジェクトの表示に対する違和感を低減することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した制御部120が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
例えば、上記した情報処理装置10の動作が実現されれば、各構成の位置は特に限定されない。情報処理装置10における各部の処理の一部はサーバ装置(不図示)によって行われてもよい。具体的な一例として、情報処理装置10における制御部120が有する各ブロックの一部または全部は、サーバ装置(不図示)などに存在していてもよい。例えば、情報処理装置10における実オブジェクト検出部122、測距部124、自己位置推定部125およびアプリケーション実行部126の機能の一部または全部は、サーバ装置(不図示)などに存在していてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像装置によって撮像された画像に応じた実空間の認識結果に基づいて決定された前記実空間における仮想オブジェクトの位置を取得する位置取得部と、
前記仮想オブジェクトの位置と、前記実空間に存在し前記仮想オブジェクトの位置から離れている実オブジェクトの特徴とに基づいて、前記仮想オブジェクトの少なくとも境界の表示を制御する表示制御部と、
を備える、情報処理装置。
(2)
前記表示制御部は、前記仮想オブジェクトと前記実オブジェクトが第1の位置関係にある場合、前記仮想オブジェクトの少なくとも境界の表示を、前記仮想オブジェクトと前記実オブジェクトが前記第1の位置関係とは異なる第2の位置関係にある場合とは異ならせる、
前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記仮想オブジェクトが提示されるユーザの視野の動きに応じて、前記仮想オブジェクトと前記実オブジェクトの位置関係が前記第1の位置関係から前記第2の位置関係に変化した場合、前記仮想オブジェクトの少なくとも境界の表示を変化させる、
前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記実オブジェクトの特徴に基づいて、前記仮想オブジェクトの表示遅延感の予測強度を算出し、前記仮想オブジェクトの位置と前記表示遅延感の予測強度とに基づいて、前記仮想オブジェクトのうち少なくとも境界の表示を制御する、
前記(1)に記載の情報処理装置。
(5)
前記表示制御部は、前記表示遅延感の予測強度が閾値を超える場合、前記仮想オブジェクトの位置を前記実オブジェクトから遠ざける、
前記(4)に記載の情報処理装置。
(6)
前記表示制御部は、前記表示遅延感の予測強度が閾値を超える場合、前記仮想オブジェクトの形状を変更する、
前記(4)に記載の情報処理装置。
(7)
前記表示制御部は、前記表示遅延感の予測強度が閾値を超える場合、前記仮想オブジェクトに動きを付与し、または、前記仮想オブジェクトの動きを強める、
前記(4)に記載の情報処理装置。
(8)
前記表示制御部は、前記表示遅延感の予測強度が閾値を超える場合、前記仮想オブジェクトの色または輝度の少なくとも一方を前記実オブジェクトの色または輝度の少なくとも一方に近づける、
前記(4)に記載の情報処理装置。
(9)
前記表示制御部は、前記表示遅延感の予測強度が閾値を超える場合、前記仮想オブジェクトの境界の視認性を低下させる、
前記(4)に記載の情報処理装置。
(10)
前記実オブジェクトの特徴は、前記実オブジェクトの形状および動きの少なくともいずれか一つを含む、
前記(1)に記載の情報処理装置。
(11)
前記表示制御部は、前記実オブジェクトの特徴と前記仮想オブジェクトの特徴とに基づいて、前記表示遅延感の予測強度を算出する、
前記(4)に記載の情報処理装置。
(12)
前記実オブジェクトの特徴は、前記実オブジェクトを構成する直線の位置を含み、
前記仮想オブジェクトの特徴は、前記仮想オブジェクトの位置を含み、
前記表示制御部は、前記仮想オブジェクトの位置と前記実オブジェクトを構成する直線の位置との距離が近いほど、前記表示遅延感の予測強度を大きく算出する、
前記(11)に記載の情報処理装置。
(13)
前記実オブジェクトの特徴は、前記実オブジェクトを構成する直線の方向を含み、
前記仮想オブジェクトの特徴は、前記仮想オブジェクトを構成する直線の方向を含み、
前記表示制御部は、前記仮想オブジェクトを構成する直線の方向と前記実オブジェクトを構成する直線の方向とのなす角度が小さいほど、前記表示遅延感の予測強度を大きく算出する、
前記(11)に記載の情報処理装置。
(14)
前記仮想オブジェクトの特徴は、前記仮想オブジェクトの形状および動きの少なくともいずれか一つを含む、
前記(11)に記載の情報処理装置。
(15)
前記実オブジェクトの特徴は、前記実オブジェクトの色を含み、
前記仮想オブジェクトの特徴は、前記仮想オブジェクトの色を含み、
前記表示制御部は、前記実オブジェクトの色と前記仮想オブジェクトの色との類似度が小さいほど、前記表示遅延感の予測強度を大きく算出する、
前記(11)に記載の情報処理装置。
(16)
前記実オブジェクトの特徴は、前記実オブジェクトの輝度を含み、
前記仮想オブジェクトの特徴は、前記仮想オブジェクトの輝度を含み、
前記表示制御部は、前記実オブジェクトの輝度と前記仮想オブジェクトの輝度との差が大きいほど、前記表示遅延感の予測強度を大きく算出する、
前記(11)に記載の情報処理装置。
(17)
前記表示制御部は、前記実空間の認識結果に基づいて算出された仮想カメラの動きに基づいて、前記仮想オブジェクトのうち少なくとも境界の表示を制御する、
前記(1)に記載の情報処理装置。
(18)
前記表示制御部は、前記仮想カメラの動きが所定の動きを超える場合、前記仮想オブジェクトのうち少なくとも境界の表示を変更する、
前記(17)に記載の情報処理装置。
(19)
撮像装置によって撮像された画像に応じた実空間の認識結果に基づいて算出された仮想カメラの位置に基づいて決定された仮想オブジェクトの位置を取得することと、
前記仮想オブジェクトの位置と実空間に存在する実オブジェクトの特徴とに基づいて、前記仮想オブジェクトのうち少なくとも境界の表示を制御することと、
を含む、情報処理方法。
(20)
コンピュータを、
撮像装置によって撮像された画像に応じた実空間の認識結果に基づいて算出された仮想カメラの位置に基づいて決定された仮想オブジェクトの位置を取得する位置取得部と、
前記仮想オブジェクトの位置と実空間に存在する実オブジェクトの特徴とに基づいて、前記仮想オブジェクトのうち少なくとも境界の表示を制御する表示制御部と、
を備える情報処理装置として機能させるためのプログラム。
10 情報処理装置
111 視野分析用撮像部
112 センサ部
120 制御部
121 実空間情報取得部
122 実オブジェクト検出部
123 アプリケーション実行部
124 測距部
125 自己位置推定部
126 アプリケーション実行部
127 位置取得部
128 表示制御部
130 記憶部
150 表示部

Claims (20)

  1. 撮像装置によって撮像された画像に応じた実空間の認識結果に基づいて決定された前記実空間における仮想オブジェクトの位置を取得する位置取得部と、
    前記仮想オブジェクトの位置と、前記実空間に存在し前記仮想オブジェクトの位置から離れている実オブジェクトの特徴とに基づいて、前記仮想オブジェクトの少なくとも境界の表示を制御する表示制御部と、
    を備える、情報処理装置。
  2. 前記表示制御部は、前記仮想オブジェクトと前記実オブジェクトが第1の位置関係にある場合、前記仮想オブジェクトの少なくとも境界の表示を、前記仮想オブジェクトと前記実オブジェクトが前記第1の位置関係とは異なる第2の位置関係にある場合とは異ならせる、
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記仮想オブジェクトが提示されるユーザの視野の動きに応じて、前記仮想オブジェクトと前記実オブジェクトの位置関係が前記第1の位置関係から前記第2の位置関係に変化した場合、前記仮想オブジェクトの少なくとも境界の表示を変化させる、
    請求項2に記載の情報処理装置。
  4. 前記表示制御部は、前記実オブジェクトの特徴に基づいて、前記仮想オブジェクトの表示遅延感の予測強度を算出し、前記仮想オブジェクトの位置と前記表示遅延感の予測強度とに基づいて、前記仮想オブジェクトのうち少なくとも境界の表示を制御する、
    請求項1に記載の情報処理装置。
  5. 前記表示制御部は、前記表示遅延感の予測強度が閾値を超える場合、前記仮想オブジェクトの位置を前記実オブジェクトから遠ざける、
    請求項4に記載の情報処理装置。
  6. 前記表示制御部は、前記表示遅延感の予測強度が閾値を超える場合、前記仮想オブジェクトの形状を変更する、
    請求項4に記載の情報処理装置。
  7. 前記表示制御部は、前記表示遅延感の予測強度が閾値を超える場合、前記仮想オブジェクトに動きを付与し、または、前記仮想オブジェクトの動きを強める、
    請求項4に記載の情報処理装置。
  8. 前記表示制御部は、前記表示遅延感の予測強度が閾値を超える場合、前記仮想オブジェクトの色または輝度の少なくとも一方を前記実オブジェクトの色または輝度の少なくとも一方に近づける、
    請求項4に記載の情報処理装置。
  9. 前記表示制御部は、前記表示遅延感の予測強度が閾値を超える場合、前記仮想オブジェクトの境界の視認性を低下させる、
    請求項4に記載の情報処理装置。
  10. 前記実オブジェクトの特徴は、前記実オブジェクトの形状および動きの少なくともいずれか一つを含む、
    請求項1に記載の情報処理装置。
  11. 前記表示制御部は、前記実オブジェクトの特徴と前記仮想オブジェクトの特徴とに基づいて、前記表示遅延感の予測強度を算出する、
    請求項4に記載の情報処理装置。
  12. 前記実オブジェクトの特徴は、前記実オブジェクトを構成する直線の位置を含み、
    前記仮想オブジェクトの特徴は、前記仮想オブジェクトの位置を含み、
    前記表示制御部は、前記仮想オブジェクトの位置と前記実オブジェクトを構成する直線の位置との距離が近いほど、前記表示遅延感の予測強度を大きく算出する、
    請求項11に記載の情報処理装置。
  13. 前記実オブジェクトの特徴は、前記実オブジェクトを構成する直線の方向を含み、
    前記仮想オブジェクトの特徴は、前記仮想オブジェクトを構成する直線の方向を含み、
    前記表示制御部は、前記仮想オブジェクトを構成する直線の方向と前記実オブジェクトを構成する直線の方向とのなす角度が小さいほど、前記表示遅延感の予測強度を大きく算出する、
    請求項11に記載の情報処理装置。
  14. 前記仮想オブジェクトの特徴は、前記仮想オブジェクトの形状および動きの少なくともいずれか一つを含む、
    請求項11に記載の情報処理装置。
  15. 前記実オブジェクトの特徴は、前記実オブジェクトの色を含み、
    前記仮想オブジェクトの特徴は、前記仮想オブジェクトの色を含み、
    前記表示制御部は、前記実オブジェクトの色と前記仮想オブジェクトの色との類似度が小さいほど、前記表示遅延感の予測強度を大きく算出する、
    請求項11に記載の情報処理装置。
  16. 前記実オブジェクトの特徴は、前記実オブジェクトの輝度を含み、
    前記仮想オブジェクトの特徴は、前記仮想オブジェクトの輝度を含み、
    前記表示制御部は、前記実オブジェクトの輝度と前記仮想オブジェクトの輝度との差が大きいほど、前記表示遅延感の予測強度を大きく算出する、
    請求項11に記載の情報処理装置。
  17. 前記表示制御部は、前記実空間の認識結果に基づいて算出された仮想カメラの動きに基づいて、前記仮想オブジェクトのうち少なくとも境界の表示を制御する、
    請求項1に記載の情報処理装置。
  18. 前記表示制御部は、前記仮想カメラの動きが所定の動きを超える場合、前記仮想オブジェクトのうち少なくとも境界の表示を変更する、
    請求項17に記載の情報処理装置。
  19. 撮像装置によって撮像された画像に応じた実空間の認識結果に基づいて算出された仮想カメラの位置に基づいて決定された仮想オブジェクトの位置を取得することと、
    前記仮想オブジェクトの位置と実空間に存在する実オブジェクトの特徴とに基づいて、前記仮想オブジェクトのうち少なくとも境界の表示を制御することと、
    を含む、情報処理方法。
  20. コンピュータを、
    撮像装置によって撮像された画像に応じた実空間の認識結果に基づいて算出された仮想カメラの位置に基づいて決定された仮想オブジェクトの位置を取得する位置取得部と、
    前記仮想オブジェクトの位置と実空間に存在する実オブジェクトの特徴とに基づいて、前記仮想オブジェクトのうち少なくとも境界の表示を制御する表示制御部と、
    を備える情報処理装置として機能させるためのプログラム。
JP2019549871A 2017-10-31 2018-08-09 情報処理装置、情報処理方法およびプログラム Active JP7156301B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017210820 2017-10-31
JP2017210820 2017-10-31
PCT/JP2018/029985 WO2019087513A1 (ja) 2017-10-31 2018-08-09 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2019087513A1 true JPWO2019087513A1 (ja) 2020-11-19
JP7156301B2 JP7156301B2 (ja) 2022-10-19

Family

ID=66333483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019549871A Active JP7156301B2 (ja) 2017-10-31 2018-08-09 情報処理装置、情報処理方法およびプログラム

Country Status (4)

Country Link
US (1) US11263456B2 (ja)
JP (1) JP7156301B2 (ja)
CN (1) CN111263957B (ja)
WO (1) WO2019087513A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009049073A1 (de) 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025918A (ja) * 2007-07-17 2009-02-05 Canon Inc 画像処理装置、画像処理方法
JP2013105285A (ja) * 2011-11-11 2013-05-30 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2014182719A (ja) * 2013-03-21 2014-09-29 Yasuaki Iwai 仮想現実提示システム、仮想現実提示方法
WO2017047178A1 (ja) * 2015-09-16 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2017183346A1 (ja) * 2016-04-18 2017-10-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5732988B2 (ja) 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
US11150482B2 (en) * 2015-02-25 2021-10-19 Facebook Technologies, Llc Augmented reality content creation
CN106170082A (zh) * 2016-06-30 2016-11-30 深圳市虚拟现实科技有限公司 远程全景图像实时全方位传输和显示方法
US10169919B2 (en) * 2016-09-09 2019-01-01 Oath Inc. Headset visual displacement for motion correction
CN106909221B (zh) * 2017-02-21 2020-06-02 北京小米移动软件有限公司 基于vr系统的图像处理方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025918A (ja) * 2007-07-17 2009-02-05 Canon Inc 画像処理装置、画像処理方法
JP2013105285A (ja) * 2011-11-11 2013-05-30 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2014182719A (ja) * 2013-03-21 2014-09-29 Yasuaki Iwai 仮想現実提示システム、仮想現実提示方法
WO2017047178A1 (ja) * 2015-09-16 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2017183346A1 (ja) * 2016-04-18 2017-10-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP7156301B2 (ja) 2022-10-19
US11263456B2 (en) 2022-03-01
CN111263957B (zh) 2023-11-07
US20200342229A1 (en) 2020-10-29
CN111263957A (zh) 2020-06-09
WO2019087513A1 (ja) 2019-05-09

Similar Documents

Publication Publication Date Title
US11366516B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP6780642B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20190051019A1 (en) Display control device, display control method, and program
US11176747B2 (en) Information processing apparatus and information processing method
JPWO2017183346A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2015095802A (ja) 表示制御装置、表示制御方法、およびプログラム
US10771707B2 (en) Information processing device and information processing method
US11151804B2 (en) Information processing device, information processing method, and program
CN111095364A (zh) 信息处理装置、信息处理方法和程序
WO2016088410A1 (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2018146922A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7156301B2 (ja) 情報処理装置、情報処理方法およびプログラム
US11589001B2 (en) Information processing apparatus, information processing method, and program
US11487355B2 (en) Information processing apparatus and information processing method
US11240482B2 (en) Information processing device, information processing method, and computer program
US11372473B2 (en) Information processing apparatus and information processing method
WO2020031795A1 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220919

R151 Written notification of patent or utility model registration

Ref document number: 7156301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151