JP2019053423A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2019053423A
JP2019053423A JP2017175989A JP2017175989A JP2019053423A JP 2019053423 A JP2019053423 A JP 2019053423A JP 2017175989 A JP2017175989 A JP 2017175989A JP 2017175989 A JP2017175989 A JP 2017175989A JP 2019053423 A JP2019053423 A JP 2019053423A
Authority
JP
Japan
Prior art keywords
real
virtual object
information
real space
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017175989A
Other languages
English (en)
Inventor
茜 近藤
Akane Kondo
茜 近藤
遼 深澤
Ryo Fukazawa
遼 深澤
慧 新田
Kei NITTA
慧 新田
野田 卓郎
Takuro Noda
卓郎 野田
賢次 杉原
Kenji Sugihara
賢次 杉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2017175989A priority Critical patent/JP2019053423A/ja
Priority to CN201880058233.3A priority patent/CN111095364A/zh
Priority to EP18855888.6A priority patent/EP3683774A4/en
Priority to US16/644,258 priority patent/US20200202161A1/en
Priority to KR1020207005123A priority patent/KR20200051591A/ko
Priority to PCT/JP2018/023842 priority patent/WO2019053997A1/ja
Publication of JP2019053423A publication Critical patent/JP2019053423A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】情報処理装置、情報処理方法、及びプログラムを提供する。【解決手段】実空間の色情報に応じた視覚的特徴を有し、かつ前記実空間に存在する実オブジェクトと略同一の形状を有する第1の仮想オブジェクトを、前記実オブジェクトと略同一の位置に視認されるように、前記実空間に表示させる、表示制御部を備える、情報処理装置。(最も広いクレームに基づき作成し、図面の符号の記載は不要)【選択図】図5

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、実空間に付加的な情報を重畳して人間の知覚する現実環境を拡張するAR(Augmented Reality)技術が広く用いられるようになり、AR技術を応用した情報提示が行われている。AR技術においてユーザに提示される付加的な情報は、アノテーションとも呼ばれ、テキスト、アイコン、画像、3Dモデル等の様々な形態の仮想的なオブジェクトを用いて可視化され得る。
例えば、特許文献1には、所謂シースルーディスプレイ(透過型の表示部)を用いて、ユーザが視認している実空間の像にアノテーション(仮想オブジェクト)を透過的に重畳表示させる技術が開示されている。また、特許文献1には、アノテーションの一部または全部が視認可能範囲の外にある場合にアノテーションの存在を示す通知(例えばアノテーションの影)をさせることが記載されている。
国際公開第2014/162825号
しかし、上記のようなAR技術において、シースルーディスプレイ等に仮想オブジェクトを表示させると、実空間に存在する実オブジェクトを視認し難くなってしまう場合があった。係る場合、例えば、実空間に仮想オブジェクトが存在しているかのようにユーザが感じ難くなってしまったり、実空間に存在する実オブジェクトを注目させたいにもかかわらず、ユーザが当該実オブジェクトを見辛いと感じてしまったりする恐れがあった。
そこで、本開示では、実オブジェクトの視認性を高めることが可能な、情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、実空間の色情報に応じた視覚的特徴を有し、かつ前記実空間に存在する実オブジェクトと略同一の形状を有する第1の仮想オブジェクトを、前記実オブジェクトと略同一の位置に視認されるように、前記実空間に表示させる、表示制御部を備える、情報処理装置が提供される。
また、本開示によれば、実空間の色情報に応じた視覚的特徴を有し、かつ前記実空間に存在する実オブジェクトと略同一の形状を有する第1の仮想オブジェクトを、前記実オブジェクトと略同一の位置に視認されるように、前記実空間にプロセッサが表示させること、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータに、実空間の色情報に応じた視覚的特徴を有し、かつ前記実空間に存在する実オブジェクトと略同一の形状を有する第1の仮想オブジェクトを、前記実オブジェクトと略同一の位置に視認されるように、前記実空間に表示させる機能を、実現させるための、プログラムが提供される。
以上説明したように本開示によれば、実オブジェクトの視認性を高めることが可能である。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態による情報処理装置1の概要を説明する図である。 図2は、コンテンツオブジェクトを適切に遮蔽して表示させるための表示制御について説明するための説明図である。 同実施形態に係る情報処理装置1の構成例を示すブロック図である。 同実施形態に係る情報処理装置1の動作例を示すフローチャート図である。 遮蔽オブジェクトが実オブジェクトの輝度に応じた輝度を有する例を説明するための説明図である。 遮蔽オブジェクトが実オブジェクトのテクスチャに応じたテクスチャを有する例を説明するための説明図である。 遮蔽オブジェクトが実空間の明るさに関する情報に応じた輝度を有する例を説明するための説明図である。 コンテンツオブジェクトが実空間の色温度に関する情報に応じた色を有する例を説明するための説明図である。 遮蔽オブジェクトの影、及びコンテンツオブジェクトの影を実空間に表示させる場合の例について説明する説明図である。 遮蔽オブジェクトの影、及びコンテンツオブジェクトの影を実空間に表示させる場合の例について説明する説明図である。 実オブジェクトとコンテンツオブジェクトとの位置関係に基づいて遮蔽オブジェクトが有する視覚的特徴を制御する例を説明するための説明図である。 遮蔽オブジェクトの全体を表示可能か否かに基づいて遮蔽オブジェクトが有する視覚的特徴を制御する例を説明するための説明図である。 フォーカスオブジェクトが実オブジェクトのテクスチャに応じたテクスチャを有する例を説明するための説明図である。 視線情報に基づいてフォーカスオブジェクトが有する視覚的特徴を制御する例を説明するための説明図である。 視線情報に基づいてフォーカスオブジェクトが有する視覚的特徴を制御する例を説明するための説明図である。 ハードウェア構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
<<1.概要>>
<<2.構成>>
<<3.動作>>
<<4.表示制御の例>>
<4−1.遮蔽オブジェクトとコンテンツオブジェクトを表示させる例>
<4−2.フォーカスオブジェクトを表示させる例>
<<5.ハードウェア構成例>>
<<6.むすび>>
<<1.概要>>
まず、本開示の第1の実施形態による情報処理装置の概要について説明する。図1は、本実施形態による情報処理装置1の概要を説明する図である。図1に示すように、本実施形態による情報処理装置1は、例えばユーザUの頭部に装着されるメガネ型のヘッドマウントディスプレイ(HMD:Head Mounted Display)により実現される。装着時にユーザUの眼前に位置するメガネレンズ部分に相当する表示部13は、光学透過性を有する所謂光学シースルーディスプレイであってもよい。情報処理装置1は、表示部13に仮想オブジェクトを表示することで、ユーザUの視界内に仮想オブジェクトを提示することができる。また、情報処理装置1の一例であるHMDは、両眼に画像を提示するものに限定されず、片眼のみに画像を提示するものであってもよい。例えばHMDは、片方の眼に画像を提示する表示部13が設けられた片目タイプのものであってもよい。
また、情報処理装置1には、装着時にユーザUの視線方向、すなわちユーザの視界を撮像する外向きカメラ110が設けられている。さらに、図1に図示しないが、情報処理装置1には、装着時にユーザUの眼を撮像する内向きカメラやマイクロホン(以下、「マイク」と示す。)等の各種センサが設けられていてもよい。外向きカメラ110、および内向きカメラは、それぞれ複数設けられていてもよい。
なお情報処理装置1の形状は図1に示す例に限定されない。例えば情報処理装置1は、ヘッドバンド型(頭部の全周を回るバンドで装着されるタイプ。また、側頭部だけでなく頭頂部を通るバンドが設ける場合もある)のHMDや、ヘルメットタイプ(ヘルメットのバイザー部分が表示部13に相当する)のHMDであってもよい。
ここで、例えば表示部13が光学的透過性を有する場合、ユーザUは表示部13を通して実空間を視認しつつ、表示部13に表示された情報を視認することが可能である。したがって、表示部13に表示される仮想オブジェクトは、実空間に表示されると言える。
さらに、仮想オブジェクトが実空間に存在するかのようにユーザUに感じさせるような制御が行われ得る。例えば、外向きカメラ110の撮像により得られる実空間の情報、例えば、実空間に存在する実オブジェクトの位置や形状の情報に基づいて仮想オブジェクトの配置や形状等を制御することが行われ得る。
表示部13に表示される仮想オブジェクトは多様であり得る。例えば、仮想オブジェクトは、情報処理装置1が提供するアプリケーションに依存した多様なコンテンツを示す仮想オブジェクト(以下、コンテンツオブジェクトと呼ぶ場合がある)であってもよい。または、仮想オブジェクトは、実空間に存在する実オブジェクトのうち、ユーザUに注目させたい実オブジェクト(以下、フォーカス対象と呼ぶ場合がある)を強調するための仮想オブジェクト(以下、フォーカスオブジェクトと呼ぶ場合がある)であってもよい。
なお、フォーカス対象は、情報処理装置1が提供するアプリケーションに応じて多様であるが、例えば実空間においてユーザが求めている情報を示す実オブジェクトであってもよい。あるいは、実オブジェクトを用いた操作が可能なアプリケーションが提供される場合、フォーカス対象は、係る操作に利用可能な実オブジェクトであってもよい。
ところで、表示部13に仮想オブジェクトを表示させた場合、ユーザUが、実オブジェクトを視認し難いと感じてしまう場合があった。例えば、表示部13が実オブジェクトよりも明るく(高い輝度で)仮想オブジェクトを表示させることで、実オブジェクトが相対的に暗く感じられて、実オブジェクトが視認し難くなってしまう場合があった。また、フォーカス対象を強調するため、フォーカス対象に重なるようにフォーカスオブジェクトを表示させると、フォーカス対象が却って視認し難くなってしまう場合があった。係る2つの場合について、以下、それぞれ具体的な例を説明する。
まず、表示部13が実オブジェクトよりも明るく仮想オブジェクトを表示させることで、実オブジェクトが相対的に暗く感じられて、視認し難くなってしまう場合について、説明を行う。光学透過性を有する表示部13が仮想オブジェクトを表示する際、仮想オブジェクトが暗く(低い輝度で)表示されてしまうと、表示部13の先に存在する実空間との重なりの影響により、仮想オブジェクトを視認し難くなってしまう。そのため、仮想オブジェクトを明確に視認させるためには、仮想オブジェクトを明るく(高い輝度で)表示することが望ましい。
しかし、仮想オブジェクトが明確に視認されるように、仮想オブジェクトを明るく表示した場合、表示部13が仮想オブジェクトを表示するための光が、実空間における光よりも強くユーザUに感じられてしまうことがある。そして、仮想オブジェクトに比べて、実オブジェクトが相対的に暗く感じられ、実オブジェクトが視認し難くなってしまう場合があった。また、仮想オブジェクトと実空間とコントラストが原因で、仮想オブジェクトと実空間との境界が目立ってしまう場合があった。
さらに実オブジェクトが視認し難くなったり、仮想オブジェクトと実空間との境界が目立ったりすることで、仮想オブジェクトが実空間に存在するかのような感覚が薄れてしまう恐れがあった。特に、仮想オブジェクトが実空間に存在するかのように感じさせるため、仮想オブジェクトと実オブジェクトの位置関係に基づいた表示制御が行われている場合に、実オブジェクトが視認し難く事象の影響が大きい。
ここで、仮想オブジェクトと実オブジェクトの位置関係に基づいた表示制御について説明する。仮想オブジェクトが実空間に存在するかのようにユーザUに感じさせるためには、例えば実空間に存在する実オブジェクトと仮想オブジェクトとの境界において、違和感が生じないように表示することが望ましい。そこで、例えば、実オブジェクトの位置や形状の情報に基づいて、当該実オブジェクトと仮想オブジェクトとの位置関係が適切に表現されるように、ユーザUから見て実オブジェクトの奥側に存在する部分を遮蔽して仮想オブジェクトを表示させる表示制御が行われ得る。なお、このような表示制御は、例えば上述したコンテンツオブジェクトを表示させる場合に有効であるため、以下では、コンテンツオブジェクトに係る表示制御が適用された場合を例に説明を行う。ただし、係る表示制御は他の仮想オブジェクトを表示させる場合にも同様に適用可能であり、以下においてコンテンツオブジェクトを例に説明した技術は、他の仮想オブジェクトにおいても同様に適用可能である。
実オブジェクトとコンテンツオブジェクトの位置関係に基づいて、コンテンツオブジェクトを適切に遮蔽して表示させるための表示制御の一例について、図2を参照して説明を行う。図2は、コンテンツオブジェクトを適切に遮蔽して表示させるための表示制御について説明するための説明図である。
図2に示す例では、実空間に実オブジェクトR1が存在する。図2に示す実空間画像RS1は、例えば図1に示した外向きカメラ110により実空間を撮像して得た実空間の撮像画像である。また、図2に示す例では、予め記憶された、または外部の装置から取得されたコンテンツデータVD1に基づいて、コンテンツオブジェクトV1が表示される。
ここで、係る実オブジェクトR1とコンテンツオブジェクトV1との位置関係を適切に表現するため、以下のようにユーザUから見て実オブジェクトR1の奥側に存在する部分を遮蔽してコンテンツオブジェクトV1を表示させる表示制御が行われる。
まず、仮想空間に、コンテンツオブジェクトV1と共に、実オブジェクトR1の形状及び位置に応じた遮蔽(マスキング)を行うための仮想オブジェクト(以下、遮蔽オブジェクトと呼称する)M1が配置される。そして、ユーザUの視点位置に対応する当該仮想空間中の位置でレンダリングして得た仮想空間画像VS1が表示部13に表示される。なお、コンテンツオブジェクトV1の位置や形状は、実空間の情報に基づいて制御されてもよいし、予め設定されていてもよい。
ここで、遮蔽オブジェクトM1によるコンテンツオブジェクトV1の遮蔽が発生した場合、係る遮蔽に相当する領域に実オブジェクトR1が視認されるような表示制御を行うのが望ましい。係る表示制御により、コンテンツオブジェクトV1が実空間に存在するかのようにユーザUに感じさせることが可能となる。係る例では、実オブジェクトR1がコンテンツオブジェクトV1を遮蔽しているように見えるため、ユーザUは実空間における実オブジェクトR1の奥側にコンテンツオブジェクトV1が存在するかのように感じられる。
上述した効果を奏するために、遮蔽オブジェクトM1は、図2に示すように例えば黒色を有する。なお、本開示では、画像に含まれる黒色領域に対応する部分が光を通すように表示部13が表示を行う仕様である場合を例に説明を行う。ただし、表示デバイスによっては、仕様が異なり得る。例えば、表示デバイスによっては、透明を示す他の色の領域が光を透過するように表示されたり、透明領域を示す情報に基づいて、係る透明領域が光を透過するよう表示されたりする場合がある。係る場合には、表示デバイスの仕様に応じて、黒色に代えて、係る透明を示す他の色や、係る透明領域を示す情報が用いられてもよい。
また、上述した効果を奏するために、遮蔽オブジェクトM1は、当該実オブジェクトR1と同一の形状を有し、当該実オブジェクトR1の位置に対応する仮想空間中の位置に配置されることが望ましい。つまり、仮想空間画像VS1が表示部13に表示された場合に、遮蔽オブジェクトM1は実オブジェクトR1と同一の位置にぴったり重なるように表示されることが望ましい。
ただし、遮蔽オブジェクトM1の形状や位置は、実オブジェクトR1の形状や位置と厳密に同一ではなくてもよく、略同一であってもよい。例えば、遮蔽オブジェクトM1の形状は、実オブジェクトR1の形状を近似した形状であってもよく、係る場合も遮蔽オブジェクトM1の形状は、実オブジェクトR1の形状と略同一であると本明細書において解釈される。
図2には、仮想空間画像VS1が表示部13に表示された際の、表示部13を通したユーザUの視界AR1が示されている。上述したように、仮想空間画像VS1において黒色領域に対応する視界AR1内の領域には、実空間が視認されることが想定される。つまり、上述したように遮蔽オブジェクトM1が黒色を有する場合、表示部13のうち、遮蔽オブジェクトM1を表示している領域は光を透過し、実オブジェクトR1がコンテンツオブジェクトV1を遮蔽しているかのようにユーザに視認されることが想定される。
ここで、上述したように、コンテンツオブジェクトV1を明確に視認させるため、コンテンツオブジェクトV1を高い輝度で表示させると、ユーザUには実オブジェクトR1を含む実空間が相対的に暗く感じられてしまう。その結果、図2に示す視界AR1のように、ユーザUにとっては実オブジェクトR1が視認し難くなる。
上述したように、コンテンツオブジェクトV1が実オブジェクトR1に遮蔽されているように見えることで、ユーザUはコンテンツオブジェクトV1が実空間に存在するかのように感じることが可能となる。しかし、実オブジェクトR1が視認し難くなると、コンテンツオブジェクトV1が実オブジェクトR1により遮蔽されているように見えなくなってしまい、コンテンツオブジェクトV1が実空間に存在するかのような感覚が薄れてしまう恐れがある。
続いて、フォーカス対象を強調するため、フォーカス対象に重なるようにフォーカスオブジェクトを表示させると、フォーカス対象が却って視認し難くなってしまう場合について、説明を行う。
フォーカス対象を注目させるための方法として、例えば、フォーカス対象の色を変えるような表示制御を行うことが考えられる。このような表示制御では、フォーカス対象と略同一の形状を有するフォーカスオブジェクトを、フォーカス対象と略同一の位置に表示させる、すなわちフォーカス対象に重なるように表示させる。例えば、所定の色を有するフォーカスオブジェクトをフォーカス対象に重なるように表示部13に表示させることで、実空間の光と表示部13が発する光とが加算されて、フォーカス対象の色が変わったように見える。
ところが、フォーカス対象や、フォーカスオブジェクトの色によっては、フォーカスオブジェクトをフォーカス対象に重なるように表示させることで、フォーカス対象が却って視認し難なる恐れがある。例えば、フォーカス対象の色と大きく異なる色のフォーカスオブジェクトを表示させてしまうと、表示部13を通して見たフォーカス対象が、視認性の低い色合いを有するように見えてしまい、フォーカス対象が視認し難くなる恐れがある。また、通常人間が認識しているフォーカス対象の色と全く異なる色を有するようにフォーカス対象が見えてしまうと、不自然に感じられて視認し難くなる恐れがある。
そこで、上記事情を一着眼点にして本実施形態を創作するに至った。本実施形態による情報処理装置1は、上述した例と同様に、実オブジェクトと略同一の形状を有する第1の仮想オブジェクト(上述した例では遮蔽オブジェクトまたはフォーカスオブジェクト)を、当該実オブジェクトと略同一の位置に視認されるように実空間に表示させる。ただし、本実施形態による情報処理装置1は、当該第1の仮想オブジェクトが実空間の色情報に応じた視覚的特徴を有するように表示制御を行うことで、実オブジェクトの視認性を高めることが可能である。以下、このような効果を有する本実施形態に情報処理装置1の構成について詳細に説明する。
<<2.構成>>
図3は、本実施形態に係る情報処理装置1の構成例を示すブロック図である。図3に示すように、情報処理装置1は、センサ部11、制御部12、表示部13、スピーカー14、通信部15、操作入力部16、および記憶部17を有する。
(センサ部11)
センサ部11は、ユーザまたは周辺環境に関する各種情報を取得(センシング)する機能を有する。例えばセンサ部11は、外向きカメラ110、内向きカメラ111、マイク112、ジャイロセンサ113、加速度センサ114、方位センサ115、位置測位部116、および生体センサ117を含む。なおここで挙げるセンサ部11の具体例は一例であって、本実施形態はこれに限定されない。また、各センサはそれぞれ複数であってもよい。
外向きカメラ110および内向きカメラ111は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を各々有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
なお、本実施形態において、外向きカメラ110は、実空間におけるユーザの視界に相当する領域を撮像するように、画角、及び向きが設定されることが望ましい。また、外向きカメラ110は、複数設けられていてもよい。さらに、外向きカメラ110は、センシングによりデプスマップを取得可能なデプスカメラを含んでもよい。
マイク112は、ユーザの音声や周囲の環境音を収音し、音声データとして制御部12に出力する。
ジャイロセンサ113は、例えば3軸ジャイロセンサにより実現され、角速度(回転速度)を検出する。
加速度センサ114は、例えば3軸加速度センサにより実現され、移動時の加速度を検出する。
方位センサ115は、例えば3軸地磁気センサ(コンパス)により実現され、絶対方向(方位)を検出する。
位置測位部116は、外部からの取得信号に基づいて情報処理装置1の現在位置を検知する機能を有する。具体的には、例えば位置測位部116は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信して、情報処理装置1が存在している位置を検知し、検知した位置情報を制御部12に出力する。また、位置測位部116は、GPSの他、例えばWi−Fi(登録商標)、Bluetooth(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
生体センサ117は、ユーザの生体情報を検知する。具体的には、例えば心拍、体温、発汗、血圧、発汗、脈拍、呼吸、瞬目、眼球運動、凝視時間、瞳孔径の大きさ、血圧、脳波、体動、体位、皮膚温度、皮膚電気抵抗、MV(マイクロバイブレーション)、筋電位、またはSPO2(血中酸素飽和度))などを検知し得る。
(制御部12)
制御部12は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置1内の動作全般を制御する。また、本実施形態による制御部12は、図6に示すように、認識部122、及び表示制御部124として機能する。
認識部122は、センサ部11によりセンシングされた各種センサ情報(センシング結果)に基づいて、ユーザに関する情報、またはユーザ周囲の実空間に関する情報の認識(検出を含む)を行う機能を有する。
例えば、認識部122は、外向きカメラ110の撮像により得られる実空間の撮像画像に基づいて、ユーザ周囲の実空間を3次元的に認識し、さらに実空間に存在する実オブジェクトに関する認識を行ってもよい。
認識部122による実空間の3次元的な認識は、例えば外向きカメラ110が複数のカメラを含む場合には、複数のカメラで得られた複数の撮像画像に対してステレオマッチングを行って得られるデプスマップを用いて行われてもよい。また、認識部122による実空間の3次元的な認識は、時系列的な撮像画像に基づいて、撮像画像から検出された特徴点をフレーム間で対応付けることにより行われてもよい。また、外向きカメラ110がデプスカメラを含む場合には、デプスカメラのセンシングにより得られる距離画像に基づいて実空間の3次元的な認識が行われてもよい。
また、認識部122は、実オブジェクトの形状を認識してもよい。認識部122が認識する実オブジェクトの形状は、実空間における3次元的な形状であってもよいし、撮像画像における2次元的な形状であってもよい。実空間における3次元的な実オブジェクトの形状は、例えば実空間の3次元的な認識結果に基づき、各実オブジェクトを分離することで認識されてもよい。また、撮像画像における2次元的な実オブジェクトの形状は、例えば周知の領域セグメンテーション技術を用いて認識されてもよい。
また、認識部122は、AR技術において仮想オブジェクトを表示するために用いられる実オブジェクトであるARマーカ、及び当該ARマーカの形状を認識してもよい。例えば、認識部122は、記憶部17に記憶されたARマーカに関する情報に基づいて、外向きカメラ110の撮像により得られた撮像画像から、ARマーカ、及び当該ARマーカの形状を認識し得る。ARマーカに関する認識には周知の技術を用いることが出来るため、ここでの詳細な説明は省略する。
また、認識部122は、外向きカメラ110の撮像により得られる実空間の撮像画像に基づいて、実空間の光源に関する認識を行い、光源に関する光源情報を取得してもよい。光源情報は、例えば実空間の明るさ、または色温度に関する情報を含んでもよい。
また、認識部122は、ユーザに関する情報として、ユーザの視線に関する認識を行って、ユーザの視線に関する視線情報を取得してもよい。例えば、認識部122は、内向きカメラ111の撮像により得られたユーザの眼の画像を解析して、ユーザの視線に関する認識を行い得る。視線情報は、例えばユーザの注視点の情報を含んでもよい。例えば認識部122は、所定時間以上、一定範囲にユーザの視線が滞留していた場合に、当該ユーザの視線の先の点を注視点として検出してもよい。なお、ユーザの注視点の情報は、実空間における3次元的な位置の情報であってもよいし、外向きカメラ110の撮像により得られる実空間の撮像画像における2次元的な位置の情報であってもよい。また、認識部122によるユーザの注視点の検出方法は係る例に限定されず、周知の様々な方法で行われてよい。
表示制御部124は、光学的透過性を有する表示部13による表示を制御し、仮想オブジェクトを実空間に表示させる。表示制御部124が実空間に表示させる仮想オブジェクトは多様であり、表示制御部124は、例えば上述したコンテンツオブジェクト、遮蔽オブジェクト、フォーカスオブジェクト等を表示させてもよい。また、表示制御部124は、上述したように、仮想空間に仮想オブジェクトを配置し、ユーザの視点位置に対応する当該仮想空間中の位置でレンダリングを行って得た仮想空間画像を表示部13に表示させることで、仮想オブジェクトを実空間に表示させてもよい。
上述したように、表示制御部124は、例えば情報処理装置1が提供するアプリケーションに依存した多様なコンテンツオブジェクト(後述する第2の仮想オブジェクトの一例)を表示し得る。表示制御部124は、実空間におけるコンテンツオブジェクトの位置を、例えば、アプリケーションの設定と、認識部122により認識された実空間の情報に基づいて特定してもよい。表示制御部124は、コンテンツオブジェクトを、係る実空間におけるコンテンツオブジェクトの位置に視認されるように、実空間に表示させる。
また、上述したように、表示制御部124は、仮想オブジェクト(例えばコンテンツオブジェクト)が実空間に存在するかのようにユーザに感じさせるため、実オブジェクトと仮想オブジェクトとの位置関係が適切に表現されるように表示の制御を行う。そのため、表示制御部124は、実オブジェクトと略同一の形状を有する遮蔽オブジェクト(後述する第1の仮想オブジェクトの一例)を当該実オブジェクトと略同一の位置に視認されるように実空間に表示させる。係る表示制御は、図2を参照して既に説明したため、ここでの詳細な説明は省略する。ただし、本実施形態に係る表示制御部124が表示させる遮蔽オブジェクトは、実空間の色情報に応じた視覚的特徴を有する点で図2を参照して説明した遮蔽オブジェクトM1とは異なる。
また、上述したように、表示制御部124は、ユーザに注目させたいフォーカス対象を強調するためのフォーカスオブジェクト(後述する第1の仮想オブジェクトの一例)を、実空間に表示させる。表示制御部124は、上述したように、フォーカス対象と略同一の形状を有するフォーカスオブジェクトを、フォーカス対象と略同一の位置に視認されるように実空間に表示させる。ただし、本実施形態に係る表示制御部124が表示させるフォーカスオブジェクトは、実空間の色情報に応じた視覚的特徴を有する点で上述したフォーカスオブジェクトと異なる。
このように、表示制御部124が表示させる遮蔽オブジェクトとフォーカスオブジェクトは、少なくとも一部において同様の特徴を有する。以下では、遮蔽オブジェクトとフォーカスオブジェクトを区別する必要がない場合、遮蔽オブジェクトとフォーカスオブジェクトをまとめて第1の仮想オブジェクトと呼称する場合がある。
表示制御部124は、外向きカメラ110の撮像により得られる実空間の撮像画像から実空間の色情報を取得してもよい。例えば、実空間の色情報は、認識部122が撮像画像に基づいて光源に係る認識を行って取得した光源情報を含んでもよい。
また、実空間の色情報は、例えば実オブジェクトに関する色情報を含んでもよい。実オブジェクトに関する色情報は、例えば実オブジェクトの輝度に関する輝度情報、色相に関する色相情報、彩度に関する彩度情報、テクスチャに関するテクスチャ情報等を含んでよい。また、実オブジェクトの輝度情報、色相情報、彩度情報は、それぞれ統計的に処理された情報であってもよく、例えばそれぞれ実オブジェクトの平均輝度、平均色相、平均彩度の情報であってもよい。実オブジェクトに関する色情報は、いずれも、撮像画像から取得され得る。
第1の仮想オブジェクトが有する視覚的特徴は、例えば実オブジェクトの輝度に応じた輝度を含んでもよい。つまり、表示制御部124は、実オブジェクトの輝度に関する輝度情報に基づき、第1の仮想オブジェクトが実オブジェクトの輝度に応じた輝度を有するように表示させてもよい。係る構成によれば、実オブジェクトの輝度に応じた輝度を有する第1の仮想オブジェクトが、ユーザから見て当該実オブジェクトと重畳されるように表示されるため、実オブジェクトの視認性が向上する。
ここで、表示制御部124が第1の仮想オブジェクトとは異なる第2の仮想オブジェクトを実空間に表示させる場合、第1の仮想オブジェクトの輝度は、第2の仮想オブジェクトの輝度よりも低い方が実空間に各仮想オブジェクトがなじみやすい。そのため、表示制御部124は、第1の仮想オブジェクトの輝度が第2の仮想オブジェクトの輝度よりも低くなるように、第1の仮想オブジェクトと第2の仮想オブジェクトを表示させてもよい。
なお、第2の仮想オブジェクトは例えば上述したコンテンツオブジェクトであってもよい。つまり、表示制御部124は、上述したように、実オブジェクトとコンテンツオブジェクトとの位置関係に基づいて、遮蔽オブジェクト(第1の仮想オブジェクトの一例)、及びコンテンツオブジェクト(第2の仮想オブジェクトの一例)を表示させる。
なお、表示制御部124が、上述したような第1の仮想オブジェクトとして遮蔽オブジェクトを表示させ、第2の仮想オブジェクトとしてコンテンツオブジェクトを表示させる例について、後に図5を参照して具体的に説明する。
また、第1の仮想オブジェクトが有する視覚的特徴は、上述した例に限定されない。例えば、第1の仮想オブジェクトが有する視覚的特徴は、実オブジェクトのテクスチャに応じたテクスチャを含んでもよい。つまり、表示制御部124は、実オブジェクトのテクスチャ情報に基づき、第1の仮想オブジェクトが実オブジェクトのテクスチャに応じたテクスチャを有するように、第1の仮想オブジェクトを表示させてもよい。なお、表示制御部124が、係る第1の仮想オブジェクトとして遮蔽オブジェクトを表示させる例について、後に図6を参照して具体的に説明する。また、表示制御部124が、係る第1の仮想オブジェクトとして第1の仮想オブジェクトとしてフォーカスオブジェクトを表示させる例について、後に図13を参照して具体的に説明する。
また、第1の仮想オブジェクトが有する視覚的特徴は、光源情報に応じた輝度を含んでもよい。例えば、表示制御部124は、光源情報に基づき、第1の仮想オブジェクトが実空間の明るさに応じた輝度を有するように、第1の仮想オブジェクトを表示させてもよい。具体的には、表示制御部124は、実空間がより暗い場合に、第1の仮想オブジェクトがより高い輝度を有するように、第1の仮想オブジェクトを表示させてもよい。なお、表示制御部124が、係る第1の仮想オブジェクトとして遮蔽オブジェクトを表示させる例について、後に図7を参照して具体的に説明する。
なお、表示制御部124による光源情報の利用は係る例に限定されない。表示制御部124は光源情報に応じた色を有するように、第2の仮想オブジェクトを表示させてもよい。例えば、表示制御部124は、光源情報に含まれる色温度に関する情報に応じて、元々アプリケーションにより設定されていたコンテンツオブジェクト(第2の仮想オブジェクトの一例)の色を変更してもよい。なお、表示制御部124が、係る第2の仮想オブジェクトとしてコンテンツオブジェクトを表示させる例について、後に図8を参照して具体的に説明する。
また、表示制御部124は、第1の仮想オブジェクトの影、及び第2の仮想オブジェクトの影を実空間に表示させてもよい。係る影は、仮想空間において設定される仮想光源に基づいて生成(レンダリング)される影であってもよい。なお、表示制御部124は、実空間の光源情報に基づいて仮想光源を設定してもよいし、実空間の光源情報とは独立に仮想光源を設定してもよい。係る例については、後に図9、図10を参照して具体的に説明する。
以上、表示制御部124が表示させる第1の仮想オブジェクト、及び第2の仮想オブジェクトについて説明した。表示制御部124は、上述した視覚的特徴のいずれか、または複数の組み合わせを有するように、第1の仮想オブジェクトを表示させる。
表示制御部124は、第1の仮想オブジェクトが上述した視覚的特徴のうち、どのような視覚的特徴を有するかを動的に制御してもよい。以下、第1の仮想オブジェクトが有する視覚的特徴の制御についていくつかの例を説明する。
表示制御部124は、実オブジェクトとコンテンツオブジェクトとの位置関係に基づいて、遮蔽オブジェクトが有する視覚的特徴を制御してもよい。
表示制御部124は、実オブジェクトとコンテンツオブジェクトとの位置関係に基づいて、遮蔽オブジェクトがコンテンツオブジェクトの少なくとも一部を遮蔽するか否かを判定することが出来る。そして、表示制御部124は、遮蔽オブジェクトがコンテンツオブジェクトの少なくとも一部を遮蔽するように、遮蔽オブジェクト、及びコンテンツオブジェクトを表示させる場合に、遮蔽オブジェクト内の領域ごとに視覚的特徴が異なるように制御を行ってもよい。
例えば、表示制御部124は、遮蔽オブジェクトのうちコンテンツオブジェクトを遮蔽する第1の領域が第1の視覚的特徴を有し、遮蔽オブジェクトのうち第1の領域を除く第2の領域が第1の視覚的特徴とは異なる第2の視覚的特徴を有するように、遮蔽オブジェクトが有する視覚的特徴を制御してもよい。なお、係る例については、後に図11を参照して具体的に説明する。
また、表示制御部124は、遮蔽オブジェクトがコンテンツオブジェクトの少なくとも一部を遮蔽するか否かに応じて、遮蔽オブジェクトが有する視覚的特徴を制御してもよい。例えば、表示制御部124は、遮蔽オブジェクトがコンテンツオブジェクトの少なくとも一部を遮蔽する場合と、遮蔽オブジェクトがコンテンツオブジェクトを遮蔽しない場合とで、遮蔽オブジェクトが有する視覚的特徴が異なるように制御を行ってもよい。例えば、認識部122により認識された実オブジェクトが多数ある場合に、全ての実オブジェクトの視認性を高めてしまうと、コンテンツオブジェクトの視認性が相対的に低下してしまう恐れがある。係る場合、例えば表示制御部124は、コンテンツオブジェクトを遮蔽しない遮蔽オブジェクトに係る実オブジェクトの視認性が変化しない、またはあまり向上しないように、当該遮蔽オブジェクトが有する視覚的特徴を制御する。そして、表示制御部124は、コンテンツオブジェクトを遮蔽する遮蔽オブジェクトに係る実オブジェクトの視認性がより向上するように、視覚的特徴を制御する。係る構成により、コンテンツオブジェクトの視認性を低下させることなく、コンテンツオブジェクトが実空間に存在するかのような感覚をユーザに与えることが可能となる。
また、表示制御部124は、第1の仮想オブジェクトが実オブジェクトと略同一の形状を有し、かつ実オブジェクトと略同一の位置に視認されるように第1の仮想オブジェクトの全体を表示可能か否かに基づいて、第1の仮想オブジェクトが有する視覚的特徴を制御してもよい。係る例については、後に図12を参照して具体的に説明する。
また、表示制御部124は、視線情報に基づいて、第1の仮想オブジェクトが有する視覚的特徴を制御してもよい。例えば、表示制御部124は、視線情報に含まれる注視点の情報に基づき実空間におけるユーザの注視領域を特定し、当該注視領域に基づいて、第1の仮想オブジェクトが有する視覚的特徴を制御してもよい。
例えば、表示制御部124は、第1の仮想オブジェクトのうち当該注視領域に対応する第3の領域が第3の視覚的特徴を有し、第1の仮想オブジェクトのうち第3の領域を除く第4の領域が第3の視覚的特徴とは異なる第4の視覚的特徴を有するように、第1の仮想オブジェクトが有する視覚的特徴を制御してもよい。なお、係る例については、後に図14、及び図15を参照して具体的に説明する。
(表示部13)
表示部13は、光学透過性を有し、例えばホログラム光学技術を用いて表示を行うレンズ部、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置等により実現される。
(スピーカー14)
スピーカー14は、制御部12の制御に従って、音声信号を再生する。
(通信部15)
通信部15は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。通信部15は、例えば有線LAN(Local Area Network)、無線LAN、Wi−Fi(Wireless Fidelity、登録商標)、赤外線通信、Bluetooth(登録商標)、近距離/非接触通信等の方式で、外部機器と直接またはネットワークアクセスポイントを介して無線通信する。
(操作入力部16)
操作入力部16は、スイッチ、ボタン、またはレバー等の物理的な構造を有する操作部材により実現される。
(記憶部17)
記憶部17は、上述した制御部12が各機能を実行するためのプログラムやパラメータを記憶する。例えば記憶部17には、認識部122がARマーカを認識するために用いられるARマーカに関する情報や、表示制御部124が表示させるコンテンツオブジェクトに関する情報が記憶されていてもよい。
以上、本実施形態による情報処理装置1の構成について具体的に説明したが、本実施形態による情報処理装置1の構成は図3に示す例に限定されない。例えば情報処理装置1の制御部12が有する少なくとも一部の機能が、通信部15を介して接続される他の装置に存在してもよい。
<<3.動作>>
以上、本実施形態に係る情報処理装置1の構成例について説明した。続いて、本実施形態に係る情報処理装置1の動作例について図4を参照して説明する。図4は、本実施形態に係る情報処理装置1の動作例を示すフローチャート図である。
図4に示すように、まずセンサ部11によるセンシングが行われ、例えば外向きカメラ110が、実空間を撮像して撮像画像を取得する(S12)。続いて、制御部12の認識部122が、ステップS12で行われたセンシングの結果に基づいてユーザに関する情報、及びユーザ周囲の実空間に関する情報の認識を行う(S14)。
続いて、表示制御部124が、仮想空間に仮想オブジェクトを配置し、ユーザの視点位置に対応する当該仮想空間中の位置でレンダリングを行う(S16)。そして、表示制御部124は、ステップS16で行われたレンダリングにより得られた仮想空間画像を表示部13に表示させる(S18)。
ステップS16において、本実施形態に係る表示制御部124は、実空間の色情報に応じた視覚的特徴を有し、かつ実オブジェクトと略同一の形状を有する第1の仮想オブジェクトを仮想空間に配置する。また、当該第1の仮想オブジェクトが配置される位置は、実空間における当該実オブジェクトの位置に対応している。その結果、ユーザの視点位置に対応する当該仮想空間中の位置でレンダリングを行って得た仮想空間画像がステップS18において表示部13にされると、第1の仮想オブジェクトは当該実オブジェクトと略同一の位置に視認される。
<<4.表示制御の例>>
以上、本実施形態に係る情報処理装置1の動作例について説明した。続いて、本実施形態に係る表示制御部124の具体例について説明する。以下、図5〜図12を参照して、表示制御部124が遮蔽オブジェクトとコンテンツオブジェクトを表示させる例について説明した後、図13〜図15を参照して、表示制御部124がフォーカスオブジェクトを表示させる例について説明する。
<4−1.遮蔽オブジェクトとコンテンツオブジェクトを表示させる例>
上述したように、表示制御部124が第1の仮想オブジェクトとして遮蔽オブジェクトを表示させ、第2の仮想オブジェクトとしてコンテンツオブジェクトを表示させる。以下では、まず表示制御部124が遮蔽オブジェクトとコンテンツオブジェクトを表示させる場合のいくつかの表示制御の具体例について説明する。
(遮蔽オブジェクトが実オブジェクトの輝度に応じた輝度を有する例)
まず、表示制御部124が、実オブジェクトの輝度に応じた輝度(視覚的特徴の一例)を有する遮蔽オブジェクトを表示させる例について、図5を参照して説明する。図5は、遮蔽オブジェクトが実オブジェクトの輝度に応じた輝度を有する例を説明するための説明図である。
図5に示す例では、実空間に実オブジェクトR11が存在し、カメラ110が実空間を撮像して得た実空間画像RS11に基づいて、認識部122により実オブジェクトR11が認識される。また、図5に示す例では、予め記憶された、または外部の装置から取得されたコンテンツデータVD11に基づいて、コンテンツオブジェクトV11が表示される。
表示制御部124は、係る実オブジェクトR11とコンテンツオブジェクトV11との位置関係を適切に表現するため、仮想空間に、コンテンツオブジェクトV11と共に、遮蔽オブジェクトM11を配置する。コンテンツオブジェクトV11と遮蔽オブジェクトM11の位置、及び形状に係る制御は、図2を参照して説明したコンテンツオブジェクトV1と遮蔽オブジェクトM1の位置、及び形状に係る制御と同様であるため説明を省略する。
ここで、図5に示す例において仮想空間に配置された遮蔽オブジェクトM11は実オブジェクトの輝度に応じた輝度(視覚的特徴の一例)を有する点で、図2を参照して説明した遮蔽オブジェクトM1と異なる。図5に示す例では、遮蔽オブジェクトM11は、実空間画像RS11中の実オブジェクトR11の輝度よりも低い(暗い)輝度を有する。
ただし、図5に示す例では、遮蔽オブジェクトM11は、図2を参照して説明した遮蔽オブジェクトM1と異なり、黒色よりも高い輝度を有する。そのため、仮想空間をレンダリングして得た仮想空間画像VS11が表示部13に表示された場合、表示部13を通したユーザの視界AR11において、実オブジェクトR11には、遮蔽オブジェクトM11の輝度が加算されてユーザに視認される。その結果、ユーザにとって実オブジェクトR11が視認し易くなり、コンテンツオブジェクトV11が実オブジェクトR11に遮蔽されているように見えることで、ユーザはコンテンツオブジェクトV11が実空間に存在するかのように感じることが可能となる。
なお、図5に示す例において、遮蔽オブジェクトM11が有する輝度は、遮蔽オブジェクトM11の全体で同一の輝度であってもよい。また、係る場合、遮蔽オブジェクトM11が有する輝度は、実空間画像RS11中の実オブジェクトR11の平均輝度よりも低い輝度であってもよい。
また、図5に示す例において、遮蔽オブジェクトM11の輝度以外の色に関するパラメータ(例えば色相、または彩度)は、実オブジェクトR11の輝度以外の色に関するパラメータに基づいて特定されてもよいし、所定のパラメータが用いられてもよい。
また、図5に示す例において、遮蔽オブジェクトM11の輝度は、コンテンツオブジェクトV12の輝度よりも低い。係る構成により、各仮想オブジェクトが、より実空間になじみやすくなる。
(遮蔽オブジェクトが実オブジェクトのテクスチャに応じたテクスチャを有する例)
続いて、表示制御部124が、実オブジェクトのテクスチャに応じたテクスチャを有する遮蔽オブジェクトを表示させる例について、図6を参照して説明する。図6は、遮蔽オブジェクトが実オブジェクトのテクスチャに応じたテクスチャを有する例を説明するための説明図である。
図6に示す例では、実空間に実オブジェクトR12が存在し、カメラ110が実空間を撮像して得た実空間画像RS12に基づいて、認識部122により実オブジェクトR12が認識される。また、図6に示す例では、予め記憶された、または外部の装置から取得されたコンテンツデータVD12に基づいて、コンテンツオブジェクトV12が表示される。
表示制御部124は、係る実オブジェクトR12とコンテンツオブジェクトV12との位置関係を適切に表現するため、仮想空間に、コンテンツオブジェクトV12と共に、遮蔽オブジェクトM12を配置する。コンテンツオブジェクトV12と遮蔽オブジェクトM12の位置、及び形状に係る制御は、図2を参照して説明したコンテンツオブジェクトV1と遮蔽オブジェクトM1の位置、及び形状に係る制御と同様であるため説明を省略する。
ここで、図6に示す例において仮想空間に配置された遮蔽オブジェクトM13は実オブジェクトのテクスチャに応じたテクスチャ(視覚的特徴の一例)を有する点で、図2の遮蔽オブジェクトM1、及び図5の遮蔽オブジェクトM11と異なる。図6に示す例では、遮蔽オブジェクトM12は、実空間画像RS12中の実オブジェクトR12のテクスチャの輝度を低下させたテクスチャを有する。
そして、仮想空間をレンダリングして得た仮想空間画像VS12が表示部13に表示された場合、表示部13を通したユーザの視界AR12において、実オブジェクトR12には、遮蔽オブジェクトM12のテクスチャが重なってユーザに視認される。その結果、実オブジェクトR12のテクスチャがより明確になり、ユーザにとって実オブジェクトR12がより視認し易くなる。
(遮蔽オブジェクトが実空間の明るさに応じた輝度を有する例)
続いて、表示制御部124が、実空間の明るさに関する情報(光源情報の一例)に応じた輝度を有する遮蔽オブジェクトを表示させる例について、図7を参照して説明する。図7は、遮蔽オブジェクトが実空間の明るさに関する情報に応じた輝度を有する例を説明するための説明図である。
図7に示す例では、実空間に実オブジェクトR13が存在し、カメラ110が実空間を撮像して得た実空間画像RS13に基づいて、認識部122により実オブジェクトR13が認識される。また、実空間画像RS13に基づいて、認識部122により光源情報が取得される。例えば、図7に示す例では、図5に示す例よりも実空間が暗いことを示す光源情報が取得されてもよい。また、図7に示す例では、予め記憶された、または外部の装置から取得されたコンテンツデータVD13に基づいて、コンテンツオブジェクトV13が表示される。
表示制御部124は、係る実オブジェクトR13とコンテンツオブジェクトV13との位置関係を適切に表現するため、仮想空間に、コンテンツオブジェクトV13と共に、遮蔽オブジェクトM13を配置する。コンテンツオブジェクトV13と遮蔽オブジェクトM13の位置、及び形状に係る制御は、図2を参照して説明したコンテンツオブジェクトV1と遮蔽オブジェクトM1の位置、及び形状に係る制御と同様であるため説明を省略する。
ここで、図7に示す例において仮想空間に配置された遮蔽オブジェクトM13は光源情報に応じた輝度を有する点で、図2の遮蔽オブジェクトM1、図5の遮蔽オブジェクトM11、及び図6の遮蔽オブジェクトM12と異なる。上述したように、図7に示す例では、図5に示す例よりも実空間が暗いため、遮蔽オブジェクトM13は、図5に示した遮蔽オブジェクトM11よりも輝度が高い。
そして、仮想空間をレンダリングして得た仮想空間画像VS13が表示部13に表示された場合、表示部13を通したユーザの視界AR13において、実オブジェクトR13には、遮蔽オブジェクトM13の色が加算されてユーザに視認される。その結果、実空間が暗い場合であっても、ユーザにとって実オブジェクトR13が視認し易くなる。
なお、実空間が明るい場合の係る表示制御は、図5を参照して説明した例と同様であってよい。すなわち、実空間が明るい場合の遮蔽オブジェクトは、図7に示した遮蔽オブジェクトM13よりも低い輝度を有する。しかし、実空間が明るいため、低い輝度を有する遮蔽オブジェクトが表示された場合であっても、実オブジェクトは視認し易い。
なお、もし実空間が明るい場合に輝度が高い遮蔽オブジェクトを表示させてしまうと、実オブジェクトが明るく見え過ぎてしまい、コンテンツオブジェクトが相対的に視認し難くなる恐れがある。したがって、上記のように、実空間の明るさに応じ、例えば実空間がより暗い場合により高い輝度を有する遮蔽オブジェクトを表示させることで、実オブジェクトとコンテンツオブジェクトの両方の視認性を確保することが可能である。
(コンテンツオブジェクトが実空間の色温度に応じた色を有する例)
続いて、表示制御部124が、実空間の色温度に関する情報(光源情報の一例)に応じた色を有するコンテンツオブジェクトを表示させる例について、図8を参照して説明する。図8は、コンテンツオブジェクトが実空間の色温度に関する情報に応じた色を有する例を説明するための説明図である。
図8に示す例では、実空間に実オブジェクトR14が存在し、カメラ110が実空間を撮像して得た実空間画像RS14に基づいて、認識部122により実オブジェクトR14が認識される。また、実空間画像RS14に基づいて、認識部122により色温度に関する情報が光源情報として取得される。また、図8に示す例では、予め記憶された、または外部の装置から取得されたコンテンツデータVD14に基づいて、コンテンツオブジェクトV14が表示される。
表示制御部124は、係る実オブジェクトR14とコンテンツオブジェクトV14との位置関係を適切に表現するため、仮想空間に、コンテンツオブジェクトV14と共に、遮蔽オブジェクトM14を配置する。コンテンツオブジェクトV14と遮蔽オブジェクトM14の位置、及び形状に係る制御は、図2を参照して説明したコンテンツオブジェクトV1と遮蔽オブジェクトM1の位置、及び形状に係る制御と同様であるため説明を省略する。
ここで、図8に示す例において仮想空間に配置されたコンテンツオブジェクトV14は色温度に関する情報(光源情報の一例)に応じた色を有する点で、図2のコンテンツオブジェクトV14等と異なる。また、図8に示す例において仮想空間に配置された遮蔽オブジェクトM14は、上述した視覚的特徴のいずれかを有していてもよいし、さらに、色温度に関する情報に応じて、遮蔽オブジェクトM14が有する視覚的特徴が変化してもよい。例えば、表示制御部124は、コンテンツオブジェクトV14と遮蔽オブジェクトM14が、実空間の色温度に関する情報に応じた色を有するように、実空間の色温度を仮想空間に反映させてもよい。
そして、仮想空間をレンダリングして得た仮想空間画像VS14が表示部13に表示された場合、表示部13を通したユーザの視界AR14において、実オブジェクトR14には、遮蔽オブジェクトM14の色が加算されてユーザに視認される。その結果、実空間が暗い場合であっても、ユーザにとって実オブジェクトR14が視認し易くなる。また、コンテンツオブジェクトV14が、実空間の色温度に応じた色を有するため、コンテンツオブジェクトV14が実空間になじみ、ユーザはよりコンテンツオブジェクトV14が実空間に存在するかのように感じることが可能となる。
(仮想オブジェクトの影を表示させる例)
続いて、表示制御部124が、遮蔽オブジェクトの影、及びコンテンツオブジェクトの影を実空間に表示させる例について、図9、図10を参照して説明する。図9、図10は、遮蔽オブジェクトの影、及びコンテンツオブジェクトの影を実空間に表示させる場合の例について説明する説明図である。まず、図9を参照して、図2と同様に、黒色の遮蔽オブジェクトを表示させる場合に、遮蔽オブジェクトの影、及びコンテンツオブジェクトの影を表示させる例を比較例として説明する。
図9に示す例では、実空間に実オブジェクトR2が存在し、カメラ110が実空間を撮像して得た実空間画像RS2に基づいて、実オブジェクトR2が認識される。また、図9に示す例では、予め記憶された、または外部の装置から取得されたコンテンツデータVD2に基づいて、コンテンツオブジェクトV2が表示される。
係る実オブジェクトR2とコンテンツオブジェクトV2との位置関係を適切に表現するため、仮想空間に、コンテンツオブジェクトV2と共に、遮蔽オブジェクトM2が配置される。コンテンツオブジェクトV2と遮蔽オブジェクトM2の位置、及び形状に係る制御は、図2を参照して説明した。コンテンツオブジェクトV1と遮蔽オブジェクトM1の位置、及び形状に係る制御と同様であるため説明を省略する。また、図9に示す例では、遮蔽オブジェクトM2は、図2に示した遮蔽オブジェクトM1と同様に黒色を有する。
ここで、図9に示す例では、仮想空間に仮想的な光源が設定されており、仮想的な光源により照らされた被照明領域L2が存在する。また、仮想的な光源により、遮蔽オブジェクトM2の影SM2、コンテンツオブジェクトV2の影SV2が仮想空間に発生する。
そして、仮想空間をレンダリングして得た仮想空間画像VS2が表示部13に表示された場合、表示部13を通したユーザの視界AR2において、コンテンツオブジェクトV2に加え、被照明領域L2、影SM2、及び影SV2がユーザに視認される。しかし、遮蔽オブジェクトM2が黒色であるため、ユーザにとって実オブジェクトR2は視認するのが困難である。その結果、ユーザは影SM2を実オブジェクトR2に対応する影であると認識することが困難となってしまう。その結果、影SM2の存在にユーザが違和感を受ける恐れがある。
そこで、本実施形態に係る表示制御部124は、上述した他の具体例と同様に、実空間の色情報に応じた視覚的特徴を有する遮蔽オブジェクトを表示させると共に、遮蔽オブジェクトの影を表示させる。係る例について図10を参照して説明する。
図10に示す例では、実空間に実オブジェクトR15が存在し、カメラ110が実空間を撮像して得た実空間画像RS15に基づいて、実オブジェクトR15が認識される。また、図10に示す例では、予め記憶された、または外部の装置から取得されたコンテンツデータVD15に基づいて、コンテンツオブジェクトV15が表示される。
係る実オブジェクトR15とコンテンツオブジェクトV15との位置関係を適切に表現するため、仮想空間に、コンテンツオブジェクトV15と共に、遮蔽オブジェクトM15が配置される。コンテンツオブジェクトV15と遮蔽オブジェクトM15の位置、及び形状に係る制御は、図2を参照して説明したコンテンツオブジェクトV1と遮蔽オブジェクトM1の位置、及び形状に係る制御と同様であるため説明を省略する。
ここで、図10に示す例では、図5に示した例と同様に、遮蔽オブジェクトM15が、実オブジェクトR15の輝度に応じた輝度を有する。また、図10に示す例では、図9に示した例と同様に、仮想空間に仮想的な光源が設定されており、仮想的な光源により照らされた被照明領域L15が存在する。また、仮想的な光源により、遮蔽オブジェクトM15の影SM15.コンテンツオブジェクトV15の影SV15が仮想空間に発生する。
そして、仮想空間をレンダリングして得た仮想空間画像VS15が表示部13に表示された場合、表示部13を通したユーザの視界AR15において、コンテンツオブジェクトV15に加え、被照明領域L15、影SM15、及び影SV15がユーザに視認される。ここで、図10に示す例では、図5に示した例と同様に、ユーザにとって実オブジェクトR15が視認し易くなっているため、ユーザは影SM15が実オブジェクトR15の影であるように感じられる。さらに、影SM15と同一の仮想的な光源により発生した影SV15がコンテンツオブジェクトV15の影として表示されることで、ユーザはよりコンテンツオブジェクトV15が実空間に存在するかのように感じることが可能となる。
(位置関係に基づいて遮蔽オブジェクトが有する視覚的特徴を制御する例)
続いて、表示制御部124が実オブジェクトとコンテンツオブジェクトとの位置関係に基づいて、遮蔽オブジェクトが有する視覚的特徴を制御する例について、図11を参照して説明する。図11は、実オブジェクトとコンテンツオブジェクトとの位置関係に基づいて遮蔽オブジェクトが有する視覚的特徴を制御する例を説明するための説明図である。
図11に示す例では、実空間に実オブジェクトR16が存在し、カメラ110が実空間を撮像して得た実空間画像RS16に基づいて、実オブジェクトR16が認識される。また、図11に示す例では、予め記憶された、または外部の装置から取得されたコンテンツデータVD16に基づいて、コンテンツオブジェクトV16が表示される。
表示制御部124は、係る実オブジェクトR16とコンテンツオブジェクトV16との位置関係を適切に表現するため、仮想空間に、コンテンツオブジェクトV16と共に、遮蔽オブジェクトM16を配置する。コンテンツオブジェクトV16と遮蔽オブジェクトM16の位置、及び形状に係る制御は、図2を参照して説明したコンテンツオブジェクトV1と遮蔽オブジェクトM1の位置、及び形状に係る制御と同様である。つまり、遮蔽オブジェクトM16は実オブジェクトR16の位置に基づいて配置される。したがって、遮蔽オブジェクトM16がコンテンツオブジェクトV16を遮蔽するか否かは、実オブジェクトR16とコンテンツオブジェクトV16との位置関係に基づいて判定され得る。
表示制御部124は、実オブジェクトとコンテンツオブジェクトとの位置関係に基づいて、遮蔽オブジェクトM16がコンテンツオブジェクトV16の少なくとも一部を遮蔽すると判定された場合、遮蔽オブジェクトM16内の領域ごとに視覚的特徴が異なるように制御する。
図11に示す例では、遮蔽オブジェクトM16のうちコンテンツオブジェクトV16を遮蔽する第1の領域M162が第1の視覚的特徴を有する。また、遮蔽オブジェクトM16のうち第1の領域M162を除く第2の領域M164が第1の視覚的特徴とは異なる第2の視覚的特徴を有する。
そして、仮想空間をレンダリングして得た仮想空間画像VS16が表示部13に表示された場合、表示部13を通したユーザの視界AR16において、実オブジェクトR13には、遮蔽オブジェクトM16の色が加算されてユーザに視認される。その結果、実オブジェクトR13のうち、コンテンツオブジェクトV16の手前に存在する領域R162と、それ以外の領域R164とで、視認性が異なる。係る構成により、ユーザによりコンテンツオブジェクトV16が実空間に存在するかのように感じさせることが可能となる。
なお、図11に示す例では、第1の視覚的特徴は、図5に示した例と同様に実オブジェクトR16の輝度に応じた輝度であり、第2の視覚的特徴は、黒色である。ただし、本技術は係る例に限定されず、表示制御部124は、上述したいずれかの視覚的特徴、または複数の視覚的特徴の組み合わせを選択して、第1の視覚的特徴または、第2の視覚的特徴とすることが可能である。
(全体表示可能か否かに基づいて遮蔽オブジェクトが有する視覚的特徴を制御する例)
続いて、表示制御部124が遮蔽オブジェクトの全体を表示可能か否かに基づいて、遮蔽オブジェクトが有する視覚的特徴を制御する例について、図12を参照して説明する。図12は、遮蔽オブジェクトの全体を表示可能か否かに基づいて遮蔽オブジェクトが有する視覚的特徴を制御する例を説明するための説明図である。
図12には、図5に示した例と同様に、実オブジェクトR17の輝度に応じた輝度を有する遮蔽オブジェクトを表示させた場合の、ユーザの視界AR17が示されている。ただし、図12では、図5に示した例と比べて、実オブジェクトR17が大きい、または実オブジェクトR17が表示部13に近い。そのため、実オブジェクトR17と略同一の形状を有し、かつ実オブジェクトR17と略同一の位置に視認されるよう遮蔽オブジェクトの全体を表示することが出来ていない。
その結果、図12に示す例では、実オブジェクトR17のうち、表示部13の表示領域と重なった領域R172と、それ以外の領域R174とで、実オブジェクトR17の視認性が異なり、ユーザに違和感を与える恐れがある。
そこで、表示制御部124は、遮蔽オブジェクトが実オブジェクトと略同一の形状を有し、かつ実オブジェクトと略同一の位置に視認されるように遮蔽オブジェクトの全体を表示可能ではない場合、黒色(視覚的特徴の一例)を有する遮蔽オブジェクトを表示させてもよい。係る構成によれば、実オブジェクトの視認性が、表示部13の表示領域と重なった領域とそれ以外の領域とで異ならなくなり、ユーザに与える違和感が軽減される。
<4−2.フォーカスオブジェクトを表示させる例>
以上、表示制御部124が第1の仮想オブジェクトとして遮蔽オブジェクトを表示させ、第2の仮想オブジェクトとしてコンテンツオブジェクトを表示させる例について説明した。続いて、表示制御部124が第1の仮想オブジェクトとしてフォーカスオブジェクトを表示させる例について、図13〜図15を参照して説明する。
(フォーカスオブジェクトが実オブジェクトのテクスチャに応じたテクスチャを有する例)
まず、表示制御部124が、実オブジェクトのテクスチャに応じたテクスチャ(視覚的特徴の一例)を有するフォーカスオブジェクトを表示させる例について、図13を参照して説明する。図13は、フォーカスオブジェクトが実オブジェクトのテクスチャに応じたテクスチャを有する例を説明するための説明図である。
図13には、実空間に実オブジェクトであるフロアマップR21が存在する。また、カメラ110が実空間を撮像して得た実空間画像RS21に基づいて、認識部122によりフロアマップR21内の店舗領域R211〜R216がそれぞれ異なるARマーカ(実オブジェクト)として認識される。
図13に示す例では、店舗領域R211〜R216のうち、店舗領域R216がユーザに注目させたいフォーカス対象である。そのため、表示制御部124は、フォーカス対象である店舗領域R216と略同一の形状を有するフォーカスオブジェクトV21が、店舗領域R216と略同一の位置に視認されるように表示する。例えば、表示制御部124は、フォーカスオブジェクトV21を仮想空間に配置し、ユーザの視点位置に対応する仮想空間中の位置でレンダリングすることで得た仮想空間画像VS21を表示部13に表示させてもよい。
また、図13に示す例において、フォーカスオブジェクトV21は、実空間画像RS21から取得されるフォーカス対象(店舗領域R216)のテクスチャに応じたテクスチャ(視覚的特徴の一例)を有する。なお、フォーカス対象のテクスチャに応じたテクスチャとは、実空間画像RS21から取得されるフォーカス対象のテクスチャ自体であってもよいし、色を調整したテクスチャであってもよい。また、フォーカスオブジェクトV21が2次元的な形状を有する場合には、外向きカメラ110とユーザの視点位置との差に応じて、フォーカス対象のテクスチャを変形したテクスチャをフォーカスオブジェクトV21が有してもよい。
このような仮想空間をレンダリングして得た仮想空間画像VS21が表示部13に表示された場合、表示部13を通したユーザの視界AR21において、フォーカス対象である店舗領域R216には、フォーカスオブジェクトV21の色が加算されてユーザに視認される。その結果、フォーカス対象である店舗領域R216が周囲の店舗領域R211〜R215と比較して視認し易くなり、ユーザを店舗領域R216に注目させることが可能である。
(視線情報に基づいてフォーカスオブジェクトが有する視覚的特徴を制御する例)
続いて、表示制御部124が、視線情報に基づいてフォーカスオブジェクトが有する視覚的特徴を制御する例について、図14、及び図15を参照して説明する。図14、図15は、視線情報に基づいてフォーカスオブジェクトが有する視覚的特徴を制御する例を説明するための説明図である。
図14に示す例では、実空間にフォーカス対象である実オブジェクトR22が存在する。また、カメラ110が実空間を撮像して得た実空間画像RS22に基づいて、認識部122により実オブジェクトR22が認識される。また、図14に示す例では、認識部122により、注視点GP22の情報が視線情報として取得される。そして、表示制御部124は、注視点GP22を中心とした近傍をユーザ注視している注視領域GR22として特定する。
また、表示制御部124は、フォーカスオブジェクトV22を仮想空間に配置する。ただし、図14に示す例において、表示制御部124は、注視領域GR22に基づいて、フォーカスオブジェクトV22の視覚的特徴を制御する。具体的には、フォーカスオブジェクトV22のうち、注視領域GR22に対応する領域V221(第3の領域)と、それ以外の領域V222(第4の領域)とで、視覚的特徴が異なるように制御する。図14に示す例では、領域V221は、実オブジェクトR22の注視領域GR22のテクスチャに応じたテクスチャ(第3の視覚的特徴の一例)を有する。また、図14に示す例では、領域V222は、黒色(第4の視覚的特徴の一例)を有する。
このような仮想空間をレンダリングして得た仮想空間画像VS22が表示部13に表示された場合、表示部13を通したユーザの視界AR22において、実オブジェクトR22のうち、ユーザが注視している注視領域GR22には、領域V222のテクスチャが重なって視認されるため、他の領域と比べて視認性が高い。係る構成により、ユーザが注視している注視領域の視認性を高めることが可能である。
なお、上記では、実オブジェクトR22に対応したフォーカスオブジェクトV22の内部で、領域V221と領域V222とで異なる視覚的特徴を有するようにして、フォーカスオブジェクトV22を表示させるようにしたが、本技術は係る例に限定されない。例えば、表示制御部124は、実空間において特定した注視領域に基づき、当該注視領域のテクスチャに応じたテクスチャが、当該注視領域に重なって視認される様に表示制御を行うことで、同様の効果を得ることも可能である。係る表示制御は、例えば実オブジェクトR22の存在に関係なく行われ得る。
また、上記では、注視領域の視認性を高める例を説明したが、本技術は係る例に限定されない。例えば、表示制御部124は、実空間において特定した注視領域以外の領域の視認性を低めることで、相対的に注視領域の視認性を高め、同様の効果を得ることも可能である。係る例について、図15を参照して説明を行う。
図15に示す例では、実空間にフォーカス対象である実オブジェクトR23が存在する。また、カメラ110が実空間を撮像して得た実空間画像RS23に基づいて、認識部122により実オブジェクトR23が認識される。また、図15に示す例では、認識部122により、注視点GP23の情報が視線情報として取得される。そして、表示制御部124は、注視点GP23を中心とした近傍をユーザ注視している注視領域GR23として特定する。
また、表示制御部124は、フォーカスオブジェクトV23を仮想空間に配置する。ただし、図15に示す例において、表示制御部124は、注視領域GR23に基づいて、フォーカスオブジェクトV23の視覚的特徴を制御する。具体的には、フォーカスオブジェクトV23のうち、注視領域GR23に対応する領域V231(第3の領域)と、それ以外の領域V232(第4の領域)とで、視覚的特徴が異なるように制御する。図15に示す例では、領域V231は、黒色(第3の視覚的特徴の一例)を有する。また、図15に示す例では、領域V232は、輝度の高い白色(第4の視覚的特徴の一例)を有する。
このような仮想空間をレンダリングして得た仮想空間画像VS23が表示部13に表示された場合、表示部13を通したユーザの視界AR23において、実オブジェクトR23のうち、ユーザが注視している注視領域GR23には、輝度の加算はない。しかし、実オブジェクトR23のうち、注視領域GR22以外の領域において、輝度の高い白色が加算され、視認性が低下する。その結果、注視領域GR22の視認性が相対的に向上する。なお、上述した例と同様に、表示制御部124は、実空間において特定した注視領域に基づき、実空間における当該注視領域以外の領域の視認性が低下する様に表示制御を行うことで、同様の効果を得ることも可能である。係る表示制御は、例えば実オブジェクトR23の存在に関係なく行われ得る。
<<5.ハードウェア構成例>>
以上、本開示の実施形態を説明した。最後に、図16を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図16は、本開示の実施形態に係る情報処理装置1のハードウェア構成の一例を示すブロック図である。本開示の実施形態に係る情報処理装置1による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図16に示すように、情報処理装置1は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置1は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911、通信装置913、及びセンサ915を備える。情報処理装置1は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置1内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、制御部12を形成し得る。
CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置1の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置1のユーザは、この入力装置906を操作することにより、情報処理装置1に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置1が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置1が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。出力装置907は、例えば表示部13を形成し得る。
ストレージ装置908は、情報処理装置1の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。上記ストレージ装置908は、例えば、記憶部17を形成し得る。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置1に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、通信部15を形成し得る。
センサ915は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサ、測距センサ、力センサ等の各種のセンサである。センサ915は、情報処理装置1の姿勢、移動速度等、情報処理装置1自身の状態に関する情報や、情報処理装置1の周辺の明るさや騒音等、情報処理装置1の周辺環境に関する情報を取得する。また、センサ915は、GPS信号を受信して装置の緯度、経度及び高度を測定するGPSセンサを含んでもよい。センサ915は、例えば、センサ部11を形成し得る。
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本開示の実施形態に係る情報処理装置1の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。したがって、本開示の実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
なお、上述のような本開示の実施形態に係る情報処理装置1の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<<6.むすび>>
以上説明したように、本開示の実施形態によれば、実オブジェクトの視認性を高めることが可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、表示制御部124は、時系列に従って段階的にアニメーションを表示させてもよい。例えば、仮想オブジェクトが剥がれ落ちて、徐々に実世界が現れるようなアニメーションを表示させてもよい。係る構成によれば、仮想オブジェクトをより実空間になじませる表現が可能となる。
また、上記実施形態では、フォーカスオブジェクトが有するテクスチャが撮像画像から取得されるテクスチャに応じたテクスチャ(それ自体または色を調整したテクスチャ)である例を説明したが、本技術は係る例に限定されない。例えば、第1の仮想オブジェクトが有するテクスチャとして、ARマーカに対応付けられたテクスチャが用いられてもよい。係る場合、ARマーカに対応付けられたテクスチャは、記憶部17に記憶されていてもよいし、通信部15を介して他の装置から取得されてもよい。係る構成によれば、より高精細なテクスチャを有するフォーカスオブジェクトを表示させることも可能となり得る。
また、上記では、表示制御部124が光学透過性を有する表示部13による表示を制御する例を説明したが、本技術は係る例に限定されない。例えば、表示部13がプロジェクタである場合にも、表示制御部124は、プロジェクタである表示部13を制御し、実空間に各仮想オブジェクトを投影させることで上述した効果と同様の効果を実現することが可能である。
また、上記実施形態における各ステップは、必ずしもフローチャート図として記載された順序に沿って時系列に処理される必要はない。例えば、上記実施形態の処理における各ステップは、フローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実空間の色情報に応じた視覚的特徴を有し、かつ前記実空間に存在する実オブジェクトと略同一の形状を有する第1の仮想オブジェクトを、前記実オブジェクトと略同一の位置に視認されるように、前記実空間に表示させる、表示制御部を備える、情報処理装置。
(2)
前記実空間の色情報は、前記実オブジェクトに関する色情報を含む、前記(1)に記載の情報処理装置。
(3)
前記実空間の色情報は、前記実空間の撮像画像から取得される、前記(1)または(2)に記載の情報処理装置。
(4)
前記実空間の色情報は、前記撮像画像から取得される輝度情報、色相情報、彩度情報、テクスチャ情報、光源情報のうち少なくともいずれか一つを含む、前記(3)に記載の情報処理装置。
(5)
前記第1の仮想オブジェクトが有する前記視覚的特徴は、前記実オブジェクトの輝度に応じた輝度を含む、前記(4)に記載の情報処理装置。
(6)
前記第1の仮想オブジェクトが有する前記視覚的特徴は、前記実オブジェクトのテクスチャに応じたテクスチャを含む、前記(4)または(5)に記載の情報処理装置。
(7)
前記第1の仮想オブジェクトが有する前記視覚的特徴は、前記光源情報に応じた輝度を含む、前記(4)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記表示制御部は、さらに前記第1の仮想オブジェクトとは異なる第2の仮想オブジェクトを前記実空間に表示させる、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記表示制御部は、前記第1の仮想オブジェクトの輝度が前記第2の仮想オブジェクトの輝度よりも低くなるように、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとを表示させる、前記(8)に記載の情報処理装置。
(10)
前記表示制御部は、前記実オブジェクトと前記第2の仮想オブジェクトとの位置関係に基づいて前記第1の仮想オブジェクト、及び前記第2の仮想オブジェクトを表示させる、前記(8)または(9)に記載の情報処理装置。
(11)
前記表示制御部は、前記位置関係に基づいて、前記第1の仮想オブジェクトが有する前記視覚的特徴を制御する、前記(10)に記載の情報処理装置。
(12)
前記表示制御部は、前記位置関係に基づいて、前記第1の仮想オブジェクトが前記第2の仮想オブジェクトの少なくとも一部を遮蔽するように、前記第1の仮想オブジェクト、及び前記第2の仮想オブジェクトを表示させる場合に、前記第1の仮想オブジェクトのうち前記第2の仮想オブジェクトを遮蔽する第1の領域が第1の視覚的特徴を有し、前記第1の仮想オブジェクトのうち前記第1の領域を除く第2の領域が前記第1の視覚的特徴とは異なる第2の視覚的特徴を有するように、前記視覚的特徴を制御する、前記(11)に記載の情報処理装置。
(13)
前記表示制御部は、前記第1の仮想オブジェクトが前記実オブジェクトと略同一の形状を有し、かつ前記実オブジェクトと略同一の位置に視認されるように前記第1の仮想オブジェクトの全体を表示可能か否かに基づいて、前記第1の仮想オブジェクトが有する前記視覚的特徴を制御する、前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記表示制御部は、前記実空間におけるユーザの視線に関する視線情報に基づいて、前記第1の仮想オブジェクトが有する前記視覚的特徴を制御する、前記(1)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記表示制御部は、前記視線情報に基づいて特定される前記実空間における前記ユーザの注視領域に基づいて、前記第1の仮想オブジェクトのうち前記注視領域に対応する第3の領域が第3の視覚的特徴を有し、前記第1の仮想オブジェクトのうち前記第3の領域を除く第4の領域が前記第3の視覚的特徴とは異なる第4の視覚的特徴を有するように、前記視覚的特徴を制御する、前記(14)に記載の情報処理装置。
(16)
前記第3の視覚的特徴は、前記実オブジェクトのテクスチャに応じたテクスチャを含む、前記(15)に記載の情報処理装置。
(17)
前記表示制御部は、光学的透過性を有する表示部による表示を制御する、前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記表示制御部は、ユーザから見て、前記第1の仮想オブジェクトが前記実オブジェクトに重畳されるように前記表示部を制御する、前記(17)に記載の情報処理装置。
(19)
実空間の色情報に応じた視覚的特徴を有し、かつ前記実空間に存在する実オブジェクトと略同一の形状を有する第1の仮想オブジェクトを、前記実オブジェクトと略同一の位置に視認されるように、前記実空間にプロセッサが表示させること、を含む情報処理方法。
(20)
コンピュータに、
実空間の色情報に応じた視覚的特徴を有し、かつ前記実空間に存在する実オブジェクトと略同一の形状を有する第1の仮想オブジェクトを、前記実オブジェクトと略同一の位置に視認されるように、前記実空間に表示させる機能を、実現させるための、プログラム。
1 情報処理装置
11 センサ部
12 制御部
13 表示部
14 スピーカー
15 通信部
16 操作入力部
17 記憶部
110 外向きカメラ
111 内向きカメラ
112 マイク
113 ジャイロセンサ
114 加速度センサ
115 方位センサ
116 位置測位部
117 生体センサ
122 認識部
124 表示制御部

Claims (20)

  1. 実空間の色情報に応じた視覚的特徴を有し、かつ前記実空間に存在する実オブジェクトと略同一の形状を有する第1の仮想オブジェクトを、前記実オブジェクトと略同一の位置に視認されるように、前記実空間に表示させる、表示制御部を備える、情報処理装置。
  2. 前記実空間の色情報は、前記実オブジェクトに関する色情報を含む、請求項1に記載の情報処理装置。
  3. 前記実空間の色情報は、前記実空間の撮像画像から取得される、請求項1に記載の情報処理装置。
  4. 前記実空間の色情報は、前記撮像画像から取得される輝度情報、色相情報、彩度情報、テクスチャ情報、光源情報のうち少なくともいずれか一つを含む、請求項3に記載の情報処理装置。
  5. 前記第1の仮想オブジェクトが有する前記視覚的特徴は、前記実オブジェクトの輝度に応じた輝度を含む、請求項4に記載の情報処理装置。
  6. 前記第1の仮想オブジェクトが有する前記視覚的特徴は、前記実オブジェクトのテクスチャに応じたテクスチャを含む、請求項4に記載の情報処理装置。
  7. 前記第1の仮想オブジェクトが有する前記視覚的特徴は、前記光源情報に応じた輝度を含む、請求項4に記載の情報処理装置。
  8. 前記表示制御部は、さらに前記第1の仮想オブジェクトとは異なる第2の仮想オブジェクトを前記実空間に表示させる、請求項1に記載の情報処理装置。
  9. 前記表示制御部は、前記第1の仮想オブジェクトの輝度が前記第2の仮想オブジェクトの輝度よりも低くなるように、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとを表示させる、請求項8に記載の情報処理装置。
  10. 前記表示制御部は、前記実オブジェクトと前記第2の仮想オブジェクトとの位置関係に基づいて前記第1の仮想オブジェクト、及び前記第2の仮想オブジェクトを表示させる、請求項8に記載の情報処理装置。
  11. 前記表示制御部は、前記位置関係に基づいて、前記第1の仮想オブジェクトが有する前記視覚的特徴を制御する、請求項10に記載の情報処理装置。
  12. 前記表示制御部は、前記位置関係に基づいて、前記第1の仮想オブジェクトが前記第2の仮想オブジェクトの少なくとも一部を遮蔽するように、前記第1の仮想オブジェクト、及び前記第2の仮想オブジェクトを表示させる場合に、前記第1の仮想オブジェクトのうち前記第2の仮想オブジェクトを遮蔽する第1の領域が第1の視覚的特徴を有し、前記第1の仮想オブジェクトのうち前記第1の領域を除く第2の領域が前記第1の視覚的特徴とは異なる第2の視覚的特徴を有するように、前記視覚的特徴を制御する、請求項11に記載の情報処理装置。
  13. 前記表示制御部は、前記第1の仮想オブジェクトが前記実オブジェクトと略同一の形状を有し、かつ前記実オブジェクトと略同一の位置に視認されるように前記第1の仮想オブジェクトの全体を表示可能か否かに基づいて、前記第1の仮想オブジェクトが有する前記視覚的特徴を制御する、請求項1に記載の情報処理装置。
  14. 前記表示制御部は、前記実空間におけるユーザの視線に関する視線情報に基づいて、前記第1の仮想オブジェクトが有する前記視覚的特徴を制御する、請求項1に記載の情報処理装置。
  15. 前記表示制御部は、前記視線情報に基づいて特定される前記実空間における前記ユーザの注視領域に基づいて、前記第1の仮想オブジェクトのうち前記注視領域に対応する第3の領域が第3の視覚的特徴を有し、前記第1の仮想オブジェクトのうち前記第3の領域を除く第4の領域が前記第3の視覚的特徴とは異なる第4の視覚的特徴を有するように、前記視覚的特徴を制御する、請求項14に記載の情報処理装置。
  16. 前記第3の視覚的特徴は、前記実オブジェクトのテクスチャに応じたテクスチャを含む、請求項15に記載の情報処理装置。
  17. 前記表示制御部は、光学的透過性を有する表示部による表示を制御する、請求項1に記載の情報処理装置。
  18. 前記表示制御部は、ユーザから見て、前記第1の仮想オブジェクトが前記実オブジェクトに重畳されるように前記表示部を制御する、
    請求項17に記載の情報処理装置。
  19. 実空間の色情報に応じた視覚的特徴を有し、かつ前記実空間に存在する実オブジェクトと略同一の形状を有する第1の仮想オブジェクトを、前記実オブジェクトと略同一の位置に視認されるように、前記実空間にプロセッサが表示させること、を含む情報処理方法。
  20. コンピュータに、
    実空間の色情報に応じた視覚的特徴を有し、かつ前記実空間に存在する実オブジェクトと略同一の形状を有する第1の仮想オブジェクトを、前記実オブジェクトと略同一の位置に視認されるように、前記実空間に表示させる機能を、実現させるための、プログラム。
JP2017175989A 2017-09-13 2017-09-13 情報処理装置、情報処理方法、及びプログラム Pending JP2019053423A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017175989A JP2019053423A (ja) 2017-09-13 2017-09-13 情報処理装置、情報処理方法、及びプログラム
CN201880058233.3A CN111095364A (zh) 2017-09-13 2018-06-22 信息处理装置、信息处理方法和程序
EP18855888.6A EP3683774A4 (en) 2017-09-13 2018-06-22 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
US16/644,258 US20200202161A1 (en) 2017-09-13 2018-06-22 Information processing apparatus, information processing method, and program
KR1020207005123A KR20200051591A (ko) 2017-09-13 2018-06-22 정보 처리 장치, 정보 처리 방법, 및 프로그램
PCT/JP2018/023842 WO2019053997A1 (ja) 2017-09-13 2018-06-22 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017175989A JP2019053423A (ja) 2017-09-13 2017-09-13 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2019053423A true JP2019053423A (ja) 2019-04-04

Family

ID=65723332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017175989A Pending JP2019053423A (ja) 2017-09-13 2017-09-13 情報処理装置、情報処理方法、及びプログラム

Country Status (6)

Country Link
US (1) US20200202161A1 (ja)
EP (1) EP3683774A4 (ja)
JP (1) JP2019053423A (ja)
KR (1) KR20200051591A (ja)
CN (1) CN111095364A (ja)
WO (1) WO2019053997A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181456A (ja) * 2019-04-26 2020-11-05 富士通株式会社 作業支援装置及び作業支援方法
WO2021131781A1 (ja) * 2019-12-26 2021-07-01 ソニーグループ株式会社 表示制御装置、表示制御方法、及び、記録媒体
WO2021186581A1 (ja) * 2020-03-17 2021-09-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2023504030A (ja) * 2020-09-09 2023-02-01 北京字跳▲網▼絡技▲術▼有限公司 拡張現実に基づいた表示方法及び装置、並びに記憶媒体

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031259A1 (ja) * 2017-08-08 2019-02-14 ソニー株式会社 画像処理装置および方法
EP3973512A1 (en) * 2019-05-22 2022-03-30 PCMS Holdings, Inc. Method for rendering of augmented reality content in combination with external display
JP7256111B2 (ja) * 2019-11-29 2023-04-11 サトーホールディングス株式会社 情報処理装置、情報処理システム、プログラム
JP6875029B1 (ja) * 2020-05-28 2021-05-19 株式会社Spacial 方法、プログラム、情報処理装置
WO2023113771A1 (en) * 2021-12-13 2023-06-22 Hewlett-Packard Development Company, L.P. Noise cancellation for electronic devices

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234549A (ja) * 2003-01-31 2004-08-19 Canon Inc 現実物体モデル作成方法
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
CN105103198A (zh) 2013-04-04 2015-11-25 索尼公司 显示控制装置、显示控制方法以及程序

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181456A (ja) * 2019-04-26 2020-11-05 富士通株式会社 作業支援装置及び作業支援方法
WO2021131781A1 (ja) * 2019-12-26 2021-07-01 ソニーグループ株式会社 表示制御装置、表示制御方法、及び、記録媒体
WO2021186581A1 (ja) * 2020-03-17 2021-09-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP7454648B2 (ja) 2020-03-17 2024-03-22 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US11948483B2 (en) 2020-03-17 2024-04-02 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
JP2023504030A (ja) * 2020-09-09 2023-02-01 北京字跳▲網▼絡技▲術▼有限公司 拡張現実に基づいた表示方法及び装置、並びに記憶媒体
JP7422876B2 (ja) 2020-09-09 2024-01-26 北京字跳▲網▼絡技▲術▼有限公司 拡張現実に基づいた表示方法及び装置、並びに記憶媒体
US11989845B2 (en) 2020-09-09 2024-05-21 Beijing Zitiao Network Technology Co., Ltd. Implementation and display of augmented reality

Also Published As

Publication number Publication date
EP3683774A4 (en) 2021-02-17
US20200202161A1 (en) 2020-06-25
WO2019053997A1 (ja) 2019-03-21
KR20200051591A (ko) 2020-05-13
CN111095364A (zh) 2020-05-01
EP3683774A1 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
JP2019053423A (ja) 情報処理装置、情報処理方法、及びプログラム
CN111602140B (zh) 分析由头戴式设备的相机记录的图像中的对象的方法
KR102623391B1 (ko) 영상 출력 방법 및 이를 지원하는 전자 장치
CN109074681B (zh) 信息处理装置、信息处理方法和程序
US10412379B2 (en) Image display apparatus having live view mode and virtual reality mode and operating method thereof
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
WO2016157677A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7176520B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11288869B2 (en) Information processing device, and information processing method
WO2019171802A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7400721B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2019021566A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7156301B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR20200031098A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
WO2019150668A1 (ja) 画像処理装置、画像処理方法、及びプログラム
CN114416237A (zh) 显示状态切换方法、装置及系统、电子设备、存储介质
CN107958478B (zh) 虚拟现实场景中物体的渲染方法和虚拟现实头戴设备
US11240482B2 (en) Information processing device, information processing method, and computer program
US20190114474A1 (en) Visual perception assistant
CN111566597A (zh) 信息处理设备、信息处理方法和程序