JP5790692B2 - 情報処理装置、情報処理方法および記録媒体 - Google Patents

情報処理装置、情報処理方法および記録媒体 Download PDF

Info

Publication number
JP5790692B2
JP5790692B2 JP2013072689A JP2013072689A JP5790692B2 JP 5790692 B2 JP5790692 B2 JP 5790692B2 JP 2013072689 A JP2013072689 A JP 2013072689A JP 2013072689 A JP2013072689 A JP 2013072689A JP 5790692 B2 JP5790692 B2 JP 5790692B2
Authority
JP
Japan
Prior art keywords
real
size
information processing
control unit
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013072689A
Other languages
English (en)
Other versions
JP2014197317A5 (ja
JP2014197317A (ja
Inventor
辰吾 鶴見
辰吾 鶴見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013072689A priority Critical patent/JP5790692B2/ja
Priority to US14/169,223 priority patent/US9665982B2/en
Priority to CN201410108370.7A priority patent/CN104077024A/zh
Priority to CN201910323652.1A priority patent/CN110262706B/zh
Publication of JP2014197317A publication Critical patent/JP2014197317A/ja
Publication of JP2014197317A5 publication Critical patent/JP2014197317A5/ja
Application granted granted Critical
Publication of JP5790692B2 publication Critical patent/JP5790692B2/ja
Priority to US15/584,617 priority patent/US10198146B2/en
Priority to US16/265,423 priority patent/US11188187B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理装置、情報処理方法および記録媒体に関する。
近年、実空間に付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに呈示される情報は、テキスト、アイコンまたはアニメーションなどの様々な形態の仮想的なオブジェクトを用いて可視化され得る。AR空間へのアノテーションの配置は、通常、画像に映る実空間の3次元構造の認識に基づいて行われる。
実空間の3次元構造を認識するための手法としては、例えば、SfM(Structure from Motion)法およびSLAM(Simultaneous Localization And Mapping)法が知られている。SfM法では、視点を変えながら撮像される複数の画像から、それら画像に映る実空間の3次元構造が視差を利用して認識される。SLAM法についての説明は、下記非特許文献1においてなされている。下記特許文献1は、SLAM法において初期化の際に選択される特徴点の3次元位置をSfM法を用いて認識する手法を開示している。
特開2009−237845号公報
Andrew J.Davison,"Real−Time Simultaneous Localization and Mapping with a Single Camera",Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403−1410
一般的に、実空間に付加される仮想オブジェクトの制御は、実オブジェクトの画像におけるサイズに基づいてなされ得る。しかし、実オブジェクトの画像におけるサイズは撮像部と実オブジェクトとの距離などに応じて変化し得る。そのため、実オブジェクトの画像におけるサイズを考慮しただけでは、実オブジェクトの実空間におけるサイズを十分に考慮したとは言えない。
そこで、本開示において、実オブジェクトの実空間におけるサイズを考慮して仮想オブジェクトの制御を行うことを可能とする技術を提供する。
本開示によれば、撮像部により撮像された画像を取得する画像取得部と、前記画像に映る実オブジェクトの認識結果に応じて、仮想オブジェクトを表示させる表示制御部と、を備え、前記表示制御部は、前記実オブジェクトの実空間におけるサイズに基づいて、前記仮想オブジェクトを制御する、情報処理装置が提供される。
また、本開示によれば、撮像部により撮像された画像を取得することと、前記画像に映る実オブジェクトの認識結果に応じて仮想オブジェクトを表示させることと、前記実オブジェクトの実空間におけるサイズに基づいて、前記仮想オブジェクトを制御することと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータを、撮像部により撮像された画像を取得する画像取得部と、前記画像に映る実オブジェクトの認識結果に応じて仮想オブジェクトを表示させる表示制御部と、を備え、前記表示制御部は、前記実オブジェクトの実空間におけるサイズに基づいて、前記仮想オブジェクトを制御する、情報処理装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体が提供される。
以上説明したように本開示によれば、実オブジェクトの実空間におけるサイズを考慮して仮想オブジェクトの制御を行うことが可能である。
本開示の第1の実施形態に係る情報処理装置の概要について説明するための図である。 本開示の第1の実施形態に係る情報処理装置の機能構成例を示す図である。 撮像部により撮像された画像から実オブジェクトを認識する手法の例を説明するための図である。 実空間におけるサイズが異なる2種類の実オブジェクトそれぞれを認識する場合について説明するための図である。 実オブジェクトの実空間におけるサイズに基づいて仮想オブジェクトを選択する例を示す図である。 実オブジェクトの実空間におけるサイズに基づいて仮想オブジェクトの動きを制御する例を示す図である。 実オブジェクトの実空間におけるサイズに基づいて仮想オブジェクトの画像におけるサイズを制御する例を示す図である。 本開示の第1の実施形態に係る情報処理装置の動作の流れの例を示すフローチャートである。 本開示の第2の実施形態に係る情報処理装置の機能構成例を示す図である。 実オブジェクトの実空間におけるサイズを算出する手法の例を説明するための図である。 実オブジェクトの実空間におけるサイズを算出する手法の例を説明するための図である。 実オブジェクトの実空間におけるサイズを算出する手法の例を説明するための図である。 実オブジェクトと床面との間の実空間における距離に基づいて仮想オブジェクトを制御する例を示す図である。 重力方向と所定の物体の姿勢との関係に基づいて仮想オブジェクトを制御する例を示す図である。 所定の物体の姿勢と床面の姿勢との関係に基づいて仮想オブジェクトを制御する例を示す図である。 本開示の第2の実施形態に係る情報処理装置の動作の流れの例を示すフローチャートである。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.情報処理装置の概要
2.第1の実施形態
2−1.情報処理装置の機能構成例
2−2.実オブジェクトの認識手法
2−3.表示制御の例
2−4.情報処理装置の動作例
3.第2の実施形態
3−1.情報処理装置の機能構成例
3−2.実オブジェクトの実空間におけるサイズ
3−3.表示制御の例
3−4.情報処理装置の動作例
4.ハードウェア構成例
5.むすび
<<1.情報処理装置の概要>>
最初に、本開示の実施形態に係る情報処理装置10の概要について説明する。図1は、本開示の実施形態に係る情報処理装置10の概要について説明するための図である。図1を参照すると、ユーザUaが有する情報処理装置10が示されている。情報処理装置10は、実空間Eに向けられた撮像部120と操作部140と表示部160とを備える。撮像部120は、実空間Eを撮像することによって画像を生成する。
図1に示した例では、表示部160は、撮像部120によって撮像された画像Imを表示している。ユーザUaは表示部160によって表示された画像Imに視点を当てることにより実空間Eを把握することが可能である。しかし、画像Imは必ずしも表示部160によって表示されなくてもよい。例えば、表示部160が透過型HMD(head mounted display)である場合には、表示部160によって画像Imは表示されず、ユーザUaは、画像Imの代わりに実空間Eに直接視点を当ててもよい。
また、画像Imには、実オブジェクトAが映っている。例えば、画像Imから実オブジェクトAが認識されると、情報処理装置10は、実オブジェクトAの認識結果に基づいて、仮想オブジェクトを実空間Eに対応するAR空間に配置する。そうすれば、ユーザUaは、情報処理装置10によってAR空間に配置された仮想オブジェクトを、表示部160を介して閲覧することができる。実オブジェクトAの認識は、情報処理装置10によってなされてもよいし、情報処理装置10とは異なる装置(例えば、サーバなど)によってなされてもよい。
ここで、一般的に、実空間Eに付加される仮想オブジェクトの制御は、実オブジェクトAの画像Imにおけるサイズに基づいてなされ得る。しかし、実オブジェクトAの画像Imにおけるサイズは撮像部120と実オブジェクトAとの距離などに応じて変化し得る。そのため、実オブジェクトAの画像Imにおけるサイズを考慮しただけでは、実オブジェクトAの実空間Eにおけるサイズを十分に考慮したとは言えない。
そこで、本開示において、実オブジェクトAの実空間Eにおけるサイズを考慮して仮想オブジェクトの制御を行うことを可能とする技術を提案する。本開示の第1の実施形態においては、実オブジェクトAの実空間Eにおけるサイズが既知である場合、本開示の第2の実施形態においては、実オブジェクトAの実空間Eにおけるサイズを算出する場合について主に説明する。
なお、以下の説明においては、情報処理装置10がカメラ機能付きのスマートフォンに適用される場合を例として説明するが、情報処理装置10は、スマートフォン以外の装置に適用されてもよい。例えば、情報処理装置10は、ビデオカメラ、デジタルカメラ、PDA(Personal Digital Assistants)、PC(Personal Computer)、携帯電話、携帯用音楽再生装置、携帯用映像処理装置、携帯用ゲーム機器、望遠鏡、双眼鏡等に適用されてもよい。
以上、本開示の実施形態に係る情報処理装置10の概要について説明した。続いて、本開示の第1の実施形態および本開示の第2の実施形態について順に説明する。なお、本開示の第1の実施形態および本開示の第2の実施形態それぞれにおいて説明する情報処理装置10の機能は、すべてが組み合わされて用いられてもよいし、一部のみが組み合わされて用いられてもよい。
<<2.第1の実施形態>>
続いて、本開示の第1の実施形態について説明する。
[2−1.情報処理装置の機能構成例]
まず、本開示の第1の実施形態に係る情報処理装置10Aの機能構成例について説明する。図2は、本開示の第1の実施形態に係る情報処理装置10Aの機能構成例を示す図である。図2に示すように、情報処理装置10Aは、制御部110、撮像部120、センサ部130、操作部140、記憶部150および表示部160を備える。
制御部110は、例えば、CPU(Central Processing Unit)またはDSP(Digital Signal Processor)などのプロセッサに相当する。制御部110は、記憶部150または他の記憶媒体に記憶されるプログラムを実行することにより、制御部110が有する様々な機能を発揮する。制御部110は、画像取得部111、画像認識部113および表示制御部115などの各機能ブロックを有する。これら各機能ブロックが有する機能については後に説明する。
撮像部120は、画像Imを撮像するカメラモジュールである。撮像部120は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間Eを撮像し、画像Imを生成する。撮像部120により生成される画像Imは、制御部110に出力される。なお、図2に示した例では、撮像部120は情報処理装置10Aと一体化されているが、撮像部120は、情報処理装置10Aと別体に構成されていてもよい。例えば、情報処理装置10Aと有線または無線で接続される撮像装置が撮像部120として扱われてもよい。
センサ部130は、センサデータを取得する。例えば、センサ部130は、3軸加速度センサを含む。3軸加速度センサは、撮像部120に加わる重力加速度を測定し、重力加速度の大きさおよび方向を3次元的に表すセンサデータ(加速度データ)を生成する。追加的に、センサ部130は、地磁気センサを含んでもよい。地磁気センサは、撮像部120の座標系における地磁気の方向を表すセンサデータ(地磁気データ)を生成する。さらに、センサ部130は、測位センサ(例えば、GPS(Global Positioning System)センサ)を含んでもよい。測位センサは、実空間における情報処理装置10Aの緯度および経度を表すセンサデータ(測位データ)を生成する。なお、図2に示した例では、センサ部130は情報処理装置10Aと一体化されているが、センサ部130は、情報処理装置10Aと別体に構成されていてもよい。
操作部140は、ユーザによる操作を検出して制御部110に出力する。本明細書においては、操作部140がタッチパネルにより構成される場合を想定しているため、ユーザによる操作はタッチパネルをタップする操作に相当する。しかし、操作部140はタッチパネル以外のハードウェア(例えば、ボタン等)により構成されていてもよい。なお、図2に示した例では、操作部140は情報処理装置10Aと一体化されているが、操作部140は、情報処理装置10Aと別体に構成されていてもよい。
記憶部150は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部110を動作させるためのプログラムを記憶する。また、例えば、記憶部150は、プログラムによって使用される各種のデータ(例えば、各種のセンサデータ、仮想オブジェクトなど)を記憶することもできる。なお、図2に示した例では、記憶部150は情報処理装置10Aと一体化されているが、記憶部150は情報処理装置10Aと別体に構成されていてもよい。
表示部160は、表示制御部115による制御に従って、各種情報の表示を行う。表示部160は、例えば、情報処理装置10Aにより生成されるARアプリケーションの画像を表示する。表示部160は、例えば、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイ装置などにより構成される。なお、図2に示した例では、表示部160は情報処理装置10Aと一体化されているが、表示部160は情報処理装置10Aと別体に構成されていてもよい。例えば、情報処理装置10Aと有線または無線で接続される表示装置が表示部160として扱われてもよい。
以上、本開示の第1の実施形態に係る情報処理装置10Aの機能構成例について説明した。
[2−2.実オブジェクトの認識手法]
まず、実オブジェクトAを認識する手法について説明する。図3は、撮像部120により撮像された画像Imから実オブジェクトAを認識する手法の例を説明するための図である。図3を参照すると、撮像部120によって撮像された画像Imには、実オブジェクトAが映っている。また、画像認識部113によって実オブジェクトAが認識され、認識結果に応じた仮想オブジェクトが表示制御部115によって実空間に対応するAR空間に配置される。
より詳細には、画像認識部113によって実オブジェクトAの位置および姿勢が認識されると、表示制御部115は、実オブジェクトAの位置に従って仮想オブジェクトの位置を特定するとともに実オブジェクトAの姿勢に従って仮想オブジェクトの姿勢を特定し、特定した位置および姿勢に従って仮想オブジェクトを配置する。実オブジェクトAの位置と仮想オブジェクトの位置との関係は、あらかじめ定められていてよい。また、実オブジェクトAの姿勢と仮想オブジェクトの姿勢との関係もあらかじめ定められていてよい。
例えば、画像認識部113は、画像Imに含まれる部分画像と、特徴データに含まれる各特徴点のパッチとを照合し、画像Imに含まれる特徴点を検出する。画像認識部113は、画像Im内のある領域に実オブジェクトAに属する特徴点が高い密度で検出された場合には、その領域に実オブジェクトAが映っていると認識し得る。画像認識部113は、検出された特徴点の間の位置関係と3次元形状データとに基づいて、認識された実オブジェクトAの位置および姿勢をさらに認識し得る。
図3に示した例では、床面の上に台が設置されており、台の上にテレビジョン装置が実オブジェクトAの例として存在している。しかし、実オブジェクトAの種類は特に限定されない。図3を参照すると、実オブジェクトAの実空間EにおけるサイズがサイズZarとして示され、実オブジェクトAの画像ImにおけるサイズがサイズZaiとして示されている。なお、図3に示した例では、実オブジェクトAの縦の長さを実オブジェクトAのサイズとしているが、実オブジェクトAのサイズは実オブジェクトAの縦の長さ以外の部分の長さであってもよい。
ここで、ユーザUaが撮像部120を実オブジェクトAにかざし、画像認識部113によって実オブジェクトAが認識されると、認識結果に応じた仮想オブジェクトが、表示制御部115によって実空間Eに対応するAR空間に配置される。そのとき、仮想オブジェクトの制御に際しては、一般的には、実オブジェクトAの実空間EにおけるサイズZarではなく、実オブジェクトAの画像ImにおけるサイズZaiが考慮される。
図4は、実空間Eにおけるサイズが異なる2種類の実オブジェクトAそれぞれを認識する場合について説明するための図である。図4を参照すると、実空間E1には実オブジェクトA1が存在しており、実オブジェクトA1の実空間E1におけるサイズはサイズZar1であり、画像認識部113によって実オブジェクトA1の画像Im10におけるサイズはサイズZai1として認識されている。
一方、実空間E2には実オブジェクトA2が存在しており、実オブジェクトA2の実空間E2におけるサイズはサイズZar2であり、画像認識部113によって実オブジェクトA2の画像Im20におけるサイズはサイズZai2として認識されている。例えば、図4を参照すると、実オブジェクトA1の画像Im10におけるサイズZar1は実オブジェクトA2の画像Im20におけるサイズZar2と同程度となっている。
しかし、実際には、撮像部120と実オブジェクトA1との間の距離は、撮像部120と実オブジェクトA2との間の距離よりも長い。その代わりに、実オブジェクトA1の実空間E1におけるサイズZar1は、実オブジェクトA2の実空間E2におけるサイズZar2よりも大きい。このように、実オブジェクトAの画像Imにおけるサイズからだけでは、実オブジェクトAの実空間Eにおけるサイズが直接的には把握され得ないのが通例である。
そこで、本開示の第1の実施形態においては、画像取得部111は、撮像部120により撮像された画像Imを取得し、表示制御部115は、画像Imに映る実オブジェクトAの認識結果に応じて、仮想オブジェクトを表示させる。そのとき、表示制御部115は、実オブジェクトAの実空間Eにおけるサイズに基づいて、仮想オブジェクトを制御する。かかる構成により、実オブジェクトAの実空間Eにおけるサイズを考慮して仮想オブジェクトの制御を行うことが可能となる。
本開示の第1の実施形態においては、表示制御部115は、実オブジェクトAの実空間Eにおけるサイズを取得することが可能である。実オブジェクトAの実空間Eにおけるサイズは、記憶部150にあらかじめ登録されていてもよいし、操作部140を介してユーザから入力されてもよいし、他の装置から受信されてもよい。
[2−3.表示制御の例]
ここで、仮想オブジェクトの制御の手法としては、様々な手法を採用することが可能である。図5は、実オブジェクトAの実空間Eにおけるサイズに基づいて仮想オブジェクトを選択する例を示す図である。まず、図5を参照しながら、実オブジェクトAの実空間Eにおけるサイズに基づいて仮想オブジェクトを選択する例について説明する。
図5を参照すると、図4に示した場合と同様に、実オブジェクトA1の実空間E1におけるサイズはサイズZar1である。表示制御部115は、実オブジェクトA1の実空間E1におけるサイズZar1に応じた仮想オブジェクトV11を選択してよい。例えば、表示制御部115は、実オブジェクトA1の実空間E1におけるサイズZar1が所定の閾値を上回る場合には、仮想オブジェクトV11を選択してよい。仮想オブジェクトV11は特に限定されない。
一方、図5を参照すると、図4に示した場合と同様に、実オブジェクトA2の実空間E2におけるサイズはサイズZar2である。表示制御部115は、実オブジェクトA2の実空間E2におけるサイズZar2に応じた仮想オブジェクトV21を選択してよい。例えば、表示制御部115は、実オブジェクトA2の実空間E2におけるサイズZar2が所定の閾値を下回る場合には、仮想オブジェクトV21を選択してよい。仮想オブジェクトV21は特に限定されない。
以上、実オブジェクトAの実空間Eにおけるサイズに基づいて仮想オブジェクトを選択する例について説明したが、表示制御部115は、実オブジェクトAの実空間Eにおけるサイズに応じて、仮想オブジェクトの表示態様を制御してもよい。例えば、表示制御部115は、実オブジェクトAの実空間におけるサイズに応じて、仮想オブジェクトの動きを制御してもよい。
図6は、実オブジェクトAの実空間Eにおけるサイズに基づいて仮想オブジェクトの動きを制御する例を示す図である。図6を参照しながら、実オブジェクトAの実空間Eにおけるサイズに基づいて仮想オブジェクトの動きを制御する例について説明する。
図6を参照すると、図4に示した場合と同様に、実オブジェクトA1の実空間E1におけるサイズはサイズZar1である。表示制御部115は、実オブジェクトA1の実空間E1におけるサイズZar1に基づいて仮想オブジェクトV12の動きを制御してよい。例えば、表示制御部115は、実オブジェクトA1の実空間E1におけるサイズZar1が所定の閾値を上回る場合には、仮想オブジェクトV12が所定の第1の動きを示すように制御してもよい。所定の第1の動きは特に限定されないが、図6に示した例では、仮想オブジェクトV12が実オブジェクトA1から飛び出してくるような動きに相当している。
一方、図6を参照すると、図4に示した場合と同様に、実オブジェクトA2の実空間E2におけるサイズはサイズZar2である。表示制御部115は、実オブジェクトA2の実空間E2におけるサイズZar2に基づいて仮想オブジェクトV22の動きを制御してよい。例えば、表示制御部115は、実オブジェクトA2の実空間E2におけるサイズZar2が所定の閾値を下回る場合には、仮想オブジェクトV2が所定の第2の動きを示すように制御してもよい。所定の第2の動きは特に限定されないが、図6に示した例では、仮想オブジェクトV22が実オブジェクトA1に留まっているような動きに相当している。
また、例えば、表示制御部115は、実オブジェクトAの実空間Eにおけるサイズに応じて、仮想オブジェクトの画像Imにおけるサイズを制御してもよい。例えば、表示制御部115は、実オブジェクトAの実空間Eにおけるサイズが大きいほど、仮想オブジェクトの画像Imにおけるサイズが大きくなるように仮想オブジェクトの画像Imにおけるサイズを制御してもよい。
図7は、実オブジェクトAの実空間Eにおけるサイズに基づいて仮想オブジェクトの画像Imにおけるサイズを制御する例を示す図である。図7を参照しながら、実オブジェクトAの実空間Eにおけるサイズに基づいて仮想オブジェクトの画像Imにおけるサイズを制御する例について説明する。
図7を参照すると、図4に示した場合と同様に、実オブジェクトA1の実空間E1におけるサイズはサイズZar1である。図4に示した場合と同様に、実オブジェクトA2の実空間E2におけるサイズはサイズZar2である。表示制御部115は、実オブジェクトA1の実空間E1におけるサイズZar1の方が実オブジェクトAの実空間E2におけるサイズZar2よりも大きいため、仮想オブジェクトV13の画像Im13におけるサイズを仮想オブジェクトV23の画像Im23におけるサイズよりも大きくしてもよい。
以上、実オブジェクトAの実空間Eにおけるサイズに基づいて仮想オブジェクトの表示態様を制御する例について説明した。なお、表示制御部115は、実オブジェクトAの実空間Eにおけるサイズに基づいて実オブジェクトAの実空間Eにおける位置を算出することも可能である。具体的には、表示制御部115は、実オブジェクトAの画像Imにおける位置と実オブジェクトAの画像Imにおけるサイズに対する実オブジェクトAの実空間Eにおけるサイズの割合とに基づいて、実オブジェクトAの実空間Eにおける位置を算出し得る。
表示制御部115は、このようにして算出した実オブジェクトAの実空間Eにおける位置に基づいて仮想オブジェクトを制御してもよい。あるいは、表示制御部115は、実オブジェクトAの実空間Eにおける位置に基づいて撮像部120と実オブジェクトAとの距離を算出することも可能である。したがって、表示制御部115は、撮像部120と実オブジェクトAとの距離に基づいて、仮想オブジェクトを制御してもよい。仮想オブジェクトの制御の手法は、上記したように、実オブジェクトAの実空間Eにおけるサイズに基づいて仮想オブジェクトを制御する場合と同様になされてもよい。
[2−4.情報処理装置の動作例]
続いて、本開示の第1の実施形態に係る情報処理装置10Aの動作の流れの例について説明する。図8は、本開示の第1の実施形態に係る情報処理装置10Aの動作の流れの例を示すフローチャートである。まず、撮像部120により画像が撮像され、画像取得部111によって画像が取得されると、画像認識部113は、画像取得部111により取得された画像から実オブジェクトAを認識する(S11)。表示制御部115は、実オブジェクトAの認識結果に応じた仮想オブジェクトを特定し(S12)、実オブジェクトAの実空間Eにおけるサイズを取得する(S13)。
続いて、表示制御部115は、実オブジェクトAの実空間Eにおけるサイズに基づいて仮想オブジェクトを制御し(S14)、仮想オブジェクトを表示させる(S15)。例えば、表示制御部115は、画像認識部113によって実オブジェクトAの位置および姿勢が認識された場合には、認識された位置および姿勢に応じた位置および姿勢により仮想オブジェクトを表示させてもよい。
以上、本開示の第1の実施形態に係る情報処理装置10Aの動作の流れの例について説明した。
<<3.第2の実施形態>>
続いて、本開示の第2の実施形態について説明する。本開示の第1の実施形態においては、実オブジェクトAの実空間Eにおけるサイズが既知である場合について説明したが、本開示の第2の実施形態においては、実オブジェクトAの実空間Eにおけるサイズを算出する場合について主に説明する。
[3−1.情報処理装置の機能構成例]
続いて、本開示の第2の実施形態に係る情報処理装置10Bの機能構成例について説明する。図9は、本開示の第2の実施形態に係る情報処理装置10Bの機能構成例を示す図である。図9に示すように、情報処理装置10Bは、制御部110、撮像部120、センサ部130、操作部140、記憶部150および表示部160を備える。制御部110は、画像取得部111、センサデータ取得部112、画像認識部113、環境認識部114および表示制御部115などの各機能ブロックを有する。これら各機能ブロックが有する機能については後に説明する。
[3−2.実オブジェクトの実空間におけるサイズ]
まず、実オブジェクトAの実空間Eにおける位置を算出する手法について説明する。図10〜図12は、実オブジェクトAの実空間Eにおけるサイズを算出する手法の例を説明するための図である。図10を参照すると、物体Bが床面Fに載置されている。図10には、物体Bの実空間EにおけるサイズがサイズZbrとして示されており、物体Bの実空間EにおけるサイズZbrは既知である。したがって、物体Bの実空間EにおけるサイズZbrは、記憶部150にあらかじめ登録されていてもよいし、操作部140を介してユーザUaから入力されてもよい。
なお、物体BがDVD(Digital Versatile Disk)のパッケージである場合を例として主に説明するが、物体Bは所定の物体の一例に過ぎないため、DVDのパッケージ以外の物体であってもよい。また、以下では、物体Bが床面Fに載置されている場合を例として主に説明するが、物体Bは床面Fに載置されていなくてもよい。また、物体Bが床面Fに載置される場合であっても、床面Fは、所定の平面の一例に過ぎないため、物体Bは床面F以外の平面に載置されていてもよい。
ユーザUaが撮像部120を実空間Eにかざすと、撮像部120によって画像Im1が撮像され、画像認識部113は、画像Im1から物体Bを認識する。具体的には、画像認識部113は、物体Bの画像Im1におけるサイズZbiと物体Bの画像Im1における位置Pbiと物体Bの姿勢Qbrとを認識する。表示制御部115は、物体Bの実空間EにおけるサイズZbrと物体Bの画像Im1におけるサイズZbiと物体Bの画像Im1における位置Pbiとに基づいて、物体Bの実空間Eにおける位置Pbrを算出する。
表示制御部115は、物体Bの実空間Eにおける位置Pbrおよび物体Bの姿勢Qbrに基づいて、床面Fの実空間Eにおける位置Pfrおよび床面Fの姿勢Qfrを特定することが可能である。例えば、表示制御部115は、物体Bの実空間Eにおける位置Pbrを床面Fの実空間Eにおける位置Pfrとし、物体Bの姿勢Qbrを床面Fの姿勢Qfrとして特定することが可能である。
なお、物体Bの実空間Eにおける位置Pbrを特定した旨は、ユーザUaに知らせることができるとよい。例えば、表示制御部115は、物体Bの実空間Eにおける位置Pbrを特定した旨を表示させてもよい。図10に示した例では、物体Bの実空間Eにおける位置Pbrを特定した旨が「サイズが既知の物体を認識しました。」といったメッセージMとして示されているが、物体Bの実空間Eにおける位置Pbrを特定した旨は、かかる例に限定されない。
続いて、ユーザUaが撮像部120に実オブジェクトAを撮像させるために、撮像部120の位置および姿勢を変化させることがあり得る。そのため、表示制御部115は、撮像部120の位置および姿勢を追跡し、その追跡結果に基づいて物体Bの位置および姿勢を追跡するとよい。表示制御部115は、どのような手法によって撮像部120の位置および姿勢を追跡してもよいが、例えば、図11に示すように、環境認識部114による環境認識の結果に基づいて、撮像部120の位置および姿勢を追跡してもよい。
環境認識部114による環境認識としては、SLAM法に従った演算を用いることが可能である。SLAM法に従った演算によれば、撮像部120により撮像される画像に映る実空間Eの三次元構造と撮像部120の位置および姿勢とを動的に認識することが可能である。SLAM法の状態変数の初期化には、物体Bの実空間Eにおける位置Pbrおよび物体Bの姿勢Qbrが利用され得る。
続いて、表示制御部115は、画像認識部113による物体Bの認識結果、環境認識部114による環境認識の結果および画像認識部113による実オブジェクトAの認識結果に基づいて、実オブジェクトAの実空間Eにおける位置Parを算出し得る。具体的には、表示制御部115は、画像認識部113によって実オブジェクトAが認識された場合には、画像認識部113により認識される特徴点と環境認識の結果として得られる特徴点とを照合し、照合の結果として実オブジェクトAの実空間Eにおける位置Parを算出し得る。
また、表示制御部115は、このようにして算出した実オブジェクトAの実空間Eにおける位置Parと実オブジェクトAの画像Im3におけるサイズZaiと物体Bの実空間Eにおける位置Pbrとに基づいて、実オブジェクトAの実空間EにおけるサイズZarを算出することも可能である。
以上、実オブジェクトAの実空間Eにおける位置を算出する手法について説明した。
[3−3.表示制御の例]
続いて、仮想オブジェクトの表示制御の例について説明する。上記したように、床面Fの位置および姿勢が特定されるため、表示制御部115は、実オブジェクトAと床面Fとの間の実空間Eにおける距離に基づいて、仮想オブジェクトを制御することが可能である。図13は、実オブジェクトAと床面Fとの間の実空間Eにおける距離に基づいて仮想オブジェクトを制御する例を示す図である。
図13を参照すると、実オブジェクトA1と床面Fとの間の実空間E1における距離が距離Har1として示されている。表示制御部115は、実オブジェクトA1の実空間E1における位置Parと床面Fの位置Pfrおよび姿勢Qfrに基づいて、実オブジェクトA1と床面Fとの間の実空間E1における距離Har1を算出することが可能である。表示制御部115は、実オブジェクトA1の実空間E1におけるサイズに応じた仮想オブジェクトV14を距離Har1に応じて調整することが可能である。
例えば、表示制御部115は、実オブジェクトA1の実空間E1におけるサイズに応じた仮想オブジェクトV14の位置を実空間E1において距離Har1だけ床面Fに近づけることが可能である。そうすれば、図13に示すように、表示制御部115は、床面Fに接して存在するのが正常な状態である仮想オブジェクトV14の配置を正常に行うことが可能となる。
また、図13を参照すると、実オブジェクトA2と床面Fとの間の実空間E2における距離が距離Har2として示されている。表示制御部115は、実オブジェクトA2の実空間E2における位置Par2と床面Fの位置Pfrおよび姿勢Qfrに基づいて、実オブジェクトA2と床面Fとの間の実空間E2における距離Har2を算出することが可能である。表示制御部115は、実オブジェクトA2の実空間E2におけるサイズに応じた仮想オブジェクトV24を距離Har2に応じて調整することが可能である。
例えば、表示制御部115は、実オブジェクトA2の実空間E2におけるサイズに応じた仮想オブジェクトV24の位置を実空間E2において距離Har2だけ床面Fに近づけることが可能である。そうすれば、図13に示すように、表示制御部115は、床面Fに接して存在するのが正常な状態である仮想オブジェクトV24の配置を正常に行うことが可能となる。
なお、図13に示した例では、実オブジェクトA1の実空間E1におけるサイズに応じて仮想オブジェクトV14の画像Im14におけるサイズが制御されている。同様に、図13に示した例では、実オブジェクトA2の実空間E2におけるサイズに応じて仮想オブジェクトV24の画像Im24におけるサイズが制御されている。仮に、AR空間に仮想オブジェクトが実物大で配置された場合には、ユーザUaに対して仮想オブジェクトの大きさをよりリアルに感じさせることが可能となる。
そこで、AR空間に仮想オブジェクトが実物大で配置されるように、表示制御部115は、実オブジェクトAの実空間Eにおけるサイズと仮想オブジェクトの実物大に関する既知のデータとに基づいて、仮想オブジェクトを制御してもよい。例えば、表示制御部115は、実オブジェクトAの実空間Eにおけるサイズと仮想オブジェクトの実物大に関する既知のデータとの関係に基づいて、実オブジェクトAの画像におけるサイズに対する仮想オブジェクトの画像におけるサイズの割合を特定してよい。
例えば、表示制御部115は、実オブジェクトAの実空間Eにおけるサイズに対する仮想オブジェクトの実物大に関する既知のデータの割合と、実オブジェクトAの画像におけるサイズに対する仮想オブジェクトの画像におけるサイズの割合とが同じになるようにすればよい。そうすれば、実空間E1に配置される仮想オブジェクトV14と実空間E2に配置される仮想オブジェクトV24とが共に仮想オブジェクトの実物大となるため、ユーザUaに対して仮想オブジェクトの大きさをよりリアルに感じさせることが可能となる。
また、表示制御部115は、各種のオブジェクトの傾きに基づいて、仮想オブジェクトを制御してもよい。例えば、表示制御部115は、センサ部130によって重力方向Gを検出することが可能である場合、センサ部130によって検出された重力方向Gと各種のオブジェクトとの関係に基づいて仮想オブジェクトを制御してもよい。重力方向Gは、例えば、加速度センサなどによって検出することが可能である。センサ部130によって検出された重力方向Gは、センサデータ取得部112によって取得され得る。
図14は、重力方向Gと物体Bの姿勢との関係に基づいて仮想オブジェクトを制御する例を示す図である。表示制御部115は、重力方向Gと物体Bの姿勢との関係に基づいて、仮想オブジェクトを制御することが可能である。
図14を参照すると、実空間E30には、重力方向Gに合った姿勢の物体Bが床面Fに載置されている。かかる場合には、実オブジェクトAの認識結果に応じた仮想オブジェクトV30を床面Fに配置することが可能である。一方、実空間E31には、重力方向Gとは合っていない姿勢の物体Bが床面Fに載置されている。かかる場合には、実オブジェクトAの認識結果に応じた仮想オブジェクトV31を床面Fに配置することが可能である。
図14には、表示制御部115は、物体Bの姿勢が重力方向Gに合っている場合に、姿勢の床面Fに対して静止している状態を示す仮想オブジェクトV30をAR空間に配置している。一方、表示制御部115は、物体Bの姿勢が重力方向Gに合っていない場合に、床面Fに対して滑っている状態を示す仮想オブジェクトV31をAR空間に配置している。しかし、仮想オブジェクトV30および仮想オブジェクトV31それぞれはどのように制御されてもよい。
図15は、重力方向Gと実オブジェクトAの姿勢との関係に基づいて仮想オブジェクトを制御する例を示す図である。表示制御部115は、重力方向Gと実オブジェクトAの姿勢との関係に基づいて、仮想オブジェクトを制御することも可能である。
図15を参照すると、実空間E30には、重力方向Gに合った姿勢の実オブジェクトAが床面Fに載置されている。かかる場合には、実オブジェクトAの認識結果に応じた仮想オブジェクトV30を床面Fに配置することが可能である。一方、実空間E32には、重力方向Gとは合っていない姿勢の実オブジェクトAが床面Fに載置されている。かかる場合には、実オブジェクトAの認識結果に応じた仮想オブジェクトV32を床面Fに配置することが可能である。
図15には、表示制御部115は、実オブジェクトAの姿勢が重力方向Gに合っている場合に、姿勢の床面Fに対して静止している状態を示す仮想オブジェクトV30をAR空間に配置している。一方、表示制御部115は、実オブジェクトAの姿勢が重力方向Gに合っていない場合に、床面Fに対して滑っている状態を示す仮想オブジェクトV32をAR空間に配置している。しかし、仮想オブジェクトV30および仮想オブジェクトV32それぞれはどのように制御されてもよい。
その他、表示制御部115は、床面Fの姿勢と実オブジェクトAの姿勢との関係に基づいて、仮想オブジェクトを制御してもよい。図15に示した場合と同様に、表示制御部115は、実オブジェクトAの姿勢が床面Fの姿勢に合っている場合に、姿勢の床面Fに対して静止している状態を示す仮想オブジェクトV30をAR空間に配置してよい。一方、表示制御部115は、実オブジェクトAの姿勢が床面Fの姿勢に合っていない場合に、床面Fに対して滑っている状態を示す仮想オブジェクトV32をAR空間に配置してよい。しかし、仮想オブジェクトV30および仮想オブジェクトV32それぞれはどのように制御されてもよい。
[3−4.情報処理装置の動作例]
続いて、本開示の第2の実施形態に係る情報処理装置10Bの動作の流れの例について説明する。図16は、本開示の第2の実施形態に係る情報処理装置10Bの動作の流れの例を示すフローチャートである。まず、撮像部120により画像が撮像され、画像取得部111によって画像が取得されると、画像認識部113は、画像取得部111により取得された画像から物体Bを認識する(S21)。表示制御部115は、物体Bの実空間Eにおける位置Pbrを特定し(S22)、環境認識部114は、環境認識を開始する(S23)。
続いて、画像認識部113は、画像取得部111により取得された画像から実オブジェクトAを認識する(S24)。表示制御部115は、実オブジェクトAの認識結果に応じた仮想オブジェクトを特定し(S25)、実オブジェクトAの実空間Eにおける位置Parを算出する(S26)。さらに、表示制御部115は、実オブジェクトAの実空間EにおけるサイズZarを算出し(S27)、実オブジェクトAの実空間EにおけるサイズZarに基づいて仮想オブジェクトを制御し(S28)、仮想オブジェクトを表示させる(S29)。
以上、本開示の第2の実施形態に係る情報処理装置10Bの動作の流れの例について説明した。
<<4.ハードウェア構成例>>
続いて、本開示の実施形態に係る情報処理装置10のハードウェア構成例について説明する。図17は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示す図である。ただし、図17に示したハードウェア構成例は、情報処理装置10のハードウェア構成の一例を示したに過ぎない。したがって、情報処理装置10のハードウェア構成は、図17に示した例に限定されない。
図17に示したように、情報処理装置10は、CPU(Central Processing Unit)801と、ROM(Read Only Memory)802と、RAM(Random Access Memory)803と、センサ804と、入力装置808と、出力装置810と、ストレージ装置811と、ドライブ812と、撮像装置813と、通信装置815とを備える。
CPU801は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。また、CPU801は、マイクロプロセッサであってもよい。ROM802は、CPU801が使用するプログラムや演算パラメータ等を記憶する。RAM803は、CPU801の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
センサ804は、情報処理装置10の状態を検知するための端末状態検知センサなどの各種検知用センサとその周辺回路からなる。センサ804としては、一例として、傾きセンサ、加速度センサ、方位センサ、温度センサ、湿度センサ、照度センサなどを挙げることができる。センサ804による検知信号は、CPU801に送られる。これにより、CPU801は、情報処理装置10の状態(傾き、加速度、方位、温度、湿度、照度など)を知ることができる。
入力装置808は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力部と、ユーザによる入力に基づいて入力信号を生成し、CPU801に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、該入力装置808を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置810は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置810は、スピーカおよびヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。
ストレージ装置811は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置811は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置811は、CPU801が実行するプログラムや各種データを格納する。
ドライブ812は、記憶媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ812は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体71に記録されている情報を読み出して、RAM803に出力する。また、ドライブ812は、リムーバブル記憶媒体71に情報を書き込むこともできる。
撮像装置813は、光を集光する撮影レンズおよびズームレンズなどの撮像光学系、およびCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの信号変換素子を備える。撮像光学系は、被写体から発せられる光を集光して信号変換部に被写体像を形成し、信号変換素子は、形成された被写体像を電気的な画像信号に変換する。
通信装置815は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置815は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。通信装置815は、例えば、ネットワーク30を介して他の装置と通信を行うことが可能である。
以上、本開示の実施形態に係る情報処理装置10のハードウェア構成例について説明した。
<<5.むすび>>
以上説明したように、本開示の実施形態によれば、撮像部120により撮像された画像Imを取得する画像取得部111と、画像Imに映る実オブジェクトAの認識結果に応じて、仮想オブジェクトを表示させる表示制御部115と、を備え、表示制御部115は、実オブジェクトAの実空間EにおけるサイズZarに基づいて、仮想オブジェクトを制御する、情報処理装置10が提供される。かかる構成によれば、実オブジェクトAの実空間Eにおけるサイズを考慮して仮想オブジェクトの制御を行うことが可能となる。
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記した表示部は、HMD(Head Mounted Display)であってもよい。例えば、不透過型のHMDが表示部として用いられる場合には、必ずしも画像は表示部に表示されなくてもよい。かかる場合には、表示部は、画像ではなく実空間に仮想オブジェクトを重畳させてもよい。
また、本開示の実施形態においては、情報処理装置10によって仮想オブジェクトを制御した結果が、情報処理装置10のAR空間において反映される例を主に説明した。しかし、例えば、情報処理装置10と当該他の装置との間で同一のAR空間を共有している場合などには、情報処理装置10によって仮想オブジェクトを制御した結果は、情報処理装置10と通信可能な他の装置のAR空間に反映されてもよい。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した情報処理装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像部により撮像された画像を取得する画像取得部と、
前記画像に映る実オブジェクトの認識結果に応じて、仮想オブジェクトを表示させる表示制御部と、を備え、
前記表示制御部は、前記実オブジェクトの実空間におけるサイズに基づいて、前記仮想オブジェクトを制御する、情報処理装置。
(2)
前記表示制御部は、所定の物体の実空間におけるサイズに関する既知のデータ、前記所定の物体の画像におけるサイズおよび前記所定の物体の画像における位置に応じて特定した前記所定の物体の実空間における位置と、前記実オブジェクトの画像におけるサイズと、前記実オブジェクトの実空間における位置とに基づいて、前記実オブジェクトの実空間におけるサイズを算出する、
前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記実オブジェクトと所定の平面との間の実空間における距離に基づいて、前記仮想オブジェクトを制御する、
前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、重力方向と前記所定の物体の姿勢との関係に基づいて、前記仮想オブジェクトを制御する、
前記(2)に記載の情報処理装置。
(5)
前記表示制御部は、重力方向と前記実オブジェクトの姿勢との関係に基づいて、前記仮想オブジェクトを制御する、
前記(2)に記載の情報処理装置。
(6)
前記表示制御部は、所定の平面の姿勢と前記実オブジェクトの姿勢との関係に基づいて、前記仮想オブジェクトを制御する、
前記(2)に記載の情報処理装置。
(7)
前記表示制御部は、前記所定の物体が前記所定の平面に載置されている場合、前記所定の物体の実空間における位置および姿勢に基づいて、前記所定の平面の実空間における位置および姿勢を特定する、
前記(3)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記表示制御部は、前記所定の物体の実空間における位置を特定した旨を表示させる、
前記(2)に記載の情報処理装置。
(9)
前記表示制御部は、前記実オブジェクトの実空間における位置に基づいて、前記仮想オブジェクトを制御する、
前記(1)に記載の情報処理装置。
(10)
前記表示制御部は、前記撮像部と前記実オブジェクトとの距離に基づいて、前記仮想オブジェクトを制御する、
前記(1)に記載の情報処理装置。
(11)
前記表示制御部は、前記実オブジェクトの実空間におけるサイズと前記仮想オブジェクトの実物大に関する既知のデータとに基づいて、前記仮想オブジェクトを制御する、
前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記表示制御部は、前記実オブジェクトの実空間におけるサイズと前記仮想オブジェクトの実物大に関する既知のデータとの関係に基づいて、前記実オブジェクトの画像におけるサイズに対する前記仮想オブジェクトの画像におけるサイズの割合を特定する、
前記(11)に記載の情報処理装置。
(13)
前記表示制御部は、前記実オブジェクトの実空間におけるサイズを取得する、
前記(1)に記載の情報処理装置。
(14)
前記表示制御部は、前記所定の物体の認識結果、環境認識の結果および前記実オブジェクトの認識結果に基づいて、前記実オブジェクトの実空間における位置を算出する、
前記(2)に記載の情報処理装置。
(15)
前記表示制御部は、前記実オブジェクトの実空間におけるサイズに基づいて、前記仮想オブジェクトを選択する、
前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記表示制御部は、前記実オブジェクトの実空間におけるサイズに応じて、前記仮想オブジェクトの表示態様を制御する、
前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(17)
前記表示制御部は、前記実オブジェクトの実空間におけるサイズに応じて、前記仮想オブジェクトの動きを制御する、
前記(16)に記載の情報処理装置。
(18)
前記表示制御部は、前記実オブジェクトの実空間におけるサイズに応じて、前記仮想オブジェクトの画像におけるサイズを制御する、
前記(16)に記載の情報処理装置。
(19)
撮像部により撮像された画像を取得することと、
前記画像に映る実オブジェクトの認識結果に応じて仮想オブジェクトを表示させることと、
前記実オブジェクトの実空間におけるサイズに基づいて、前記仮想オブジェクトを制御することと、
を含む、情報処理方法。
(20)
コンピュータを、
撮像部により撮像された画像を取得する画像取得部と、
前記画像に映る実オブジェクトの認識結果に応じて仮想オブジェクトを表示させる表示制御部と、を備え、
前記表示制御部は、前記実オブジェクトの実空間におけるサイズに基づいて、前記仮想オブジェクトを制御する、情報処理装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。
10(10A、10B) 情報処理装置
110 制御部
111 画像取得部
112 センサデータ取得部
113 画像認識部
114 環境認識部
115 表示制御部
120 撮像部
130 センサ部
140 操作部
150 記憶部
160 表示部
A(A1、A2) 実オブジェクト
E(E1、E2、E30〜E32) 実空間
F 床面
G 重力方向
Im(Im1〜Im3、Im10、Im13、Im14、Im20、Im23、Im24) 画像
V11〜V14、V21〜V24、V30〜V32 仮想オブジェクト

Claims (17)

  1. 撮像部により撮像された画像を取得する画像取得部と、
    前記画像に映る実オブジェクトの認識結果に応じて、仮想オブジェクトを表示させる表示制御部と、を備え、
    前記表示制御部は、前記実オブジェクトの実空間におけるサイズに基づいて、前記仮想オブジェクトの動きを制御する、情報処理装置。
  2. 前記表示制御部は、所定の物体の実空間におけるサイズに関する既知のデータ、前記所定の物体の画像におけるサイズおよび前記所定の物体の画像における位置に応じて特定した前記所定の物体の実空間における位置と、前記実オブジェクトの画像におけるサイズと、前記実オブジェクトの実空間における位置とに基づいて、前記実オブジェクトの実空間におけるサイズを算出する、
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記実オブジェクトと所定の平面との間の実空間における距離に基づいて、前記仮想オブジェクトを制御する、
    請求項2に記載の情報処理装置。
  4. 前記表示制御部は、重力方向と前記所定の物体の姿勢との関係に基づいて、前記仮想オブジェクトを制御する、
    請求項2に記載の情報処理装置。
  5. 前記表示制御部は、重力方向と前記実オブジェクトの姿勢との関係に基づいて、前記仮想オブジェクトを制御する、
    請求項2に記載の情報処理装置。
  6. 前記表示制御部は、所定の平面の姿勢と前記実オブジェクトの姿勢との関係に基づいて、前記仮想オブジェクトを制御する、
    請求項2に記載の情報処理装置。
  7. 前記表示制御部は、前記所定の物体が前記所定の平面に載置されている場合、前記所定の物体の実空間における位置および姿勢に基づいて、前記所定の平面の実空間における位置および姿勢を特定する、
    請求項3〜6のいずれか一項に記載の情報処理装置。
  8. 前記表示制御部は、前記所定の物体の実空間における位置を特定した旨を表示させる、
    請求項2に記載の情報処理装置。
  9. 前記表示制御部は、前記実オブジェクトの実空間における位置に基づいて、前記仮想オブジェクトを制御する、
    請求項1に記載の情報処理装置。
  10. 前記表示制御部は、前記撮像部と前記実オブジェクトとの距離に基づいて、前記仮想オブジェクトを制御する、
    請求項1に記載の情報処理装置。
  11. 前記表示制御部は、前記実オブジェクトの実空間におけるサイズと前記仮想オブジェクトの実物大に関する既知のデータとに基づいて、前記仮想オブジェクトを制御する、
    請求項1〜10のいずれか一項に記載の情報処理装置。
  12. 前記表示制御部は、前記実オブジェクトの実空間におけるサイズと前記仮想オブジェクトの実物大に関する既知のデータとの関係に基づいて、前記実オブジェクトの画像におけるサイズに対する前記仮想オブジェクトの画像におけるサイズの割合を特定する、
    請求項11に記載の情報処理装置。
  13. 前記表示制御部は、前記実オブジェクトの実空間におけるサイズを取得する、
    請求項1に記載の情報処理装置。
  14. 前記表示制御部は、前記所定の物体の認識結果、環境認識の結果および前記実オブジェクトの認識結果に基づいて、前記実オブジェクトの実空間における位置を算出する、
    請求項2に記載の情報処理装置。
  15. 前記表示制御部は、前記実オブジェクトの実空間におけるサイズに基づいて、前記仮想オブジェクトを選択する、
    請求項1〜14のいずれか一項に記載の情報処理装置。
  16. 撮像部により撮像された画像を取得することと、
    前記画像に映る実オブジェクトの認識結果に応じて仮想オブジェクトを表示させることと、
    前記実オブジェクトの実空間におけるサイズに基づいて、前記仮想オブジェクトの動きを制御することと、
    を含む、情報処理方法。
  17. コンピュータを、
    撮像部により撮像された画像を取得する画像取得部と、
    前記画像に映る実オブジェクトの認識結果に応じて仮想オブジェクトを表示させる表示制御部と、を備え、
    前記表示制御部は、前記実オブジェクトの実空間におけるサイズに基づいて、前記仮想オブジェクトの動きを制御する、情報処理装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。


JP2013072689A 2013-03-29 2013-03-29 情報処理装置、情報処理方法および記録媒体 Active JP5790692B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013072689A JP5790692B2 (ja) 2013-03-29 2013-03-29 情報処理装置、情報処理方法および記録媒体
US14/169,223 US9665982B2 (en) 2013-03-29 2014-01-31 Information processing apparatus, information processing method, and recording medium
CN201410108370.7A CN104077024A (zh) 2013-03-29 2014-03-21 信息处理设备、信息处理方法及记录介质
CN201910323652.1A CN110262706B (zh) 2013-03-29 2014-03-21 信息处理设备、信息处理方法及记录介质
US15/584,617 US10198146B2 (en) 2013-03-29 2017-05-02 Information processing apparatus, information processing method, and recording medium
US16/265,423 US11188187B2 (en) 2013-03-29 2019-02-01 Information processing apparatus, information processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013072689A JP5790692B2 (ja) 2013-03-29 2013-03-29 情報処理装置、情報処理方法および記録媒体

Publications (3)

Publication Number Publication Date
JP2014197317A JP2014197317A (ja) 2014-10-16
JP2014197317A5 JP2014197317A5 (ja) 2015-03-12
JP5790692B2 true JP5790692B2 (ja) 2015-10-07

Family

ID=51598325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013072689A Active JP5790692B2 (ja) 2013-03-29 2013-03-29 情報処理装置、情報処理方法および記録媒体

Country Status (3)

Country Link
US (3) US9665982B2 (ja)
JP (1) JP5790692B2 (ja)
CN (2) CN104077024A (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014191718A (ja) * 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
JP5790692B2 (ja) * 2013-03-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
JP6596883B2 (ja) * 2015-03-31 2019-10-30 ソニー株式会社 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム
CN114327043A (zh) * 2016-02-02 2022-04-12 索尼公司 信息处理装置、信息处理方法和记录介质
CN106203300A (zh) * 2016-06-30 2016-12-07 北京小米移动软件有限公司 内容项显示方法及装置
CN106952349A (zh) * 2017-03-29 2017-07-14 联想(北京)有限公司 一种显示控制方法、装置及电子设备
EP3413166B1 (en) * 2017-06-06 2023-06-21 Nokia Technologies Oy Rendering mediated reality content
US10818093B2 (en) * 2018-05-25 2020-10-27 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US10770035B2 (en) 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10698603B2 (en) * 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US10788880B2 (en) 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
WO2020096597A1 (en) * 2018-11-08 2020-05-14 Rovi Guides, Inc. Methods and systems for augmenting visual content
US10761611B2 (en) 2018-11-13 2020-09-01 Google Llc Radar-image shaper for radar-based applications
KR102581146B1 (ko) * 2018-11-23 2023-09-21 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11468611B1 (en) * 2019-05-16 2022-10-11 Apple Inc. Method and device for supplementing a virtual environment
US20210097731A1 (en) * 2019-09-26 2021-04-01 Apple Inc. Presenting environment based on physical dimension
WO2021117415A1 (ja) 2019-12-10 2021-06-17 ソニーグループ株式会社 情報処理システム、情報処理方法、及びプログラム
CN112308980B (zh) * 2020-10-30 2024-05-28 脸萌有限公司 增强现实交互显示方法及设备
CN112988007B (zh) * 2021-03-12 2022-09-09 深圳市慧鲤科技有限公司 三维素材的交互方法及装置
JP7354186B2 (ja) * 2021-06-18 2023-10-02 ヤフー株式会社 表示制御装置、表示制御方法および表示制御プログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3639475B2 (ja) * 1999-10-04 2005-04-20 シャープ株式会社 3次元モデル生成装置および3次元モデル生成方法ならびに3次元モデル生成プログラムを記録した記録媒体
JP2004046326A (ja) * 2002-07-09 2004-02-12 Dainippon Screen Mfg Co Ltd 画像表示装置、画像表示方法およびプログラム
JP4085918B2 (ja) * 2003-07-18 2008-05-14 ソニー株式会社 3次元モデル処理装置、および3次元モデル処理方法、並びにコンピュータ・プログラム
US7307433B2 (en) * 2004-04-21 2007-12-11 Formfactor, Inc. Intelligent probe card architecture
JP3841806B2 (ja) * 2004-09-01 2006-11-08 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
US7991220B2 (en) * 2004-09-01 2011-08-02 Sony Computer Entertainment Inc. Augmented reality game system using identification information to display a virtual object in association with a position of a real object
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
JP5038307B2 (ja) * 2005-08-09 2012-10-03 トタル イメルシオン 実在環境内においてデジタルモデルを視覚化する方法、装置、及びコンピュータプログラム
JP4985516B2 (ja) 2008-03-27 2012-07-25 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
KR20100026240A (ko) * 2008-08-29 2010-03-10 김상국 증강현실을 이용한 쓰리디 헤어스타일 시뮬레이션 방법 및 장치
JP2010282408A (ja) * 2009-06-04 2010-12-16 Sony Corp 制御装置、入力装置、制御システム、ハンドヘルド装置及び制御方法
JP2011118834A (ja) 2009-12-07 2011-06-16 Sony Corp 情報処理装置、情報処理方法およびプログラム
KR101135186B1 (ko) * 2010-03-03 2012-04-16 광주과학기술원 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
JP5573238B2 (ja) * 2010-03-04 2014-08-20 ソニー株式会社 情報処理装置、情報処理法方法およびプログラム
JP4914528B1 (ja) * 2010-08-31 2012-04-11 新日鉄ソリューションズ株式会社 拡張現実提供システム、情報処理端末、情報処理装置、拡張現実提供方法、情報処理方法、及びプログラム
US10200756B2 (en) 2011-02-11 2019-02-05 Sony Interactive Entertainment LLC Synchronization of favorites and/or recently viewed lists between registered content playback devices
JP5799521B2 (ja) 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
JP5724543B2 (ja) 2011-03-31 2015-05-27 ソニー株式会社 端末装置、オブジェクト制御方法及びプログラム
JP5668587B2 (ja) * 2011-04-19 2015-02-12 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US8376849B2 (en) * 2011-06-03 2013-02-19 Nintendo Co., Ltd. Apparatus and method for controlling objects on a stereoscopic display
JP2013004001A (ja) * 2011-06-21 2013-01-07 Sony Corp 表示制御装置、表示制御方法、およびプログラム
JP2013008257A (ja) * 2011-06-27 2013-01-10 Celsys:Kk 画像合成プログラム
JP5725296B2 (ja) * 2011-07-29 2015-05-27 セイコーエプソン株式会社 運動情報生成装置、運動情報生成プログラム及び記録媒体
JP2013225245A (ja) * 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム
US9429912B2 (en) * 2012-08-17 2016-08-30 Microsoft Technology Licensing, Llc Mixed reality holographic object development
KR20150103240A (ko) * 2013-03-14 2015-09-09 인텔 코포레이션 깊이 기반 사용자 인터페이스 제스처 제어
US20140282224A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
JP5790692B2 (ja) * 2013-03-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法および記録媒体

Also Published As

Publication number Publication date
CN110262706B (zh) 2023-03-10
US20140292809A1 (en) 2014-10-02
CN104077024A (zh) 2014-10-01
CN110262706A (zh) 2019-09-20
US10198146B2 (en) 2019-02-05
JP2014197317A (ja) 2014-10-16
US11188187B2 (en) 2021-11-30
US20190163344A1 (en) 2019-05-30
US20170235458A1 (en) 2017-08-17
US9665982B2 (en) 2017-05-30

Similar Documents

Publication Publication Date Title
JP5790692B2 (ja) 情報処理装置、情報処理方法および記録媒体
US11348326B2 (en) Display control device, display control method, and recording medium
JP6121647B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5765019B2 (ja) 表示制御装置、表示制御方法、およびプログラム
JP4816789B2 (ja) 情報処理装置、情報処理方法、プログラムおよび情報処理システム
US11636644B2 (en) Output of virtual content
US20140300775A1 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
KR20140043384A (ko) 관점 오브젝트 선택
TW201205497A (en) Information processing device, information processing method, and program
JP6044484B2 (ja) ビデオ再生方法、プログラム及びシステム
JP2013506218A (ja) 端末の動きまたは姿勢に基づいてビジュアルサーチを行うための方法、端末およびコンピュータ読取可能な記録媒体
US8854393B2 (en) Information processing device, information processing method, and program
US10133966B2 (en) Information processing apparatus, information processing method, and information processing system
GB2513865A (en) A method for interacting with an augmented reality scene
JP6065084B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2013004001A (ja) 表示制御装置、表示制御方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150720

R151 Written notification of patent or utility model registration

Ref document number: 5790692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250