JP5838747B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP5838747B2
JP5838747B2 JP2011248098A JP2011248098A JP5838747B2 JP 5838747 B2 JP5838747 B2 JP 5838747B2 JP 2011248098 A JP2011248098 A JP 2011248098A JP 2011248098 A JP2011248098 A JP 2011248098A JP 5838747 B2 JP5838747 B2 JP 5838747B2
Authority
JP
Japan
Prior art keywords
virtual object
information processing
processing apparatus
real
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011248098A
Other languages
English (en)
Other versions
JP2013105285A5 (ja
JP2013105285A (ja
Inventor
俊一 笠原
俊一 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2011248098A priority Critical patent/JP5838747B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to RU2014117669/08A priority patent/RU2014117669A/ru
Priority to KR1020147010544A priority patent/KR20140088866A/ko
Priority to PCT/JP2012/006336 priority patent/WO2013069196A1/en
Priority to US14/342,974 priority patent/US9497389B2/en
Priority to BR112014010681A priority patent/BR112014010681A2/pt
Priority to EP12847414.5A priority patent/EP2777026B1/en
Priority to CN201280053969.4A priority patent/CN103907139B/zh
Priority to TW101138680A priority patent/TW201324435A/zh
Publication of JP2013105285A publication Critical patent/JP2013105285A/ja
Priority to IN3352CHN2014 priority patent/IN2014CN03352A/en
Publication of JP2013105285A5 publication Critical patent/JP2013105285A5/ja
Application granted granted Critical
Publication of JP5838747B2 publication Critical patent/JP5838747B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、現実の画像に付加的な情報を重畳してユーザに呈示する、拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに呈示される情報は、アノテーションとも呼ばれ、例えばテキスト、アイコンまたはアニメーションなど、さまざまな形態の仮想オブジェクトとして可視化される。このようなAR技術の例として、特許文献1には、家具などの現実の物体を模倣した仮想物体の画像を現実の画像に重畳して表示し、家具などの配置の試行を容易にする技術が記載されている。
上記のようなAR技術は、例えば、ユーザが把持する装置を用いて現実の画像を撮像し、その画像に映った物体を認識する。そして認識された物体に関連する仮想オブジェクトを撮像した画像に重畳して表示させることで実現される。
特開2003−256876号公報
このとき、仮想オブジェクトは、認識された物体の位置に基づいて決定される座標空間上に表示される。認識される物体の位置には、様々な要因によりノイズが含まれる。認識される物体の位置にノイズが含まれる場合には、仮想オブジェクトが表示される位置にブレが生じる。このブレは、ユーザに不快感を与えることがある。このような場合に、基準点から遠くに表示される仮想オブジェクトほど、ノイズの影響を受けやすい。
そこで、本開示では、基準点からの距離に応じて仮想オブジェクトを適切に表示することにより基準点のノイズの影響を軽減することのできる、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、入力画像に映る実オブジェクトを認識する認識部と、前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて算出される、前記実オブジェクトと前記仮想オブジェクトとの間の距離に基づき、上記仮想オブジェクトの表示を変化させる表示制御部と、を有する情報処理装置が提供される。
また、本開示によれば、入力画像に映る実オブジェクトを認識することと、前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて、前記実オブジェクトと前記仮想オブジェクトとの間の距離を算出することと、上記距離に基づいて、上記仮想オブジェクトの表示を変化させることと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータを、入力画像に映る実オブジェクトを認識する認識部と、前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて算出される、前記実オブジェクトと前記仮想オブジェクトとの間の距離に基づき、上記仮想オブジェクトの表示を変化させる表示制御部と、を有する情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、基準点からの距離に応じて仮想オブジェクトを適切に表示することにより基準点のノイズの影響を軽減することができる。
本開示の一実施形態に係る情報処理装置の機能の概要を示す説明図である。 同実施形態に係る情報処理装置が表示する画面の一例を示す説明図である。 同実施形態に係る情報処理装置が表示する画面の表示方法を説明するための説明図である。 同実施形態に係る情報処理装置において生じる表示位置のブレについて説明するための説明図である。 同実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。 本開示の第1の実施形態に係る情報処理装置の機能構成を示すブロック図である。 同実施形態に係る情報処理装置が認識する物体の状態を示す指標について示す説明図である。 同実施形態に係る情報処理装置のノイズ推定について示す説明図である。 同実施形態に係る情報処理装置において複数の仮想オブジェクトの代表点を用いる例を示す説明図である。 同実施形態に係る情報処理装置の動作例を示すフローチャートである。 本開示の第2の実施形態に係る情報処理装置の機能構成を示すブロック図である。 同実施形態に係る情報処理装置の実現する視覚効果を示す説明図である。 同実施形態に係る情報処理装置の動作例を示すフローチャートである。 本開示の第3の実施形態に係る情報処理装置の機能構成を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
2.ハードウェア構成例
3.第1の実施形態(位置を補正する例)
3−1.機能構成
3−2.動作
4.第2の実施形態(視覚効果を加えた表示の例)
4−1.機能構成
4−2.動作
5.第3の実施形態(位置の補正+視覚効果)
<1.概要>
まず、図1〜図4を参照しながら、本開示の一実施形態に係る情報処理装置の概要について説明する。図1は、本開示の一実施形態に係る情報処理装置の機能の概要を示す説明図である。図2は、同実施形態に係る情報処理装置が表示する画面の一例を示す説明図である。図3は、同実施形態に係る情報処理装置が表示する画面の表示方法を説明するための説明図である。図4は、同実施形態に係る情報処理装置において生じる表示位置のブレについて説明するための説明図である。
なお、本開示において、“一実施形態に係る情報処理装置”という場合には、以下に説明される複数の実施形態に共通する事項が説明される。
情報処理装置100は、ARアプリケーションをユーザに提供する装置である。情報処理装置100は、例えば、スマートフォン、PDA(Personal Data Assistance)、携帯用ゲーム機器、携帯用音楽再生機器などの端末装置であってよい。また情報処理装置100は、PC(Personal Computer)又はワークステーションなどの情報処理装置であってもよい。
本開示において、ユーザは、情報処理装置100の特定のARアプリケーションを起動した後、例えば実空間に配置される物体である実オブジェクトobj_rが情報処理装置100の表示画面内に表示されるように情報処理装置100をかざす(図1)。すると、情報処理装置100の表示画面では、撮影した実オブジェクトobj_r近傍の空間に仮想オブジェクトobj_vが表示される(図2)。ここでは仮想オブジェクトobj_vは、複数のカードである。
このとき情報処理装置100は、撮影した画像中で実オブジェクトobj_rを認識する。そして、情報処理装置100は、認識された実オブジェクトobj_rに基づいて仮定される座標空間上の位置に仮想オブジェクトobj_vを表示させる(図3)。ここで座標空間は、例えば認識される物体の基準点RPを原点としてよい。物体の基準点RPは、例えば物体の重心とすることができる。また座標軸の方向は、認識される実オブジェクトobj_rの姿勢に基づいて決定されてよい。
ここで決定される座標空間には、様々な要因によりノイズが含まれ得る。例えば座標空間は、実オブジェクトobj_rの基準点RP位置、大きさ、姿勢を認識することにより、決定される。この基準点RP位置、大きさ、姿勢の認識にノイズが含まれると、これらに基づいて決定される仮想オブジェクトobj_vの位置にもノイズの影響が含まれる。
例えば図4を参照すると、座標空間上の2つの仮想オブジェクトobj_v(第1の仮想オブジェクトobj_v1、第2の仮想オブジェクトobj_v2)の位置が示される。ここで、ノイズを含まない場合の座標空間上の第1の仮想オブジェクトobj_v1a及び第2の仮想オブジェクトobj_v2aと、ノイズを含む場合の座標空間上の第1の仮想オブジェクトobj_v1b及び第2の仮想オブジェクトobj_v2bとが示される。
ここでは、例えば実オブジェクトobj_r位置の回転成分にノイズが含まれる場合が示される。このとき、第1の仮想オブジェクトobj_v1と基準点RPとの間の距離d1は、第2の仮想オブジェクトobj_v2と基準点RPとの間の距離d2よりも短い。この場合において、第1の仮想オブジェクトobj_v1に対するノイズの影響による表示位置の差異D1よりも第2の仮想オブジェクトobj_v2に対するノイズの影響による表示位置の差異D2の方が大きい。そこで本開示では、この距離Dに応じて適切に仮想オブジェクトobj_vの表示を変化させることにより、ユーザに対するノイズの影響を軽減することを提案する。仮想オブジェクトの表示の変化の一例として、以下表示位置を補正する例と、視覚効果を加えた表示を行う例とを挙げて詳細が説明される。なお、ここではノイズにより生じるブレがユーザに与える不快感を軽減するための視覚効果の一例として残像効果を加える例が示される。
<2.ハードウェア構成例>
ここで、図5を参照しながら、本開示の一実施形態に係る情報処理装置のハードウェア構成の一例について説明する。図5は、同実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
なお、ここで示すハードウェア構成は、以下に説明する本開示の各実施形態に係る情報処理装置の機能を実現するための一例である。本技術はかかる例に限定されるものではなく、ここで説明される構成要素の一部を省略することが可能である。またここで説明される構成要素に加えて、他の構成要素がさらに含まれてもよい。また、ここで説明される構成要素を、同等の機能を有する他の構成要素に代えることもできる。
情報処理装置100は、撮像部102と、センサ部104と、入力部106と、記憶部108と、表示部110と、通信部112と、制御部114と、バス116とを有する。
(撮像部102)
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される撮像画像は、映像入力の各フレームを構成する。
(センサ部104)
センサ部104は、撮像部102の動きを計測する動きセンサ群を含む。動きセンサは、例えば、撮像部102の加速度を測定する加速度センサ、傾き角を測定するジャイロセンサ、又は撮像部102の向けられた方位を測定する地磁気センサなどであってよい。また、センサ部104は、GPS(Global Positioning System)信号を受信して装置の緯度、経度及び高度を測定するGPSセンサを含んでもよい。
(入力部106)
入力部106は、ユーザが情報処理装置100を操作し又は情報処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、典型的には、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含む。その代わりに(又はそれに加えて)、入力部106は、マウス若しくはタッチパッドなどのポインティングデバイス、画像に映るユーザのジェスチャを認識するジェスチャ認識モジュール、又はHMD(Head Mounted Display)を装着したユーザの視線方向を検出する視線検出モジュールを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
(記憶部108)
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、情報処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータには、例えば、撮像部102により生成される画像データ及びセンサ部104により生成されるセンサデータが含まれ得る。また、記憶部108により記憶されるデータには、例えば、情報処理装置100による物体認識の際に用いられるモデルデータ及び仮想オブジェクトobj_vを定義するオブジェクトデータなども含まれ得る。
(表示部110)
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などにより構成される表示モジュールである。表示部110は、例えば、撮像部102により撮像される画像、又は制御部114により実現されるARアプリケーションの画像を画面上に表示する。表示部110は、ユーザにより把持される情報処理装置100の画面であってもよく、又はユーザにより装着されるシースルー型若しくは非シースルー型のHMDであってもよい。
(通信部112)
通信部112は、情報処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
(制御部114)
制御部114は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部114は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する情報処理装置100の様々な機能を動作させる。
(バス116)
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部114を相互に接続する。
以上、本開示の一実施形態に係る情報処理装置100のハードウェア構成の一例を示した。情報処理装置100は、上記の制御部114が以下に説明する各実施形態に係る情報処理装置100の機能を実現する処理手順を記述した制御プログラムを実行することによって本技術の機能を実現することができる。なお、以下に説明する情報処理装置100の各機能を実現するためのコンピュータプログラムを作成し、パーソナルコンピュータなどに実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、フラッシュメモリなどである。また、上述のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<3.第1の実施形態(位置を補正する例)>
まず、基準点と仮想オブジェクトobj_vの間の距離に応じて位置を補正する機能を有する、本開示の第1の実施形態に係る情報処理装置について説明する。
〔3−1.機能構成〕
ここで図6〜図9を参照しながら、本開示の第1の実施形態に係る情報処理装置100の制御部114aにより実現される機能構成の一例を説明する。図6は、本開示の第1の実施形態に係る情報処理装置の機能構成を示すブロック図である。図7は、同実施形態に係る情報処理装置が認識する物体の状態を示す指標について示す説明図である。図8は、同実施形態に係る情報処理装置のノイズ推定について示す説明図である。図9は、同実施形態に係る情報処理装置において複数の仮想オブジェクトobj_vの代表点を用いる例を示す説明図である。
図6を参照すると制御部114aは、画像取得部120と、画像認識部125と、オブジェクトデータ取得部130と、位置姿勢算出部135と、認識ノイズ推定部140と、補正部145と、表示制御部150aと、を主に有する。
(画像取得部120)
画像取得部120は、撮像部102(又は他の撮像装置)を用いて撮像された実空間を映す入力画像を取得する。入力画像は、仮想オブジェクトobj_vが配置される実空間内の場所又は物体が映された画像である。画像取得部120は、取得した入力画像を、画像認識部125及び表示制御部150aへ供給する。例えば、撮像部102(又は他の撮像装置)が実空間を連続的に撮像している場合には、画像取得部120は、連続的に入力画像を取得することができる。
(画像認識部125)
画像認識部125は、画像取得部120から供給される入力画像に映る物体を認識することができる。画像認識部125は、例えば記憶部108に記憶されるモデルデータ、又は通信部112を介して接続される外部装置に記憶されるモデルデータを用いて、物体認識を行うことができる。モデルデータは、情報処理装置100が認識の対象とする物体の形状又は外観に関する情報である。本実施形態において、情報処理装置100による認識の対象は、例えば図1に例示した実オブジェクトobj_rなど、実空間に存在する任意の物体であってよい。モデルデータは、各物体の形状を定義するデータ、各物体に付される所定のシンボルマーク又はテキストラベルなどの画像データ、又は各物体についての既知の画像から抽出された特徴量セットのデータなどを含みうる。
画像認識部125は、画像取得部120から供給される入力画像にどの物体が映っているか、及び入力画像に映っている物体の状態を認識する。画像認識部125により認識される物体の状態は、物体の位置及び姿勢の少なくとも一方を含む。本実施形態では、画像認識部125は、画像内での物体の位置、姿勢、及び大きさを認識するものとする。画像認識部125は、例えば入力画像から抽出される特徴点のセットをモデルデータにより定義され得る物体の形状と照合してもよい。また、画像認識部125は、モデルデータにより定義され得るシンボルマーク又はテキストラベルなどの画像データを入力画像と照合してもよい。また、画像認識部125は、モデルデータにより定義され得る既知の物体の画像の特徴量を入力画像から抽出される特徴量と照合してもよい。いずれの場合にも、画像認識部125は、所定の閾値よりも良好な照合スコアを示す物体が、当該照合スコアに対応する位置、姿勢、及び大きさで入力画像に映っていると認識することができる。
図7は、同実施形態において画像認識部125により認識される物体の状態量について説明するための説明図である。図7を参照すると、入力画像を撮像した撮像装置の光軸方向と直交する平面上のx軸及びy軸、並びに当該光軸方向に沿ったz軸により形成されるグローバル座標系が示されている。画像認識部125により認識される実オブジェクトobj_rの位置Pは、このようなグローバル座標系での当該物体の基準点の位置座標として与えられる。また、実オブジェクトobj_rの姿勢Wは、各軸周りの回転角として与えられる。また、実オブジェクトobj_rの大きさScは、各軸方向への倍率として与えられる。なお、本明細書では、説明の簡明さのために、各実オブジェクトobj_rの位置P、姿勢W及び大きさScを別個の変量(状態量)として説明する。しかしながら、各実オブジェクトobj_rの位置P、姿勢W及び大きさScは、グローバル座標系と各実オブジェクトobj_rのモデル座標系との間の変換を表す4行4列の1つの同次変換行列によって統合的に表現されてもよい。その場合には、各状態量(即ち、位置P、姿勢W及び大きさScの各々)は、1つの同次変換行列から必要に応じて抽出され、用いられる。なお、グローバル座標系は、撮像装置の位置を原点とする相対的な座標を表す座標系であってもよい。その代わりに、グローバル座標系は、実空間内で固定的に定義される絶対的な座標を表す座標系であってもよい。画像認識部125は、このような入力画像に映る各実オブジェクトobj_rの識別子、位置P、姿勢W及び大きさScを出力することができる。
(オブジェクトデータ取得部130)
オブジェクトデータ取得部130は、表示制御部150により入力画像に重畳される仮想オブジェクトobj_vに関するデータを取得する機能を有する。オブジェクトデータ取得部130により取得されるデータは、仮想オブジェクトobj_vを定義するオブジェクトデータを含む。オブジェクトデータは、例えば、仮想オブジェクトobj_vの種類、関連づけられる物体の識別子、仮想的な座標空間(以下、仮想空間とも言う)上の仮想オブジェクトobj_vの位置情報、及び情報コンテンツの内容などを定義するデータであってよい。オブジェクトデータ取得部130は、画像認識部125により認識された実オブジェクトobj_rの識別子に基づいて抽出されたオブジェクトデータを取得することができる。オブジェクトデータ取得部130は、取得した情報を位置姿勢算出部135に供給することができる。
(位置姿勢算出部135)
位置姿勢算出部135は、オブジェクトデータ取得部130から供給される仮想オブジェクトobj_vに関するデータと、入力画像とに基づいて、仮想オブジェクトobj_vの位置及び姿勢を算出することができる。なお、ここで用いられる実オブジェクトobj_rの基準点RPは、例えば実オブジェクトobj_rの重心とすることができる。また、基準点RPは、入力画像を解析することによって得られる、位置変動の小さい点とすることもできる。位置姿勢算出部135は、例えば入力画像から認識される実オブジェクトobj_rの位置及び姿勢に基づいて、仮想空間の原点位置及び座標軸方向を定義することにより、実空間上に仮想空間を対応づけることができる。また位置姿勢算出部135は、実オブジェクトobj_rと、仮想オブジェクトobj_vとの間の距離を算出する距離算出部として機能することもできる。例えば上述の通り、仮想オブジェクトの配置が定義された仮想空間と、実空間とが対応づけられるが、仮想空間の原点位置と基準点RPとが一致する場合には、位置姿勢算出部135は、仮想空間上の仮想オブジェクトの位置情報に基づいて、上記距離を算出することができる。また、仮想空間の原点位置と基準点RPとが一致しない場合には、位置姿勢算出部135は、仮想空間の原点位置からの仮想オブジェクトの位置情報と、原点と基準点RPとの位置関係とに基づいて、上記距離を算出することができる。
(認識ノイズ推定部140)
認識ノイズ推定部140は、画像認識部125による認識結果に含まれるノイズを推定する機能を有する。認識ノイズ推定部140は、例えば認識結果にノイズが含まれるか否か、物体の状態を示す情報のうち、どの成分にノイズが含まれるかを推定することができる。例えば認識ノイズ推定部140は、認識された実オブジェクトobj_rの状態量Xの値の時間推移を解析することによって、ノイズが含まれているか否か、またノイズの大きさを推定することができる。ここで状態量Xは、位置P、姿勢W、大きさSc、又はP,W,Scの組合わせであってよい。
図8に状態量Xの変化の一例が示される。図8の横軸は時間t、縦軸は状態量X及びその一次微分(dX/dt)である。図8の例では、時刻T0から時刻T1までの期間において、状態量Xは緩やかに変化している。この場合、例えばフーリエ変換によって状態量Xの周波数成分を抽出すると、状態量Xの高周波成分は小さくなる。また、状態量Xの一次微分の絶対値は、ある所定のレベル(撮像装置に対して物体が相対的に動く現実的な限界に相当するレベル)を超えることがない。状態量Xの二次微分についても同様である。また、状態量Xの変化が緩やかであることから、状態量Xの過去mサンプルの履歴に対して状態量Xの現在値が大きく異なることもない。状態量Xの履歴とは、過去mサンプルの単純な平均値であってもよく、又は過去mサンプルの重み付け平均値(より直近のサンプルの重みがより大きく設定され得る)であってもよい。
これに対し、時刻T1からT2までの期間において、状態量Xは激しく変化している。この場合、状態量Xの周波数成分を抽出すると、状態量Xの高周波成分はより大きくなる。また、状態量Xの一次微分はゼロの周りで振動している。一次微分の絶対値は、上述した所定のレベルを上回る。また、状態量Xの過去mサンプルの履歴に対して、状態量Xの現在値が大きく変化し得る。
従って、認識ノイズ推定部140は、物体の状態量の高周波成分の大きさ、状態量の一次微分(若しくは二次微分)の絶対値(若しくはその積算値)又は状態量の履歴と状態量の現在値との比較を通じて当該状態量の時間的変化を評価することができる。そして、認識ノイズ推定部140は、評価した時間的変化がより激しいほど認識の安定度が低く、ノイズが大きいと推定することができる。図8の例では、期間T0〜T1のノイズは「小」、期間T1〜T2のノイズは「大」、期間T2〜T3のノイズは「中」、期間T3〜T4のノイズは「大」と推定されている。
また、認識ノイズ推定部140は、状態量Xの種類毎、すなわち認識された物体の状態を示す指標のうちのいずれの成分にノイズが含まれるかを推定することができる。図8に示されるように、認識ノイズ推定部140は、状態量Xの高周波成分の大きさ、状態量の一次微分(若しくは二次微分)の絶対値(若しくはその積算値)又は状態量の履歴と状態量の現在値との比較を通じて当該状態量の時間的変化を評価する。例えば認識ノイズ推定部140が姿勢Wを状態量Xとして上記評価を行い、ノイズが大きいと評価されたとすると、認識ノイズ推定部140は、実オブジェクトobj_rの回転成分にノイズが含まれると推定することができる。
(補正部145)
補正部145は、仮想オブジェクトobj_vのオブジェクトデータと認識された実オブジェクトobj_rに基づいて算出される仮想オブジェクトobj_vの位置又は姿勢を補正することができる。補正部145は、実オブジェクトobj_rと、仮想オブジェクトobj_vとの間の距離に基づいて仮想オブジェクトobj_vの位置又は姿勢を補正することができる。補正部145は、基準点から遠い仮想オブジェクトobj_vほど実オブジェクトobj_rへの追従のペースが遅くなるように位置又は姿勢を補正してもよい。補正部145は、例えば認識ノイズ推定部140の推定結果に基づいて、ノイズが含まれると推定された成分のみを補正してもよい。或いは補正部145は、回転成分のみを補正してもよい。
仮想オブジェクトobj_vは、実オブジェクトobj_rの位置又は姿勢に追従するように実空間上の位置に対応づけられる。そして表示制御部150は、対応づけられた位置に仮想オブジェクトobj_vが存在するように入力画像に仮想オブジェクトobj_vを重畳して表示させる。従ってここで仮想オブジェクトobj_vの位置とは、実空間上に対応づけられた位置を指す。
また、図9に示されるように複数の仮想オブジェクトobj_vが違いに位相状態を保持している場合には、複数の仮想オブジェクトobj_vをグループとして取り扱うことができる。このとき補正部145は、複数の仮想オブジェクトobj_vの代表点を決定し、この代表点と基準点との距離を算出することができる。図9に示される複数の仮想オブジェクトobj_vは、複数の仮想オブジェクトobj_vが集まって1つの意味をなす表示状態を形成することができる。例えば仮想オブジェクトobj_v11、仮想オブジェクトobj_v12、仮想オブジェクトobj_v13、及び仮想オブジェクトobj_v14は、互いの相対位置を保持することにより意味をなす形状を形成する。従ってこのような場合には、それぞれの仮想オブジェクトobj_vに対してそれぞれ表示が変化されると複数の仮想オブジェクトobj_vの相対位置が崩れてしまうため、複数の仮想オブジェクトobj_vをグループとして取り扱い、複数の仮想オブジェクトobj_vに対して同じように表示を変化させることが望ましい。
補正する方法の一例としては、認識された実オブジェクトobj_rの基準点からの距離dに応じたフィルタリングを行う方法が挙げられる。例えば、認識されたマトリクスとモデルデータにより決定される次の時刻t+1における描画要素の位置・姿勢をM’(t+1)とし、時刻tにおける描画要素の位置・姿勢をM(t)とすると、時刻t+1における描画要素の補正位置M(t+1)は、以下の数式(1)により示される。このときaは距離dに応じた係数である。
M(t+1)=a*M’(t+1)+(1.0−a)*M(t)・・・数式(1)
この係数aは、dが大きいほど、即ち基準点から遠い描画要素ほど0に近づく。また係数aは、dが小さいほど1に近づく。
なお、上述の図9の例のように、複数の仮想オブジェクトobj_vをグループとして取り扱う場合には、代表点と基準点との間の距離に基づいて、複数の仮想オブジェクトobj_vに対して共通のフィルタ係数が用いられることが望ましい。かかる構成により、複数の仮想オブジェクトobj_vの相対位置を保つことができる。
(表示制御部150a)
表示制御部150aは、表示装置の表示を制御する機能を有する。表示制御部150aは、仮想オブジェクトobj_vを入力画像に重畳して表示させることができる。このとき表示制御部150aは、実オブジェクトobj_rの位置又は姿勢の少なくともいずれかに仮想オブジェクトobj_vが追従するように仮想オブジェクトobj_vを表示させることができる。このとき表示制御部150aは、仮想オブジェクトobj_vと基準点との間の距離に基づいて、仮想オブジェクトobj_vの表示を変化させることができる。表示制御部150aは、補正部145により補正された位置の情報に基づいて仮想オブジェクトobj_vを表示させることにより仮想オブジェクトobj_vの表示を変化させることができる。
〔3−2.動作〕
次に図10を参照しながら、本開示の第1の実施形態に係る情報処理装置の動作例について説明する。図10は、同実施形態に係る情報処理装置の動作例を示すフローチャートである。
情報処理装置100は、ARアプリケーションの処理が終了したか否かを判断する(S100)。ステップS100においてARアプリケーションの処理が終了下と判断された場合には、ARアプリケーション動作は終了される。一方ステップS100においてARアプリケーションの処理が終了されていないと判断された場合には、画像取得部120は、画像を取得する(S105)。そして、画像認識部125は、画像取得部120により取得された画像中の実オブジェクトobj_rを認識する(S110)。ここで、画像認識部125が実オブジェクトobj_rの認識に用いる画像は、撮像装置が撮像した画像そのものであってもよいし、撮像された画像に何らかの処理が施された後の画像であってもよい。画像認識部125は、実オブジェクトobj_rの位置又は姿勢を認識することができる。
次に画像認識部125は、この認識によりマーカ(仮想オブジェクトobj_vが関連づけられた実オブジェクトobj_r)が検出されたか否かを判断する(S115)。ステップS115の判断において、マーカが検出されたと判断された場合には、オブジェクトデータ取得部130は、このマーカに対応づけられたオブジェクトデータを取得する(S120)。
次に位置姿勢算出部145は、仮想オブジェクトobj_vの位置又は姿勢を算出する(S125)。そして認識ノイズ推定部140は、マーカ位置に含まれるノイズを推定する(S130)。このとき認識ノイズ推定部140は、マーカ位置のノイズの性質を推定することができる。
そして、認識ノイズ推定部140は、マーカ位置にノイズが含まれるか否かを判断する(S135)。ステップS135の判断において、ノイズが含まれると判断された場合には、補正部145は、仮想オブジェクトobj_vとマーカの基準点との間の距離を算出する(S140)。そして、補正部145は、ノイズ及び距離に応じて仮想オブジェクトobj_vの位置、又は姿勢を補正する(S145)。そして表示制御部150aは、仮想オブジェクトobj_vを画像に重畳して表示させる(S150)。このとき表示制御部150aは、補正部145により補正が行われた場合には、補正後の位置、姿勢を用いて仮想オブジェクトobj_vを画像に重畳することができる。
<4.第2の実施形態(視覚効果を加えた表示の例)>
次に、基準点と仮想オブジェクトobj_vとの間の距離に応じて視覚効果を施す本開示の第2の実施形態に係る情報処理装置について説明する。
〔4−1.機能構成〕
ここで図11及び図12を参照しながら、本開示の第2の実施形態に係る情報処理装置100の制御部114bにより実現される機能構成の一例を説明する。図11は、本開示の第2の実施形態に係る情報処理装置の機能構成を示すブロック図である。図12は、同実施形態に係る情報処理装置の実現する視覚効果を示す説明図である。
図11を参照すると、制御部114bは、画像取得部120と、画像認識部125と、オブジェクトデータ取得部130と、位置姿勢算出部135と、認識ノイズ推定部140と、視覚効果情報生成部147と、表示制御部150bとを主に有する。
(視覚効果情報生成部147)
視覚効果情報生成部147は、実オブジェクトobj_rの基準点RPと仮想オブジェクトobj_vobj_vとの間の距離に応じた視覚効果情報を生成する機能を有する。例えばこの視覚効果は、動きによる物体のぶれを表現するモーションブラー効果であってよい。モーションブラー効果は、例えば仮想オブジェクトobj_vの残像を重ねて表示させることにより表現されてよい。視覚効果情報生成部147は、例えば仮想オブジェクトobj_vの残像を表示させる視覚効果を加えるための視覚効果情報を生成することができる。視覚効果情報生成部147は、上記距離が遠いほど多くの残像が表示される視覚効果情報を生成することができる。
また視覚効果情報生成部147は、上述の図9の例のように、複数の仮想オブジェクトobj_vをグループとして取り扱う場合には、代表点と基準点との間の距離に基づいて、複数の仮想オブジェクトobj_vに対して共通の視覚効果情報を生成することができる。かかる構成により、複数の仮想オブジェクトobj_vの相対位置が保たれる。
(表示制御部150b)
表示制御部150bは、表示装置の表示を制御する機能を有する。表示制御部150bは、仮想オブジェクトobj_vを入力画像に重畳して表示させることができる。このとき表示制御部150bは、実オブジェクトobj_rの位置又は姿勢の少なくともいずれかに仮想オブジェクトobj_vが追従するように仮想オブジェクトobj_vを表示させることができる。このとき表示制御部150bは、仮想オブジェクトobj_vと基準点との間の距離に基づいて、仮想オブジェクトobj_vの表示を変化させることができる。表示制御部150bは、視覚効果情報生成部147の生成する視覚効果情報に従って仮想オブジェクトobj_vを表示させることにより仮想オブジェクトobj_vの表示を変化させることができる。視覚効果情報が、仮想オブジェクトobj_vの残像の度合いを示す情報である場合の表示例が図12に示される。視覚効果情報が仮想オブジェクトobj_vと基準点RPとの間の距離に基づいて生成されるとき、実オブジェクトobj_rの基準点からの距離が遠い仮想オブジェクトobj_vほど多くの残像が表示される。
〔4−2.動作〕
次に図13を参照しながら、本開示の第2の実施形態に係る情報処理装置の動作例について説明する。図13は、同実施形態に係る情報処理装置の動作例を示すフローチャートである。
情報処理装置100は、ARアプリケーションの処理が終了したか否かを判断する(S200)。ステップS100においてARアプリケーションの処理が終了下と判断された場合には、ARアプリケーション動作は終了される。一方ステップS100においてARアプリケーションの処理が終了されていないと判断された場合には、画像取得部120は、画像を取得する(S205)。そして、画像認識部125は、画像取得部120により取得された画像中の実オブジェクトobj_rを認識する(S210)。ここで、画像認識部125が実オブジェクトobj_rの認識に用いる画像は、撮像装置が撮像した画像そのものであってもよいし、撮像された画像に何らかの処理が施された後の画像であってもよい。画像認識部125は、実オブジェクトobj_rの位置又は姿勢を認識することができる。
次に画像認識部125は、この認識によりマーカ(仮想オブジェクトobj_vが関連づけられた実オブジェクトobj_r)が検出されたか否かを判断する(S215)。ステップS215の判断において、マーカが検出されたと判断された場合には、オブジェクトデータ取得部130は、このマーカに対応づけられたオブジェクトデータを取得する(S220)。
次に位置姿勢算出部145は、仮想オブジェクトobj_vの位置又は姿勢を算出する(S225)。そして認識ノイズ推定部140は、マーカ位置に含まれるノイズを推定する(S230)。このとき認識ノイズ推定部140は、マーカ位置のノイズの性質を推定することができる。
そして、認識ノイズ推定部140は、マーカ位置にノイズが含まれるか否かを判断する(S235)。ステップS235の判断において、ノイズが含まれると判断された場合には、補正部145は、仮想オブジェクトobj_vとマーカの基準点との間の距離を算出する(S240)。そして、視覚効果情報生成部147は、ノイズ及び距離に応じて仮想オブジェクトobj_vの視覚効果情報を生成する(S245)。そして表示制御部150bは、仮想オブジェクトobj_vを画像に重畳して表示させる(S250)。このとき表示制御部150bは、視覚効果情報生成部147により視覚効果情報が生成された場合には、生成された視覚効果情報に従って仮想オブジェクトobj_vを画像に重畳することができる。
<5.第3の実施形態(位置の補正+視覚効果)>
次に、基準点と仮想オブジェクトobj_vとの間の距離に応じて仮想オブジェクトobj_vの位置を補正する機能又は視覚効果を施す機能の少なくともいずれかを有する、本開示の第3の実施形態に係る情報処理装置について説明する。
まず図14を参照して、本開示の第3の実施形態に係る情報処理装置100の制御部114cにより実現される機能構成の一例を説明する。図14は、本開示の第3の実施形態に係る情報処理装置の機能構成を示すブロック図である。
図14を参照すると、制御部114cは、画像取得部120と、画像認識部125と、オブジェクトデータ取得部130と、位置姿勢算出部135と、認識ノイズ推定部140と、補正部145と、視覚効果情報生成部147と、表示制御部150cと、を主に有する。
(表示制御部150c)
表示制御部150cは、補正部145により仮想オブジェクトobj_vの位置が補正された場合には、補正後の位置に仮想オブジェクトobj_vを表示させることができる。また表示制御部150cは、視覚効果情報生成部147により視覚効果情報が生成された場合には、生成された視覚効果情報に従って仮想オブジェクトobj_vを表示させることができる。従ってこの場合、基準点RPからの距離が遠い仮想オブジェクトobj_vほど実オブジェクトobj_rへの追従が遅くなり、さらに基準点RPからの距離が遠い仮想オブジェクトobj_vほど多くの残像が表示される。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、画像認識部が認識に用いる画像と、表示制御部が表示させる画像とは同じ画像であることとしたが、本技術はかかる例に限定されない。例えば、画像認識部は、画像取得部が取得した画像に所定の処理、例えば画像サイズの縮小処理などを施した画像を用いてもよい。
また、上記実施形態では、主に情報処理装置100の表示部110の画面上に画像が表示される例について説明した。しかしながら、上記実施形態の情報処理装置100の制御部114により実現される機能を有する装置と表示部を有する装置とは別体の装置であってもよい。このような場合には、仮想オブジェクトobj_vを重畳した画像が表示部を有する装置に送信された後、表示部上に表示される。
また、上記実施形態では、情報処理装置100の機能が1つの装置上で実装される例について説明した。しかし、本技術はかかる例に限定されない。例えば、上記にて説明された機能が複数の情報処理装置上において分散処理される場合も本開示の技術的範囲に含まれる。
尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
入力画像に映る実オブジェクトを認識する認識部と、
前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて算出される、前記実オブジェクトと前記仮想オブジェクトとの間の距離に基づき、前記仮想オブジェクトの表示を変化させる表示制御部と、
を備える、情報処理装置。
(2)
前記情報は、仮想空間上の前記仮想オブジェクトの配置を定義する情報であり、
前記表示制御部は、前記実オブジェクトの位置及び姿勢に基づき、前記仮想空間を前記実オブジェクトが存在する実空間に対応づけて前記仮想オブジェクトを表示させる、
前記(1)に記載の情報処理装置。
(3)
前記距離は、前記実オブジェクトの基準点と前記仮想オブジェクトとの間の距離である、
記(2)に記載の情報処理装置。
(4)
前記仮想オブジェクトの位置又は姿勢を、前記距離に基づいて補正する補正部、
をさらに備え、
前記表示制御部は、補正後の前記位置又は前記姿勢に基づいて前記仮想オブジェクトを表示させることにより、前記仮想オブジェクトの表示を変化させる、
前記(1)〜(3)のいずれかに記載の情報処理装置。
(5)
前記表示制御部は、前記実オブジェクトの位置又は姿勢に前記仮想オブジェクトの表示が追従するように前記仮想オブジェクトを表示させ、
前記補正部は、前記距離に基づいて、前記仮想オブジェクトの前記実オブジェクトへの追従のペースが変化するように前記位置又は前記姿勢を補正する、
記(4)に記載の情報処理装置。
(6)
前記補正部は、前記距離が遠いほど前記追従のペースを遅くする、
前記(5)に記載の情報処理装置。
(7)
前記表示制御部は、前記距離に基づいて、前記仮想オブジェクトの残像を表示させる、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記表示制御部は、前記距離が遠いほど多くの前記残像を表示させる、
前記(7)に記載の情報処理装置。
(9)
前記補正部は、前記仮想オブジェクトの回転成分を補正する、
前記(4)〜(6)のいずれかに記載の情報処理装置。
(10)
前記基準点の位置情報に含まれるノイズの性質を推定する推定部、
をさらに備え、
前記表示制御部は、推定された前記性質に基づいて、前記仮想オブジェクトの表示を変化させる、
前記(3)に記載の情報処理装置。
(11)
前記表示制御部は、複数の前記仮想オブジェクトに対する前記実空間上の代表点と前記基準点との間の前記距離に応じて、複数の前記仮想オブジェクトの表示を変化させる、
前記(3)に記載の情報処理装置。
(12)
前記表示制御部は、複数の前記仮想オブジェクトに位相関係が設定されているとき、前記代表点を用いる、
前記(11)に記載の情報処理装置。
(13)
前記基準点は、前記実オブジェクトの重心とする、
前記(3)に記載の情報処理装置。
(14)
前記基準点は、前記入力画像に基づいて判定される、位置変動の小さい点とする、
前記(3)に記載の情報処理装置。
(15)
前記推定部は、前記入力画像を解析することにより前記ノイズの性質を推定する、
前記(10)に記載の情報処理装置。
(16)
前記推定部は、前記入力画像の周波数成分を解析することにより、前記ノイズの性質を推定する、
前記(15)に記載の情報処理装置。
(17)
入力画像に映る実オブジェクトを認識することと、
前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて、前記実オブジェクトと前記仮想オブジェクトとの間の距離を算出することと、
前記距離に基づき、前記仮想オブジェクトの表示を変化させることと、
を含む、情報処理方法。
(18)
コンピュータを、
入力画像に映る実オブジェクトを認識する認識部と、
前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて算出される、前記実オブジェクトと前記仮想オブジェクトとの間の距離に基づき、前記仮想オブジェクトの表示を変化させる表示制御部と、
を備える、情報処理装置として機能させるためのプログラム。
100 情報処理装置
102 撮像部
104 センサ部
106 入力部
108 記憶部
110 表示部
112 通信部
114 制御部
120 画像取得部
125 画像認識部
130 オブジェクトデータ取得部
135 姿勢位置算出部
140 認識ノイズ推定部
145 補正部
147 視覚効果情報生成部
150 表示制御部

Claims (17)

  1. 入力画像に映る実オブジェクトを認識する認識部と、
    前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて算出される、前記実オブジェクトと前記仮想オブジェクトとの間の距離に基づき、前記仮想オブジェクトの表示を変化させる表示制御部と、
    前記仮想オブジェクトの位置又は姿勢を、前記距離に基づいて補正する補正部と、
    を備え、前記表示制御部は、補正後の前記位置又は前記姿勢に基づいて前記仮想オブジェクトを表示させることにより、前記仮想オブジェクトの表示を変化させる、情報処理装置。
  2. 前記情報は、仮想空間上の前記仮想オブジェクトの配置を定義する情報であり、
    前記表示制御部は、前記実オブジェクトの位置及び姿勢に基づき、前記仮想空間を前記実オブジェクトが存在する実空間に対応づけて前記仮想オブジェクトを表示させる、
    請求項1に記載の情報処理装置。
  3. 前記距離は、前記実オブジェクトの基準点と前記仮想オブジェクトとの間の距離である、
    請求項2に記載の情報処理装置。
  4. 前記表示制御部は、前記実オブジェクトの位置又は姿勢に前記仮想オブジェクトの表示が追従するように前記仮想オブジェクトを表示させ、
    前記補正部は、前記距離に基づいて、前記仮想オブジェクトの前記実オブジェクトへの追従のペースが変化するように前記位置又は前記姿勢を補正する、
    請求項1〜3のいずれか一項に記載の情報処理装置。
  5. 前記補正部は、前記距離が遠いほど前記追従のペースを遅くする、
    請求項に記載の情報処理装置。
  6. 前記表示制御部は、前記距離に基づいて、前記仮想オブジェクトの残像を表示させる、
    請求項1〜のいずれか一項に記載の情報処理装置。
  7. 前記表示制御部は、前記距離が遠いほど多くの前記残像を表示させる、
    請求項に記載の情報処理装置。
  8. 前記補正部は、前記仮想オブジェクトの回転成分を補正する、
    請求項1〜7のいずれか一項に記載の情報処理装置。
  9. 前記基準点の位置情報に含まれるノイズの性質を推定する推定部、
    をさらに備え、
    前記表示制御部は、推定された前記性質に基づいて、前記仮想オブジェクトの表示を変化させる、
    請求項3に記載の情報処理装置。
  10. 前記表示制御部は、複数の前記仮想オブジェクトに対する前記実空間上の代表点と前記基準点との間の前記距離に応じて、複数の前記仮想オブジェクトの表示を変化させる、
    請求項3に記載の情報処理装置。
  11. 前記表示制御部は、複数の前記仮想オブジェクトに位相関係が設定されているとき、前記代表点を用いる、
    請求項10に記載の情報処理装置。
  12. 前記基準点は、前記実オブジェクトの重心とする、
    請求項3に記載の情報処理装置。
  13. 前記基準点は、前記入力画像に基づいて判定される、位置変動の小さい点とする、
    請求項3に記載の情報処理装置。
  14. 前記推定部は、前記入力画像を解析することにより前記ノイズの性質を推定する、
    請求項に記載の情報処理装置。
  15. 前記推定部は、前記入力画像の周波数成分を解析することにより、前記ノイズの性質を推定する、
    請求項14に記載の情報処理装置。
  16. 入力画像に映る実オブジェクトを認識することと、
    前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて、前記実オブジェクトと前記仮想オブジェクトとの間の距離を算出することと、
    前記仮想オブジェクトの位置又は姿勢を、前記距離に基づいて補正することと、
    補正後の前記位置又は前記姿勢に基づいて前記仮想オブジェクトを表示させることにより、前記仮想オブジェクトの表示を変化させることと、
    を含む、情報処理方法。
  17. コンピュータを、
    入力画像に映る実オブジェクトを認識する認識部と、
    前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて算出される、前記実オブジェクトと前記仮想オブジェクトとの間の距離に基づき、前記仮想オブジェクトの表示を変化させる表示制御部と、
    前記仮想オブジェクトの位置又は姿勢を、前記距離に基づいて補正する補正部と、
    を備え、前記表示制御部は、補正後の前記位置又は前記姿勢に基づいて前記仮想オブジェクトを表示させることにより、前記仮想オブジェクトの表示を変化させる、情報処理装置として機能させるためのプログラム。
JP2011248098A 2011-11-11 2011-11-11 情報処理装置、情報処理方法、及びプログラム Active JP5838747B2 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2011248098A JP5838747B2 (ja) 2011-11-11 2011-11-11 情報処理装置、情報処理方法、及びプログラム
CN201280053969.4A CN103907139B (zh) 2011-11-11 2012-10-03 信息处理装置、信息处理方法和程序
PCT/JP2012/006336 WO2013069196A1 (en) 2011-11-11 2012-10-03 Information processing device, information processing method, and program
US14/342,974 US9497389B2 (en) 2011-11-11 2012-10-03 Information processing device, information processing method, and program for reduction of noise effects on a reference point
BR112014010681A BR112014010681A2 (pt) 2011-11-11 2012-10-03 aparelho e método de processamento de informação, e, mídia legível por computador não temporária
EP12847414.5A EP2777026B1 (en) 2011-11-11 2012-10-03 Information processing device, information processing method, and program
RU2014117669/08A RU2014117669A (ru) 2011-11-11 2012-10-03 Устройство обработки информации, способ обработки информации и программа
KR1020147010544A KR20140088866A (ko) 2011-11-11 2012-10-03 정보 처리 장치, 정보 처리 방법, 및 프로그램
TW101138680A TW201324435A (zh) 2011-11-11 2012-10-19 資訊處理裝置,資訊處理方法及程式
IN3352CHN2014 IN2014CN03352A (ja) 2011-11-11 2014-05-02

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011248098A JP5838747B2 (ja) 2011-11-11 2011-11-11 情報処理装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2013105285A JP2013105285A (ja) 2013-05-30
JP2013105285A5 JP2013105285A5 (ja) 2014-12-18
JP5838747B2 true JP5838747B2 (ja) 2016-01-06

Family

ID=48288994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011248098A Active JP5838747B2 (ja) 2011-11-11 2011-11-11 情報処理装置、情報処理方法、及びプログラム

Country Status (10)

Country Link
US (1) US9497389B2 (ja)
EP (1) EP2777026B1 (ja)
JP (1) JP5838747B2 (ja)
KR (1) KR20140088866A (ja)
CN (1) CN103907139B (ja)
BR (1) BR112014010681A2 (ja)
IN (1) IN2014CN03352A (ja)
RU (1) RU2014117669A (ja)
TW (1) TW201324435A (ja)
WO (1) WO2013069196A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014202490A1 (de) * 2014-02-12 2015-08-13 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe
US9619940B1 (en) 2014-06-10 2017-04-11 Ripple Inc Spatial filtering trace location
US9646418B1 (en) * 2014-06-10 2017-05-09 Ripple Inc Biasing a rendering location of an augmented reality object
US10930038B2 (en) 2014-06-10 2021-02-23 Lab Of Misfits Ar, Inc. Dynamic location based digital element
US10026226B1 (en) 2014-06-10 2018-07-17 Ripple Inc Rendering an augmented reality object
JP6417797B2 (ja) * 2014-09-03 2018-11-07 株式会社リコー 情報端末装置、情報処理方法、システムおよびプログラム
JP6665572B2 (ja) 2016-02-16 2020-03-13 富士通株式会社 制御プログラム、制御方法およびコンピュータ
CN106340215B (zh) * 2016-11-09 2019-01-04 快创科技(大连)有限公司 基于ar增强现实和自适应识别的乐器辅助学习体验系统
JP6816492B2 (ja) * 2016-12-14 2021-01-20 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
EP3336805A1 (en) 2016-12-15 2018-06-20 Thomson Licensing Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3d environment
WO2018178517A1 (en) * 2017-03-29 2018-10-04 Engemma Oy Gemological object recognition
US11308705B2 (en) * 2017-03-29 2022-04-19 Rakuten Group, Inc. Display control device, display control method, and program
JP6836979B2 (ja) * 2017-09-29 2021-03-03 株式会社Nttドコモ 映像表示システム
US11263456B2 (en) 2017-10-31 2022-03-01 Sony Corporation Virtual object repositioning versus motion of user and perceived or expected delay
WO2019116689A1 (ja) * 2017-12-15 2019-06-20 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN108446400A (zh) 2018-03-29 2018-08-24 京东方科技集团股份有限公司 增强现实装置、服务器、增强现实系统和共享方法
US10812736B2 (en) * 2018-12-24 2020-10-20 Polarr, Inc. Detected object based image and video effects selection
US11308652B2 (en) 2019-02-25 2022-04-19 Apple Inc. Rendering objects to match camera noise

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6847364B1 (en) * 1999-12-23 2005-01-25 Intel Corporation Methods and apparatus for creating three-dimensional motion illusion in a graphics processing system
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP4032776B2 (ja) 2002-03-04 2008-01-16 ソニー株式会社 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
US20030179308A1 (en) * 2002-03-19 2003-09-25 Lucia Zamorano Augmented tracking using video, computed data and/or sensing technologies
CN100416336C (zh) * 2003-06-12 2008-09-03 美国西门子医疗解决公司 校准真实和虚拟视图
JP4726194B2 (ja) * 2005-04-01 2011-07-20 キヤノン株式会社 キャリブレーション方法及び装置
JP5063023B2 (ja) * 2006-03-31 2012-10-31 キヤノン株式会社 位置姿勢補正装置、位置姿勢補正方法
JP4757142B2 (ja) * 2006-08-10 2011-08-24 キヤノン株式会社 撮影環境校正方法及び情報処理装置
JP2009025918A (ja) * 2007-07-17 2009-02-05 Canon Inc 画像処理装置、画像処理方法
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
JP5244012B2 (ja) * 2009-03-31 2013-07-24 株式会社エヌ・ティ・ティ・ドコモ 端末装置、拡張現実感システム及び端末画面表示方法
GB2470073B (en) * 2009-05-08 2011-08-24 Sony Comp Entertainment Europe Entertainment device, system and method
JP5573238B2 (ja) * 2010-03-04 2014-08-20 ソニー株式会社 情報処理装置、情報処理法方法およびプログラム
CN101893935B (zh) * 2010-07-14 2012-01-11 北京航空航天大学 基于真实球拍的协同式增强现实乒乓球系统构建方法
US9311883B2 (en) * 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device

Also Published As

Publication number Publication date
BR112014010681A2 (pt) 2017-04-25
TW201324435A (zh) 2013-06-16
CN103907139A (zh) 2014-07-02
RU2014117669A (ru) 2015-11-10
EP2777026A1 (en) 2014-09-17
EP2777026A4 (en) 2016-01-06
US20140240552A1 (en) 2014-08-28
KR20140088866A (ko) 2014-07-11
IN2014CN03352A (ja) 2015-07-03
EP2777026B1 (en) 2020-02-05
US9497389B2 (en) 2016-11-15
WO2013069196A1 (en) 2013-05-16
CN103907139B (zh) 2018-03-06
JP2013105285A (ja) 2013-05-30

Similar Documents

Publication Publication Date Title
JP5838747B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10930083B2 (en) Image processing apparatus and display control method
US20210264200A1 (en) Terminal device, information processing device, object identifying method, program, and object identifying system
US9761054B2 (en) Augmented reality computing with inertial sensors
US9823821B2 (en) Information processing apparatus, display control method, and program for superimposing virtual objects on input image and selecting an interested object
US10839544B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable storage medium
US8811667B2 (en) Terminal device, object control method, and program
JP2013225245A (ja) 画像処理装置、画像処理方法及びプログラム
JP2013105285A5 (ja)
JP5668587B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20230047470A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium
JP2015005220A (ja) 情報表示装置及び情報表示方法
WO2023223262A1 (en) Smooth object correction for augmented reality devices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151026

R151 Written notification of patent or utility model registration

Ref document number: 5838747

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250