JP5838747B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP5838747B2 JP5838747B2 JP2011248098A JP2011248098A JP5838747B2 JP 5838747 B2 JP5838747 B2 JP 5838747B2 JP 2011248098 A JP2011248098 A JP 2011248098A JP 2011248098 A JP2011248098 A JP 2011248098A JP 5838747 B2 JP5838747 B2 JP 5838747B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- information processing
- processing apparatus
- real
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Image Analysis (AREA)
Description
1.概要
2.ハードウェア構成例
3.第1の実施形態(位置を補正する例)
3−1.機能構成
3−2.動作
4.第2の実施形態(視覚効果を加えた表示の例)
4−1.機能構成
4−2.動作
5.第3の実施形態(位置の補正+視覚効果)
まず、図1〜図4を参照しながら、本開示の一実施形態に係る情報処理装置の概要について説明する。図1は、本開示の一実施形態に係る情報処理装置の機能の概要を示す説明図である。図2は、同実施形態に係る情報処理装置が表示する画面の一例を示す説明図である。図3は、同実施形態に係る情報処理装置が表示する画面の表示方法を説明するための説明図である。図4は、同実施形態に係る情報処理装置において生じる表示位置のブレについて説明するための説明図である。
ここで、図5を参照しながら、本開示の一実施形態に係る情報処理装置のハードウェア構成の一例について説明する。図5は、同実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される撮像画像は、映像入力の各フレームを構成する。
センサ部104は、撮像部102の動きを計測する動きセンサ群を含む。動きセンサは、例えば、撮像部102の加速度を測定する加速度センサ、傾き角を測定するジャイロセンサ、又は撮像部102の向けられた方位を測定する地磁気センサなどであってよい。また、センサ部104は、GPS(Global Positioning System)信号を受信して装置の緯度、経度及び高度を測定するGPSセンサを含んでもよい。
入力部106は、ユーザが情報処理装置100を操作し又は情報処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、典型的には、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含む。その代わりに(又はそれに加えて)、入力部106は、マウス若しくはタッチパッドなどのポインティングデバイス、画像に映るユーザのジェスチャを認識するジェスチャ認識モジュール、又はHMD(Head Mounted Display)を装着したユーザの視線方向を検出する視線検出モジュールを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、情報処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータには、例えば、撮像部102により生成される画像データ及びセンサ部104により生成されるセンサデータが含まれ得る。また、記憶部108により記憶されるデータには、例えば、情報処理装置100による物体認識の際に用いられるモデルデータ及び仮想オブジェクトobj_vを定義するオブジェクトデータなども含まれ得る。
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などにより構成される表示モジュールである。表示部110は、例えば、撮像部102により撮像される画像、又は制御部114により実現されるARアプリケーションの画像を画面上に表示する。表示部110は、ユーザにより把持される情報処理装置100の画面であってもよく、又はユーザにより装着されるシースルー型若しくは非シースルー型のHMDであってもよい。
通信部112は、情報処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
制御部114は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部114は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する情報処理装置100の様々な機能を動作させる。
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部114を相互に接続する。
まず、基準点と仮想オブジェクトobj_vの間の距離に応じて位置を補正する機能を有する、本開示の第1の実施形態に係る情報処理装置について説明する。
ここで図6〜図9を参照しながら、本開示の第1の実施形態に係る情報処理装置100の制御部114aにより実現される機能構成の一例を説明する。図6は、本開示の第1の実施形態に係る情報処理装置の機能構成を示すブロック図である。図7は、同実施形態に係る情報処理装置が認識する物体の状態を示す指標について示す説明図である。図8は、同実施形態に係る情報処理装置のノイズ推定について示す説明図である。図9は、同実施形態に係る情報処理装置において複数の仮想オブジェクトobj_vの代表点を用いる例を示す説明図である。
画像取得部120は、撮像部102(又は他の撮像装置)を用いて撮像された実空間を映す入力画像を取得する。入力画像は、仮想オブジェクトobj_vが配置される実空間内の場所又は物体が映された画像である。画像取得部120は、取得した入力画像を、画像認識部125及び表示制御部150aへ供給する。例えば、撮像部102(又は他の撮像装置)が実空間を連続的に撮像している場合には、画像取得部120は、連続的に入力画像を取得することができる。
画像認識部125は、画像取得部120から供給される入力画像に映る物体を認識することができる。画像認識部125は、例えば記憶部108に記憶されるモデルデータ、又は通信部112を介して接続される外部装置に記憶されるモデルデータを用いて、物体認識を行うことができる。モデルデータは、情報処理装置100が認識の対象とする物体の形状又は外観に関する情報である。本実施形態において、情報処理装置100による認識の対象は、例えば図1に例示した実オブジェクトobj_rなど、実空間に存在する任意の物体であってよい。モデルデータは、各物体の形状を定義するデータ、各物体に付される所定のシンボルマーク又はテキストラベルなどの画像データ、又は各物体についての既知の画像から抽出された特徴量セットのデータなどを含みうる。
オブジェクトデータ取得部130は、表示制御部150により入力画像に重畳される仮想オブジェクトobj_vに関するデータを取得する機能を有する。オブジェクトデータ取得部130により取得されるデータは、仮想オブジェクトobj_vを定義するオブジェクトデータを含む。オブジェクトデータは、例えば、仮想オブジェクトobj_vの種類、関連づけられる物体の識別子、仮想的な座標空間(以下、仮想空間とも言う)上の仮想オブジェクトobj_vの位置情報、及び情報コンテンツの内容などを定義するデータであってよい。オブジェクトデータ取得部130は、画像認識部125により認識された実オブジェクトobj_rの識別子に基づいて抽出されたオブジェクトデータを取得することができる。オブジェクトデータ取得部130は、取得した情報を位置姿勢算出部135に供給することができる。
位置姿勢算出部135は、オブジェクトデータ取得部130から供給される仮想オブジェクトobj_vに関するデータと、入力画像とに基づいて、仮想オブジェクトobj_vの位置及び姿勢を算出することができる。なお、ここで用いられる実オブジェクトobj_rの基準点RPは、例えば実オブジェクトobj_rの重心とすることができる。また、基準点RPは、入力画像を解析することによって得られる、位置変動の小さい点とすることもできる。位置姿勢算出部135は、例えば入力画像から認識される実オブジェクトobj_rの位置及び姿勢に基づいて、仮想空間の原点位置及び座標軸方向を定義することにより、実空間上に仮想空間を対応づけることができる。また位置姿勢算出部135は、実オブジェクトobj_rと、仮想オブジェクトobj_vとの間の距離を算出する距離算出部として機能することもできる。例えば上述の通り、仮想オブジェクトの配置が定義された仮想空間と、実空間とが対応づけられるが、仮想空間の原点位置と基準点RPとが一致する場合には、位置姿勢算出部135は、仮想空間上の仮想オブジェクトの位置情報に基づいて、上記距離を算出することができる。また、仮想空間の原点位置と基準点RPとが一致しない場合には、位置姿勢算出部135は、仮想空間の原点位置からの仮想オブジェクトの位置情報と、原点と基準点RPとの位置関係とに基づいて、上記距離を算出することができる。
認識ノイズ推定部140は、画像認識部125による認識結果に含まれるノイズを推定する機能を有する。認識ノイズ推定部140は、例えば認識結果にノイズが含まれるか否か、物体の状態を示す情報のうち、どの成分にノイズが含まれるかを推定することができる。例えば認識ノイズ推定部140は、認識された実オブジェクトobj_rの状態量Xの値の時間推移を解析することによって、ノイズが含まれているか否か、またノイズの大きさを推定することができる。ここで状態量Xは、位置P、姿勢W、大きさSc、又はP,W,Scの組合わせであってよい。
補正部145は、仮想オブジェクトobj_vのオブジェクトデータと認識された実オブジェクトobj_rに基づいて算出される仮想オブジェクトobj_vの位置又は姿勢を補正することができる。補正部145は、実オブジェクトobj_rと、仮想オブジェクトobj_vとの間の距離に基づいて仮想オブジェクトobj_vの位置又は姿勢を補正することができる。補正部145は、基準点から遠い仮想オブジェクトobj_vほど実オブジェクトobj_rへの追従のペースが遅くなるように位置又は姿勢を補正してもよい。補正部145は、例えば認識ノイズ推定部140の推定結果に基づいて、ノイズが含まれると推定された成分のみを補正してもよい。或いは補正部145は、回転成分のみを補正してもよい。
表示制御部150aは、表示装置の表示を制御する機能を有する。表示制御部150aは、仮想オブジェクトobj_vを入力画像に重畳して表示させることができる。このとき表示制御部150aは、実オブジェクトobj_rの位置又は姿勢の少なくともいずれかに仮想オブジェクトobj_vが追従するように仮想オブジェクトobj_vを表示させることができる。このとき表示制御部150aは、仮想オブジェクトobj_vと基準点との間の距離に基づいて、仮想オブジェクトobj_vの表示を変化させることができる。表示制御部150aは、補正部145により補正された位置の情報に基づいて仮想オブジェクトobj_vを表示させることにより仮想オブジェクトobj_vの表示を変化させることができる。
次に図10を参照しながら、本開示の第1の実施形態に係る情報処理装置の動作例について説明する。図10は、同実施形態に係る情報処理装置の動作例を示すフローチャートである。
次に、基準点と仮想オブジェクトobj_vとの間の距離に応じて視覚効果を施す本開示の第2の実施形態に係る情報処理装置について説明する。
ここで図11及び図12を参照しながら、本開示の第2の実施形態に係る情報処理装置100の制御部114bにより実現される機能構成の一例を説明する。図11は、本開示の第2の実施形態に係る情報処理装置の機能構成を示すブロック図である。図12は、同実施形態に係る情報処理装置の実現する視覚効果を示す説明図である。
視覚効果情報生成部147は、実オブジェクトobj_rの基準点RPと仮想オブジェクトobj_vobj_vとの間の距離に応じた視覚効果情報を生成する機能を有する。例えばこの視覚効果は、動きによる物体のぶれを表現するモーションブラー効果であってよい。モーションブラー効果は、例えば仮想オブジェクトobj_vの残像を重ねて表示させることにより表現されてよい。視覚効果情報生成部147は、例えば仮想オブジェクトobj_vの残像を表示させる視覚効果を加えるための視覚効果情報を生成することができる。視覚効果情報生成部147は、上記距離が遠いほど多くの残像が表示される視覚効果情報を生成することができる。
表示制御部150bは、表示装置の表示を制御する機能を有する。表示制御部150bは、仮想オブジェクトobj_vを入力画像に重畳して表示させることができる。このとき表示制御部150bは、実オブジェクトobj_rの位置又は姿勢の少なくともいずれかに仮想オブジェクトobj_vが追従するように仮想オブジェクトobj_vを表示させることができる。このとき表示制御部150bは、仮想オブジェクトobj_vと基準点との間の距離に基づいて、仮想オブジェクトobj_vの表示を変化させることができる。表示制御部150bは、視覚効果情報生成部147の生成する視覚効果情報に従って仮想オブジェクトobj_vを表示させることにより仮想オブジェクトobj_vの表示を変化させることができる。視覚効果情報が、仮想オブジェクトobj_vの残像の度合いを示す情報である場合の表示例が図12に示される。視覚効果情報が仮想オブジェクトobj_vと基準点RPとの間の距離に基づいて生成されるとき、実オブジェクトobj_rの基準点からの距離が遠い仮想オブジェクトobj_vほど多くの残像が表示される。
次に図13を参照しながら、本開示の第2の実施形態に係る情報処理装置の動作例について説明する。図13は、同実施形態に係る情報処理装置の動作例を示すフローチャートである。
次に、基準点と仮想オブジェクトobj_vとの間の距離に応じて仮想オブジェクトobj_vの位置を補正する機能又は視覚効果を施す機能の少なくともいずれかを有する、本開示の第3の実施形態に係る情報処理装置について説明する。
表示制御部150cは、補正部145により仮想オブジェクトobj_vの位置が補正された場合には、補正後の位置に仮想オブジェクトobj_vを表示させることができる。また表示制御部150cは、視覚効果情報生成部147により視覚効果情報が生成された場合には、生成された視覚効果情報に従って仮想オブジェクトobj_vを表示させることができる。従ってこの場合、基準点RPからの距離が遠い仮想オブジェクトobj_vほど実オブジェクトobj_rへの追従が遅くなり、さらに基準点RPからの距離が遠い仮想オブジェクトobj_vほど多くの残像が表示される。
(1)
入力画像に映る実オブジェクトを認識する認識部と、
前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて算出される、前記実オブジェクトと前記仮想オブジェクトとの間の距離に基づき、前記仮想オブジェクトの表示を変化させる表示制御部と、
を備える、情報処理装置。
(2)
前記情報は、仮想空間上の前記仮想オブジェクトの配置を定義する情報であり、
前記表示制御部は、前記実オブジェクトの位置及び姿勢に基づき、前記仮想空間を前記実オブジェクトが存在する実空間に対応づけて前記仮想オブジェクトを表示させる、
前記(1)に記載の情報処理装置。
(3)
前記距離は、前記実オブジェクトの基準点と前記仮想オブジェクトとの間の距離である、
前記(2)に記載の情報処理装置。
(4)
前記仮想オブジェクトの位置又は姿勢を、前記距離に基づいて補正する補正部、
をさらに備え、
前記表示制御部は、補正後の前記位置又は前記姿勢に基づいて前記仮想オブジェクトを表示させることにより、前記仮想オブジェクトの表示を変化させる、
前記(1)〜(3)のいずれかに記載の情報処理装置。
(5)
前記表示制御部は、前記実オブジェクトの位置又は姿勢に前記仮想オブジェクトの表示が追従するように前記仮想オブジェクトを表示させ、
前記補正部は、前記距離に基づいて、前記仮想オブジェクトの前記実オブジェクトへの追従のペースが変化するように前記位置又は前記姿勢を補正する、
前記(4)に記載の情報処理装置。
(6)
前記補正部は、前記距離が遠いほど前記追従のペースを遅くする、
前記(5)に記載の情報処理装置。
(7)
前記表示制御部は、前記距離に基づいて、前記仮想オブジェクトの残像を表示させる、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記表示制御部は、前記距離が遠いほど多くの前記残像を表示させる、
前記(7)に記載の情報処理装置。
(9)
前記補正部は、前記仮想オブジェクトの回転成分を補正する、
前記(4)〜(6)のいずれかに記載の情報処理装置。
(10)
前記基準点の位置情報に含まれるノイズの性質を推定する推定部、
をさらに備え、
前記表示制御部は、推定された前記性質に基づいて、前記仮想オブジェクトの表示を変化させる、
前記(3)に記載の情報処理装置。
(11)
前記表示制御部は、複数の前記仮想オブジェクトに対する前記実空間上の代表点と前記基準点との間の前記距離に応じて、複数の前記仮想オブジェクトの表示を変化させる、
前記(3)に記載の情報処理装置。
(12)
前記表示制御部は、複数の前記仮想オブジェクトに位相関係が設定されているとき、前記代表点を用いる、
前記(11)に記載の情報処理装置。
(13)
前記基準点は、前記実オブジェクトの重心とする、
前記(3)に記載の情報処理装置。
(14)
前記基準点は、前記入力画像に基づいて判定される、位置変動の小さい点とする、
前記(3)に記載の情報処理装置。
(15)
前記推定部は、前記入力画像を解析することにより前記ノイズの性質を推定する、
前記(10)に記載の情報処理装置。
(16)
前記推定部は、前記入力画像の周波数成分を解析することにより、前記ノイズの性質を推定する、
前記(15)に記載の情報処理装置。
(17)
入力画像に映る実オブジェクトを認識することと、
前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて、前記実オブジェクトと前記仮想オブジェクトとの間の距離を算出することと、
前記距離に基づき、前記仮想オブジェクトの表示を変化させることと、
を含む、情報処理方法。
(18)
コンピュータを、
入力画像に映る実オブジェクトを認識する認識部と、
前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて算出される、前記実オブジェクトと前記仮想オブジェクトとの間の距離に基づき、前記仮想オブジェクトの表示を変化させる表示制御部と、
を備える、情報処理装置として機能させるためのプログラム。
102 撮像部
104 センサ部
106 入力部
108 記憶部
110 表示部
112 通信部
114 制御部
120 画像取得部
125 画像認識部
130 オブジェクトデータ取得部
135 姿勢位置算出部
140 認識ノイズ推定部
145 補正部
147 視覚効果情報生成部
150 表示制御部
Claims (17)
- 入力画像に映る実オブジェクトを認識する認識部と、
前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて算出される、前記実オブジェクトと前記仮想オブジェクトとの間の距離に基づき、前記仮想オブジェクトの表示を変化させる表示制御部と、
前記仮想オブジェクトの位置又は姿勢を、前記距離に基づいて補正する補正部と、
を備え、前記表示制御部は、補正後の前記位置又は前記姿勢に基づいて前記仮想オブジェクトを表示させることにより、前記仮想オブジェクトの表示を変化させる、情報処理装置。 - 前記情報は、仮想空間上の前記仮想オブジェクトの配置を定義する情報であり、
前記表示制御部は、前記実オブジェクトの位置及び姿勢に基づき、前記仮想空間を前記実オブジェクトが存在する実空間に対応づけて前記仮想オブジェクトを表示させる、
請求項1に記載の情報処理装置。 - 前記距離は、前記実オブジェクトの基準点と前記仮想オブジェクトとの間の距離である、
請求項2に記載の情報処理装置。 - 前記表示制御部は、前記実オブジェクトの位置又は姿勢に前記仮想オブジェクトの表示が追従するように前記仮想オブジェクトを表示させ、
前記補正部は、前記距離に基づいて、前記仮想オブジェクトの前記実オブジェクトへの追従のペースが変化するように前記位置又は前記姿勢を補正する、
請求項1〜3のいずれか一項に記載の情報処理装置。 - 前記補正部は、前記距離が遠いほど前記追従のペースを遅くする、
請求項4に記載の情報処理装置。 - 前記表示制御部は、前記距離に基づいて、前記仮想オブジェクトの残像を表示させる、
請求項1〜5のいずれか一項に記載の情報処理装置。 - 前記表示制御部は、前記距離が遠いほど多くの前記残像を表示させる、
請求項6に記載の情報処理装置。 - 前記補正部は、前記仮想オブジェクトの回転成分を補正する、
請求項1〜7のいずれか一項に記載の情報処理装置。 - 前記基準点の位置情報に含まれるノイズの性質を推定する推定部、
をさらに備え、
前記表示制御部は、推定された前記性質に基づいて、前記仮想オブジェクトの表示を変化させる、
請求項3に記載の情報処理装置。 - 前記表示制御部は、複数の前記仮想オブジェクトに対する前記実空間上の代表点と前記基準点との間の前記距離に応じて、複数の前記仮想オブジェクトの表示を変化させる、
請求項3に記載の情報処理装置。 - 前記表示制御部は、複数の前記仮想オブジェクトに位相関係が設定されているとき、前記代表点を用いる、
請求項10に記載の情報処理装置。 - 前記基準点は、前記実オブジェクトの重心とする、
請求項3に記載の情報処理装置。 - 前記基準点は、前記入力画像に基づいて判定される、位置変動の小さい点とする、
請求項3に記載の情報処理装置。 - 前記推定部は、前記入力画像を解析することにより前記ノイズの性質を推定する、
請求項9に記載の情報処理装置。 - 前記推定部は、前記入力画像の周波数成分を解析することにより、前記ノイズの性質を推定する、
請求項14に記載の情報処理装置。 - 入力画像に映る実オブジェクトを認識することと、
前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて、前記実オブジェクトと前記仮想オブジェクトとの間の距離を算出することと、
前記仮想オブジェクトの位置又は姿勢を、前記距離に基づいて補正することと、
補正後の前記位置又は前記姿勢に基づいて前記仮想オブジェクトを表示させることにより、前記仮想オブジェクトの表示を変化させることと、
を含む、情報処理方法。 - コンピュータを、
入力画像に映る実オブジェクトを認識する認識部と、
前記実オブジェクトと関連づけられる仮想オブジェクト及び前記実オブジェクトの位置関係を定義する情報に基づいて算出される、前記実オブジェクトと前記仮想オブジェクトとの間の距離に基づき、前記仮想オブジェクトの表示を変化させる表示制御部と、
前記仮想オブジェクトの位置又は姿勢を、前記距離に基づいて補正する補正部と、
を備え、前記表示制御部は、補正後の前記位置又は前記姿勢に基づいて前記仮想オブジェクトを表示させることにより、前記仮想オブジェクトの表示を変化させる、情報処理装置として機能させるためのプログラム。
Priority Applications (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011248098A JP5838747B2 (ja) | 2011-11-11 | 2011-11-11 | 情報処理装置、情報処理方法、及びプログラム |
CN201280053969.4A CN103907139B (zh) | 2011-11-11 | 2012-10-03 | 信息处理装置、信息处理方法和程序 |
PCT/JP2012/006336 WO2013069196A1 (en) | 2011-11-11 | 2012-10-03 | Information processing device, information processing method, and program |
US14/342,974 US9497389B2 (en) | 2011-11-11 | 2012-10-03 | Information processing device, information processing method, and program for reduction of noise effects on a reference point |
BR112014010681A BR112014010681A2 (pt) | 2011-11-11 | 2012-10-03 | aparelho e método de processamento de informação, e, mídia legível por computador não temporária |
EP12847414.5A EP2777026B1 (en) | 2011-11-11 | 2012-10-03 | Information processing device, information processing method, and program |
RU2014117669/08A RU2014117669A (ru) | 2011-11-11 | 2012-10-03 | Устройство обработки информации, способ обработки информации и программа |
KR1020147010544A KR20140088866A (ko) | 2011-11-11 | 2012-10-03 | 정보 처리 장치, 정보 처리 방법, 및 프로그램 |
TW101138680A TW201324435A (zh) | 2011-11-11 | 2012-10-19 | 資訊處理裝置,資訊處理方法及程式 |
IN3352CHN2014 IN2014CN03352A (ja) | 2011-11-11 | 2014-05-02 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011248098A JP5838747B2 (ja) | 2011-11-11 | 2011-11-11 | 情報処理装置、情報処理方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013105285A JP2013105285A (ja) | 2013-05-30 |
JP2013105285A5 JP2013105285A5 (ja) | 2014-12-18 |
JP5838747B2 true JP5838747B2 (ja) | 2016-01-06 |
Family
ID=48288994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011248098A Active JP5838747B2 (ja) | 2011-11-11 | 2011-11-11 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (10)
Country | Link |
---|---|
US (1) | US9497389B2 (ja) |
EP (1) | EP2777026B1 (ja) |
JP (1) | JP5838747B2 (ja) |
KR (1) | KR20140088866A (ja) |
CN (1) | CN103907139B (ja) |
BR (1) | BR112014010681A2 (ja) |
IN (1) | IN2014CN03352A (ja) |
RU (1) | RU2014117669A (ja) |
TW (1) | TW201324435A (ja) |
WO (1) | WO2013069196A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014202490A1 (de) * | 2014-02-12 | 2015-08-13 | Volkswagen Aktiengesellschaft | Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe |
US9619940B1 (en) | 2014-06-10 | 2017-04-11 | Ripple Inc | Spatial filtering trace location |
US9646418B1 (en) * | 2014-06-10 | 2017-05-09 | Ripple Inc | Biasing a rendering location of an augmented reality object |
US10930038B2 (en) | 2014-06-10 | 2021-02-23 | Lab Of Misfits Ar, Inc. | Dynamic location based digital element |
US10026226B1 (en) | 2014-06-10 | 2018-07-17 | Ripple Inc | Rendering an augmented reality object |
JP6417797B2 (ja) * | 2014-09-03 | 2018-11-07 | 株式会社リコー | 情報端末装置、情報処理方法、システムおよびプログラム |
JP6665572B2 (ja) | 2016-02-16 | 2020-03-13 | 富士通株式会社 | 制御プログラム、制御方法およびコンピュータ |
CN106340215B (zh) * | 2016-11-09 | 2019-01-04 | 快创科技(大连)有限公司 | 基于ar增强现实和自适应识别的乐器辅助学习体验系统 |
JP6816492B2 (ja) * | 2016-12-14 | 2021-01-20 | 富士通株式会社 | 表示制御プログラム、表示制御方法および表示制御装置 |
EP3336805A1 (en) | 2016-12-15 | 2018-06-20 | Thomson Licensing | Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3d environment |
WO2018178517A1 (en) * | 2017-03-29 | 2018-10-04 | Engemma Oy | Gemological object recognition |
US11308705B2 (en) * | 2017-03-29 | 2022-04-19 | Rakuten Group, Inc. | Display control device, display control method, and program |
JP6836979B2 (ja) * | 2017-09-29 | 2021-03-03 | 株式会社Nttドコモ | 映像表示システム |
US11263456B2 (en) | 2017-10-31 | 2022-03-01 | Sony Corporation | Virtual object repositioning versus motion of user and perceived or expected delay |
WO2019116689A1 (ja) * | 2017-12-15 | 2019-06-20 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN108446400A (zh) | 2018-03-29 | 2018-08-24 | 京东方科技集团股份有限公司 | 增强现实装置、服务器、增强现实系统和共享方法 |
US10812736B2 (en) * | 2018-12-24 | 2020-10-20 | Polarr, Inc. | Detected object based image and video effects selection |
US11308652B2 (en) | 2019-02-25 | 2022-04-19 | Apple Inc. | Rendering objects to match camera noise |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6847364B1 (en) * | 1999-12-23 | 2005-01-25 | Intel Corporation | Methods and apparatus for creating three-dimensional motion illusion in a graphics processing system |
JP2002157607A (ja) * | 2000-11-17 | 2002-05-31 | Canon Inc | 画像生成システム、画像生成方法および記憶媒体 |
JP4032776B2 (ja) | 2002-03-04 | 2008-01-16 | ソニー株式会社 | 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム |
US20030179308A1 (en) * | 2002-03-19 | 2003-09-25 | Lucia Zamorano | Augmented tracking using video, computed data and/or sensing technologies |
CN100416336C (zh) * | 2003-06-12 | 2008-09-03 | 美国西门子医疗解决公司 | 校准真实和虚拟视图 |
JP4726194B2 (ja) * | 2005-04-01 | 2011-07-20 | キヤノン株式会社 | キャリブレーション方法及び装置 |
JP5063023B2 (ja) * | 2006-03-31 | 2012-10-31 | キヤノン株式会社 | 位置姿勢補正装置、位置姿勢補正方法 |
JP4757142B2 (ja) * | 2006-08-10 | 2011-08-24 | キヤノン株式会社 | 撮影環境校正方法及び情報処理装置 |
JP2009025918A (ja) * | 2007-07-17 | 2009-02-05 | Canon Inc | 画像処理装置、画像処理方法 |
JP2009237878A (ja) * | 2008-03-27 | 2009-10-15 | Dainippon Printing Co Ltd | 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム |
US8970690B2 (en) * | 2009-02-13 | 2015-03-03 | Metaio Gmbh | Methods and systems for determining the pose of a camera with respect to at least one object of a real environment |
JP5244012B2 (ja) * | 2009-03-31 | 2013-07-24 | 株式会社エヌ・ティ・ティ・ドコモ | 端末装置、拡張現実感システム及び端末画面表示方法 |
GB2470073B (en) * | 2009-05-08 | 2011-08-24 | Sony Comp Entertainment Europe | Entertainment device, system and method |
JP5573238B2 (ja) * | 2010-03-04 | 2014-08-20 | ソニー株式会社 | 情報処理装置、情報処理法方法およびプログラム |
CN101893935B (zh) * | 2010-07-14 | 2012-01-11 | 北京航空航天大学 | 基于真实球拍的协同式增强现实乒乓球系统构建方法 |
US9311883B2 (en) * | 2011-11-11 | 2016-04-12 | Microsoft Technology Licensing, Llc | Recalibration of a flexible mixed reality device |
-
2011
- 2011-11-11 JP JP2011248098A patent/JP5838747B2/ja active Active
-
2012
- 2012-10-03 WO PCT/JP2012/006336 patent/WO2013069196A1/en active Application Filing
- 2012-10-03 CN CN201280053969.4A patent/CN103907139B/zh active Active
- 2012-10-03 KR KR1020147010544A patent/KR20140088866A/ko not_active Application Discontinuation
- 2012-10-03 US US14/342,974 patent/US9497389B2/en active Active
- 2012-10-03 RU RU2014117669/08A patent/RU2014117669A/ru not_active Application Discontinuation
- 2012-10-03 BR BR112014010681A patent/BR112014010681A2/pt not_active Application Discontinuation
- 2012-10-03 EP EP12847414.5A patent/EP2777026B1/en active Active
- 2012-10-19 TW TW101138680A patent/TW201324435A/zh unknown
-
2014
- 2014-05-02 IN IN3352CHN2014 patent/IN2014CN03352A/en unknown
Also Published As
Publication number | Publication date |
---|---|
BR112014010681A2 (pt) | 2017-04-25 |
TW201324435A (zh) | 2013-06-16 |
CN103907139A (zh) | 2014-07-02 |
RU2014117669A (ru) | 2015-11-10 |
EP2777026A1 (en) | 2014-09-17 |
EP2777026A4 (en) | 2016-01-06 |
US20140240552A1 (en) | 2014-08-28 |
KR20140088866A (ko) | 2014-07-11 |
IN2014CN03352A (ja) | 2015-07-03 |
EP2777026B1 (en) | 2020-02-05 |
US9497389B2 (en) | 2016-11-15 |
WO2013069196A1 (en) | 2013-05-16 |
CN103907139B (zh) | 2018-03-06 |
JP2013105285A (ja) | 2013-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5838747B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US10930083B2 (en) | Image processing apparatus and display control method | |
US20210264200A1 (en) | Terminal device, information processing device, object identifying method, program, and object identifying system | |
US9761054B2 (en) | Augmented reality computing with inertial sensors | |
US9823821B2 (en) | Information processing apparatus, display control method, and program for superimposing virtual objects on input image and selecting an interested object | |
US10839544B2 (en) | Information processing apparatus, information processing method, and non-transitory computer readable storage medium | |
US8811667B2 (en) | Terminal device, object control method, and program | |
JP2013225245A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2013105285A5 (ja) | ||
JP5668587B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20230047470A1 (en) | Information processing apparatus, information processing method, and computer-readable recording medium | |
JP2015005220A (ja) | 情報表示装置及び情報表示方法 | |
WO2023223262A1 (en) | Smooth object correction for augmented reality devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141031 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151026 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5838747 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |