JP6172233B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP6172233B2 JP6172233B2 JP2015196640A JP2015196640A JP6172233B2 JP 6172233 B2 JP6172233 B2 JP 6172233B2 JP 2015196640 A JP2015196640 A JP 2015196640A JP 2015196640 A JP2015196640 A JP 2015196640A JP 6172233 B2 JP6172233 B2 JP 6172233B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- marker
- image processing
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
1.概要
2.一実施形態に係る画像処理装置の構成例
2−1.ハードウェア構成
2−2.機能構成
2−3.ARコンテンツの表示例
2−4.処理の流れ
3.まとめ
まず、図1〜図2Bを用いて、本開示に係る画像処理装置の概要を説明する。
[2−1.ハードウェア構成]
図3は、本実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図3を参照すると、画像処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112、バス116及び制御部118を備える。
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される一連の撮像画像は、実空間を映す映像を構成する。なお、撮像部102は、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。
センサ部104は、測位センサ、加速度センサ及びジャイロセンサなどの様々なセンサを含み得る。センサ部104により測定され得る画像処理装置100の位置、姿勢又は動きは、後に説明するカメラの位置及び姿勢の認識の支援、地理的な位置に特化したデータの取得、又はユーザからの指示の認識などの様々な用途のために利用されてよい、なお、センサ部104は、画像処理装置100の構成から省略されてもよい。
入力部106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。その代わりに(又はそれに加えて)、入力部106は、マウス若しくはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、画像処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明する様々なデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などのディスプレイを含む表示モジュールである。表示部110は、例えば、画像処理装置100により生成される出力画像を表示するために使用される。なお、表示部110もまた、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
通信部112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部118を相互に接続する。
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
図4は、図3に示した画像処理装置100の記憶部108及び制御部118により実現される論理的機能の構成の一例を示すブロック図である。図4を参照すると、画像処理装置100は、画像取得部120、解析部125、3次元(3D)構造データベース(DB)130、マーカDB135、マーカ検出部140、マーカ管理部145、コンテンツDB150、コンテンツ制御部155及び表示制御部160を備える。
画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する。画像取得部120により取得される入力画像は、実空間を映す映像を構成する個々のフレームであってよい。画像取得部120は、取得した入力画像を、解析部125、マーカ検出部140及び表示制御部160へ出力する。
解析部125は、画像取得部120から入力される入力画像を解析することにより、当該入力画像を撮像した装置の実空間内の3次元的な位置及び姿勢を認識する。また、解析部125は、画像処理装置100の周囲の環境の3次元構造をも認識し、認識した3次元構造を3D構造DB130に記憶させる。本実施形態において、解析部125による解析処理は、SLAM(Simultaneous Localization And Mapping)法に従って行われる。SLAM法の基本的な原理は、“Real-Time Simultaneous Localization and Mapping with a Single Camera”(Andrew J.Davison,Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410)に記載されている。なお、かかる例に限定されず、解析部125は、他のいかなる3次元環境認識技術を用いて入力画像を解析してもよい。
3D構造DB130は、解析部125による解析処理において利用される特徴点情報131と、解析処理の結果として認識されるカメラ位置・姿勢情報132とを記憶するデータベースである。
マーカDB135は、AR空間内に配置されるコンテンツと関連付けられる1つ以上のマーカについての情報を記憶するデータベースである。本実施形態において、マーカDB135により記憶される情報は、マーカ基本情報136及びマーカ検出情報137を含む。
マーカ検出部140は、実空間内に存在するマーカを入力画像内で検出する。より具体的には、例えば、マーカ検出部140は、何らかの特徴量抽出アルゴリズムに従って、入力画像の特徴量と、マーカ基本情報136に含まれる各マーカ画像の特徴量とを抽出する。そして、マーカ検出部140は、抽出した入力画像の特徴量を、各マーカ画像の特徴量と照合する。入力画像にマーカが映っている場合には、当該映っている領域において高い照合スコアが示される。それにより、マーカ検出部140は、実空間内に存在し入力画像に映るマーカを検出することができる。マーカ検出部140が用いる特徴量抽出アルゴリズムは、例えば、“Fast Keypoint Recognition using Random Ferns”(Mustafa Oezuysal,IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.32, Nr.3, pp.448-461, March 2010)に記載されたRandom Ferns法、又は“SURF: Speeded Up Robust Features”(H.Bay, A.Ess, T.Tuytelaars and L.V.Gool, Computer Vision and Image Understanding(CVIU), Vol.110, No.3, pp.346--359, 2008)に記載されたSURF法などであってよい。
マーカ管理部145は、マーカ検出部140により入力画像に映る新たなマーカが検出されると、当該新たなマーカのマーカID、実空間内の位置及び姿勢、並びに検出時刻をマーカDB135に記憶させる。また、マーカ管理部145は、一度検出されたマーカが(例えば、画角外への移動又は障害物による遮蔽などの理由により)入力画像から失われると、当該失われたマーカの喪失時刻をマーカDB135にさらに記憶させてもよい。
コンテンツDB150は、上述したマーカと関連付けられる1つ以上のARコンテンツの制御及び表示のために用いられるコンテンツ情報151を記憶するデータベースである。
コンテンツ制御部155は、上述したマーカ検出情報137を用いて追跡される、検出されたマーカに対する相対的なカメラ位置及びカメラ姿勢の少なくとも一方に基づいて、当該マーカと関連付けられるARコンテンツのAR空間内での振る舞いを制御する。本明細書において、ARコンテンツの振る舞いとは、AR空間内のARコンテンツの出現及び消滅、並びにARコンテンツの動きを含む。
コンテンツ制御部155は、例えば、マーカ検出部140により入力画像に映る新たなマーカが検出されると、マーカ基本情報136において当該新たなマーカと関連付けられているARコンテンツをAR空間内に出現させる。ARコンテンツは、関連付けられているマーカの検出に応じて即座に出現してもよく、又はさらに所定の出現条件が満たされた場合に出現してもよい。所定の出現条件とは、例えば、マーカから現在のカメラ位置までの距離が所定の距離閾値を下回る、という条件であってよい。その場合、入力画像にマーカが映っていても、当該マーカからカメラ位置までの距離が遠い場合にはARコンテンツは登場せず、さらにカメラ位置が当該マーカに近付いて初めてARコンテンツが出現する。このような距離閾値は、複数のARコンテンツにわたって共通的に定義されてもよく、又はARコンテンツごとの制御パラメータとして定義されてもよい。
また、コンテンツ制御部155は、カメラの位置及び姿勢の少なくとも一方の変化に応じて、ARコンテンツをAR空間内で移動させる。例えば、コンテンツ制御部155は、カメラ姿勢の変化(例えば、所定の変化量を上回る光軸方向の角度変化)からユーザによるカメラのパン又はチルトなどの操作を認識する。そして、コンテンツ制御部155は、例えばパンに応じてARコンテンツの向きを変化させ、チルトに応じてARコンテンツを前進又は後退させる。なお、これら操作の種類とARコンテンツの動きとの間のマッピングは、かかる例に限定されない。
本実施形態において、ARコンテンツは、上述したように、関連付けられるマーカが入力画像の画角外に移動した場合にも必ずしも消滅しない。しかし、ARコンテンツがカメラの位置及び姿勢に関わらずいつまでも表示されるとすれば、却って不自然な印象をユーザに与える。そこで、本実施形態では、コンテンツ制御部155は、検出されたマーカに対する相対的なカメラ位置及びカメラ姿勢の少なくとも一方が所定の消滅条件を満たした場合に、ARコンテンツを消滅させる。所定の消滅条件とは、例えば次の条件A〜Dのいずれか又はそれらの組合せであってよい:
条件A)マーカからカメラ位置までの距離が所定の距離閾値を上回る;
条件B)カメラからマーカへの方向に対するカメラの光軸のなす角度が所定の角度閾値を上回る;
条件C)マーカの検出時刻からの経過時間が所定の時間閾値を上回る;
条件D)マーカの喪失時刻からの経過時間が所定の時間閾値を上回る。
ここでの距離閾値、角度閾値及び時間閾値もまた、複数のARコンテンツにわたって共通的に定義されてもよく、又はARコンテンツごとの制御パラメータとして定義されてもよい。
また、コンテンツ制御部155は、異なるマーカに関連付けられる複数のARコンテンツの共存を、マーカに対する相対的なカメラ位置又は姿勢に基づいて制御してもよい。例えば、コンテンツ制御部155は、第1のマーカと関連付けられる第1のARコンテンツがAR空間内に配置されている状況において、第2のマーカが新たに検出された場合に、次の2通りの制御オプションのいずれかを選択し得る:
オプションA)第2のマーカと関連付けられる第2のARコンテンツを、第1のARコンテンツに加えてAR空間内に配置する;
オプションB)第2のマーカと関連付けられる第2のARコンテンツを、第1のARコンテンツに代えてAR空間内に配置する。
コンテンツ制御部155は、このようにARコンテンツの振る舞いを制御し、入力画像に重畳すべきARコンテンツを選択する。そして、コンテンツ制御部155は、選択したARコンテンツのAR空間内の3次元的な表示位置及び表示姿勢を決定する。ARコンテンツの表示位置及び表示姿勢は、典型的には、解析部125による画像処理装置100の周囲の環境の認識結果を用いて決定される。即ち、コンテンツ制御部155は、3D構造DB130により記憶されている特徴点情報131とカメラ位置・姿勢情報132とを用いて、ARコンテンツの表示位置及び表示姿勢を決定する。ARコンテンツの表示位置及び表示姿勢は、例えば、ARコンテンツがカメラの画角内に入り、かつARコンテンツが画角内の物体上に接地するように決定されてよい。画角が急激に変化したような場合には、ARコンテンツの表示位置は、ARコンテンツが完全には画角の変化に追随せずによりゆっくりと移動するように決定されてもよい。なお、ARコンテンツの表示位置及び表示姿勢の決定手法は、かかる例に限定されない。そして、コンテンツ制御部155は、入力画像に重畳すべきARコンテンツの描画用データ、表示位置及び表示姿勢並びにその他の制御パラメータを、表示制御部160へ出力する。
表示制御部160は、マーカ検出部140により検出されたマーカと関連付けられるARコンテンツを画像取得部120から入力される入力画像に重畳することにより、出力画像を生成する。そして、表示制御部160は、生成した出力画像を表示部110の画面上に表示する。
図13Aは、本実施形態におけるARコンテンツの表示の第1の例を示す説明図である。図13Aを参照すると、一例としての出力画像Im11が示されている。出力画像Im11には、テーブル11、コーヒーカップ12及びポスター14が映っている。画像処理装置100の解析部125は、上述したSLAM法に従い、これら実物体の特徴点の位置に基づいて、3次元的なカメラ位置及びカメラ姿勢、並びに環境の3次元構造(即ち、これら特徴点の3次元位置)を認識する。ポスター14には、マーカ20aが印刷されている。マーカ20aはマーカ検出部140により検出され、マーカ20aと関連付けられているARコンテンツ34aがコンテンツ制御部155によりAR空間内に配置される。その結果、出力画像Im11内で、ARコンテンツ34aが表示されている。
図14は、本実施形態に係る画像処理装置100による画像処理の流れの一例を示すフローチャートである。
ここまで、図1〜図14を用いて、一実施形態に係る画像処理装置100について詳細に説明した。本実施形態によれば、AR空間内に配置されるARコンテンツと関連付けられるマーカが入力画像内で検出され、検出されたマーカの実空間内の位置及び姿勢についての情報が記憶媒体を用いて管理される。そして、検出されたマーカに対するカメラの相対的な位置及び姿勢が追跡され、それらの少なくとも一方に基づいて当該マーカと関連付けられるARコンテンツの振る舞いが制御される。ARコンテンツの配置は、SLAM法などの環境認識技術を用いた入力画像の解析結果に基づいて行われる。従って、マーカが画像から失われた後にもARコンテンツの表示を継続することができると共に、マーカと関連付けられるARコンテンツの自然な表示を維持することができる。なお、検出されたマーカの実空間内の位置及び姿勢の双方ではなく、一方のみ(例えば、位置のみ)がデータベース内で管理されてもよい。
(1)
実空間を映す映像を構成する入力画像を取得する画像取得部と、
前記入力画像を解析することにより、前記入力画像を撮像した撮像装置の前記実空間内の位置及び姿勢の少なくとも一方を認識する解析部と、
拡張現実空間内に配置されるコンテンツと関連付けられるオブジェクトであって前記実空間内に存在する前記オブジェクトを前記入力画像内で検出する検出部と、
前記検出部により検出されたオブジェクトの前記実空間内の位置及び姿勢の少なくとも一方を含む検出情報を記憶媒体に記憶させる管理部と、
前記検出情報を用いて追跡される、前記検出されたオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方に基づいて、前記検出されたオブジェクトと関連付けられるコンテンツの前記拡張現実空間内での振る舞いを制御するコンテンツ制御部と、
を備える画像処理装置。
(2)
前記コンテンツ制御部は、前記検出されたオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方が所定の条件を満たした場合に、前記検出されたオブジェクトと関連付けられるコンテンツを消滅させる、前記(1)に記載の画像処理装置。
(3)
前記所定の条件とは、前記検出されたオブジェクトからの前記撮像装置の距離が所定の距離閾値を上回る、という条件である、前記(2)に記載の画像処理装置。
(4)
前記所定の条件とは、前記撮像装置から前記検出されたオブジェクトへの方向に対する前記撮像装置の光軸のなす角度が所定の角度閾値を上回る、という条件である、前記(2)に記載の画像処理装置。
(5)
前記コンテンツ制御部は、第1のオブジェクトと関連付けられる第1のコンテンツが前記拡張現実空間内に配置されている状況において、前記第1のオブジェクトとは異なる第2のオブジェクトが前記検出部により検出された場合に、前記拡張現実空間内に前記第2のオブジェクトと関連付けられる第2のコンテンツを前記第1のコンテンツに加えて配置するか又は前記第1のコンテンツに代えて配置するかを、前記第1のオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方に基づいて決定する、前記(1)に記載の画像処理装置。
(6)
前記コンテンツ制御部は、前記検出されたオブジェクトの検出時刻又は当該オブジェクトが前記入力画像から失われた時刻からの経過時間にさらに基づいて、前記コンテンツの前記拡張現実空間内での振る舞いを制御する、前記(1)〜(5)のいずれか1項に記載の画像処理装置。
(7)
前記コンテンツ制御部は、前記撮像装置の位置及び姿勢の少なくとも一方の変化に応じて、前記コンテンツを前記拡張現実空間内で移動させる、前記(1)〜(6)のいずれか1項に記載の画像処理装置。
(8)
前記コンテンツ制御部は、前記検出されたオブジェクトが前記入力画像の画角外に移動した場合に、前記コンテンツが前記画角内に維持されるように前記コンテンツを前記拡張現実空間内で移動させる、前記(7)に記載の画像処理装置。
(9)
前記コンテンツは、視線を表現可能なキャラクターの画像であり、
前記コンテンツ制御部は、前記キャラクターの前記拡張現実空間内の位置に対する前記撮像装置の相対的な位置に基づいて、前記キャラクターの視線を前記撮像装置の方向に向けさせる、
前記(1)〜(8)のいずれか1項に記載の画像処理装置。
(10)
前記画像処理装置は、前記検出されたオブジェクトが前記入力画像の画角外に移動した後にも、前記検出されたオブジェクトと関連付けられる前記コンテンツを前記入力画像に重畳する表示制御部、をさらに備える、前記(1)〜(9)のいずれか1項に記載の画像処理装置。
(11)
前記表示制御部は、前記検出されたオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方に基づいて、前記コンテンツの表示解像度を変化させる、前記(10)に記載の画像処理装置。
(12)
前記画像取得部、前記解析部、前記検出部、前記管理部及び前記コンテンツ制御部のうち少なくとも1つが前記画像処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、前記(1)〜(11)のいずれか1項に記載の画像処理装置。
(13)
実空間を映す映像を構成する入力画像を取得することと、
前記入力画像を解析することにより、前記入力画像を撮像した撮像装置の前記実空間内の位置及び姿勢の少なくとも一方を認識することと、
拡張現実空間内に配置されるコンテンツと関連付けられるオブジェクトであって前記実空間内に存在する前記オブジェクトを前記入力画像内で検出することと、
検出されたオブジェクトの前記実空間内の位置及び姿勢の少なくとも一方を含む検出情報を記憶媒体に記憶させることと、
前記検出情報を用いて追跡される、前記検出されたオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方に基づいて、前記検出されたオブジェクトと関連付けられるコンテンツの前記拡張現実空間内での振る舞いを制御することと、
を含む画像処理方法。
(14)
画像処理装置を制御するコンピュータを、
実空間を映す映像を構成する入力画像を取得する画像取得部と、
前記入力画像を解析することにより、前記入力画像を撮像した撮像装置の前記実空間内の位置及び姿勢の少なくとも一方を認識する解析部と、
拡張現実空間内に配置されるコンテンツと関連付けられるオブジェクトであって前記実空間内に存在する前記オブジェクトを前記入力画像内で検出する検出部と、
前記検出部により検出されたオブジェクトの前記実空間内の位置及び姿勢の少なくとも一方を含む検出情報を記憶媒体に記憶させる管理部と、
前記検出情報を用いて追跡される、前記検出されたオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方に基づいて、前記検出されたオブジェクトと関連付けられるコンテンツの前記拡張現実空間内での振る舞いを制御するコンテンツ制御部と、
として機能させるためのプログラム。
20a,20b,20c マーカ(オブジェクト)
100 画像処理装置
120 画像取得部
125 解析部
140 検出部
145 管理部
155 コンテンツ制御部
160 表示制御部
Claims (10)
- 実空間を撮像する撮像部と、
前記撮像部により取得される実空間画像に映る前記実空間内のオブジェクトを検出する検出部と、
前記オブジェクトに関連付けられる仮想コンテンツのコンテンツデータを記憶する記憶部と、
前記検出部により検出された前記オブジェクトと前記撮像部との間の距離を前記オブジェクトが前記実空間画像から失われた後にも追跡し、追跡される前記距離に基づいて、前記記憶部から読み出される前記コンテンツデータを用いて、前記仮想コンテンツの表示を制御する制御部と、
を備え、
前記記憶部は、前記オブジェクトと前記撮像部との間の追跡される前記距離に応じて異なる複数の前記コンテンツデータを記憶する、
画像処理装置。 - 前記記憶部は、1つの仮想コンテンツについて第1の距離に対応する第1のコンテンツデータと前記第1の距離とは異なる第2の距離に対応する第2のコンテンツデータとを記憶する、請求項1に記載の画像処理装置。
- 前記第1のコンテンツデータは、前記距離が相対的に小さい場合に表示されるべき前記仮想コンテンツのためのデータであり、前記第2のコンテンツデータは、前記距離が相対的に大きい場合に表示されるべき前記仮想コンテンツのためのデータである、請求項2に記載の画像処理装置。
- 前記第1のコンテンツデータ及び前記第2のコンテンツデータは、表示解像度が互いに異なる描画用データである、請求項2又は請求項3に記載の画像処理装置。
- 前記コンテンツデータは、外部のサーバから前記記憶部へと選択的にダウンロードされる、請求項1〜4のいずれか1項に記載の画像処理装置。
- 前記記憶部は、前記仮想コンテンツの属性データをさらに記憶し、
前記属性データは、前記仮想コンテンツが表現するキャラクターの種類、前記仮想コンテンツを提供するアプリケーションの種類、及び前記仮想コンテンツに関連付けられるマーカの種類、のうちの1つ以上を含む、
請求項1〜5のいずれか1項に記載の画像処理装置。 - 前記制御部は、前記距離が所定の閾値を上回る場合に、前記仮想コンテンツを表示させない、請求項1〜6のいずれか1項に記載の画像処理装置。
- 前記制御部は、表示される前記仮想コンテンツの透過度を前記距離に応じて変化させる、請求項1〜7のいずれか1項に記載の画像処理装置。
- 画像処理装置において、
撮像部に実空間を撮像させることと、
前記撮像部により取得される実空間画像に映る前記実空間内のオブジェクトを検出することと、
前記オブジェクトに関連付けられる仮想コンテンツのコンテンツデータであって前記オブジェクトと前記撮像部との間の距離に応じて異なる複数の前記コンテンツデータを記憶部に記憶させることと、
検出された前記オブジェクトと前記撮像部との間の距離を前記オブジェクトが前記実空間画像から失われた後にも追跡することと、
検出された前記オブジェクトと前記撮像部との間の追跡される前記距離に基づいて、前記記憶部から読み出される前記コンテンツデータを用いて、前記仮想コンテンツの表示を制御することと、
を含む画像処理方法。 - 画像処理装置を制御するコンピュータを、
実空間を撮像する撮像部により取得される実空間画像に映る前記実空間内のオブジェクトを検出する検出部と、
前記オブジェクトに関連付けられる仮想コンテンツのコンテンツデータであって前記オブジェクトと前記撮像部との間の距離に応じて異なる複数の前記コンテンツデータを記憶部に記憶させ、検出された前記オブジェクトと前記撮像部との間の距離を前記オブジェクトが前記実空間画像から失われた後にも追跡し、追跡される前記距離に基づいて、前記記憶部から読み出される前記コンテンツデータを用いて、前記仮想コンテンツの表示を制御する制御部と、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015196640A JP6172233B2 (ja) | 2015-10-02 | 2015-10-02 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015196640A JP6172233B2 (ja) | 2015-10-02 | 2015-10-02 | 画像処理装置、画像処理方法及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011235749A Division JP5821526B2 (ja) | 2011-10-27 | 2011-10-27 | 画像処理装置、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016028340A JP2016028340A (ja) | 2016-02-25 |
JP6172233B2 true JP6172233B2 (ja) | 2017-08-02 |
Family
ID=55360759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015196640A Active JP6172233B2 (ja) | 2015-10-02 | 2015-10-02 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6172233B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10099122B2 (en) * | 2016-03-30 | 2018-10-16 | Sony Interactive Entertainment Inc. | Head-mounted display tracking |
JP2017191245A (ja) * | 2016-04-14 | 2017-10-19 | 株式会社豊田総合研究所 | Arシステム |
CN113906370B (zh) * | 2019-05-29 | 2024-08-02 | 苹果公司 | 为物理元素生成内容 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5244012B2 (ja) * | 2009-03-31 | 2013-07-24 | 株式会社エヌ・ティ・ティ・ドコモ | 端末装置、拡張現実感システム及び端末画面表示方法 |
JP5315111B2 (ja) * | 2009-03-31 | 2013-10-16 | 株式会社エヌ・ティ・ティ・ドコモ | 端末装置、情報提示システム及び端末画面表示方法 |
JP2011203824A (ja) * | 2010-03-24 | 2011-10-13 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP4995934B2 (ja) * | 2010-03-26 | 2012-08-08 | 株式会社コナミデジタルエンタテインメント | 拡張現実システム、マーカ端末、撮影端末、拡張現実方法、ならびに、情報記録媒体 |
SG10201400952WA (en) * | 2010-03-30 | 2014-05-29 | Ns Solutions Corp | Information Processing System, Information Processing Method And Program, Information Processing Apparatus, Vacant Space Guidance System, Vacant Space Guidance Method And Program, Image Display System, Image Display Method And Program |
JP5556481B2 (ja) * | 2010-07-30 | 2014-07-23 | 大日本印刷株式会社 | 付加情報提供システム及び撮像装置 |
-
2015
- 2015-10-02 JP JP2015196640A patent/JP6172233B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016028340A (ja) | 2016-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5821526B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20220414993A1 (en) | Image processing apparatus, image processing method, and program | |
JP3926837B2 (ja) | 表示制御方法および装置、プログラム、並びに携帯機器 | |
US9823821B2 (en) | Information processing apparatus, display control method, and program for superimposing virtual objects on input image and selecting an interested object | |
US20140248950A1 (en) | System and method of interaction for mobile devices | |
JP5724543B2 (ja) | 端末装置、オブジェクト制御方法及びプログラム | |
KR101295712B1 (ko) | 증강 현실 사용자 인터페이스 제공 장치 및 방법 | |
KR20140090159A (ko) | 정보 처리 장치, 정보 처리 방법, 및 프로그램 | |
CN109564703B (zh) | 信息处理装置、信息处理方法及计算机可读存储介质 | |
JP6172233B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN109791432A (zh) | 推迟影响图形用户界面的信息的状态改变直至不专注的情况期间 | |
JP5991418B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
López et al. | Multimodal sensing-based camera applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170619 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6172233 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |