JP2016028339A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2016028339A
JP2016028339A JP2015196639A JP2015196639A JP2016028339A JP 2016028339 A JP2016028339 A JP 2016028339A JP 2015196639 A JP2015196639 A JP 2015196639A JP 2015196639 A JP2015196639 A JP 2015196639A JP 2016028339 A JP2016028339 A JP 2016028339A
Authority
JP
Japan
Prior art keywords
content
marker
image processing
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015196639A
Other languages
English (en)
Other versions
JP5991418B2 (ja
Inventor
貝野 彰彦
Akihiko Kaino
彰彦 貝野
福地 正樹
Masaki Fukuchi
正樹 福地
辰起 柏谷
Tatsuoki Kashiwatani
辰起 柏谷
堅一郎 多井
Kenichiro Oi
堅一郎 多井
晶晶 郭
Jingjing Guo
晶晶 郭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015196639A priority Critical patent/JP5991418B2/ja
Publication of JP2016028339A publication Critical patent/JP2016028339A/ja
Application granted granted Critical
Publication of JP5991418B2 publication Critical patent/JP5991418B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】マーカとしての役割を有するオブジェクトが画像から失われた後にも自然な形でARコンテンツの表示を継続すること。
【解決手段】実空間を撮像する撮像部と、前記撮像部により取得される実空間画像を解析することにより、前記撮像部の前記実空間内の位置及び姿勢の少なくとも一方を認識する解析部と、拡張現実空間内に配置される視線を表現可能なコンテンツの表示を制御するための制御パラメータを、追跡される前記撮像部の位置及び姿勢の前記少なくとも一方に基づき、所定の基準に従って決定し、決定した前記制御パラメータを用いて前記コンテンツの表示を制御する制御部と、を備え、前記制御パラメータは、前記視線を制御する視線制御パラメータを含む、画像処理装置を提供する。
【選択図】図4

Description

本開示は、画像処理装置、画像処理方法及びプログラムに関する。
近年、仮想的なコンテンツを実空間を映す画像に重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術において呈示されるコンテンツは、テキスト、アイコン又はアニメーションなどの様々な形態で可視化され得る。
AR技術において、画像に重畳すべきコンテンツは、様々な基準で選択され得る。それら基準の1つは、予めコンテンツと関連付けられているオブジェクトの認識である。例えば、下記特許文献1は、所定の模様が描かれたオブジェクトであるマーカを画像内で検出し、検出されたマーカと関連付けられるコンテンツをそのマーカの検出位置に重畳する技術を開示している。
特開2010−170316号公報
しかしながら、上述したようなマーカの検出に基づくAR技術では、通常、マーカが画像から失われると、ARコンテンツの表示を継続することが難しい。仮にマーカが画像から失われた後にもARコンテンツの表示を継続しようとすれば、ARコンテンツの表示は実空間の状況を反映しない不自然なものとなりがちである。
従って、マーカとしての役割を有するオブジェクトが画像から失われた後にも自然な形でARコンテンツの表示を継続することのできる仕組みが実現されることが望ましい。
本開示によれば、実空間を撮像する撮像部と、前記撮像部により取得される実空間画像を解析することにより、前記撮像部の前記実空間内の位置及び姿勢の少なくとも一方を認識する解析部と、拡張現実空間内に配置される視線を表現可能なコンテンツの表示を制御するための制御パラメータを、追跡される前記撮像部の位置及び姿勢の前記少なくとも一方に基づき、所定の基準に従って決定し、決定した前記制御パラメータを用いて前記コンテンツの表示を制御する制御部と、を備え、前記制御パラメータは、前記視線を制御する視線制御パラメータを含む、画像処理装置が提供される。
また、本開示によれば、画像処理装置において、撮像部に実空間を撮像させることと、前記撮像部により取得される実空間画像を解析することにより、前記撮像部の前記実空間内の位置及び姿勢の少なくとも一方を認識することと、拡張現実空間内に配置される視線を表現可能なコンテンツの表示を制御するための制御パラメータを、追跡される前記撮像部の位置及び姿勢の前記少なくとも一方に基づき、所定の基準に従って決定することと、決定した前記制御パラメータを用いて前記コンテンツの表示を制御することと、前記制御パラメータは、前記視線を制御する視線制御パラメータを含むことと、を含む画像処理方法が提供される。
また、本開示によれば、画像処理装置を制御するコンピュータを、実空間を撮像する撮像部により取得される実空間画像を解析することにより、前記撮像部の前記実空間内の位置及び姿勢の少なくとも一方を認識する解析部と、拡張現実空間内に配置される視線を表現可能なコンテンツの表示を制御するための制御パラメータを、追跡される前記撮像部の位置及び姿勢の前記少なくとも一方に基づき、所定の基準に従って決定し、決定した前記制御パラメータを用いて前記コンテンツの表示を制御する制御部と、として機能させ、前記制御パラメータは、前記視線を制御する視線制御パラメータを含む、プログラムが提供される。
本開示に係る技術によれば、マーカとしての役割を有するオブジェクトが画像から失われた後にも自然な形でARコンテンツの表示を継続することのできる仕組みが実現される。
一実施形態に係る画像処理装置の概要について説明するための説明図である。 一実施形態において検出され得るマーカの一例を示す説明図である。 一実施形態において検出され得るマーカの他の例を示す説明図である。 一実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 一実施形態に係る画像処理装置の論理的機能の構成の一例を示すブロック図である。 図4に例示した解析部による解析処理の流れの一例を示すフローチャートである。 特徴点情報の構成の一例を示す説明図である。 カメラ位置・姿勢情報の構成の一例を示す説明図である。 マーカ基本情報の構成の一例を示す説明図である。 マーカ検出情報の構成の一例を示す説明図である。 コンテンツ情報の構成の一例を示す説明図である。 ARコンテンツの消滅条件の第1の例について説明するための説明図である。 ARコンテンツの消滅条件の第2の例について説明するための説明図である。 一実施形態におけるARコンテンツの表示の第1の例を示す説明図である。 一実施形態におけるARコンテンツの表示の第2の例を示す説明図である。 一実施形態におけるARコンテンツの表示の第3の例を示す説明図である。 一実施形態におけるARコンテンツの表示の第4の例を示す説明図である。 一実施形態に係る画像処理の流れの一例を示すフローチャートである。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.概要
2.一実施形態に係る画像処理装置の構成例
2−1.ハードウェア構成
2−2.機能構成
2−3.ARコンテンツの表示例
2−4.処理の流れ
3.まとめ
<1.概要>
まず、図1〜図2Bを用いて、本開示に係る画像処理装置の概要を説明する。
図1は、一実施形態に係る画像処理装置100の概要について説明するための説明図である。図1を参照すると、ユーザUaが有する画像処理装置100が示されている。画像処理装置100は、実空間1を撮像する撮像部102(以下、単にカメラともいう)と、表示部110とを備える。図1の例において、実空間1には、テーブル11、コーヒーカップ12、本13及びポスター14が存在している。画像処理装置100の撮像部102は、このような実空間1を映す映像を構成する一連の画像を撮像する。そして、画像処理装置100は、撮像部102により撮像された画像を入力画像として画像処理を行い、出力画像を生成する。本実施形態において、典型的には、出力画像は、入力画像に拡張現実(AR)のための仮想的なコンテンツ(以下、ARコンテンツという)を重畳することにより生成される。画像処理装置100の表示部110は、生成された出力画像を順次表示する。なお、図1に示した実空間1は、一例に過ぎない。画像処理装置100により処理される入力画像は、いかなる実空間を映した画像であってもよい。
画像処理装置100によるARコンテンツの提供は、入力画像に映るマーカの検出をトリガとして開始され得る。本明細書において、「マーカ」との用語は、一般に、既知のパターンを有する、実空間内に存在する何らかのオブジェクトを意味するものとする。即ち、マーカは、例えば、実物体、実物体の一部、実物体の表面上に示される図形、記号、文字列若しくは絵柄、又はディスプレイにより表示される画像などを含み得る。狭義の意味において「マーカ」との用語は何らかのアプリケーションのために用意される特別なオブジェクトを指す場合があるが、本開示に係る技術はそのような事例には限定されない。
なお、図1では、画像処理装置100の一例としてスマートフォンを示している。しかしながら、画像処理装置100は、かかる例に限定されない。画像処理装置100は、例えば、PC(Personal Computer)、PDA(Personal Digital Assistant)、ゲーム端末、PND(Portable Navigation Device)、コンテンツプレーヤ又はデジタル家電機器などであってもよい。
図2Aは、本実施形態において検出され得るマーカの一例を示す説明図である。図2Aを参照すると、図1に例示した画像処理装置100により取得され得る一例としての入力画像Im01が示されている。入力画像Im01には、テーブル11、コーヒーカップ12及びポスター14が映っている。ポスター14には、既知の絵柄であるマーカ20aが印刷されている。画像処理装置100は、このようなマーカ20aを入力画像Im01内で検出すると、マーカ20aと関連付けられるコンテンツを入力画像Im01に重畳し得る。
図2Bは、本実施形態において検出され得るマーカの他の例を示す説明図である。図2Bを参照すると、入力画像Im02が示されている。入力画像Im02には、テーブル11及び本13が映っている。本13には、既知の絵柄であるマーカ20bが印刷されている。画像処理装置100は、このようなマーカ20bを入力画像Im02内で検出すると、マーカ20bと関連付けられるコンテンツを入力画像Im02に重畳し得る。画像処理装置100は、図2Bに例示したようなマーカ20bの代わりに、既知の文字列であるマーカ20cを用いてもよい。
上述したようなマーカが入力画像内で検出された後、カメラが移動し又はカメラの姿勢が変化したことを原因として、マーカが入力画像から検出されなくなることがあり得る。その場合、一般的なマーカの検出に基づくAR技術では、ARコンテンツの表示を継続することが難しい。仮にマーカが失われた後にもARコンテンツの表示を継続しようとすれば、マーカの位置又は姿勢とは無関係にARコンテンツが表示されてしなうなど、表示の不自然さが生じることとなる。
そこで、本実施形態において、画像処理装置100は、ARコンテンツの表示の不自然さを解消し又は軽減するために、3次元の実空間内のカメラの位置及び姿勢を追跡すると共に、検出されたマーカの位置及び姿勢をデータベースを用いて管理する。そして、画像処理装置100は、以下に詳細に説明するように、マーカに対するカメラの相対的な位置及び姿勢の少なくとも一方に基づいて、ARコンテンツの振る舞いを制御する。
<2.一実施形態に係る画像処理装置の構成例>
[2−1.ハードウェア構成]
図3は、本実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図3を参照すると、画像処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112、バス116及び制御部118を備える。
(1)撮像部
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される一連の撮像画像は、実空間を映す映像を構成する。なお、撮像部102は、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。
(2)センサ部
センサ部104は、測位センサ、加速度センサ及びジャイロセンサなどの様々なセンサを含み得る。センサ部104により測定され得る画像処理装置100の位置、姿勢又は動きは、後に説明するカメラの位置及び姿勢の認識の支援、地理的な位置に特化したデータの取得、又はユーザからの指示の認識などの様々な用途のために利用されてよい、なお、センサ部104は、画像処理装置100の構成から省略されてもよい。
(3)入力部
入力部106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。その代わりに(又はそれに加えて)、入力部106は、マウス若しくはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
(4)記憶部
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、画像処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明する様々なデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
(5)表示部
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などのディスプレイを含む表示モジュールである。表示部110は、例えば、画像処理装置100により生成される出力画像を表示するために使用される。なお、表示部110もまた、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
(6)通信部
通信部112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
(7)バス
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部118を相互に接続する。
(8)制御部
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
[2−2.機能構成]
図4は、図3に示した画像処理装置100の記憶部108及び制御部118により実現される論理的機能の構成の一例を示すブロック図である。図4を参照すると、画像処理装置100は、画像取得部120、解析部125、3次元(3D)構造データベース(DB)130、マーカDB135、マーカ検出部140、マーカ管理部145、コンテンツDB150、コンテンツ制御部155及び表示制御部160を備える。
(1)画像取得部
画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する。画像取得部120により取得される入力画像は、実空間を映す映像を構成する個々のフレームであってよい。画像取得部120は、取得した入力画像を、解析部125、マーカ検出部140及び表示制御部160へ出力する。
(2)解析部
解析部125は、画像取得部120から入力される入力画像を解析することにより、当該入力画像を撮像した装置の実空間内の3次元的な位置及び姿勢を認識する。また、解析部125は、画像処理装置100の周囲の環境の3次元構造をも認識し、認識した3次元構造を3D構造DB130に記憶させる。本実施形態において、解析部125による解析処理は、SLAM(Simultaneous Localization And Mapping)法に従って行われる。SLAM法の基本的な原理は、“Real-Time Simultaneous Localization and Mapping with a Single Camera”(Andrew J.Davison,Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410)に記載されている。なお、かかる例に限定されず、解析部125は、他のいかなる3次元環境認識技術を用いて入力画像を解析してもよい。
SLAM法の特徴の1つは、単眼カメラからの入力画像に映る実空間の3次元構造と当該カメラの位置及び姿勢とを並行して動的に認識できる点である。図5は、解析部125による解析処理の流れの一例を示している。
図5において、解析部125は、まず、状態変数を初期化する(ステップS101)。ここで初期化される状態変数は、少なくともカメラの位置及び姿勢(回転角)、当該カメラの移動速度及び角速度を含み、さらに入力画像に映る1つ以上の特徴点の3次元位置が状態変数に追加される。また、解析部125には、画像取得部120により取得される入力画像が順次入力される(ステップS102)。ステップS103からステップS105までの処理は、各入力画像について(即ち毎フレーム)繰り返され得る。
ステップS103では、解析部125は、入力画像に映る特徴点を追跡する。例えば、解析部125は、状態変数に含まれる特徴点ごとのパッチ(Patch)(例えば特徴点を中心とする3×3=9画素の小画像)を新たな入力画像と照合する。そして、解析部125は、入力画像内のパッチの位置、即ち特徴点の位置を検出する。ここで検出される特徴点の位置は、後の状態変数の更新の際に用いられる。
ステップS104では、解析部125は、所定の予測モデルに基づいて、例えば1フレーム後の状態変数の予測値を生成する。また、ステップS105では、解析部125は、ステップS104において生成した状態変数の予測値と、ステップS103において検出した特徴点の位置に応じた観測値とを用いて、状態変数を更新する。解析部125は、ステップS104及びS105における処理を、拡張カルマンフィルタの原理に基づいて実行する。なお、これら処理の詳細については、例えば特開2011−159163号公報なども参照されたい。
このような解析処理によって、状態変数に含まれるパラメータが毎フレーム更新される。状態変数に含められる特徴点の数は、フレームごとに増加し又は減少してよい。即ち、カメラの画角が変化すると、新たにフレームインした領域内の特徴点のパラメータが状態変数に追加され、フレームアウトした領域内の特徴点のパラメータが状態変数から削除され得る。
解析部125は、このように毎フレーム更新されるカメラの位置及び姿勢を、時系列で3D構造DB130に記憶させる。また、解析部125は、SLAM法の状態変数に含められる特徴点の3次元位置を、3D構造DB130に記憶させる。特徴点についての情報は、カメラの画角の移動に伴って、3D構造DB130に次第に蓄積される。
なお、ここでは、解析部125がSLAM法を用いて撮像部102の位置及び姿勢の双方を認識する例について説明した。しかしながら、かかる例に限定されず、例えば、センサ部104からのセンサデータに基づいて、撮像部102の位置又は姿勢が認識されてもよい。
(3)3D構造DB
3D構造DB130は、解析部125による解析処理において利用される特徴点情報131と、解析処理の結果として認識されるカメラ位置・姿勢情報132とを記憶するデータベースである。
図6は、特徴点情報131の構成の一例を示す説明図である。図6を参照すると、特徴点情報131は、「特徴点ID」、「位置」、「パッチ」及び「更新時刻」という4つのデータ項目を有する。「特徴点ID」は、各特徴点を一意に識別するための識別子である。「位置」は、各特徴点の実空間内の位置を表す3次元ベクトルである。「パッチ」は、入力画像内での各特徴点の検出に利用される小画像の画像データである。「更新時刻」は、各レコードが更新された時刻を表す。図6の例では、2つの特徴点FP01及びFP02についての情報が示されている。しかしながら、実際には、より多くの特徴点についての情報が、3D構造DB130により特徴点情報131として記憶され得る。
図7は、カメラ位置・姿勢情報132の構成の一例を示す説明図である。図7を参照すると、カメラ位置・姿勢情報132は、「時刻」、「カメラ位置」及び「カメラ姿勢」という3つのデータ項目を有する。「時刻」は、各レコードが記憶された時刻を表す。「カメラ位置」は、解析処理の結果として各時刻において認識されたカメラの位置を表す3次元ベクトルである。「カメラ姿勢」は、解析処理の結果として各時刻において認識されたカメラの姿勢を表す回転角ベクトルである。このように追跡されるカメラ位置及び姿勢は、後に説明するコンテンツ制御部155によるARコンテンツの振る舞いの制御、及び表示制御部160によるARコンテンツの表示の制御のために用いられる。
(4)マーカDB
マーカDB135は、AR空間内に配置されるコンテンツと関連付けられる1つ以上のマーカについての情報を記憶するデータベースである。本実施形態において、マーカDB135により記憶される情報は、マーカ基本情報136及びマーカ検出情報137を含む。
図8は、マーカ基本情報136の構成の一例を示す説明図である。図8を参照すると、マーカ基本情報136は、「マーカID」、「関連コンテンツID」及び「サイズ」という3つのデータ項目と「マーカ画像」とを有する。「マーカID」は、各マーカを一意に識別するための識別子である。「関連コンテンツID」は、各マーカと関連付けられるコンテンツを識別するための識別子である。「マーカ画像」は、入力画像内での各マーカの検出に利用される既知のマーカ画像の画像データである。なお、マーカ画像の代わりに、各マーカ画像から抽出される特徴量のセットが各マーカの検出に利用されてもよい。図8の例では、マーカM01のマーカ画像としてライオンが描画された画像、マーカM02のマーカ画像としてゾウが描画された画像が示されている。「サイズ」は、実空間内で想定される各マーカ画像のサイズを表す。このようなマーカ基本情報136は、マーカDB135により予め記憶されてもよい。その代わりに、マーカ基本情報136は、外部のサーバにより予め記憶され、例えば、画像処理装置100の位置又は提供されるARアプリケーションの目的に応じて選択的にマーカDB135へダウンロードされてもよい。
(5)マーカ検出部
マーカ検出部140は、実空間内に存在するマーカを入力画像内で検出する。より具体的には、例えば、マーカ検出部140は、何らかの特徴量抽出アルゴリズムに従って、入力画像の特徴量と、マーカ基本情報136に含まれる各マーカ画像の特徴量とを抽出する。そして、マーカ検出部140は、抽出した入力画像の特徴量を、各マーカ画像の特徴量と照合する。入力画像にマーカが映っている場合には、当該映っている領域において高い照合スコアが示される。それにより、マーカ検出部140は、実空間内に存在し入力画像に映るマーカを検出することができる。マーカ検出部140が用いる特徴量抽出アルゴリズムは、例えば、“Fast Keypoint Recognition using Random Ferns”(Mustafa Oezuysal,IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.32, Nr.3, pp.448-461, March 2010)に記載されたRandom Ferns法、又は“SURF: Speeded Up Robust Features”(H.Bay, A.Ess, T.Tuytelaars and L.V.Gool, Computer Vision and Image Understanding(CVIU), Vol.110, No.3, pp.346--359, 2008)に記載されたSURF法などであってよい。
さらに、マーカ検出部140は、検出されたマーカの入力画像内の位置(撮像面上の2次元位置)、並びに入力画像内の当該マーカのサイズ及び形状に基づいて、当該マーカの実空間内の3次元位置と姿勢とを推定する。ここでの推定は、上述した特徴量の照合処理の一部であってもよい。そして、マーカ検出部140は、検出されたマーカのマーカID、並びに当該マーカの推定された3次元位置及び姿勢を、マーカ管理部145へ出力する。
(6)マーカ管理部
マーカ管理部145は、マーカ検出部140により入力画像に映る新たなマーカが検出されると、当該新たなマーカのマーカID、実空間内の位置及び姿勢、並びに検出時刻をマーカDB135に記憶させる。また、マーカ管理部145は、一度検出されたマーカが(例えば、画角外への移動又は障害物による遮蔽などの理由により)入力画像から失われると、当該失われたマーカの喪失時刻をマーカDB135にさらに記憶させてもよい。
図9は、マーカDB135により記憶されるマーカ検出情報137の構成の一例を示す説明図である。図9を参照すると、マーカ検出情報137は、「マーカID」、「位置」、「姿勢」、「検出時刻」及び「喪失時刻」という5つのデータ項目を有する。「マーカID」は、図8に例示したマーカ基本情報136のマーカIDに対応する。「位置」は、各マーカについて推定された実空間内の位置を表す3次元ベクトルである。「姿勢」は、各マーカについて推定された姿勢を表す回転角ベクトルである。「検出時刻」は、各マーカが検出された時刻を表す。「喪失時刻」は、一度検出されたマーカが検出されなくなった時刻を表す。図9の例では、マーカM01について喪失時刻L1が記憶されている。これは、マーカM01が一度検出された後、時刻L1においてマーカM01が入力画像から失われたことを意味する。一方、マーカM02については、検出時刻D2が記憶されている一方で喪失時刻は記憶されていない。これは、マーカM02が時刻D2において検出された後、依然としてマーカM02が入力画像に映っていることを意味する。このように管理される各マーカについてのパラメータは、後に説明するコンテンツ制御部155によるARコンテンツの振る舞いの制御のために用いられる。
(7)コンテンツDB
コンテンツDB150は、上述したマーカと関連付けられる1つ以上のARコンテンツの制御及び表示のために用いられるコンテンツ情報151を記憶するデータベースである。
図10は、コンテンツ情報151の構成の一例を示す説明図である。図10を参照すると、コンテンツ情報151は、コンテンツID及び属性、並びに描画用データを含む。「コンテンツID」は、各ARコンテンツを一意に識別するための識別子である。図10の例では、ARコンテンツの属性として、「タイプ」及び「制御パラメータセット」が示されている。「タイプ」は、ARコンテンツの分類のために使用される属性である。ARコンテンツは、例えば、関連付けられるマーカの種類、当該ARコンテンツが表現するキャラクターの種類又は当該ARコンテンツを提供するアプリケーションの種類など、様々な観点で分類されてよい。「制御パラメータセット」は、後に説明するARコンテンツの振る舞いの制御のために用いられる1つ以上の制御パラメータを含み得る。
図10の例では、各ARコンテンツについて、「接近時」及び「離隔時」の2種類の描画用データが定義されている。これら描画用データは、例えば、ARコンテンツをモデリングするCG(Computer Graphics)データである。2種類の描画用データは、表示解像度において互いに異なる。後に説明する表示制御部160は、検出されたマーカに対する相対的なカメラ位置又は相対的なカメラ姿勢に基づいて、いずれの描画用データをARコンテンツの表示のために用いるかを切り替える。
コンテンツ情報151は、コンテンツDB150により予め記憶されてもよい。その代わりに、コンテンツ情報151は、上述したマーカ基本情報136と同様、外部のサーバにより予め記憶され、例えば、画像処理装置100の位置又は提供されるARアプリケーションの目的に応じて選択的にコンテンツDB150へダウンロードされてもよい。
(8)コンテンツ制御部
コンテンツ制御部155は、上述したマーカ検出情報137を用いて追跡される、検出されたマーカに対する相対的なカメラ位置及びカメラ姿勢の少なくとも一方に基づいて、当該マーカと関連付けられるARコンテンツのAR空間内での振る舞いを制御する。本明細書において、ARコンテンツの振る舞いとは、AR空間内のARコンテンツの出現及び消滅、並びにARコンテンツの動きを含む。
(8−1)ARコンテンツの出現
コンテンツ制御部155は、例えば、マーカ検出部140により入力画像に映る新たなマーカが検出されると、マーカ基本情報136において当該新たなマーカと関連付けられているARコンテンツをAR空間内に出現させる。ARコンテンツは、関連付けられているマーカの検出に応じて即座に出現してもよく、又はさらに所定の出現条件が満たされた場合に出現してもよい。所定の出現条件とは、例えば、マーカから現在のカメラ位置までの距離が所定の距離閾値を下回る、という条件であってよい。その場合、入力画像にマーカが映っていても、当該マーカからカメラ位置までの距離が遠い場合にはARコンテンツは登場せず、さらにカメラ位置が当該マーカに近付いて初めてARコンテンツが出現する。このような距離閾値は、複数のARコンテンツにわたって共通的に定義されてもよく、又はARコンテンツごとの制御パラメータとして定義されてもよい。
(8−2)ARコンテンツの動き
また、コンテンツ制御部155は、カメラの位置及び姿勢の少なくとも一方の変化に応じて、ARコンテンツをAR空間内で移動させる。例えば、コンテンツ制御部155は、カメラ姿勢の変化(例えば、所定の変化量を上回る光軸方向の角度変化)からユーザによるカメラのパン又はチルトなどの操作を認識する。そして、コンテンツ制御部155は、例えばパンに応じてARコンテンツの向きを変化させ、チルトに応じてARコンテンツを前進又は後退させる。なお、これら操作の種類とARコンテンツの動きとの間のマッピングは、かかる例に限定されない。
また、コンテンツ制御部155は、検出されたマーカが入力画像の画角外に移動した場合に、当該マーカと関連付けられるARコンテンツが新たな入力画像の画角内に維持されるように、ARコンテンツをAR空間内で移動させてもよい。ARコンテンツの移動先の3次元位置は、3D構造DB130により記憶される特徴点位置などから決定され得る。
また、コンテンツ制御部155は、ARコンテンツが図10に例示したような視線を表現可能なキャラクターの画像である場合には、キャラクターのAR空間内の位置に対するカメラの相対的な位置に基づいて、キャラクターの視線をカメラの方向に向けさせてもよい。
(8−3)ARコンテンツの消滅
本実施形態において、ARコンテンツは、上述したように、関連付けられるマーカが入力画像の画角外に移動した場合にも必ずしも消滅しない。しかし、ARコンテンツがカメラの位置及び姿勢に関わらずいつまでも表示されるとすれば、却って不自然な印象をユーザに与える。そこで、本実施形態では、コンテンツ制御部155は、検出されたマーカに対する相対的なカメラ位置及びカメラ姿勢の少なくとも一方が所定の消滅条件を満たした場合に、ARコンテンツを消滅させる。所定の消滅条件とは、例えば次の条件A〜Dのいずれか又はそれらの組合せであってよい:
条件A)マーカからカメラ位置までの距離が所定の距離閾値を上回る;
条件B)カメラからマーカへの方向に対するカメラの光軸のなす角度が所定の角度閾値を上回る;
条件C)マーカの検出時刻からの経過時間が所定の時間閾値を上回る;
条件D)マーカの喪失時刻からの経過時間が所定の時間閾値を上回る。
ここでの距離閾値、角度閾値及び時間閾値もまた、複数のARコンテンツにわたって共通的に定義されてもよく、又はARコンテンツごとの制御パラメータとして定義されてもよい。
図11は、ARコンテンツの消滅条件Aについて説明するための説明図である。図11を参照すると、実空間1が再び示されている。図11において、点P1はマーカ20aの検出位置、点線DL1は点P1からの距離が距離閾値dth1に等しい境界を示す。画像処理装置100aのマーカ20aからの距離は、距離閾値dth1を下回る。この場合、画像処理装置100aのコンテンツ制御部155は、マーカ20aと関連付けられるARコンテンツ32aを消滅させることなく、ARコンテンツ32aを画像処理装置100aの画角30aの内部に移動させる。その後、例えば画像処理装置100aの位置から画像処理装置100bの位置へ装置が移動したものとする。画像処理装置100bのマーカ20aからの距離は、距離閾値dth1を上回る。この場合、コンテンツ制御部155は、マーカ20aと関連付けられるARコンテンツ32aを消滅させる。即ち、画像処理装置100bの画角30bには、ARコンテンツ32aは映らない。
図12は、ARコンテンツの消滅条件Bについて説明するための説明図である。図12を参照すると、実空間1が再び示されている。図12において、点P1はマーカ20aの検出位置を示す。画像処理装置100cのマーカ20aからの距離は、所定の距離閾値を下回るものとする。但し、画像処理装置100cの撮像部102からマーカ20aへの方向Vmarkに対する撮像部102の光軸Voptのなす角度roptは、所定の角度閾値(図示せず)を上回る。この場合、画像処理装置100cのコンテンツ制御部155は、マーカ20aと関連付けられるARコンテンツ32aを消滅させる。
なお、コンテンツ制御部155は、これら消滅条件A及びBに関わらず、上記消滅条件C又はDのように、マーカの検出時刻からの経過時間又はマーカの喪失時刻からの経過時間が所定の時間閾値を上回った時点で、当該マーカと関連付けられるARコンテンツを消滅させてもよい。また、消滅条件A又はBが満たされ且つマーカの検出時刻又は喪失時刻からの経過時間が所定の時間閾値を上回った時点で、当該マーカと関連付けられるARコンテンツを消滅させてもよい。
このようなARコンテンツの振る舞いの制御により、ARコンテンツがカメラの位置及び姿勢に関わらずいつまでも表示されるというような不自然な状況は防がれる。また、多数のARコンテンツが表示されるというARコンテンツの輻輳の発生も回避される。特に、本実施形態では、マーカに対するカメラの相対的な位置又は姿勢に応じて、ARコンテンツの消滅が制御される。そのため、ユーザのARコンテンツへの興味が薄れたこと(例えばユーザがマーカから離れ、又はマーカとは全く違う方向を撮像していることなど)をきっかけとして、ARコンテンツを消滅させることができる。即ち、ARコンテンツの出現から消滅までのライフサイクルを、ユーザの状況に即して適切に管理することができる。
(8−4)ARコンテンツの共存
また、コンテンツ制御部155は、異なるマーカに関連付けられる複数のARコンテンツの共存を、マーカに対する相対的なカメラ位置又は姿勢に基づいて制御してもよい。例えば、コンテンツ制御部155は、第1のマーカと関連付けられる第1のARコンテンツがAR空間内に配置されている状況において、第2のマーカが新たに検出された場合に、次の2通りの制御オプションのいずれかを選択し得る:
オプションA)第2のマーカと関連付けられる第2のARコンテンツを、第1のARコンテンツに加えてAR空間内に配置する;
オプションB)第2のマーカと関連付けられる第2のARコンテンツを、第1のARコンテンツに代えてAR空間内に配置する。
例えば、コンテンツ制御部155は、第2のマーカが検出された時点の第1のマーカからカメラ位置までの距離が所定の距離閾値を下回る場合にオプションAを選択し、上記距離が上記距離閾値を上回る場合にオプションBを選択してもよい。オプションAが選択されると、第1及び第2のARコンテンツがAR空間内に共存することとなる。それにより、例えばARコンテンツ間のインタラクションを表現することも可能となる。特に、本実施形態では、マーカが画像から失われた後にもARコンテンツの表示が継続されるため、複数のマーカが同時に入力画像に映らなくとも、ARコンテンツを徐々にAR空間内に追加していくことができる。その場合に、AR空間内に過剰な数のARコンテンツが共存することを回避し、より自然な条件の下でARコンテンツを共存させることができる。
なお、コンテンツ制御部155は、第1及び第2のARコンテンツの種別(例えば、図10に例示した「タイプ」)に基づいて、複数のARコンテンツの共存を制御してもよい。例えば、コンテンツ制御部155は、第1及び第2のARコンテンツが共通する種別を有している場合にのみ、上記オプションAを選択し得る。共通する種別を有しているARコンテンツとは、例えば、同じ種類のマーカと関連付けられているARコンテンツ、同じ種類のキャラクターを表現するARコンテンツ又は共通する目的を有するアプリケーションのためのARコンテンツなどであってよい。それにより、互いにインタラクションし得ないような雑多なARコンテンツが共存することを回避することができる。
(8−5)制御結果の出力
コンテンツ制御部155は、このようにARコンテンツの振る舞いを制御し、入力画像に重畳すべきARコンテンツを選択する。そして、コンテンツ制御部155は、選択したARコンテンツのAR空間内の3次元的な表示位置及び表示姿勢を決定する。ARコンテンツの表示位置及び表示姿勢は、典型的には、解析部125による画像処理装置100の周囲の環境の認識結果を用いて決定される。即ち、コンテンツ制御部155は、3D構造DB130により記憶されている特徴点情報131とカメラ位置・姿勢情報132とを用いて、ARコンテンツの表示位置及び表示姿勢を決定する。ARコンテンツの表示位置及び表示姿勢は、例えば、ARコンテンツがカメラの画角内に入り、かつARコンテンツが画角内の物体上に接地するように決定されてよい。画角が急激に変化したような場合には、ARコンテンツの表示位置は、ARコンテンツが完全には画角の変化に追随せずによりゆっくりと移動するように決定されてもよい。なお、ARコンテンツの表示位置及び表示姿勢の決定手法は、かかる例に限定されない。そして、コンテンツ制御部155は、入力画像に重畳すべきARコンテンツの描画用データ、表示位置及び表示姿勢並びにその他の制御パラメータを、表示制御部160へ出力する。
コンテンツ制御部155から表示制御部160へ追加的に出力される制御パラメータは、例えば、ARコンテンツの視線を特定するパラメータを含んでもよい。また、制御パラメータは、ARコンテンツのフェードアウトに関連する透過度パラメータを含んでもよい。例えば、コンテンツ制御部155は、上述した消滅条件Aの判定において、マーカからカメラ位置までの距離が所定の距離閾値に近付くにつれて、ARコンテンツの透過度を高く設定してもよい。同様に、コンテンツ制御部155は、上述した消滅条件Bの判定において、カメラからマーカへの方向に対するカメラの光軸のなす角度が所定の角度閾値に近付くにつれて、ARコンテンツの透過度を高く設定してもよい。このような透過度の設定によって、ARコンテンツが消滅する前にARコンテンツを徐々にフェードアウトさせることが可能となる。
(9)表示制御部
表示制御部160は、マーカ検出部140により検出されたマーカと関連付けられるARコンテンツを画像取得部120から入力される入力画像に重畳することにより、出力画像を生成する。そして、表示制御部160は、生成した出力画像を表示部110の画面上に表示する。
より具体的には、表示制御部160には、表示すべきARコンテンツの描画用データ、表示位置及び表示姿勢並びにその他の制御パラメータがコンテンツ制御部155から入力される。また、表示制御部160は、3D構造DB130から現在のカメラ位置及び姿勢を取得する。そして、表示制御部160は、ARコンテンツの表示位置及び表示姿勢と現在のカメラ位置及び姿勢とに基づいてレンダリングされる撮像面上の位置に、ARコンテンツを重畳する。
表示制御部160による表示のために用いられる描画用データは、図10に例示した2種類の描画用データの間で、マーカに対する相対的なカメラ位置又は相対的なカメラ姿勢に基づいて切り替えられてよい。それにより、例えばユーザがマーカに近付き又は当該マーカの近傍を撮像している状況では、当該マーカと関連付けられるコンテンツが高い表示解像度で表示され得る。また、表示制御部160は、ARコンテンツの透過度を、コンテンツ制御部155からの制御パラメータに応じて変化させてもよい。
本実施形態では、上述したように、ARコンテンツの表示位置及び表示姿勢が画像処理装置100の周囲の環境の認識結果を用いて決定されるため、表示制御部160は、一度検出されたマーカが入力画像の画角外に移動した後にも、当該マーカと関連付けられるARコンテンツを自然な形で入力画像に重畳することができる。また、周囲の環境の認識結果は3D構造DB130により記憶されるため、例えばあるフレームについて環境の認識が失敗したとしても、環境の認識を一からやり直すことなく、以前の認識結果に基づいて認識を継続することができる。従って、本実施形態によれば、マーカが入力画像に映らなくとも、かつ認識の一時的な失敗が生じたとしても、ARコンテンツの表示は継続され得る。そのため、ユーザは、マーカが映っているか又は環境認識が正常に行われているかを心配することなく、自由にカメラを動かすことができる。
[2−3.ARコンテンツの表示例]
図13Aは、本実施形態におけるARコンテンツの表示の第1の例を示す説明図である。図13Aを参照すると、一例としての出力画像Im11が示されている。出力画像Im11には、テーブル11、コーヒーカップ12及びポスター14が映っている。画像処理装置100の解析部125は、上述したSLAM法に従い、これら実物体の特徴点の位置に基づいて、3次元的なカメラ位置及びカメラ姿勢、並びに環境の3次元構造(即ち、これら特徴点の3次元位置)を認識する。ポスター14には、マーカ20aが印刷されている。マーカ20aはマーカ検出部140により検出され、マーカ20aと関連付けられているARコンテンツ34aがコンテンツ制御部155によりAR空間内に配置される。その結果、出力画像Im11内で、ARコンテンツ34aが表示されている。
図13Bは、本実施形態におけるARコンテンツの表示の第2の例を示す説明図である。図13Bに示されている出力画像Im12は、上述した出力画像Im11に続いて表示され得る画像である。出力画像Im12には、ポスター14は部分的にしか映っておらず、マーカ検出部140によりマーカ20aは検出されない。但し、マーカ20aに対する相対的なカメラ位置及びカメラ姿勢は上述した消滅条件を満たさないものとする。コンテンツ制御部155は、ARコンテンツ34aを出力画像Im12の画角内に移動させる。そして、表示制御部160は、3D構造DB130に記憶されるカメラ位置・姿勢情報132に基づいて決定される位置に、ARコンテンツ34aを重畳する。この後、例えば画像処理装置100がさらにマーカ20aから離れる方向へ移動すると、ARコンテンツ34aは、フェードアウトしながら最終的に消滅し得る。
図13Cは、本実施形態におけるARコンテンツの表示の第3の例を示す説明図である。図13Cを参照すると、一例としての出力画像Im21が示されている。出力画像Im11には、テーブル11及び本13が映っている。画像処理装置100の解析部125は、上述したSLAM法に従い、これら実物体の特徴点の位置に基づいて、3次元的なカメラ位置及びカメラ姿勢、並びに環境の3次元構造を認識する。本13には、マーカ20bが印刷されている。マーカ20bはマーカ検出部140により検出され、マーカ20bと関連付けられているARコンテンツ34bがコンテンツ制御部155によりAR空間内に配置される。その結果、出力画像Im21内で、ARコンテンツ34bが表示されている。
図13Dは、本実施形態におけるARコンテンツの表示の第4の例を示す説明図である。図13Dに示されている出力画像Im22は、上述した出力画像Im21に続いて表示され得る画像である。出力画像Im22にはマーカ20bは映っていないものの、ARコンテンツ34bの表示は継続されている。さらに、出力画像Im22には、マーカ20aが映っている。マーカ20aは、マーカ検出部140により検出される。そして、図13Dの状況では、例えばマーカ20bからカメラ位置までの距離が所定の距離閾値を下回ることから、上述したオプションAが選択される。結果として、コンテンツ制御部155は、新たに検出されたマーカ20aと関連付けられているARコンテンツ34aを、ARコンテンツ34bに加えてAR空間内に配置する。
[2−4.処理の流れ]
図14は、本実施形態に係る画像処理装置100による画像処理の流れの一例を示すフローチャートである。
図14を参照すると、まず、画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する(ステップS110)。そして、画像取得部120は、取得した入力画像を、解析部125、マーカ検出部140及び表示制御部160へ出力する。
次に、解析部125は、画像取得部120から入力される入力画像を対象として、上述した解析処理を実行する(ステップS120)。ここで実行される解析処理は、例えば、図5を用いて説明したSLAM演算処理のうちの1フレーム分の処理に相当し得る。その結果、最新の3次元的なカメラ位置及び姿勢と、入力画像に映る新たな特徴点の3次元位置とが、3D構造DB130により記憶される。
次に、マーカ検出部140は、マーカ基本情報136において定義されているマーカを入力画像内で探索する(ステップS130)。そして、マーカ検出部140により新たなマーカが入力画像内で検出されると(ステップS135)、マーカ管理部145は、当該新たなマーカの3次元的な位置及び姿勢、並びに検出時刻をマーカDB135に記憶させる(ステップS140)。
次に、コンテンツ制御部155は、表示すべきARコンテンツを選択する(ステップS150)。ここで選択されるARコンテンツは、例えば、マーカ検出情報137において検出時刻が記憶されている検出済みのマーカのうち、上述した消滅条件が満たされていないマーカであってよい。その後の処理は、ステップS150においてコンテンツ制御部155により選択されたARコンテンツが存在するか否かに応じて分岐する(ステップS155)。
コンテンツ制御部155によりいずれのARコンテンツも選択されなかった場合、即ち表示すべきARコンテンツが存在しない場合には、表示制御部160は、入力画像をそのまま出力画像とする(ステップS160)。一方、表示すべきARコンテンツが存在する場合には、コンテンツ制御部155は、選択したARコンテンツのAR空間内の3次元的な表示位置及び表示姿勢、並びにその他の制御パラメータ(例えば透過度など)を決定する(ステップS165)。そして、表示制御部160は、決定されたパラメータとカメラの位置及び姿勢とを用いて、ARコンテンツを入力画像に重畳することにより、出力画像を生成する(ステップS170)。
そして、表示制御部160は、生成した(又は入力画像に等しい)出力画像を表示部110の画面上に表示する(ステップS180)。その後、処理はステップS110に戻り、次のフレームについて上述した処理が繰り返され得る。
<3.まとめ>
ここまで、図1〜図14を用いて、一実施形態に係る画像処理装置100について詳細に説明した。本実施形態によれば、AR空間内に配置されるARコンテンツと関連付けられるマーカが入力画像内で検出され、検出されたマーカの実空間内の位置及び姿勢についての情報が記憶媒体を用いて管理される。そして、検出されたマーカに対するカメラの相対的な位置及び姿勢が追跡され、それらの少なくとも一方に基づいて当該マーカと関連付けられるARコンテンツの振る舞いが制御される。ARコンテンツの配置は、SLAM法などの環境認識技術を用いた入力画像の解析結果に基づいて行われる。従って、マーカが画像から失われた後にもARコンテンツの表示を継続することができると共に、マーカと関連付けられるARコンテンツの自然な表示を維持することができる。なお、検出されたマーカの実空間内の位置及び姿勢の双方ではなく、一方のみ(例えば、位置のみ)がデータベース内で管理されてもよい。
上述した画像処理装置100の論理的機能の一部は、当該装置上に実装される代わりに、クラウドコンピューティング環境内に存在する装置上に実装されてもよい。その場合には、論理的機能の間でやり取りされる情報が、図3に例示した通信部112を介して装置間で送信され又は受信され得る。
本明細書において説明した画像処理装置100による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、画像処理装置100の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPU(Central Processing Unit)などのプロセッサにより実行される。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実空間を映す映像を構成する入力画像を取得する画像取得部と、
前記入力画像を解析することにより、前記入力画像を撮像した撮像装置の前記実空間内の位置及び姿勢の少なくとも一方を認識する解析部と、
拡張現実空間内に配置されるコンテンツと関連付けられるオブジェクトであって前記実空間内に存在する前記オブジェクトを前記入力画像内で検出する検出部と、
前記検出部により検出されたオブジェクトの前記実空間内の位置及び姿勢の少なくとも一方を含む検出情報を記憶媒体に記憶させる管理部と、
前記検出情報を用いて追跡される、前記検出されたオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方に基づいて、前記検出されたオブジェクトと関連付けられるコンテンツの前記拡張現実空間内での振る舞いを制御するコンテンツ制御部と、
を備える画像処理装置。
(2)
前記コンテンツ制御部は、前記検出されたオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方が所定の条件を満たした場合に、前記検出されたオブジェクトと関連付けられるコンテンツを消滅させる、前記(1)に記載の画像処理装置。
(3)
前記所定の条件とは、前記検出されたオブジェクトからの前記撮像装置の距離が所定の距離閾値を上回る、という条件である、前記(2)に記載の画像処理装置。
(4)
前記所定の条件とは、前記撮像装置から前記検出されたオブジェクトへの方向に対する前記撮像装置の光軸のなす角度が所定の角度閾値を上回る、という条件である、前記(2)に記載の画像処理装置。
(5)
前記コンテンツ制御部は、第1のオブジェクトと関連付けられる第1のコンテンツが前記拡張現実空間内に配置されている状況において、前記第1のオブジェクトとは異なる第2のオブジェクトが前記検出部により検出された場合に、前記拡張現実空間内に前記第2のオブジェクトと関連付けられる第2のコンテンツを前記第1のコンテンツに加えて配置するか又は前記第1のコンテンツに代えて配置するかを、前記第1のオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方に基づいて決定する、前記(1)に記載の画像処理装置。
(6)
前記コンテンツ制御部は、前記検出されたオブジェクトの検出時刻又は当該オブジェクトが前記入力画像から失われた時刻からの経過時間にさらに基づいて、前記コンテンツの前記拡張現実空間内での振る舞いを制御する、前記(1)〜(5)のいずれか1項に記載の画像処理装置。
(7)
前記コンテンツ制御部は、前記撮像装置の位置及び姿勢の少なくとも一方の変化に応じて、前記コンテンツを前記拡張現実空間内で移動させる、前記(1)〜(6)のいずれか1項に記載の画像処理装置。
(8)
前記コンテンツ制御部は、前記検出されたオブジェクトが前記入力画像の画角外に移動した場合に、前記コンテンツが前記画角内に維持されるように前記コンテンツを前記拡張現実空間内で移動させる、前記(7)に記載の画像処理装置。
(9)
前記コンテンツは、視線を表現可能なキャラクターの画像であり、
前記コンテンツ制御部は、前記キャラクターの前記拡張現実空間内の位置に対する前記撮像装置の相対的な位置に基づいて、前記キャラクターの視線を前記撮像装置の方向に向けさせる、
前記(1)〜(8)のいずれか1項に記載の画像処理装置。
(10)
前記画像処理装置は、前記検出されたオブジェクトが前記入力画像の画角外に移動した後にも、前記検出されたオブジェクトと関連付けられる前記コンテンツを前記入力画像に重畳する表示制御部、をさらに備える、前記(1)〜(9)のいずれか1項に記載の画像処理装置。
(11)
前記表示制御部は、前記検出されたオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方に基づいて、前記コンテンツの表示解像度を変化させる、前記(10)に記載の画像処理装置。
(12)
前記画像取得部、前記解析部、前記検出部、前記管理部及び前記コンテンツ制御部のうち少なくとも1つが前記画像処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、前記(1)〜(11)のいずれか1項に記載の画像処理装置。
(13)
実空間を映す映像を構成する入力画像を取得することと、
前記入力画像を解析することにより、前記入力画像を撮像した撮像装置の前記実空間内の位置及び姿勢の少なくとも一方を認識することと、
拡張現実空間内に配置されるコンテンツと関連付けられるオブジェクトであって前記実空間内に存在する前記オブジェクトを前記入力画像内で検出することと、
検出されたオブジェクトの前記実空間内の位置及び姿勢の少なくとも一方を含む検出情報を記憶媒体に記憶させることと、
前記検出情報を用いて追跡される、前記検出されたオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方に基づいて、前記検出されたオブジェクトと関連付けられるコンテンツの前記拡張現実空間内での振る舞いを制御することと、
を含む画像処理方法。
(14)
画像処理装置を制御するコンピュータを、
実空間を映す映像を構成する入力画像を取得する画像取得部と、
前記入力画像を解析することにより、前記入力画像を撮像した撮像装置の前記実空間内の位置及び姿勢の少なくとも一方を認識する解析部と、
拡張現実空間内に配置されるコンテンツと関連付けられるオブジェクトであって前記実空間内に存在する前記オブジェクトを前記入力画像内で検出する検出部と、
前記検出部により検出されたオブジェクトの前記実空間内の位置及び姿勢の少なくとも一方を含む検出情報を記憶媒体に記憶させる管理部と、
前記検出情報を用いて追跡される、前記検出されたオブジェクトに対する前記撮像装置の相対的な位置及び姿勢の少なくとも一方に基づいて、前記検出されたオブジェクトと関連付けられるコンテンツの前記拡張現実空間内での振る舞いを制御するコンテンツ制御部と、
として機能させるためのプログラム。
1 実空間
20a,20b,20c マーカ(オブジェクト)
100 画像処理装置
120 画像取得部
125 解析部
140 検出部
145 管理部
155 コンテンツ制御部
160 表示制御部

Claims (10)

  1. 実空間を撮像する撮像部と、
    前記撮像部により取得される実空間画像を解析することにより、前記撮像部の前記実空間内の位置及び姿勢の少なくとも一方を認識する解析部と、
    拡張現実空間内に配置される視線を表現可能なコンテンツの表示を制御するための制御パラメータを、追跡される前記撮像部の位置及び姿勢の前記少なくとも一方に基づき、所定の基準に従って決定し、決定した前記制御パラメータを用いて前記コンテンツの表示を制御する制御部と、
    を備え、
    前記制御パラメータは、前記視線を制御する視線制御パラメータを含む、
    画像処理装置。
  2. 前記所定の基準は、前記コンテンツの位置に対する前記撮像部の相対的な位置に関連する基準を含む、請求項1に記載の画像処理装置。
  3. 前記所定の基準は、前記コンテンツの前記視線を前記撮像部の方向へ向けさせるという基準である、請求項2に記載の画像処理装置。
  4. 前記制御パラメータは、前記コンテンツの表示透過度を制御するパラメータをさらに含む、請求項1〜3のいずれか1項に記載の画像処理装置。
  5. 前記制御パラメータは、前記コンテンツの表示解像度を制御するパラメータをさらに含む、請求項1〜4のいずれか1項に記載の画像処理装置。
  6. 前記所定の基準は、前記コンテンツと前記撮像部との間の距離の閾値比較に基づく基準を含む、請求項1〜5のいずれか1項に記載の画像処理装置。
  7. 前記所定の基準は、前記撮像部の姿勢に応じた角度の閾値比較に基づく基準を含む、請求項1〜6のいずれか1項に記載の画像処理装置。
  8. 前記画像処理装置は、前記撮像部の位置及び姿勢の前記少なくとも一方の追跡のために使用される前記実空間画像の前記解析の結果を記憶媒体を用いて管理する管理部、をさらに備える、請求項1〜7のいずれか1項に記載の画像処理装置。
  9. 画像処理装置において、
    撮像部に実空間を撮像させることと、
    前記撮像部により取得される実空間画像を解析することにより、前記撮像部の前記実空間内の位置及び姿勢の少なくとも一方を認識することと、
    拡張現実空間内に配置される視線を表現可能なコンテンツの表示を制御するための制御パラメータを、追跡される前記撮像部の位置及び姿勢の前記少なくとも一方に基づき、所定の基準に従って決定することと、
    決定した前記制御パラメータを用いて前記コンテンツの表示を制御することと、
    前記制御パラメータは、前記視線を制御する視線制御パラメータを含むことと、
    を含む画像処理方法。
  10. 画像処理装置を制御するコンピュータを、
    実空間を撮像する撮像部により取得される実空間画像を解析することにより、前記撮像部の前記実空間内の位置及び姿勢の少なくとも一方を認識する解析部と、
    拡張現実空間内に配置される視線を表現可能なコンテンツの表示を制御するための制御パラメータを、追跡される前記撮像部の位置及び姿勢の前記少なくとも一方に基づき、所定の基準に従って決定し、決定した前記制御パラメータを用いて前記コンテンツの表示を制御する制御部と、
    として機能させ、
    前記制御パラメータは、前記視線を制御する視線制御パラメータを含む、
    プログラム。
JP2015196639A 2015-10-02 2015-10-02 画像処理装置、画像処理方法及びプログラム Active JP5991418B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015196639A JP5991418B2 (ja) 2015-10-02 2015-10-02 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015196639A JP5991418B2 (ja) 2015-10-02 2015-10-02 画像処理装置、画像処理方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011235749A Division JP5821526B2 (ja) 2011-10-27 2011-10-27 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016028339A true JP2016028339A (ja) 2016-02-25
JP5991418B2 JP5991418B2 (ja) 2016-09-14

Family

ID=55360758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015196639A Active JP5991418B2 (ja) 2015-10-02 2015-10-02 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5991418B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051711A (ja) * 1996-08-05 1998-02-20 Sony Corp 3次元仮想物体表示装置および方法
JP2005228110A (ja) * 2004-02-13 2005-08-25 Canon Inc 情報処理方法および装置
JP2007282861A (ja) * 2006-04-17 2007-11-01 Square Enix Co Ltd ゲーム装置、キャラクタの表示方法、並びにプログラム及び記録媒体
JP2009110304A (ja) * 2007-10-30 2009-05-21 Canon Inc 画像処理装置、画像処理方法
JP2009140370A (ja) * 2007-12-07 2009-06-25 Namco Bandai Games Inc プログラム、情報記憶媒体、画像生成システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051711A (ja) * 1996-08-05 1998-02-20 Sony Corp 3次元仮想物体表示装置および方法
JP2005228110A (ja) * 2004-02-13 2005-08-25 Canon Inc 情報処理方法および装置
JP2007282861A (ja) * 2006-04-17 2007-11-01 Square Enix Co Ltd ゲーム装置、キャラクタの表示方法、並びにプログラム及び記録媒体
JP2009110304A (ja) * 2007-10-30 2009-05-21 Canon Inc 画像処理装置、画像処理方法
JP2009140370A (ja) * 2007-12-07 2009-06-25 Namco Bandai Games Inc プログラム、情報記憶媒体、画像生成システム

Also Published As

Publication number Publication date
JP5991418B2 (ja) 2016-09-14

Similar Documents

Publication Publication Date Title
JP5821526B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20220414993A1 (en) Image processing apparatus, image processing method, and program
US9823821B2 (en) Information processing apparatus, display control method, and program for superimposing virtual objects on input image and selecting an interested object
JP3926837B2 (ja) 表示制御方法および装置、プログラム、並びに携帯機器
US20140248950A1 (en) System and method of interaction for mobile devices
US9268410B2 (en) Image processing device, image processing method, and program
TW201346640A (zh) 影像處理裝置及電腦程式產品
KR20120054901A (ko) 증강 현실 사용자 인터페이스 제공 장치 및 방법
JP6172233B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN109791432A (zh) 推迟影响图形用户界面的信息的状态改变直至不专注的情况期间
JP5991418B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160801

R151 Written notification of patent or utility model registration

Ref document number: 5991418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250