JP6763154B2 - 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法 - Google Patents

画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法 Download PDF

Info

Publication number
JP6763154B2
JP6763154B2 JP2016046100A JP2016046100A JP6763154B2 JP 6763154 B2 JP6763154 B2 JP 6763154B2 JP 2016046100 A JP2016046100 A JP 2016046100A JP 2016046100 A JP2016046100 A JP 2016046100A JP 6763154 B2 JP6763154 B2 JP 6763154B2
Authority
JP
Japan
Prior art keywords
image
information
space
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016046100A
Other languages
English (en)
Other versions
JP2017162192A (ja
Inventor
圭造 加藤
圭造 加藤
健介 倉木
健介 倉木
田中 竜太
竜太 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016046100A priority Critical patent/JP6763154B2/ja
Publication of JP2017162192A publication Critical patent/JP2017162192A/ja
Application granted granted Critical
Publication of JP6763154B2 publication Critical patent/JP6763154B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法に関する。
近年、拡張現実(Augmented Reality, AR)技術を用いた演出を行う試みが多くなされている。例えば、立体物の立体構造を考慮して、プロジェクタによって立体物に映像コンテンツを投影する、プロジェクションマッピングが知られている(例えば、特許文献1を参照)。このようなプロジェクションマッピングにおいて、ユーザがスマートデバイスに搭載されたカメラで映像コンテンツを撮影したとき、撮影された映像中にARコンテンツが重畳表示されれば、投影された映像コンテンツがより印象的になると考えられる。
可視光の光信号を追加した画像を被投射物に投射し、反射光を用いて被投射物の位置情報を算出する技術も知られている(例えば、特許文献2を参照)。時系列に沿ってシンボルの値に応じて変化する信号を動画像データ又は照明光に重畳する技術も知られている(例えば、特許文献3及び特許文献4を参照)。ARコンテンツを表示するために画像から平面を検出する技術、及び画像からカメラの位置及び向きを推定する技術も知られている(例えば、非特許文献1〜非特許文献7を参照)。
特開2015−45751号公報 国際公開第2013/111375号パンフレット 特開2012−142741号公報 国際公開第2016/001972号パンフレット
G. Klein et al., "Parallel Tracking and Mapping for Small AR Workspaces", ISMAR, 2007 V. Lepetit et al., "EPnP: An Accurate O(n) Solution to the PnP Problem", International Journal of Computer Vision, Vol.81, Issue 2, pp.155-166, 2008 M. Bujnak et al., "A general solution to the P4P problem for camera with unknown focal length", In Proc. CVPR 2008, pp.1-8, 2008. T. Drummond et al., "Real-Time Visual Tracking of Complex Structures", PAMI, Vol. 24, No. 7, pp.932-946, 2002. Luca Vacchetti et al., "Combining Edge and Texture Information for Real-Time Accurate 3D Camera Tracking", ISMAR, 2004 "第7章 座標変換"、[online]、[平成28年2月12日検索]、インターネット<URL:http://www.wakayama-u.ac.jp/~tokoi/lecture/gg/ggbook03.pdf> "SSII2015 チュートリアル 特徴点追跡による動画像からの逐次三次元復元とその応用−座標系の基礎から応用事例・最新研究動向まで−"、[online]、[平成28年2月24日検索]、インターネット<URL:http://yokoya.naist.jp/paper/datas/1407/SSII%E3%83%81%E3%83%A5%E3%83%BC%E3%83%88%E3%83%AA%E3%82%A2%E3%83%AB%E4%BD%90%E8%97%A4.pdf>
従来のプロジェクションマッピングでは、ARコンテンツを重畳表示するために、立体物に対して投影された映像を撮影した映像から、その立体物の立体構造を高精度に特定することは困難である。
なお、かかる問題は、立体物に対して投影された映像から立体構造を特定する場合に限らず、3次元空間の情報を含む映像を撮影した映像から、その3次元空間内の位置を特定する場合においても生ずるものである。
また、かかる問題は、プロジェクションマッピングの映像を撮影する場合に限らず、イルミネーションのように、発光装置が出力する光を撮影する場合においても生ずるものである。
1つの側面において、本発明は、撮像装置によって撮影した空間情報を含む画像から、空間内における撮像装置の位置を高精度に特定することを目的とする。
1つの案では、画像処理プログラムは、以下の処理をコンピュータに実行させる。
(1)コンピュータは、撮像装置が撮影した撮影画像内の複数の領域それぞれから、撮影画像に埋め込まれた埋め込み情報を検出する。
(2)コンピュータは、埋め込み情報と、撮影画像に写る空間内の位置を示す位置情報とを対応付けて記憶する記憶部を参照して、複数の領域それぞれから検出した埋め込み情報に対応する空間内の位置を推定する。
(3)コンピュータは、推定した空間内の位置に基づいて、空間内の撮像装置の位置を特定する。
実施形態によれば、撮像装置によって撮影した空間情報を含む画像から、空間内における撮像装置の位置を高精度に特定することができる。
ARコンテンツを重畳した映像を示す図である。 画像処理装置の機能的構成図である。 画像処理のフローチャートである。 画像処理システムの構成図である。 3次元空間が写った画像を示す図である。 複数の面が写っている領域を示す図である。 領域推定処理を示す図である。 映像投影処理のフローチャートである。 画像処理の具体例を示すフローチャートである。 領域推定処理のフローチャートである。 境界点設定処理のフローチャートである。 境界点を示す図である。 直線フィッティング処理のフローチャート(その1)である。 直線フィッティング処理のフローチャート(その2)である。 直線フィッティング処理のフローチャート(その3)である。 直線フィッティング処理を示す図である。 選択対象の境界点を示す図である。 撮像装置の位置及び撮影方向を示す図である。 領域IDが埋め込まれた画像を示す図である。 制御装置及び投影装置を一体化した情報埋め込み装置の構成図である。 撮像装置を含まない画像処理装置の構成図である。 発光装置を示す図である。 発光装置を含む情報埋め込み装置の構成図である。 発光処理のフローチャートである。 信号パターンを用いる情報埋め込み装置の構成図である。 信号パターンを用いる発光処理のフローチャートである。 時間制御情報を用いる情報埋め込み装置の構成図である。 時間制御情報を用いる発光処理のフローチャートである。 情報処理装置の構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
図1は、プロジェクションマッピングにおいてARコンテンツを重畳した映像の例を示している。映像102が投影される立体物が部屋である場合、プロジェクタ101は、部屋の天井、壁、及び床に対して映像102を投影し、ユーザは、スマートデバイスに搭載されたカメラで映像102を撮影する。そして、スマートデバイスは、撮影した映像102にARコンテンツのオブジェクト111〜オブジェクト113を重畳した映像103を、画面上に表示する。
この場合、オブジェクト111〜オブジェクト113が空間的に同期していることが好ましい。具体的には、天井の領域に表示されるオブジェクト111は、天井からぶら下がっているように表示し、壁の領域に表示されるオブジェクト112は、壁に張り付いているように表示することが好ましい。また、床の領域に表示されるオブジェクト113は、床を這っているように表示することが好ましい。
なお、天井、壁、及び床を有する部屋は実在していなくてもよく、投影される映像102に含まれるコンテンツであってもよい。
このようなARコンテンツの重畳表示によって、映像をユーザ毎に演出する利用形態としては、例えば、以下のようなものが考えられる。
(a)スマートデバイスを魔法のレンズ、カメラ等に見立て、スマートデバイスを通して映像を見た場合にのみ、特定のオブジェクトが表示される。特定のオブジェクトは、昆虫又は動物であってもよく、妖精又は妖怪であってもよい。
(b)ARコンテンツをゲームコンテンツ等と連動させ、ゲームのデータに応じて表示するオブジェクトを変更する。
(c)ARコンテンツが、ユーザの保有するキャラクタ又はアバタとして表示される。
(d)ARコンテンツとして表示されたエージェントが、ユーザの現在位置に応じて道案内を行う。
(e)映像中の各領域に、天井、壁、又は床のような位置情報を示すARコンテンツを表示する。
ARコンテンツを空間的に同期させるために、立体物上に可視マーカを配置することも可能であるが、投影された映像に可視マーカが映ると、映像コンテンツの美観を損ねるという問題がある。
特許文献2の技術では、可視光の光信号を追加した画像が被投射物に投射され、反射光が光学カラーフィルタを透過することで光信号が取得され、取得された光信号を用いて被投射物の位置情報が算出される。しかしながら、この技術では、光学カラーフィルタによって、可視光の光信号以外の波長の光が遮断されてしまうため、投影された映像が正しく撮影されない。このため、特許文献2の技術は、撮影した映像にARコンテンツを重畳表示する用途には適していない。
また、非特許文献1の技術では、撮影された画像から抽出した特徴点の3次元マップを生成することで、ARコンテンツを表示するための平面が検出される。しかしながら、画像に写っている物体の幾何学特性によって検出精度が変化するため、プロジェクションマッピングのような任意の映像コンテンツに対して、この技術を適用することは困難である。
図2は、実施形態の画像処理装置の機能的構成例を示している。図2の画像処理装置201は、記憶部211、検出部212、及び特定部213を含む。
記憶部211は、撮像装置が撮影した撮影画像に埋め込まれた埋め込み情報と、その撮影画像に写る空間内の位置を示す位置情報とを対応付けて記憶する。検出部212は、撮影画像から埋め込み情報を検出し、特定部213は、記憶部211を参照して、埋め込み情報に基づき空間内の撮像装置の位置を特定する。
図3は、図2の画像処理装置201が行う画像処理の例を示すフローチャートである。まず、検出部212は、撮影画像内の複数の領域それぞれから埋め込み情報を検出する(ステップ301)。
次に、特定部213は、記憶部211を参照して、検出部212が複数の領域それぞれから検出した埋め込み情報に対応する空間内の位置を推定し(ステップ302)、推定した空間内の位置に基づいて、空間内の撮像装置の位置を特定する(ステップ303)。
このような画像処理装置201によれば、撮像装置によって撮影した空間情報を含む画像から、空間内における撮像装置の位置を高精度に特定することができる。
画像処理装置201は、画像を撮影するためのカメラを含むスマートデバイス、携帯電話機等の携帯端末であってもよく、サーバのような情報処理装置であってもよい。
図4は、図2の画像処理装置201を含む画像処理システムの構成例を示している。図4の画像処理システムは、画像処理装置201及び情報埋め込み装置401を含む。
情報埋め込み装置401は、制御装置411及び投影装置412を含む。制御装置411は、例えば、情報処理装置であり、埋め込み部413及び記憶部414を含む。記憶部414は、立体構造情報421と、空間を表す空間情報を含む映像422とを記憶する。映像422は、複数時刻それぞれにおける複数の画像を含む。立体構造情報421は、映像422中の各画像に埋め込まれる埋め込み情報と、各画像に写る空間内の面を示す位置情報とを対応付ける情報である。位置情報は、空間を表す3次元モデルに含まれる各面の座標であってもよい。
埋め込み部413は、立体構造情報421を参照して、各画像内の各面に対応する領域に、対応する埋め込み情報を表す信号を重畳することで、各画像に埋め込み情報を埋め込む。そして、埋め込み部413は、埋め込み情報を埋め込んだ映像422を投影装置412へ出力する。投影装置412は、例えば、プロジェクタであり、埋め込み部413が出力する映像422を表す光を、被投影領域に対して投影する。
埋め込み情報としては、例えば、特許文献1の電子透かしを用いることができる。この場合、埋め込み部413は、映像422中の各画像に重畳される透かしパターンの面積を、時系列に沿って、電子透かしに含まれるシンボルの値に応じて周期的に変化させる。そして、埋め込み部413は、各画像とその画像に対応する透かしパターンとが重なる領域に含まれる各画素の値を、透かしパターンに含まれる画素が持つ所定の値に応じて修正する。これにより、映像422の画質が劣化しないように電子透かしを映像422に埋め込むことができる。
画像処理装置201は、記憶部211、検出部212、特定部213、撮像装置431、生成部432、及び表示部433を含む。特定部213は、領域推定部441及び位置特定部442を含み、記憶部211は、立体構造情報451を記憶する。立体構造情報451は、立体構造情報421と同様の情報である。
撮像装置431は、例えば、受光素子を含むカメラであり、被投影領域に投影された映像422を撮影して映像452を生成し、生成した映像452を記憶部211に格納する。検出部212は、映像452中の各画像から埋め込み情報を検出する。例えば、特許文献1の電子透かしを用いた場合、検出部212は、各領域から時系列に変化する信号を抽出することで、埋め込み情報を検出することができる。
領域推定部441は、検出部212が検出した埋め込み情報から、各画像内の各面に対応する領域を推定する。位置特定部442は、立体構造情報451を参照して、画像内における各面に対応する領域と、空間内における各面の位置とを対応付けることで、空間内における撮像装置431の位置及び撮影方向を特定する。
生成部432は、位置特定部442が特定した撮像装置431の位置及び撮影方向に基づいて、各画像内の所定位置に表示するオブジェクトの画像情報を生成し、複数時刻の画像情報をオブジェクト映像453として記憶部211に格納する。そして、生成部432は、映像452とオブジェクト映像453とを重畳表示する表示情報として、AR映像454を生成し、生成したAR映像454を記憶部211に格納する。表示部433は、AR映像454を画面上に表示する。
図5は、立体構造情報421及び立体構造情報451が表す3次元空間が写った画像の例を示している。図5(a)の画像には、天井、壁A1、壁A2、壁B1、壁B2、及び床を表す面が含まれており、図5(b)の画像には、それらの面が、図5(a)とは異なる位置に、図5(a)とは異なる大きさで含まれている。
この場合、埋め込み部413は、映像422中の各画像の各面に対応する領域に、各面に対応する埋め込み情報を埋め込む。埋め込み情報としては、例えば、各面の識別情報(面ID)を用いることができる。検出部212は、映像452中の各画像を複数の領域に分割して、領域毎に埋め込み情報を検出し、領域推定部441は、各領域から検出された埋め込み情報から、各面に対応する領域を推定する。
これにより、3次元空間内の各面が写っている領域に、その面に適したオブジェクトを重畳表示し、ARコンテンツを空間的に同期させることが可能になる。例えば、天井の領域に床を這っている昆虫を重畳表示することがなくなり、ARコンテンツが効果的に表示される。
図6は、複数の面が写っている領域の例を示している。この例では、分割された1つの領域内において、部分領域601に天井が写っており、部分領域602に壁A2が写っており、部分領域603に壁B1が写っている。例えば、埋め込み情報の信号強度が面積に比例する場合、領域全体の埋め込み情報として、最も面積の大きい天井の面IDが検出される。
図7は、領域推定処理の例を示している。図5(b)に示した画像を複数のメッシュ領域に分割して、各メッシュ領域から埋め込み情報を検出することで、面IDマップ701が生成される。この面IDマップ701は、各メッシュ領域から検出された埋め込み情報が表す面IDを含む。この場合、領域推定部441は、面IDマップ701内で同じ面IDを有するメッシュ領域同士を統合することで、各面を表す領域を生成する。
領域推定部441は、面IDマップ702に示すように、各面を表す領域の端点を直線で結ぶことで、領域間の境界を補正してもよい。これにより、面を表す領域間の境界を直線で表現することができる。
位置特定部442は、面IDマップ701又は面IDマップ702における各面を表す領域を、立体構造情報451が表す位置情報と対応付けることで、3次元空間内における撮像装置431の位置及び撮影方向を特定する。撮影方向は、3次元空間を正面から撮影する方向、斜め向きに撮影する方向のように、3次元空間内における撮像装置431の姿勢を表す。
これにより、3次元空間内の各面が写っている領域に、撮像装置431の位置及び撮影方向に適したオブジェクトを重畳表示することが可能になる。例えば、壁B2に張り付いている昆虫を、撮像装置431から見た角度で重畳表示することができ、ARコンテンツがさらに効果的に表示される。
図8は、図4の情報埋め込み装置401が行う映像投影処理の例を示すフローチャートである。立体構造情報421には、3次元モデルに含まれる各面の位置情報と、各面の面IDとの対応関係が含まれる。
まず、埋め込み部413は、立体構造情報421を参照して、映像422中の各画像内の各面に対応する領域毎に、その面の面IDを表す埋め込み情報を埋め込む(ステップ801)。そして、投影装置412は、埋め込み情報が埋め込まれた映像422を被投影領域に対して投影する(ステップ802)。
図9は、図4の画像処理装置201が行う画像処理の具体例を示すフローチャートである。立体構造情報451には、立体構造情報421と同様に、3次元モデルに含まれる各面の位置情報と、各面の面IDとの対応関係が含まれる。
まず、撮像装置431は、被投影領域に投影された映像422を撮影して映像452を生成する(ステップ901)。検出部212は、映像452中の各画像を複数のメッシュ領域に分割し(ステップ902)、メッシュ領域毎に埋め込み情報を検出して、面IDマップを生成する(ステップ903)。
次に、領域推定部441は、面IDマップを用いて、画像内における各面を表す領域を推定する(ステップ904)。位置特定部442は、立体構造情報451を参照して、画像内における各面を表す領域の位置と、3次モデルが表す3次元空間内における各面の位置とを対応付ける(ステップ905)。そして、位置特定部442は、3次元空間内における各面の位置を用いて、3次元空間内における撮像装置431の位置及び撮影方向を特定する(ステップ906)。
次に、生成部432は、撮像装置431の位置及び撮影方向に基づいて、オブジェクト映像453を生成し(ステップ907)、映像452とオブジェクト映像453とを重畳して、AR映像454を生成する(ステップ908)。そして、表示部433は、AR映像454を画面上に表示する(ステップ909)。
図10は、図9のステップ904における領域推定処理の例を示すフローチャートである。領域推定部441は、検出部212が生成した面IDマップのメッシュ領域間に境界点を設定し(ステップ1001)、境界点に対する直線フィッティングを行う(ステップ1002)。
図11は、図10のステップ1001における境界点設定処理の例を示すフローチャートである。まず、領域推定部441は、面IDマップ内の1つのメッシュ領域を、処理対象のメッシュ領域として選択し(ステップ1101)、処理対象のメッシュ領域に隣接する1つのメッシュ領域を、比較対象のメッシュ領域として選択する(ステップ1102)。このとき、処理対象のメッシュ領域に隣接するメッシュ領域のうち、未だ処理対象のメッシュ領域と比較されていないメッシュ領域が、比較対象のメッシュ領域として選択される。
次に、領域推定部441は、処理対象のメッシュ領域の面IDと、比較対象のメッシュ領域の面IDとを比較する(ステップ1103)。2つの面IDが異なっている場合(ステップ1103,YES)、領域推定部441は、処理対象のメッシュ領域と、比較対象のメッシュ領域との間の境界線上に存在する頂点を、境界点に決定する(ステップ1104)。そして、領域推定部441は、その境界点が接するメッシュ領域の面IDを、記憶部211に記録する。
次に、領域推定部441は、処理対象のメッシュ領域に隣接するすべてのメッシュ領域を選択したか否かをチェックし(ステップ1105)、未選択のメッシュ領域が残っている場合(ステップ1105,NO)、次のメッシュ領域についてステップ1102以降の処理を繰り返す。
処理対象のメッシュ領域に隣接するすべてのメッシュ領域を選択した場合(ステップ1105,YES)、領域推定部441は、面IDマップ内のすべてのメッシュ領域を処理対象のメッシュ領域として選択したか否かをチェックする(ステップ1106)。未選択のメッシュ領域が残っている場合(ステップ1106,NO)、領域推定部441は、次のメッシュ領域についてステップ1101以降の処理を繰り返す。そして、面IDマップ内のすべてのメッシュ領域を選択した場合(ステップ1106,YES)、領域推定部441は、処理を終了する。
2つの面IDが同じである場合(ステップ1103,NO)、領域推定部441は、ステップ1106以降の処理を行う。
なお、処理対象のメッシュ領域が面IDマップの外枠に接している場合は、そのメッシュ領域の外枠上の頂点は、領域と外枠との境界点として扱われ、そのメッシュ領域の面ID及び外枠を示すIDが記録される。また、隣接するメッシュ領域が面IDを有していない場合も、領域と外枠との境界点として扱われる。
図12は、面IDマップ内に設定された境界点の例を示している。図12の面IDマップ1201は、図5(a)に示した画像に対応し、64個のメッシュ領域を含む。領域1211〜領域1216は、それぞれ、天井、壁A1、壁A2、壁B1、壁B2、及び床を表す。
例えば、領域1211に含まれる16個のメッシュ領域の頂点には、22個の境界点が設定されている。このうち、境界点1221は、天井を表す領域1211、壁A1を表す領域1212、及び壁A2を表す領域1213の3つの領域と接している。したがって、境界点1221に接する面の面IDとして、天井のID、壁A1のID、及び壁A2のIDが記録される。
一方、境界点1222は、天井を表す領域1211及び壁A1を表す領域1212と接している。したがって、境界点1222に接する面の面IDとして、天井のID及び壁A1のIDが記録される。また、境界点1223は、天井を表す領域1211及び外枠と接している。したがって、境界点1222に接する面の面IDとして、天井のID及び外枠を示すIDが記録される。
図13A〜図13Cは、図10のステップ1002における直線フィッティング処理の例を示すフローチャートである。まず、領域推定部441は、面IDマップ内の1つの面IDに対応する領域を選択し(ステップ1301)、選択した領域に外枠と接する境界点が存在するか否かをチェックする(ステップ1302)。
外枠と接する境界点が存在する場合(ステップ1302,YES)、領域推定部441は、外枠と接する1つの境界点を選択する(ステップ1303)。次に、領域推定部441は、外枠と接する境界点の中から、選択した境界点に隣接する1つの境界点を選択する(ステップ1304)。ステップ1304において、隣接する境界点は、選択した境界点と同じメッシュ領域に含まれる境界点のうち、選択した境界点に対して対角位置以外に位置する境界点を表す。そして、領域推定部441は、選択した2つの境界点を直線で結ぶ(ステップ1305)。
次に、領域推定部441は、外枠と接するすべての境界点が直線で結ばれたか否かをチェックする(ステップ1306)。未だ直線で結ばれていない境界点が残っている場合(ステップ1306,NO)、領域推定部441は、外枠と接する次の境界点についてステップ1303以降の処理を繰り返す。
外枠と接するすべての境界点が直線で結ばれた場合(ステップ1306,YES)、領域推定部441は、選択した領域を囲むN角形(Nは3以上の整数)が形成されたかをチェックする(ステップ1307)。
N角形が形成された場合(ステップ1307,YES)、領域推定部441は、面IDマップ内のすべての面IDに対応する領域を選択したかをチェックする(ステップ1308)。未選択の領域が残っている場合(ステップ1308,NO)、領域推定部441は、次の領域についてステップ1301以降の処理を繰り返す。
N角形が形成されない場合(ステップ1307,NO)、領域推定部441は、外枠と接する境界点を結ぶ直線の1つの端点を選択する(ステップ1310)。端点は、他の1つの境界点のみと直線で結ばれた境界点を意味する。したがって、他の2つの境界点と直線で結ばれた境界点は、端点ではない。
図14は、図12に示した面IDマップ1201の領域1211に対する直線フィッティング処理の例を示している。領域1211において、外枠と接する11個の境界点を直線で結ぶことで、外枠上の折れ線1411が生成される。折れ線1411は、端点1401及び端点1402を有する。この時点では、端点1401と端点1402とを結ぶ直線1412〜直線1415が未だ生成されていないため、N角形は形成されない。そこで、例えば、端点1401が選択される。
次に、領域推定部441は、選択した領域に、3つの面を表す3つの他の領域と接する境界点が存在するか否かをチェックする(ステップ1311)。以下では、簡単のため、3つの面を表す3つの他の領域と接する境界点を、3つの面と接する境界点と記すことがある。ただし、3つの面に外枠は含まれない。
3つの面と接する境界点が存在する場合(ステップ1311,YES)、領域推定部441は、3つの面と接する境界点の中から、選択した端点に最も近い境界点を選択する(ステップ1312)。そして、領域推定部441は、選択した端点と境界点とを直線で結ぶ(ステップ1313)。
図14の領域1211において、3つの面と接する境界点は、境界点1403〜境界点1405の3個である。境界点1403は、図12の境界点1221に対応し、天井を表す領域1211、壁A1を表す領域1212、及び壁A2を表す領域1213に接している。境界点1404は、天井を表す領域1211、壁B1を表す領域1214、及び壁B2を表す領域1215に接しており、境界点1405は、天井を表す領域1211、壁A2を表す領域1213、及び壁B1を表す領域1214に接している。
折れ線1411の端点1401が選択された場合、境界点1403〜境界点1405のうち、端点1401に最も近いものは境界点1403である。そこで、端点1401と境界点1403とを結ぶ直線1412が生成される。図14では、折れ線1411と区別するため、直線1412が一点鎖線で示されている。
一方、3つの面と接する境界点が存在しない場合(ステップ1311,NO)、領域推定部441は、外枠と接する境界点を結ぶ直線の端点の中から、選択した端点から最も遠い端点を選択する(ステップ1316)。そして、領域推定部441は、選択した2つの端点を直線で結ぶ(ステップ1313)。
次に、領域推定部441は、外枠と接する境界点を結ぶ直線のすべての端点が、直線で結ばれたか否かをチェックする(ステップ1314)。未だ直線で結ばれていない端点が残っている場合(ステップ1314,NO)、領域推定部441は、次の端点についてステップ1310以降の処理を繰り返す。
これにより、折れ線1411の端点1402が選択され、端点1402と、端点1402に最も近い境界点1404とを結ぶ直線1413が生成される。図14では、折れ線1411と区別するため、直線1413が一点鎖線で示されている。
すべての端点が直線で結ばれた場合(ステップ1314,YES)、領域推定部441は、選択した領域を囲むN角形が形成されたかをチェックする(ステップ1315)。N角形が形成された場合(ステップ1315,YES)、領域推定部441は、ステップ1308以降の処理を行う。
N角形が形成されない場合(ステップ1315,NO)、領域推定部441は、これまでに生成された直線のうち、端点を有するものを処理対象として、処理対象の直線の1つの端点を選択する(ステップ1317)。そして、領域推定部441は、3つの面と接する未選択の境界点が存在するか否かをチェックする(ステップ1318)。
この時点では、直線1412の端点1403と直線1413の端点1404とを結ぶ直線1414及び直線1415が未だ生成されていないため、N角形は形成されない。そこで、直線1412及び直線1413が処理対象の直線となり、例えば、端点1403が選択される。
3つの面と接する未選択の境界点が存在する場合(ステップ1318,YES)、領域推定部441は、3つの面と接する未選択の境界点の中から、選択した端点に隣接する境界点を選択する(ステップ1319)。ステップ1319において、隣接する境界点は、選択した領域以外に、選択した端点と共通に接する領域を有する境界点を表す。そして、領域推定部441は、選択した端点と境界点とを直線で結ぶ(ステップ1320)。
端点1403が選択された場合、3つの面と接する未選択の境界点は境界点1405のみである。そして、端点1403及び境界点1405は、領域1211だけでなく、領域1213とも共通に接している。そこで、端点1403と境界点1405とを結ぶ直線1414が生成される。図14では、折れ線1411と区別するため、直線1414が破線で示されている。
一方、3つの面と接する未選択の境界点が存在しない場合(ステップ1318,NO)、領域推定部441は、ステップ1317の境界点を結ぶ直線の端点の中から、選択した端点から最も遠い端点を選択する(ステップ1323)。そして、領域推定部441は、選択した2つの端点を直線で結ぶ(ステップ1320)。
次に、領域推定部441は、処理対象の直線のすべての端点が、直線で結ばれたか否かをチェックする(ステップ1321)。未だ直線で結ばれていない端点が残っている場合(ステップ1321,NO)、領域推定部441は、次の端点についてステップ1317以降の処理を繰り返す。
直線1414が生成されると、直線1413及び直線1414が処理対象の直線となり、例えば、直線1413の端点1404が選択される。この場合、3つの面と接する未選択の境界点は残っておらず、処理対象の直線の端点としては、直線1414の端点1405のみが存在する。そこで、端点1404と端点1405とを結ぶ直線1415が生成される。図14では、折れ線1411と区別するため、直線1415が破線で示されている。
処理対象の直線のすべての端点が直線で結ばれた場合(ステップ1321,YES)、領域推定部441は、選択した領域を囲むN角形が形成されたかをチェックする(ステップ1322)。N角形が形成されない場合(ステップ1322,NO)、領域推定部441は、次の端点についてステップ1317以降の処理を繰り返す。N角形が形成された場合(ステップ1322,YES)、領域推定部441は、ステップ1308以降の処理を行う。
直線1415が生成された時点で、折れ線1411及び直線1412〜直線1415で囲まれた5角形が形成されるため、次の領域1212が選択されて、領域1212に対する直線フィッティング処理が行われる。
外枠と接する境界点が存在しない場合(ステップ1302,NO)、領域推定部441は、3つの面と接する1つの境界点を選択する(ステップ1309)。次に、領域推定部441は、3つの面と接する未選択の境界点の中から、選択した境界点に隣接する境界点を選択して(ステップ1319)、ステップ1320以降の処理を行う。
例えば、領域1213に対する直線フィッティング処理において、境界点1403が選択され、境界点1405〜境界点1407が未選択である場合、境界点1403及び境界点1405は、領域1213だけでなく、領域1211とも共通に接している。また、境界点1403及び境界点1407は、領域1213だけでなく、領域1212とも共通に接している。しかし、境界点1406は、領域1213以外に、境界点1403と共通に接する領域を有していない。この場合、境界点1405又は境界点1407のいずれかと境界点1403とを結ぶ直線が生成される。
すべての面IDに対応する領域を選択した場合(ステップ1308,YES)、領域推定部441は、処理を終了する。ステップ1307、ステップ1315、及びステップ1322におけるNの下限値は3に限られることはなく、3次元モデルの立体構造に応じて設定することができる。
図10の領域推定処理によれば、面IDマップに境界点を設定して、境界点同士を直線で結ぶことで、メッシュ領域間の階段状の境界線が直線で近似されるため、画像内において各面に対応する領域を正確に特定することができる。したがって、画像内でARコンテンツを表示する位置の精度が向上し、より正確にARコンテンツを表示することが可能になる。例えば、図7に示した面IDマップ701に対して領域推定処理を行うことで、面IDマップ702が生成される。
図9のステップ905において、位置特定部442は、面IDマップにおける各面の位置と、3次元空間内における各面の位置とを対応付け、ステップ906において、3次元空間内における撮像装置431の位置及び撮影方向を特定する。
例えば、位置特定部442は、非特許文献2に記載されているように、面IDマップと3次元空間との対応付けをPerspective-n-Point(PnP)問題として扱うことで、撮像装置431の位置を特定することができる。この場合、位置特定部442は、面IDマップ上の3個の境界点を選択して、それらの境界点の位置から、3次元空間内における撮像装置431の位置を特定する。そして、位置特定部442は、画像処理装置201に搭載されたジャイロセンサから、撮像装置431の撮影方向を取得する。
また、位置特定部442は、非特許文献3に記載されているように、面IDマップと3次元空間との対応付けをP4P問題として扱うことも可能である。この場合、位置特定部442は、面IDマップ上の4個の境界点を選択して、それらの境界点の位置から、3次元空間内における撮像装置431の位置及び撮影方向を特定する。P4P問題では、画像内の任意の4点を3次元空間内の4点と対応付けることで、撮像装置431の位置及び撮影方向が一意に決定される。
図15は、面IDマップ702上における選択対象の境界点の例を示している。P4P問題では、例えば、境界点1501〜境界点1506のうちいずれか4点が選択されて、3次元空間内の4点と対応付けられる。外枠と接する境界点は、選択対象から除外されるが、面IDを有していないメッシュ領域と接する境界点は、選択対象に含められる。
非特許文献4に記載されているように、境界点を結ぶ直線を3次元空間内における直線と対応付けることで、撮像装置431の位置及び撮影方向を特定することも可能である。また、非特許文献5に記載されているように、境界点と直線の両方を用いて、撮像装置431の位置及び撮影方向を特定することも可能である。
図16は、3次元空間内における撮像装置431の位置及び撮影方向の例を示している。図15に示した面IDマップ702に対応する3次元空間内において、点1601は、撮像装置431の位置を表し、視線ベクトル1602は、撮像装置431の撮影方向を表す。
図9のステップ907において、生成部432は、点1601の3次元座標及び視線ベクトル1602を用いて、オブジェクトを回転させ、拡大又は縮小することで、撮像装置431の位置から見たオブジェクトの画像情報を生成する。このとき、生成部432は、非特許文献6に記載されているビュー変換を行うことで、オブジェクトを回転させ、拡大又は縮小することができる。ビュー変換と同様に、撮像装置の位置及び撮影方向に応じてオブジェクトを変換する処理は、非特許文献7のp10−16にも記載されている。
重畳表示するオブジェクトの目的によっては、回転、拡大、又は縮小を省略することも可能である。例えば、撮像装置431の位置に応じた案内情報をオブジェクトとして表示する場合、必ずしも回転、拡大、又は縮小を行う必要はない。また、巨大なプロジェクションマッピングの映像を2人のユーザが見ている状況で、各ユーザが保持するスマートデバイスが、特定した自己の位置を相手のスマートデバイスへ送信することもできる。この場合、各ユーザのスマートデバイスは、特定した自己の位置から、受信した相手の位置までの案内情報を、オブジェクトとして表示してもよい。
ところで、画像内で面を表す領域毎に面IDを埋め込む代わりに、十分に小さなメッシュ領域毎に領域IDを埋め込むことで、ステップ904の領域推定処理を省略することも可能である。この場合、各メッシュ領域が3次元空間内の点と直接対応付けられる。
図17は、メッシュ領域毎に領域IDが埋め込まれた画像の例を示している。画像1701は、十分に小さなメッシュ領域に分割されており、メッシュ領域毎に異なる領域IDが埋め込まれている。この場合、検出部212は、各メッシュ領域から領域IDを検出して、領域IDマップを生成する。
そして、位置特定部442は、領域IDマップにおける各メッシュ領域の位置と、3次元空間内における各点の位置とを対応付けることで、3次元空間内における撮像装置431の位置及び撮影方向を特定する。例えば、メッシュ領域1711〜メッシュ領域1714は、天井を表す面内の点と対応付けられる。
図18は、制御装置及び投影装置を一体化した情報埋め込み装置の構成例を示している。図18の情報埋め込み装置1801は、例えば、情報埋め込み機能を有するプロジェクタであり、図4の制御装置411及び投影装置412を一体化した構成を有する。図4の画像処理システムにおいて、情報埋め込み装置401の代わりに、情報埋め込み装置1801を用いてもよい。
図19は、撮像装置を含まない画像処理装置の構成例を示している。図19の画像処理装置1901は、図4の画像処理装置201から撮像装置431を削除して、映像入力部1911を追加した構成を有する。映像入力部1911は、撮像装置431から入力される映像452を取得し、取得した映像452を記憶部211に格納する。図4の画像処理システムにおいて、画像処理装置201の代わりに、撮像装置431及び画像処理装置1901を用いてもよい。
次に、被投影領域に投影される映像の代わりに、発光装置が出力する光に対して埋め込み情報を表す信号を重畳する画像処理システムについて説明する。この画像処理システムでは、発光装置が出力する光を撮影した映像から、埋め込み情報が検出される。
図20は、信号が重畳された光を出力する発光装置の例を示している。発光装置2001の表面には、複数の発光素子2002が設けられ、各発光素子2002は、埋め込み情報を表す信号が重畳された光を発する。発光装置2001は、例えば、建造物に設置されたイルミネーション装置であり、発光素子2002としては、発光ダイオード(LED)電球等が用いられる。
この場合、発光装置2001の表面上の領域2011〜領域2014それぞれに設けられた発光素子2002が、壁C1〜壁C4それぞれの面IDを表す信号が重畳された光を発するように、発光装置2001を制御してもよい。
図21は、発光装置を含む情報埋め込み装置の構成例を示している。図21の情報埋め込み装置2101は、制御装置2111及び発光装置2112を含む。発光装置2112は、図20の発光装置2001に対応する。この場合、図4の画像処理システムにおいて、情報埋め込み装置401の代わりに、情報埋め込み装置2101を用いることができる。
制御装置2111は、例えば、情報処理装置であり、埋め込み部2121及び記憶部2122を含む。記憶部2122は、立体構造情報2131を記憶する。立体構造情報2131は、空間を表す空間情報に埋め込まれる埋め込み情報と、空間内の面を示す位置情報とを対応付ける情報である。位置情報としては、例えば、各面に対応する1つ又は複数の発光素子2002の位置を示す座標が用いられる。
埋め込み部2121は、立体構造情報2131を参照して、各面に対応する発光素子2002を制御する制御情報に、対応する埋め込み情報を表す信号を重畳することで、空間情報に埋め込み情報を埋め込んだ制御パターンを生成する。そして、埋め込み部2121は、生成した制御パターンを発光装置2112へ出力する。
埋め込み情報としては、例えば、特許文献4の発光パターンを用いることができる。この場合、埋め込み部2121は、制御パターンを介して、発光装置2001が出力する光の特性を、時系列に沿って、発光パターンが表すシンボルの値に応じて周期的に変化させる。
発光装置2112は、制御部2141及び発光部2142を含む。制御部2141は、埋め込み部2121が出力する制御パターンに従って発光部2142を制御する。発光部2142は、複数の発光素子2002を含み、埋め込み情報を表す信号が重畳された空間情報を含む光を出力する。
図22は、図21の情報埋め込み装置2101が行う発光処理の例を示すフローチャートである。立体構造情報2131には、3次元モデルに含まれる各面に対応する発光素子2002の位置情報と、各面の面IDとの対応関係が含まれる。
まず、埋め込み部2121は、立体構造情報2131を参照して、各面に対応する発光素子2002の制御情報に、その面の面IDを表す埋め込み情報を埋め込んで、制御パターンを生成する(ステップ2201)。そして、制御部2141は、制御パターンに従って発光部2142を制御し、発光部2142は、面IDが埋め込まれた光を出力する(ステップ2202)。これにより、制御部2141は、発光部2142をリアルタイムで制御することができる。
画像処理装置201は、図9と同様の画像処理を行って、空間内における撮像装置431の位置及び撮影方向を特定し、AR映像454を画面上に表示する。このような画像処理システムによれば、イルミネーション等を撮影した映像に対して、ARコンテンツを効果的に重畳表示することが可能になる。
図23は、信号パターンを用いる情報埋め込み装置の構成例を示している。図23の情報埋め込み装置2301は、図21の情報埋め込み装置2101において、埋め込み部2121及び制御部2141を、それぞれ、埋め込み部2311及び記憶部2312に置き換えた構成を有する。
埋め込み部2311は、立体構造情報2131を参照して、各面に対応する発光素子2002を制御する制御信号に、対応する埋め込み情報を表す信号を重畳することで、空間情報に埋め込み情報を埋め込んだ信号パターンを生成する。そして、埋め込み部2311は、生成した信号パターンを発光装置2112へ出力し、記憶部2312は、埋め込み部2311が出力する信号パターンを記憶する。
発光部2142は、記憶部2312から出力される信号パターンに従って、埋め込み情報を表す信号が重畳された空間情報を含む光を出力する。
図24は、図23の情報埋め込み装置2301が行う発光処理の例を示すフローチャートである。まず、信号生成フェーズにおいて、埋め込み部2311は、立体構造情報2131を参照して、各面に対応する発光素子2002の制御信号に、その面の面IDを表す埋め込み情報を埋め込んで、信号パターンを生成する(ステップ2401)。そして、埋め込み部2311は、生成した信号パターンを記憶部2312に格納する。
次に、発光フェーズにおいて、発光部2142は、記憶部2312から出力される信号パターンに従って、面IDが埋め込まれた光を出力する(ステップ2302)。このような発光処理によれば、事前に信号パターンを発光装置2112に格納しておくことができるため、発光フェーズにおいて、埋め込み情報を埋め込む処理が不要になる。
図25は、時間制御情報を用いる情報埋め込み装置の構成例を示している。図25の情報埋め込み装置2501は、図21の情報埋め込み装置2101において、埋め込み部2121及び制御部2141を、それぞれ、埋め込み部2511及び制御部2512に置き換え、記憶部2513を追加した構成を有する。
埋め込み部2511は、図23の埋め込み部2311と同様に、立体構造情報2131を参照して信号パターンを生成し、記憶部2513は、埋め込み部2511が生成した信号パターンを記憶する。
さらに、埋め込み部2511は、複数の発光素子2002の信号パターンを時間的に同期させるために、時間制御情報を生成し、生成した時間制御情報を発光装置2112へ出力する。
制御部2512は、埋め込み部2511が出力する時間制御情報に従って、記憶部2513から信号パターンを読み出し、読み出した信号パターンを発光部2142へ出力する。発光部2142は、制御部2512から出力される信号パターンに従って、埋め込み情報を表す信号が重畳された空間情報を含む光を出力する。
図26は、図25の情報埋め込み装置2501が行う発光処理の例を示すフローチャートである。まず、信号生成フェーズにおいて、埋め込み部2511は、立体構造情報2131を参照して、各面に対応する発光素子2002の制御信号に、その面の面IDを表す埋め込み情報を埋め込んで、信号パターンを生成する(ステップ2601)。そして、埋め込み部2511は、生成した信号パターンを記憶部2513に格納する。
次に、発光フェーズにおいて、埋め込み部2511は、時間制御情報を生成する(ステップ2602)。そして、制御部2512は、時間制御情報に従って、記憶部2513から信号パターンを読み出し、発光部2142は、信号パターンに従って、面IDが埋め込まれた光を出力する(ステップ2603)。このような発光処理によれば、リアルタイムに生成される時間制御情報を用いて、複数の発光素子2002から出力される光に重畳された信号を同期させることができる。
図2、図4、及び図19の画像処理装置の構成は一例に過ぎず、画像処理装置の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図4の画像処理装置201及び図19の画像処理装置1901において、AR映像454を生成する処理が外部の装置によって行われる場合は、生成部432及び表示部433を省略することができる。各メッシュ領域が3次元空間内の点と直接対応付けられる場合は、領域推定部441を省略することができる。
図4、図18、図21、図23、及び図25の情報埋め込み装置の構成は一例に過ぎず、情報埋め込み装置の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図4の情報埋め込み装置401及び図18の情報埋め込み装置1801において、投影装置412が外部に設けられる場合は、投影装置412を省略することができる。図21の情報埋め込み装置2101、図23の情報埋め込み装置2301、及び図25の情報埋め込み装置2501において、発光装置2112が外部に設けられる場合は、発光装置2112を省略することができる。
図20の発光装置2001は一例に過ぎず、発光素子2002の配置を変更してもよく、別の形状の発光装置を用いてもよい。
図3、図8〜図11、図13A〜図13C、図22、図24、及び図26のフローチャートは一例に過ぎず、画像処理システムの構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図9の画像処理において、AR映像454を生成する処理が外部の装置によって行われる場合は、ステップ907〜ステップ909の処理を省略することができる。各メッシュ領域が3次元空間内の点と直接対応付けられる場合は、ステップ904の処理を省略することができる。
図9のステップ902において、検出部212は、映像452中の各画像をメッシュ領域に分割する代わりに、別の形状を有する小領域に分割してもよい。図8の映像投影処理において、特許文献1の電子透かし以外の埋め込み情報を用いてもよく、図22、図24、及び図26の発光処理において、特許文献4の発光パターン以外の埋め込み情報を用いてもよい。
図1の映像と図5及び図17の画像は一例に過ぎず、画像処理システムの用途に応じて、様々な映像又は画像が撮影される。例えば、撮影された画像に写る立体物は部屋でなくてもよく、建造物、車両、動物等であってもよい。
図6の領域と図7、図12、図14、及び図15の面IDマップは一例に過ぎず、撮影された映像又は画像に応じて、様々な領域又は面IDマップが生成される。図16の撮像装置の位置及び撮影方向は一例に過ぎず、撮影された映像又は画像に応じて、様々な位置及び撮影方向が生成される。
図2及び図4の画像処理装置201と図19の画像処理装置1901は、例えば、図27に示すような情報処理装置(コンピュータ)を用いて実現可能である。また、図4の制御装置411と、図18の情報埋め込み装置1801と、図21、図23、及び図25の制御装置2111も、図27の情報処理装置を用いて実現可能である。
図27の情報処理装置は、Central Processing Unit(CPU)2701、メモリ2702、入力装置2703、出力装置2704、補助記憶装置2705、媒体駆動装置2706、及びネットワーク接続装置2707を含む。これらの構成要素はバス2708により互いに接続されている。撮像装置431、投影装置412、及び発光装置2112は、バス2708に接続されていてもよい。
メモリ2702は、例えば、Read Only Memory(ROM)、Random Access Memory(RAM)、フラッシュメモリ等の半導体メモリである。メモリ2702は、画像処理装置201、画像処理装置1901、制御装置411、情報埋め込み装置1801、又は制御装置2111が行う処理のためのプログラム及びデータを格納する。メモリ2702は、記憶部211、記憶部414、又は記憶部2122として用いることができる。
情報処理装置が画像処理装置201又は画像処理装置1901である場合、CPU2701(プロセッサ)は、例えば、メモリ2702を利用してプログラムを実行することにより、検出部212及び特定部213として動作する。CPU2701は、プログラムを実行することにより、生成部432、領域推定部441、及び位置特定部442としても動作する。
情報処理装置が制御装置411又は情報埋め込み装置1801である場合、CPU2701は、プログラムを実行することにより、埋め込み部413として動作する。情報処理装置が制御装置2111である場合、CPU2701は、プログラムを実行することにより、埋め込み部2121、埋め込み部2311、又は埋め込み部2511として動作する。
入力装置2703は、例えば、キーボード、ポインティングデバイス等であり、ユーザ又はオペレータからの指示や情報の入力に用いられる。出力装置2704は、例えば、表示装置、プリンタ、スピーカ等であり、ユーザ又はオペレータへの問い合わせや処理結果の出力に用いられる。処理結果は、撮像装置431の位置及び撮影方向であってもよく、AR映像454であってもよい。出力装置2704は、表示部433として用いることができる。
補助記憶装置2705は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置2705は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置が携帯端末である場合、補助記憶装置2705としてフラッシュメモリを用いることができる。情報処理装置は、補助記憶装置2705にプログラム及びデータを格納しておき、それらをメモリ2702にロードして使用することができる。補助記憶装置2705は、記憶部211、記憶部414、又は記憶部2122として用いることができる。
媒体駆動装置2706は、可搬型記録媒体2709を駆動し、その記録内容にアクセスする。可搬型記録媒体2709は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体2709は、Compact Disk Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、Universal Serial Bus(USB)メモリ等であってもよい。情報処理装置が携帯端末である場合、可搬型記録媒体2709としてメモリカードを用いることができる。ユーザ又はオペレータは、この可搬型記録媒体2709にプログラム及びデータを格納しておき、それらをメモリ2702にロードして使用することができる。
このように、プログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ2702、補助記憶装置2705、及び可搬型記録媒体2709のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置2707は、Local Area Network、Wide Area Network等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェースである。情報処理装置が携帯端末である場合、ネットワーク接続装置2707として無線装置を用いることができる。情報処理装置は、ネットワーク接続装置2707を介して外部の装置からプログラム及びデータを受信し、それらをメモリ2702にロードして使用することができる。
撮像装置431、投影装置412、及び発光装置2112は、ネットワーク接続装置2707に接続されていてもよい。情報処理装置は、ネットワーク接続装置2707を介して、ユーザ端末から処理要求を受信し、処理結果をユーザ端末へ送信することもできる。
なお、情報処理装置が図27のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、情報処理装置がユーザ端末から通信ネットワーク経由で処理要求を受信する場合は、入力装置2703及び出力装置2704を省略してもよい。また、可搬型記録媒体2709又は通信ネットワークを利用しない場合は、媒体駆動装置2706又はネットワーク接続装置2707を省略してもよい。
情報処理装置が携帯端末である場合、情報処理装置は、マイク及びスピーカのような通話用の装置を含んでいてもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図1乃至図27を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
撮像装置が撮影した撮影画像内の複数の領域それぞれから、前記撮影画像に埋め込まれた埋め込み情報を検出し、
前記埋め込み情報と、前記撮影画像に写る空間内の位置を示す位置情報とを対応付けて記憶する記憶部を参照して、前記複数の領域それぞれから検出した前記埋め込み情報に対応する前記空間内の位置を推定し、
推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の位置を特定する、
処理をコンピュータに実行させる画像処理プログラム。
(付記2)
前記画像処理プログラムは、
特定した前記撮像装置の前記位置に基づいて、前記撮影画像内の所定位置に表示する画像情報を生成し、
前記撮影画像と生成した前記画像情報とを重畳表示する表示情報を生成する、
処理を前記コンピュータにさらに実行させることを特徴とする付記1記載の画像処理プログラム。
(付記3)
前記コンピュータは、推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の撮影方向をさらに特定し、前記空間内に表示する物体の画像を、前記撮像装置の前記位置と前記撮影方向とを用いて前記画像情報に変換することを特徴とする付記2記載の画像処理プログラム。
(付記4)
前記コンピュータは、前記複数の領域のうち第1領域から検出した前記埋め込み情報と、前記第1領域に隣接する第2領域から検出した前記埋め込み情報とを比較した結果に基づいて、前記第1領域と前記第2領域との間に境界を設定し、設定した前記境界に基づいて前記空間内の面を推定し、前記空間内の前記面を前記空間内の前記位置として用いることを特徴とする付記1乃至3のいずれか1項に記載の画像処理プログラム。
(付記5)
撮像装置が撮影した撮影画像に埋め込まれた埋め込み情報と、前記撮影画像に写る空間内の位置を示す位置情報とを対応付けて記憶する記憶部と、
前記撮影画像内の複数の領域それぞれから前記埋め込み情報を検出する検出部と、
前記記憶部を参照して、前記検出部が前記複数の領域それぞれから検出した前記埋め込み情報に対応する前記空間内の位置を推定し、推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の位置を特定する特定部と、
を備えることを特徴とする画像処理装置。
(付記6)
前記特定部が特定した前記撮像装置の前記位置に基づいて、前記撮影画像内の所定位置に表示する画像情報を生成し、前記撮影画像と生成した前記画像情報とを重畳表示する表示情報を生成する生成部をさらに備えることを特徴とする付記5記載の画像処理装置。
(付記7)
前記特定部は、推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の撮影方向をさらに特定し、前記生成部は、前記空間内に表示する物体の画像を、前記撮像装置の前記位置と前記撮影方向とを用いて前記画像情報に変換することを特徴とする付記6記載の画像処理装置。
(付記8)
前記特定部は、前記複数の領域のうち第1領域から検出した前記埋め込み情報と、前記第1領域に隣接する第2領域から検出した前記埋め込み情報とを比較した結果に基づいて、前記第1領域と前記第2領域との間に境界を設定し、設定した前記境界に基づいて前記空間内の面を推定し、前記空間内の前記面を前記空間内の前記位置として用いることを特徴とする付記5乃至7のいずれか1項に記載の画像処理装置。
(付記9)
情報埋め込み装置と画像処理装置とを備える画像処理システムであって、
前記情報埋め込み装置は、
埋め込み情報と、空間内の位置を示す位置情報とを対応付けて記憶する第1記憶部と、
前記第1記憶部を参照して、前記空間を表す空間情報に、前記埋め込み情報を表す信号を重畳する埋め込み部とを含み、
前記画像処理装置は、
前記埋め込み情報と前記位置情報とを対応付けて記憶する第2記憶部と、
前記信号が重畳された前記空間情報を含む光を用いて撮像装置が撮影した撮影画像内の複数の領域それぞれから、前記信号が表す前記埋め込み情報を検出する検出部と、
前記第2記憶部を参照して、前記検出部が前記複数の領域それぞれから検出した前記埋め込み情報に対応する前記空間内の位置を推定し、推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の位置を特定する特定部とを含むことを特徴とする画像処理システム。
(付記10)
前記光は、前記空間情報を含む映像であり、前記情報埋め込み装置は、前記信号が重畳された前記映像を被投影領域に対して投影する投影装置をさらに含み、前記撮像装置は、前記投影装置が前記被投影領域に対して投影した前記映像を撮影し、前記撮影画像は、前記撮像装置が撮影した前記映像に含まれることを特徴とする付記記載の画像処理システム。
(付記11)
前記情報埋め込み装置は、前記光を出力する発光装置をさらに含み、前記撮像装置は、前記発光装置が出力した前記光を撮影することを特徴とする付記記載の画像処理システム。
(付記12)
コンピュータが、
撮像装置が撮影した撮影画像内の複数の領域それぞれから、前記撮影画像に埋め込まれた埋め込み情報を検出し、
前記埋め込み情報と、前記撮影画像に写る空間内の位置を示す位置情報とを対応付けて記憶する記憶部を参照して、前記複数の領域それぞれから検出した前記埋め込み情報に対応する前記空間内の位置を推定し、
推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の位置を特定する、
ことを特徴とする画像処理方法。
(付記13)
前記コンピュータは、さらに、
特定した前記撮像装置の前記位置に基づいて、前記撮影画像内の所定位置に表示する画像情報を生成し、
前記撮影画像と生成した前記画像情報とを重畳表示する表示情報を生成する、
ことを特徴とする付記12記載の画像処理方法。
(付記14)
前記コンピュータは、推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の撮影方向をさらに特定し、前記空間内に表示する物体の画像を、前記撮像装置の前記位置と前記撮影方向とを用いて前記画像情報に変換することを特徴とする付記13記載の画像処理方法。
(付記15)
前記コンピュータは、前記複数の領域のうち第1領域から検出した前記埋め込み情報と、前記第1領域に隣接する第2領域から検出した前記埋め込み情報とを比較した結果に基づいて、前記第1領域と前記第2領域との間に境界を設定し、設定した前記境界に基づいて前記空間内の面を推定し、前記空間内の前記面を前記空間内の前記位置として用いることを特徴とする付記12乃至14のいずれか1項に記載の画像処理方法。
101 プロジェクタ
102、103 映像
111〜113 オブジェクト
201、1901 画像処理装置
211、414、2122、2312、2513 記憶部
212 検出部
213 特定部
401、1801、2101、2301、2501 情報埋め込み装置
411、2111 制御装置
412 投影装置
413、2121、2311、2511 埋め込み部
421、451、2131 立体構造情報
422、452 映像
431 撮像装置
432 生成部
433 表示部
441 領域推定部
442 位置特定部
453 オブジェクト映像
454 AR映像
601〜603 部分領域
701、702、1201 面IDマップ
1211〜1216 領域
1221〜1223、1403〜1407、1501〜1506 境界点
1401、1402 端点
1411 折れ線
1412〜1415 直線
1601 点
1602 視線ベクトル
1701 画像
1711〜1714 メッシュ領域
1911 映像入力部
2001、2112 発光装置
2002 発光素子
2011〜2014 領域
2141、2512 制御部
2142 発光部
2701 CPU
2702 メモリ
2703 入力装置
2704 出力装置
2705 補助記憶装置
2706 媒体駆動装置
2707 ネットワーク接続装置
2708 バス
2709 可搬型記録媒体

Claims (9)

  1. 電子透かしを表す信号が重畳された空間情報を含む光を用いて撮像装置が撮影した撮影画像内の複数の領域それぞれから、前記電子透かしを検出し、
    前記電子透かしと、前記撮影画像に写る空間内の位置を示す位置情報とを対応付けて記憶する記憶部を参照して、前記複数の領域それぞれから検出した前記電子透かしに対応する前記空間内の位置を推定し、
    推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の位置を特定する、
    処理をコンピュータに実行させる画像処理プログラム。
  2. 前記画像処理プログラムは、
    特定した前記撮像装置の前記位置に基づいて、前記撮影画像内の所定位置に表示する画像情報を生成し、
    前記撮影画像と生成した前記画像情報とを重畳表示する表示情報を生成する、
    処理を前記コンピュータにさらに実行させることを特徴とする請求項1記載の画像処理プログラム。
  3. 前記コンピュータは、推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の撮影方向をさらに特定し、前記空間内に表示する物体の画像を、前記撮像装置の前記位置と前記撮影方向とを用いて前記画像情報に変換することを特徴とする請求項2記載の画像処理プログラム。
  4. 前記コンピュータは、前記複数の領域のうち第1領域から検出した前記電子透かしと、前記第1領域に隣接する第2領域から検出した前記電子透かしとを比較した結果に基づいて、前記第1領域と前記第2領域との間に境界を設定し、設定した前記境界に基づいて前記空間内の面を推定し、前記空間内の前記面を前記空間内の前記位置として用いることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理プログラム。
  5. 電子透かしと、前記撮影画像に写る空間内の位置を示す位置情報とを対応付けて記憶する記憶部と、
    前記電子透かしを表す信号が重畳された空間情報を含む光を用いて撮像装置が撮影した撮影画像内の複数の領域それぞれから、前記電子透かしを検出する検出部と、
    前記記憶部を参照して、前記検出部が前記複数の領域それぞれから検出した前記電子透かしに対応する前記空間内の位置を推定し、推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の位置を特定する特定部と、
    を備えることを特徴とする画像処理装置。
  6. 情報埋め込み装置と画像処理装置とを備える画像処理システムであって、
    前記情報埋め込み装置は、
    電子透かしと、空間内の位置を示す位置情報とを対応付けて記憶する第1記憶部と、
    前記第1記憶部を参照して、前記空間を表す空間情報に、前記電子透かしを表す信号を重畳する埋め込み部とを含み、
    前記画像処理装置は、
    前記電子透かしと前記位置情報とを対応付けて記憶する第2記憶部と、
    前記信号が重畳された前記空間情報を含む光を用いて撮像装置が撮影した撮影画像内の複数の領域それぞれから、前記信号が表す前記電子透かしを検出する検出部と、
    前記第2記憶部を参照して、前記検出部が前記複数の領域それぞれから検出した前記電子透かしに対応する前記空間内の位置を推定し、推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の位置を特定する特定部とを含むことを特徴とする画像処理システム。
  7. 前記光は、前記空間情報を含む映像であり、前記情報埋め込み装置は、前記信号が重畳された前記映像を被投影領域に対して投影する投影装置をさらに含み、前記撮像装置は、前記投影装置が前記被投影領域に対して投影した前記映像を撮影し、前記撮影画像は、前記撮像装置が撮影した前記映像に含まれることを特徴とする請求項6記載の画像処理システム。
  8. 前記情報埋め込み装置は、前記光を出力する発光装置をさらに含み、前記撮像装置は、前記発光装置が出力した前記光を撮影することを特徴とする請求項6記載の画像処理システム。
  9. コンピュータが、
    電子透かしを表す信号が重畳された空間情報を含む光を用いて撮像装置が撮影した撮影画像内の複数の領域それぞれから、前記電子透かしを検出し、
    前記電子透かしと、前記撮影画像に写る空間内の位置を示す位置情報とを対応付けて記憶する記憶部を参照して、前記複数の領域それぞれから検出した前記電子透かしに対応する前記空間内の位置を推定し、
    推定した前記空間内の前記位置に基づいて、前記空間内の前記撮像装置の位置を特定する、
    ことを特徴とする画像処理方法。
JP2016046100A 2016-03-09 2016-03-09 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法 Active JP6763154B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016046100A JP6763154B2 (ja) 2016-03-09 2016-03-09 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016046100A JP6763154B2 (ja) 2016-03-09 2016-03-09 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2017162192A JP2017162192A (ja) 2017-09-14
JP6763154B2 true JP6763154B2 (ja) 2020-09-30

Family

ID=59857127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016046100A Active JP6763154B2 (ja) 2016-03-09 2016-03-09 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP6763154B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7144796B2 (ja) * 2018-02-08 2022-09-30 株式会社バンダイナムコ研究所 シミュレーションシステム及びプログラム
CN110827376A (zh) * 2018-08-09 2020-02-21 北京微播视界科技有限公司 增强现实多平面模型动画交互方法、装置、设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4708752B2 (ja) * 2004-09-28 2011-06-22 キヤノン株式会社 情報処理方法および装置
JP2009087176A (ja) * 2007-10-02 2009-04-23 Casio Comput Co Ltd オブジェクト生成システム、オブジェクト生成装置、及び、オブジェクト生成プログラム
JP2015038696A (ja) * 2013-08-19 2015-02-26 国立大学法人佐賀大学 拡張現実装置、拡張現実方法及び拡張現実プログラム
JP6618249B2 (ja) * 2014-02-18 2019-12-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 投影システムおよび半導体集積回路

Also Published As

Publication number Publication date
JP2017162192A (ja) 2017-09-14

Similar Documents

Publication Publication Date Title
US11170569B2 (en) System and method for virtual modeling of indoor scenes from imagery
CN113412614B (zh) 使用深度图像的三维定位
US9697607B2 (en) Method of estimating imaging device parameters
JP6144826B2 (ja) データベース作成のための対話型および自動的3dオブジェクト走査方法
US10659750B2 (en) Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images
JP6022562B2 (ja) モバイル拡張現実システム
US20150369593A1 (en) Orthographic image capture system
US10777015B2 (en) Method and apparatus for overlaying a reproduction of a real scene with virtual image and audio data, and a mobile device
US9361731B2 (en) Method and apparatus for displaying video on 3D map
US20130335535A1 (en) Digital 3d camera using periodic illumination
WO2016181687A1 (ja) 画像処理装置と画像処理方法およびプログラム
TW201715476A (zh) 運用擴增實境技術之導航系統
JP2016218905A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2006053694A (ja) 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2016006627A (ja) 画像処理装置と画像処理方法
JP6625734B2 (ja) 現実シーンの写真に仮想画像を重ね合わせるための方法及び装置、並びに携帯デバイス
EP3422145B1 (en) Provision of virtual reality content
JP6420605B2 (ja) 画像処理装置
US9317968B2 (en) System and method for multiple hypotheses testing for surface orientation during 3D point cloud extraction from 2D imagery
Placitelli et al. Low-cost augmented reality systems via 3D point cloud sensors
JP6763154B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法
WO2020040277A1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
JP2014529823A (ja) グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング
WO2020144848A1 (ja) オーサリング装置、オーサリング方法、及びオーサリングプログラム
JP2008203991A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200220

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6763154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150