JP6344050B2 - Image processing system, image processing apparatus, and program - Google Patents
Image processing system, image processing apparatus, and program Download PDFInfo
- Publication number
- JP6344050B2 JP6344050B2 JP2014102094A JP2014102094A JP6344050B2 JP 6344050 B2 JP6344050 B2 JP 6344050B2 JP 2014102094 A JP2014102094 A JP 2014102094A JP 2014102094 A JP2014102094 A JP 2014102094A JP 6344050 B2 JP6344050 B2 JP 6344050B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional information
- image
- dimensional
- projection
- shape model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 42
- 238000012937 correction Methods 0.000 claims description 122
- 238000006243 chemical reaction Methods 0.000 claims description 78
- 238000000034 method Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 description 58
- 239000013598 vector Substances 0.000 description 39
- 238000010586 diagram Methods 0.000 description 26
- 238000003384 imaging method Methods 0.000 description 26
- 230000010365 information processing Effects 0.000 description 26
- 238000004364 calculation method Methods 0.000 description 21
- 239000011159 matrix material Substances 0.000 description 15
- 238000013519 translation Methods 0.000 description 13
- 238000012821 model calculation Methods 0.000 description 8
- 238000002156 mixing Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000002366 time-of-flight method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Projection Apparatus (AREA)
- Image Processing (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、投影される画像の投影面での歪みを低減する画像処理システムに関する。 The present invention relates to an image processing system that reduces distortion on a projection surface of a projected image.
プロジェクターが投影する画像を投影面となるスクリーンや立体物の形状に合わせて補正し、プロジェクターによる新たな視覚効果や演出を行う投影手法が知られている。このような投影手法はプロジェクションマッピングと呼ばれる場合がある。例えば、イベントやデジタルサイネージにおいてもプロジェクションマッピングの視覚効果や演出を活用することが検討されている。 A projection method is known in which an image projected by a projector is corrected according to the shape of a screen or a three-dimensional object serving as a projection surface, and a new visual effect or effect is produced by the projector. Such a projection technique is sometimes called projection mapping. For example, it is considered to use the visual effects and effects of projection mapping also in events and digital signage.
また、複数のプロジェクターで画像を投影することで1つのプロジェクターでは得られない大画面の画像を投影するマルチプロジェクションが知られている。マルチプロジェクションでは、複数のプロジェクターの投影範囲を一部重ねることで境界を目立たないようにしたり、重なりの部分が周囲と違和感なく見えるように、重畳領域の明るさの調整等が行われる。 Also, multi-projection is known in which images are projected by a plurality of projectors to project a large screen image that cannot be obtained by a single projector. In the multi-projection, the brightness of the overlapping region is adjusted so that the boundary is not conspicuous by partially overlapping the projection ranges of a plurality of projectors, or the overlapping portion can be seen with a sense of incongruity with the surroundings.
このマルチプロジェクションにおいても、曲面などの立体物に画像を投影することが行われる場合がある(例えば、特許文献1参照。)。特許文献1には、プロジェクターにより構造化パターンを表示面上に投影し、プロジェクターと固定の物理的関係にあるカメラで撮影した画像から構造化パターンの座標を決定し、投影される画像の歪みを補正する方法が開示されている。
Even in this multi-projection, an image may be projected onto a three-dimensional object such as a curved surface (see, for example, Patent Document 1). In
ところで、投影面の立体的な形状に対し歪みを補正するために行われる歪み補正は、特に投影面までの距離情報を取得しなくても可能である。しかし、距離情報を用いることで投影面の形状に関する情報が得られるので、より高精度な歪み補正が可能になることが期待される。 By the way, the distortion correction performed for correcting the distortion of the three-dimensional shape of the projection surface is possible without particularly acquiring the distance information to the projection surface. However, since information on the shape of the projection plane can be obtained by using the distance information, it is expected that more accurate distortion correction can be performed.
しかしながら、従来の歪み補正方法では、投影面の形状を利用した歪み補正が行われていないという問題がある。 However, the conventional distortion correction method has a problem that distortion correction using the shape of the projection surface is not performed.
本発明は、上記課題に鑑み、投影面の形状を利用してより高精度な歪み補正が可能な画像処理システムを提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an image processing system capable of correcting distortion with higher accuracy using the shape of a projection surface.
上記課題に鑑み、本発明は、投影される画像の投影面での歪みを低減する画像処理システムであって、複数の異なる場所から取得された、前記投影面に投影された投影画像の三次元情報を取得する三次元情報取得手段と、三次元情報に形状モデルを当てはめて、前記投影面の形状モデルを決定する形状モデル決定手段と、三次元情報を前記形状モデルの表面の二次元座標に変換すると共に、三次元情報を前記形状モデルの表面に射影する座標変換手段と、前記二次元座標に変換された前記投影画像と、前記投影画像として投影された元画像とを比較して歪み補正パラメータを作成する歪み補正パラメータ作成手段と、を有し、前記座標変換手段は、三次元情報を前記形状モデルの表面の二次元座標に変換する際、三次元情報を前記三次元情報取得手段との距離方向に移動して射影することを特徴とする。 In view of the above problems, the present invention is an image processing system for reducing distortion of a projected image on a projection plane, and is obtained from a plurality of different locations, and is a three-dimensional projection image projected on the projection plane. 3D information acquisition means for acquiring information; a shape model determination means for determining a shape model of the projection plane by applying a shape model to the 3D information; and 3D information as a 2D coordinate on the surface of the shape model. A coordinate conversion means for projecting three-dimensional information onto the surface of the shape model, and a distortion correction by comparing the projection image converted to the two-dimensional coordinate with the original image projected as the projection image It includes a distortion correction parameter generating means for generating a parameter, wherein the coordinate conversion means, when converting the three-dimensional information to two-dimensional coordinates of the surface of the shape model, the three-dimensional information three-dimensional information Go to the distance direction of the resulting unit, characterized in that projection.
各プロジェクターの設置が容易な画像処理システムを提供することができる。 An image processing system in which each projector can be easily installed can be provided.
以下、本発明を実施するための形態について図面を参照しながら説明する。
図1は、本実施形態の画像処理システム200の概略を説明する図の一例である。まず、図1に基づき画像処理システム200の全体的な処理を説明する。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
FIG. 1 is an example of a diagram illustrating an outline of an
A.本実施形態では、円筒型の外壁又は内壁を投影対象11であるとして説明する。図1では内壁に2つのプロジェクター13から歪み補正用パターン32が投影されている。プロジェクター13を区別する場合、プロジェクター1、2…m(m:自然数)と称する。いわゆる超単焦点のプロジェクター13が歪み補正用パターン32を投影する場合、投影対象11の側方(この例では下方)から映像を投影するので、長方形の歪み補正用パターン32は、円筒型の投影対象11において図示するように上方が半円形状になる。
A. In the present embodiment, a cylindrical outer wall or inner wall will be described as the
B.カメラ12は歪み補正用パターン32のほぼ正面から(例えば、歪み補正用パターン32の中心の法線方向から)歪み補正用パターン32を撮像する。カメラ12を区別する場合、カメラ1、2…m(m:自然数)と称する。カメラ12は、プロジェクター13に搭載されていてもよいし、1つのカメラ12を移動させて撮像してもよい。カメラ12はステレオカメラなど距離情報を取得可能なカメラである。
B. The
投影対象11は立体的であるため、カメラ12は1つの撮像場所から全体を撮像できない。このため、いくつかの撮像場所から投影対象11が撮像され、撮像により得られた複数の投影対象11の三次元座標の位置合わせが必要になる。
Since the
C.撮像時のカメラ12の位置を基準とする三次元座標を含む画像データ1と画像データ2が得られる。ここで、三次元座標は、歪み補正用パターン32の要素ごと(図では黒領域と白領域の境界など)に得られるのではなく、カメラ12の解像度に応じて得られる。例えば、640×480、1920×1080の如く画素レベルの解像度で三次元座標が得られる。このような密な三次元座標をポイントクラウド(三次元座標の集合)と呼ぶ場合がある。図1では、歪み補正用パターンからポイントクラウド33が取得されている。
D.情報処理装置50は重複領域において撮像されている歪み補正用パターン32(又は位置合わせ用のパターン)を利用して、2つの三次元座標の対応点同士を位置合わせする。2つの三次元座標の対応点同士を位置合わせするために、並進変換T、回転変換Q及びスケール変換Sが算出される。並進変換T、回転変換Q及びスケール変換Sによりカメラ2で撮像された三次元座標を変換することで、カメラ2で撮像された三次元座標をカメラ1の座標系の三次元座標に変換できる。
D. The
このように本実施形態の画像処理システム200は、位置合わせの際、プロジェクター13により位置合わせ用パターン又は歪み補正用パターンを投影することで比較的短時間にかつ高精度に位置合わせすることができる。また、三次元座標により位置合わせするので、プロジェクター13の配置を予め精度よく固定しておく必要がない。
As described above, the
E.次に、情報処理装置50は、カメラ1の座標系に変換された三次元座標を用いて、投影対象11の形状モデル(図の例では円筒形)35にフィッティングする。これにより形状モデル35のパラメータ(例えば、円筒の中心軸の直線、半径)が得られる。
E. Next, the
F.情報処理装置50は、投影対象11の三次元座標から形状モデル35を推定することで、投影対象表面の座標系(二次元座標系の投影対象表面座標)で三次元座標を二次元の投影対象表面座標系に変換することができる。投影対象表面座標系への変換の際、形状モデル35の表面に三次元座標を配置(射影)する。三次元座標は本来、投影対象11の表面にあるはずなので、この処理により三次元座標に含まれる距離情報の誤差を低減することができ、投影対象11における歪みを低減できる。
F. The
G.情報処理装置50は、歪み補正用パターン32の歪みから歪み補正パラメータを算出する。そして、投影対象11では歪みがなくなるように元の投影画像を変換する(例えば、射影変換する)。
G. The
このように、本実施形態の画像処理システム200は、三次元座標を取得することを利用して、カメラ12が各場所で撮像した三次元座標を共通の座標に位置合わせできる。また、三次元座標を形状モデル35にフィッティングし、さらに形状モデル35の表面に三次元座標を配置(射影)することで、距離情報の誤差を低減することができ、投影対象11における歪みを低減できる。
As described above, the
<システム構成>
図2は、画像処理システム200の構成図の一例を示す。画像処理システム200は、情報処理装置50に、複数のプロジェクター13(かっこ内はプロジェクターを識別する数字)が接続される構成を有している。カメラ12(かっこ内はカメラを識別する数字)は情報処理装置50に接続されていてもよいし、接続されていなくてもメモリーカードなどに画像データを記憶させ情報処理装置50が読み出せればよい。なお、接続は有線でも無線でもよい。
<System configuration>
FIG. 2 shows an example of a configuration diagram of the
プロジェクター13は投影対象11を囲むようにほぼ等間隔に配置されている。図では例えば6台のプロジェクター13があるものとするが、プロジェクター13は最低2つあればよい。
The
画像処理システム200は、複数のプロジェクター13による投影画像を組み合わせて、スクリーン(投影対象の表面)にタイリング表示による1つの大画面画像を表示するシステムである。
情報処理装置50は、画像処理システム200によるマルチプロジェクションとして投影される大画面画像の元となる画像を、プロジェクター13の数(例えば6台)に対応する部分画像に分割し、各プロジェクター13が投影すべき部分画像データを生成する。情報処理装置50は画像処理装置の一例である。
The
The
部分画像データは隣接したプロジェクター13では端部が重複する用に生成され、また、重畳領域の明るさの調整等を行う(エッジブレンディング)。情報処理装置50は、生成した部分画像データを対応する位置に配置されたプロジェクター13に送信する。
The partial image data is generated so that the end portions overlap in the
プロジェクター1、2が情報処理装置50から入力される画像データを投影するだけで、マルチプロジェクションシステムとしてタイリングによる投影を行える。
By simply projecting image data input from the
各プロジェクター13の配置を厳密に設定しない場合、各プロジェクター13が投影する部分画像データがずれる可能性がある。例えば、投影対象11からのプロジェクター13の距離、光軸の角度等によってずれが生じる。そこで、情報処理装置50は、各プロジェクター13に位置合わせ用のパターンを投影させ、カメラ12が撮像した画像データを用いて、投影対象11の三次元座標を位置合わせする。これにより、重畳部分のずれを抑制できる。また、座標系が共通になるので、形状モデル35へのフィッティングが容易になる。
If the arrangement of each
なお、情報処理装置50は、例えばPC(Personal Computer)などのコンピュータであるが、タブレット端末、スマートフォン、PDA(Personal Digital Assistant)、電子書籍端末など画像データを投影できるものであればよい。また、サーバなどネットワーク上に機能として存在していればよい。さらに、図1では別体として図示されたカメラ12が本実施形態の情報処理装置50の機能を有していてもよい。また、2つ以上の情報処理装置50が配置され、例えば歪み補正を行うものと部分画像データをプロジェクター13に送信するものとが別々に存在してもよい。
The
カメラ12についてはプロジェクター13に搭載されていてもよいが、ユーザの視点から投影画像を見た場合に正しく補正できるように、投影画像の正面に配置されていてもよい。また、カメラ12は歪み補正用パターン32又は位置合わせ用パターンの撮像の度に移動して撮像してもよい(すなわちカメラ12は1つしかなくてもよい)。本実施形態では、説明を容易にするため、カメラ12はプロジェクター13の数だけ存在するものとする。
The
また、カメラ12は投影画像の撮像により歪み補正用パターン32及び位置合わせ用パターンの画像データと共に三次元座標(このような画像データを距離画像という場合がある)を取得する。三次元座標を取得する方式としては、例えば、照射光を照射し反射光が到達するまでの時間(TOF:Time Of Fright)を測定する方式や、視差を利用するステレオカメラ方式が知られている。前者の方式のカメラ12としてKinect(登録商標)が知られている。
Further, the
また、プロジェクター13はDLP(Digital Light Processing)プロジェクターや液晶プロジェクターなどがあるが、本実施形態では投影方式は限定しない。また、超短焦点のプロジェクターでなく、遠方から投影するプロジェクターを用いてもよい。
The
図3は、情報処理装置50のハードウェア構成図の一例を示す。情報処理装置50はそれぞれバスで相互に接続されているCPU101、RAM102、ROM103、記憶媒体装着部104、通信装置105、入力装置106、描画制御部107、HDD108、を有する。CPU101は、OS(Operating System)やプログラム111をHDD108から読み出して実行することで種々の機能を提供すると共に、色調変換パラメータの生成処理を行う。
FIG. 3 shows an example of a hardware configuration diagram of the
RAM102はCPU101がプログラム111を実行する際に必要なデータを一時保管する作業メモリ(主記憶メモリ)になり、ROM103はBIOS(Basic Input Output System)やOSを起動するためのプログラム、静的なデータが記憶されている。
The
記憶媒体装着部104には記憶媒体110が着脱可能であり、記憶媒体110に記録されたデータを読み込み、HDD108に記憶させる。また、記憶媒体装着部104は、HDD108に記憶されたデータを記憶媒体110に書き込むこともできる。記憶媒体110は例えば、USDメモリ、SDカード等である。プログラム111は、記憶媒体110に記憶された状態や不図示のサーバからダウンロードすることで配布される。
A
入力装置106は、キーボードやマウス、トラックボールなどであり、情報処理装置50へのユーザの様々な操作指示を受け付ける。また、入力装置106はタッチパネルや音声入力装置であってもよい。
The
HDD108は、SSD等の不揮発メモリでもよく、OS、アプリケーションソフトウェアなどの各種のデータが記憶されている。
The
通信装置105は、ネットワークに接続するためのNIC(Network Interface Card)であり、例えば、イーサネット(登録商標)カードである。
The
描画制御部107は、CPU101がプログラム111を実行してグラフィックメモリに書き込んだ描画コマンドを解釈して、画面を生成しディスプレイ109に描画する。なお、図3ではディスプレイ109は情報処理装置50に外付けされているが、情報処理装置50がディスプレイ109を内蔵していてもよい。
The
図4は、情報処理装置50の機能ブロック図の一例を示す。情報処理装置50は、投影画像三次元位置取得部21、位置合わせ部22、モデル算出部23、座標変換部24、歪み補正パラメータ算出部25、及び、画像変形部26を有している。これらは、CPU101がプログラム111を実行して図3に示すハードウェアと協働することで実現される。
FIG. 4 shows an example of a functional block diagram of the
また、情報処理装置50は投影される画像データ、歪み補正用パターン32、及び、位置合わせ用パターンを記憶する画像データ記憶部27、並びに、歪み補正パラメータを記憶する歪み補正パラメータ記憶部28を有している。これらは、情報処理装置50がアクセス可能な場所(例えば、LAN、インターネットなどのネットワーク上)にあればよい。
The
投影画像三次元位置取得部21は、投影対象上の投影画像の三次元座標を取得する。具体的には、カメラ12が撮像した距離画像(輝度情報又はカラーの画素値と共に画素毎に距離情報が含まれる)をケーブルや記憶媒体を介して取得する。本実施形態では、距離情報を含む画像データを単に三次元座標と称する。
The projection image three-dimensional
位置合わせ部22は変換情報作成部29を有し、変換情報作成部29は複数の位置合わせ用パターン(歪み補正用パターン33でもよい)の特徴点の三次元座標に基づき変換情報を算出する。そして位置合わせ部22は、この変換情報で、歪み補正用パターン32又はポイントクラウド33の三次元座標の位置を合わせる。具体的には、隣接したプロジェクター13が投影した、位置合わせ用パターンの三次元座標の間で、変換情報として並進変換T、回転変換Q及びスケール変換Sを求める。そして、並進変換T、回転変換Q及びスケール変換Sにより、歪み補正用パターン32が撮像されることで得られた特徴点の三次元座標又はポイントクラウド33を、カメラ1〜mに共通の座標系の三次元座標に変換する。
The
モデル算出部23は、位置合わせした歪み補正用パターン32又はポイントクラウド33の三次元座標群を、投影対象11の形状モデル35にフィッティングする。これにより、形状モデル35(例えば円筒)の軸の直線の方程式と半径が得られる。
The
座標変換部24は、歪み補正用パターン32の特徴点の三次元座標又はポイントクラウド33を投影対象11の形状モデル35の座標系に変換する。この座標系は、例えば円筒型の形状モデル35の表面の座標系であるため、歪み補正用パターン32の特徴点の三次元座標又はポイントクラウド33の三次元座標は二次元の投影対象表面座標系で表現される。
The coordinate
歪み補正パラメータ算出部25は、プロジェクター13が投影する歪み補正用パターン32の元画像(以下、プロジェクタ画像という)と、二次元の投影対象表面座標系で表現された歪み補正用パターン32の画像(以下、二次元画像という)から例えば射影変換行列Hを算出する。この射影変換行列Hから歪み補正パラメータが求められる。
The distortion correction
画像変形部26は、歪み補正パラメータを用いてプロジェクター13が投影するプロジェクター画像を変形し補正画像を作成する。これにより、円筒型の投影対象11に歪みが少ない投影画像が投影される。
The
<全体的な動作手順>
図5は、画像処理システム200の全体的な動作手順を示すフローチャート図の一例を示す。
S10:投影画像三次元位置取得部21は、変数nを初期化する(nに1を設定する)。nはプロジェクター13の数Nと比較される変数である。
S20:投影画像三次元位置取得部21は、投影画像の三次元座標を取得する。この三次元座標は、各プロジェクター13が投影した位置合わせ用パターンの特徴点、歪み補正用パターン32の特徴点、又は、ポイントクラウド33のいずれかの三次元座標の場合がある。なお、位置合わせを歪み補正用パターン32で行う場合には、位置合わせ用パターンの三次元座標は不要になる。
S30:投影画像三次元位置取得部21は、nがNと一致したか否かを判定する。すなわち、すべてのプロジェクター13から三次元座標を取得したか否かを判定する。
S40:ステップS30の判定がNoの場合、投影画像三次元位置取得部21は変数nを1つ大きくする。
S50:ステップS30の判定がYesの場合、位置合わせ部22は各カメラ12が撮像したN個の三次元座標を、1つのカメラ座標に位置合わせする。すなわち、それぞれ撮像された複数の三次元座標を1つのカメラ座標で表す。
S60:モデル算出部23はステップS50の三次元座標を円筒型の形状モデル35にフィッティングする。
S70:座標変換部24は、ステップS50の三次元座標を円筒型の形状モデル35の表面の二次元の投影対象表面座標に変換する。
S80:歪み補正パラメータ算出部25は、プロジェクター画像と、二次元の投影対象表面座標で表現された二次元画像から例えば射影変換行列Hを算出し、射影変換行列Hから歪み補正パラメータを算出して歪み補正パラメータ記憶部28に記憶する。
S90:画像変形部26は、歪み補正パラメータを用いてプロジェクター13が投影する画像を変形する。
<Overall operation procedure>
FIG. 5 shows an example of a flowchart showing an overall operation procedure of the
S10: The projection image three-dimensional
S20: The projection image three-dimensional
S30: The projected image three-dimensional
S40: When the determination in step S30 is No, the projected image three-dimensional
S50: If the determination in step S30 is Yes, the
S60: The
S70: The coordinate
S80: The distortion correction
S90: The
以下では、ステップS20、S50〜S90についてステップごとに詳細に説明する。 Below, step S20 and S50-S90 are demonstrated in detail for every step.
<S20 投影画像の三次元座標の取得>
図6は、投影対象11の投影画像をカメラ12が分割撮像する際の模式図の一例である。図6では円筒形の投影対象11の凹面と凸面に対する投影画像をカメラ1とカメラ2が分割して撮像している。すべての投影画像が一箇所からの撮像で撮像しきれない場合、本実施形態では重複撮像領域36を設けて、異なる場所から分割して撮像する。なお、凹面と凸面では歪み方が異なるだけで歪み補正パラメータによる画像の変形までの手順は同じである。
<S20 Acquisition of 3D coordinates of projected image>
FIG. 6 is an example of a schematic diagram when the
図7は、三次元座標の取得を模式的に説明する図の一例である。図7(a)では、プロジェクター1が位置合わせ用パターン31を投影している。カメラ1,2はそれぞれ位置合わせ用パターンを撮像する。このように隣接したプロジェクター13のうち左側のプロジェクター13のみが位置合わせ用パターン31を投影する。カメラ1,2は画素単位で距離情報を取得可能であるが、位置合わせ用パターン31では、例えば特徴点(円)の三次元座標が取得される。
FIG. 7 is an example of a diagram schematically illustrating acquisition of three-dimensional coordinates. In FIG. 7A, the
図7(b)(c)では、プロジェクター1,2がそれぞれ歪み補正用パターン32を投影している。歪み補正用パターン32として図7(b)では円パターンが、図7(c)では格子パターンが投影されている。カメラ1,2はそれぞれ歪み補正用パターン32を撮像する。カメラ1,2は画素単位で距離情報を取得可能であるが、円パターンの歪み補正用パターン32では、特徴点(例えば、円)の三次元座標が取得され、格子パターンの歪み補正用パターン32では、特徴点(例えば、黒領域の頂点)の三次元座標が取得される。
In FIGS. 7B and 7C, the
投影画像三次元位置取得部21が、位置合わせ用パターン31や歪み補正用パターン32の画像から特徴点を抽出する際は、例えば以下のように処理する。円パターンの場合、例えば二値化して連続した黒画素の重心を特徴点として検出する。格子状の歪み補正用パターンの場合、例えば、ハリスの方法などのコーナー検出方法を用いて格子の頂点を特徴点として検出する。この他、エッジを検出して抽出された直線の交点などを特徴点としてもよい。
When the projected image three-dimensional
また、位置合わせ用の画像としては、位置合わせ用パターン31や歪み補正用パターン32のような既知の画像の他、未知の画像を用いることもできる。未知の画像を投影して、例えば、SIFT(Scale Invariant Feature Transform)特徴量を検出する。SIFT特徴量は、画像中の輝度変化の大きい特徴点と、特徴点周辺の輝度勾配及び輝度方向により算出される特徴量である。未知の画像でも同じSIFT特徴量が検出されるため、対応する特徴点が得られる。このように、次述する位置合わせ部22が、複数の場所から撮像された投影画像の特徴点同士の対応を正しく決定できれば、任意の画像を位置合わせに用いることができる。
In addition to the known images such as the
以下では、説明のため、位置合わせ用パターン31により位置合わせするものとして説明する。当然ながら、歪み補正のために歪み補正用パターン32も撮像され、その際にポイントクラウド33も得られている。
Hereinafter, for the sake of explanation, the description will be made assuming that the alignment is performed by the
<S50 位置合わせ>
位置合わせ部22は、複数の場所で撮像された位置合わせ用パターンの特徴点同士を対応させ、これらの特徴点を利用してカメラ1,2の座標系を合わせる。すなわち、カメラ2が撮像した三次元座標を、カメラ1の座標系の座標に変換する。異なる場所で撮像された2つの位置合わせ用パターンの対応する特徴点を対応点という。
<S50 alignment>
The
位置合わせ部22は、まず、カメラ1、2の重複撮像領域36に、プロジェクター1のみに対し位置合わせ用パターン31を投影させる。視点の変化にロバストな特徴点群の三次元座標を取得することで、隣接する撮像場所で対応する対応点を安定して取得できる。
First, the
図8(a)は重複撮像領域36に撮像されたカメラ1の対応点の画像とカメラ2の対応点の画像を説明する図の一例である。図8(a)では位置合わせ用パターンとして円パターンが撮像されている。この円パターンは、歪み補正用パターン32とは別に投影されるが、上記のように歪み補正用パターン32を位置合わせ用パターン31として用いることができる。
FIG. 8A is an example for explaining the image of the corresponding point of the
カメラ1が撮像した重複撮像領域36には円パターン1が撮像されており、カメラ2が撮像した重複撮像領域36には円パターン2が撮像されている。円パターン1はプロジェクター1が投影したものである。図8(b)に示すように、カメラ1が撮像する画像1では右端に円パターン1が撮像され、カメラ2が撮像する画像2では左端に円パターン2が撮像される。
The
円パターン1、2は撮影場所が異なるだけで同じ場所に投影されているので、カメラ1,2が同じ位置から撮像したと仮定すると、円パターン1,2は画像内の同じ位置で撮像されなければならない。画像内の同じ位置で撮像させるためには、カメラ2をカメラ1の位置に移動させればよいがこの移動量は、画像1と画像2において円パターン1,2が撮像されている場所の違いに他ならない。よって、画像1における円パターン1と画像2における円パターン2の位置が一致するように、画像1,2を位置合わせすることで、カメラ2が取得する三次元座標をカメラ1の座標系に位置合わせすることができる。
Since the
なお、画像1,2から特徴点として検出される対応点(それぞれの円)にはインデックスが与えられる。画像1では右端から1列目の円パターンの円にA1−1〜A1−5が、2列目の円パターンの円にA2−1〜A2−5が与えられる。画像2では左端から1列目の円パターンの円にB1−1〜B1−5が、2列目の円パターンの円にB2−1〜B2−5が与えられる。位置合わせ部22はA1−1〜A1−5及びA2−1〜A2−5と、B1−1〜B1−5及びB2−1〜B2−5が対応点であるとして扱う。
In addition, an index is given to the corresponding point (each circle) detected as a feature point from the
位置合わせのためには、対応点の三次元座標を用いる。すなわち、円パターン1の各円の三次元座標と円パターン2の各円の三次元座標を用いる。位置合わせのための変換は並進変換Tと回転変換Q、及び、スケール変換Sに分けられる。本実施形態では、Absolute Orientationという手法により並進変換T、回転変換Q及びスケール変換Sを算出する。
For alignment, the three-dimensional coordinates of corresponding points are used. That is, the three-dimensional coordinates of each circle of the
図9を用いて並進変換T、回転変換Q及びスケール変換Sの算出について説明する。図9は、5点の対応点の回転、並進、スケール変換について説明する図の一例である。画像2の対応点をPl1〜Pl5であるとし、画像1の対応点をPr1〜Pr5であるとする。Pl1〜Pl5を回転することで対応点群Iが得られ、対応点群Iをスケール変換することで対応点群IIが得られ、対応点群IIを並進することで対応点群IIIが得られるものとする。したがって、対応点群IIIがPr1〜Pr5に変換される回転変換R、並進変換T及びスケール変換Sを求める。
Calculation of translational transformation T, rotational transformation Q, and scale transformation S will be described with reference to FIG. FIG. 9 is an example of a diagram illustrating rotation, translation, and scale conversion of five corresponding points. Assume that the corresponding points of the
まず、スケール変換Sについては、以下のようにして求められる。
1.対応点Pl1〜Pl5の重心G1、対応点Pr1〜Pr5の重心G2を求め、それぞれ重心を原点とする座標に変換する。
2.対応点Pl1〜Pl5の重心G1からの距離の2乗和S1、対応点Pr1〜Pr5の重心G2からの距離の2乗和S2、を求める。
3.2つの2乗和の比S2/S1をスケール変換Sとする。すなわち、スケール変換Sは回転変換Rとは独立に求められる。
First, the scale conversion S is obtained as follows.
1. The centroid G1 of the corresponding points P 11 to P 15 and the centroid G2 of the corresponding points P r1 to P r5 are obtained and converted to coordinates having the centroid as the origin.
2. Square sum S1 of distance from the center of gravity G1 of the corresponding point P l1 ~P l5, obtains the square sum S2, the distance from the center of gravity G2 of the corresponding point P r1 to P r5.
3. Let the ratio S2 / S1 of the two sums of squares be the scale conversion S. That is, the scale conversion S is obtained independently of the rotation conversion R.
また、回転変換Rについては、重心G1を原点とする対応点Pl1〜Pl5を、ある軸周りにある角度回転した時の、対応点Pr1〜Pr5との内積の和が最大になる回転として求められる。 As for the rotation transformation R, the sum of the inner products of the corresponding points P r1 to P r5 when the corresponding points P l1 to P 15 having the center of gravity G1 as the origin are rotated by a certain angle around a certain axis is maximized. Required as rotation.
対応点Pl1〜Pl5の重心G1からの相対座標をrli(i=1〜5)、対応点Pr1〜Pr5の重心G2からの相対座標をrri(i=1〜5)、とする。 The relative coordinates of the corresponding points P 11 to P 15 from the centroid G1 are rl i (i = 1 to 5), the relative coordinates of the corresponding points P r1 to P r5 from the centroid G2 are rr i (i = 1 to 5), And
単位4元数は実部と虚部の二乗和の平方根が1となる4元数である。単位4元数を、Σ=(cosθ/2; sin(θ/2)p)で表す(pは虚部の三次元ベクトル)。単位4元数により、Σ*qΣを計算すると(Σ*はΣの共役)、回転軸pを中心にベクトルqで表される点をθ回転させることができる。したがって、ベクトルqを対応点の重心G1からの座標ベクトルとすれば、対応点Pl1〜Pl5を回転させることができる。 The unit quaternion is a quaternion in which the square root of the square sum of the real part and the imaginary part is 1. The unit quaternion is represented by Σ = (cos θ / 2; sin (θ / 2) p) (p is a three-dimensional vector of an imaginary part). When Σ * qΣ is calculated by the unit quaternion (Σ * is a conjugate of Σ), the point represented by the vector q can be rotated θ around the rotation axis p. Therefore, if the vector q is a coordinate vector from the centroid G1 of the corresponding point, the corresponding points P 11 to P 15 can be rotated.
最後に、並進変換Tは、回転変換Rで対応点Pl1〜Pl5を回転させ、スケール変換Sでスケール変換したものと、対応点Pr1〜Pr5の差として求められる。 Finally, translational transform T rotates the corresponding point P l1 to P l5 in rotational transform R, to those scaled by scaling S, is determined as the difference of the corresponding point P r1 to P r5.
なお、Absolute Orientationの具体的手法についてはBerthold K. P. HornによるClosed-form solution of absolute orientation using unit quaternionsを参照されたい。 For the specific method of Absolute Orientation, refer to Closed-form solution of absolute orientation using unit quaternions by Berthold K. P. Horn.
図10は、N個の位置合わせ用パターンから取得された三次元座標の位置合わせを模式的に説明する図の一例である。図10(a)に示すように、カメラ1,2〜Nは重複撮像領域36の位置合わせ用パターン31をそれぞれ撮像する。点線の四角は撮像範囲を示している。上記のように、カメラ2が撮像した位置合わせ用パターン31と、カメラ1が撮像した位置合わせ用パターン31との対応点が求められる。そして、この対応点から、回転変換Q1・並進変換T1・スケール変換S1が求められる。
FIG. 10 is an example of a diagram for schematically explaining the alignment of three-dimensional coordinates acquired from N alignment patterns. As shown in FIG. 10A, the
次に、図10(b)に示すように、カメラ2,3は重複撮像領域36の位置合わせ用パターン31をそれぞれ撮像する。カメラ3が撮像した位置合わせ用パターン31と、カメラ2が撮像した位置合わせ用パターン31との対応点が求められる。そして、この対応点から、回転変換Q2・並進変換T2・スケール変換S2が求められる。
Next, as illustrated in FIG. 10B, the
最終的に、カメラN−1,Nが重複撮像領域36における位置合わせ用パターン31をそれぞれ撮像する。同様に、対応点から、回転変換Q(N−1)・並進変換T(N−1)・スケール変換S(N−1)が求められる。
Finally, the cameras N-1 and N respectively image the
隣接した撮像場所同士で、回転変換Q・並進変換T・スケール変換Sが求められると、図10(c)に示すように、各撮像場所で撮像された任意のポイントクラウド33を、N番目の撮像場所から順番に位置合わせすることができる。
When rotation transformation Q, translation transformation T, and scale transformation S are obtained between adjacent imaging locations, as shown in FIG. 10C, an
図11は、変換情報作成部29がN個の位置合わせ用パターン31から取得された三次元座標により回転変換Q・並進変換T・スケール変換Sを求める手順を示すフローチャート図の一例である。
S101:変換情報作成部29は変数nを1に初期化する。
S102:投影画像三次元位置取得部21は、カメラn、n+1が重複撮像領域36から撮像した位置合わせ用パターン31の特徴点から三次元座標を取得する。
S103:変換情報作成部29はスケール変換S(n)を求める。
S104:変換情報作成部29は回転変換R(n)を求める。
S105:変換情報作成部29は並進変換T(n)を求める。
S106:変換情報作成部29はnがN−1と一致するか否かを判定する。
S107:ステップS106の判定がNoの場合、変換情報作成部29はnを1つ大きくする。
FIG. 11 is an example of a flowchart illustrating a procedure in which the conversion
S101: The conversion
S102: The projected image three-dimensional
S103: The conversion
S104: The conversion
S105: The conversion
S106: The conversion
S107: If the determination in step S106 is No, the conversion
ステップS106の判定がYesの場合、全ての隣接した撮像位置における回転変換Q・並進変換T・スケール変換Sが得られる。これにより、歪み補正用パターン32を用いた歪み補正が可能になる。したがって、次に、各プロジェクター13が歪み補正用パターン32を投影し、各カメラがそれぞれ撮像する。そして、位置合わせ部22は歪み補正用パターン32の特徴点に対し位置合わせを行う。
When the determination in step S106 is Yes, rotation transformation Q, translation transformation T, and scale transformation S at all adjacent imaging positions are obtained. As a result, distortion correction using the
図12は、N個の投影画像から取得された歪み補正用パターン32の特徴点の三次元座標の位置合わせを模式的に説明する図の一例である。図12(a)に示すように、カメラ1はプロジェクター1が投影した歪み補正用パターン32を撮像する。図12(b)に示すように、カメラ2はプロジェクター2が投影した歪み補正用パターン32を撮像する。
FIG. 12 is an example of a diagram schematically illustrating the alignment of the three-dimensional coordinates of the feature points of the
最終的に、カメラNが、プロジェクターNが投影した歪み補正用パターン32を撮像すると、図12(c)に示すように、各カメラ1〜Nが撮像した歪み補正用パターン32の特徴点の三次元座標の位置合わせが行われる。
Finally, when the camera N captures the
図13は、位置合わせ部22がN個の歪み補正用パターン32の投影画像から取得された三次元座標の位置合わせを行う手順を示すフローチャート図の一例である。
S201:位置合わせ部22は変数nを1に初期化する。
S202:投影画像三次元位置取得部21はカメラnが撮像した歪み補正用パターン32の特徴点の三次元座標を取得する。
S203:位置合わせ部22はn=Nとなったか否かを判定する。
S204:ステップS203の判定がNoの場合、位置合わせ部22はnを1つ大きくする。
S205:ステップS203の判定がYesの場合、位置合わせ部22はnをNに初期化する。
S206:位置合わせ部22は、歪み補正用パターン32の特徴点の三次元座標を、並進変換T(n−1)、回転変換Q(n−1)及びスケール変換S(n−1)を用いて変換する。
FIG. 13 is an example of a flowchart illustrating a procedure in which the
S201: The
S202: The projected image three-dimensional
S203: The
S204: When the determination in step S203 is No, the
S205: If the determination in step S203 is Yes, the
S206: The
これにより、カメラNが撮像した歪み補正用パターン32の特徴点の三次元座標は、カメラN−1の座標系に変換される。そして次のサイクルではカメラN−1が撮像した歪み補正用パターン32の特徴点の三次元座標は、カメラN−2の座標系に変換される。以下、歪み補正用パターン32の特徴点の三次元座標は、カメラ1の座標系まで順番に変換される。
カメラN → カメラN−1
カメラN−1 → カメラN−2
カメラN−2 → カメラN−3
:
カメラ2 → カメラ1
したがって、最終的に、カメラN〜カメラ2が撮像した歪み補正用パターン32の特徴点の三次元座標は、全てカメラ1の座標系に変換される。
S207:位置合わせ部22は、n=2となったか否かを判定する。すなわち、カメラ1の座標系への変換が終わったか否かが判定される。
S208:ステップS207の判定がNoの場合、位置合わせ部22はnを1つ小さくする。
Thereby, the three-dimensional coordinates of the feature points of the
Camera N → Camera N-1
Camera N-1 → Camera N-2
Camera N-2 → Camera N-3
:
Therefore, finally, all the three-dimensional coordinates of the feature points of the
S207: The
S208: When the determination in step S207 is No, the
ステップS207の判定がYesの場合、カメラ1の座標系にカメラ2〜Nの三次元座標が位置合わせされたことになる。
If the determination in step S207 is Yes, the three-dimensional coordinates of the
ところで、本実施形態では次のステップS60でモデルフィッティングを行うが、モデルフィッティングを行うには、歪み補正用パターン32の特徴点では点間隔が大きすぎ、モデルフィッティングに誤差が入るおそれがある。そこで、以下のように、歪み補正用パターン32の特徴点ではなく、ポイントクラウド33に対し位置合わせを行ってもよい。Kinect(登録商標)のようにTOF方式で距離情報を取得する場合、投影対象11をそのまま撮像することで画素毎に距離情報が得られる。また、投影対象11の表面が均一な輝度であるため、ステレオカメラでは距離情報の精度が低下する場合には、モデルフィッティングのための画像(歪み補正用パターン32よりも特徴点が密な画像)を投影してもよい。
By the way, in this embodiment, model fitting is performed in the next step S60. However, in order to perform model fitting, the point interval is too large at the feature points of the
図14は、投影対象11のポイントクラウド33の位置合わせを模式的に説明する図の一例である。なお、処理手順は図12と同様である。
FIG. 14 is an example of a diagram schematically illustrating the alignment of the
図14(a)に示すように、カメラ1は投影対象11−1を撮像する。プロジェクター1は例えばコンテンツ画像を投影してもよいし、プロジェクター1は何も投影せず投影対象11の意匠などがそのまま撮像されてもよい。図14(b)に示すように、カメラ2は投影対象11−2を撮像する。
As shown in FIG. 14A, the
最終的に、カメラNが投影対象11−Nを撮像すると、図14(c)に示すように、位置合わせ部22は各カメラ1〜Nが撮像した投影対象11のポイントクラウド33の位置合わせが行われる。
Finally, when the camera N captures the projection target 11-N, as shown in FIG. 14C, the
図15は、位置合わせ部22がN個のポイントクラウド33から取得された三次元座標の位置合わせを行う手順を示すフローチャート図の一例である。なお、処理手順は図13と同様である。
S201:位置合わせ部22は変数nを1に初期化する。
S202:投影画像三次元位置取得部21はカメラnが撮像した投影対象11からポイントクラウド33を取得する。
S203:位置合わせ部22はn=Nとなったか否かを判定する。
S204:ステップS203の判定がNoの場合、位置合わせ部22はnを1つ大きくする。
S205:ステップS203の判定がYesの場合、位置合わせ部22はnをNに初期化する。
S206:位置合わせ部22は、投影対象11のポイントクラウド33を、並進変換T(n−1)、回転変換Q(n−1)及びスケール変換S(n−1)を用いて変換する。これにより、カメラNが撮像した投影対象11のポイントクラウド33はカメラN−1の座標系に変換される。そして次のサイクルではカメラN−1が撮像した投影対象11のポイントクラウド33は、カメラN−2の座標系に変換される。したがって、最終的に、カメラN〜カメラ2が撮像した投影対象11のポイントクラウド33は、全てカメラ1の座標系に変換される。
S207:位置合わせ部22は、n=2となったか否かを判定する。すなわち、カメラ1の座標系への変換が終わったか否かが判定される。
S208:ステップS207の判定がNoの場合、位置合わせ部22はnを1つ小さくする。
FIG. 15 is an example of a flowchart illustrating a procedure in which the
S201: The
S202: The projection image three-dimensional
S203: The
S204: When the determination in step S203 is No, the
S205: If the determination in step S203 is Yes, the
S206: The
S207: The
S208: When the determination in step S207 is No, the
このように密な三次元座標(ポイントクラウド33)を取得することで、モデルフィッティングの近似精度を向上させることができる。 By acquiring dense three-dimensional coordinates (point cloud 33) in this way, the approximation accuracy of model fitting can be improved.
<S60 モデル算出>
モデル算出部23は、歪み補正用パターン32の特徴点の三次元座標又はポイントクラウド33を、投影対象11の形状モデル35にフィッティングし、形状モデル35の最適なモデルパラメータを推定する。
<S60 model calculation>
The
モデル算出部23は、モデルフィッティングの前処理として、三次元座標の除去を事前に行ってもよい。例えば、三次元座標が均一に分布していると仮定して、点同士の距離を求め、距離の平均から閾値以上離れている点をモデルフィッティングの対象から除去する。
The
モデル算出部23は、位置合わせされた三次元座標に対し所定の三次元の形状モデル35を当てはめて、投影対象11を表す投影体モデルを計算する。より具体的には、三次元座標の集まりとマッチする三次元の形状モデル35のモデルパラメータを算出する。ここで、本実施形態では、投影対象11の形状モデル35は円筒モデルであるので、モデルフィッティング計算では、円筒モデルの軸の直線の方程式、及び、半径のうちの少なくとも1つのパラメータを不定として、誤差が最小となる最も確からしいパラメータまたはパラメータの組み合わせが推定される。
The
円筒モデルのすべてのパラメータを計算により推定してもよいが、特に限定されるものではない。例えば、投影対象11の円筒の大きさ(半径)が既知である場合や、軸の方向や位置が既知とみなせる場合などは、1または複数のパラメータのユーザからの入力値や既定値を制約条件として、残りのパラメータを不定として算出することもできる。
All the parameters of the cylindrical model may be estimated by calculation, but are not particularly limited. For example, when the size (radius) of the cylinder of the
事前に準備された形状モデル35に対しフィッティングを行うことにより、投影対象11の一部しか計測できない場合や、投影対象以外の物体が写り込んでしまった場合でも、また、三次元測定に含まれるノイズが多い場合でも、投影対象11の三次元形状を好適に推定することができる。
Even if only a part of the
モデルフィッティングの手法は、特に限定されるものではない。例えば、他の三次元の形状モデル(球体、立方体、平面、楕円曲面など、なめらかな表面を有する任意の三次元モデル)を用いてもよく、また、いくつかの異なる形状モデル35を事前準備し、複数の形状モデル35のうちのもっとも確からしいモデルを決定するようにしてもよい。
The method of model fitting is not particularly limited. For example, other three-dimensional shape models (any three-dimensional model having a smooth surface such as a sphere, a cube, a plane, an elliptical curved surface, etc.) may be used, and several
<S70 座標変換>
座標変換部24は、歪み補正用パターン32の特徴点の三次元座標を、推定したモデルパラメータを用いて形状モデル35の表面の二次元の投影対象表面座標系に変換する。投影対象表面座標系は、円筒の軸方向の高さhと、軸に垂直な基準軸を基準とする角度θで座標を表す。
<S70 coordinate transformation>
The coordinate
歪み補正用パターン32の特徴点の三次元座標を、二次元の投影対象表面座標系に変換することで、マルチプロジェクションにおいて投影対象11の表面への歪みの少ない投影が可能になる。
By converting the three-dimensional coordinates of the feature points of the
図16は、形状モデル35の表面の二次元の投影対象表面座標系への三次元座標の変換を説明する図の一例である。図示するように、円柱座標系を定義する。円筒の底面の任意の方向をx軸、x軸と直交する方向をy軸、x軸とy軸の交点に垂直な方向をz軸として、z軸方向をh、円筒表面からz軸への垂線がx軸となす角をθとする。
FIG. 16 is an example of a diagram illustrating conversion of three-dimensional coordinates into a two-dimensional projection target surface coordinate system on the surface of the
図16の記号の意味は以下のとおりである。
ベクトルsi:特徴点の座標ベクトル(円柱座標系の原点Oと三次元座標を結ぶベクトル。iは三次元座標の識別番号)
ベクトルzM:z軸方向の単位ベクトル
ベクトルxM:x軸方向の単位ベクトル
ベクトルyM:y軸方向の単位ベクトル
これらから、形状モデル35の表面上の三次元座標(x, y, z)は次式により円柱座標(h, θ)に変換することができる。
The meanings of the symbols in FIG. 16 are as follows.
Vector s i: coordinate vector of feature points (vector connecting the origin O of the cylindrical coordinate system and the three-dimensional coordinates; i is the identification number of the three-dimensional coordinates)
Vector z M : Unit vector vector in the z-axis direction x M : Unit vector vector in the x-axis direction y M : Unit vector in the y-axis direction From these, the three-dimensional coordinates (x, y, z) on the surface of the
上式(5)からhは特徴点のz座標と等しい。なお、式(6)の分母は正規化のためにz軸から特徴点までの距離でz軸と特徴点を結ぶベクトルを割っている。円柱座標(h, θ)が算出できれば、z軸から√(x2+y2)の距離に特徴点の三次元座標を配置できる。 From the above equation (5), h is equal to the z coordinate of the feature point. Note that the denominator of Equation (6) divides a vector connecting the z-axis and the feature point by the distance from the z-axis to the feature point for normalization. If the cylindrical coordinates (h, θ) can be calculated, the three-dimensional coordinates of the feature points can be arranged at a distance of √ (x 2 + y 2 ) from the z axis.
ところで、図16のように形状モデル35の表面の二次元の投影対象表面座標系へ三次元座標を変換した場合でも、三次元座標が形状モデル35の表面に変換されるとは限らない。これは、三次元座標に誤差があるため実際には形状モデル35の表面から、三次元座標が浮いている又は内側に存在している場合があるためである。
By the way, even when the three-dimensional coordinates are converted into the two-dimensional projection target surface coordinate system on the surface of the
そこで、図17に示すように、三次元座標を形状モデル35の表面に射影することが好ましい。図17は、三次元座標の形状モデル35の表面への射影を実現する2つの方法の模式図である。
Therefore, it is preferable to project the three-dimensional coordinates onto the surface of the
図17(a)は、形状モデル35の表面の最も近い点(法線方向に)三次元座標を移動することで射影している。この方法は、式(5)(6)を変更することなく使用できるため、実装が簡単であるという利点がある。これは、式(5)(6)で特徴点の柱座標(h, θ)が得られるが、θは正規化して求められているので(x、yの絶対値が含まれていない)、三次元座標を形状モデル35の表面の二次元の投影対象表面座標系へ変換する際は、半径rの位置に変換すればよいためである。
FIG. 17A is projected by moving the three-dimensional coordinates closest to the surface of the shape model 35 (in the normal direction). Since this method can be used without changing the equations (5) and (6), there is an advantage that the implementation is simple. This is because the column coordinates (h, θ) of the feature points are obtained by the equations (5) and (6), but θ is obtained by normalization (the absolute values of x and y are not included). This is because when the three-dimensional coordinates are converted into the two-dimensional projection target surface coordinate system on the surface of the
これに対し、図17(b)では、三次元座標の奥行き方向(距離方向)の誤差を考慮して、カメラ方向に特徴点の座標を補正することで射影する。射影のため、式(5)(6)による形状モデル35の表面の二次元の投影対象表面座標系への変換の前に、形状モデル35の表面に射影されるように三次元座標を変更しておく。
On the other hand, in FIG. 17B, projection is performed by correcting the coordinates of feature points in the camera direction in consideration of errors in the depth direction (distance direction) of the three-dimensional coordinates. For projection, the three-dimensional coordinates are changed so that the surface of the
この射影のために、以下の連立方程式を解く。図17(c)は連立方程式のベクトルの参考図である。
ベクトルsi:円筒表面に射影された特徴点の座標ベクトル(円柱座標系の原点Oと円筒表面の三次元座標を結ぶベクトル)
ベクトルsi´:特徴点の座標ベクトル(円柱座標系の原点Oと三次元座標を結ぶベクトル)
ベクトルVcam:カメラ1の座標ベクトル(円柱座標系の原点Oとカメラ1を結ぶベクトル)
ベクトルzM:z軸方向の単位ベクトル
ベクトルxM:x軸方向の単位ベクトル
ベクトルyM:y軸方向の単位ベクトル
ベクトル「si´−Vcam」:カメラ1と三次元座標を結ぶベクトル
ベクトル「si´−si」:円筒表面に射影された三次元座標と、射影前の三次元座標とを結ぶベクトル
t:ベクトル「si´−Vcam」の縮尺率(スカラー)
ここで、未知であるベクトルsi、スカラーtがあり、それ以外は既知であり、方程式が2つあるので、連立方程式を解くことができる。式(7)によりベクトルsi´がベクトルsiに変更されている。
For this projection, the following simultaneous equations are solved. FIG. 17C is a reference diagram of vectors of simultaneous equations.
Vector si: coordinate vector of feature points projected onto the cylindrical surface (vector connecting the origin O of the cylindrical coordinate system and the three-dimensional coordinates of the cylindrical surface)
Vector si ': feature point coordinate vector (vector connecting the origin O of the cylindrical coordinate system and the three-dimensional coordinates)
Vector Vcam: Coordinate vector of camera 1 (vector connecting origin O of cylindrical coordinate system and camera 1)
Vector z M : Unit vector vector in the z-axis direction x M : Unit vector vector in the x-axis direction y M : Unit vector vector in the y-axis direction “si′−Vcam”: Vector vector “si” connecting the
Here, there are an unknown vector s i and a scalar t, and the others are known and there are two equations, so that simultaneous equations can be solved. The vector si ′ is changed to the vector si by the equation (7).
ベクトルsi、スカラーtを求めた後は、式(5)(6)により特徴点の柱座標(h, θ)を求めることで、三次元座標の奥行き方向(距離方向)の誤差を低減できる。 After obtaining the vector s i and the scalar t, by obtaining the column coordinates (h, θ) of the feature points using the equations (5) and (6), errors in the depth direction (distance direction) of the three-dimensional coordinates can be reduced.
図示するようにスカラーtはカメラ1と特徴点の距離の縮尺率となっている。よって、カメラ1との距離方向に特徴点の座標を補正する射影を行うことができる。これにより、カメラの奥行き方向の誤差が形状モデル表面の二次元の投影対象表面座標の誤差になることを避けることができる。
As shown in the figure, the scalar t is the scale ratio of the distance between the
<S80 歪み補正パラメータの算出>
以上の処理で、歪み補正用パターン32が形状モデル35の表面の二次元の投影対象表面座標系で表された。しかし、歪み補正用パターン32は円筒の表面に近距離から投影されているので、図1に示したように歪んでいる。このため、歪み補正パラメータ算出部25は、形状モデル35の表面の二次元の投影対象表面座標系で表された歪み補正用パターン32の特徴点(二次元画像)と、プロジェクター画像とを比較して、射影変換行列Hを算出する。
<S80 Distortion Correction Parameter Calculation>
With the above processing, the
図18は、二次元画像42とプロジェクター画像41における対応点を説明する図の一例である。プロジェクター画像41は投影前の画像データなので円が均一に分布しているのに対し(均一である必要はないが)、二次元画像42は投影面が円筒形状であることなどに起因して、円の位置が歪んでいる。
FIG. 18 is an example of a diagram for explaining corresponding points in the two-
歪み補正パラメータ算出部25は、二次元画像42の範囲内の最大の矩形領域を切り出す。そして、ステップS50で三次元座標の位置合わせのために対応点を抽出した場合と同様に、特徴点を検出する。円パターンの場合、例えば連続した黒画素の重心を特徴点として検出する。
The distortion correction
歪み補正パラメータ算出部25は、二次元画像42とプロジェクター画像41からそれぞれ検出された円に、例えば左上などから順にインデックスを付与する。矩形範囲内の円のうち、同じインデックスが付与された円同士が対応する対応点の組となる。なお、特徴点の対応付けは、人間が二次元画像42とプロジェクター画像41の円を1つずつ組にして対応させてもよい。
The distortion correction
図19(a)は、歪み補正パラメータの算出処理を説明する図の一例である。二次元画像は図19(a)に示すように、円筒の形状モデル35に対応して歪んでいる。歪み補正パラメータ算出部25は、二次元画像42が投影時に補正後の投影画像44となるように、プロジェクター画像を補正する歪み補正のための歪み補正パラメータ(射影変換行列H)を算出する。
FIG. 19 (a) is an example of a diagram illustrating a distortion correction parameter calculation process. The two-dimensional image is distorted corresponding to the
図19(b)に示すように、画像変形部26は、算出した射影変換行列Hを用いて、プロジェクター画像41を補正して、補正画像43を生成する。
As illustrated in FIG. 19B, the
図19(c)に示すように、プロジェクター13が射影変換行列Hで補正された補正画像43を投影することで、歪みの低減された補正後の投影画像44を投影できる。すなわち、プロジェクターは投影対象11の形状に対応する変形を相殺する補正画像43を投影する。
As shown in FIG. 19C, the
<<射影変換行列Hの算出>>
図20は、射影変換行列Hの算出を説明するための図の一例である。なお、二次元画像42は円柱座標系で表されているので、プロジェクター画像41と同じxy座標系に変換しておくことで処理が容易になる。また、プロジェクター画像41の画素数が、二次元画像42の画素数と一致しない場合は、二次元画像42の画素数をプロジェクター画像41の画素数に一致させ、両者を同じサイズに整えておく。
<< Calculation of projective transformation matrix H >>
FIG. 20 is an example of a diagram for explaining the calculation of the projective transformation matrix H. Since the two-
歪み補正パラメータ算出部25は、図18で取得した特徴点の対応に基づき、領域毎に対応付けを行う。この領域45は、4つの円で囲まれる四角形とする。プロジェクター画像41の1領域と二次元画像42の1領域の対応関係は、射影変換で記述される。プロジェクター画像41の点をmp=(xp,yp)、二次元画像の点をmc(xc,yc)とすると射影変換により点mpはmcを用いて以下のように表すことができる。
The distortion correction
また、プロジェクター画像の4つの円と二次元画像の4つの円同士の対応から以下の拘束が得られる。 Further, the following constraint is obtained from the correspondence between the four circles of the projector image and the four circles of the two-dimensional image.
画像変形部26は、歪み補正パラメータを用いて二次元画像を変形する。
図21は、プロジェクター画像41の補正について説明する図の一例である。プロジェクター画像41の補正は、プロジェクター13が投影するプロジェクター画像を予め、歪みとは逆方向に変形させることで行う。
The
FIG. 21 is an example of a diagram for explaining the correction of the
まず、画像変形部26は、二次元画像内で長方形の投影領域を決める。投影領域は、二次元画像の最大内接長方形とする。ただし、プロジェクター13のアスペクト比と同じとすることが好ましいので、実際には最大内接長方形よりも小さくなる。したがって、補正画像が投影された投影画像は、補正前の投影画像よりも小さくなる。
First, the
この投影領域にはプロジェクター画像を縮小したものが表示される。したがって、投影領域の点Acはプロジェクター画像の点Apの画素を参照する。以下では、投影領域の点Acを補正画像の点Aに対応づける手順を説明する。
(1)まず、投影領域の任意の点Acを取り出す。射影変換により点Acの座標(xc、yc)をプロジェクター画像の点Apに変換することができたので、射影変換とは逆の変換で、点Acを補正画像43の点Aに対応づけることができる。つまり、点Acは点Apの画素値を参照して、補正画像43の点Aに対応づけられる。なお、点Acの座標(xc、yc)は、投影領域ではなくプロジェクター13の投影範囲の左上を原点(0,0)とした座標系の座標である。
(2)次に、点Acが、投影領域内ではどの位置に相当するかを算出する。投影領域の左上を原点(x0,y0)とする。この原点に対する点Acの座標を(xc1,yc1)とする。点Acに対応する元の画像(プロジェクター画像)の点Apの座標を(xp、yp)とする。投影領域はプロジェクター画像41とアスペクト比が一致し、大きさだけが異なる。よって、プロジェクター画像41の横方向の長さWpと投影された補正画像43の投影領域の横方向の長さWcから、点Apの座標は以下のように表すことができる。
(xp、yp)=(Wp/Wc)×(xc1,yc1) …(a)
(3)投影された補正画像における投影領域の原点は(x0,y0)なので、点Acの座標値は以下のように表すことができる。
(xc、yc)=(x0,y0)+(xc1,yc1) …(b)
(4) 点Acの座標(xc、yc)は求められているので、式(b)により(xc1,yc1)が求められ、式(a)により点Apの座標(xp、yp)を求めることができる。
(5)この座標Ap(xp、yp)の画素値を、補正画像の点A(xp´、yp´)の画素値とする。なお、点Aに対応する点Apの座標は整数とは限らないので、その場合は点Apの周囲の画素の画素値から補間して求める。
In this projection area, a reduced version of the projector image is displayed. Therefore, the point Ac of the projection area refers to the pixel of the point Ap of the projector image. Hereinafter, a procedure for associating the point Ac of the projection area with the point A of the corrected image will be described.
(1) First, an arbitrary point Ac in the projection area is taken out. Since the coordinates (xc, yc) of the point Ac can be converted to the point Ap of the projector image by the projective transformation, the point Ac can be associated with the point A of the corrected
(2) Next, the position corresponding to the point Ac in the projection area is calculated. The upper left of the projection area is the origin (x0, y0). The coordinates of the point Ac with respect to this origin are (xc1, yc1). Let the coordinates of the point Ap of the original image (projector image) corresponding to the point Ac be (xp, yp). The projection area has the same aspect ratio as the
(Xp, yp) = (Wp / Wc) × (xc1, yc1) (a)
(3) Since the origin of the projection area in the projected corrected image is (x0, y0), the coordinate value of the point Ac can be expressed as follows.
(Xc, yc) = (x0, y0) + (xc1, yc1) (b)
(4) Since the coordinates (xc, yc) of the point Ac are obtained, (xc1, yc1) is obtained from the equation (b), and the coordinates (xp, yp) of the point Ap are obtained from the equation (a). Can do.
(5) The pixel value of the coordinates Ap (xp, yp) is set as the pixel value of the point A (xp ′, yp ′) of the corrected image. Note that the coordinates of the point Ap corresponding to the point A are not necessarily integers. In this case, the coordinates are obtained by interpolation from the pixel values of the pixels around the point Ap.
以上の処理を投影領域の全ての点について行い対応関係をテーブルなどにまとめておく。これが歪み補正パラメータとなる。画像変形部26は、補正画像43の各画素の画素値をテーブル(歪み補正パラメータ)の対応関係に従って、プロジェクター画像41の対応する画素から取得し補正画像43を作成する。
The above processing is performed for all the points in the projection area, and the correspondence is summarized in a table or the like. This is a distortion correction parameter. The
なお、補正情報の算出については、「投影画像の幾何補正に関する実験的検討」、計測自動制御学会東北支部第235回研究集会(2007.5.18)に記載がある。 The calculation of correction information is described in “Experimental study on geometric correction of projected image”, Society of Instrument and Control Engineers Tohoku Branch 235th Research Meeting (2007.5.18).
<<エッジブレンディング>>
また、歪み補正パラメータ算出部25は、プロジェクター画像41に対しエッジブレンディングを行う。エッジブレンディングとは、映像信号にデジタル的にグラディエーションをかけ、相互に重なるオーバーラップ領域を均一の輝度する技術である。
<< Edge Blending >>
Further, the distortion correction
図22はエッジブレンディングを模式的に説明する図の一例である。プロジェクター画像41の重複領域37は予め定められている。歪み補正パラメータ算出部25は、二次元画像から重複領域37の輝度を算出する。重複領域37が他の領域よりも輝度が高い場合、プロジェクター画像41の重複領域37の画素値を、他の領域の画素値と均一の輝度になるように補正する。
FIG. 22 is an example of a diagram for schematically explaining edge blending. The overlapping
<適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Application example>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.
<<円筒形状物の表面情報の取得>>
本実施形態のステップS70では歪み補正用パターン32の特徴点の三次元座標を円筒型の表面の二次元の投影対象表面座標に変換した。また、位置合わせで説明したように本実施形態では特徴点だけでなく、ポイントクラウド33を位置合わせすることができる。したがって、円筒型の投影対象11の十分に密な画像データを取得して位置合わせすることができる。
<< Acquisition of surface information of cylindrical object >>
In step S70 of the present embodiment, the three-dimensional coordinates of the feature points of the
図23は、円筒型の投影対象11が有する表面情報の取得を模式的に示す図の一例である。例えば缶のラベルの意匠の全体を撮像したい場合があるが、缶は円筒形であるため、全体の意匠を撮像するためには何回かに分けて撮像する必要がある。従来は、複数の画像を手作業で位置合わせして缶の全体の意匠を取得するなど作業が容易でなかった。
FIG. 23 is an example of a diagram schematically illustrating acquisition of surface information included in the
これに対し、本実施形態では、缶を多方向から撮像することで表面の意匠だけでなく、三次元座標が得られ、画像データの各画素を二次元の投影対象表面座標に変換できる。円筒表面の二次元画像はxy平面に展開できる。したがって、缶などの表面を展開した状態の画像データ(展開図)を、撮像場所を変えて撮像するだけで生成することができる。 On the other hand, in this embodiment, not only the surface design but also three-dimensional coordinates can be obtained by imaging the can from multiple directions, and each pixel of the image data can be converted into two-dimensional projection target surface coordinates. A two-dimensional image of the cylindrical surface can be developed in the xy plane. Therefore, image data (development drawing) in a state where the surface of a can or the like is developed can be generated simply by imaging at a different imaging location.
また、缶のラベルに限られず、円筒状などの立体物をカメラの場所を変えて撮像した場合、展開した状態の画像データを容易に得られるので、構造物の表面の分析などに利用することができる。 In addition, not only for can labels, but when a three-dimensional object such as a cylinder is imaged by changing the location of the camera, the image data in the expanded state can be easily obtained, so it can be used for analysis of the surface of the structure. Can do.
<<円筒以外の形状モデルについて>>
本実施形態では、円筒の形状モデル35を例にして説明したが、円筒以外の角柱、角錐、円錐など展開が可能な形状モデル35に近似可能な投影対象11に対して広く適用可能である。また、フィテッィングのためにはモデルで定義できる(数式で定義できる)形状であることが好ましい。
<< About shape models other than cylinders >>
In the present embodiment, the
図24(a)は三角柱と展開図の一例を示す。角柱の場合、投影面は平坦になるので、平面にフィッティングすればよい。また、フィッティングにより二次元の投影対象表面座標系に変換されれば、図示するように展開することができる。 FIG. 24A shows an example of a triangular prism and a development view. In the case of a prism, the projection surface is flat, and it is only necessary to fit a flat surface. Moreover, if it is converted into a two-dimensional projection target surface coordinate system by fitting, it can be developed as shown.
図24(b)は円錐と展開図の一例を示す。円錐の場合、円錐の軸方向の高さに応じて半径rが決まる。この高さと半径の関係を予め与えるなどして円錐の形状モデル35にフィッティングすることで、投影画像の三次元座標を二次元の投影対象表面座標系に変換できる。したがって、図示するように展開できる。
FIG. 24B shows an example of a cone and a development view. In the case of a cone, the radius r is determined according to the axial height of the cone. By fitting the
図24(c)は球と展開図の一例を示す。球の場合、円筒と同様に三次元の形状モデル35へのフィティングが可能である。球の展開方法は、図示するように上部と下部が徐々に細くなる複数の短冊状に展開する方法が知られている。また、球を歪みなく二次元に展開することは困難なので、球の赤道付近だけを展開してもよいし、画像が投影されている範囲だけを展開してもよい。
FIG. 24C shows an example of a sphere and a development view. In the case of a sphere, fitting to a three-
11 投影対象
12 カメラ
13 プロジェクター
21 投影画像三次元情報取得部
22 位置合わせ部
23 モデル算出部
24 座標変換部
25 歪み補正パラメータ算出部
26 画像変形部
27 画像データ記憶部
28 歪み補正パラメータ記憶部
29 変換情報作成部
50 情報処理装置
200 画像処理システム
DESCRIPTION OF
Claims (10)
複数の異なる場所から取得された、前記投影面に投影された投影画像の三次元情報を取得する三次元情報取得手段と、
三次元情報に形状モデルを当てはめて、前記投影面の形状モデルを決定する形状モデル決定手段と、
三次元情報を前記形状モデルの表面の二次元座標に変換すると共に、三次元情報を前記形状モデルの表面に射影する座標変換手段と、
前記二次元座標に変換された前記投影画像と、前記投影画像として投影された元画像とを比較して歪み補正パラメータを作成する歪み補正パラメータ作成手段と、を有し、
前記座標変換手段は、三次元情報を前記形状モデルの表面の二次元座標に変換する際、三次元情報を前記三次元情報取得手段との距離方向に移動して射影する、
ことを特徴とする画像処理システム。 An image processing system for reducing distortion on a projection surface of a projected image,
Three-dimensional information acquisition means for acquiring three-dimensional information of a projection image obtained from a plurality of different locations and projected on the projection plane;
Applying a shape model to the three-dimensional information to determine a shape model of the projection plane;
Coordinate conversion means for projecting the three-dimensional information onto the surface of the shape model, while converting the three-dimensional information into the two-dimensional coordinates of the surface of the shape model,
A distortion correction parameter creating means for creating a distortion correction parameter by comparing the projection image converted into the two-dimensional coordinates and the original image projected as the projection image;
When the coordinate conversion means converts the three-dimensional information into the two-dimensional coordinates of the surface of the shape model, the three-dimensional information is moved and projected in the distance direction from the three-dimensional information acquisition means,
An image processing system characterized by that.
ことを特徴とする請求項1記載の画像処理システム。 The coordinate conversion means projects the three-dimensional information to the closest position on the surface of the shape model when converting the three-dimensional information into the two-dimensional coordinates of the surface of the shape model.
The image processing system according to claim 1.
前記変換情報を用いて、三次元情報のそれぞれを共通の座標系に変換する三次元情報変換手段を有し、
前記形状モデル決定手段は、共通の座標系の三次元情報に形状モデルを当てはめて、前記投影面の形状モデルを決定する、
ことを特徴とする請求項1又は2に記載の画像処理システム。 Compared with the three-dimensional information of the projected image captured redundantly from different locations, conversion information creation means for creating conversion information of the coordinates of the three-dimensional information,
Using the conversion information, and having three-dimensional information conversion means for converting each of the three-dimensional information into a common coordinate system,
The shape model determining means applies a shape model to the three-dimensional information of a common coordinate system, and determines the shape model of the projection plane.
The image processing system according to claim 1, wherein the image processing system is an image processing system.
前記変換情報作成手段は、異なる前記場所から重複して撮像された前記位置合わせ用パターン画像の三次元情報を比較して、2つの前記場所の三次元情報を共通の座標系で表す変換情報を決定し、
前記三次元情報変換手段は、複数の前記場所で取得された、前記投影面に投影された任意の投影画像の三次元情報を、前記変換情報を用いて共通の座標系に変換する、ことを特徴とする請求項3に記載の画像処理システム。 The three-dimensional information acquisition means acquires three-dimensional information of a pattern image for alignment as a projection image projected on the projection plane,
The conversion information creation means compares the three-dimensional information of the alignment pattern images that are imaged twice from different locations , and converts the three-dimensional information of the two locations in a common coordinate system. Decide
The three-dimensional information conversion means converts the three-dimensional information of an arbitrary projection image projected on the projection plane, acquired at a plurality of the locations, into a common coordinate system using the conversion information. The image processing system according to claim 3, wherein:
前記第n+1の前記場所が前記場所の数Nと一致するまで、前記変換情報を決定することを繰り返し、
前記三次元情報変換手段は、前記第n+1の場所用の変換情報を用いて、Nと等しい前記第n+1番目の前記場所の三次元情報を第n番目の前記場所の三次元情報の座標系に変換する処理を、2番目の前記場所の三次元情報を1番目の前記場所の三次元情報の座標系に変換するまで繰り返す、ことを特徴とする請求項4に記載の画像処理システム。 The conversion information creating means includes the three-dimensional information of the projection image captured from the nth location and the three-dimensional information of the projection image captured redundantly from the (n + 1) th location adjacent to the nth location. And the conversion information for the (n + 1) th place for converting the three-dimensional information of the projection image at the (n + 1) th place into a common coordinate system with the three-dimensional information of the projection image at the nth place. Decide
Repetitively determining the conversion information until the n + 1th location matches the number N of locations,
The three-dimensional information conversion means uses the conversion information for the (n + 1) th place to convert the three-dimensional information of the (n + 1) th place equal to N into the coordinate system of the three-dimensional information of the nth place. the image processing system according to the process of converting is repeated until the conversion of the three-dimensional information of the second of said locations in the first coordinate system of the three-dimensional information of the location, it in請Motomeko 4, wherein.
前記三次元情報変換手段は、第n+1の場所用の変換情報を用いて、n+1番目の前記場所の前記歪み補正用パターン画像の三次元情報をn番目の前記場所の三次元情報の座標系に変換する処理を、2番目の前記場所の三次元情報を1番目の前記場所の三次元情報の座標系に変換するまで繰り返す、ことを特徴とする請求項5に記載の画像処理システム。 The three-dimensional information acquisition means acquires three-dimensional information of a distortion correction pattern image as the projection image projected on the projection plane from the N locations.
The three-dimensional information conversion means uses the conversion information for the (n + 1) th place to convert the three-dimensional information of the pattern image for distortion correction at the (n + 1) th place into the coordinate system of the three-dimensional information at the nth place. 6. The image processing system according to claim 5, wherein the conversion processing is repeated until the second three-dimensional information of the place is converted into the coordinate system of the first three-dimensional information of the place.
前記歪み補正パラメータ作成手段は、前記二次元座標に変換されたN個の歪み補正用パターン画像と、前記投影画像として投影されたN個分の元の歪み補正用パターン画像とを比較して歪み補正パラメータを作成する、
ことを特徴とする請求項6に記載の画像処理システム。 The coordinate conversion means converts the three-dimensional information of the N distortion correction pattern images represented in the common coordinate system into the two-dimensional coordinates,
The distortion correction parameter creating means compares the N distortion correction pattern images converted into the two-dimensional coordinates with the N original distortion correction pattern images projected as the projection image to generate distortion. Create correction parameters,
The image processing system according to請Motomeko 6, characterized in that.
複数の異なる場所から取得された、前記投影面に投影された投影画像の三次元情報を取得する三次元情報取得手段と、
三次元情報に形状モデルを当てはめて、前記投影面の形状モデルを決定する形状モデル決定手段と、
三次元情報を前記形状モデルの表面の二次元座標に変換すると共に、三次元情報を前記形状モデルの表面に射影する座標変換手段と、
前記二次元座標に変換された前記投影画像と、前記投影画像として投影された元画像とを比較して歪み補正パラメータを作成する歪み補正パラメータ作成手段と、を有し、
前記座標変換手段は、三次元情報を前記形状モデルの表面の二次元座標に変換する際、三次元情報を前記三次元情報取得手段との距離方向に移動して射影する、ことを特徴とする画像処理装置。 An image processing apparatus that reduces distortion on a projection surface of an image to be projected,
Three-dimensional information acquisition means for acquiring three-dimensional information of a projection image obtained from a plurality of different locations and projected on the projection plane;
Applying a shape model to the three-dimensional information to determine a shape model of the projection plane;
Coordinate conversion means for projecting the three-dimensional information onto the surface of the shape model, while converting the three-dimensional information into the two-dimensional coordinates of the surface of the shape model,
A distortion correction parameter creating means for creating a distortion correction parameter by comparing the projection image converted into the two-dimensional coordinates and the original image projected as the projection image ;
The coordinate conversion means, when converting the three-dimensional information into the two-dimensional coordinates of the surface of the shape model, moves and projects the three-dimensional information in the distance direction from the three-dimensional information acquisition means. Image processing device.
複数の異なる場所から投影面に投影された投影画像の三次元情報を三次元情報取得手段により取得する三次元情報取得ステップと、
三次元情報に形状モデルを当てはめて、前記投影面の形状モデルを決定する形状モデル決定ステップと、
三次元情報を前記形状モデルの表面の二次元座標に変換すると共に、三次元情報を前記形状モデルの表面に射影する座標変換ステップと、
前記二次元座標に変換された前記投影画像と、前記投影画像として投影された元画像とを比較して歪み補正パラメータを作成する歪み補正パラメータ作成ステップと、を実行させるプログラムであって、
前記座標変換ステップは、三次元情報を前記形状モデルの表面の二次元座標に変換する際、三次元情報を前記三次元情報取得手段との距離方向に移動して射影する、ことを特徴とするプログラム。 On the computer,
A three-dimensional information acquisition step of acquiring three- dimensional information of a projection image projected on a projection plane from a plurality of different locations by a three-dimensional information acquisition unit ;
Applying a shape model to the three-dimensional information and determining a shape model of the projection plane; and
A coordinate conversion step of projecting the three-dimensional information onto the surface of the shape model, and converting the three-dimensional information into the two-dimensional coordinates of the surface of the shape model;
A program for executing a distortion correction parameter creating step of creating a distortion correction parameter by comparing the projection image converted into the two-dimensional coordinates and the original image projected as the projection image,
In the coordinate conversion step, when converting three-dimensional information into two-dimensional coordinates on the surface of the shape model, the three-dimensional information is moved and projected in a distance direction from the three-dimensional information acquisition means. program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014102094A JP6344050B2 (en) | 2014-05-16 | 2014-05-16 | Image processing system, image processing apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014102094A JP6344050B2 (en) | 2014-05-16 | 2014-05-16 | Image processing system, image processing apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015219679A JP2015219679A (en) | 2015-12-07 |
JP6344050B2 true JP6344050B2 (en) | 2018-06-20 |
Family
ID=54779002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014102094A Active JP6344050B2 (en) | 2014-05-16 | 2014-05-16 | Image processing system, image processing apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6344050B2 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6835536B2 (en) * | 2016-03-09 | 2021-02-24 | 株式会社リコー | Image processing method, display device and inspection system |
JP6590153B2 (en) * | 2016-03-23 | 2019-10-16 | パナソニックIpマネジメント株式会社 | Projection instruction apparatus, package sorting system, and projection instruction method |
JP6790766B2 (en) * | 2016-11-30 | 2020-11-25 | 株式会社リコー | Projection system, image processing equipment and programs |
TWI651687B (en) * | 2017-11-24 | 2019-02-21 | 財團法人工業技術研究院 | Three-dimensional model construction method and system thereof |
WO2019155727A1 (en) * | 2018-02-08 | 2019-08-15 | 三菱電機株式会社 | Information processing device, tracking method, and tracking program |
CN109064563A (en) * | 2018-08-22 | 2018-12-21 | 重庆环漫科技有限公司 | The method of real-time control model vertices in a kind of Fusion Edges program of 3D exploitation |
CN109166175A (en) * | 2018-08-22 | 2019-01-08 | 重庆环漫科技有限公司 | The method at control point is evenly distributed in a kind of Fusion Edges program of 3D exploitation |
CN109658497B (en) * | 2018-11-08 | 2023-04-14 | 北方工业大学 | Three-dimensional model reconstruction method and device |
JP7467947B2 (en) | 2020-01-31 | 2024-04-16 | セイコーエプソン株式会社 | METHOD FOR CONTROLLING IMAGE PROJECTION SYSTEM AND IMAGE PROJECTION SYSTEM |
CN111462018B (en) * | 2020-04-14 | 2024-06-28 | 联影智能医疗科技(北京)有限公司 | Image alignment method in image, computer equipment and storage medium |
CN111798402B (en) * | 2020-06-09 | 2024-02-27 | 同济大学 | Power equipment temperature measurement data visualization method and system based on three-dimensional point cloud model |
JP7163943B2 (en) | 2020-09-10 | 2022-11-01 | セイコーエプソン株式会社 | INFORMATION GENERATION METHOD, INFORMATION GENERATION SYSTEM AND PROGRAM |
CN112269177B (en) * | 2020-10-14 | 2024-02-06 | 中国人民解放军63921部队 | ISAR three-dimensional imaging method based on multi-circle orbit observation |
CN113983951B (en) * | 2021-09-10 | 2024-03-29 | 深圳市辰卓科技有限公司 | Three-dimensional target measuring method, device, imager and storage medium |
CN115086625B (en) * | 2022-05-12 | 2024-03-15 | 峰米(重庆)创新科技有限公司 | Correction method, device and system for projection picture, correction equipment and projection equipment |
CN115077425B (en) * | 2022-08-22 | 2022-11-11 | 深圳市超准视觉科技有限公司 | Product detection equipment and method based on structured light three-dimensional vision |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003270719A (en) * | 2002-03-13 | 2003-09-25 | Osaka Industrial Promotion Organization | Projection method, projector, and method and system for supporting work |
JP5624383B2 (en) * | 2010-06-25 | 2014-11-12 | パナソニック株式会社 | Video signal processing device, virtual reality generation system |
JP5987584B2 (en) * | 2012-09-18 | 2016-09-07 | 株式会社リコー | Image processing apparatus, video projection system, and program |
-
2014
- 2014-05-16 JP JP2014102094A patent/JP6344050B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015219679A (en) | 2015-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6344050B2 (en) | Image processing system, image processing apparatus, and program | |
JP2015233266A (en) | Image processing system, information processing device, and program | |
JP7294396B2 (en) | Image processing device, image processing method, and program | |
CN105026997B (en) | Optical projection system, semiconductor integrated circuit and image correcting method | |
CN109801374B (en) | Method, medium, and system for reconstructing three-dimensional model through multi-angle image set | |
US7522163B2 (en) | Method and apparatus for determining offsets of a part from a digital image | |
TWI486551B (en) | Method and system for three-dimensional data acquisition | |
TWI387936B (en) | A video conversion device, a recorded recording medium, a semiconductor integrated circuit, a fish-eye monitoring system, and an image conversion method | |
JP4508049B2 (en) | 360 ° image capturing device | |
US11290704B2 (en) | Three dimensional scanning system and framework | |
US20140015924A1 (en) | Rapid 3D Modeling | |
JP6067175B2 (en) | Position measuring apparatus and position measuring method | |
US20130259403A1 (en) | Flexible easy-to-use system and method of automatically inserting a photorealistic view of a two or three dimensional object into an image using a cd,dvd or blu-ray disc | |
KR20160116075A (en) | Image processing apparatus having a function for automatically correcting image acquired from the camera and method therefor | |
JP2013539147A5 (en) | ||
JP6541920B1 (en) | INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD | |
US10169891B2 (en) | Producing three-dimensional representation based on images of a person | |
JP2010287174A (en) | Furniture simulation method, device, program, recording medium | |
JP2016100698A (en) | Calibration device, calibration method, and program | |
JP2011155412A (en) | Projection system and distortion correction method in the same | |
WO2010013289A1 (en) | Camera calibration image creation apparatus and camera calibration image creation program | |
Kumara et al. | Real-time 3D human objects rendering based on multiple camera details | |
JP6099281B2 (en) | Book reading system and book reading method | |
JP2013231607A (en) | Calibration tool display device, calibration tool display method, calibration device, calibration method, calibration system and program | |
JP4548228B2 (en) | Image data creation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180424 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180507 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6344050 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |