JP2017085297A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2017085297A JP2017085297A JP2015210251A JP2015210251A JP2017085297A JP 2017085297 A JP2017085297 A JP 2017085297A JP 2015210251 A JP2015210251 A JP 2015210251A JP 2015210251 A JP2015210251 A JP 2015210251A JP 2017085297 A JP2017085297 A JP 2017085297A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- reliability
- subject
- positional relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は複数の画像を合成して広視野角(パノラマ)画像を生成する処理に関する。 The present invention relates to a process for generating a wide viewing angle (panoramic) image by combining a plurality of images.
複数の画像をつなげるように合成することにより得られる、広視野角を収めたパノラマ画像が知られている。特許文献1には、撮影位置が異なる同一被写体を写した複数の画像を合成するために、位置合わせをする方法が記載されている。位置合わせを行う際、各画像の撮影起点の近隣に位置するランドマークを特定し、ランドマークを基準にして位置合わせを行っている。 A panoramic image with a wide viewing angle obtained by combining a plurality of images is known. Japanese Patent Application Laid-Open No. 2004-151858 describes a method of aligning a plurality of images obtained by photographing the same subject at different photographing positions. When performing alignment, a landmark located in the vicinity of the shooting start point of each image is specified, and alignment is performed based on the landmark.
一般に、複数の画像間において、同一被写体の対応点を探索する。しかしながら各撮影装置が撮影する方向が大きく異なっている場合や、被写体が複雑な形状である場合には、適切に対応点を検出できないことがある。誤った対応点に基づいて画像の位置関係を取得すると、パノラマ画像において画像の繋ぎ目が目立ってしまう。 Generally, a corresponding point of the same subject is searched between a plurality of images. However, when the shooting directions of the respective shooting apparatuses are greatly different, or when the subject has a complicated shape, the corresponding points may not be detected appropriately. When the positional relationship of images is acquired based on an incorrect corresponding point, the joints of the images become conspicuous in the panoramic image.
そこで本発明は、同一被写体を含む複数の画像を接合してパノラマ画像を生成するために、各画像をより適切な位置合わせすることを目的とする。 Accordingly, an object of the present invention is to more appropriately align each image in order to generate a panoramic image by joining a plurality of images including the same subject.
上記課題を解決するため、本発明は、互いに異なる方向を向き、かつ一部重複するように撮像して得られた少なくとも2つの画像を取得する画像取得手段と、前記取得手段が取得した各画像において、同一の被写体に対応する画像間の対応点を探索する探索手段と、前記対応点に基づいて、前記取得手段が取得した各画像の位置関係を決定する位置決定手段と、前記位置決定手段により決定された前記画像それぞれの位置関係に基づいて、前記少なくとも2つの画像を接合することで、パノラマ画像を生成する合成手段と、有し、前記位置決定手段は、前記2つの画像に撮像された被写体の見えの角度依存性に基づいて、前記探索手段が検出した対応点の信頼度を設定し、各対応点の信頼度を参照して前記画像それぞれの位置関係を決定することを特徴とする。 In order to solve the above-described problems, the present invention provides an image acquisition unit that acquires at least two images obtained by imaging in different directions and partially overlapping each other, and each image acquired by the acquisition unit A search means for searching for corresponding points between images corresponding to the same subject, a position determining means for determining a positional relationship between the images acquired by the acquiring means based on the corresponding points, and the position determining means And combining means for generating a panoramic image by joining the at least two images based on the positional relationship between the images determined by step (a), and the position determination means is captured by the two images. The reliability of the corresponding point detected by the search means is set based on the angle dependency of the appearance of the subject, and the positional relationship between the images is determined with reference to the reliability of each corresponding point. And wherein the door.
本発明によれば、同一被写体を含む複数の画像を接合してパノラマ画像を生成するために、各画像をより適切な位置合わせすることができる。 According to the present invention, since a plurality of images including the same subject are joined to generate a panoramic image, each image can be more appropriately aligned.
以下、添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings. Note that the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
<第1実施形態>
第1実施形態では、2つの撮像装置(カメラ)により撮像して得られる画像を繋ぐ合成により、パノラマ画像を生成する。図1は、第1実施形態に適用可能なパノラマ画像を生成する画像処理システムを示す。画像処理装置100については、ハードウェア構成を示している。画像処理装置100は、例えばパーソナルコンピュータ(PC)や、タブレット端末などにより実現される。なお本実施形態における画像処理装置100は、撮像装置110とI/Fを介して接続された装置を例に説明するが、撮像装置(カメラ)に内蔵された、画像処理チップとして実現することもできる。
<First Embodiment>
In the first embodiment, a panoramic image is generated by combining images obtained by imaging with two imaging devices (cameras). FIG. 1 shows an image processing system that generates a panoramic image applicable to the first embodiment. The
CPU101は、画像処理装置100内の各部を統括的に制御するプロセッサである。RAM102は、CPU101の主メモリ、ワークエリア等として機能する。ROM103は、CPU101によって実行されるプログラム群を格納している。HDD104は、CPU101によって実行されるアプリケーションや、画像処理に用いられるデータ等を記憶する。出力I/F105は、例えばDVIやHDMI(登録商標)等の画像出力インタフェースであり、液晶ディスプレイなどの出力装置106を接続する。入力I/F107は、例えばUSBやIEEE1394等のシリアルバスインタフェースであり、ユーザが各種の指示操作を行うためのキーボードやマウスなどの入力装置108を接続する。撮像I/F109は、例えば、3G/HD−SDIやHDMI(登録商標)等の画像入力インタフェースであり、撮像装置(カメラ)110を接続する。汎用I/F111も入力I/F同様USBやIEEE1394等のシリアルバスインタフェースであり、撮像装置と同じシーンに対して撮影位置からの距離を測定することのできる距離計測装置112を接続する。距離計測装置112は公知なものを任意に用いることができる。例えば赤外線パターンのパルスを投光し、物体に投影されたパターンを認識して距離を推定する装置などが知られている。ただし距離計測装置112は撮像装置110と一体であってもよい。また必要に応じて汎用I/F111を介し、外部記憶113を接続する。
The
図2は、第1実施形態における画像処理装置100の機能構成を示すブロック図である。CPU101は、ROM103又はHDD104に格納されたプログラムを読み出してRAM102をワークエリアとして実行することで、図2に示す各機能ブロックとしての役割を果たす。なお、全ての機能ブロックの役割をCPU101が果たす必要はなく、各機能ブロックに対応する専用の処理回路を設けるようにしてもよい。画像処理装置100は、画像入力部202、距離情報取得部203、画像補正部204、位置決定部205、繋ぎ目決定部206、画像合成部207、画像出力部208と、入力端子201、出力端子209を有する。
FIG. 2 is a block diagram illustrating a functional configuration of the
画像取得部202は、パノラマ画像を生成するための複数の画像を取得する。ここで取得する複数の画像は、少なくとも2つの画像において一部重複した撮影領域を有するように撮影して得られた画像である。距離情報取得部203は、画像入力部202が取得した複数の画像に対応する距離情報(デプスマップ)を取得する。距離情報とは、各画素に撮影位置からの距離を示す情報が格納されたデータである。画像を構成する各画素と、同じ位置にある距離情報における各画素は対応している。従って、画像に撮像された各被写体について、視点(撮像装置の位置)からの距離がわかる。
The
画像補正部204は、各画像データに対して各種の画像処理を施す。ここでは、レンズによる光学歪みを補正する補正処理をする。画像補正部204は、撮像時に使用されたレンズの特性に基づいて画素を再配置する。
The
位置決定部205は、パノラマ合成に用いる各画像の位置関係を決定する。本実施形態ではまず、2つの画像の互いに重複する領域における対応点を探索する。探索の結果検出された対応点を用いて、各カメラの位置姿勢を決定した後、さらに各画像の位置関係を決定する。繋ぎ目決定部206は、位置決定部205によって決定された各画像の位置関係を参照し、2つの画像を接合するための繋ぎ目の位置を決定する。
The
画像合成部207は、繋ぎ目決定部206が決定した繋ぎ目を参照して、2つの画像を接合し、接合した境界が自然になるよう境界付近に境界処理を施し、パノラマ画像を合成する。パノラマ画像は、各画像よりも大きく、より広い視野を撮像して得られたかのような画像である。なお、パノラマ画像を生成するための画像をつなぐ合成処理は、スティッチ処理とも言う。画像出力部208は、画像合成部207から得られるパノラマ画像を出力する。
The
図3は、第1実施形態における画像処理装置100が実行する処理の流れを示すフローチャートである。CPU101は、以下のフローチャートに沿ったプログラムを読み込み、実行させる。ここでは図4に示す画像データ401および402から、パノラマ画像403を生成する場合を例に説明する。
FIG. 3 is a flowchart showing a flow of processing executed by the
ステップS301において、画像入力部202は入力端子201から入力された複数の入力画像を取得する。ここでは画像401および402を取得する。ステップS302において距離情報取得部203は、各入力画像それぞれに対応する距離情報を取得する。距離情報取得部203は、入力画像における各画素と、対応する距離情報における各画素を結びつけて、入力画像における各画素の距離を参照できるようにする。具体的には、入力画像における各画素の画素位置を示す位置情報を、距離情報における各画素に対応づけておく。
In step S <b> 301, the
ステップS303において画像補正部204は、各入力画像に対してレンズによる光学歪みの影響を補正するための補正処理を実行する。撮像装置110から取得した撮像時に使用されたレンズの特性に応じて、各画素を再配置する。再配置をしない画素については、位置情報を変更しない。再配置をする画素については、位置情報を更新する。このとき、ステップS302において距離情報取得部203により各画素の位置情報と対応付けられた距離情報も、同時に再配置されることになり、対応関係は失われない。
In step S303, the
ステップS304において位置決定部205は、各画像の位置関係を決定し、位置合わせをする。パノラマ画像において隣接して接合される少なくとも2つの画像の一部は、同じシーンを重複して撮影した重複領域がある。図7は、2つの画像の重複領域を示す図である。画像401における領域703と、画像402における領域704は、同じシーンをそれぞれが撮像した領域である。ここで各画像の重複領域において、同じ被写体の同じ位置を表している画素を探索して対応づけることにより、位置合わせをする。ステップS304における処理の詳細は、後に詳述する。
In step S304, the
ステップS305において繋ぎ目決定部206は、パノラマ画像における各画像の繋ぎ目の位置を決定する。ここで繋ぎ目とは、複数の画像データがして撮影した領域について、いずれの画像を用いるかを定める境界である。本実施形態において繋ぎ目決定部206は、画素値の差分をエネルギーコストとしたグラフカットの手法を用いて繋ぎ目位置を決定する。この手法では、画素をノード、隣接画素間をエッジと考え、画素値に応じて各エッジに定められるエネルギーコストに対する最小カットを繋ぎ目として採用する。隣接する画素v,u間のエッジに対するエネルギーコストE(v,u)は式(1)(2)のように定める。
In step S305, the
ここでI_1(v)は重複画像1の画素vにおける画素値(R,G,B)を表し、norm2L(x)はベクトルxに対する2−ノルム(ユークリッドノルム)を表す。また、grad(v,u)は画素v,u間の画素値の勾配を表す。より具体的には、Sobel_1_u−v()は重複画像1に対するu−v方向へのSobelフィルタ処理を表す。式式(1)は、重複画像それぞれにおいてu−v方向の1次のSobelフィルタを施した後の、画素vまたはuにおける画素値のL2ノルムの和を表す。全体としてE(v,u)は、各重複画像で画素値が近い値であれば小さく、隣接画素で画素値が近い値であれば大きくなる性質を持つエネルギーコストになる。このようなエネルギーコストのエッジの最小カットを求める。結果、重複画像においてずれが小さい部分、画像のエッジ部分が選ばれやすくなるように繋ぎ目が求められる。
Here, I_1 (v) represents the pixel value (R, G, B) at the pixel v of the overlapping image 1, and norm2L (x) represents the 2-norm (Euclidean norm) for the vector x. Further, grad (v, u) represents the gradient of the pixel value between the pixels v and u. More specifically, Sobel_1_uv () represents Sobel filter processing in the uv direction for the duplicate image 1. Expression (1) represents the sum of the L2 norms of the pixel value in the pixel v or u after the first-order Sobel filter in the uv direction is applied to each overlapping image. As a whole, E (v, u) has an energy cost that has a property that it is small if the pixel value is close in each overlapping image, and is large if the pixel value is close in adjacent pixels. The minimum cut of the energy cost edge is obtained. As a result, a joint is required so that a portion with a small deviation and an edge portion of the image can be easily selected in the overlapped image.
ステップS306において画像合成部207は、ステップS305において決定された繋ぎ目の位置に基づいて複数の画像を合成し、1枚のパノラマ画像を作成する。まず画像合成部207は、パノラマ画像における繋ぎ目の位置を参照して、パノラマ画像における各画素の画素値として、各画像における画素の画素値を取得する。つまりパノラマ画像における各画素の画素値は、入力された複数の画像うち、いずれかの画像を構成する画素の画素値である。さらに、パノラマ画像において繋ぎ目が知覚されるのを抑制するために、境界付近の領域に対して境界処理を行う。境界処理の具体的な方法としては、繋ぎ目近傍でオーバーラップした画像同士を混合するアルファ・ブレンディングなどが挙げられる。ステップS307において画像出力部208は、ステップS306において得られたパノラマ画像を、HDD104や出力装置106、外部記憶113などに出力する。以上により、パノラマ画像の合成処理は完了する。
In step S306, the
次に、位置決定部205が実行するステップS304における処理の詳細について説明する。本実施形態における位置決定部205は、パノラマ画像を生成するための複数の画像における領域毎に、対応点を探索するに適切な領域であるか否かを判定する。図6は、図4に示す画像401および402を撮影したときのカメラの配置及びシーンの状況を示している。2台のカメラ601、602によって、それぞれが看板603と樹木604を含むシーンを撮像している。カメラ601により画像401が、カメラ602により画像602が取得される。いずれの画像にも、看板603と樹木604が存在している。位置決定部205は、画像401における重複領域703の特徴点と画像402における重複領域704の特徴点から、対応点を探索する。
Next, details of the processing in step S304 executed by the
被写体を見る方向(角度)が変わると、看板603も樹木604も見え方は変わる。ただし、見る方向に応じた見え方の変化は、看板603と樹木604とでは異なる。看板603については、見る方向が変わった場合においても、看板603に描かれた模様などの特徴点の見えは大きく変化しない。従って、画像401における看板603の特徴点と、画像402における看板603の特徴点とは、対応づけやすい。他方、樹木604は、見る方向が異なる画像401と画像402とでは、枝葉の重なり方や光の差し方が大きく変わって見える。このように見る方向によって大きく見え方が変化する被写体では、見る方向によって見え方が大きく変化しない被写体に比べ、対応点を誤検出しやすくなると考えられる。なぜならば、見る方向によって大きく見えが変化する被写体では、実空間上の一点が、見る方向の異なる2枚の画像においては、必ずしも同じようには見えていないためである。特に、図6に示すように各カメラの見る方向(撮影方向)が大きく異なる場合、見る方向によって特徴点の見え方が異なる被写体に基づいて対応点を検出すると、誤検出しやすい。例えば図6に示すように、2つのカメラ光軸の成す角θが30度〜150度などの場合、特に対応点を見つけにくい。これらのことから、見る方向によって大きく見えが変化する被写体上の対応点よりも、そうでない被写体上での対応点の方が、信頼度が高いと言える。
When the direction (angle) at which the subject is viewed changes, the way the
そこで位置決定部205は、各画像における領域毎に、検出した対応点の信頼度を設定する。信頼度は、領域ごとに被写体が、見る方向によって見え方が大きく変化するか否かに応じて設定され、各領域に対応点がある場合、その対応点の信頼度を示すものである。位置決定部206は、距離情報に基づいて、被写体が見る方向によって見えが大きく変化する変化するか否かを判断する。見る方向によって見えが大きく変化する被写体とは、距離情報の変化が激しく、複雑に入り組んだ被写体であると考える。樹木604はこの例である。一方、見る方向が変わっても見えが大きく変化しない被写体とは、距離情報に大きな変化がなく、比較的なだらかに値が変化する。つまり、平面状であり、カメラに対して奥行き方向に距離が変化するが、その変化の勾配は一定となる被写体である。看板603はこの例である。このような被写体は見る角度が変わっても見えが大きく変化しないと考えられる。
Therefore, the
本実施形態において位置決定部205は、対応点を用いてカメラの位置姿勢を決定し、各カメラに対応する画像の位置関係を決定する。信頼度が大きい領域における対応点の情報を、そうでない対応点よりも重点的あるいは優先的に参照して、カメラの位置姿勢を決定する。
In the present embodiment, the
図5は、ステップS304における処理の詳細なフローチャートである。ステップS501において位置決定部205は、画像補正部204により補正された画像データそれぞれについて、特徴点を抽出する。この特徴点抽出はSURF(Speed−Upped Robust Feature)やOrb(Oriented−BRIEF)等の公知の技術を用いることができる。ここでは、画像401における特徴点と画像402における特徴点を複数抽出できたものとする。
FIG. 5 is a detailed flowchart of the process in step S304. In step S <b> 501, the
ステップS502において位置決定部205は、各画像における特徴点それぞれについて、複数の画像間で対応付けられる特徴点を探索する。対応づけられた特徴点は、対応点として検出される。このような対応点探索は、複数の画像データのいて同一被写体の同一点が写っていないかを調べることに相当する。ステップS503において位置決定部205は、各画像および距離情報を所定の領域ごとに分割する。ここでは、画像を32画素×32画素の領域に分割する。ただしここで分割する領域は、32画素×32画素に限らない。解像度や画角、画像処理装置の処理能力に応じて設定すればよい。さらに位置決定部205は、距離情報における領域ごとに、周波数解析(フーリエ変換)を行う。フーリエ変換して得られた係数のパワーを求めることで、領域内の2次元周波数のパワースペクトルP(fx、fy)を算出する。
In step S <b> 502, the
次にステップS504〜S510のループ1に入る。各領域において、ステップS503における周波数解析の結果に基づいて、画像の各領域に対して信頼度を設定する。距離情報が高周波成分を持つ領域には、対応点を誤検出しやすい領域とみなし、低い信頼度を与える。距離情報が低周波成分のみから成る領域は、適切に対応点を検出できる領域とみなし、高い信頼度を与える。これにより所定の領域ごとに信頼度を設定した信頼度マップを作成する。本実施形態ではまず、パワースペクトルP(fx、fy)と所定の閾値を比較することにより、距離情報が低周波成分のみから成る領域、強い高周波成分を含む領域、その他の領域に区分する。まずステップS505において、fx≧2、fy≧2の範囲においてパワーP(fx、fy)と閾値Th1とを比較する。ここでは、高周波成分がほぼないことを判定するために閾値Th1を用いるため、0に近い値にする。ただし閾値Th1は、距離情報のノイズよりは大きい値を設定する。ここでは周波数成分fが0の時のパワースペクトルを1としてTh1=0.03とする。 Next, the loop 1 of steps S504 to S510 is entered. In each region, the reliability is set for each region of the image based on the result of the frequency analysis in step S503. A region where the distance information has a high-frequency component is regarded as a region where the corresponding point is likely to be erroneously detected, and is given low reliability. A region in which the distance information is composed of only low frequency components is regarded as a region where a corresponding point can be detected appropriately, and gives high reliability. Thereby, a reliability map in which the reliability is set for each predetermined area is created. In this embodiment, first, by comparing the power spectrum P (fx, fy) with a predetermined threshold, the distance information is divided into a region composed of only low frequency components, a region containing strong high frequency components, and other regions. First, in step S505, the power P (fx, fy) is compared with the threshold value Th1 in the range of fx ≧ 2 and fy ≧ 2. Here, the threshold value Th1 is used to determine that there are almost no high-frequency components, so the value is close to zero. However, the threshold value Th1 is set to a value larger than the noise of the distance information. Here, the power spectrum when the frequency component f is 0 is 1, and Th1 = 0.03.
fx≧2、fy≧2の範囲において常に周波数成分のパワースペクトルP(fx、fy)が閾値Th1以下であれば、この領域は十分に低周波成分のみから成るとみなす。この場合、処理対象の領域にうつる被写体においては距離の変化がなだらかであり、見る角度によって見え方が変化しにくいと考えられる。そこでステップS506に進み、この領域には信頼度のフラグ「高」を設定する。一方、ステップS505でパワースペクトルP(fx、fy)が閾値Th1より大きい周波数成分が存在した場合、ステップS507に進む。ステップS507においては更に高周波成分であるfx≧4、fy≧4の範囲において、パワースペクトルP(fx、fy)と閾値Th2とを比較する。閾値Th2は、処理対象の領域の距離情報が高周波成分を含むか否かを判定するために用いるため、大きすぎる値を設定すると、見る方向によって見え方が変わる被写体を判定できなくなる。例えば閾値Th2は、閾値Th1よりも大きく、周波数成分fが0の時のパワースペクトルを1としてTh2=0.15とする。 If the power spectrum P (fx, fy) of the frequency component is always equal to or less than the threshold value Th1 in the range of fx ≧ 2 and fy ≧ 2, this region is considered to be sufficiently composed only of the low frequency component. In this case, it is considered that the change in the distance is gentle in the subject moving to the processing target area, and the appearance is hardly changed depending on the viewing angle. Therefore, the process proceeds to step S506, and the reliability flag “high” is set in this area. On the other hand, if there is a frequency component in which the power spectrum P (fx, fy) is larger than the threshold Th1 in step S505, the process proceeds to step S507. In step S507, the power spectrum P (fx, fy) is compared with the threshold Th2 in the range of fx ≧ 4 and fy ≧ 4, which are high-frequency components. The threshold value Th2 is used to determine whether or not the distance information of the region to be processed includes a high frequency component. Therefore, if the value is set too large, it is impossible to determine a subject whose appearance changes depending on the viewing direction. For example, the threshold value Th2 is larger than the threshold value Th1, and the power spectrum when the frequency component f is 0 is 1, and Th2 = 0.15.
処理対象の領域において、パワースペクトルP(fx、fy)が閾値Th2以上をみたす周波数成分があれば、領域には十分に高周波成分が存在するとみなす。処理対象の領域において距離情報が高周波成分を含む場合、その領域に撮像されている被写体は、複雑な構造であり、見る角度によって見え方が変化しやすいと考えられる。そこでステップS508に進み、この領域には信頼度のフラグ「低」を設定する。上記の条件のいずれも該当しなかった場合は、その他の場合としてステップS509に進み、処理対象の領域に対して信頼度のフラグ「中」を設定する。 If there is a frequency component in which the power spectrum P (fx, fy) satisfies the threshold Th2 or more in the region to be processed, it is considered that the region has a sufficiently high frequency component. When the distance information includes a high frequency component in the processing target region, the subject imaged in the region has a complicated structure, and the appearance is likely to change depending on the viewing angle. In step S508, the reliability flag “low” is set in this area. If none of the above conditions apply, the process proceeds to step S509 as the other case, and the reliability flag “medium” is set for the processing target area.
図8に、ある領域における1次元方向の距離情報とパワースペクトルP(f)の例を示す。図8(a)は、距離情報の値の変化がなだらかな場合を示す。図8(b)は、距離情報の値の変化が激しい場合を示している。また、それぞれ周波数解析した結果を示す。ただしパワースペクトルは、周波数成分f=0でP(0)=1になるように正規化して表示している。図8(a)に示す場合、閾値Th1との比較により、処理対象の領域には信頼度「高」が与えられる。図8(b)に示す場合、閾値Th1および閾値Th2を用いた比較の結果、信頼度「低」を設定する。ステップS510においてループ1を繰り返し、全ての領域に信頼度を示すフラグを決定し、領域ごとの信頼度を示す信頼度マップを作成する。本実施形態では、3段階の信頼度を2ビットで表し、画像と同じ解像度の信頼度マップを作成するとする。つまり領域に含まれるすべての画素について、設定した信頼度を示す情報を設定する。 FIG. 8 shows an example of one-dimensional direction distance information and a power spectrum P (f) in a certain region. FIG. 8A shows a case where the change in the value of the distance information is gentle. FIG. 8B shows a case where the value of the distance information changes drastically. The results of frequency analysis are also shown. However, the power spectrum is normalized and displayed so that frequency component f = 0 and P (0) = 1. In the case illustrated in FIG. 8A, the reliability “high” is given to the region to be processed by comparison with the threshold Th <b> 1. In the case illustrated in FIG. 8B, the reliability “low” is set as a result of the comparison using the threshold Th1 and the threshold Th2. In step S510, loop 1 is repeated, a flag indicating reliability is determined for all regions, and a reliability map indicating reliability for each region is created. In the present embodiment, it is assumed that the reliability of the three stages is represented by 2 bits and a reliability map having the same resolution as the image is created. That is, information indicating the set reliability is set for all pixels included in the region.
ステップS511において位置決定部205は、対応点に基づいてカメラの位置姿勢を決定する。補正された画像における対応点iの座標をxi、パノラマ画像における対応点iの座標位置をpi、両者の関係付けるホモグラフィ行列をHとおくと、これらの関係は式(3)のようになる。
In step S511, the
pi=Hxi・・・(3)
ただし座標は同次座標系で表し、xi=(xi,yi,wi)T、pi=(Xi,Yi,Wi)T、Hの第k行l列の要素をhkl(ただし1≦k,l≦3)とする。このとき行列Hにカメラ位置姿勢の情報が含まれる。今、pi、xiは既知であり、Hが求める未知数である。ここでpi×Hxi=0 (×はベクトル外積)の式と、同次座標系のスケールを1と置くことによって、(3)式は行列Hに関して式(4)の通りに書き変えることができる。
p i = Hx i (3)
However, the coordinates are expressed in a homogeneous coordinate system, and x i = (x i , y i , w i ) T , p i = (X i , Y i , W i ) T , and the element in the kth row and l column of H h kl (where 1 ≦ k, l ≦ 3). At this time, the matrix H includes information on the camera position and orientation. Now, p i and x i are known and H is an unknown number to be obtained. Here, p i × Hx i = 0 (× is a vector outer product) and the scale of the homogeneous coordinate system is set to 1, so that equation (3) is rewritten as equation (4) with respect to matrix H Can do.
これを新たにyi = Aihとおく。以上はある着目対応点iについての式であるが、実際には対応点は複数検出される。この場合、画像が同じであればカメラ位置姿勢を表すhは共通であるので、式(5)に示すように対応点の分だけ式(4)と同じ形式でyとAの行が追加される形でまとめられる。この式(5)をy= Ahとおく。
This is newly set as y i = A i h. The above is the formula for a certain corresponding point i, but in reality, a plurality of corresponding points are detected. In this case, if the images are the same, h representing the camera position and orientation is common. Therefore, as shown in equation (5), lines y and A are added in the same format as equation (4) by the amount of the corresponding points. It is put together in the form. This equation (5) is set as y = Ah.
対応点iについてのパノラマ画像上の座標の2乗誤差eiは式(6)の通りに表すことができる。
Square error e i of coordinates on the panoramic image for the corresponding point i can be expressed as the equation (6).
もし対応点座標とカメラ位置姿勢が厳密に求められるとすれば誤差ei=0となるはずである。しかし実際には対応点座標を厳密に求めるのは困難であり、得られるAiやyiには誤差を含む。また対応点は複数見つかることがほとんどであり式(5)においてhの未知数を求めるのに必要な数よりも多くの方程式が得られる。よって各対応点が発生する誤差eiができるだけ小さくなるようなhを求めることでカメラの位置姿勢を決定する。ただし、上述の対応点が存在する領域(または画素)の信頼度に応じて、信頼度の大きな対応点からの誤差eiが小さくなることを重視する。すなわち対応点iに対する重み係数をwiとして
If the corresponding point coordinates and the camera position and orientation are strictly determined, the error e i = 0 should be obtained. However, in practice, it is difficult to obtain the corresponding point coordinates precisely, and the obtained A i and y i include errors. In addition, a plurality of corresponding points are almost always found, and more equations than the number necessary for obtaining the unknown number of h in the equation (5) can be obtained. Thus the error e i of each corresponding point is generated to determine the position and orientation of a camera by obtaining as small as possible so as a h. However, in accordance with the reliability of the area corresponding points described above are present (or pixels), emphasizing that the error e i from a large corresponding points of the reliability decreases. That is, let w i be the weighting factor for the corresponding point i.
を満たすhを求める。本実施形態ではwiの値を、信頼度「高」は重み係数1.3、信頼度「中」は1.0、信頼度「低」は0.5に変換して適用する。
(7)式は、重み付き疑似逆行列の考え方を用いて、
H is satisfied. In this embodiment, the value of w i is applied after converting the weight coefficient 1.3 to the reliability “high”, 1.0 to the reliability “medium”, and 0.5 to the reliability “low”.
Equation (7) uses the concept of a weighted pseudo inverse matrix,
と求められる。ここでWは重みを表す行列であり、2×2の対角行列E2に重み係数wiを乗じたwiE2を順に並べたブロック対角行列である(W=diag[w1E2, w2E2, w3E2, …])。またTは転置を表す。このようにして、カメラ位置姿勢hを決定することが可能である。各対応点の信頼度に応じた重み係数wiを用いることで、被写体に応じた各対応点の寄与を反映させつつカメラの位置姿勢を求めることができる。
Is required. Here, W is a matrix representing a weight, and is a block diagonal matrix in which w i E 2 obtained by multiplying a 2 × 2 diagonal matrix E 2 by a weighting factor w i is sequentially arranged (W = diag [w 1 E 2, w 2 E 2, w 3
図7の例では、看板603を含む領域の対応点に大きな重み係数、樹木604を含む領域の対応点に小さな重み係数が与えられ、樹木よりも看板を重視して各画像の位置関係を決定することに相当する。
In the example of FIG. 7, a large weighting coefficient is given to the corresponding point of the area including the
以上のように対応点の信頼度に応じた対応点を用いてカメラの位置を決定することで、誤検出した対応点を用いるため各画像の位置合わせの精度が低下するのを抑制することができる。被写体の見る方向が変わったときの見え方の変化を考慮し、検出された対応点の信頼度を判定し、信頼できる対応点を優先したカメラの位置姿勢決定が実現できる。これによって、パノラマ画像を合成する際、画像データの位置合わせを精度よく行うことができる。 As described above, by determining the position of the camera using the corresponding point according to the reliability of the corresponding point, it is possible to suppress a decrease in the accuracy of the alignment of each image because the corresponding point detected in error is used. it can. It is possible to determine the reliability of the detected corresponding point in consideration of the change in appearance when the viewing direction of the subject changes, and to determine the position and orientation of the camera giving priority to the reliable corresponding point. As a result, when the panoramic image is synthesized, the image data can be accurately aligned.
なお第1実施形態において、見る方向によって見えが大きく変化する被写体とは、距離の値の変化が激しく複雑に入り組んだ被写体であると考え、距離画像の周波数解析を行ってパワースペクトルを求めた。しかし距離画像における値の変化を調べる方法はこれに限らない。例えば距離情報を、平滑化した後に、2次以上の微分を求めることで距離画像における値の変化の激しさを調べることができる。 In the first embodiment, the subject whose appearance changes greatly depending on the viewing direction is considered to be a subject in which the value of the distance changes greatly and complicatedly, and the power spectrum is obtained by performing frequency analysis of the distance image. However, the method for examining the change in the value in the distance image is not limited to this. For example, after smoothing the distance information, the degree of change in the value in the distance image can be examined by obtaining a second-order or higher derivative.
また第1実施形態ではフーリエ変換を行うため、信頼度のフラグを与える単位領域をN×N画素単位のブロック状としていた。しかし、フーリエ変換を用いない場合、信頼度フラグを設定する領域の分割方法はより柔軟に設定できる。例えば、画像の色の変化やエッジを検出し、色の変化やエッジに沿って、オブジェクトごとに動的に領域を決定してもよい。これにより、単純に分割した領域ごとではなく、画像中の被写体ごとに信頼度フラグを与えることが可能となる。なお、このとき領域決定のために計算が必要にはなるが、後にS305において画像の繋ぎ目を決定する際には画素の表す色情報やその勾配に応じて繋ぎ目を決定するので、その際にこのときの計算結果を利用することができる。 In the first embodiment, in order to perform Fourier transform, the unit area for giving the reliability flag is in the form of a block of N × N pixels. However, when the Fourier transform is not used, the region dividing method for setting the reliability flag can be set more flexibly. For example, a color change or edge of an image may be detected, and a region may be dynamically determined for each object along the color change or edge. As a result, it is possible to give a reliability flag to each subject in the image, not to each simply divided area. At this time, calculation is necessary to determine the region. However, when the joint of the image is determined later in S305, the joint is determined according to the color information represented by the pixel and its gradient. The calculation result at this time can be used.
<第2実施形態>
第1実施形態では、領域に対応する距離情報の周波数解析の結果に基づいて、検出した対応点の信頼度を設定する方法について説明した。第2実施形態では、対応点を検出した後、検出された対応点が各カメラから見えるか否かを判定した結果に基づいて信頼度を設定する方法について説明する。前述の実施形態と同様の構成については、同一の符号を付し、その説明を省略する。
Second Embodiment
In the first embodiment, the method for setting the reliability of the detected corresponding point based on the result of the frequency analysis of the distance information corresponding to the region has been described. In the second embodiment, a method of setting the reliability based on the result of determining whether or not the detected corresponding point is visible from each camera after detecting the corresponding point will be described. The same components as those in the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted.
図9は、異なる2つの光軸を有するカメラの配置及びシーンの状況を示す。2台のカメラ901、902それぞれの画角の重複領域には、三角柱状のオブジェクト903が存在している。図9に示す十強において各カメラ901、902によって撮像された画像を、図10に示す。画像1001は、カメラ901によって撮像された結果得られた画像であり、画像1002は、カメラ902によって撮像された結果得られた画像である。画像1001における領域1003と画像1002における領域1004は、空間上重複している領域である。
FIG. 9 shows the arrangement of a camera having two different optical axes and the situation of the scene. A triangular prism-shaped
図10に示すように、重複している領域1003と領域1004には、同じオブジェクト903が写っている。しかしそれぞれのカメラから見えているオブジェクト903の側面は異なる。同じオブジェクト903のA面、B面が似たテクスチャを持っている場合、領域1003におけるA面上の点と領域1004におけるB面上の点が対応点として検出される可能性がある。しかしながら、その対応点は実空間上で同一の点ではない。以上のことから、このオブジェクト903上の対応点を手掛かりにカメラの位置姿勢を決定すると、正しい推定ができない。そこで第2実施形態では、このようなオブジェクトの見えの角度依存性に着目する。
As shown in FIG. 10, the
図12は、第2実施形態に適用可能な、位置決定部205が実行する位置決定処理のフローチャートである。図11におけるステップS501〜S502は第1実施形態と同様のステップである。ステップS1101において位置決定部205は、各画像の距離情報を参照し、撮影対象とするシーン全体の距離情報と各カメラの位置姿勢を、仮定的に決定する。これには公知の手法を用いることができる。
FIG. 12 is a flowchart of a position determination process executed by the
ステップS1102において位置決定部205は、各カメラから取得できる距離情報を用いて、画像中の平面部の法線を計算する。ここで平面部とは、オブジェクト自体が平面的である領域であり、画像上で距離変化がないことを条件とするものではない。平面部は、例えば第1実施形態の信頼度が「高」とされた領域を特定することで探索することができる。ただしNの値は必ずしも同一である必要はなく、例えばさらに大きな面積を持つことを条件にしてもよい。距離情報が取得されているので、平面部の法線方向を計算することができる。
In step S <b> 1102, the
次にステップS1103において位置決定部205は、各平面部上に対応点が存在する場合、その平面部の法線とカメラの仮定の位置姿勢との関係を調べる。図12は、平面部の法線とカメラの位置姿勢との関係を説明する図である。カメラ901が撮像した画像1001において、オブジェクト903のA面の法線は、カメラ901側から見て左方向へ向かう位置関係にある。このような場合、オブジェクト903のA面は、カメラ901から見て右側に配置されたカメラからは見えにくいことになる。したがって、カメラ901より右に配置されたカメラに対して、オブジェクト903のA面上にある対応点の信頼度は低いとみなすことができる。逆に、もし画像1001中に撮像された平面部の法線が、カメラ901側から見て右へ向かっている場合には、その平面部はカメラ901より左に配置されたカメラから見えにくいということになる。このときはカメラ901より左に配置されたカメラに対して、平面部上の対応点の信頼度は低いとみなす。以上のように、単にオブジェクト903のA面上にあるために信頼度が低いと設定するのではなく、カメラ901より右側に存在するカメラ画像との対応点に対して、オブジェクト903のA面上にある対応点の信頼度を低く設定する。上記のようにステップS1103で信頼度を設定しきたら、ステップS511に移って信頼度に基づき重み係数を決定し、カメラの位置姿勢を決定する。
Next, in step S1103, when there is a corresponding point on each plane part, the
このようにして、対応点を有する被写体が各カメラに対してどの方向を向いているかに基づいて信頼度を設定し、重み係数に反映させることで、対応点の精度を向上することができる。 Thus, the accuracy of the corresponding points can be improved by setting the reliability based on which direction the subject having the corresponding points is directed to each camera and reflecting the reliability.
なお第2実施形態では、距離情報からカメラの位置姿勢を仮定的に求めた上で、距離情報を参照して被写体が各カメラから見えるか否かを判定し信頼度を設定する方法を述べた。メラの仮定的な位置関係を求める方法としては、画像撮影時にGPSなどによって取得された情報を活用し、各カメラの位置を求めて仮定値としてもよい。また、ユーザが各カメラの大雑把な位置を入力することによって、仮定的なカメラ位置を得ることとしてもよい。例えば、図9において「カメラ902はカメラ901の右側にある」ことや、「カメラ901とカメラ902は互いに外向きに配置されている」程度のことを、ユーザがマウス等で指示し、それを仮定的な位置関係の参考として活用することができる。
In the second embodiment, a method is described in which the position and orientation of the camera is obtained on the assumption from the distance information, and whether or not the subject can be seen from each camera by referring to the distance information and the reliability is set. . As a method for obtaining the assumed positional relationship of the mela, information obtained by GPS or the like at the time of image capturing may be used to obtain the position of each camera to be an assumed value. Alternatively, a hypothetical camera position may be obtained by the user inputting a rough position of each camera. For example, in FIG. 9, the user indicates with a mouse or the like that “the
<第3実施形態>
第3実施形態は、距離情報が取得できない場合に、取得した画像のみから被写体の見えが方向によって大きく変わるか否かを推定し、信頼度のフラグを設定する方法について説明する。被写体を見る方向によって被写体の見え方が大きく変化するか否かは、被写体の特性から推定できる。例えば、文字が書かれている被写体は、看板のように平面構造を持っていることが多い。そこで文字が書かれている被写体は、見る方向が変わっても見えは大きく変化しにくいとみなすことができる。あるいは、ビルのような建物も平面的な構造であり、見る方向が変わっても見え方は大きく変化しにくいとみなすことができる。さらに、空や雲などは通常、カメラからの距離が十分に大きい(無限遠である)ために、カメラの撮影する方向が変化しても、見え方は変わりにくいと考えられる。一方、樹木の枝葉や花のようなものは複雑な構造を持っており、見る方向によって大きく見え方が変わる可能性が高いと考えられる。
<Third Embodiment>
In the third embodiment, when distance information cannot be acquired, a method for estimating whether or not the appearance of a subject largely changes depending on the direction from only the acquired image and setting a reliability flag will be described. Whether or not the appearance of the subject changes greatly depending on the direction in which the subject is viewed can be estimated from the characteristics of the subject. For example, a subject on which characters are written often has a planar structure like a signboard. Therefore, it can be considered that the subject on which characters are written does not change its appearance greatly even if the viewing direction changes. Alternatively, a building such as a building also has a planar structure, and even if the viewing direction changes, it can be considered that the way it looks is hardly changed. Furthermore, since the distance from the camera is usually sufficiently large (infinitely far) from the sky, clouds, etc., it is considered that the appearance is unlikely to change even if the direction of shooting by the camera changes. On the other hand, things like branches and flowers of trees have a complicated structure, and it is highly likely that their appearance changes greatly depending on the viewing direction.
第3実施形態では、以上のような特定の被写体と見えの方向依存性の対応関係を利用する。具体的には、取得した画像において、特定の被写体を検出し、特定の被写体に予め対応づけた信頼度を設定する。 In the third embodiment, the correspondence relationship between the specific subject and the direction dependency of appearance as described above is used. Specifically, a specific subject is detected in the acquired image, and a reliability level that is associated with the specific subject in advance is set.
図13は、第3実施形態に適用可能な位置決定部205が実行する位置決定の処理のフローチャートである。ステップS501〜S502は第1実施形態と同様のステップである。ステップS1303において位置決定部205は、画像に特定の被写体が存在するか否か判定し、特定の被写体を検出する。ステップS1304において、ステップS1303の識別結果に基づいて、所定の被写体が存在すると識別された領域に、被写体に対応する信頼度を、領域の信頼度として設定する。
FIG. 13 is a flowchart of position determination processing executed by the
なおステップS1303における特定の被写体を識別する処理については、例えばテンプレートマッチングを用いることができる。あらかじめ空のテンプレートを持っておき、ステップS1303で空であると識別された領域には、ステップS1304で信頼度「高」を設定する。また、葉や樹木のテンプレートを持ち、ステップS1303で葉や樹木であると識別された領域には、ステップS1304において判定された領域に「低」の信頼度フラグを与える。さらに、ステップS1303における識別処理に文字認識を用いることもできる。ステップS1303において文字が存在すると認識された領域には、ステップS1304で信頼度「高」のフラグを与える。ステップS1303の識別処理に、直線認識を用いることで、直線に囲まれた領域を建物様の人工物であるとみなし、ステップS1304で信頼度「高」を与えるとしてもよい。なお、これらの処理を組み合わせて行ってもよい。このような処理を行うことによって、距離情報が取得できない場合にも被写体の見えの方向依存性に基づいて、対応点の信頼度を設定することができる。以上のように設定された信頼度フラグに基づいて、S1305で画像の位置関係の決定を行う。この処理はS511と同様である。 For example, template matching can be used for the process of identifying a specific subject in step S1303. An empty template is held in advance, and a reliability “high” is set in step S1304 for the area identified as empty in step S1303. In addition, for a region having a leaf or tree template and identified as a leaf or tree in step S1303, a reliability flag of “low” is given to the region determined in step S1304. Furthermore, character recognition can be used for the identification processing in step S1303. In step S1304, a flag of “high” reliability is given to an area recognized as having a character in step S1303. By using straight line recognition for the identification processing in step S1303, the area surrounded by the straight line may be regarded as a building-like artifact, and the reliability “high” may be given in step S1304. Note that these processes may be performed in combination. By performing such processing, the reliability of corresponding points can be set based on the direction dependency of the appearance of the subject even when distance information cannot be acquired. Based on the reliability flag set as described above, the positional relationship of the images is determined in S1305. This process is the same as S511.
<第4実施形態>
第4実施形態では、位置姿勢を決定した後に、その結果に基づいて対応点の信頼度を設定する方法について述べる。カメラの位置姿勢が決定されると、決定された1つの位置姿勢に対して、手掛かりとなった対応点それぞれの位置の誤差が求められる(式(1)の各i)。ここで各カメラの撮影する方向によって被写体の見えが異なり、誤った対応点を含む場合は、それら対応点の誤差はばらつく可能性が高い。つまり、カメラ位置姿勢を求めた後、そのカメラ位置姿勢に対する各対応点の誤差が大きくばらつく領域は、領域内の被写体の見えが異なるために正しく対応点を探せなかった可能性があると決定される。そのような領域の信頼度を低く設定したのち、再度位置姿勢を計算することにより、より信頼できる対応点を優先してカメラの位置姿勢を求めることができる。
<Fourth embodiment>
In the fourth embodiment, after determining the position and orientation, a method for setting the reliability of corresponding points based on the result will be described. When the position and orientation of the camera are determined, the position error of each corresponding point that is a clue is obtained for each determined position and orientation (each i in equation (1)). Here, when the appearance of the subject differs depending on the shooting direction of each camera and an erroneous corresponding point is included, there is a high possibility that the error of the corresponding point varies. In other words, after obtaining the camera position and orientation, it is determined that there is a possibility that an area where the error of each corresponding point with respect to the camera position and orientation varies greatly can not be found correctly because the appearance of the subject in the area is different. The After setting the reliability of such an area low, the position and orientation of the camera can be obtained by giving priority to more reliable corresponding points by calculating the position and orientation again.
図14は、第4実施形態に適用可能な位置決定部205による位置決定処理のフローチャートである。まずステップS501〜S511は第1実施形態と同様の処理であり、各画像の位置姿勢を決定する。
FIG. 14 is a flowchart of position determination processing by the
ステップS1401において位置決定部205は、所定のブロックにおいて各対応点のカメラ位置姿勢との誤差を調べる。この誤差が所定の許容値を超える場合には、ステップS1402に進む。ステップS1402において位置決定部205は、処理対象ブロックの信頼度を下げてカメラの位置姿勢を再計算する。これを繰り返して、最終的なカメラの位置姿勢を求める。
In step S1401, the
なお、このような算出した結果の誤差と許容量とを参照して当該被写体の対応点の信頼度を下げる方法は、対応点の誤差以外にもある。例えば、カメラの位置姿勢を決定した後に、距離情報や平面部の法線との矛盾があることが分かれば、その被写体上の対応点の信頼度を下げたうえで再計算するようにしてもよい。 It should be noted that there is a method for reducing the reliability of the corresponding point of the subject by referring to the error and the allowable amount of the calculated result in addition to the error of the corresponding point. For example, after determining the position and orientation of the camera, if it is found that there is a discrepancy with the distance information or the normal of the plane part, the reliability of the corresponding point on the subject may be lowered and recalculated. Good.
<その他の実施形態>
これまで記述してきた実施形態は、それぞれを単独で用いるだけでなく、組み合わせて実施することもできる。さらにそれぞれの変形例として、以下のような形態も考えられる。 また、上述の実施形態では、信頼度のフラグを「高」「中」「低」の3つに分けて説明をしてきた。しかし信頼度の設定の仕方はこれに限定するものではない。例えば2つでもよいし、4つ以上でもよい。また、フラグではなく、重み係数を表す連続値を信頼度として用いてもよい。
<Other embodiments>
The embodiments described so far can be used not only independently but also in combination. Furthermore, the following forms are also conceivable as respective modifications. In the above-described embodiment, the description has been given by dividing the reliability flag into three, “high”, “medium”, and “low”. However, the method of setting the reliability is not limited to this. For example, two may be sufficient and four or more may be sufficient. Moreover, you may use not a flag but the continuous value showing a weighting coefficient as reliability.
また、上述の実施形態では説明を簡単にするため、入力画像を2枚として説明してきたが、入力画像は2枚に限らない。2枚以上の複数の画像によりパノラマ画像を生成する場合でも、同様に上述の実施形態を適用することができる。その際、複数のカメラが周囲の全方位をカバーするように配置し、360度の全方位パノラマ画像を合成する場合であっても問題なく本実施形態を適用できる。さらに、立体視用の画像を取得するためのステレオ撮像装置であってもよい。また、複数のカメラが互いに外側を向く配置ではなく、互いに内側を向いて配置されていてもよい。あるいは、1つカメラの向きを変えて複数の入力画像を取得する形式であってもよい。具体的には図6において、カメラ601と602を同時に用いるのではなく、1つのカメラでまず601の位置の画像を取得し、次いでカメラを602の位置に移動し、画像を取得するようであってもよい。この場合、パノラマ画像を生成するための画像は、時間差を持って撮影されることになるが、必ずしも同時刻ではなくても同じシーンであれば問題なく実施形態を適用できる。
In the above-described embodiment, the input image has been described as two sheets for the sake of simplicity. However, the number of input images is not limited to two. Even when a panoramic image is generated from a plurality of two or more images, the above-described embodiment can be similarly applied. In this case, the present embodiment can be applied without any problem even when a plurality of cameras are arranged so as to cover all surrounding directions and a 360-degree panoramic image is synthesized. Furthermore, the stereo imaging device for acquiring the image for stereoscopic vision may be sufficient. In addition, a plurality of cameras may be arranged not facing each other but facing each other. Or the format which changes the direction of one camera and acquires several input images may be sufficient. Specifically, in FIG. 6, instead of using the
また、前述の実施形態では位置補正部205が、画像間の対応点探索、距離情報の解析や被写体判定、信頼度の設定、カメラの位置推定を行う構成とした。しかしながら、それぞれまたは少なくとも一部を、別の手段により実現してもよい。例えば、対応点探索部が画像間の対応点を探索し、検出した対応点を出力する。解析手段や被写体判定手段が、各画像に撮影された被写体の角度依存度に応じた評価を行い、評価結果を出力する。さらに、信頼度設定部が評価結果に基づいて各対応点の信頼度を設定し、位置決定部が信頼度に応じた重みと各対応点に基づいて画像の位置決定を行うとしてもよい。実際に繋ぎ目の無い高品質なパノラマ画像を作成しようとする場合、最後はユーザが合成画像を確認した上で、ユーザの一致点やパラメータの手入力によって微妙な訂正や調整を施した後にパノラマ画像を出力するケースも多い。上記のように各構成を独立にすることにより、上述の実施形態において設定された信頼度を出力装置(モニタ)を介してユーザに提示することができる。この場合ユーザは、各対応点の信頼度を手動調整の参考にすることができる。さらに入力装置を介して、ユーザが領域に設定された信頼度を任意に訂正したり設定したりできるようにしてもよい。これによってユーザは、画像を確認しながら画像位置合わせを制御し、所望のパノラマ画像を得ることができるようになる。
In the above-described embodiment, the
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
205 位置決定部
206 繋ぎ目決定部
207 画像合成部
205
Claims (10)
前記取得手段が取得した各画像において、同一の被写体に対応する画像間の対応点を探索する探索手段と、
前記対応点に基づいて、前記取得手段が取得した各画像の位置関係を決定する位置決定手段と、
前記位置決定手段により決定された前記画像それぞれの位置関係に基づいて、前記少なくとも2つの画像を接合することで、パノラマ画像を生成する合成手段と、有し、
前記位置決定手段は、前記2つの画像に撮像された被写体の見えの角度依存性に基づいて、前記探索手段が検出した対応点の信頼度を設定し、各対応点の信頼度を参照して前記画像それぞれの位置関係を決定することを特徴とする画像処理装置。 Image acquisition means for acquiring at least two images obtained by imaging in different directions and partially overlapping each other;
Search means for searching for corresponding points between images corresponding to the same subject in each image acquired by the acquisition means;
Position determining means for determining the positional relationship between the images acquired by the acquiring means based on the corresponding points;
Combining means for generating a panoramic image by joining the at least two images based on the positional relationship between the images determined by the position determining means;
The position determining means sets the reliability of the corresponding point detected by the search means based on the angle dependency of the appearance of the subject captured in the two images, and refers to the reliability of each corresponding point. An image processing apparatus for determining a positional relationship between the images.
前記距離情報を所定の領域ごとに距離情報の変化の勾配を解析する解析手段を有し、
前記位置決定手段は、前記解析手段による解析の結果に基づいて、前記所定の領域ごとに前記信頼度を設定することを特徴とする請求項1または2に記載の画像処理装置。 Further, distance information acquisition means for acquiring distance information corresponding to each of the images acquired by the acquisition means,
Analyzing means for analyzing the gradient of the change of the distance information for each predetermined area of the distance information;
The image processing apparatus according to claim 1, wherein the position determination unit sets the reliability for each of the predetermined regions based on a result of analysis by the analysis unit.
前記位置決定手段は、前記解析手段から得られる周波数成分のパワースペクトルが、所定の閾値より大きい周波数成分を有する領域に対しては前記信頼度を低く設定し、前記所定の閾値より大きい周波数成分のない領域に対しては前記信頼度を高く設定することを特徴とする請求項3に記載の画像処理装置。 The analysis means performs frequency analysis for each of the predetermined regions on the distance image,
The position determination means sets the reliability low for a region where the power spectrum of the frequency component obtained from the analysis means has a frequency component larger than a predetermined threshold, and sets the frequency component higher than the predetermined threshold. The image processing apparatus according to claim 3, wherein the reliability is set high for a non-existing region.
前記位置決定手段は、前記画像それぞれの位置と被写体との距離に基づいて、前記信頼度を設定することを特徴とする請求項1に記載の画像処理装置。 Furthermore, it has distance information acquisition means that can acquire distance information corresponding to each image acquired by the acquisition means,
The image processing apparatus according to claim 1, wherein the position determination unit sets the reliability based on a distance between a position of each of the images and a subject.
前記位置決定手段は、前記識別手段による識別結果を用いて、各被写体に対応する信頼度を設定することを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。 Furthermore, it has an identification means for identifying the subject in the image,
The image processing apparatus according to claim 1, wherein the position determination unit sets a reliability corresponding to each subject using the identification result obtained by the identification unit.
前記表示手段は、前記ユーザの指示を受け付け、前記位置決定手段は、前記指示に基づいて前記信頼度を変更することを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。 Furthermore, it has a display means for displaying the reliability set by the position determining means on a display,
The image processing apparatus according to claim 1, wherein the display unit receives an instruction from the user, and the position determination unit changes the reliability based on the instruction. .
前記取得手段が取得した各画像において、同一の被写体に対応する画像間の対応点を探索する探索手段と、
前記2つの画像に撮像された被写体の見えの角度依存性に基づいて、前記探索手段が検出した対応点の信頼度を設定し、各対応点の信頼度を参照して前記画像それぞれの位置関係を決定する前記取得手段が取得した各画像の位置関係を決定する位置決定手段と、
前記位置決定手段により決定された前記画像それぞれの位置関係に基づいて、前記少なくとも2つの画像を接合することで、パノラマ画像を生成する合成手段として機能させるためのプログラム。 Image acquisition means for acquiring at least two images obtained by imaging the computer in different directions and partially overlapping;
Search means for searching for corresponding points between images corresponding to the same subject in each image acquired by the acquisition means;
Based on the angle dependency of the appearance of the subject captured in the two images, the reliability of the corresponding points detected by the search means is set, and the positional relationship between the images with reference to the reliability of each corresponding point Position determining means for determining the positional relationship of each image acquired by the acquiring means for determining
The program for functioning as a synthetic | combination means which produces | generates a panoramic image by joining the said at least 2 image based on the positional relationship of each said image determined by the said position determination means.
前記取得した各画像において、同一の被写体に対応する画像間の対応点を探索し、
前記2つの画像に撮像された被写体の見えの角度依存性に基づいて、前記探索手段が検出した対応点の信頼度を設定し、前記対応点と各対応点の信頼度とに基づいて、前記取得した各画像の位置関係を決定し、
前記決定された前記画像それぞれの位置関係に基づいて、前記少なくとも2つの画像を接合することで、パノラマ画像を生成することを特徴とする画像処理方法。 Acquiring at least two images obtained by imaging in different directions and partially overlapping;
In each acquired image, search for corresponding points between images corresponding to the same subject,
Based on the angle dependency of the appearance of the subject imaged in the two images, the reliability of the corresponding point detected by the search means is set, and based on the corresponding point and the reliability of each corresponding point, Determine the positional relationship of each acquired image,
A panoramic image is generated by joining the at least two images based on the determined positional relationship between the images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015210251A JP2017085297A (en) | 2015-10-26 | 2015-10-26 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015210251A JP2017085297A (en) | 2015-10-26 | 2015-10-26 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017085297A true JP2017085297A (en) | 2017-05-18 |
Family
ID=58712156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015210251A Pending JP2017085297A (en) | 2015-10-26 | 2015-10-26 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017085297A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019003796A1 (en) | 2017-06-28 | 2019-01-03 | 富士フイルム株式会社 | Image compositing method, image compositing device, and recording medium |
JP2019169146A (en) * | 2018-03-20 | 2019-10-03 | パナソニックIpマネジメント株式会社 | Image creation system, image display system, image creation method, image creation program, and movable body |
-
2015
- 2015-10-26 JP JP2015210251A patent/JP2017085297A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019003796A1 (en) | 2017-06-28 | 2019-01-03 | 富士フイルム株式会社 | Image compositing method, image compositing device, and recording medium |
US11423511B2 (en) | 2017-06-28 | 2022-08-23 | Fujifilm Corporation | Image composition method, image composition device, and recording medium |
JP2019169146A (en) * | 2018-03-20 | 2019-10-03 | パナソニックIpマネジメント株式会社 | Image creation system, image display system, image creation method, image creation program, and movable body |
US10965866B2 (en) | 2018-03-20 | 2021-03-30 | Panasonic Intellectual Property Management Co., Ltd. | Image generation system, image display system, image generation method, and moving vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10540806B2 (en) | Systems and methods for depth-assisted perspective distortion correction | |
US11051000B2 (en) | Method for calibrating cameras with non-overlapping views | |
US9129435B2 (en) | Method for creating 3-D models by stitching multiple partial 3-D models | |
WO2017076106A1 (en) | Method and device for image splicing | |
EP1986154A1 (en) | Model-based camera pose estimation | |
US20120257016A1 (en) | Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program | |
US20150262346A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5538868B2 (en) | Image processing apparatus, image processing method and program | |
JP6187640B2 (en) | Image composition method and apparatus | |
WO2012165491A1 (en) | Stereo camera device and computer-readable recording medium | |
WO2015165222A1 (en) | Method and device for acquiring panoramic image | |
Mistry et al. | Image stitching using Harris feature detection | |
US10169891B2 (en) | Producing three-dimensional representation based on images of a person | |
JP2017129567A (en) | Information processing apparatus, information processing method, and program | |
JP6515039B2 (en) | Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image | |
JP6935786B2 (en) | Geometric transformation matrix estimation device, geometric transformation matrix estimation method, and program | |
JP2017021759A (en) | Image processor, image processing method and program | |
TWI599987B (en) | System and method for combining point clouds | |
US20180020203A1 (en) | Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium | |
US10672181B2 (en) | 3D capture: object extraction | |
US10685490B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JPWO2016208404A1 (en) | Information processing apparatus and method, and program | |
JP2017085297A (en) | Image processing apparatus, image processing method, and program | |
Marcon | LAPMv2: An improved tool for underwater large-area photo-mosaicking | |
CN109902695B (en) | Line feature correction and purification method for image pair linear feature matching |