JP2006195758A - Stereo matching apparatus and method, and program for this method - Google Patents

Stereo matching apparatus and method, and program for this method Download PDF

Info

Publication number
JP2006195758A
JP2006195758A JP2005006966A JP2005006966A JP2006195758A JP 2006195758 A JP2006195758 A JP 2006195758A JP 2005006966 A JP2005006966 A JP 2005006966A JP 2005006966 A JP2005006966 A JP 2005006966A JP 2006195758 A JP2006195758 A JP 2006195758A
Authority
JP
Japan
Prior art keywords
image
similarity
images
local area
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005006966A
Other languages
Japanese (ja)
Inventor
Kaori Kataoka
香織 片岡
Shiro Ozawa
史朗 小澤
Shingo Ando
慎吾 安藤
Yoshiori Wakabayashi
佳織 若林
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005006966A priority Critical patent/JP2006195758A/en
Publication of JP2006195758A publication Critical patent/JP2006195758A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To stably restore a shape even if line images are blurred because of camera shake or the like during shooting, using an apparatus and a method for restoring a shape using two stereo images created by arranging line images. <P>SOLUTION: The apparatus includes an image input means 201 for obtaining two stereo images whose horizontal axis is parallel projection; an image collating means 202 for calculating the similarity of a corrected image, i.e., one of the two images obtained by the image input means and deformed in a local area thereof, to the other image; and a three-dimensional point group generating means 203 for generating a group of three-dimensional points on the basis of the similarity calculated by the image collating means. The image collating means has a means for obtaining the corrected image by moving each vertical line within the local area vertically so that the similarity of the local area in the one image to a local area in the other image is maximized. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ライン画像を並べて作成した2枚のステレオ画像を用いたマッチング処理により、市街地の建造物側面等の3次元点群を生成する技術に関するものである。   The present invention relates to a technique for generating a three-dimensional point cloud such as a side of a building in an urban area by matching processing using two stereo images created by arranging line images.

従来、ライン画像を並べて横軸が平行投影な2枚のステレオ画像を作成し、マッチング処理を行うことにより建造物側面等の3次元形状を復元する手法に関しては、主に以下の2つがある。   Conventionally, there are mainly the following two methods for restoring a three-dimensional shape such as a side of a building by arranging two line images and generating two stereo images whose horizontal axes are parallel projections and performing a matching process.

手法1:ラインセンサカメラで取得したライン画像を並べて横軸が平行投影な2枚のステレオ画像を作成し、2枚のステレオ画像中のライン毎あるいは局所領域を切り出し、拡大縮小などの変形を行わない単純な差分処理、相関値計算等で類似度を算出し、2枚のステレオ画像間の対応付けを行い、3次元点群を生成する(例えば、特許文献1参照)。   Method 1: Line images acquired by a line sensor camera are arranged to create two stereo images with parallel projections on the horizontal axis, and each line or local area in the two stereo images is cut out and subjected to deformation such as enlargement / reduction Similarity is calculated by simple difference processing, correlation value calculation, etc., and two stereo images are associated with each other to generate a three-dimensional point group (see, for example, Patent Document 1).

手法2:平面や曲面といった3次元の形状モデルを用意し、ライン画像を並べて作成した2枚のステレオ画像間のマッチング処理により得られた類似度を形状モデルのパラメータで張られる空間に投票し、多数決の原理を用いてパラメータを決定することにより、形状を復元する(例えば、特許文献2参照)。
特開2002−22440「距離測定装置および方法」 特開2003−256811「3次元情報復元装置、3次元情報復元方法、3次元情報復元方法のプログラムおよびこのプログラムを記録した記録媒体」
Method 2: Prepare a three-dimensional shape model such as a plane or a curved surface, and vote for the similarity obtained by matching processing between two stereo images created by arranging line images in the space created by the parameters of the shape model, The shape is restored by determining parameters using the principle of majority decision (see, for example, Patent Document 2).
JP 2002-22440 “Distance Measuring Device and Method” JP 2003-256811 “3D information restoration device, 3D information restoration method, 3D information restoration method program, and recording medium on which this program is recorded”

手法1は、変形を行わない単純な類似度計算なので計算コストが少ないというメリットがあるが、1ラインずつ撮影を行い、そのライン画像を並べてステレオ画像を作るため、撮影時のカメラ振動により画像中にぶれが生じてしまうことが多々ある。   Method 1 has a merit that the calculation cost is low because it is a simple similarity calculation without deformation. However, since the lines are imaged one by one and a stereo image is formed by arranging the line images, There are many cases where the camera shakes.

図6に撮影時のカメラ振動により画像がぶれてしまっている例を示す。101にライン画像を並べて作成したステレオ画像のうち1枚を示し、102にぶれが生じている部分を拡大した画像を示している。類似度算出の際にこのぶれを考慮しないと、ステレオ画像間で同じ箇所を撮影しても違うテクスチャとして写ってしまうため、正しく対応付けができず、3次元点群の生成に失敗しやすいという欠点がある。   FIG. 6 shows an example in which an image is blurred due to camera vibration during shooting. Reference numeral 101 denotes one of stereo images created by arranging line images, and reference numeral 102 denotes an enlarged image of a blurred portion. If this blurring is not taken into account when calculating the similarity, even if the same part is photographed between stereo images, it will appear as a different texture, so it cannot be correctly associated, and the generation of the three-dimensional point cloud is likely to fail. There are drawbacks.

手法2は、ステレオ画像間の類似度を形状モデルへ投票することにより形状を復元しているため、ある程度撮影時のカメラ振動が引き起こす画像中のぶれによるノイズに強い手法であるが、画像全体にぶれが生じ、同じ物体を撮影しているにも関わらずステレオ画像間の類似度が著しく低下する場合には、形状が復元できないという欠点がある。また、投票する空間中では異なる形状モデルからの投票軌跡が干渉し、形状復元精度が落ちることがあり、次元が多いほどその対処は難しくなるという問題がある。   Method 2 restores the shape by voting the similarity between stereo images to the shape model, and thus is resistant to noise caused by camera shake caused by camera vibration during shooting to some extent. There is a drawback that the shape cannot be restored when blurring occurs and the similarity between stereo images is remarkably reduced even though the same object is photographed. In addition, voting trajectories from different shape models interfere with each other in the voting space, and the shape restoration accuracy may be reduced.

本発明の目的は、撮影時のカメラのぶれ等によるライン画像にぶれがある場合にも、安定して形状を復元することができるステレオマッチング装置、方法およびこの方法のプログラムを提供することにある。   An object of the present invention is to provide a stereo matching device, a method, and a program for this method that can stably restore the shape even when the line image is blurred due to camera shake or the like during shooting. .

本発明は、横軸が平行投影の2枚のステレオ画像のうち1枚の画像中の局所領域を変形させて補正画像を得ながらもう一枚の画像との類似度を算出することにより、2枚のステレオ画像に異なるぶれが生じ同じ物体を撮影しているにも関わらずテクスチャが異なってしまう場合でも、類似度は高くなり、3次元点として抽出することを可能とし、これにより、より正しく対応付けを行うことができ、3次元点群の精度を向上させることができるようにしたもので、以下の装置、方法、およびプログラムを特徴とする。   According to the present invention, by calculating a similarity with another image while obtaining a corrected image by deforming a local region in one image of two stereo images whose horizontal axis is parallel projection. Even when different blurs occur in a single stereo image and the texture is different even though the same object is photographed, the degree of similarity is high, and it is possible to extract as a three-dimensional point. The correspondence can be performed and the accuracy of the three-dimensional point group can be improved, and the following devices, methods, and programs are characterized.

(1)ライン画像を並べて作成した2枚のステレオ画像を用いて形状を復元する装置であって、
横軸が平行投影のステレオ画像を2枚取得する画像入力手段と、
前記画像入力手段により得られた2枚の画像のうち1枚の画像における局所領域を変形させた補正画像に対し、もう一枚の画像との類似度を算出する画像照合手段と、
前記画像照合手段により算出された類似度を基に3次元点群を生成する3次元点群生成手段と、
を備えることを特徴とするステレオマッチング装置。
(1) An apparatus for restoring a shape using two stereo images created by arranging line images,
Image input means for acquiring two stereo images whose horizontal axis is parallel projection;
An image matching means for calculating a similarity with another image with respect to a corrected image obtained by deforming a local area in one image of the two images obtained by the image input means;
Three-dimensional point cloud generation means for generating a three-dimensional point cloud based on the similarity calculated by the image matching means;
A stereo matching device comprising:

(2)前記画像照合手段は、一枚の画像中の局所領域ともう一枚の画像の局所領域との類似度が最大になるように局所領域内の縦一ラインずつを上下にずらし補正画像を得る手段を備えることを特徴とするステレオマッチング装置。   (2) The image collating means shifts the vertical lines in the local area up and down so that the similarity between the local area in one image and the local area in the other image is maximized. A stereo matching device comprising means for obtaining

(3)ライン画像を並べて作成した2枚のステレオ画像を用いて形状を復元する方法であって、
横軸が平行投影のステレオ画像を2枚取得する画像入力過程と、
前記画像入力過程により得られた2枚の画像のうち1枚の画像における局所領域を変形させた補正画像に対し、もう一枚の画像との類似度を算出する画像照合過程と、
前記画像照合過程により算出された類似度を基に3次元点群を生成する3次元点群生成過程と、
を備えることを特徴とするステレオマッチング方法。
(3) A method for restoring a shape using two stereo images created by arranging line images,
An image input process for acquiring two stereo images with horizontal projections in parallel,
An image matching process for calculating a similarity with another image for a corrected image obtained by deforming a local region in one image of two images obtained by the image input process;
A three-dimensional point cloud generation process for generating a three-dimensional point cloud based on the similarity calculated by the image matching process;
A stereo matching method comprising:

(4)前記画像照合過程は、一枚の画像中の局所領域ともう一枚の画像の局所領域との類似度が最大になるように局所領域内の縦一ラインずつを上下にずらし補正画像を得る過程を備えることを特徴とするステレオマッチング方法。   (4) In the image collating process, the vertical line in the local area is shifted up and down so that the similarity between the local area in one image and the local area in the other image is maximized. A stereo matching method comprising the step of:

(5)上記(3)または(4)のいずれか1項に記載のステレオマッチング方法における処理手順をコンピュータで実行可能に構成したことを特徴とするプログラム。   (5) A program characterized in that the processing procedure in the stereo matching method according to any one of (3) and (4) is configured to be executable by a computer.

以上説明したように、本発明により、撮影時のカメラのぶれによる画像ぶれが生じても、安定して形状を復元することができる。これにより実際の市街地の3次元都市空間を安定して、精度高く構築できるようになる。   As described above, according to the present invention, the shape can be stably restored even when image blur due to camera shake during shooting occurs. As a result, a three-dimensional city space in an actual urban area can be stably constructed with high accuracy.

本発明の実施形態になるステレオマッチング装置の構成を図1に示す。本実施形態は、画像入力手段(201)、画像照合手段(202)、3次元点群生成手段(203)とからなる。これら手段は、ソフトウェア構成で実現し、コンピュータに搭載し、その資源を利用して所期の処理を可能にする。   A configuration of a stereo matching apparatus according to an embodiment of the present invention is shown in FIG. This embodiment includes an image input unit (201), an image collation unit (202), and a three-dimensional point group generation unit (203). These means are realized by a software configuration, mounted on a computer, and enable desired processing using the resources.

画像照合手段(202)では、画像入力手段(201)で取得したライン画像を並べて作成した2枚のステレオ画像間の類似度を算出し、3次元座標と類似度とを関連付ける。類似度を算出する際には、1枚の画像における局所領域を変形させた後、もう一枚の画像との類似度を算出する。3次元点群生成手段(203)では、画像照合手段(202)における3次元座標と類似度との関連付け結果を基に3次元点群を生成する。   The image matching means (202) calculates the similarity between two stereo images created by arranging the line images acquired by the image input means (201), and associates the three-dimensional coordinates with the similarity. When calculating the similarity, the local area in one image is deformed, and then the similarity with the other image is calculated. The three-dimensional point group generation means (203) generates a three-dimensional point group based on the association result between the three-dimensional coordinates and the similarity in the image collating means (202).

図1の各手段を詳細に説明する。まず画像入力手段(201)について説明する。本実施形態では、2台のラインセンサカメラを車両に搭載し、移動しながら市街地の建造物の横軸が平行投影の画像を取得する場合について述べる。   Each means of FIG. 1 will be described in detail. First, the image input means (201) will be described. In the present embodiment, a case will be described in which two line sensor cameras are mounted on a vehicle and an image in which the horizontal axis of a building in an urban area is parallel projected is acquired while moving.

図2は、画像取得方法を説明するための図である。2台のラインセンサカメラは同時に撮影を開始し、その撮影開始地点を座標系の原点とする。車両の移動方向(304)にx軸(301)、x軸(301)に垂直で車両と建造物(305)を結ぶ方向にy軸(302)、xy平面に垂直にz軸(303)をとる。以後、すべての図においてx軸、y軸、z軸はこの設定とする。   FIG. 2 is a diagram for explaining an image acquisition method. The two line sensor cameras start photographing at the same time, and the photographing start point is set as the origin of the coordinate system. An x axis (301) in the moving direction (304) of the vehicle, a y axis (302) in the direction connecting the vehicle and the building (305) perpendicular to the x axis (301), and a z axis (303) perpendicular to the xy plane Take. Hereinafter, the x-axis, y-axis, and z-axis are set to this setting in all the drawings.

yz平面から移動方向(304)に傾いた方向を撮影しているラインセンサカメラをカメラA(307)、yz平面から移動方向(304)と逆に傾いた方向を撮影しているラインセンサカメラをカメラB(308)とする。カメラA(307)およびカメラB(308)のライン方向(306)はz軸と平行にする。かつラインセンサカメラの光軸がyz平面に対称になるように設置する。カメラAおよびカメラBは同じ高さに設置する。   A line sensor camera that captures a direction tilted in the moving direction (304) from the yz plane is a camera A (307), and a line sensor camera that captures a direction tilted opposite to the moving direction (304) from the yz plane. Camera B (308) is assumed. The line direction (306) of camera A (307) and camera B (308) is parallel to the z-axis. And it installs so that the optical axis of a line sensor camera may become symmetrical with respect to yz plane. Camera A and camera B are installed at the same height.

図3は、図2の様子を上から見た図である。yz平面とカメラA(402)およびカメラB(403)の光軸とのなす角は等しく、カメラ角度(401)は共にθ1とする。404は撮影対象である建造物を示し、405はラインセンサカメラを搭載した車両を示す。 FIG. 3 is a top view of the state of FIG. The angles formed by the yz plane and the optical axes of the cameras A (402) and B (403) are equal, and the camera angle (401) is both θ 1 . Reference numeral 404 denotes a building to be photographed, and reference numeral 405 denotes a vehicle equipped with a line sensor camera.

以上の構成において、2台のラインセンサカメラを移動させつつ、ロータリーエンコーダを用いて一定距離ごとに画像(1ライン)を取り込む。なお、ロータリーエンコーダとは車両等に取り付けることにより、一定距離ごとに特定信号を発生させる装置のことである。それぞれのカメラから取得したライン画像を時系列にならべて2枚の横軸が平行投影な長尺画像を作成する。   In the above configuration, an image (one line) is captured at a certain distance using a rotary encoder while moving two line sensor cameras. The rotary encoder is a device that generates a specific signal at a certain distance by being attached to a vehicle or the like. Two long images whose horizontal axes are parallel projections are created by arranging the line images acquired from the respective cameras in time series.

次に画像照合手段(202)について説明する。図4に画像照合を行うためのフローチャートを示す。各ライン画像差分処理(506)は、カメラA(307)により取得した画像の局所領域である基準画像(501)と、カメラB(308)により取得した画像の局所領域である視差候補画像(502)との各ライン画像どうしを上下に移動させながら、上下の移動量に対する各ライン画像における各画素値の差分の絶対値の総和D(503)を算出する。移動量算出処理(507)は、各ライン画像における差分の絶対値の総和D(503)を最小にする移動量k(504)を算出する。各ライン移動処理(508)は、移動量k(504)を基に各ライン画像を移動させ、補正後基準画像(505)を作成する。類似度算出処理(509)は、補正後基準画像(505)と視差候補画像(502)との類似度を算出する。   Next, the image collating means (202) will be described. FIG. 4 shows a flowchart for performing image matching. Each line image difference process (506) includes a reference image (501) that is a local area of the image acquired by the camera A (307) and a parallax candidate image (502) that is a local area of the image acquired by the camera B (308). ), The sum D (503) of the absolute values of the differences between the pixel values in each line image with respect to the vertical movement amount is calculated. The movement amount calculation process (507) calculates a movement amount k (504) that minimizes the sum D (503) of the absolute values of the differences in each line image. In each line moving process (508), each line image is moved based on the moving amount k (504) to create a corrected reference image (505). The similarity calculation process (509) calculates the similarity between the corrected reference image (505) and the parallax candidate image (502).

図5を参照して、図4の各処理について述べる。まず、各ライン画像差分算出処理(506)について述べる。画像A(601)はカメラA(307)を用いて取得した画像であり、画像B(602)はカメラB(308)を用いて取得した画像を示す。画像の時間軸方向をa軸(609)、ライン方向をb軸(610)と呼ぶことにする。画像A上のサイズM×Nの局所領域を基準画像とし、画像Bにおける基準画像上の被撮像物体と同一の物体が撮像されている可能性のある領域から、視差候補画像(サイズM×N)を抽出する。   With reference to FIG. 5, each process of FIG. 4 is described. First, each line image difference calculation process (506) will be described. An image A (601) is an image acquired using the camera A (307), and an image B (602) indicates an image acquired using the camera B (308). The time axis direction of the image is referred to as a axis (609), and the line direction is referred to as b axis (610). A local area of size M × N on the image A is set as a reference image, and a parallax candidate image (size M × N) is selected from an area where the same object as the imaged object on the reference image in the image B may be captured. ).

図2に記載のように、2台のラインセンサが同じ高さに設置され、光軸が1点で交わりかつライン方向と光軸が移動方向に垂直な面に対称になるように設置されている場合は、画像Bにおける上記基準画像のb軸(610)方向の位置と同じ位置の領域が上記基準画像上の被撮像物体と同一の物体が撮像されている可能性のある領域となる。この領域を視差候補領域と呼び、両像Aにおけるある基準画像p(603)の視差候補領域を605に示す。基準画像p(603)と視差候補領域(605)とのb軸方向の位置は同じでymである。604は基準画像p(603)の視差候補画像の例を示し、視差候補画像qとする。視差候補画像q(604)は視差候補領域(605)内から設定する。基準画像p(603)および視差候補画像q(604)のそれぞれの中心座標は(xr,ym),(xl,ym)とし、ここでは、局所領域の大きさを例えばM=(2m+1)pix、N=(2m+1)pixとする。 As shown in FIG. 2, the two line sensors are installed at the same height, the optical axes intersect at one point, and the line direction and the optical axis are symmetric with respect to a plane perpendicular to the moving direction. In the case of the image B, an area at the same position as the position of the reference image in the b-axis (610) direction in the image B is an area where the same object as the imaged object on the reference image may be captured. This area is called a parallax candidate area, and a parallax candidate area of a certain reference image p (603) in both images A is indicated by 605. B of axial position of the reference image p and (603) and disparity candidate region (605) is the same as y m. Reference numeral 604 denotes an example of a parallax candidate image of the reference image p (603), which is a parallax candidate image q. The parallax candidate image q (604) is set from within the parallax candidate area (605). The center coordinates of the reference image p (603) and the parallax candidate image q (604) are (x r , y m ), (x l , y m ), and here, the size of the local region is, for example, M = ( 2m + 1) pix, N = (2m + 1) pix.

次に、基準画像p(603)と視差候補画像q(604)の類似度を算出するために基準画像p(603)を変形する。まず、基準画像p(603)および視差候補画像q(604)の左から1ライン目(1×(2m+1)pix)を抽出する。基準画像p(603)および視差候補画像q(604)から抽出したライン画像をそれぞれライン画像p(606)とライン画像q(607)とする。ライン画像p(606)およびライン画像q(607)のa座標は、それぞれ(xr−m),(xl−m)となる。 Next, the reference image p (603) is deformed in order to calculate the similarity between the reference image p (603) and the parallax candidate image q (604). First, the first line (1 × (2m + 1) pix) from the left of the reference image p (603) and the parallax candidate image q (604) is extracted. The line images extracted from the reference image p (603) and the parallax candidate image q (604) are defined as a line image p (606) and a line image q (607), respectively. The a coordinates of the line image p (606) and the line image q (607) are (x r −m) and (x l −m), respectively.

次に、ライン画像p(606)を上下にずらしながらライン画像q(607)との差分の絶対値の総和D(503)を算出する。   Next, a sum D (503) of absolute values of differences from the line image q (607) is calculated while shifting the line image p (606) up and down.

但し、k(xr-m)は、a座標=xr−mにあたるライン画像の移動量を示している。ここでは基準画像p(603)および視差候補画像q(604)のサイズM×Nを(2m+1)pix×(2m+1)pixとしているので、b座標を(ym−m)から(ym+m)まで1pixずつ変化させ、画素間の濃淡値の差分の絶対値の総和D(503)を算出する。 Here, k (xr-m) indicates the amount of movement of the line image corresponding to the a coordinate = x r -m. Since we have a reference image p (603) and the size M × N parallax candidate image q (604) (2m + 1 ) pix × (2m + 1) pix is the b coordinate from (y m -m) (y m + m) 1 pixel at a time, and the sum D (503) of the absolute value of the difference between the gray values between the pixels is calculated.

次に、移動量算出処理(507)について述べる。まず、差分の絶対値の総和D(503)が最小になる移動量k(xr-m)(504)を求める。k(xr-m)は、例えばまったく基準画像を変形させない場合はk(xr-m)=0となる。ここでは例えば−4pix≦k(xr-m)≦4pixの範囲で変化させ、差分の絶対値の総和D(503)が最小となる移動量k(xr-m)(504)を求めるとする。ここでは−4pixから+4pixとしたが、もちろんどんな値を用いてもよい。 Next, the movement amount calculation process (507) will be described. First, a movement amount k (xr-m) (504) that minimizes the sum D (503) of absolute values of differences is obtained. k (xr-m) is, if for example, does not deform at all reference image becomes k (xr-m) = 0 . Here, for example, it is assumed that the amount of movement k (xr-m) (504) that minimizes the sum D (503) of the absolute values of the differences is obtained in the range of −4 pix ≦ k (xr−m) ≦ 4 pix. Here, -4 pix to +4 pix is used, but of course any value may be used.

上記の作業を各ライン画像ごとに行う。基準画像p(603)のa座標=xr−mにあたるライン画像p(606)と視差候補画像q(604)のa座標=xl−mにあたるライン画像q(607)との差分の絶対値の総和D(503)を最小にする移動量k(xr-m)(504)を求めた後は、1ラインずらし、基準画像p(603)のa座標=xr−(m−1)にあたるライン画像p’と視差候補画像q(604)のa座標=xl−(m−1)にあたるライン画像q’との差分D(503)が最小となるk(xr-(m-1))(504)を求める。このようにして各ライン画像すべてに対して差分の絶対値の総和D(503)が最小となるka(504)を求める。 The above operation is performed for each line image. The absolute value of the difference between the line image p (606) corresponding to the a coordinate = x r −m of the reference image p (603) and the line image q (607) corresponding to the a coordinate = x l −m of the parallax candidate image q (604). After obtaining the movement amount k (xr-m) (504) that minimizes the total sum D (503) of the image, it is shifted by one line and corresponds to the a coordinate = x r − (m−1) of the reference image p (603). K (xr− (m−1)) that minimizes the difference D (503) between the line image p ′ and the line image q ′ corresponding to the a coordinate = x 1 − (m−1) of the parallax candidate image q (604 ). (504) is obtained. In this way, k a (504) that minimizes the sum D (503) of the absolute values of the differences is obtained for all the line images.

次に、各ライン移動処理(508)について述べる。各ライン画像ごとに差分の絶対値の総和D(503)が最小となるka(504)の値だけずらす。例えば、a座標=xr−mではk(xr-m)=3だけずらしたときに差分D(503)が最小だった場合には、基準画像Aのa座標=xr−mのライン画像には、画像A中のa座標=xr−m,(ym−m)+3≦b座標≦(ym+m)+3までを抽出したライン画像を用いる。基準画像中のすべてのライン画像に対して上記の作業を行い補正画像を得る。基準画像pを変形した補正後基準画像pを608に示す。 Next, each line moving process (508) will be described. Each line image is shifted by a value of k a (504) that minimizes the sum D (503) of absolute values of differences. For example, a coordinate = x r if the -m k difference D (503) when shifted by (xr-m) = 3 was smallest, a coordinate of the reference image A = x r -m line image In the image A, a line image obtained by extracting a coordinates = x r −m, (y m −m) + 3 ≦ b coordinates ≦ (y m + m) +3 in the image A is used. The above operation is performed on all line images in the reference image to obtain corrected images. A corrected reference image p obtained by deforming the reference image p is shown at 608.

なお、この実施例では基準画像p(603)を変形させて補正画像を作成したが、視差候補画像q(604)を同様に変形させて補正画像を算出しても構わない。   In this embodiment, the reference image p (603) is deformed to create a corrected image, but the parallax candidate image q (604) may be similarly deformed to calculate a corrected image.

次に、類似度算出処理(509)について述べる。変形した補正後基準画像p(608)と視差候補画像q(604)との類似度を算出する。類似度は差分による方法、相互相関値による方法などを用いればよい(例えば、画像処理標準ハンドブック,財団法人画像情報教育振興協会,pp.250〜252,1997参照)。   Next, the similarity calculation process (509) will be described. The similarity between the deformed corrected reference image p (608) and the parallax candidate image q (604) is calculated. For the similarity, a method using a difference, a method using a cross-correlation value, or the like may be used (see, for example, Image Processing Standard Handbook, Japan Association for Promotion of Image Information Education, pp. 250-252, 1997).

上記の作業を、基準画像p(603)に対する視差候補領域(605)内すべての視差候補画像に対して行い、視差候補領域内で最も基準画像p(603)との類似度が高くなった視差候補画像の中心座標を求める。次に、基準画像の中心座標を(xr+1,ym),(xr+2,ym)…というようにずらしながら画像A中すべての基準画像に対して、類似度が最も高くなる視差候補画像の中心座標を求める。 The above operation is performed on all the parallax candidate images in the parallax candidate area (605) with respect to the reference image p (603), and the parallax having the highest similarity with the reference image p (603) in the parallax candidate area. Find the center coordinates of the candidate image. Next, the center coordinates of the reference image (x r + 1, y m ), (x r + 2, y m) ... for the image A in all of the reference images while shifting so on, parallax similarity is the highest Find the center coordinates of the candidate image.

次に3次元点群生成手段(203)について説明する。画像A上の座標(xA,yA)と画像B上の座標(xB,yA)とが同じ地点を撮影しているならば、その地点の3次元座標は式(1)〜(3)で求められる。なお(3)の導出には、ピンホールカメラのモデルを用いている。 Next, the three-dimensional point cloud generation means (203) will be described. If the coordinates (x A , y A ) on the image A and the coordinates (x B , y A ) on the image B are taken at the same point, the three-dimensional coordinates of the point are expressed by the equations (1) to (1) 3). In order to derive (3), a pinhole camera model is used.

ここで、画像移動量定数は、画像を構成する縦方向のライン画像間の撮影間隔の距離である。また、fはピンホールカメラモデルにおける焦点距離である。   Here, the image movement amount constant is the distance of the shooting interval between the vertical line images constituting the image. F is a focal length in the pinhole camera model.

そこで、画像照合手段(202)で算出された各基準画像の中心座標とその基準画像との類似度が最も高くなった視差候補画像の中心座標をそれぞれ(2)〜(4)に代入し、3次元座標(x,y,z)を算出する。このようにして、建造物側面等の3次元点群を生成する。   Therefore, the center coordinates of the parallax candidate images having the highest similarity between the center coordinates of each reference image calculated by the image matching means (202) and the reference image are substituted into (2) to (4), respectively. Three-dimensional coordinates (x, y, z) are calculated. In this way, a three-dimensional point group such as a building side surface is generated.

以上説明したように、本実施形態によれば、画像ぶれを適切に補正でき、手ぶれや車両の走行中のぶれなどによる画像ぶれが生じても安定してステレオ画像間の対応付けを行うことができ、安定して建造物などの形状を復元することができる。   As described above, according to the present embodiment, it is possible to appropriately correct image blur, and to stably associate stereo images even when image blur due to camera shake or camera shake occurs. The shape of a building or the like can be restored stably.

なお、本発明は、図4等に示した方法の一部又は全部の処理手順をプログラムとして構成してコンピュータに実行させることができる。   In the present invention, a part or all of the processing procedures of the method shown in FIG. 4 and the like can be configured as a program and executed by a computer.

本発明の実施形態を示すステレオマッチング装置の構成図。The block diagram of the stereo matching apparatus which shows embodiment of this invention. 実施形態における画像取得方法の説明図。Explanatory drawing of the image acquisition method in embodiment. 図2の平面図。The top view of FIG. 実施形態における画像照合手順を説明するためのフローチャート。The flowchart for demonstrating the image collation procedure in embodiment. 実施形態におけるマッチング時の基準画像の変形方法を説明する図。The figure explaining the deformation | transformation method of the reference | standard image at the time of the matching in embodiment. カメラ振動による画像ぶれの例。An example of image blur due to camera vibration.

符号の説明Explanation of symbols

201 画像入力手段
202 画像照合手段
203 3次元点郡生成手段
307、402 カメラA
308、403 カメラB
201 Image input means 202 Image collation means 203 Three-dimensional point group generation means 307, 402 Camera A
308, 403 Camera B

Claims (5)

ライン画像を並べて作成した2枚のステレオ画像を用いて形状を復元する装置であって、
横軸が平行投影のステレオ画像を2枚取得する画像入力手段と、
前記画像入力手段により得られた2枚の画像のうち1枚の画像における局所領域を変形させた補正画像に対し、もう一枚の画像との類似度を算出する画像照合手段と、
前記画像照合手段により算出された類似度を基に3次元点群を生成する3次元点群生成手段と、
を備えることを特徴とするステレオマッチング装置。
An apparatus for restoring a shape using two stereo images created by arranging line images,
Image input means for acquiring two stereo images whose horizontal axis is parallel projection;
An image matching means for calculating a similarity with another image with respect to a corrected image obtained by deforming a local area in one image of the two images obtained by the image input means;
Three-dimensional point cloud generation means for generating a three-dimensional point cloud based on the similarity calculated by the image matching means;
A stereo matching device comprising:
前記画像照合手段は、一枚の画像中の局所領域ともう一枚の画像の局所領域との類似度が最大になるように局所領域内の縦一ラインずつを上下にずらし補正画像を得る手段を備えることを特徴とする請求項1に記載のステレオマッチング装置。   The image collating means is a means for obtaining a corrected image by shifting the vertical line in the local area up and down so that the similarity between the local area in one image and the local area in the other image is maximized. The stereo matching device according to claim 1, further comprising: ライン画像を並べて作成した2枚のステレオ画像を用いて形状を復元する方法であって、
横軸が平行投影のステレオ画像を2枚取得する画像入力過程と、
前記画像入力過程により得られた2枚の画像のうち1枚の画像における局所領域を変形させた補正画像に対し、もう一枚の画像との類似度を算出する画像照合過程と、
前記画像照合過程により算出された類似度を基に3次元点群を生成する3次元点群生成過程と、
を備えることを特徴とするステレオマッチング方法。
A method of restoring a shape using two stereo images created by arranging line images,
An image input process for acquiring two stereo images with horizontal projections in parallel,
An image matching process for calculating a similarity with another image for a corrected image obtained by deforming a local region in one image of two images obtained by the image input process;
A three-dimensional point cloud generation process for generating a three-dimensional point cloud based on the similarity calculated by the image matching process;
A stereo matching method comprising:
前記画像照合過程は、一枚の画像中の局所領域ともう一枚の画像の局所領域との類似度が最大になるように局所領域内の縦一ラインずつを上下にずらし補正画像を得る過程を備えることを特徴とする請求項3に記載のステレオマッチング方法。   The image matching process is a process of obtaining a corrected image by shifting the vertical line in the local area up and down so that the similarity between the local area in one image and the local area in the other image is maximized. The stereo matching method according to claim 3, further comprising: 請求項3または請求項4のいずれか1項に記載のステレオマッチング方法における処理手順をコンピュータで実行可能に構成したことを特徴とするプログラム。
A program characterized in that the processing procedure in the stereo matching method according to any one of claims 3 and 4 can be executed by a computer.
JP2005006966A 2005-01-14 2005-01-14 Stereo matching apparatus and method, and program for this method Pending JP2006195758A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005006966A JP2006195758A (en) 2005-01-14 2005-01-14 Stereo matching apparatus and method, and program for this method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005006966A JP2006195758A (en) 2005-01-14 2005-01-14 Stereo matching apparatus and method, and program for this method

Publications (1)

Publication Number Publication Date
JP2006195758A true JP2006195758A (en) 2006-07-27

Family

ID=36801804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005006966A Pending JP2006195758A (en) 2005-01-14 2005-01-14 Stereo matching apparatus and method, and program for this method

Country Status (1)

Country Link
JP (1) JP2006195758A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129715A1 (en) * 2018-12-18 2020-06-25 日本電信電話株式会社 Image correction device, image correction method, and program
WO2021214834A1 (en) * 2020-04-20 2021-10-28 日本電信電話株式会社 Vibration correction device, vibration correction method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129715A1 (en) * 2018-12-18 2020-06-25 日本電信電話株式会社 Image correction device, image correction method, and program
WO2021214834A1 (en) * 2020-04-20 2021-10-28 日本電信電話株式会社 Vibration correction device, vibration correction method, and program

Similar Documents

Publication Publication Date Title
JP4889351B2 (en) Image processing apparatus and processing method thereof
JP5067476B2 (en) 3D model creation system
JPWO2018235163A1 (en) Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method
JP5067477B2 (en) Imaging parameter acquisition apparatus, imaging parameter acquisition method, and program
JPWO2008053649A1 (en) Wide-angle image acquisition method and wide-angle stereo camera device
JP4427052B2 (en) Image processing apparatus and area tracking program
KR20110089299A (en) Stereo matching process system, stereo matching process method, and recording medium
JP2007025863A (en) Photographing system, photographing method, and image processing program
JP2007323616A (en) Image processor and processing method therefor
JP2006337075A (en) Three-dimensional information recovery device
CN109859313B (en) 3D point cloud data acquisition method and device, and 3D data generation method and system
JP2006195758A (en) Stereo matching apparatus and method, and program for this method
JP4871315B2 (en) Compound eye photographing apparatus, control method therefor, and program
JP6840968B2 (en) Shape estimation method, shape estimation device and shape estimation program
JP6625654B2 (en) Projection device, projection method, and program
KR101837269B1 (en) Coordination guide method and system based on multiple marker
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded
JP3452188B2 (en) Tracking method of feature points in 2D video
JP6292785B2 (en) Image processing apparatus, image processing method, and program
JP2003256811A (en) Three-dimensional information restoring device and method, program for three-dimensional information restoring method and recording medium with its program recorded
JP2018055390A (en) Image processing apparatus, image processing method, and program
JP2004133556A (en) Three-dimensional shape extraction method, three-dimensional shape extraction program and storage medium storing three-dimensional shape extraction program
JP3523064B2 (en) Three-dimensional shape input method and recording medium storing three-dimensional shape input program
Chien et al. Improved visual odometry based on transitivity error in disparity space: A third-eye approach
JP2007292657A (en) Camera motion information acquiring apparatus, camera motion information acquiring method, and recording medium