JP2007272668A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP2007272668A
JP2007272668A JP2006098970A JP2006098970A JP2007272668A JP 2007272668 A JP2007272668 A JP 2007272668A JP 2006098970 A JP2006098970 A JP 2006098970A JP 2006098970 A JP2006098970 A JP 2006098970A JP 2007272668 A JP2007272668 A JP 2007272668A
Authority
JP
Japan
Prior art keywords
image
conversion
plane
points
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006098970A
Other languages
Japanese (ja)
Other versions
JP4765726B2 (en
Inventor
Masamichi Osugi
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006098970A priority Critical patent/JP4765726B2/en
Publication of JP2007272668A publication Critical patent/JP2007272668A/en
Application granted granted Critical
Publication of JP4765726B2 publication Critical patent/JP4765726B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and method to detect a dense plane area even in an image sequence obtained with a monocular camera. <P>SOLUTION: A feature point detection means 2 detects feature points from a plurality of images input to an image input means 1, and a correspondence relation detecting means 3 associates the feature points of the images with one another. A conversion matrix calculating means 4 calculates a conversion matrix H for converting the pixel positions of at least three selected feature points in the first image to the positions of the corresponding points in the second image. An image conversion means 5 provides an image obtained by converting a predetermined area of the first image H using the conversion matrix H. A determining means 7 determines whether or not the area is a plane according to the similarity between the converted image and the second image that is calculated by a similarity calculating means 6. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理装置および方法に関し、特に、画像中における平面部分を推定する画像処理装置および方法に関する。   The present invention relates to an image processing apparatus and method, and more particularly to an image processing apparatus and method for estimating a plane portion in an image.

画像内における平面領域を検出・推定する技術として特許文献1に開示されている技術が知られている。この技術においては、複数台のカメラを用いて複数の視点から対象領域を含む画像を取得し、ステレオ復元によって画像内の各点の3次元座標を求め、それらの点群からランダムにサンプリングした点を使ってハフ変換を行うことにより、平面推定を行うものである。
特開2003−269937号公報
As a technique for detecting and estimating a planar area in an image, a technique disclosed in Patent Document 1 is known. In this technique, an image including a target region is acquired from a plurality of viewpoints using a plurality of cameras, the three-dimensional coordinates of each point in the image are obtained by stereo restoration, and the points sampled at random from those point groups Plane estimation is performed by performing Hough transform using.
JP 2003-269937 A

しかしながら、上記技術には、以下に掲げるような問題点がある。第一に位置関係が既知である複数のカメラが必要であり、ハード的な構成が複雑になる。第二にステレオ復元によって3次元座標を求めることが可能な点は、画像内の特徴的な点だけであり、復元結果が粗くなる。第三に、このようにして得られた結果に平面を当てはめても十分な精度が得られない。   However, the above technique has the following problems. First, a plurality of cameras whose positional relationships are known are required, and the hardware configuration is complicated. Secondly, the only point where the three-dimensional coordinates can be obtained by stereo restoration is a characteristic point in the image, and the restoration result becomes rough. Third, even if a flat surface is applied to the result thus obtained, sufficient accuracy cannot be obtained.

そこで本発明は、単眼カメラで取得した画像列においても密な平面領域の検出を可能とした画像処理装置および方法を提供することを課題とする。   Therefore, an object of the present invention is to provide an image processing apparatus and method capable of detecting a dense plane region even in an image sequence acquired by a monocular camera.

上記課題を解決するため、本発明にかかる画像処理装置は、(1)複数の画像を取得する画像取得手段と、(2)この画像取得手段で取得した画像間において対応づけられた特徴点である対応点を検出する対応点検出手段と、(3)対応点のうち、同一平面上の少なくとも3点について一方の画像上の画素位置から他方の画像上の画素位置へと変換する変換行列を求める変換行列計算手段と、(4)求めた変換行列に基づいて一方の画像から画素位置変換によって新たな画像を生成する画像変換手段と、(5)生成された画像と他方の画像間で所定の領域についての類似度を算出する類似度算出手段と、(6)求めた類似度に基づいてこの所定の領域が変換行列計算手段で変換行列を求める際に用いた対応点のなす平面上の点であるか否かを判断する判断手段と、を備えていることを特徴とする。   In order to solve the above problems, an image processing apparatus according to the present invention includes (1) an image acquisition unit that acquires a plurality of images, and (2) a feature point that is associated between the images acquired by the image acquisition unit. Corresponding point detecting means for detecting a certain corresponding point; and (3) a conversion matrix for converting at least three points on the same plane from a pixel position on one image to a pixel position on the other image among the corresponding points. (4) image conversion means for generating a new image from one image by pixel position conversion based on the obtained conversion matrix, and (5) predetermined between the generated image and the other image. (6) on the plane formed by the corresponding points used when the predetermined matrix calculates the transformation matrix by the transformation matrix calculation unit based on the obtained similarity Whether or not it is a point Characterized by comprising determination means for disconnection, the.

一方、本発明にかかる画像処理方法は、(1)複数の画像を取得し、(2)取得した画像間において対応づけられた特徴点である対応点を検出し、(3)対応点のうち、同一平面上の少なくとも3点について一方の画像上の画素位置から他方の画像上の画素位置へと変換する変換行列を求め、(4)求めた変換行列に基づいて一方の画像から画素位置変換によって新たな画像を生成し、(5)生成された画像と他方の画像間で所定の領域についての類似度を算出し、(6)求めた類似度に基づいてこの所定の領域が変換行列を求める際に用いた対応点のなす平面上の点であるか否かを判断する各工程を備えていることを特徴とする。   On the other hand, the image processing method according to the present invention includes (1) acquiring a plurality of images, (2) detecting corresponding points that are feature points associated with the acquired images, and (3) , Obtaining a transformation matrix for converting at least three points on the same plane from a pixel position on one image to a pixel position on the other image, and (4) converting the pixel position from one image based on the obtained transformation matrix To generate a new image, (5) calculate the similarity for a predetermined area between the generated image and the other image, and (6) convert the conversion matrix to the predetermined area based on the obtained similarity. Each step of determining whether or not the point is on a plane formed by the corresponding point used in the determination is provided.

本発明によれば、異なる2画像間で特徴点を対応づける。その対応点から同一平面上に位置する少なくとも3点を抽出し、これら3点等を基準として、一方の画像上の画素位置から他方の画像上の画素位置へと変換を行う変換行列を求める。この変換行列により一方の画像上の各画素位置を変換すると、これらの3点等と同一の平面上に位置する画素は、他方の画像上の画素位置と同一位置に変換されるが、他の平面上に位置する画素は、これと異なる位置に変換される。したがって、これらの3点等と同一の平面上に位置する領域は、一方の画像からこの変換行列により変換された画像と、他方の画像とで同じ位置に位置することになり、この領域については、両方の画像は類似することになる。この関係を基にして、画面内の平面を判別できる。   According to the present invention, feature points are associated between two different images. At least three points located on the same plane are extracted from the corresponding points, and a conversion matrix for performing conversion from a pixel position on one image to a pixel position on the other image is obtained using these three points as a reference. When each pixel position on one image is converted by this conversion matrix, the pixel located on the same plane as these three points is converted to the same position as the pixel position on the other image. Pixels located on the plane are converted to different positions. Therefore, the area located on the same plane as these three points is located at the same position in the image transformed from this image by this transformation matrix and in the other image. Both images will be similar. Based on this relationship, the plane in the screen can be determined.

変換行列を求める際に用いられる対応点は、画像内または3次元空間内における距離が所定値以下の点から選択されるとよい。画像内での距離や3次元空間内における距離が離れているよりも近い点のほうが同一平面の端点である可能性が高いからである。   Corresponding points used for obtaining the transformation matrix may be selected from points whose distance in the image or in the three-dimensional space is a predetermined value or less. This is because a closer point is more likely to be an end point on the same plane than a distance in the image or in a three-dimensional space.

画像変換は、変換後の画素位置における輝度値を補間により求めて画像変換を行うと好ましい。処理対象となる画像においては、通常、タイル状に画素が並んだ構成をとる。この場合に、変換行列による変換後の画素位置と他方の画像の画素位置とは、画素の間隔より小さい距離でずれる可能性がある。このずれを補正し、画素位置を合わせるために輝度値を補間により求めるとよい。   The image conversion is preferably performed by obtaining the luminance value at the pixel position after conversion by interpolation. An image to be processed usually has a configuration in which pixels are arranged in a tile shape. In this case, the pixel position after conversion by the conversion matrix and the pixel position of the other image may be shifted by a distance smaller than the pixel interval. In order to correct this shift and match the pixel position, the luminance value may be obtained by interpolation.

類似度算出は、変換前後の画像上の同一座標周辺の輝度値の差を予め定めたしきい値と比較することによって行うとよい。つまり、輝度値の差が大きい場合には、類似していないと判断し、差が小さい場合に類似していると判断する。   The similarity calculation may be performed by comparing a difference in luminance value around the same coordinate on the image before and after conversion with a predetermined threshold value. That is, when the difference in luminance value is large, it is determined that they are not similar, and when the difference is small, it is determined that they are similar.

類似度算出に際しては、変換前後の画像上の同一座標周辺の輝度値の偶数乗、あるいは絶対値の積算値を予め定めたしきい値と比較することによって行うとよい。この場合は、単純な輝度値の差を用いる場合に比較して、輝度値の差の大きな画素が存在する場合に、類似していないと判定しやすくなる。   The similarity calculation may be performed by comparing the even power of the luminance value around the same coordinate on the image before and after conversion or the integrated value of the absolute value with a predetermined threshold value. In this case, it is easier to determine that they are not similar when there is a pixel with a large difference in luminance value, compared to the case where a simple difference in luminance value is used.

類似度算出を行う所定の領域は、変換行列を用いる際に用いた対応点の形成する閉塞領域内に限るとよい。この閉塞領域とは、対応点が3点の場合には、3点の形成する3角形内であり、4点の場合には、4点の形成する矩形である。5点以上の場合には、対応点により囲まれる多角形領域に対応する。対応点となる特徴点はエッジ抽出等により求められるため、通常、平面ないし曲面の端点を構成する場合が多いからである。   The predetermined area for calculating the similarity may be limited to the closed area formed by the corresponding points used when the transformation matrix is used. The closed area is a triangle formed by three points when there are three corresponding points, and a rectangle formed by four points when there are four corresponding points. In the case of 5 points or more, it corresponds to a polygonal region surrounded by corresponding points. This is because the feature points serving as the corresponding points are obtained by edge extraction or the like, and therefore usually end points of planes or curved surfaces are often formed.

あるいは、本発明にかかる画像処理装置は、(1)画像取得手段と、(2)画像取得手段により撮像された画像中の領域を検出する手段と、(3)検出した領域が平面か否かを判定する手段と、(4)画像中の領域が平面でないと判定された場合には、該領域内の小領域が平面か否かをさらに判定する手段と、を備えていることを特徴とする。   Alternatively, the image processing apparatus according to the present invention includes (1) an image acquisition unit, (2) a unit that detects a region in an image captured by the image acquisition unit, and (3) whether the detected region is a plane. And (4) means for further determining whether or not a small area in the area is a plane when it is determined that the area in the image is not a plane. To do.

また、本発明にかかる別の画像処理方法は、(1)画像を取得し、(2)取得した画像中の領域を検出し、(3)検出した領域が平面か否かを判定し、(4)画像中の領域が平面でないと判定された場合には、該領域内の小領域が平面か否かをさらに判定する各工程を備えていることを特徴とするものである。   In another image processing method according to the present invention, (1) an image is acquired, (2) an area in the acquired image is detected, (3) it is determined whether the detected area is a plane, 4) The method includes the steps of further determining whether or not the small area in the area is a plane when it is determined that the area in the image is not a plane.

最初に検出した領域が平面でなくとも、平面の小領域を含む領域である可能性がある。そこで、最初の領域をさらに分割して、その中の領域を再度検証することで、平面を探索する。   Even if the first detected area is not a plane, it may be an area including a small area of the plane. Therefore, the plane is searched by further dividing the first area and verifying the area again.

本発明によれば、複数の画像、例えば、連続的に取得した対象物との位置関係の異なる画像中から取得した少なくとも2つの画像間において、一方の画像から他方の画像へと特定の平面上の点(画素)の位置を変換する変換行列を求め、この変換行列によって一方の画像を変換した場合に、他方の画像と類似する領域を平面領域と判定するので、単眼カメラで取得した画像列においても平面領域を検出することができる。特に、これらの対応点の間に非平面(例えば、曲面)が存在する場合に、これを平面領域と誤判定するのを低減できる。   According to the present invention, between at least two images acquired from a plurality of images, for example, images having different positional relationships with a continuously acquired object, from one image to the other image on a specific plane. An image sequence obtained by a monocular camera is obtained by obtaining a transformation matrix that converts the position of the point (pixel) of the image, and when one image is transformed by this transformation matrix, an area similar to the other image is determined as a planar area. It is possible to detect a planar area in step (b). In particular, when there is a non-planar surface (for example, a curved surface) between these corresponding points, erroneous determination of this as a planar region can be reduced.

変換行列を求める際に用いる対応点を空間上または画像内で近接させることで、平面である可能性の高い小領域ごとの検証が可能となる。また、画像変換の際に輝度値の補間を行うことで、比較する領域の画素位置を一致させることができ、類似判定が容易になる。   By making the corresponding points used when obtaining the transformation matrix close in space or in the image, it is possible to verify each small region that is highly likely to be a plane. Further, by interpolating the luminance value at the time of image conversion, the pixel positions of the areas to be compared can be matched, and similarity determination is facilitated.

類似度算出を輝度値の差により行うと、判定基準が明確になる。さらに偶数乗や絶対値の積算値を用いることで、輝度値の差の大きな画素が近くに存在する場合に類似していないと判定しやすくなる。   If the similarity is calculated based on the difference in luminance values, the determination criterion becomes clear. Furthermore, by using an even power or an integrated value of absolute values, it is easy to determine that the pixels are not similar when pixels with a large difference in luminance values exist nearby.

対応点は面領域の端点を構成する点である可能性が高いので、対応点による閉塞領域内を対象に平面判定を行うことで、連続する複数の面を同時に判定対象とするのを予防できる。   Corresponding points are highly likely to be points that constitute end points of the surface area, so that it is possible to prevent a plurality of continuous surfaces from being simultaneously determined by performing plane determination for the inside of the occlusion area by the corresponding points. .

最初に検出した領域が平面でなくとも、さらに領域を細分化して平面判定を行うことで、端部が不明瞭な平面についても平面判定が可能となる。   Even if the first detected area is not a plane, it is possible to determine a plane even for a plane whose edge is unclear by further subdividing the area and performing plane determination.

以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。図1は、本発明にかかる画像処理装置の概略構成を示すブロック図である。この画像処理装置は、認識対象物を撮影した複数の画像が入力される画像入力手段1と、各々の画像中から特徴点を検出する特徴点検出手段2と、各画像間の特徴点の対応関係を検出する対応関係検出手段3と、選択した特徴点の一方の画像中での位置を他方の画像中での位置へと変換する変換行列計算手段4と、求めた変換行列に基づいた画像変換を行う画像変換手段5と、所定の画像間で所定の領域間の類似度を算出する類似度算出手段6と、算出した類似度から平面判定を行う判断手段7と、判断手段7の結果を基に必要であれば処理領域を指定しなおす処理領域指定手段8とを備えている。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to the present invention. This image processing apparatus includes an image input means 1 for inputting a plurality of images obtained by photographing a recognition target, a feature point detection means 2 for detecting a feature point from each image, and correspondence between feature points between the images. Correspondence detection unit 3 for detecting the relationship, conversion matrix calculation unit 4 for converting the position of the selected feature point in one image into a position in the other image, and an image based on the obtained conversion matrix Image conversion means 5 that performs conversion, similarity calculation means 6 that calculates similarity between predetermined areas between predetermined images, determination means 7 that performs plane determination from the calculated similarity, and results of determination means 7 And a processing area designating unit 8 for redesignating the processing area if necessary.

画像入力手段1は、例えば、テレビカメラ等の動画を撮像して画像列として取り込む装置である。そのほかに、ビデオレコーダ等に保持されている動画データ中から画像列を取り込むビデオキャプチャー装置等や異なる視点からの動画または静止画を取り込む装置であれば、デジタルカメラ装置やイメージスキャナ等であってもよい。あるいはすでにコンピュータ等の記憶装置に格納されている画像を対象としてもよい。   The image input unit 1 is a device that captures moving images such as a television camera and captures them as an image sequence. In addition, a digital camera device, an image scanner, etc., as long as it is a video capture device that captures an image sequence from moving image data held in a video recorder or the like, or a device that captures moving images or still images from different viewpoints Good. Alternatively, an image already stored in a storage device such as a computer may be targeted.

特徴点検出手段2、対応関係検出手段3、変換行列計算手段4、画像変換手段5、類似度算出手段6、判断手段7、処理領域指定手段8は、いずれもCPU、ROM、RAM等によって構成される。これらの各手段は、独立した別々のハードウェアとして構成されていてもよいが、一部または全部のハードウェアを共有し、ソフトウェアにより個々の手段が実現されていてもよい。なお、この場合に、各手段を構成するソフトウェアは別個独立していてもよいが、その一部を共有してもよく、1つのソフトウェアの内部に複数の手段が組み込まれる構成であってもよい。   The feature point detection unit 2, the correspondence relationship detection unit 3, the transformation matrix calculation unit 4, the image conversion unit 5, the similarity calculation unit 6, the determination unit 7, and the processing area designation unit 8 are all configured by a CPU, a ROM, a RAM, and the like. Is done. Each of these means may be configured as independent and separate hardware, but some or all of the hardware may be shared and each means may be realized by software. In this case, the software constituting each means may be independent, but a part of the software may be shared, or a plurality of means may be incorporated in one software. .

続いて、本実施形態の動作である本発明にかかる画像処理方法について図2のフローチャートを参照しつつ、具体的に説明する。まず、画像入力手段1に複数の画像が入力される(ステップS1)。ここでは、対象物に対する相対的な視点位置の異なる2画像を入力させた場合を例に説明する。入力された2画像は、図示していない一時記憶手段(例えば、RAM等のメモリや磁気ディスク等で構成される。)内に格納しておくとよい。   Next, the image processing method according to the present invention, which is the operation of the present embodiment, will be specifically described with reference to the flowchart of FIG. First, a plurality of images are input to the image input unit 1 (step S1). Here, a case where two images having different viewpoint positions relative to the object are input will be described as an example. The input two images may be stored in a temporary storage unit (not shown) (for example, a memory such as a RAM or a magnetic disk).

次に、特徴点検出手段2により、第1画像I中の特徴点候補を検出する(ステップS2)。具体的には、輝度・輝度パターンが特徴的な点を検出する手法を用いればよく、例えば、harrisオペレータ(C. Harris、M. Stephens著”A Combined Corner and Edge Detector,”Proc. Alvey Vision Conf.,pp.147〜151,1988年、参照)と呼ばれる手法を用いればよい。検出した特徴点の画像上の位置は、上述した一時記憶手段内に格納される。   Next, the feature point detection means 2 detects feature point candidates in the first image I (step S2). Specifically, a technique for detecting a point having a characteristic luminance / luminance pattern may be used. For example, a Harris operator (C. Harris, M. Stephens, “A Combined Corner and Edge Detector,” Proc. Alley Vision Conf. , Pp. 147 to 151, 1988)). The position of the detected feature point on the image is stored in the temporary storage means described above.

対応関係検出手段3は、検出した特徴点の両画像中での対応関係をテンプレートマッチングにより求める(ステップS3)。具体的には、第1画像I中の特徴点に対応する第2画像T中での画素位置を算出する。式(1)により、第1画像Iの特徴点(x,y)と第2画像Tの位置(x,y)間の類似度を求め、類似度が良好な画素位置を対応位置と判定すればよい。なお、U、Vは、類似度を判定する範囲をそれぞれ水平、垂直方向で設定した集合を表すものである。 The correspondence relationship detection means 3 obtains the correspondence relationship between the detected feature points in both images by template matching (step S3). Specifically, the pixel position in the second image T corresponding to the feature point in the first image I is calculated. By the expression (1), the similarity between the feature point (x 1 , y 1 ) of the first image I and the position (x, y) of the second image T is obtained, and the pixel position having a good similarity is defined as the corresponding position. What is necessary is just to judge. U and V represent sets in which ranges for determining similarity are set in the horizontal and vertical directions, respectively.

Figure 2007272668
Figure 2007272668

特徴点の対応関係を検出したら、変換行列計算手段4は、対応関係が得られた特徴点のうち所定の3点を抽出する(ステップS4)。この3点は、同一直線上に位置している3点ではなく、画像内に映し出されている一平面上に位置すると予想される3点であり、例えば、画像内での距離が所定距離以内に近接している3点、または、3次元空間における距離が所定距離以内に近接している3点を選択する。その他の選択基準としては、(1)3点に囲まれる領域内に他の特徴点が存在しないか、存在しても所定個数以下である、(2)3点中の2点が同一輪郭線上に位置しており、他の1点は、この2点のうち1点と同一の他の輪郭線上に位置している、が挙げられる。   When the correspondence relationship between the feature points is detected, the transformation matrix calculation unit 4 extracts predetermined three points from the feature points for which the correspondence relationship has been obtained (step S4). These three points are not the three points that are located on the same straight line, but are the three points that are expected to be located on one plane projected in the image. For example, the distance within the image is within a predetermined distance. Or three points close to each other within a predetermined distance in a three-dimensional space. Other selection criteria are: (1) No other feature points exist in the area surrounded by the three points, or even if they exist, the number is equal to or less than the predetermined number. (2) Two of the three points are on the same contour line. The other one point is located on another contour line that is the same as one of the two points.

次に選択された3点の画素位置を変換する変換行列Hを求める。このHは、第1画像I上の特徴点の画素位置Pを(u,v)、第2画像T上の特徴点の画素位置P’を(u,v)とすると、式(2)を満たす。 Next, a conversion matrix H for converting the selected three pixel positions is obtained. This H can be expressed as follows, assuming that the pixel position P of the feature point on the first image I is (u 1 , v 1 ) and the pixel position P ′ of the feature point on the second image T is (u 2 , v 2 ). Satisfy (2).

Figure 2007272668
Figure 2007272668

この関係を図3に示されるような3組の特徴点P−P’、P−P’、P−P’について満たす満たすHを最小自乗法等によって求める。 A satisfying H satisfying this relationship with respect to three sets of feature points P 1 -P 1 ′, P 2 -P 2 ′, and P 3 -P 3 ′ as shown in FIG. 3 is obtained by the method of least squares or the like.

次に、画像変換プロセス(ステップS6〜S9)を実行する。まず、変換後の画像上で3点が形成する領域内の画素を抽出する。この抽出は、第2画像T上の特徴点の画素位置P’、P’、P’のうち、例えば、P’を原点とし、P’から残り2つの特徴点P’、P’へと向かうベクトルをt、sとすると、この3点に囲まれる領域(閉塞領域)内の点P’は、以下の(3)式を満たす。ここで、α+βは0〜1のスカラー値である。 Next, an image conversion process (steps S6 to S9) is executed. First, pixels in a region formed by three points on the converted image are extracted. For this extraction, among the pixel positions P 1 ′, P 2 ′, and P 3 ′ of the feature points on the second image T, for example, P 1 ′ is the origin, and the remaining two feature points P 2 ′ from P 1 ′. , P 3 ′ is t and s, the point P n ′ in the region (blocking region) surrounded by the three points satisfies the following expression (3). Here, α + β is a scalar value from 0 to 1.

Figure 2007272668
Figure 2007272668

そこで(3)式を満たす画素位置、つまり、元画像内座標において座標値が整数をとる位置(図4に示されるような格子位置)を抽出すればよい。 Therefore, a pixel position satisfying the expression (3), that is, a position where the coordinate value takes an integer in the coordinates in the original image (grid position as shown in FIG. 4) may be extracted.

次に求めたP’の画素位置に対応する変換前画像(第1画像)における画素位置Pを求める(ステップS7)。これは、(2)式で求めた変換行列Hの逆行列H−1を使うことで、(4)式により求めることができる。 Obtain the pixel position P n at the next determined conversion prior image corresponding to the pixel position of the P n '(first image) (step S7). This can be obtained by equation (4) by using the inverse matrix H −1 of the transformation matrix H obtained by equation (2).

Figure 2007272668
Figure 2007272668

次に、画素位置Pに対応する輝度値を算出する(ステップS8)。ここで、Pの座標値は、P’と異なり、整数値(格子位置)をとるとは限らない。そこで、以下のような手法を用いる。第1は、座標値がともに整数値をとり、第1画素Iの対応位置に画素が存在する場合には、その画素の値を使い、その間に存在する場合には、最も近接している画素の輝度値を用いる手法、第2は、周囲の画素(4画素〜16画素)の座標値・輝度値を用いて内挿法により輝度値を算出する手法等がある。このように補間により輝度値を求める内挿法としては、バイリニア法やバイキュービック法等を用いることができる。こうして画素位置Pの輝度値を求めたら、その輝度値を変換後の画像の画素位置Pn’の輝度値とする(ステップS9)。これにより、変換後の画像T’が求まる。 Next, a luminance value corresponding to the pixel position Pn is calculated (step S8). Here, the coordinate values of P n is different from P n ', not necessarily take integer values (lattice position). Therefore, the following method is used. First, if the coordinate values are both integer values and a pixel exists at the corresponding position of the first pixel I, the value of that pixel is used, and if it exists between them, the closest pixel is used. And a second method is to calculate the luminance value by interpolation using the coordinate values and luminance values of surrounding pixels (4 to 16 pixels). As such an interpolation method for obtaining the luminance value by interpolation, a bilinear method, a bicubic method, or the like can be used. When the luminance value of the pixel position P n is obtained in this way, the luminance value is set as the luminance value of the pixel position Pn ′ of the converted image (step S9). Thereby, the image T ′ after conversion is obtained.

次に、類似度算出手段6が他方の画像Tと変換後の画像T’の類似度を算出し、判段手段7が類似関係にあるか否かを判断する(ステップS10)。ここで、類似度を算出するのは、画像T’の画素位置P’に対応する領域である。類似度による評価手法としては、例えば、画像TとT’の対応位置の輝度値の差が所定値以内である場合に類似していると評価すればよい。なお、個々の輝度値の差の絶対値がいずれも所定値以内である場合に限ってもよいが、取得画像におけるノイズ等の影響を排除するため、所定値以内である画素が所定比率以上であること、最大差が所定値以下であること等により評価してもよい。さらには、輝度値の差の絶対値の積算値、累積二乗和、平均値、二乗平均等により評価してもよい。この積算や累積において、重みづけを行ってもよい。あるいは、当該画素と周囲の画素との輝度値の大小関係が変換後の画像T’と他方の画像Tとの間で同一の場合に類似していると判断する手法を用いてもよい。 Next, the similarity calculating means 6 calculates the similarity between the other image T and the converted image T ′, and determines whether the judging means 7 has a similar relationship (step S10). Here, the similarity is calculated in an area corresponding to the pixel position P n ′ of the image T ′. As an evaluation method based on the degree of similarity, for example, it may be evaluated that they are similar when the difference in luminance value between corresponding positions of the images T and T ′ is within a predetermined value. Note that the absolute value of the difference between individual luminance values may be within a predetermined value, but in order to eliminate the influence of noise or the like in the acquired image, pixels that are within the predetermined value have a predetermined ratio or more. The evaluation may be performed based on whether the maximum difference is equal to or less than a predetermined value. Furthermore, evaluation may be performed by an integrated value of absolute values of differences in luminance values, a cumulative sum of squares, an average value, a mean square, or the like. Weighting may be performed in this integration or accumulation. Alternatively, a method may be used in which it is determined that the magnitude relationship between the luminance values of the pixel and the surrounding pixels is similar when the converted image T ′ and the other image T are the same.

このような基準によって類似していると判断した場合には、当該領域は平面であると判定し(ステップS11)、類似していないと判定した場合には非平面であると判定する(ステップS12)。判定終了後は、ステップS13へと移行して3点の組み合わせが終了したかどうかを判定し、未了の場合には、ステップS14へと移行して、次の3点を選択し、ステップS5へと戻ることで、全ての3点の組み合わせについて検証を行う。   When it is determined that they are similar according to such a criterion, the region is determined to be a plane (step S11), and when it is determined that they are not similar, it is determined to be a non-plane (step S12). ). After completion of the determination, the process proceeds to step S13 to determine whether or not the combination of three points has been completed. If the combination has not been completed, the process proceeds to step S14 to select the next three points, and step S5 By going back to, all three combinations are verified.

変換行列Hは、第1の画像I上の選択した3点のなす平面上の点が第2の画像T上において占める位置へと変換するものである。したがって、変換行列Hにより第1の画像Iから変換された画像T’と第2の画像Tにおいて同一位置に位置している点は、当該平面上の点であると推定できる。本実施形態はこの関係を利用したものであり、当該3点に囲まれる領域の各画素について類似判定を行うことができるので、広い領域についても精度よく判定を行うことができる。   The transformation matrix H is a transformation into a position occupied on the second image T by points on the plane formed by the three selected points on the first image I. Therefore, it can be estimated that a point located at the same position in the image T ′ converted from the first image I by the conversion matrix H and the second image T is a point on the plane. In this embodiment, this relationship is used, and similarity determination can be performed for each pixel in the region surrounded by the three points. Therefore, it is possible to perform determination for a wide region with high accuracy.

特に、変換行列を求めるには、両画像間で対象平面の見え方が異なれば足りるので、複数のカメラで取得した画像でなくともカメラまたは対象物が移動した場合の移動前、移動後の画像を用いてもよい。したがって、単眼カメラで取得した画像列(動画像)からも平面を判定することができる。   In particular, in order to obtain the transformation matrix, it is sufficient that the target plane looks different between the two images. Therefore, the images before and after the movement when the camera or the object moves are not acquired by a plurality of cameras. May be used. Therefore, the plane can be determined also from the image sequence (moving image) acquired by the monocular camera.

なお、特徴点の間隔が画像内や3次元空間において離れている場合に、選択した3点により囲まれる領域が1つの平面を含む複数の平面や曲面によって構成されている場合がありうる。このような場合には、当該領域全体は選択した3点のなす平面と同一の平面上には存在しないため、平面でないと判定されてしまう。そこで、処理領域指定手段8により、最初に選択した3点内の領域を細分化し、細分化した領域それぞれについて上述のステップS5〜S12の判定処理を行い、必要ならこれを繰り返すことで、多面で構成された領域から平面を判定することができる。細分化の手法としては、当該領域内で別の特徴点検出手法に基づいて特徴点を検出する手法や画像内で領域を等分することで、領域を分割する手法等を用いればよい。   When the feature points are spaced apart in the image or in the three-dimensional space, the region surrounded by the selected three points may be constituted by a plurality of planes or curved surfaces including one plane. In such a case, since the entire area does not exist on the same plane as the plane formed by the three selected points, it is determined that the area is not a plane. Therefore, the processing area designating means 8 subdivides the first three selected areas, and performs the determination processing in steps S5 to S12 for each of the subdivided areas. A plane can be determined from the configured area. As a subdivision method, a method of detecting feature points based on another feature point detection method in the region, a method of dividing a region by equally dividing the region, or the like may be used.

以上の説明では、3点を選択する例を説明したが、4点以上を選択してもよい。4点以上を選択すれば、変換行列Hの精度は高まるが、3点の場合と異なり、当該4点が必ずしも同一平面上にあるとは限らないので、当該4点以上が同一面の端点である可能性が高いと予想される場合に用いることが好ましい。   In the above description, an example in which three points are selected has been described, but four or more points may be selected. If four or more points are selected, the accuracy of the transformation matrix H increases. However, unlike the case of three points, the four points are not necessarily on the same plane, so the four or more points are end points on the same plane. It is preferable to use it when it is expected that there is a high possibility.

本発明にかかる画像処理装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an image processing apparatus according to the present invention. 本発明にかかる画像処理方法の具体的な動作処理を示すフローチャートである。It is a flowchart which shows the specific operation | movement process of the image processing method concerning this invention. 変換行列の算出を説明する図である。It is a figure explaining calculation of a conversion matrix. 画素の様子を示す図である。It is a figure which shows the mode of a pixel.

符号の説明Explanation of symbols

1…画像入力手段、2…特徴点検出手段、3…対応関係検出手段、4…変換行列計算手段、5…画像変換手段、6…類似度算出手段、7…判断手段。
DESCRIPTION OF SYMBOLS 1 ... Image input means, 2 ... Feature point detection means, 3 ... Correspondence relationship detection means, 4 ... Conversion matrix calculation means, 5 ... Image conversion means, 6 ... Similarity calculation means, 7 ... Determination means.

Claims (14)

複数の画像を取得する画像取得手段と、
前記画像取得手段で取得した画像間において対応づけられた特徴点である対応点を検出する対応点検出手段と、
対応点のうち、同一平面上の少なくとも3点について一方の画像上の画素位置から他方の画像上の画素位置へと変換する変換行列を求める変換行列計算手段と、
求めた変換行列に基づいて一方の画像から画素位置変換によって新たな画像を生成する画像変換手段と、
生成された画像と他方の画像間で所定の領域についての類似度を算出する類似度算出手段と、
求めた類似度に基づいて前記所定の領域が変換行列計算手段で変換行列を求める際に用いた対応点のなす平面上の点であるか否かを判断する判断手段と、
を備えていることを特徴とする画像処理装置。
Image acquisition means for acquiring a plurality of images;
Corresponding point detection means for detecting corresponding points that are feature points associated between images acquired by the image acquisition means;
Conversion matrix calculation means for obtaining a conversion matrix for converting at least three points on the same plane from a pixel position on one image to a pixel position on the other image among the corresponding points;
Image conversion means for generating a new image by pixel position conversion from one image based on the obtained conversion matrix;
Similarity calculation means for calculating the similarity for a predetermined area between the generated image and the other image;
Judging means for judging whether or not the predetermined area is a point on a plane formed by corresponding points used when the transformation matrix calculating means obtains the transformation matrix based on the obtained similarity;
An image processing apparatus comprising:
前記変換行列計算手段で変換行列を求める際に用いられる対応点は、画像内または3次元空間内における距離が所定値以下の点から選択されることを特徴とする請求項1記載の画像処理装置。   2. The image processing apparatus according to claim 1, wherein the corresponding points used when the transformation matrix calculation means obtains the transformation matrix are selected from points whose distance in the image or three-dimensional space is a predetermined value or less. . 画像変換手段は、変換後の画素位置における輝度値を補間により求めて画像変換を行うことを特徴とする請求項1記載の画像処理装置。   2. The image processing apparatus according to claim 1, wherein the image conversion means performs image conversion by obtaining a luminance value at the pixel position after conversion by interpolation. 前記類似度算出手段は、変換前後の画像上の同一座標周辺の輝度値の差を予め定めたしきい値と比較することによって行うことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the similarity calculation unit is configured to compare a difference between luminance values around the same coordinate on the image before and after conversion with a predetermined threshold value. 前記類似度算出手段は、変換前後の画像上の同一座標周辺の輝度値の偶数乗、あるいは絶対値の積算値を予め定めたしきい値と比較することによって行うことを特徴とする請求項1記載の画像処理装置。   2. The similarity calculation means is performed by comparing an even power of luminance values around the same coordinates on an image before and after conversion or an integrated value of absolute values with a predetermined threshold value. The image processing apparatus described. 前記類似度算出手段で算出を行う所定の領域は、前記変換行列計算手段で変換行列を用いる際に用いた対応点の形成する閉塞領域内に限られることを特徴とする請求項4または5に記載の画像処理装置。   6. The predetermined area calculated by the similarity calculation means is limited to a closed area formed by corresponding points used when the conversion matrix is used by the conversion matrix calculation means. The image processing apparatus described. 画像取得手段と、
画像取得手段により取得された画像中の領域を検出する手段と、
検出した領域が平面か否かを判定する手段と、
画像中の領域が平面でないと判定された場合には、該領域内の小領域が平面か否かをさらに判定する手段と、
を備えていることを特徴とする画像処理装置。
Image acquisition means;
Means for detecting a region in the image acquired by the image acquisition means;
Means for determining whether or not the detected region is a plane;
If it is determined that the region in the image is not a plane, means for further determining whether or not the small region in the region is a plane;
An image processing apparatus comprising:
複数の画像を取得し、
取得した画像間において対応づけられた特徴点である対応点を検出し、
対応点のうち、同一平面上の少なくとも3点について一方の画像上の画素位置から他方の画像上の画素位置へと変換する変換行列を求め、
求めた変換行列に基づいて一方の画像から画素位置変換によって新たな画像を生成し、
生成された画像と他方の画像間で所定の領域についての類似度を算出し、
求めた類似度に基づいて前記所定の領域が変換行列を求める際に用いた対応点のなす平面上の点であるか否かを判断する各工程を備えていることを特徴とする画像処理方法。
Acquire multiple images,
Detect corresponding points, which are feature points associated between acquired images,
Among the corresponding points, for at least three points on the same plane, a conversion matrix for converting from a pixel position on one image to a pixel position on the other image is obtained.
Generate a new image from one image by pixel position conversion based on the obtained conversion matrix,
Calculate the similarity for a given area between the generated image and the other image,
An image processing method comprising: determining whether or not the predetermined region is a point on a plane formed by corresponding points used when obtaining a transformation matrix based on the obtained similarity .
前記変換行列を求める際に用いられる対応点は、画像内または3次元空間内における距離が所定値以下の点から選択されることを特徴とする請求項8記載の画像処理方法。   9. The image processing method according to claim 8, wherein the corresponding points used when obtaining the transformation matrix are selected from points whose distance in the image or three-dimensional space is a predetermined value or less. 前記画像変換は、変換後の画素位置における輝度値を補間により求めて画像変換を行うことを特徴とする請求項8記載の画像処理方法。   9. The image processing method according to claim 8, wherein the image conversion is performed by obtaining a luminance value at a pixel position after conversion by interpolation. 変換前後の画像上の同一座標周辺の輝度値の差を予め定めたしきい値と比較することによって類似度算出を行うことを特徴とする請求項8記載の画像処理方法。   9. The image processing method according to claim 8, wherein similarity calculation is performed by comparing a difference in luminance value around the same coordinate on the image before and after conversion with a predetermined threshold value. 変換前後の画像上の同一座標周辺の輝度値の偶数乗、あるいは絶対値の積算値を予め定めたしきい値と比較することによって類似度算出を行うことを特徴とする請求項8記載の画像処理方法。   9. The image according to claim 8, wherein the similarity is calculated by comparing an even power of luminance values around the same coordinates on the image before and after conversion, or an absolute value integrated value with a predetermined threshold value. Processing method. 類似度の算出を行う所定の領域は、変換行列を用いる際に用いた対応点の形成する閉塞領域内に限られることを特徴とする請求項11または12に記載の画像処理方法。   The image processing method according to claim 11 or 12, wherein the predetermined area for calculating the similarity is limited to a closed area formed by a corresponding point used when the transformation matrix is used. 画像を取得し、
取得した画像中の領域を検出し、
検出した領域が平面か否かを判定し、
画像中の領域が平面でないと判定された場合には、該領域内の小領域が平面か否かをさらに判定する各工程を備えていることを特徴とする画像処理方法。
Get an image,
Detect areas in the acquired image,
Determine whether the detected area is a plane,
An image processing method comprising the steps of further determining whether or not a small area in the area is a plane when it is determined that the area in the image is not a plane.
JP2006098970A 2006-03-31 2006-03-31 Image processing apparatus and method Expired - Fee Related JP4765726B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006098970A JP4765726B2 (en) 2006-03-31 2006-03-31 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006098970A JP4765726B2 (en) 2006-03-31 2006-03-31 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2007272668A true JP2007272668A (en) 2007-10-18
JP4765726B2 JP4765726B2 (en) 2011-09-07

Family

ID=38675395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006098970A Expired - Fee Related JP4765726B2 (en) 2006-03-31 2006-03-31 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4765726B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122843A (en) * 2007-11-13 2009-06-04 Fuji Xerox Co Ltd Image processing device and program
CN116994457A (en) * 2023-09-26 2023-11-03 深圳海星智驾科技有限公司 Detection method and device for vehicle collision prevention, computer equipment and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143156A (en) * 1991-11-21 1993-06-11 Mazda Motor Corp Device for recognizing environment
JP2000293693A (en) * 1999-03-31 2000-10-20 Toshiba Corp Obstacle detecting method and device
JP2001076128A (en) * 1999-09-09 2001-03-23 Toshiba Corp Device and method for detecting obstacle
JP2002352225A (en) * 2001-05-23 2002-12-06 Toshiba Corp Obstacle detector and its method
JP2004069583A (en) * 2002-08-08 2004-03-04 Nissan Motor Co Ltd Image processing device
JP2004117078A (en) * 2002-09-25 2004-04-15 Toshiba Corp Obstacle detection device and method
JP2004191354A (en) * 2002-11-29 2004-07-08 Toshiba Corp Calibration method, calibration support device, calibration device and production method of camera system
JP2005217883A (en) * 2004-01-30 2005-08-11 Rikogaku Shinkokai Method for detecting flat road area and obstacle by using stereo image

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143156A (en) * 1991-11-21 1993-06-11 Mazda Motor Corp Device for recognizing environment
JP2000293693A (en) * 1999-03-31 2000-10-20 Toshiba Corp Obstacle detecting method and device
JP2001076128A (en) * 1999-09-09 2001-03-23 Toshiba Corp Device and method for detecting obstacle
JP2002352225A (en) * 2001-05-23 2002-12-06 Toshiba Corp Obstacle detector and its method
JP2004069583A (en) * 2002-08-08 2004-03-04 Nissan Motor Co Ltd Image processing device
JP2004117078A (en) * 2002-09-25 2004-04-15 Toshiba Corp Obstacle detection device and method
JP2004191354A (en) * 2002-11-29 2004-07-08 Toshiba Corp Calibration method, calibration support device, calibration device and production method of camera system
JP2005217883A (en) * 2004-01-30 2005-08-11 Rikogaku Shinkokai Method for detecting flat road area and obstacle by using stereo image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122843A (en) * 2007-11-13 2009-06-04 Fuji Xerox Co Ltd Image processing device and program
CN116994457A (en) * 2023-09-26 2023-11-03 深圳海星智驾科技有限公司 Detection method and device for vehicle collision prevention, computer equipment and storage medium
CN116994457B (en) * 2023-09-26 2023-12-29 深圳海星智驾科技有限公司 Detection method and device for vehicle collision prevention, computer equipment and storage medium

Also Published As

Publication number Publication date
JP4765726B2 (en) 2011-09-07

Similar Documents

Publication Publication Date Title
JP6330987B2 (en) Image processing apparatus, image processing method, and storage medium
JP5870273B2 (en) Object detection apparatus, object detection method, and program
JP6125188B2 (en) Video processing method and apparatus
JP2004234423A (en) Stereoscopic image processing method, stereoscopic image processor and stereoscopic image processing program
JP4521235B2 (en) Apparatus and method for extracting change of photographed image
WO2017109854A1 (en) Learning image automatic sorting device, learning image automatic sorting method, and learning image automatic sorting program
JP6721111B2 (en) Camera parameter estimation device, method and program
WO2014084181A1 (en) Image measurement device
JP4701848B2 (en) Image matching apparatus, image matching method, and image matching program
JP4631973B2 (en) Image processing apparatus, image processing apparatus control method, and image processing apparatus control program
JP6617150B2 (en) Object detection method and object detection apparatus
KR101875532B1 (en) Apparatus and method for hierarchical stereo matching
JP2008035301A (en) Mobile body tracing apparatus
JP6494402B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US20230401855A1 (en) Method, system and computer readable media for object detection coverage estimation
JP4765726B2 (en) Image processing apparatus and method
US9936189B2 (en) Method for predicting stereoscopic depth and apparatus thereof
JP2006041939A (en) Monitor device and monitor program
JP4389663B2 (en) Image processing method and image processing apparatus
CN111630569B (en) Binocular matching method, visual imaging device and device with storage function
JP6006675B2 (en) Marker detection apparatus, marker detection method, and program
Wong et al. A study of different unwarping methods for omnidirectional imaging
US20180150966A1 (en) System and method for estimating object size
JP6867766B2 (en) Information processing device and its control method, program
JP5446516B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110307

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110530

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees