JP2005251122A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2005251122A
JP2005251122A JP2004064572A JP2004064572A JP2005251122A JP 2005251122 A JP2005251122 A JP 2005251122A JP 2004064572 A JP2004064572 A JP 2004064572A JP 2004064572 A JP2004064572 A JP 2004064572A JP 2005251122 A JP2005251122 A JP 2005251122A
Authority
JP
Japan
Prior art keywords
pixel
image
luminance value
line
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004064572A
Other languages
Japanese (ja)
Other versions
JP4351090B2 (en
Inventor
Fumiaki Tomita
文明 富田
Yasuhiro Ogami
靖弘 大上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Sanyo Electric Co Ltd
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST, Sanyo Electric Co Ltd filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2004064572A priority Critical patent/JP4351090B2/en
Publication of JP2005251122A publication Critical patent/JP2005251122A/en
Application granted granted Critical
Publication of JP4351090B2 publication Critical patent/JP4351090B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that the accuracy of ranging in an equiluminous line stereo method is apt to deteriorate according as a distance to a target object is made longer. <P>SOLUTION: An image acquiring part 204 acquires a reference image and a comparison image obtained by picking up the image of an object from different angles. An equiluminous line extracting part 212 extracts an equiluminous line from the comparison image. An epipolar line extracting part 214 extracts an epipolar line from the comparison image in accordance with a predetermined reference pixel in the reference image. A corresponding pixel specifying part 222 specifies a corresponding pixel corresponding to reference pixel from the comparison image based on the intersection of the equiluminous line corresponding to the luminance value in the reference pixel and the epipolar line. A corresponding point specifying part 224 specifies the coordinates of the corresponding point having a luminance value which is almost equivalent to that of the reference pixel based on the luminance value in the corresponding pixel. A ranging part 208 measures a distance to the object based on the coordinates of the reference pixel and the coordinates of the corresponding point. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明はステレオ画像による三次元計測技術に関し、特に、画像の輝度情報に基づいて三次元計測する技術に関する。   The present invention relates to a three-dimensional measurement technique using a stereo image, and more particularly to a technique for three-dimensional measurement based on luminance information of an image.

コンピュータの画像表現力の向上や、ネットワークのブロードバンド化により、三次元デジタルコンテンツを取り扱うための土壌は整いつつある。このような時代背景の中、視覚によって感知される外界情報を三次元画像データに変換する技術が求められている。そのためには、対象物体を精確に三次元計測する技術を確立することが重要である。   The ground for handling three-dimensional digital contents is getting better with the improvement of computer image expression and broadband network. In such an era background, there is a demand for a technique for converting external information sensed by vision into three-dimensional image data. For this purpose, it is important to establish a technique for accurately measuring a target object in three dimensions.

対象物体までの距離やその形状を測定するための技術である三次元計測技術は、アクティブ型とパッシブ型に大別される。アクティブ型の三次元計測装置は、対象物体に図柄模様などを投影して、対象物体までの距離を計測(以下、単に「測距」とよぶ)する。代表的なものとしては、レーザービームを対象物体に投影してできる輝いたスポットを異なった角度からカメラで捉え、スポットの三次元位置を求めるスポット光投影法、スリット光を対象物体に投影し、投影線上の奥行を計測するスリット光投影法、複数のパターン光を対象物体に投影し、パターンの組み合わせにより特徴づけをおこなう空間コード化パターン光投影法などがある。   Three-dimensional measurement technology, which is a technology for measuring the distance to the target object and its shape, is roughly classified into an active type and a passive type. An active type three-dimensional measurement apparatus projects a pattern or the like onto a target object and measures a distance to the target object (hereinafter simply referred to as “distance measurement”). As a typical example, a bright spot formed by projecting a laser beam onto a target object is captured by a camera from different angles, a spot light projection method for obtaining the three-dimensional position of the spot, slit light is projected onto the target object, There are a slit light projection method for measuring the depth on the projection line, a spatially coded pattern light projection method for projecting a plurality of pattern lights onto a target object, and characterizing the pattern by a combination of patterns.

一方、パッシブ型の三次元計測装置は、対象物体を異なる角度から撮像した撮像画像において、対象物体上の所定点のそれぞれの画像における位置を特定して測距する。すなわち、パッシブ型の三次元計測装置は対象物体に測距のための目印となるべき図柄模様等を投影しない。そのため、パッシブ型は、アクティブ型と比べて、対象物体表面の色情報をより正確に取得できるという優位性がある。その反面、パッシブ型においては、この所定点の撮像画像上の位置を撮像画像を解析することにより特定する処理が必要である。パッシブ型に分類される三次元計測技術の一つに等輝度線の検出に基づく方法(以下、「等輝度線ステレオ法」とよぶ)がある。   On the other hand, the passive type three-dimensional measuring device measures the distance by specifying the position of each predetermined point on the target object in the captured image obtained by imaging the target object from different angles. That is, the passive type three-dimensional measurement apparatus does not project a design pattern or the like that should be a mark for distance measurement onto the target object. Therefore, the passive type has an advantage that the color information of the target object surface can be acquired more accurately than the active type. On the other hand, in the passive type, processing for specifying the position of the predetermined point on the captured image by analyzing the captured image is necessary. One of the three-dimensional measurement techniques classified as passive is a method based on the detection of isoluminance lines (hereinafter referred to as “isoluminance line stereo method”).

等輝度線ステレオ法においては、撮像画像の各画素(pixel)は、量子化された輝度範囲にその輝度値に応じて分類される。そして、各輝度範囲ごとの境界線は等輝度線として抽出される。対象物体表面の所定点に関し、対象物体を異なる角度から撮像した基準画像上および比較画像上に撮像される2点の輝度値は通常は等しいと考えられる。等輝度線ステレオ法に基づく三次元計測装置は、この等輝度線情報を利用して、この所定点が撮像された位置を特定する。人間の肌のように測距のための特徴が抽出しにくい、輝度がなめらかに変化する対象物体の測距において、等輝度線ステレオ法は特に優位性を発揮する三次元計測技術である(特許文献1参照)。
特開平5−34117号公報
In the equiluminance line stereo method, each pixel of a captured image is classified into a quantized luminance range according to its luminance value. The boundary line for each luminance range is extracted as an isoluminance line. With respect to a predetermined point on the surface of the target object, it is considered that the luminance values of the two points captured on the reference image and the comparative image obtained by capturing the target object from different angles are usually equal. The three-dimensional measuring apparatus based on the isoluminance line stereo method uses the isoluminance line information to specify the position where the predetermined point is imaged. The isoluminance stereo method is a three-dimensional measurement technology that demonstrates its superiority in the distance measurement of a target object whose luminance changes smoothly, such as human skin where features for distance measurement are difficult to extract (patented) Reference 1).
JP-A-5-34117

従来の等輝度線ステレオ法は、各画素の輝度値に基づいて等輝度線を抽出する。したがって、その測距精度は撮像画像の解像度に依存する。このため、従来の等輝度線ステレオ法は、対象物体までの距離が長いほど、測距精度が悪化しやすいという課題を抱えていた。   The conventional isoluminance line stereo method extracts isoluminance lines based on the luminance value of each pixel. Therefore, the distance measurement accuracy depends on the resolution of the captured image. For this reason, the conventional isoluminance line stereo method has a problem that the distance measurement accuracy tends to deteriorate as the distance to the target object increases.

本発明は、このような課題に鑑みてなされたものであり、その目的は、等輝度線ステレオ法に基づいて対象物体までの距離を正確に測定するための三次元計測技術を提供することにある。   The present invention has been made in view of such problems, and an object of the present invention is to provide a three-dimensional measurement technique for accurately measuring the distance to the target object based on the isoluminance line stereo method. is there.

上記課題を解決するために、本発明のある態様の画像処理装置は、まず、物体を異なる角度から撮像した基準画像と比較画像を取得する。この装置は、比較画像から等輝度線を抽出し、基準画像における所定の基準画素に対応して、比較画像からエピポーラ線を抽出する。そして、基準画素における輝度値に対応する等輝度線とエピポーラ線との交点にもとづいて、比較画像から基準画素に対応する対応画素を特定する。更に、この対応画素における輝度値にもとづいて、基準画素の輝度値と略同等の輝度値を有する対応点の座標を特定する。この装置は、基準画素の座標と対応点の座標に基づいて、物体までの距離を測定する。   In order to solve the above problems, an image processing apparatus according to an aspect of the present invention first acquires a reference image and a comparative image obtained by imaging an object from different angles. This apparatus extracts isoluminance lines from the comparison image, and extracts epipolar lines from the comparison image corresponding to predetermined reference pixels in the reference image. Then, the corresponding pixel corresponding to the reference pixel is identified from the comparison image based on the intersection of the isoluminance line corresponding to the luminance value in the reference pixel and the epipolar line. Furthermore, the coordinates of the corresponding point having a luminance value substantially equal to the luminance value of the reference pixel is specified based on the luminance value in the corresponding pixel. This apparatus measures the distance to the object based on the coordinates of the reference pixel and the coordinates of the corresponding point.

本発明によれば、等輝度線ステレオ法に基づいて、より正確に三次元計測できる。   According to the present invention, three-dimensional measurement can be performed more accurately based on the isoluminance line stereo method.

まず、等輝度線ステレオ法による三次元計測の原理を簡単に説明する。そのあと、等輝度線ステレオ法が内包する課題について述べたあと、本実施例を説明する。   First, the principle of three-dimensional measurement by the isoluminance line stereo method will be briefly described. Then, after describing the problems included in the isoluminance line stereo method, this embodiment will be described.

図1は、三角測量の原理により対象物体100を測距する原理を説明するための図である。点Pは対象物体100の表面上に存在する測距対象となる点(以下、「対象点」とよぶ)である。この対象点Pは異なる角度から撮像される。基準画像102および比較画像104がその撮像画像面である。同図は、図示しないカメラが対象物体100を撮像する態様を上から示す図である。撮像焦点位置106は、基準画像102および比較画像104を撮像するカメラの焦点が存在する位置である。これらのカメラは、対象物体100に対して左右水平に配置される。また、各カメラの光軸108および光軸110は平行である。fは、基準画像102および比較画像104から撮像焦点位置106までの距離である。   FIG. 1 is a diagram for explaining the principle of distance measurement of the target object 100 based on the principle of triangulation. The point P is a point (hereinafter referred to as “target point”) that is a distance measurement target existing on the surface of the target object 100. This target point P is imaged from different angles. The reference image 102 and the comparison image 104 are the captured image planes. This figure is a diagram showing a mode in which a camera (not shown) images the target object 100 from above. The imaging focus position 106 is a position where the focus of the camera that captures the reference image 102 and the comparison image 104 exists. These cameras are arranged horizontally with respect to the target object 100. Further, the optical axis 108 and the optical axis 110 of each camera are parallel. f is a distance from the reference image 102 and the comparative image 104 to the imaging focal position 106.

点Pは、基準画像102において対象点Pが撮像される位置である。以下、点Pのような点のことを「基準撮像点」とよぶ。点Oは、基準画像102を撮像するカメラ(以下、「基準画像カメラ」とよぶ)の焦点である。点Pは、比較画像104において対象点Pが撮像される位置である。以下、点Pのような点のことを「比較撮像点」とよぶ。点Oは、比較画像104を撮像するカメラ(以下、「比較画像カメラ」とよぶ)の焦点である。 The point P L is a position where the target point P is imaged in the reference image 102. Hereinafter referred to as "reference image sensing point" that such points as the point P L. The point O L is a camera for capturing a reference image 102 (hereinafter, referred to as "reference image camera") is the focus of. The point P R is the position where the object point P is imaged in the comparison image 104. Hereinafter referred to as "comparative image pickup point" that such points as the point P R. Point O R is a focus of the camera that captured the comparison image 104 (hereinafter, referred to as "comparative image camera").

すなわち、基準撮像点Pと焦点Oを結ぶ直線と、比較撮像点Pと焦点Oを結ぶ直線の交点が対象点Pとなる。基準画像カメラと比較画像カメラの光軸間距離を2a、基準撮像点Pと比較撮像点Pの視差をDとすると、対象物体100上の対象点Pまでの距離Zは、
(数1)
Z=2af/D
として求まる。以下、比較撮像点Pは基準撮像点Pの対応点であるという。あるいは、基準撮像点Pは比較撮像点Pの対応点であるという。対象物体100の表面上の各点について測距処理することにより、対象物体100までの距離や形状を求めることができる。ここで、距離Zを正確に測距するためには、基準画像102における基準撮像点の比較画像104における対応点を正確に特定する必要がある。
That is, a straight line connecting the reference imaging point P L and the focus O L, the intersection of the straight line connecting the comparison imaging point P R and the focus O R interest point P. Reference image camera and the comparative image camera the distance between the optical axes of 2a, and the reference imaging point P L parallax comparison imaging point P R when is D, the distance Z to the object point P on the object 100,
(Equation 1)
Z = 2af / D
It is obtained as Hereinafter, comparison imaging point P R is that it is the corresponding point of the reference imaging point P L. Alternatively, the reference imaging point P L is referred to as a corresponding point of comparison imaging point P R. By measuring the distance on each point on the surface of the target object 100, the distance and shape to the target object 100 can be obtained. Here, in order to accurately measure the distance Z, it is necessary to accurately specify the corresponding point in the comparison image 104 of the reference imaging point in the reference image 102.

図2は、等輝度線を用いて対応点を特定する原理を説明するための模式図である。同図は、対象点Pが基準画像102に撮像された基準撮像点Pの比較画像104における対応点である比較撮像点Pを求める場合を示す。基準画像102と比較画像104は左右水平であるので、基準撮像点Pに関するエピポーラ線112は、基準撮像点Pと同じ走査線上に存在する。比較撮像点Pはエピポーラ線112上のいずれかに存在する。ここで、基準画像102および比較画像104における各画素の輝度値は0〜255までの256階調に分類される。輝度値0は黒に対応し、輝度値255は白に対応する。 FIG. 2 is a schematic diagram for explaining the principle of identifying corresponding points using isoluminance lines. The figure shows a case of obtaining the comparison imaging point P R is the corresponding point in the comparison image 104 of the reference imaging point P L that is captured object point P of the reference image 102. Since the reference image 102 comparative image 104 is left-right horizontal epipolar lines 112 for the reference imaging point P L is present on the same scanning line as the reference imaging point P L. Comparative imaging point P R is present either on the epipolar line 112. Here, the luminance value of each pixel in the reference image 102 and the comparison image 104 is classified into 256 gradations from 0 to 255. A luminance value of 0 corresponds to black, and a luminance value of 255 corresponds to white.

同図において基準撮像点Pが位置する画素(以下、「基準画素」とよぶ)の輝度値は「100」である。このとき、比較画像104は、輝度値が「100」より大きい領域と「100」より小さい領域に分離される。同図では、領域132は輝度値が「100」より大きい画素の集合により形成される領域である。一方、領域118は輝度値が「100」より小さい画素の集合により形成される領域である。等輝度線114はこの領域132と等輝度線114の境界線となる輝度値「100」に関しての等輝度線である。 Pixel reference imaging point P L is located in the drawing (hereinafter, referred to as "reference pixels") luminance value is "100". At this time, the comparison image 104 is separated into an area having a luminance value larger than “100” and an area smaller than “100”. In the figure, a region 132 is a region formed by a set of pixels having a luminance value greater than “100”. On the other hand, the region 118 is a region formed by a set of pixels having a luminance value smaller than “100”. The isoluminance line 114 is an isoluminance line with respect to the luminance value “100” that is a boundary line between the region 132 and the isoluminance line 114.

対象点Pに関する比較撮像点Pの輝度値は、基準撮像点Pの輝度値である「100」と等しいと考えられる。比較撮像点Pは、等輝度線114かつエピポーラ線112の上、すなわち、両線の交点上に存在すると考えられる。これにより、比較画像点Pが特定される。なお、基準画像102と比較画像104においてはそれぞれのカメラの光学特性や撮像時の照明環境が一致するとは限らない。この場合には、グレースケールのテストパターンを用いて同じ明るさに対して等しい輝度値となるように、両画像における各画素の輝度値を調整してもよい。以上が、等輝度線ステレオ法の原理の概要である。 Luminance value of the comparison imaging point P R related to the target point P is the luminance value of the reference imaging point P L is considered equal to "100". Comparative imaging point P R is on the equi-luminance line 114 and the epipolar line 112, i.e., considered to be on the intersection of both lines. Thus, the identified comparison image point P R. In the reference image 102 and the comparison image 104, the optical characteristics of the respective cameras and the illumination environment at the time of imaging are not always the same. In this case, the luminance value of each pixel in both images may be adjusted so that the same luminance value is obtained for the same brightness using a gray scale test pattern. The above is the outline of the principle of the isoluminance line stereo method.

なお、図1では2台のカメラは対象物体100に対して左右水平に配置され、各カメラの光軸は平行であるとしたが、これは説明を簡単にするための仮定であって、必ずしもこのようなカメラ配置にする必要はない。   In FIG. 1, the two cameras are arranged horizontally on the left and right with respect to the target object 100, and the optical axes of the cameras are parallel to each other. There is no need for such a camera arrangement.

図3は、比較画像104における比較撮像点P近辺を拡大して示す模式図である。同図の各マスは比較画像104のそれぞれの画素を示す。各画素に記載している数値は、その画素の輝度値を示す。エピポーラ画素線116は、エピポーラ線112が存在する画素の集合である。エピポーラ線112は線であるが、比較画像104においては画素の集合で表される有限の幅を持つ線である。 Figure 3 is a schematic view showing an enlarged compared imaging point near P R in the comparison image 104. Each square in the figure represents each pixel of the comparative image 104. The numerical value described in each pixel indicates the luminance value of that pixel. The epipolar pixel line 116 is a set of pixels in which the epipolar line 112 exists. The epipolar line 112 is a line, but is a line having a finite width represented by a set of pixels in the comparative image 104.

同図では、輝度値が「100」以上の画素の集合と「100」より小さい画素の集合により領域分割をしている。この境界線が、輝度値「100」に関する等輝度線である。斜線で示された画素は、これら二つの領域の境界となる画素である。等輝度線は理論上は線であるが、比較画像104においては画素の集合で表される。以下、このような斜線で示された画素の集合により表されている等輝度線を表現するときには、特に、「等輝度画素線」とよぶ。同図において、等輝度画素線の右側は輝度値が「100」以上の画素の集合であり、左側は輝度値が「100」より小さい画素の集合である。   In the figure, the region is divided by a set of pixels having a luminance value of “100” or more and a set of pixels smaller than “100”. This boundary line is an isoluminance line related to the luminance value “100”. Pixels indicated by diagonal lines are pixels that serve as boundaries between these two regions. The isoluminance line is theoretically a line, but is represented by a set of pixels in the comparative image 104. Hereinafter, when expressing an equiluminance line represented by a set of pixels indicated by such diagonal lines, it is particularly referred to as an “isoluminance pixel line”. In the figure, the right side of the equal luminance pixel line is a set of pixels having a luminance value of “100” or more, and the left side is a set of pixels having a luminance value smaller than “100”.

等輝度画素線に含まれる画素の輝度値は必ずしも「100」となるとは限らない。あくまで、等輝度画素線は、輝度値が「100」以上の画素の集合と、輝度値が「100」より小さい画素の集合の境界に位置する画素の集合である。等輝度線ステレオ法においては、等輝度画素線とエピポーラ画素線116の交点に位置する画素を、基準撮像点Pの対応点として特定する。以下、このように特定される画素を「対応画素」とよぶ。同図では対応画素120がこれに該当する。そして、基準撮像点Pと対応画素120のそれぞれの座標に基づいて、対象点Pを測距した。しかし、対応画素120の輝度値は「101」であるため、対応画素120は、基準撮像点Pの真の対応点の位置からいくばくかのずれを生じている可能性がある。 The luminance value of the pixels included in the equiluminance pixel line is not necessarily “100”. The equal luminance pixel line is a set of pixels located at the boundary between a set of pixels having a luminance value of “100” or more and a set of pixels having a luminance value smaller than “100”. In isoluminance line stereo method, a pixel located at the intersection of the equi-luminance pixel lines and epipolar pixel line 116 is specified as the corresponding point of the reference imaging point P L. Hereinafter, the pixels specified in this way are referred to as “corresponding pixels”. In the figure, the corresponding pixel 120 corresponds to this. Then, based on the reference imaging point P L in each of the coordinates of the corresponding pixel 120, and distance measurement target point P. However, since the luminance value of a corresponding pixel 120 is "101", the corresponding pixel 120 is likely to have occurred a drawing to their close Kano deviation from the position of the true corresponding point of the reference imaging point P L.

図4は、等輝度線ステレオ法において測距精度が低下する状態を説明するための模式図である。基準撮像点Pが存在する基準画素の輝度値は「100」である。比較撮像点Pは、基準撮像点Pの真の対応点である。すなわち、比較撮像点Pは、基準撮像点Pに対して特定されるべき対応点である。比較撮像点Pの輝度値は「100」となる。基準撮像点Pと比較撮像点Pにより対象点Pまでの距離Zが正確に測定される。 FIG. 4 is a schematic diagram for explaining a state in which ranging accuracy is lowered in the isoluminance line stereo method. Luminance values of the reference pixels based imaging point P L is present is "100". Comparative imaging point P R is the true corresponding point of the reference imaging point P L. That is, the comparison imaging point P R is the corresponding point to be specified relative to the reference imaging point P L. Luminance value of the comparison imaging point P R is "100". The distance Z to the object point P is accurately measured by comparing the imaging point P R as a reference imaging point P L.

点P'は、図3の対応画素120の位置に対応する。点P'の輝度値は「101」である。基準撮像点Pと点P'により特定される対象点はP'である。すなわち、基準撮像点Pと点P'に基づいて計算すると、対象点Pまでの距離Zでなく、Z'が算出されることになる。この場合、真の距離Zと距離誤差Eが生じる。比較画像104における比較撮像点Pと点P'の誤差dが1画素程度の微小差であっても、撮像焦点位置106から対象物体100までの距離が大きい場合には、距離誤差Eが大きくなる。すなわち、比較画像104において対応点を特定する上での微小な誤差が、測距精度を大きく悪化させることがある。本発明は、このような問題を解決するためになされたものである。 Point P R 'corresponds to the position of a corresponding pixel 120 in FIG. The luminance value of the point P R 'is "101". Standard imaging point P L and the point P R 'target point specified by the P' is. In other words, 'is calculated based on, not the distance Z to the object point P, Z' standard imaging point P L and the point P R so that is calculated. In this case, a true distance Z and a distance error E occur. Even small difference error d is about 1 pixel comparison imaging point P R and the point P R 'in the comparison image 104, when the distance from the imaging focal point position 106 to the object 100 is large, the distance error E growing. That is, a minute error in specifying the corresponding point in the comparison image 104 may greatly deteriorate the distance measurement accuracy. The present invention has been made to solve such problems.

図5は、本発明において対応点を特定する処理を説明するための模式図である。同図は、比較画像104における比較撮像点P近辺を拡大して示す模式図である。同図においても、基準画素の輝度値は「100」である。まずエピポーラ画素線116と等輝度画素線の両方に含まれる画素である対応画素120が特定される。対応画素120における輝度値は「101」であるから、基準画素の輝度値と一致しない。この場合、エピポーラ画素線116に含まれる画素のうち、対応画素120と隣接する画素124および画素122の輝度値も取得される。 FIG. 5 is a schematic diagram for explaining processing for identifying corresponding points in the present invention. The figure is a schematic view showing an enlarged compared imaging point near P R in the comparison image 104. Also in the figure, the luminance value of the reference pixel is “100”. First, the corresponding pixel 120 that is a pixel included in both the epipolar pixel line 116 and the equiluminance pixel line is specified. Since the luminance value of the corresponding pixel 120 is “101”, it does not match the luminance value of the reference pixel. In this case, the luminance values of the pixels 124 and 122 adjacent to the corresponding pixel 120 among the pixels included in the epipolar pixel line 116 are also acquired.

画素124の輝度値は「96」であり、画素122の輝度値は「103」である。したがって、基準画素の輝度値「100」に一致する真の対応点は、点126と点128を結ぶ線分上に存在すると考えられる。点126は対応画素120の中心点である。また、点128は画素124の中心点である。点128から点126までの間に、輝度値は「96」から「101」まで「5」増加している。したがって、輝度値が「100」となる真の対応点は、同図に示すように点128から点126までの線分を、点126から1/5だけ点128に向けて移動した点130が真の比較撮像点であると推定される。言い換えれば、点130における輝度値が「100」と推定される。そして、基準撮像点と、この点130に基づいて対象点までの測距が実行される。   The luminance value of the pixel 124 is “96”, and the luminance value of the pixel 122 is “103”. Therefore, it is considered that a true corresponding point that matches the luminance value “100” of the reference pixel exists on a line segment connecting the points 126 and 128. A point 126 is the center point of the corresponding pixel 120. A point 128 is the center point of the pixel 124. The luminance value increases by “5” from “96” to “101” between the point 128 and the point 126. Therefore, the true corresponding point with the luminance value “100” is a point 130 obtained by moving the line segment from the point 128 to the point 126 toward the point 128 by 1/5 from the point 126 as shown in FIG. Presumed to be a true comparative imaging point. In other words, the luminance value at the point 130 is estimated to be “100”. Then, ranging to the target point is executed based on the reference imaging point and the point 130.

なお、上記では、対応画素120と画素124の2つの画素の輝度値による線形補間に基づいた方法で真の対応点を推定したが、3画素以上の輝度値を用いた非線形補間に基づくもの等、他の方法を使用してもよい。   In the above, the true corresponding point is estimated by the method based on the linear interpolation based on the luminance values of the two pixels of the corresponding pixel 120 and the pixel 124. However, the true corresponding point is based on the non-linear interpolation using the luminance value of three pixels or more. Other methods may be used.

等輝度線ステレオ法においては、通常、基準撮像点と点126の座標に基づいて測距が実行される。これに対し、本実施例では、画素単位ではない点130を比較撮像点として測距が実行される。図4に関連して説明したように、点126と点130の差は微小であっても、このように比較撮像点を求めることにより、測距精度を向上させることができる。以下、この発明を実現するための詳細を説明する。   In the isoluminance line stereo method, distance measurement is usually performed based on the coordinates of the reference imaging point and the point 126. On the other hand, in this embodiment, distance measurement is performed using the point 130 that is not a pixel unit as a comparative imaging point. As described with reference to FIG. 4, even if the difference between the point 126 and the point 130 is small, the distance measurement accuracy can be improved by obtaining the comparative imaging point in this way. Hereinafter, details for realizing the present invention will be described.

図6は、画像処理装置200の機能ブロック図である。ここに示す各ブロックは、ハードウェア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。   FIG. 6 is a functional block diagram of the image processing apparatus 200. Each block shown here can be realized in hardware by an element such as a CPU of a computer or a mechanical device, and in software it is realized by a computer program or the like. Draw functional blocks. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by a combination of hardware and software.

画像処理装置200は、ユーザインタフェース処理部202、画像取得部204、基準画素抽出部206、測距部208、制御部210、等輝度線抽出部212、エピポーラ線抽出部214、座標特定部220およびデータ格納部230を含む。データ格納部230は、対象物体100を測距するために必要な各種データを格納する。データ格納部230は撮像画像格納部232と距離情報格納部234を含む。撮像画像格納部232は、対象物体100の基準画像と比較画像を一対のステレオ画像として格納する。距離情報格納部234は対象物体100の表面上の各対象点について測距した結果である距離情報を格納する。この距離情報に基づいて、対象物体100は既知の方法により、コンピュータグラフィクスにより三次元画像として再現されてもよい。   The image processing apparatus 200 includes a user interface processing unit 202, an image acquisition unit 204, a reference pixel extraction unit 206, a distance measurement unit 208, a control unit 210, an equiluminance line extraction unit 212, an epipolar line extraction unit 214, a coordinate specification unit 220, and A data storage unit 230 is included. The data storage unit 230 stores various data necessary for ranging the target object 100. The data storage unit 230 includes a captured image storage unit 232 and a distance information storage unit 234. The captured image storage unit 232 stores the reference image and comparison image of the target object 100 as a pair of stereo images. The distance information storage unit 234 stores distance information that is a result of distance measurement for each target point on the surface of the target object 100. Based on this distance information, the target object 100 may be reproduced as a three-dimensional image by computer graphics by a known method.

ユーザインタフェース処理部202は、ユーザからの操作入力を取得すると共に、ユーザに対して各種情報を表示する。制御部210は、ユーザインタフェース処理部202などからの指示により画像処理装置200の各機能ブロックを統括的に制御する。画像取得部204は、対象物体100を異なる角度から撮像した基準画像と比較画像の一対からなるステレオ画像をカメラから取得する。画像取得部204は、取得したこれらの撮像画像を対象物体100に対する撮影位置や角度と対応づけて撮像画像格納部232に格納する。基準画素抽出部206は、基準画像上の各画素を適宜抽出し、制御部210はこの画素ごとに測距処理を制御する。   The user interface processing unit 202 acquires an operation input from the user and displays various information to the user. The control unit 210 comprehensively controls each functional block of the image processing apparatus 200 according to an instruction from the user interface processing unit 202 or the like. The image acquisition unit 204 acquires, from the camera, a stereo image composed of a pair of a reference image and a comparison image obtained by capturing the target object 100 from different angles. The image acquisition unit 204 stores these acquired captured images in the captured image storage unit 232 in association with the shooting position and angle with respect to the target object 100. The reference pixel extraction unit 206 appropriately extracts each pixel on the reference image, and the control unit 210 controls the ranging process for each pixel.

等輝度線抽出部212は、基準画像や比較画像から輝度に応じて分類された領域の境界線を等輝度線として抽出する。ただし、ここでいう等輝度線とは、厳密には図3に関連して説明した等輝度画素線である。等輝度線抽出部212は、特許文献1に示す既知の方法によって基準画像や比較画像から等輝度画素線を抽出する。エピポーラ線抽出部214は、所定の基準画素に対応して比較画像からエピポーラ線112を抽出する。ただし、図3に関連して説明したように、エピポーラ線抽出部214が抽出するエピポーラ線112は厳密にはエピポーラ画素線116である。   The isoluminance line extraction unit 212 extracts the boundary lines of the regions classified according to the luminance from the reference image or the comparison image as isoluminance lines. However, the isoluminance lines referred to here are strictly the equiluminance pixel lines described with reference to FIG. The isoluminance line extraction unit 212 extracts isoluminance pixel lines from the reference image and the comparison image by a known method disclosed in Patent Document 1. The epipolar line extraction unit 214 extracts the epipolar line 112 from the comparison image corresponding to a predetermined reference pixel. However, as described with reference to FIG. 3, the epipolar line 112 extracted by the epipolar line extraction unit 214 is strictly an epipolar pixel line 116.

座標特定部220は、等輝度画素線とエピポーラ画素線116に基づいて、基準画素に対する対応点を比較画像上から特定する。座標特定部220は、対応画素特定部222と対応点特定部224を含む。対応画素特定部222は、基準画素の輝度値に基づいて対応画素を特定する。図3に関連して説明したように、対応画素特定部222は、等輝度画素線とエピポーラ画素線116の両方に含まれる画素から対応画素を特定する。対応画素の候補がいくつかある場合には、基準画素の周りの画素の輝度値との類似度に基づくなど、既知の方法によって対応画素を特定する。   The coordinate specifying unit 220 specifies corresponding points for the reference pixel from the comparative image based on the equiluminance pixel line and the epipolar pixel line 116. The coordinate specifying unit 220 includes a corresponding pixel specifying unit 222 and a corresponding point specifying unit 224. The corresponding pixel specifying unit 222 specifies the corresponding pixel based on the luminance value of the reference pixel. As described with reference to FIG. 3, the corresponding pixel specifying unit 222 specifies a corresponding pixel from pixels included in both the equiluminance pixel line and the epipolar pixel line 116. When there are several candidates for corresponding pixels, the corresponding pixels are identified by a known method such as based on the similarity to the luminance values of the pixels around the reference pixel.

対応点特定部224は、対応画素の輝度値にもとづいて、基準画素の輝度値と略同等の輝度値を有する対応点の座標を特定する。対応点特定部224は、エピポーラ画素線116上において対応画素と隣り合う画素の輝度値と対応画素の輝度値に基づいて、基準画素の輝度値と同じ輝度値を有すると想定される対応点の座標を特定する。すなわち、対応点特定部224は、まずエピポーラ画素線116に含まれる画素のうち、特定された対応画素と隣り合う画素の輝度値を取得する。そして、図5に関連して説明したように、これらの輝度値に基づいて対応点を特定する。測距部208は、基準画素の座標と対応点の座標に基づいて、対象物体100の対象点までの距離を測定する。測距部208は、基準画素と対応点の座標、および対象物体100の対象点までの距離を対応づけて距離情報格納部234に格納する。   The corresponding point specifying unit 224 specifies the coordinates of the corresponding point having a luminance value substantially equal to the luminance value of the reference pixel based on the luminance value of the corresponding pixel. On the epipolar pixel line 116, the corresponding point specifying unit 224 determines the corresponding point assumed to have the same luminance value as the luminance value of the reference pixel based on the luminance value of the pixel adjacent to the corresponding pixel and the luminance value of the corresponding pixel. Specify coordinates. That is, the corresponding point specifying unit 224 first acquires the luminance value of a pixel adjacent to the specified corresponding pixel among the pixels included in the epipolar pixel line 116. Then, as described with reference to FIG. 5, the corresponding points are specified based on these luminance values. The distance measuring unit 208 measures the distance of the target object 100 to the target point based on the coordinates of the reference pixel and the coordinates of the corresponding point. The distance measuring unit 208 stores the coordinates of the reference pixel and the corresponding point and the distance to the target point of the target object 100 in the distance information storage unit 234 in association with each other.

図7は、画像処理装置200が対象物体100を測距する過程を示すフローチャートである。まず、画像取得部204は、対象物体100を撮像した基準画像102をカメラから取得し、撮像画像格納部232に格納する(S10)。画像取得部204は、対象物体100を別の角度から撮像した比較画像104をカメラから取得し撮像画像格納部232に格納する(S12)。等輝度線抽出部212は基準画像102および比較画像104から等輝度画素線を抽出する(S14)。基準画素抽出部206は基準画像102から所定の画素を基準画素として取得する(S16)。このとき、基準画素抽出部206は、特許文献1に示すように基準画像102の等輝度画素線に含まれる画素を基準画素として適宜選択して取得する。基準画素抽出部206は基準画素の輝度値を取得する(S18)。   FIG. 7 is a flowchart illustrating a process in which the image processing apparatus 200 measures the target object 100. First, the image acquisition unit 204 acquires the reference image 102 obtained by capturing the target object 100 from the camera and stores it in the captured image storage unit 232 (S10). The image acquisition unit 204 acquires the comparison image 104 obtained by imaging the target object 100 from another angle from the camera, and stores it in the captured image storage unit 232 (S12). The equiluminance line extraction unit 212 extracts equiluminance pixel lines from the reference image 102 and the comparison image 104 (S14). The reference pixel extraction unit 206 acquires a predetermined pixel from the reference image 102 as a reference pixel (S16). At this time, the reference pixel extraction unit 206 appropriately selects and acquires a pixel included in the equiluminance pixel line of the reference image 102 as a reference pixel as shown in Patent Document 1. The reference pixel extraction unit 206 acquires the luminance value of the reference pixel (S18).

この基準画素の基準画像102における位置と輝度値に基づいて、座標特定部220は比較画像における対応点を取得する。測距部208は基準画素と取得された対応点の座標に基づいて対象点までの距離を測距する。測距部208は、この測距処理によって取得した距離情報を距離情報格納部234に格納する。基準画像102における基準画素として測距すべきすべての画素について以上の処理が完了していれば(S24のY)、処理は終了する。完了していなければ(S24のN)、処理はS16に戻り、基準画素抽出部206は次の基準画素を取得する。   Based on the position and luminance value of the reference pixel in the reference image 102, the coordinate specifying unit 220 acquires a corresponding point in the comparison image. The distance measuring unit 208 measures the distance to the target point based on the coordinates of the reference pixel and the acquired corresponding point. The distance measuring unit 208 stores the distance information acquired by the distance measuring process in the distance information storage unit 234. If the above processing has been completed for all pixels to be measured as reference pixels in the reference image 102 (Y in S24), the processing ends. If not completed (N in S24), the process returns to S16, and the reference pixel extraction unit 206 acquires the next reference pixel.

図8は図7のS20の処理を詳細に示すフローチャートである。エピポーラ線抽出部214は、基準画素の座標に基づいて、比較画像104からエピポーラ線112を抽出する(S30)。ただし、エピポーラ線抽出部214が抽出するエピポーラ線112とは、エピポーラ線が含まれる画素の集合であるエピポーラ画素線116である。対応画素特定部222は、図7のS14において抽出された等輝度画素線とエピポーラ画素線116の両方に含まれる画素から対応画素を特定する(S32)。対応画素特定部222は、特定した対応画素の輝度値を取得する(S34)。基準画素の輝度値と対応画素の輝度値が一致すれば(S36のY)、対応画素の座標が対応点であるとして処理は終了する。一致しなければ(S36のN)、対応画素特定部222はエピポーラ画素線116に含まれる画素のうち、対応画素に隣り合う画素の輝度値を取得する(S38)。そして、図5に関連して説明したように、対応点特定部224はこの近傍の画素の輝度値に基づいて、対応点を特定する(S40)。   FIG. 8 is a flowchart showing in detail the process of S20 of FIG. The epipolar line extraction unit 214 extracts the epipolar line 112 from the comparison image 104 based on the coordinates of the reference pixel (S30). However, the epipolar line 112 extracted by the epipolar line extraction unit 214 is an epipolar pixel line 116 that is a set of pixels including the epipolar line. The corresponding pixel specifying unit 222 specifies the corresponding pixel from the pixels included in both the equiluminance pixel line and the epipolar pixel line 116 extracted in S14 of FIG. 7 (S32). The corresponding pixel specifying unit 222 acquires the luminance value of the specified corresponding pixel (S34). If the luminance value of the reference pixel matches the luminance value of the corresponding pixel (Y in S36), the process ends with the coordinates of the corresponding pixel being a corresponding point. If they do not match (N in S36), the corresponding pixel specifying unit 222 acquires the luminance value of the pixel adjacent to the corresponding pixel among the pixels included in the epipolar pixel line 116 (S38). Then, as described with reference to FIG. 5, the corresponding point specifying unit 224 specifies the corresponding point based on the luminance value of the neighboring pixels (S40).

以上に示した実施例によれば、画像処理装置200は等輝度線ステレオ法に基づいて、対象物体100までの距離をより正確に測定することができる。本実施例における画像処理装置200は、画素単位で対応点を求めるのではない。そのため、物体を三次元計測するための測距精度が向上する。   According to the embodiment described above, the image processing apparatus 200 can more accurately measure the distance to the target object 100 based on the isoluminance line stereo method. The image processing apparatus 200 in the present embodiment does not obtain corresponding points in units of pixels. Therefore, ranging accuracy for measuring an object three-dimensionally is improved.

以上、実施例をもとに本発明を説明した。なお本発明はこの実施の形態に限定されることなく、そのさまざまな変形例もまた、本発明の態様として有効である。   In the above, this invention was demonstrated based on the Example. The present invention is not limited to this embodiment, and various modifications thereof are also effective as aspects of the present invention.

たとえば、上記実施例の画像処理装置は、ステレオ画像の対応点をサブピクセル単位で推定することにより、対象物体までの距離を正確に測定できることを特徴としていたが、上記実施例で説明したような方法で対応点を推定することにより、高精細画像を生成するものであってもよい。あるいは、物体の動きベクトルの抽出への適用も考えられる。   For example, the image processing apparatus of the above embodiment is characterized in that the distance to the target object can be accurately measured by estimating the corresponding point of the stereo image in units of sub-pixels. However, as described in the above embodiment, A high-definition image may be generated by estimating corresponding points using a method. Alternatively, application to extraction of an object motion vector is also conceivable.

また、上記実施例では対応画素から画素単位ではない対応点を求めて距離を測定したが、このようなサブピクセル化は対応画素だけでなく、基準画素にも適用可能である。たとえば、基準画素と対応画素の両者から一定の輝度値を有する画素単位でない点を求めて距離を測定してもよい。これにより正確な等輝度線が得られ、その三次元形状も正確なものとなる。   Further, in the above embodiment, the distance is measured by obtaining a corresponding point that is not a pixel unit from the corresponding pixel, but such sub-pixelization can be applied not only to the corresponding pixel but also to the reference pixel. For example, the distance may be measured by obtaining a point that is not a pixel unit having a certain luminance value from both the reference pixel and the corresponding pixel. As a result, accurate isoluminance lines are obtained, and the three-dimensional shape thereof is also accurate.

三角測量の原理により対象物体を測距する原理を説明するための図である。It is a figure for demonstrating the principle which measures a target object by the principle of a triangulation. 等輝度線を用いて対応点を特定する原理を説明するための模式図である。It is a schematic diagram for demonstrating the principle which identifies a corresponding point using an isoluminance line. 比較画像における比較撮像点P近辺を拡大して示す模式図である。Is a schematic view showing an enlarged compared imaging point near P R in the comparative image. 等輝度線ステレオ法において測距精度が低下する状態を説明するための模式図である。It is a schematic diagram for demonstrating the state where ranging accuracy falls in the isoluminance line stereo method. 本発明において対応点を特定する処理を説明するための模式図である。It is a schematic diagram for demonstrating the process which specifies a corresponding point in this invention. 画像処理装置の機能ブロック図である。It is a functional block diagram of an image processing apparatus. 画像処理装置が対象物体を測距する過程を示すフローチャートである。It is a flowchart which shows the process in which an image processing apparatus measures a target object. 図7のS20の処理を詳細に示すフローチャートである。It is a flowchart which shows the process of S20 of FIG. 7 in detail.

符号の説明Explanation of symbols

100 対象物体、102 基準画像、104 比較画像、112 エピポーラ線、114 等輝度線、116 エピポーラ画素線、200 画像処理装置、202 ユーザインタフェース処理部、204 画像取得部、206 基準画素抽出部、208 測距部、210 制御部、212 等輝度線抽出部、214 エピポーラ線抽出部、220 座標特定部、222 対応画素特定部、224 対応点特定部、230 データ格納部、232 撮像画像格納部、234 距離情報格納部。   100 target object, 102 reference image, 104 comparison image, 112 epipolar line, 114 isoluminance line, 116 epipolar pixel line, 200 image processing device, 202 user interface processing unit, 204 image acquisition unit, 206 reference pixel extraction unit, 208 measurement Distance unit, 210 control unit, 212 isoluminance line extraction unit, 214 epipolar line extraction unit, 220 coordinate identification unit, 222 corresponding pixel identification unit, 224 corresponding point identification unit, 230 data storage unit, 232 captured image storage unit, 234 distance Information storage unit.

Claims (5)

物体を異なる角度から撮像した基準画像と比較画像とを取得する画像取得部と、
前記比較画像から輝度に応じて分類された領域の境界線を等輝度線として抽出する等輝度線抽出部と、
前記基準画像における所定の基準画素に対応して、前記比較画像からエピポーラ線を抽出するエピポーラ線抽出部と、
前記基準画素における輝度値に対応する等輝度線と前記エピポーラ線との交点にもとづいて、前記比較画像から前記基準画素に対応する対応画素を特定する対応画素特定部と、
前記対応画素における輝度値にもとづいて、前記基準画素の輝度値と略同等の輝度値を有する対応点の座標を特定する対応点特定部と、
前記基準画素の座標と前記対応点の座標に基づいて、前記物体までの距離を測定する測距部と、
を備えることを特徴とする画像処理装置。
An image acquisition unit that acquires a reference image and a comparison image obtained by imaging an object from different angles;
An isoluminance line extraction unit that extracts boundary lines of regions classified according to luminance from the comparison image as isoluminance lines;
An epipolar line extraction unit that extracts an epipolar line from the comparison image corresponding to a predetermined reference pixel in the reference image;
A corresponding pixel specifying unit for specifying a corresponding pixel corresponding to the reference pixel from the comparison image, based on an intersection of the isoluminance line corresponding to the luminance value in the reference pixel and the epipolar line;
A corresponding point specifying unit that specifies the coordinates of the corresponding point having a luminance value substantially equal to the luminance value of the reference pixel, based on the luminance value in the corresponding pixel;
A distance measuring unit that measures the distance to the object based on the coordinates of the reference pixel and the coordinates of the corresponding points;
An image processing apparatus comprising:
物体を異なる角度から撮像した基準画像と比較画像とを取得する画像取得部と、
前記比較画像から輝度に応じて分類された領域の境界線を等輝度線として抽出する等輝度線抽出部と、
前記基準画像における所定の基準画素に対応して、前記比較画像からエピポーラ線を抽出するエピポーラ線抽出部と、
前記基準画素における輝度値に対応する等輝度線と前記エピポーラ線との交点にもとづいて、前記比較画像から前記基準画素に対応する対応画素を特定する対応画素特定部と、
前記対応画素における輝度値にもとづいて、前記基準画素の輝度値と略同等の輝度値を有する対応点の座標を特定する対応点特定部と、
を備えることを特徴とする画像処理装置。
An image acquisition unit that acquires a reference image and a comparison image obtained by imaging an object from different angles;
An isoluminance line extraction unit that extracts boundary lines of regions classified according to luminance from the comparison image as isoluminance lines;
An epipolar line extraction unit that extracts an epipolar line from the comparison image corresponding to a predetermined reference pixel in the reference image;
A corresponding pixel specifying unit for specifying a corresponding pixel corresponding to the reference pixel from the comparison image, based on an intersection of the isoluminance line corresponding to the luminance value in the reference pixel and the epipolar line;
A corresponding point specifying unit that specifies the coordinates of the corresponding point having a luminance value substantially equal to the luminance value of the reference pixel, based on the luminance value in the corresponding pixel;
An image processing apparatus comprising:
前記対応点特定部は、前記エピポーラ線上において前記対応画素と隣り合う画素の輝度値と前記対応画素の輝度値に基づいて、前記基準画素の輝度値と略同等の輝度値を有する対応点の座標を特定することを特徴とする請求項1または2に記載の画像処理装置。   The corresponding point specifying unit is a coordinate of a corresponding point having a luminance value substantially equal to the luminance value of the reference pixel based on the luminance value of the pixel adjacent to the corresponding pixel and the luminance value of the corresponding pixel on the epipolar line. The image processing apparatus according to claim 1, wherein the image processing apparatus is specified. 物体を異なる角度から撮像した基準画像と比較画像とを取得するステップと、
前記比較画像から輝度に応じて分類された領域の境界線を等輝度線として抽出するステップと、
前記基準画像における所定の基準画素に対応して、前記比較画像からエピポーラ線を抽出するステップと、
前記基準画素における輝度値に対応する等輝度線と前記エピポーラ線との交点にもとづいて、前記比較画像から前記基準画素に対応する対応画素を特定するステップと、
前記対応画素における輝度値にもとづいて、前記基準画素の輝度値と略同等の輝度値を有する対応点の座標を特定するステップと、
前記基準画素の座標と前記対応点の座標に基づいて、前記物体までの距離を測定するステップと、
を備えることを特徴とする画像処理方法。
Obtaining a reference image and a comparative image obtained by imaging an object from different angles;
Extracting boundary lines of regions classified according to luminance from the comparison image as isoluminous lines;
Extracting an epipolar line from the comparison image corresponding to a predetermined reference pixel in the reference image;
Identifying a corresponding pixel corresponding to the reference pixel from the comparison image based on the intersection of the isoluminance line corresponding to the luminance value in the reference pixel and the epipolar line;
Identifying coordinates of corresponding points having a luminance value substantially equal to the luminance value of the reference pixel based on the luminance value in the corresponding pixel;
Measuring the distance to the object based on the coordinates of the reference pixel and the coordinates of the corresponding points;
An image processing method comprising:
物体を異なる角度から撮像した基準画像と比較画像とを取得する機能と、
前記比較画像から輝度に応じて分類された領域の境界線を等輝度線として抽出する機能と、
前記基準画像における所定の基準画素に対応して、前記比較画像からエピポーラ線を抽出する機能と、
前記基準画素における輝度値に対応する等輝度線と前記エピポーラ線との交点にもとづいて、前記比較画像から前記基準画素に対応する対応画素を特定する機能と、
前記対応画素における輝度値にもとづいて、前記基準画素の輝度値と略同等の輝度値を有する対応点の座標を特定する機能と、
前記基準画素の座標と前記対応点の座標に基づいて、前記物体までの距離を測定する機能と、
をコンピュータに発揮させることを特徴とする画像処理プログラム。
A function for acquiring a reference image and a comparative image obtained by imaging an object from different angles;
A function of extracting boundary lines of regions classified according to luminance from the comparison image as equal luminance lines;
A function of extracting an epipolar line from the comparison image corresponding to a predetermined reference pixel in the reference image;
A function of identifying a corresponding pixel corresponding to the reference pixel from the comparison image based on an intersection of the isoluminance line corresponding to the luminance value in the reference pixel and the epipolar line;
A function for specifying coordinates of corresponding points having a luminance value substantially equal to the luminance value of the reference pixel based on the luminance value in the corresponding pixel;
A function of measuring the distance to the object based on the coordinates of the reference pixel and the coordinates of the corresponding point;
An image processing program for causing a computer to exhibit the above.
JP2004064572A 2004-03-08 2004-03-08 Image processing apparatus and image processing method Expired - Lifetime JP4351090B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004064572A JP4351090B2 (en) 2004-03-08 2004-03-08 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004064572A JP4351090B2 (en) 2004-03-08 2004-03-08 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2005251122A true JP2005251122A (en) 2005-09-15
JP4351090B2 JP4351090B2 (en) 2009-10-28

Family

ID=35031514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004064572A Expired - Lifetime JP4351090B2 (en) 2004-03-08 2004-03-08 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4351090B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009054098A (en) * 2007-08-29 2009-03-12 National Institute Of Advanced Industrial & Technology Image processing method, apparatus, and program
JP4941565B2 (en) * 2008-02-01 2012-05-30 コニカミノルタホールディングス株式会社 Corresponding point search apparatus and corresponding point searching method
RU2471147C2 (en) * 2008-05-22 2012-12-27 МАТРИКС ЭЛЕКТРОНИК МЕЖЕРИНГ ПРОПЕРТИЗ, ЭлЭлСи Stereoscopic measuring system and method
US8708890B2 (en) 2010-01-15 2014-04-29 Olympus Corporation Endoscope apparatus and method of measuring subject

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009054098A (en) * 2007-08-29 2009-03-12 National Institute Of Advanced Industrial & Technology Image processing method, apparatus, and program
JP4941565B2 (en) * 2008-02-01 2012-05-30 コニカミノルタホールディングス株式会社 Corresponding point search apparatus and corresponding point searching method
RU2471147C2 (en) * 2008-05-22 2012-12-27 МАТРИКС ЭЛЕКТРОНИК МЕЖЕРИНГ ПРОПЕРТИЗ, ЭлЭлСи Stereoscopic measuring system and method
US8708890B2 (en) 2010-01-15 2014-04-29 Olympus Corporation Endoscope apparatus and method of measuring subject

Also Published As

Publication number Publication date
JP4351090B2 (en) 2009-10-28

Similar Documents

Publication Publication Date Title
JP6363863B2 (en) Information processing apparatus and information processing method
JP5538667B2 (en) Position / orientation measuring apparatus and control method thereof
US9007602B2 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and computer-readable medium storing control program
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
JP4885584B2 (en) Rangefinder calibration method and apparatus
JP6566768B2 (en) Information processing apparatus, information processing method, and program
US10430962B2 (en) Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and storage medium that calculate a three-dimensional shape of an object by capturing images of the object from a plurality of directions
JP2012058076A (en) Three-dimensional measurement device and three-dimensional measurement method
KR20130032368A (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and storage medium
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
JP4110501B2 (en) Random pattern generation apparatus and method, distance image generation apparatus and method, and program providing medium
WO2012029658A1 (en) Imaging device, image-processing device, image-processing method, and image-processing program
JP2011237296A (en) Three dimensional shape measuring method, three dimensional shape measuring device, and program
JP6615486B2 (en) Camera calibration apparatus, method and program
JP6942566B2 (en) Information processing equipment, information processing methods and computer programs
JP2018009927A (en) Image processing device, image processing method and program
JP2005140547A (en) 3-dimensional measuring method, 3-dimensional measuring device and computer program
JP2008275366A (en) Stereoscopic 3-d measurement system
JP2020008502A (en) Depth acquisition device by polarization stereo camera, and method of the same
JP4351090B2 (en) Image processing apparatus and image processing method
JP3919722B2 (en) Skin shape measuring method and skin shape measuring apparatus
JP6412372B2 (en) Information processing apparatus, information processing system, information processing apparatus control method, and program
JP5728399B2 (en) Measuring device, method and program
JP6867766B2 (en) Information processing device and its control method, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090707

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090723

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4351090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250