JP4946896B2 - Distance measuring device and distance measuring method - Google Patents

Distance measuring device and distance measuring method Download PDF

Info

Publication number
JP4946896B2
JP4946896B2 JP2008021212A JP2008021212A JP4946896B2 JP 4946896 B2 JP4946896 B2 JP 4946896B2 JP 2008021212 A JP2008021212 A JP 2008021212A JP 2008021212 A JP2008021212 A JP 2008021212A JP 4946896 B2 JP4946896 B2 JP 4946896B2
Authority
JP
Japan
Prior art keywords
point
distance
object region
image
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008021212A
Other languages
Japanese (ja)
Other versions
JP2009180661A (en
Inventor
博則 墨友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2008021212A priority Critical patent/JP4946896B2/en
Publication of JP2009180661A publication Critical patent/JP2009180661A/en
Application granted granted Critical
Publication of JP4946896B2 publication Critical patent/JP4946896B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数の撮影手段を用いて撮影された画像を用いて物体までの距離を計測する技術に関するものである。   The present invention relates to a technique for measuring a distance to an object using images photographed using a plurality of photographing means.

近年、自動車の走行時における安全対策の1つとして、プリクラッシュセーフティとう技術が採用されている。この技術は、先行車両までの距離を測定して、自車両が先行車両に対して安全な車間距離を保っているか否かを判断し、安全な車間距離を保っていない場合は、ドライバーに先行車両が近づいている旨の警告を発して、事故防止を図る技術である。このプリクラッシュセーフティにおける課題の1つとして、自車両と先行車両との実際の距離の変化が小さいにも関わらず大きいと判断して、誤警告が多発されてしまうことである。   In recent years, a pre-crash safety technique has been adopted as one of safety measures when a car is running. This technology measures the distance to the preceding vehicle to determine whether the host vehicle maintains a safe inter-vehicle distance with respect to the preceding vehicle. This is a technology to prevent accidents by issuing a warning that the vehicle is approaching. One of the problems in this pre-crash safety is that erroneous warnings are frequently issued because it is determined that the actual distance between the host vehicle and the preceding vehicle is large, although it is small.

そのため、このプリクラッシュセーフティに適用される距離計測装置に望まれることは先行車両までの実際の距離に変化がないときには、測定した先行車両までの距離についてもできるだけ変化が生じないこと、すなわち、測定した先行車両までの距離のばらつきをできるだけ小さくすることである。   Therefore, what is desired for the distance measuring device applied to this pre-crash safety is that when there is no change in the actual distance to the preceding vehicle, the measured distance to the preceding vehicle will not change as much as possible. The variation of the distance to the preceding vehicle is made as small as possible.

ところで、先行車両までの距離を測定する手法として、ステレオカメラを利用した手法が知られている。この手法は、異なる視点から撮影した2枚の画像の各座標点を相互に対応付け、三角測量の原理によって距離を算出する手法である。   By the way, as a method for measuring the distance to the preceding vehicle, a method using a stereo camera is known. In this method, coordinate points of two images taken from different viewpoints are associated with each other, and a distance is calculated based on the principle of triangulation.

ここで、2枚の画像の各座標を相互に対応付ける手法として、近年、ロバスト、かつ、高精度な対応付けが可能な位相限定相関法が注目を集めている(非特許文献1)。この手法は画像の振幅成分を取り除いて位相成分のみで相関演算を行うため、輝度変動やノイズに影響されにくいという特徴を有している。しかしながら、この手法は演算負荷が高く、処理時間がかかるといった課題を有している。   Here, as a method for associating the coordinates of two images with each other, a phase-only correlation method capable of making a robust and highly accurate association has recently attracted attention (Non-Patent Document 1). This technique has a feature that it is not easily affected by luminance fluctuations and noise because the correlation calculation is performed using only the phase component by removing the amplitude component of the image. However, this method has a problem that the calculation load is high and processing time is required.

そこで、特許文献1には、車両輪郭を検出して、その車両輪郭に対してのみ対応点探索を行って視差を算出し、算出した視差をヒストグラム化して、度数が閾値を超える視差のうち最大の視差を車両の代表視差として、車両までの距離を算出する手法が開示されている。
K.Takita, T.Aoki, Y.Sasaki, T.Higuchi, and K.Kobayashi, "High-Accuracy Subpixel Image Registration Based on Phase-Only Correlation", IEICE Transactions. Fundamentals, E86-A, no8, pp.1925-1934, Aug.2003. 特開平7−334800号公報
Therefore, in Patent Document 1, a vehicle contour is detected, a corresponding point search is performed only on the vehicle contour to calculate a parallax, the calculated parallax is histogrammed, and the maximum parallax whose frequency exceeds a threshold value. A method for calculating the distance to the vehicle using the above parallax as the representative parallax of the vehicle is disclosed.
K.Takita, T.Aoki, Y.Sasaki, T.Higuchi, and K.Kobayashi, "High-Accuracy Subpixel Image Registration Based on Phase-Only Correlation", IEICE Transactions. Fundamentals, E86-A, no8, pp. 1925 -1934, Aug. 2003. JP 7-334800 A

しかしながら、特許文献1の手法では、車両の大小が全く考慮されておらず、車両が小さくなると視差の算出対象となる車両輪郭線上の画素数も減少するため、車両が大きい場合に比べて代表視差の精度が低下し、車両の大きさに応じて代表視差の精度にばらつきが生じ、車両までの距離を安定して算出することができなという問題を有している。   However, in the method of Patent Document 1, the size of the vehicle is not taken into account at all, and when the vehicle becomes smaller, the number of pixels on the vehicle contour that is the object of the parallax calculation also decreases. And the accuracy of the representative parallax varies depending on the size of the vehicle, and the distance to the vehicle cannot be calculated stably.

本発明の目的は、距離の測定対象となる対象物の大きさに関わらず、対象物までの距離を安定して算出することができる距離測定装置及び距離測定方法を提供することである。   An object of the present invention is to provide a distance measuring device and a distance measuring method capable of stably calculating a distance to an object regardless of the size of the object to be measured for distance.

本発明による距離測定装置は、複数の撮影手段を用いて撮影された画像を用いて測定対象となる対象物までの距離を計測する距離計測装置であって、前記撮影手段により同一タイミングで撮影された複数の入力画像のうち、いずれか1枚の入力画像を基準画像、他の入力画像を参照画像とし、前記基準画像から前記対象物が撮影された物体領域を抽出する抽出手段と、前記抽出手段により抽出された物体領域の面積を算出する面積算出手段と、前記抽出手段により抽出された物体領域内に注目点を順次設定し、各注目点の対応点を各参照画像から探索する探索手段と、前記注目点と前記対応点との複数の視差を基に、前記対象物までの距離を算出する距離算出手段とを備え、前記探索手段は、前記面積算出手段により算出された物体領域の面積に応じて注目点の設定密度を変更することを特徴とする。   A distance measuring device according to the present invention is a distance measuring device that measures a distance to an object to be measured using images photographed using a plurality of photographing means, and is photographed at the same timing by the photographing means. Extraction means for extracting one of the plurality of input images as a standard image and the other input image as a reference image, and extracting an object region in which the object is photographed from the standard image; Area calculating means for calculating the area of the object region extracted by the means, and search means for sequentially setting the attention points in the object region extracted by the extraction means and searching for corresponding points of each attention point from each reference image And a distance calculation unit that calculates a distance to the object based on a plurality of parallaxes between the attention point and the corresponding point, and the search unit calculates the object area calculated by the area calculation unit. surface And changes a setting density point of interest in accordance with the.

本発明による距離計測方法は、複数の撮影手段を用いて撮影された画像を用いて測定対象となる対象物までの距離を計測する距離計測方法であって、前記撮影手段により同一タイミングで撮影された複数の入力画像のうち、いずれか1枚の入力画像を基準画像、他の入力画像を参照画像とし、前記基準画像から前記対象物が撮影された物体領域を抽出する抽出ステップと、前記抽出ステップにより抽出された物体領域の面積を算出する面積算出ステップと、前記抽出ステップにより抽出された物体領域内に注目点を順次設定し、各注目点の対応点を各参照画像から探索する探索ステップと、前記注目点と前記対応点との複数の視差を基に、前記対象物までの距離を求める距離算出ステップとを備え、前記探索ステップは、前記面積算出ステップにより算出された物体領域の面積に応じて注目点の設定密度を変更することを特徴とする。   A distance measuring method according to the present invention is a distance measuring method for measuring a distance to an object to be measured using images photographed using a plurality of photographing means, and is photographed at the same timing by the photographing means. An extraction step of extracting any one of the plurality of input images as a standard image and the other input image as a reference image, and extracting an object region in which the object is photographed from the standard image; An area calculating step for calculating the area of the object region extracted in the step, and a search step for sequentially setting a point of interest in the object region extracted in the extraction step and searching for a corresponding point of each point of interest from each reference image And a distance calculation step for obtaining a distance to the object based on a plurality of parallaxes between the attention point and the corresponding point, and the search step includes the area calculation step. And changes a setting density of the target point according to the area of the calculated object region by.

これらの構成によれば、前記撮影手段により同一タイミングで撮影された複数の入力画像のうち、いずれか1枚の入力画像が基準画像、他の入力画像が参照画像とされ、基準画像から対象物をとらえた物体領域が抽出され、抽出された物体領域内に注目点が順次設定され、各注目点の対応点が各参照画像から探索され、注目点と対応点との視差を基に、対象物までの距離が算出される。ここで、注目点は、物体領域の面積に応じて設定密度が変更されるため、物体領域の面積が小さくなるにつれて物体領域に設定する注目点の設定密度を高くすることで、物体領域の面積の大小による注目点の設定個数のばらつきが低減され、物体領域の面積の大小によらず距離の計測精度を一定に保ち、距離の計測精度の安定化を図ることができる。   According to these configurations, out of a plurality of input images captured at the same timing by the imaging unit, any one input image is set as a reference image, and the other input images are set as reference images. An object region that captures the object is extracted, attention points are sequentially set in the extracted object region, corresponding points of each attention point are searched from each reference image, and based on the parallax between the attention point and the corresponding point, The distance to the object is calculated. Here, since the setting density of the attention point is changed according to the area of the object region, the area of the object region can be increased by increasing the setting density of the attention point set in the object region as the area of the object region decreases. The variation in the number of attention points set due to the size of the object can be reduced, the distance measurement accuracy can be kept constant regardless of the area of the object region, and the distance measurement accuracy can be stabilized.

また、前記探索手段は、前記物体領域の面積が小さくなるにつれて、前記注目点の設定密度を高くすることが好ましい。   Moreover, it is preferable that the search means increases the setting density of the attention point as the area of the object region decreases.

この構成によれば、物体領域の面積が小さくなるにつれて、注目点の設定密度が高くされるため、物体領域の面積の大小による注目点の設定個数のばらつきが低減され、距離の計測精度の安定化を図ることができる。   According to this configuration, as the area of the object region becomes smaller, the setting density of the attention point is increased, so that the variation in the number of attention points set due to the size of the object region is reduced, and the distance measurement accuracy is stabilized. Can be achieved.

また、前記探索手段は、前記物体領域の面積が小さくなるにつれて、注目点を設定する際の間引き幅を小さくすることで、前記注目点の設定密度を高くすることが好ましい。   Further, it is preferable that the search means increase the setting density of the attention points by reducing the thinning width when setting the attention points as the area of the object region decreases.

この構成によれば、注目点を設定する際の間引き幅を小さくすることで、注目点の設定密度が高くされているため、簡便な手法により設定密度を高めることができる。   According to this configuration, since the setting density of the attention point is increased by reducing the thinning width when setting the attention point, the setting density can be increased by a simple method.

また、前記探索手段は、下位の階層から上位の階層に向かうにつれて解像度が高くなるように、解像度の異なる複数の前記基準画像及び前記参照画像を階層的に生成し、下位の階層での対応点の探索結果に基づいて、当該階層の探索範囲よりも小さな探索範囲を1つ上の階層の参照画像に設定し、当該探索範囲内で対応点を探索する探索処理を上位の階層に向けて階層的に実行することで対応点を探索することが好ましい。   Further, the search means hierarchically generates a plurality of the reference images and the reference images having different resolutions so that the resolution becomes higher from the lower hierarchy toward the upper hierarchy, and corresponding points in the lower hierarchy Based on the search result, a search range smaller than the search range of the hierarchy is set in the reference image one level higher, and a search process for searching for a corresponding point within the search range is directed to a higher hierarchy. It is preferable to search for corresponding points by executing automatically.

この構成によれば、解像度の低い下位の階層から上位の階層に向かうにつれて探索範囲が狭くされているため、低解像度の参照画像で広範囲に探索範囲を設定して対応点のおよその位置を探索しておき、その探索結果を用いて高解像度での参照画像の探索範囲を狭い範囲に絞り込むことが可能となり、高速かつ高精度に対応点を探索することができる。   According to this configuration, since the search range is narrowed from the lower layer with lower resolution toward the upper layer, the approximate range of the corresponding point is searched by setting the search range over a wide range with the low-resolution reference image. In addition, it is possible to narrow down the search range of the reference image at a high resolution to a narrow range using the search result, and it is possible to search for corresponding points at high speed and with high accuracy.

また、前記探索処理は、前記基準画像に注目点を中心として基準ウインドウを設定し、前記参照画像に前記基準ウインドウと同一サイズの参照ウインドウを設定し、前記参照画像に設定された探索範囲内において前記参照ウインドウをずらしながら、前記基準ウインドウ内の画像と前記参照ウインドウ内の画像との類似度を求める類似度算出処理を繰り返し実行することで対応点を探索する処理であることが好ましい。   In the search process, a reference window is set around the point of interest in the reference image, a reference window having the same size as the reference window is set in the reference image, and within the search range set in the reference image. It is preferable to search for corresponding points by repeatedly executing a similarity calculation process for obtaining a similarity between an image in the reference window and an image in the reference window while shifting the reference window.

この構成によれば、基準画像に注目点を中心として基準ウインドウが設定され、参照画像に基準ウインドウと同一サイズの参照ウインドウが設定され、参照画像に対応点の探索範囲が設定され、設定された探索範囲内において参照ウインドウをずらしながら、基準ウインドウ内の画像と参照ウインドウ内の画像との類似度が求められるというような類似度算出処理が繰り返し実行されて対応点が探索されるため、対応点を精度良く探索することができる。   According to this configuration, a reference window is set around the target point in the reference image, a reference window having the same size as the reference window is set in the reference image, and a search range of corresponding points is set and set in the reference image. Since the similarity calculation process in which the similarity between the image in the reference window and the image in the reference window is obtained while the reference window is shifted within the search range is repeatedly executed, corresponding points are searched. Can be searched with high accuracy.

また、前記類似度算出処理は、前記基準ウインドウ内の画像と前記参照ウインドウ内の画像とを周波数分解することで得られる位相成分に基づいて前記類似度を算出する処理であることが好ましい。   The similarity calculation process is preferably a process of calculating the similarity based on a phase component obtained by frequency-decomposing an image in the reference window and an image in the reference window.

この構成によれば、基準ウインドウ内の画像と参照ウインドウ内の画像とを周波数分解することで得られる位相成分に基づいて類似度が算出されるため、類似度を精度良く算出することが可能となり、対応点の探索精度を高めることができる。   According to this configuration, since the similarity is calculated based on the phase component obtained by frequency-decomposing the image in the standard window and the image in the reference window, the similarity can be calculated with high accuracy. Thus, the search accuracy for corresponding points can be improved.

また、前記類似度算出処理は、高速フーリエ変換、離散フーリエ変換、離散コサイン変換、離散サイン変換、ウエーブレット変換、及びアダマール変換のいずれかを用いて周波数分解することが好ましい。   The similarity calculation process is preferably frequency-resolved using any of fast Fourier transform, discrete Fourier transform, discrete cosine transform, discrete sine transform, wavelet transform, and Hadamard transform.

この構成によれば、高速フーリエ変換、離散フーリエ変換、離散コサイン変換、離散サイン変換、ウエーブレット変換、及びアダマール変換のいずれかが用いられて周波数分解されるため、周波数分解を精度良く行うことができる。   According to this configuration, since frequency decomposition is performed using any of fast Fourier transform, discrete Fourier transform, discrete cosine transform, discrete sine transform, wavelet transform, and Hadamard transform, it is possible to perform frequency decomposition with high accuracy. it can.

また、前記類似度算出処理は、位相限定相関法を用いて前記類似度を算出することが好ましい。   Moreover, it is preferable that the said similarity calculation process calculates the said similarity using a phase only correlation method.

この構成によれば、位相限定相関法を用いて類似度が算出されるため、ロバスト、かつ、高精度に対応点を探索することができる。   According to this configuration, since the degree of similarity is calculated using the phase-only correlation method, it is possible to search for corresponding points with robustness and high accuracy.

また、前記類似度算出処理は、SAD(Sum of Absolute Difference)を用いて前記類似度を算出することが好ましい。   Moreover, it is preferable that the said similarity calculation process calculates the said similarity using SAD (Sum of Absolute Difference).

この構成によれば、類似度算出処理は、SAD(Sum of Absolute Difference)を用いて類似度が算出されているため、高速に対応点を探索することができる。   According to this configuration, in the similarity calculation process, since the similarity is calculated using SAD (Sum of Absolute Difference), it is possible to search for corresponding points at high speed.

また、前記探索手段は、前記物体領域に設定した各注目点の対応点の探索が終了した後、次フレームに対する処理を開始するまでの期間、前記物体領域以外の非物体領域内に注目点を順次設定し、各注目点の対応点を各参照画像から探索し、前記距離算出手段は、前記非物体領域に設定した注目点と当該注目点の対応点とから当該注目点の距離を算出することが好ましい。   In addition, the search means sets a target point in a non-object region other than the object region for a period from the end of the search for the corresponding point of each target point set in the object region to the start of processing for the next frame. The corresponding points of each attention point are sequentially set and searched from each reference image, and the distance calculation means calculates the distance of the attention point from the attention point set in the non-object region and the corresponding point of the attention point. It is preferable.

この構成によれば、各フレームでの演算時間の空き時間を利用して非物体領域の距離を算出することが可能となり、例えば、ガードレールや路肩等の周辺環境を把握する上で有用な情報を得ることができ、対象物以外の障害物であって、危険を及ぼすような障害物の接近をユーザに報知することが可能となる。   According to this configuration, it becomes possible to calculate the distance of the non-object region by using the free time of the calculation time in each frame, for example, information useful for grasping the surrounding environment such as a guardrail and a road shoulder. Thus, it is possible to notify the user of the approach of an obstacle other than the target object that is dangerous.

また、前記探索手段は、前記非物体領域の下側から上側に向けて順次注目点を設定することが好ましい。この構成によれば、自己に近接する障害物が存在する可能性の高い非物体領域の下側の注目点から優先して距離が算出されるため、危険度の高い障害物の接近をユーザにより確実に報知することが可能となる。   Moreover, it is preferable that the search means sequentially sets a point of interest from the lower side to the upper side of the non-object region. According to this configuration, since the distance is calculated with priority from the attention point below the non-object region where there is a high possibility that an obstacle close to the user is present, the approach of the obstacle with a high degree of danger is performed by the user. It becomes possible to notify reliably.

また、前記対象物は、自動車、自動二輪車、自転車、人のうち、すくなくともいずれか1つを含むことが好ましい。この構成によれば、自動車、自動二輪車、自転車、人の距離を算出することができる。特に、自動二輪車及び自転車に乗っている人の距離や、自動車及び自転車に乗っていない人の距離を算出することで両者を切り分けることができ、人の動向を把握することができる。   In addition, it is preferable that the object includes at least one of an automobile, a motorcycle, a bicycle, and a person. According to this configuration, the distance between a car, a motorcycle, a bicycle, and a person can be calculated. In particular, by calculating the distance of a person riding a motorcycle and a bicycle and the distance of a person not riding a car and a bicycle, the distance between the two can be separated, and the movement of the person can be grasped.

本発明によれば、距離の測定対象となる対象物の大きさに関わらず、対象物までの距離を安定して算出することができる。   According to the present invention, it is possible to stably calculate the distance to the object regardless of the size of the object to be measured for distance.

(実施の形態1)
以下、本発明の実施の形態1による距離計測装置について図面を参照しつつ説明する。図1は、本発明の実施の形態1による距離計測装置1のブロック図を示している。距離計測装置1は、自動車等の車両の車体に搭載され、複数の撮影手段を用いて撮影された画像を用いて測定対象となる対象物までの距離を計測するものであり、複数台のカメラ、例えば本実施の形態では2台のカメラ11,12(撮影手段の一例)、演算処理装置13、及び表示装置14を備えている。
(Embodiment 1)
Hereinafter, a distance measuring apparatus according to Embodiment 1 of the present invention will be described with reference to the drawings. FIG. 1 shows a block diagram of a distance measuring apparatus 1 according to Embodiment 1 of the present invention. The distance measuring device 1 is mounted on the body of a vehicle such as an automobile, and measures the distance to an object to be measured using images photographed using a plurality of photographing means. For example, in the present embodiment, two cameras 11 and 12 (an example of a photographing unit), an arithmetic processing device 13 and a display device 14 are provided.

カメラ11,12は、車体の進行方向に直交し、かつ水平方向に平行な方向である左右方向に所定の間隔を設けて、進行方向を中心に対称となるように同一高さ位置に配設され、所定のフレームレートで自車体の前方を撮影する。ここで、カメラ11,12は、同一時刻においてフレームが撮影されるように撮影タイミングの同期が図られており、距離の測定対象となる対象物であり、自車体の前方を走行する前方車体を撮影する。ここで、前方車体としては、自動車、自動二輪車、及び自転車が含まれる。   The cameras 11 and 12 are arranged at the same height so as to be symmetrical with respect to the traveling direction with a predetermined interval in the left and right direction that is orthogonal to the traveling direction of the vehicle body and parallel to the horizontal direction. Then, the front of the vehicle body is photographed at a predetermined frame rate. Here, the cameras 11 and 12 are synchronized in photographing timing so that frames are photographed at the same time, and are objects to be measured for distance. Take a picture. Here, the front vehicle body includes an automobile, a motorcycle, and a bicycle.

演算処理装置13は、カメラ11,12で撮影された2枚の画像に後述する画像処理を施し、前方車体までの距離を算出する。表示装置14は、液晶表示ディスプレイ、有機ELディスプレイといった表示装置から構成され、演算処理装置13により算出された前方車体までの距離等の情報を表示する。ここで、表示装置14は、自車体がカーナビゲーションシステムを備えている場合は、当該カーナビゲーションシステムの表示装置により構成してもよいし、カーナビゲーションシステムとは別の表示装置により構成してもよい。   The arithmetic processing device 13 performs image processing, which will be described later, on the two images taken by the cameras 11 and 12, and calculates the distance to the front vehicle body. The display device 14 includes a display device such as a liquid crystal display or an organic EL display, and displays information such as the distance to the front vehicle body calculated by the arithmetic processing device 13. Here, when the vehicle body is provided with a car navigation system, the display device 14 may be configured by a display device of the car navigation system or may be configured by a display device different from the car navigation system. Good.

図2は、距離計測装置1の詳細な構成を示すブロック図である。図2に示すように距離計測装置1は、基準カメラ110、参照カメラ120、抽出部20(抽出手段の一例)、面積算出部30(面積算出手段の一例)、密度設定部40(探索手段の一例)、対応点探索部50(探索手段の一例)、距離算出部60(距離算出手段の一例)、及び表示部70を備えている。   FIG. 2 is a block diagram showing a detailed configuration of the distance measuring apparatus 1. As shown in FIG. 2, the distance measuring device 1 includes a base camera 110, a reference camera 120, an extraction unit 20 (an example of an extraction unit), an area calculation unit 30 (an example of an area calculation unit), and a density setting unit 40 (a search unit). An example), a corresponding point search unit 50 (an example of a search unit), a distance calculation unit 60 (an example of a distance calculation unit), and a display unit 70.

基準カメラ110は、図1に示すカメラ11及びカメラ12のいずれか一方のカメラである例えばカメラ11から構成され、自車体の前方を例えば1秒あたり30枚といった所定のフレームレートで撮影することで前方車体を含む入力画像を取得する。参照カメラ120は、図1に示すカメラ11及びカメラ12のいずれか一方のカメラである例えばカメラ12から構成され、基準カメラ110と同一、かつ同期したフレームレートで自車体の前方を撮影し、前方車体を含む入力画像を取得する。ここで、入力画像としては、例えば0(黒)〜255(白)の256階調値を有する複数の画素がマトリックス状に配列されたたデジタルの画像データを採用することができる。   The reference camera 110 is composed of, for example, the camera 11 which is one of the camera 11 and the camera 12 shown in FIG. 1, and images the front of the vehicle body at a predetermined frame rate of, for example, 30 frames per second. An input image including the front vehicle body is acquired. The reference camera 120 includes, for example, the camera 12 which is one of the camera 11 and the camera 12 illustrated in FIG. 1, and photographs the front of the vehicle body at the same frame rate as that of the reference camera 110 and is synchronized with the reference camera 110. An input image including the vehicle body is acquired. Here, as the input image, for example, digital image data in which a plurality of pixels having 256 gradation values from 0 (black) to 255 (white) are arranged in a matrix can be employed.

抽出部20は、基準カメラ110から所定のフレームレートで順次入力される入力画像を基準画像、参照カメラ120から所定のフレームレートで順次入力される入力画像を参照画像とし、各基準画像から前方車体が撮影されている領域である物体領域を抽出する。ここで、抽出部20は、例えば、特開平7−334800に記載された画像中のエッジ分布及び左右対称性を利用して前方車体を抽出する手法を採用してもよいし、SVM(Support Vector Machine)、adaBoost等を用いて車体、非車体データを学習し、パターン認識を用いて前方車体を抽出する手法を採用してもよいし、前方車体の背面画像をテンプレートとして、テンプレートマッチングにより前方車体を抽出する手法を採用してもよい。また、抽出部20は、前方車体を示す領域を複数抽出した場合は、これらの領域のうち、自車体に近いことが予測される前方車体を示す1又は複数の領域を物体領域として抽出してもよい。なお、自車体に近いことが予測される前方車体を示す領域としては例えば面積が一定の大きさ以上の領域を採用すればよい。   The extraction unit 20 uses an input image sequentially input from the reference camera 110 at a predetermined frame rate as a reference image, and an input image sequentially input from the reference camera 120 at a predetermined frame rate as a reference image. An object region that is a region where is photographed is extracted. Here, for example, the extraction unit 20 may adopt a method of extracting a front vehicle body using an edge distribution and left-right symmetry in an image described in JP-A-7-334800, or an SVM (Support Vector). Machine), adaBoost, etc. may be used to learn vehicle body / non-vehicle body data, and a method of extracting the front vehicle body using pattern recognition may be employed. A technique for extracting In addition, when the extraction unit 20 extracts a plurality of regions indicating the front vehicle body, the extraction unit 20 extracts one or a plurality of regions indicating the front vehicle body that is predicted to be close to the own vehicle body as an object region. Also good. Note that, for example, a region having an area of a certain size or more may be employed as the region indicating the front vehicle body that is predicted to be close to the vehicle body.

面積算出部30は、抽出部20により抽出された物体領域の面積を算出する。ここで、面積算出部30は、例えば、物体領域の画素数をカウントし、カウントした画素数を物体領域の面積として採用してもよいし、1画素あたりの面積にカウントした画素数を乗じた値を物体領域の面積として採用してもよい。   The area calculation unit 30 calculates the area of the object region extracted by the extraction unit 20. Here, for example, the area calculation unit 30 may count the number of pixels in the object region, and may employ the counted number of pixels as the area of the object region, or multiply the area per pixel by the counted number of pixels. The value may be adopted as the area of the object region.

密度設定部40は、面積算出部30により算出された物体領域の面積に応じて注目点の設定密度を設定する。ここで、注目点は、対応点探索部50により物体領域内に順次設定される画素であり、密度設定部40は、物体領域の面積が小さくなるにつれて、注目点の設定密度を高くし、具体的には、物体領域の面積が小さくなるにつれて注目点を設定する際の間引き幅を小さくすることで、注目点の設定密度を高くする。   The density setting unit 40 sets the target point setting density according to the area of the object region calculated by the area calculation unit 30. Here, the attention point is a pixel that is sequentially set in the object region by the corresponding point search unit 50, and the density setting unit 40 increases the setting density of the attention point as the area of the object region decreases. Specifically, the setting density of the attention point is increased by reducing the thinning width when the attention point is set as the area of the object region is reduced.

図3は、抽出部20により物体領域が抽出された2枚の画像を示し、(a)は物体領域D1の面積が大きい場合を示し、(b)は物体領域D1の面積が小さい場合を示している。図4は、物体領域の面積によらず注目点CPの設定密度を一定とした場合において、物体領域D1に設定された注目点CPを示し、図4(a)は図3(a)の物体領域D1に対して設定された注目点CPを示し、図4(b)は図3(b)の物体領域D1に対して設定された注目点CPを示している。なお、図3及び図4においては、説明の便宜上、物体領域を四角形で示しているが実際には、より複雑な形状を有している。また、図3及び図4において、(a)では、物体領域D1は、16×16の画素から構成され、(b)では、物体領域D1は、8×8の画素から構成され、注目点CPの間引き幅は、水平及び垂直方向に3画素飛ばしとされている。   FIG. 3 shows two images from which the object region has been extracted by the extraction unit 20, (a) shows a case where the area of the object region D1 is large, and (b) shows a case where the area of the object region D1 is small. ing. 4 shows the target point CP set in the object region D1 when the set density of the target point CP is constant regardless of the area of the object region, and FIG. 4 (a) shows the object of FIG. 3 (a). The attention point CP set for the region D1 is shown, and FIG. 4B shows the attention point CP set for the object region D1 of FIG. 3B. In FIG. 3 and FIG. 4, for convenience of explanation, the object region is shown as a rectangle, but actually has a more complicated shape. 3 and 4, in (a), the object region D1 is composed of 16 × 16 pixels, and in (b), the object region D1 is composed of 8 × 8 pixels, and the attention point CP The thinning width is set to skip 3 pixels in the horizontal and vertical directions.

図4(a)に示すように、注目点の間引き幅が水平及び垂直方向に3画素飛ばしとされているため、図3(a)の物体領域D1には、16個の画素が注目点CPとして設定されているが、図3(b)の物体領域D1には、図4(b)に示すように、4個の注目点CPしか設定されていないことが分かる。   As shown in FIG. 4A, since the thinning width of the attention point is skipped by 3 pixels in the horizontal and vertical directions, 16 pixels are included in the object region D1 in FIG. However, as shown in FIG. 4B, it can be seen that only four attention points CP are set in the object region D1 in FIG. 3B.

従って、図3(a)に示す物体領域D1においては、処理点数が16個となるが、図3(b)に示す物体領域D1においては、処理点数が4個となり、図3(a)の方が図3(b)に比べて処理点数が多いため、距離の計測精度が増大することが分かる。つまり、注目点の間引き幅を一定にすると、面積が小さくなるにつれて処理点数が減少するため、距離の計測精度が低くなる一方、面積が大きくなると処理点数が増大し、距離の計測精度が高くなるため、距離の計測精度が物体領域D1の面積の大小に応じて安定しないことが分かる。   Therefore, in the object region D1 shown in FIG. 3A, the number of processing points is 16, but in the object region D1 shown in FIG. 3B, the number of processing points is 4, which is shown in FIG. Since the number of processing points is larger than that in FIG. 3B, it can be seen that the distance measurement accuracy increases. In other words, if the thinning width of the point of interest is constant, the number of processing points decreases as the area decreases, so the distance measurement accuracy decreases. On the other hand, when the area increases, the number of processing points increases and the distance measurement accuracy increases. Therefore, it can be seen that the distance measurement accuracy is not stable according to the size of the area of the object region D1.

そこで、密度設定部40は、物体領域D1の面積が小さくなるにつれて、間引き幅を小さくして注目点の設定密度を高くすることで、物体領域D1の面積によらず距離の計測精度を一定に保ち、距離の計測精度の安定化を図っている。   Therefore, the density setting unit 40 keeps the distance measurement accuracy constant regardless of the area of the object region D1 by decreasing the thinning width and increasing the setting density of the attention point as the area of the object region D1 decreases. Maintaining and stabilizing the distance measurement accuracy.

ここで、密度設定部40は、物体領域に設定される注目点の個数が物体領域の面積によらず一定個数となるように間引き幅を設定してもよいし、物体領域の面積を段階的に分けた場合の各段階における好ましい間引き幅を予め定めておき、処理対象となる物体領域の面積が属する段階に対応する間引き幅を当該物体領域の間引き幅として設定してもよい。   Here, the density setting unit 40 may set the thinning width so that the number of points of interest set in the object area is a constant number regardless of the area of the object area, or the area of the object area may be set in stages. A preferable thinning width at each stage in the case of dividing into two areas may be determined in advance, and the thinning width corresponding to the stage to which the area of the object area to be processed belongs may be set as the thinning width of the object area.

図5は、図3(b)に示す物体領域D1の面積に応じて間引き幅を変更した場合に物体領域D1に設定された注目点CPを示した図である。図5において、密度設定部40は、図3(b)に示す物体領域D1に対して水平及び垂直方向に1個飛ばしで間引き幅を設定しているため、注目点CPの設定個数が、図4(a)に示す注目点CPの設定個数と同数である16個とされていることが分かる。これにより、図3(a)、(b)に示す物体領域D1における処理点数が同数となり、物体領域D1の面積によらず、距離の計測精度が安定することが分かる。   FIG. 5 is a diagram showing a point of interest CP set in the object region D1 when the thinning width is changed according to the area of the object region D1 shown in FIG. In FIG. 5, the density setting unit 40 sets the thinning width by skipping one piece in the horizontal and vertical directions with respect to the object region D1 shown in FIG. It can be seen that the number of attention points CP shown in FIG. Accordingly, it is understood that the number of processing points in the object region D1 shown in FIGS. 3A and 3B is the same, and the distance measurement accuracy is stable regardless of the area of the object region D1.

図2に戻り、対応点探索部50は、密度設定部40により変更された注目点の設定密度に従って、抽出部20により抽出された物体領域内に注目点を順次設定し、各注目点の対応点を、注目点を設定した基準画像と同一時刻に取得された参照画像から探索する。   Returning to FIG. 2, the corresponding point search unit 50 sequentially sets the attention points in the object area extracted by the extraction unit 20 according to the setting density of the attention points changed by the density setting unit 40, and corresponds to each attention point. The point is searched from the reference image acquired at the same time as the base image in which the point of interest is set.

具体的には、対応点探索部50は、下位の階層から上位の階層に向かうにつれて解像度が高くなるように、解像度の異なる複数の基準画像及び参照画像を階層的に生成し、下位の階層での対応点の探索結果に基づいて、当該階層の探索範囲よりも小さな探索範囲を1つ上の階層の参照画像に設定し、当該探索範囲内で対応点を探索する探索処理を上位の階層に向けて階層的に実行することで対応点を探索する。   Specifically, the corresponding point search unit 50 hierarchically generates a plurality of standard images and reference images having different resolutions so that the resolution becomes higher from the lower hierarchy toward the upper hierarchy. Based on the corresponding point search result, a search range smaller than the search range of the hierarchy is set as a reference image one level higher, and search processing for searching for a corresponding point within the search range is performed in the upper hierarchy. The corresponding points are searched by executing in a hierarchical manner.

ここで、探索処理としては、基準画像に注目点を中心として基準ウインドウを設定し、参照画像に基準ウインドウと同一サイズの参照ウインドウを設定し、参照画像に設定された探索範囲内において参照ウインドウをずらしながら、基準ウインドウ内の画像と参照ウインドウ内の画像との類似度を求める類似度算出処理を繰り返し実行することで対応点を探索する処理を採用することができる。   Here, as the search process, a reference window is set around the target point in the reference image, a reference window having the same size as the reference window is set as the reference image, and the reference window is set within the search range set in the reference image. While shifting, it is possible to employ a process of searching for corresponding points by repeatedly executing a similarity calculation process for obtaining a similarity between the image in the reference window and the image in the reference window.

また、類似度算出処理としては、基準ウインドウ内の画像と参照ウインドウ内の画像とを周波数分解することで得られる位相成分に基づいて類似度を算出する処理を採用してもよいし、周波数分解することなく類似度を算出する処理を採用してもよい。   Further, as the similarity calculation process, a process for calculating the similarity based on a phase component obtained by frequency decomposition of the image in the reference window and the image in the reference window may be employed. You may employ | adopt the process which calculates similarity, without doing.

ここで、周波数分解としては、高速フーリエ変換、離散フーリエ変換、離散コサイン変換、離散サイン変換、ウエーブレット変換、及びアダマール変換といった手法を採用することができ、処理の高速化の観点からは高速フーリエ変換を採用することが好ましい。   Here, as frequency decomposition, methods such as fast Fourier transform, discrete Fourier transform, discrete cosine transform, discrete sine transform, wavelet transform, and Hadamard transform can be adopted. From the viewpoint of speeding up the processing, fast Fourier transform It is preferable to employ conversion.

位相成分に基づいて類似度を算出する処理としては、位相限定相関法(POC:Phase Only Correlation)やDCT符号限定相関法を採用することができるが、POCの方がよりロバストであるため、本実施の形態ではPOCを採用する。また、位相成分を用いることなく類似度を算出する手法としては、SAD(Sum of Absolute Difference)、SSD(濃度差の二乗和)、又はNCC(正規化相互相関)等を採用することができるが、本実施の形態ではSADを採用する。   As processing for calculating the similarity based on the phase component, a phase only correlation (POC) method or a DCT code only correlation method can be adopted. However, since the POC is more robust, this In the embodiment, POC is adopted. Further, as a method for calculating the similarity without using the phase component, SAD (Sum of Absolute Difference), SSD (Sum of the squares of the density difference), NCC (Normalized Cross Correlation), or the like can be adopted. In this embodiment, SAD is adopted.

DCT符号限定法としては、例えば、”画像信号処理と画像パターン認識の融合−DCT符号限定相関とその応用、貴家仁志、首都大学東京、システムデザイン学部、動的画像処理実利用化ワークショップ2007’2007.7.3.8−9”に記載された手法を採用することができる。   Examples of the DCT code limiting method include, for example, “Fusion of image signal processing and image pattern recognition—DCT code limited correlation and its application, Hitoshi Kiya, Tokyo Metropolitan University, Faculty of System Design, Dynamic Image Processing Realization Workshop 2007 ′. The method described in 2007.7.7.3.8-9 ″ can be adopted.

POCは、SADに比べてカメラ11,12の撮影条件の差や、ノイズなどの影響が受けにくく、ロバストであるが、周波数分解を行っているため処理コストがかかってしまう。そのため、ロバスト性を重視する場合はPOCを採用することが好ましく、処理の高速化を図る場合はSADを採用することが好ましい。   The POC is less susceptible to differences in imaging conditions of the cameras 11 and 12 and noise than the SAD and is robust. However, the POC is costly because of the frequency decomposition. Therefore, it is preferable to adopt POC when importance is attached to robustness, and it is preferable to adopt SAD when speeding up the processing.

また、抽出部20が複数の物体領域を抽出した場合は、重要度の高い前方車体を示す物体領域についてはPOCを採用し、重要度の低い前方車体を示す物体領域についてはSADを採用してもよい。なお、重要度の高い前方車体としては、危険を回避するうえで重要となる前方車体を採用すればよく、例えば、物体領域の面積が大きな前方車体ほど重要度が高くなるようにしてもよい。   Further, when the extraction unit 20 extracts a plurality of object regions, POC is adopted for the object region indicating the front vehicle body with high importance, and SAD is adopted for the object region indicating the front vehicle body with low importance. Also good. Note that the front vehicle body that is important in avoiding danger may be adopted as the front vehicle body having higher importance. For example, the front vehicle body having a larger object area may have higher importance.

次に、POCの詳細について説明する。図6は、POCの処理の流れを示したフローチャートである。なお、図6において、周波数分解として、フーリエ変換を採用した場合を例示している。まず、ステップS1,S2において、基準ウインドウ内の画像にフーリエ変換が施され、参照ウインドウ内の画像にフーリエ変換が施される。ここで、基準ウインドウ内の画像が式(1)で表され、参照ウインドウ内の画像が式(2)で表されるとすると、基準ウインドウ内の画像は、式(3)によりフーリエ変換され、参照ウインドウ内の画像は、式(4)によりフーリエ変換される。   Next, details of the POC will be described. FIG. 6 is a flowchart showing the flow of POC processing. In addition, in FIG. 6, the case where a Fourier transform is employ | adopted as frequency decomposition is illustrated. First, in steps S1 and S2, Fourier transformation is performed on the image in the standard window, and Fourier transformation is performed on the image in the reference window. Here, assuming that the image in the standard window is represented by equation (1) and the image in the reference window is represented by equation (2), the image in the standard window is Fourier transformed by equation (3), The image in the reference window is Fourier-transformed by equation (4).

但し、n1,n2は、垂直、水平方向の座標を示し、N1,N2は、基準ウインドウ及び参照ウインドウの垂直、水平方向のサイズを示し、M1は基準ウインドウ及び参照ウインドウの中心点から、垂直方向における端までの距離を示し、M2は基準ウインドウ及び参照ウインドウの中心点から、水平方向における端までの距離を示す。   Here, n1 and n2 indicate vertical and horizontal coordinates, N1 and N2 indicate vertical and horizontal sizes of the reference window and reference window, and M1 indicates the vertical direction from the center point of the reference window and reference window. The distance from the center point of the reference window and the reference window to the edge in the horizontal direction is indicated by M2.

次に、ステップS3,S4において、ステップS1,S2でフーリエ変換された両画像が式(5)を用いて規格化される。次に、ステップS5において、ステップS3,S4で規格化された両画像が合成される。ここで、規格化された両画像は、式(6)に示すように、F´(k1,k2)と、G´(k1,k2)の複素共役とが乗じられることで合成される。次に、ステップS6において、ステップS5で合成された画像が式(7)を用いて逆フーリエ変換され、POC値(r(k1,k2))が算出される。   Next, in steps S3 and S4, both images Fourier-transformed in steps S1 and S2 are normalized using equation (5). Next, in step S5, both images normalized in steps S3 and S4 are synthesized. Here, both normalized images are synthesized by multiplying F ′ (k1, k2) and the complex conjugate of G ′ (k1, k2) as shown in Expression (6). Next, in step S6, the image synthesized in step S5 is subjected to inverse Fourier transform using equation (7) to calculate a POC value (r (k1, k2)).

図7は、POC値を示したグラフである。このグラフにおいて、x軸及びy軸は、基準ウインドウ及び参照ウインドウ内の各座標を表し、z軸はPOC値を示している。図7に示すようにPOC値は、急峻な相関ピークを有し、画像マッチングにおけるロバスト性と推定精度とが高いことが知られている。そして、この相関ピークの高さは基準ウインドウ及び参照ウインドウの相関が高いほど大きくなる。したがって、基準ウインドウ及び参照ウインドウの類似度として、例えば相関ピークの高さを採用することで、両ウインドウ内の画像がどれだけ近似しているかを示すことが可能となる。また、相関ピークの位置が基準ウインドウと参照ウインドウとのズレ量を示すことになる。   FIG. 7 is a graph showing the POC value. In this graph, the x-axis and the y-axis represent coordinates in the standard window and the reference window, and the z-axis represents the POC value. As shown in FIG. 7, it is known that the POC value has a steep correlation peak, and has high robustness and estimation accuracy in image matching. The height of the correlation peak increases as the correlation between the standard window and the reference window increases. Therefore, by using, for example, the height of the correlation peak as the similarity between the standard window and the reference window, it is possible to indicate how close the images in both windows are. In addition, the position of the correlation peak indicates the amount of deviation between the standard window and the reference window.

そして、参照ウインドウをずらしながら対応点が探索されることになる。この場合、相関ピークの位置は、両ウインドウ間のズレ量を示しているため、参照ウインドウを1画素ずつずらす必要はなく、例えば、ウインドウサイズの半分の大きさをずらし量として設定すればよい。   Then, corresponding points are searched for while shifting the reference window. In this case, since the position of the correlation peak indicates the amount of deviation between the two windows, it is not necessary to shift the reference window one pixel at a time. For example, half the window size may be set as the amount of shift.

そして、最終的に対応点の位置は参照ウインドウの位置と、POC値の相関ピークの位置とから求められる。参照ウインドウの位置はピクセルレベルの値になるが、相関ピークの位置はウインドウ間のズレ量を示し、必ずしもピクセルレベルの位置に存在するとは限らない。そこで、相関ピークの位置をサブピクセルレベルで補間推定することによりサブピクセルレベルでズレ量を求めることが可能となる。ここで、相関ピークの位置の補間推定方法としては、放物線などの関数を、フィッティングする手法を採用することができる。そして、参照ウインドウの位置にサブピクセルレベルで補間推定された相関ピークの位置を足し合わせることによりサブピクセルレベルで対応点を求めることが可能となる。   Finally, the position of the corresponding point is obtained from the position of the reference window and the position of the correlation peak of the POC value. Although the position of the reference window is a pixel level value, the position of the correlation peak indicates the amount of deviation between the windows and does not necessarily exist at the pixel level position. Therefore, the amount of deviation can be obtained at the sub-pixel level by interpolating and estimating the position of the correlation peak at the sub-pixel level. Here, as the interpolation estimation method of the position of the correlation peak, a method of fitting a function such as a parabola can be employed. Then, by adding the position of the correlation peak interpolated and estimated at the subpixel level to the position of the reference window, the corresponding point can be obtained at the subpixel level.

次に、SADの詳細について説明する。図8はSADを説明する模式図である。図8に示すように、基準画像に設定された物体領域D1内に注目点CPが設定され、注目点CPを中心として基準ウインドウW1が設定される。ここで、注目点CPは、密度設定部40により設定された間引き幅にしたがって物体領域D1内をラスタ走査するようにして順次設定される。次に、参照画像に設定された探索範囲内の所定の画素が参照ウインドウW2の中心点O1として設定され、この中心点O1を中心として参照ウインドウW2が設定される。ここで、中心点O1は、注目点CPと垂直方向の高さが同一であり、かつ、水平方向と平行な参照画像の直線上に設定される。次に、基準ウインドウW1内の画像Img1と参照ウインドウW2内の画像Img2との相関値CORが式(8)、(9)を用いて算出される。 Next, details of SAD will be described. FIG. 8 is a schematic diagram for explaining SAD. As shown in FIG. 8, the attention point CP is set in the object region D1 set in the reference image, and the reference window W1 is set around the attention point CP. Here, the attention point CP is sequentially set so as to perform raster scanning in the object region D1 in accordance with the thinning width set by the density setting unit 40. Next, a predetermined pixel within the search range set in the reference image is set as the center point O1 of the reference window W2, and the reference window W2 is set around the center point O1. Here, the center point O1 has the same height in the vertical direction as the point of interest CP, and is set on a straight line of the reference image parallel to the horizontal direction. Next, a correlation value COR p between the image Img1 in the standard window W1 and the image Img2 in the reference window W2 is calculated using equations (8) and (9).

但し、Wは基準ウインドウW1、参照ウインドウW2のウインドウサイズを示し、iは垂直方向の座標を示し、jは水平方向の座標を示し、pは0≦p≦max_dispを満たす変数であり、max_dispは最終探索点を示す。   Where W is the window size of the standard window W1 and the reference window W2, i is the vertical coordinate, j is the horizontal coordinate, p is a variable that satisfies 0 ≦ p ≦ max_disp, and max_disp is Indicates the final search point.

そして、相関値CORが求まると、pが1増加されて参照ウインドウW2が水平方向にずらされ、次の相関値CORが求められる。なお、SADにおいては、参照ウインドウW2は、pがコントロールされてずらされているため、垂直方向の位置が注目点と同一であって、水平方向と平行な直線上に中心点O1が位置するようにずらされる。 When the correlation value COR p is obtained, p is increased by 1, the reference window W2 is shifted in the horizontal direction, and the next correlation value COR p is obtained. In SAD, since the reference window W2 is shifted by controlling p, the vertical position is the same as the point of interest, and the center point O1 is positioned on a straight line parallel to the horizontal direction. To be displaced.

そして、相関値CORを参照ウインドウW2内の画像の中心点O1の類似度として採用し、参照画像において類似度が最も高くなる位置を探索し、探索した位置を基準画像に設定された注目点CPの対応点として特定する。図8のグラフに示すように、相関値CORは、画像Img1と画像Img2との相関が高く、類似しているほど高くなる。 Then, the correlation value COR p is adopted as the similarity of the center point O1 of the image in the reference window W2, the position where the similarity is the highest in the reference image is searched, and the point of interest set in the reference image as the searched position It is specified as a corresponding point of CP. As shown in the graph of FIG. 8, the correlation value COR p has a higher correlation between the image Img1 and the image Img2, and the higher the similarity, the higher the correlation value COR p .

ここで、参照ウインドウは、画素単位で離散的にずらされるため、類似度はピクセルレベルの分解能で算出されることになるが、POCと同様にして、サブピクセルレベルで類似度を算出してもよい。   Here, since the reference window is discretely shifted in units of pixels, the similarity is calculated with pixel level resolution. However, similar to POC, the similarity may be calculated at the sub-pixel level. Good.

図2に戻り、距離算出部60は、注目点と対応点とを基に、ステレオ法による測距方法を用いて物体領域D1によって示される前方車体までの距離及び3次元位置を求める。図9は、ステレオ法による測距方法を説明する模式図である。   Returning to FIG. 2, the distance calculation unit 60 obtains the distance to the front vehicle body and the three-dimensional position indicated by the object region D <b> 1 using a stereo distance measurement method based on the attention point and the corresponding point. FIG. 9 is a schematic diagram illustrating a distance measuring method using a stereo method.

図9において、fは、カメラ11,12の焦点距離を示し、カメラ11,12の撮影面(CCD)の画素数及び1画素の大きさ(μ)は等しいものとする。また、カメラ11,12は、所定の基線長Lだけ左右方向に離間され、かつ、光軸が平行となるように配置されている。この場合、撮影面上の視差(ずれ画素数)をd(=d1+d2)とすると、前方車体までの距離(Z)は、Z=(L×f)/(μ×d)により求めることができる。3次元位置としては、自車体を基準として3次元の座標空間を設定した場合の前方車体の位置である相対位置を採用してもよいし、自車体がGPSを備えているのであれば、GPSにより得られた自車体の絶対位置から前方車体の絶対位置を求め、この絶対位置を採用してもよい。   In FIG. 9, f indicates the focal length of the cameras 11 and 12, and the number of pixels on the imaging surface (CCD) of the cameras 11 and 12 and the size (μ) of one pixel are the same. Further, the cameras 11 and 12 are arranged so as to be separated from each other in the left-right direction by a predetermined base line length L and to have parallel optical axes. In this case, if the parallax (the number of displaced pixels) on the imaging surface is d (= d1 + d2), the distance (Z) to the front vehicle body can be obtained by Z = (L × f) / (μ × d). . As the three-dimensional position, a relative position that is the position of the front vehicle body when a three-dimensional coordinate space is set with respect to the own vehicle body may be adopted, or if the vehicle body is equipped with GPS, GPS The absolute position of the front vehicle body may be obtained from the absolute position of the vehicle body obtained by the above, and this absolute position may be adopted.

ここで、距離算出部60は、例えば、物体領域内に設定した注目点と各注目点の対応点との各ペアの視差から代表視差を求め、その代表視差の距離を物体領域が表す前方車体までの距離として算出してもよいし、注目点と対応点との各ペアの距離を求め、求めた距離から代表距離を求めてもよい。代表視差又は代表距離を求める手法としては、特開平7−334800号公報に記載されたヒストグラムを用いた手法を採用してもよいし、各ペアの距離又は視差の平均値、中央値、或いは各ペアの距離又は視差から最大値及び最小値を除いた残りの値の平均値を代表距離又は代表視差として算出する手法を採用してもよい。   Here, for example, the distance calculation unit 60 obtains the representative parallax from the parallax of each pair of the target point set in the object region and the corresponding point of each target point, and the front vehicle body that represents the distance of the representative parallax is represented by the object region Or the distance of each pair of the target point and the corresponding point may be obtained, and the representative distance may be obtained from the obtained distance. As a method for obtaining the representative parallax or the representative distance, a method using a histogram described in Japanese Patent Laid-Open No. 7-334800 may be employed, and the distance or parallax average value, median value, A method of calculating an average value of remaining values obtained by removing the maximum value and the minimum value from the pair distance or parallax as the representative distance or the representative parallax may be adopted.

図2に戻り、表示部70は、図1に示す表示装置14から構成され、距離算出部60により算出された前方車体までの距離及び3次元位置等を表示する。ここで、表示部70は、距離算出部60により複数の前方車体の距離が算出された場合は、各々の距離をドライバーに通知してもよい。   Returning to FIG. 2, the display unit 70 includes the display device 14 illustrated in FIG. 1, and displays the distance to the front vehicle body calculated by the distance calculation unit 60, the three-dimensional position, and the like. Here, when the distance calculation unit 60 calculates the distances of the plurality of front vehicle bodies, the display unit 70 may notify each distance to the driver.

次に、距離計測装置1の動作について説明する。図10は距離計測装置1の動作を示すフローチャートである。以下のフローチャートでは、説明の便宜上、基準画像及び参照画像に含まれる物体領域D1は1個とする。   Next, the operation of the distance measuring device 1 will be described. FIG. 10 is a flowchart showing the operation of the distance measuring apparatus 1. In the following flowchart, for convenience of explanation, the number of object regions D1 included in the base image and the reference image is one.

まず、ステップS11において、抽出部20は、基準カメラ110から入力された入力画像を基準画像として取得し、参照カメラ120から入力された入力画像を参照画像として取得する。   First, in step S <b> 11, the extraction unit 20 acquires an input image input from the reference camera 110 as a reference image, and acquires an input image input from the reference camera 120 as a reference image.

ステップS12において、抽出部20は、図3に示すようにステップS11で取得した基準画像から物体領域D1を抽出する。ステップS13において、面積算出部30は、ステップS12で抽出された物体領域D1の面積を算出する。   In step S12, the extraction unit 20 extracts the object region D1 from the reference image acquired in step S11 as shown in FIG. In step S13, the area calculation unit 30 calculates the area of the object region D1 extracted in step S12.

ステップS14において、密度設定部40は、図4に示すように物体領域D1の面積が小さくなるにつれて注目点CPの間引き幅が小さくなるように間引き幅を設定する。   In step S14, the density setting unit 40 sets the thinning width so that the thinning width of the target point CP decreases as the area of the object region D1 decreases as illustrated in FIG.

ステップS15において、対応点探索部50は、探索処理を実行する。図11は探索処理を示すフローチャートである。まず、ステップS41において、対応点探索部50は、基準画像及び参照画像を階層毎に予め定められた解像度で低解像度化する処理を実行し、解像度の異なる複数の基準画像及び参照画像を階層的に生成する。ここで、階層数及び各階層における解像度は予め定められており、下位の階層から上位の階層に向かうにつれて解像度が高くなり、解像度変換が行われていない基準画像及び参照画像が最上位の階層とされる。   In step S15, the corresponding point search unit 50 performs a search process. FIG. 11 is a flowchart showing search processing. First, in step S41, the corresponding point search unit 50 executes a process of reducing the resolution of the standard image and the reference image at a resolution determined in advance for each layer, and hierarchically selects a plurality of standard images and reference images having different resolutions. To generate. Here, the number of layers and the resolution in each layer are determined in advance, and the resolution increases from the lower layer to the upper layer, and the base image and the reference image that have not undergone resolution conversion are the highest layer. Is done.

ステップS42において、対応点探索部50は、最上位の階層の基準画像に注目点を設定する。ここで、注目点は、ステップS14で設定された間引き幅に従って、物体領域D1内をラスタ走査するようにして順次設定される。   In step S42, the corresponding point search unit 50 sets a point of interest in the reference image of the highest hierarchy. Here, the attention points are sequentially set so as to perform raster scanning in the object region D1 according to the thinning width set in step S14.

ステップS43において、対応点探索部50は、最下位の階層の参照画像に探索範囲を設定する。図13は、基準画像及び参照画像に設定される基準ウインドウと参照ウインドウとを示した図である。図13に示すように、探索範囲DRは、ステップS41で基準画像に設定された注目点CPと垂直方向の高さが同じであって、水平方向と平行な参照画像の直線上の全域に設定されている。   In step S43, the corresponding point search unit 50 sets a search range for the reference image of the lowest hierarchy. FIG. 13 is a diagram showing a standard window and a reference window set in the standard image and the reference image. As shown in FIG. 13, the search range DR is set to the entire area on the straight line of the reference image that has the same height in the vertical direction as the point of interest CP set in the base image in step S41 and is parallel to the horizontal direction. Has been.

ステップS44において、対応点探索部50は、類似度算出処理を実行する。図12は類似度算出処理を示すフローチャートである。まず、ステップS61において、対応点探索部50は、ステップS43で探索範囲DRを設定した参照画像と同一階層の基準画像に基準ウインドウW1を設定する。ここで、ステップS42で最上位の階層の基準画像に設定された注目点に対して位置が対応する処理対象となる階層の基準画像上の点が、当該階層の基準画像の注目点CPとして設定される。そして、図13に示すように、注目点CPに中心が位置するように基準ウインドウW1が設定される。   In step S44, the corresponding point search unit 50 executes similarity calculation processing. FIG. 12 is a flowchart showing similarity calculation processing. First, in step S61, the corresponding point search unit 50 sets the reference window W1 to the reference image in the same hierarchy as the reference image for which the search range DR is set in step S43. Here, the point on the reference image of the hierarchy whose processing target corresponds to the position of the attention point set in the reference image of the highest hierarchy in step S42 is set as the attention point CP of the reference image of the hierarchy. Is done. Then, as shown in FIG. 13, the reference window W1 is set so that the center is located at the attention point CP.

ステップS62において、処理対象となる階層の参照画像に参照ウインドウW2が設定される。ここで、図13に示す探索範囲DRの例えば左端の位置が中心点O1の初期位置となるように参照ウインドウW2が設定される。   In step S62, the reference window W2 is set to the reference image of the hierarchy to be processed. Here, the reference window W2 is set so that, for example, the left end position of the search range DR shown in FIG. 13 is the initial position of the center point O1.

ステップS63において、対応点探索部50は、上述したPOC又はSADを用いて基準ウインドウW1内の画像と参照ウインドウW2内の画像との類似度を算出する。   In step S63, the corresponding point search unit 50 calculates the similarity between the image in the standard window W1 and the image in the reference window W2 using the above-described POC or SAD.

ステップS64において、対応点探索部50は、参照ウインドウW2の中心点O1が探索範囲DRの最終位置に到達していない場合(ステップS64でNO)、参照ウインドウW2をずらし(ステップS65)、処理をステップS63に戻し、参照ウインドウW2の中心点が探索範囲DRの最終位置に到達した場合(ステップS64でYES)、類似度算出処理を終了し、処理を図11に示すステップS45に進める。ここで、最終位置としては例えば探索範囲DRの右端を採用することができる。また、図13に示すように、参照ウインドウW2は、中心点O1が探索範囲DRの左端の点から右端の点に向けて順次設定され、探索範囲DRに沿って左側から右側に向けてずらされていく。そして、対応点探索部50は、参照ウインドウW2をずらす毎に類似度を算出し、算出した類似度を中心点O1における類似度とする。これにより、探索範囲DR上での類似度の分布が求まることになる。   In step S64, when the center point O1 of the reference window W2 has not reached the final position of the search range DR (NO in step S64), the corresponding point search unit 50 shifts the reference window W2 (step S65) and performs processing. Returning to step S63, if the center point of the reference window W2 has reached the final position of the search range DR (YES in step S64), the similarity calculation process is terminated, and the process proceeds to step S45 shown in FIG. Here, as the final position, for example, the right end of the search range DR can be employed. Further, as shown in FIG. 13, the reference window W2 is set such that the center point O1 is sequentially set from the left end point to the right end point of the search range DR, and is shifted from the left side to the right side along the search range DR. To go. Then, the corresponding point search unit 50 calculates the similarity every time the reference window W2 is shifted, and sets the calculated similarity as the similarity at the center point O1. As a result, a distribution of similarity on the search range DR is obtained.

図11に戻り、ステップS45において、対応点探索部50は、類似度算出処理によって求められた探索範囲DR上の類似度のうち、最大の類似度を有する点を処理対象となる階層の参照画像における対応点として求める。   Returning to FIG. 11, in step S <b> 45, the corresponding point search unit 50 refers to the reference image of the hierarchy whose processing target is the point having the maximum similarity among the similarities on the search range DR obtained by the similarity calculation processing. It is obtained as a corresponding point.

ステップS46において、対応点探索部50は、最上位の階層を処理対象として設定していない場合(ステップS46でNO)、1つ上の階層を処理対象として設定し、当該階層の参照画像に探索範囲DRを設定し(ステップS48)、処理をステップS44に戻し、最上位の階層を処理対象として既に設定している場合(ステップS46でYES)、処理をステップS47に進める。   In step S46, when the corresponding point search unit 50 does not set the highest hierarchy as the processing target (NO in step S46), the corresponding hierarchy search unit 50 sets the upper hierarchy as the processing target and searches for a reference image in the hierarchy. The range DR is set (step S48), the process returns to step S44, and if the highest hierarchy has already been set as the process target (YES in step S46), the process proceeds to step S47.

図14は、探索範囲DRを説明する図であり、(a)はある階層における基準画像と参照画像とを示し、(b)は(a)に示す階層よりも1つ上の階層における基準画像と参照画像とを示している。対応点探索部50は、図14(a)に示す参照画像において求めた対応点TPを含み、図14(a)に示す探索範囲DRよりも狭い領域を1つ上の階層の参照画像の探索範囲DRとして設定する(図14(b))。すなわち、対応点探索部50は、いずれの階層においても探索範囲DRを、注目点CPと垂直方向の高さが同一であり、かつ水平方向と平行な直線上に設定するが、下位の階層から上位の階層に向かうにつれて範囲を狭くしている。ここで、基準画像及び参照画像は階層が上位になるにつれて解像度が高くなっている。したがって、低解像度の参照画像で広範囲に探索範囲DRを設定して対応点TPのおよその位置を探索しておき、その探索結果を用いて高解像度での参照画像の探索範囲DRを狭い範囲に絞り込むことが可能となり、高速かつ高精度に対応点を探索することができる。なお、各階層において設定される探索範囲DRは、下の階層で求められた対応点TPを中心として、階層毎に予め定められた一定の幅を持たせた範囲とすればよい。   FIG. 14 is a diagram for explaining the search range DR, where (a) shows a standard image and a reference image in a certain hierarchy, and (b) is a standard image in a hierarchy one level higher than the hierarchy shown in (a). And a reference image. The corresponding point search unit 50 includes the corresponding points TP obtained in the reference image shown in FIG. 14A, and searches for a reference image that is one level higher than the search range DR shown in FIG. 14A. The range DR is set (FIG. 14B). That is, the corresponding point search unit 50 sets the search range DR on any straight line that has the same vertical height as the point of interest CP and is parallel to the horizontal direction. The range is narrowed toward the higher levels. Here, the resolution of the standard image and the reference image becomes higher as the hierarchy becomes higher. Therefore, the search range DR is set in a wide range with the low-resolution reference image to search the approximate position of the corresponding point TP, and the search result DR of the high-resolution reference image is narrowed using the search result. This makes it possible to narrow down and search for corresponding points at high speed and with high accuracy. Note that the search range DR set in each layer may be a range having a certain width predetermined for each layer, with the corresponding point TP obtained in the lower layer as the center.

図11に戻り、ステップS47において、注目点が最終位置に到達していない場合(ステップS47でNO)、対応点探索部50は、基準画像に次の注目点を設定するために処理をステップS42に戻し、注目点が最終位置に設定されている場合(ステップS47でYES)、探索処理を終了して処理を図10に示すステップS16に進める。   Returning to FIG. 11, if the target point has not reached the final position in step S47 (NO in step S47), the corresponding point search unit 50 performs the process to set the next target point in the reference image in step S42. If the target point is set at the final position (YES in step S47), the search process is terminated and the process proceeds to step S16 shown in FIG.

図10に戻り、ステップS16において、距離算出部60は、物体領域D1に示す前方車体までの距離を求め、ステップS17において、表示部70は、距離算出部60により算出された距離を表示する。ステップS18において、例えばユーザにより処理を終了するための操作指令が入力される等して、処理が終了される場合(ステップS18でYES)、処理が終了され、処理が終了されない場合(ステップS18でNO)、抽出部20は、基準カメラ110により取得された次フレームの入力画像を基準画像として取得すると共に、参照カメラ120により取得された次フレームの入力画像を参照画像として取得し(ステップS19)、処理をステップS12に戻す。   Returning to FIG. 10, in step S <b> 16, the distance calculation unit 60 obtains the distance to the front vehicle body shown in the object region D <b> 1, and in step S <b> 17, the display unit 70 displays the distance calculated by the distance calculation unit 60. In step S18, for example, when an operation command for ending the process is input by the user, the process is terminated (YES in step S18), the process is terminated, and the process is not terminated (in step S18). NO), the extraction unit 20 acquires the input image of the next frame acquired by the standard camera 110 as a standard image, and acquires the input image of the next frame acquired by the reference camera 120 as a reference image (step S19). The process returns to step S12.

このように距離計測装置1によれば、カメラ11,12により同一タイミングで撮影された入力画像が基準画像及び参照画像として取得され、基準画像から前方車体をとらえた物体領域が抽出され、抽出された物体領域内に注目点が順次設定され、各注目点の対応点TPが各参照画像から探索され、注目点と対応点との視差を基に、対象物までの距離が算出される。ここで、注目点は、物体領域の面積が小さくなるにつれて設定密度が高くされているため、物体領域の面積の大小による注目点の設定個数のばらつきが低減され、物体領域の面積の大小によらず距離の計測精度を一定に保ち、距離の計測精度の安定化を図ることができる。   As described above, according to the distance measuring apparatus 1, the input images captured at the same timing by the cameras 11 and 12 are acquired as the standard image and the reference image, and the object region capturing the front vehicle body is extracted and extracted from the standard image. Attention points are sequentially set in the object region, the corresponding points TP of each attention point are searched from each reference image, and the distance to the object is calculated based on the parallax between the attention point and the corresponding points. Here, since the setting density of the attention point is increased as the area of the object region is reduced, variation in the number of attention points set due to the size of the area of the object region is reduced. Therefore, the distance measurement accuracy can be kept constant, and the distance measurement accuracy can be stabilized.

(実施の形態2)
次に、本発明の実施の形態2による距離計測装置1aについて説明する。なお、本実施の形態において、全体構成及び詳細な構成は実施の形態1と同一であるため、図1及び図2を用いる。また、本実施の形態において実施の形態1と同一のものは説明を省き相違点のみ説明する。
(Embodiment 2)
Next, a distance measuring device 1a according to Embodiment 2 of the present invention will be described. In the present embodiment, since the overall configuration and detailed configuration are the same as those in Embodiment 1, FIGS. 1 and 2 are used. In the present embodiment, the same elements as those in the first embodiment are not described, and only differences are described.

図2に示す抽出部20は、基準画像から物体領域の候補となる候補領域を抽出し、抽出した候補領域の中から物体領域を抽出する。ここで、抽出部20は、実施の形態1が物体領域を抽出する手法と同様の手法を用いて候補領域を抽出し、抽出した候補領域のうち重要度が高い1又は複数の候補領域を物体領域として抽出すればよい。ここで、重要度としては、例えば、面積の大きな候補領域ほど高く、基準画像の下側に位置する候補領域ほど高くなるような値を採用してもよい。そして、抽出部20は、重要度の値が所定の値よりも大きな候補領域を物体領域として抽出してもよいし、重要度の高い順に予め定められた個数の候補領域を物体領域として抽出してもよい。ここで、下側に位置し、かつ、面積が大きな候補領域ほど重要度を高く設定するのは、そのような候補領域が示す対象物ほど、自車体に近づいている可能性が高いからである。   The extraction unit 20 illustrated in FIG. 2 extracts candidate areas that are candidate object areas from the reference image, and extracts object areas from the extracted candidate areas. Here, the extraction unit 20 extracts candidate regions using the same method as the method for extracting the object region according to the first embodiment, and selects one or more candidate regions having high importance from the extracted candidate regions. What is necessary is just to extract as an area | region. Here, as the importance, for example, a value that is higher for a candidate area with a larger area and higher for a candidate area located below the reference image may be employed. Then, the extraction unit 20 may extract candidate areas having importance values greater than a predetermined value as object areas, or extract a predetermined number of candidate areas in descending order of importance as object areas. May be. Here, the reason why the importance level is set higher for a candidate area located on the lower side and having a larger area is that the object indicated by such a candidate area is more likely to be closer to the vehicle body. .

対応点探索部50は、物体領域に設定した各注目点の対応点の探索が終了した後、次フレームに対する処理を開始するまで期間、抽出部20により抽出された物体領域以外の基準画像上の領域である非物体領域内に注目点を順次設定し、各注目点の対応点を各参照画像から探索するといった第3の探索処理を実行する。   The correspondence point search unit 50 performs a period on the reference image other than the object region extracted by the extraction unit 20 until the processing for the next frame is started after the search for the corresponding point of each target point set in the object region is completed. A third search process is executed in which attention points are sequentially set in a non-object region, which is a region, and corresponding points of each attention point are searched from each reference image.

すなわち、第3の探索処理は、現フレームにおいて、物体領域に設定した各注目点の対応点の探索が終了した後、次フレームの入力画像が取得されるまでの間の空き時間を利用して、非物体領域において順次注目点を設定して対応点を探索していき、次フレームの入力画像が取得されると、非物体領域における探索処理を打ち切る処理である。   In other words, the third search process uses the free time until the input image of the next frame is acquired after the search for the corresponding point of each target point set in the object area in the current frame. In this process, attention points are sequentially set in the non-object region to search for corresponding points, and when the input image of the next frame is acquired, the search processing in the non-object region is terminated.

ここで、第3の探索処理は、上述したSAD又はPOC等を用いて対応点を探索すればよい。また、対応点探索部50は、第3の探索処理を実行するにあたり、非物体領域の下からの1番目のラインの例えば左端の画素から右端の画素に向けて順次注目点を設定し、当該ラインの処理が全て終了すると、その1つ上のラインに対して同様に注目点を順次設定しいくというように、非物体領域の下側から上側に向けて順次注目点を設定すればよい。このとき、対応点探索部50は、非物体領域の全画素を注目点として設定してもよいし、非物体領域を水平及び垂直方向に一定の間引き幅で間引いた画素を注目点として設定してもよい。更に、対応点探索部50は、面積算出部30に非物体領域の面積を算出させ、非物体領域の面積が大きいほど、間引き幅が大きくなるように注目点を設定してもよい。   Here, the third search process may be performed by searching for corresponding points using the above-described SAD or POC. In addition, when executing the third search process, the corresponding point search unit 50 sequentially sets attention points from, for example, the leftmost pixel to the rightmost pixel in the first line from the bottom of the non-object region. When all the line processing is completed, the attention points may be sequentially set from the lower side to the upper side of the non-object region so that attention points are sequentially set for the line immediately above. At this time, the corresponding point search unit 50 may set all the pixels in the non-object region as a point of interest, or set a pixel obtained by thinning the non-object region in the horizontal and vertical directions with a certain thinning width as the point of interest. May be. Further, the corresponding point search unit 50 may cause the area calculation unit 30 to calculate the area of the non-object region, and may set the attention point so that the thinning width increases as the area of the non-object region increases.

距離算出部60は、実施の形態1と同様にして物体領域が示す前方車体の距離を算出することに加えて、非物体領域における注目点と対応点とから、上述したステレオ法による測距方法を用いて各注目点の距離を求める。ここで、距離算出部60は、非物体領域に設定した注目点において、自車体に近接していることが想定される予め定められた距離よりも距離の短い注目点が存在する場合、表示部70に障害物が接近していることを示す情報を表示させ、ユーザに危険を報知するようにしてもよい。   The distance calculation unit 60 calculates the distance of the front vehicle body indicated by the object area in the same manner as in the first embodiment, and also uses the stereo method described above from the attention point and the corresponding point in the non-object area. Is used to find the distance between each point of interest. Here, the distance calculation unit 60 displays the display unit when the target point set in the non-object region includes a target point with a shorter distance than a predetermined distance assumed to be close to the vehicle body. Information indicating that an obstacle is approaching may be displayed on 70 to notify the user of the danger.

次に、距離計測装置1aの動作について説明する。図15は、距離計測装置1aの動作を示すフローチャートである。ステップS81は、図10に示すステップS11と同一であるため説明を省略する。ステップS82において、抽出部20は、基準画像から候補領域を抽出し、各候補領域の重要度を求め、重要度が所定の値より大きな候補領域を物体領域として抽出する。ここで、抽出部20は、各候補領域の例えば重心を求め、重心が基準画像の下側に位置する候補領域ほど高い重要度を付与し、付与した重要度に各候補領域の面積を乗じた値を各候補領域の重要度として設定してもよい。なお、以下の説明では、説明の便宜上、1つの物体領域が抽出されたものとする。   Next, the operation of the distance measuring device 1a will be described. FIG. 15 is a flowchart showing the operation of the distance measuring device 1a. Step S81 is the same as step S11 shown in FIG. In step S82, the extraction unit 20 extracts candidate areas from the reference image, obtains importance levels of the candidate areas, and extracts candidate areas having importance levels greater than a predetermined value as object areas. Here, the extraction unit 20 obtains, for example, the center of gravity of each candidate region, assigns a higher importance to a candidate region whose center of gravity is located below the reference image, and multiplies the assigned importance by the area of each candidate region. A value may be set as the importance of each candidate area. In the following description, it is assumed that one object region is extracted for convenience of description.

ステップS83〜S85の処理は、図10に示すステップS13〜S15の処理と同一であるため説明を省略する。   The processing in steps S83 to S85 is the same as the processing in steps S13 to S15 shown in FIG.

ステップS86において、対応点探索部50は、第3の探索処理を実行する。図16は、第3の探索処理の詳細を示すフローチャートである。まず、ステップS101において、対応点探索部50は、次フレームが取得されるまでに第3の探索処理を実行するための空き時間があるか否かを判定し、空き時間がある場合は(ステップS101でYES)、基準画像から非物体領域を特定する。一方、ステップS101において、空き時間がないと判定した場合(ステップS101でNO)、第3の探索処理を終了して処理を図15に示すステップS87に戻す。   In step S86, the corresponding point search unit 50 performs a third search process. FIG. 16 is a flowchart showing details of the third search process. First, in step S101, the corresponding point search unit 50 determines whether or not there is a free time for executing the third search process until the next frame is acquired. In step S101, a non-object area is specified from the reference image. On the other hand, if it is determined in step S101 that there is no free time (NO in step S101), the third search process is terminated and the process returns to step S87 shown in FIG.

次に、対応点探索部50は、非物体領域に1つの注目点を設定し(ステップS103)、設定した注目点に対する対応点を探索し(ステップS104)、処理をステップS101に戻す。ここで、対応点探索部50は、非物体領域の各画素を注目点として設定する設定パターン1又は非物体領域を間引いた画素を注目点として設定する設定パターン2に従って、順次注目点を設定する。   Next, the corresponding point search unit 50 sets one attention point in the non-object region (step S103), searches for a corresponding point with respect to the set attention point (step S104), and returns the process to step S101. Here, the corresponding point search unit 50 sequentially sets the attention points according to the setting pattern 1 for setting each pixel of the non-object region as the attention point or the setting pattern 2 for setting the pixels obtained by thinning out the non-object region as the attention point. .

図17は、設定パターン1を用いて非物体領域に設定される注目点を経時的に示した図であり、(a)〜(c)に向かうにつれて時間が経過している。なお、図17において三角印の点は物体領域D1に設定された注目点を示し、白丸は注目点として設定されていない非物体領域D2内の画素を示し、黒丸は注目点として設定済みの非物体領域の画素を示している。また、非物体領域D2は基準画像において物体領域D1を取り除いた領域からなる。   FIG. 17 is a diagram showing the points of interest set in the non-object region using the setting pattern 1 over time, and time elapses toward (a) to (c). In FIG. 17, a triangular mark indicates a target point set in the object region D1, a white circle indicates a pixel in the non-object region D2 that is not set as the target point, and a black circle indicates a non-set point that has been set as the target point. The pixel of the object area is shown. Further, the non-object region D2 is a region obtained by removing the object region D1 from the reference image.

図17(a)に示すように非物体領域D2の下から1番目のラインの左端の画素から右端の画素に向けて順次注目点が設定されて対応点が順次探索され、右端の画素に対する探索処理が終了すると、図17(b)に示すように下から2番目のラインの左端の画素から右端の画素に向けて順次注目点が設定されて対応点が順次探索され、図17(c)に示すように下から7番目のラインの左端の画素が注目点として設定されて探索処理が終了すると、空き時間がなくなったため探索処理が打ち切られている。   As shown in FIG. 17A, attention points are sequentially set from the leftmost pixel to the rightmost pixel of the first line from the bottom of the non-object region D2, and corresponding points are sequentially searched, and search for the rightmost pixel is performed. When the processing is completed, as shown in FIG. 17B, attention points are sequentially set from the leftmost pixel to the rightmost pixel of the second line from the bottom, and corresponding points are sequentially searched, and FIG. As shown in FIG. 5, when the pixel at the left end of the seventh line from the bottom is set as a point of interest and the search process is completed, the search process is terminated because there is no free time.

図18は、設定パターン2を用いて非物体領域に設定される注目点を経時的に示した図であり、(a)〜(b)に向かうにつれて時間が経過している。   FIG. 18 is a diagram showing the points of interest set in the non-object region using the setting pattern 2 over time, and the time elapses toward (a) to (b).

設定パターン2では、水平及び垂直方向に間引き幅が1画素飛ばしで設定されているため、図18(a)に示すように下から1番目のラインにおいて、左端の画素から右端の画素に向けて1画素飛ばしの間引き幅で注目点が順次設定されていることが分かる。そして、下から1番目のラインに対する探索処理が終了すると、次に2つ上のラインにおいて1画素飛ばしで順次注目点が設定されるというようにして、順次注目点が設定される。   In setting pattern 2, since the thinning width is set by skipping one pixel in the horizontal and vertical directions, as shown in FIG. 18A, from the leftmost pixel to the rightmost pixel in the first line from the bottom. It can be seen that the points of interest are sequentially set with the skipping width of one pixel skip. Then, when the search process for the first line from the bottom is completed, the attention points are sequentially set in such a manner that the attention points are sequentially set by skipping one pixel in the next two lines.

また、設定パターン2では、上から1番目のラインにおける探索処理が終了した時点、すなわち、1サイクル目の探索処理が終了した時点で、空き時間が残っている場合、間引いたことにより注目点として設定されなかった画素が順次注目点として設定され、2サイクル目の探索処理が開始される。   Also, in the setting pattern 2, when the search process in the first line from the top is completed, that is, when the first cycle search process is completed, if there is a free time remaining, the thinning is performed as a point of interest. Pixels that have not been set are sequentially set as attention points, and search processing in the second cycle is started.

すなわち、図18(b)に示すように1サイクル目の探索処理が終了すると、再度、下側のラインから上側のラインに向けて注目点として設定されなかった画素が順次注目点として設定され、2サイクル目の探索処理が実行される。ここで、2サイクル目の探索処理においては、1サイクル目で注目点が設定されたラインと同じラインにおいて注目点として設定さなかった画素を1画素飛ばしで順次注目点として設定してもよいし、1サイクル目で注目点が設定されたラインと異なるラインにおいて1画素飛ばしで順次注目点を設定してもよい。なお、第3の探索処理において間引き幅は、1画素飛ばしに限定されず、2画素飛ばし以上としてもよい。   That is, as shown in FIG. 18B, when the search process in the first cycle is completed, pixels that are not set as attention points from the lower line toward the upper line are sequentially set as attention points. The search process of the second cycle is executed. Here, in the search process in the second cycle, pixels that are not set as the attention point in the same line as the line in which the attention point was set in the first cycle may be sequentially set as the attention point by skipping one pixel. The attention point may be sequentially set by skipping one pixel in a line different from the line where the attention point is set in the first cycle. Note that in the third search process, the thinning width is not limited to skipping one pixel, and may be greater than or equal to skipping two pixels.

図15に戻り、ステップS87において、距離算出部60は、物体領域に加えて非物体領域の各注目点における距離を求め、求めた距離が所定の値より短い場合は、障害物が接近していることを示す情報を表示部70に表示させる(ステップS88)。ステップS89〜S90の処理は図10に示すステップS18〜S19と同一であるため、説明を省略する。   Returning to FIG. 15, in step S <b> 87, the distance calculation unit 60 obtains the distance at each point of interest in the non-object area in addition to the object area. If the obtained distance is shorter than a predetermined value, the obstacle approaches. Is displayed on the display unit 70 (step S88). The processing in steps S89 to S90 is the same as that in steps S18 to S19 shown in FIG.

このように、距離計測装置1aによれば、各フレームでの演算時間の空き時間を利用して非物体領域の距離を算出することが可能となり、例えば、ガードレールや路肩等の周辺環境を把握する上で有用な情報を得ることができ、対象物以外の障害物であって、危険を及ぼすような障害物の接近をユーザに報知することが可能となる。   As described above, according to the distance measuring device 1a, it is possible to calculate the distance of the non-object region by using the free time of the calculation time in each frame, and for example, grasp the surrounding environment such as a guardrail and a road shoulder. The above useful information can be obtained, and it is possible to notify the user of the approach of an obstacle other than the target object that is dangerous.

なお、上記実施の形態2では、非物体領域内に注目点を設定したが、これに代えて、候補領域以外の非候補領域内に注目点を設定してもよい。   In the second embodiment, the attention point is set in the non-object region. Alternatively, the attention point may be set in a non-candidate region other than the candidate region.

なお、上記実施の形態1、2では、物体領域の数を1個として説明したたが、本発明はこれに限定されず、2個以上としてもよい。この場合、実施の形態1では物体領域毎に図10〜図12に示す処理を実行し、実施の形態2では物体領域毎に図15〜図16の処理を実行すればよい。そして、表示部70は、物体領域毎の距離を表示すればよい。   In Embodiments 1 and 2 described above, the number of object regions is one, but the present invention is not limited to this and may be two or more. In this case, the processing shown in FIGS. 10 to 12 is executed for each object region in the first embodiment, and the processing of FIGS. 15 to 16 may be executed for each object region in the second embodiment. And the display part 70 should just display the distance for every object area | region.

また、上記実施の形態1、2では、対象物として前方車体を採用したが、これに限定されず、人を対象物としてもよいし、人以外の犬や猫等の動物を対象物としてもよい。この場合、抽出部20は、例えば距離の測定対象となる対象物毎のテンプレートを予め用意しておき、テンプレートマッチングにより種々の対象物を抽出すればよい。   In the first and second embodiments, the front vehicle body is adopted as the object. However, the present invention is not limited to this, and a person may be the object, or an animal such as a dog or a cat other than a person may be the object. Good. In this case, for example, the extraction unit 20 may prepare a template for each target object that is a distance measurement target, and extract various target objects by template matching.

また、上記実施の形態1、2では、カメラ11,12の高さが同一にされていることを考慮して、探索範囲を注目点と垂直方向の高さが同一、かつ水平方向と平行な直線上に設定したがこれに限定されず、当該直線を中心として垂直方向に一定の幅を持たせた四角形状の領域を探索範囲として設定してもよい。   In the first and second embodiments, considering that the heights of the cameras 11 and 12 are the same, the search range has the same vertical height as the point of interest and is parallel to the horizontal direction. Although it is set on a straight line, the present invention is not limited to this, and a quadrangular region having a certain width in the vertical direction around the straight line may be set as the search range.

また、上記実施の形態1、2では、カメラの個数を2台としたがこれに限定されず3個以上としてもよい。この場合、いずれか1台のカメラにより撮影された画像を基準画像とし、他のカメラにより撮影された参照画像として、抽出部20〜距離算出部60に上述した処理を実行させ、前方車体までの距離を求めればよい。   In the first and second embodiments, the number of cameras is two, but is not limited to this, and may be three or more. In this case, the image captured by any one of the cameras is used as a standard image, and the reference image captured by the other camera is used as the reference image to cause the extraction unit 20 to the distance calculation unit 60 to perform the above-described processing, Find the distance.

本発明の実施の形態による距離計測装置のブロック図を示している。1 shows a block diagram of a distance measuring device according to an embodiment of the present invention. FIG. 図1に示す距離計測装置の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the distance measuring device shown in FIG. 図2に示す抽出部により物体領域が抽出された2枚の画像を示している。3 shows two images from which an object region has been extracted by the extraction unit shown in FIG. 注目点の設定密度を一定とした場合において、物体領域に設定された注目点を示した図である。It is the figure which showed the attention point set to the object area in the case where the setting density of the attention point is constant. 物体領域の面積に応じて間引き幅を変更した場合に物体領域に設定された注目点を示した図である。It is the figure which showed the attention point set to the object area | region when the thinning width | variety is changed according to the area of the object area | region. POCの処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process of POC. POC値を示したグラフである。It is the graph which showed the POC value. SADを説明する模式図である。It is a schematic diagram explaining SAD. ステレオ法による測距方法を説明する模式図である。It is a schematic diagram explaining the ranging method by a stereo method. 距離計測装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a distance measuring device. 探索処理を示すフローチャートである。It is a flowchart which shows a search process. 類似度算出処理を示すフローチャートである。It is a flowchart which shows a similarity calculation process. 基準画像及び参照画像に設定される基準ウインドウと参照ウインドウとを示した図である。It is the figure which showed the reference | standard window and reference window which are set to a reference | standard image and a reference image. 探索範囲を説明する図である。It is a figure explaining a search range. 本発明の実施の形態2による距離計測装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the distance measuring device by Embodiment 2 of this invention. 図15に示す第3の探索処理の詳細を示すフローチャートである。16 is a flowchart showing details of the third search process shown in FIG. 15. 設定パターン1を用いて非物体領域に設定される注目点を経時的に示した図である。It is the figure which showed the attention point set to a non-object area | region using the setting pattern 1 with time. 設定パターン2を用いて非物体領域に設定される注目点を経時的に示した図である。It is the figure which showed the attention point set to a non-object area | region using the setting pattern 2 with time.

符号の説明Explanation of symbols

1 1a 距離計測装置
13 演算処理装置
14 表示装置
20 抽出部
30 面積算出部
40 密度設定部
50 対応点探索部
60 距離算出部
70 表示部
110 基準カメラ
120 参照カメラ
CP 注目点
D1 物体領域
DR 探索範囲
O1 中心点
TP 対応点
W1 基準ウインドウ
W2 参照ウインドウ
DESCRIPTION OF SYMBOLS 1 1a Distance measuring device 13 Arithmetic processing device 14 Display apparatus 20 Extraction part 30 Area calculation part 40 Density setting part 50 Corresponding point search part 60 Distance calculation part 70 Display part 110 Reference camera 120 Reference camera CP Attention point D1 Object area DR Search range O1 Center point TP Corresponding point W1 Base window W2 Reference window

Claims (13)

複数の撮影手段を用いて撮影された画像を用いて測定対象となる対象物までの距離を計測する距離計測装置であって、
前記撮影手段により同一タイミングで撮影された複数の入力画像のうち、いずれか1枚の入力画像を基準画像、他の入力画像を参照画像とし、前記基準画像から前記対象物が撮影された物体領域を抽出する抽出手段と、
前記抽出手段により抽出された物体領域の面積を算出する面積算出手段と、
前記抽出手段により抽出された物体領域内に注目点を順次設定し、各注目点の対応点を各参照画像から探索する探索手段と、
前記注目点と前記対応点との複数の視差を基に、前記対象物までの距離を算出する距離算出手段とを備え、
前記探索手段は、前記面積算出手段により算出された物体領域の面積に応じて注目点の設定密度を変更するものであり、前記物体領域に設定される注目点の個数が前記物体領域の面積によらず一定個数となるように注目点の間引き幅を設定することを特徴とする距離計測装置。
A distance measuring device that measures a distance to an object to be measured using images photographed using a plurality of photographing means,
An object region in which any one of the plurality of input images photographed at the same timing by the photographing unit is used as a standard image and another input image is used as a reference image, and the target object is photographed from the standard image Extracting means for extracting
Area calculating means for calculating the area of the object region extracted by the extracting means;
Search means for sequentially setting the attention points in the object region extracted by the extraction means, and searching for the corresponding points of each attention point from each reference image;
A distance calculating means for calculating a distance to the object based on a plurality of parallaxes between the attention point and the corresponding point;
The searching means changes a setting density of attention points according to the area of the object region calculated by the area calculation means , and the number of attention points set in the object region is the area of the object region. A distance measuring device that sets a thinning width of a point of interest so that the number is constant regardless of the number .
前記探索手段は、前記物体領域の面積が小さくなるにつれて、前記注目点の設定密度を高くすることを特徴とする請求項1記載の距離計測装置。   The distance measuring apparatus according to claim 1, wherein the search unit increases the setting density of the attention point as the area of the object region decreases. 前記探索手段は、前記物体領域の面積が小さくなるにつれて、注目点を設定する際の間引き幅を小さくすることで、前記注目点の設定密度を高くすることを特徴とする請求項2記載の距離計測装置。   The distance according to claim 2, wherein the search unit increases the setting density of the attention points by reducing a thinning width when setting the attention points as the area of the object region decreases. Measuring device. 前記探索処理は、前記基準画像に注目点を中心として基準ウインドウを設定し、前記参照画像に前記基準ウインドウと同一サイズの参照ウインドウを設定し、前記参照画像に設定された探索範囲内において前記参照ウインドウをずらしながら、前記基準ウインドウ内の画像と前記参照ウインドウ内の画像との類似度を求める類似度算出処理を繰り返し実行することで対応点を探索する処理であることを特徴とする請求項1〜3のいずれかに記載の距離計測装置。   In the search process, a reference window is set around the point of interest in the reference image, a reference window having the same size as the reference window is set in the reference image, and the reference is within a search range set in the reference image. 2. The process of searching for corresponding points by repeatedly executing a similarity calculation process for obtaining a similarity between an image in the reference window and an image in the reference window while shifting the window. The distance measuring device according to any one of? 前記類似度算出処理は、前記基準ウインドウ内の画像と前記参照ウインドウ内の画像とを周波数分解することで得られる位相成分に基づいて前記類似度を算出する処理であることを特徴とする請求項4記載の距離計測装置。   The similarity calculation process is a process of calculating the similarity based on a phase component obtained by frequency-decomposing an image in the reference window and an image in the reference window. 4. The distance measuring device according to 4. 前記類似度算出処理は、高速フーリエ変換、離散フーリエ変換、離散コサイン変換、離散サイン変換、ウエーブレット変換、及びアダマール変換のいずれかを用いて周波数分解することを特徴とする請求項5記載の距離計測装置。   6. The distance according to claim 5, wherein the similarity calculation processing performs frequency decomposition using one of fast Fourier transform, discrete Fourier transform, discrete cosine transform, discrete sine transform, wavelet transform, and Hadamard transform. Measuring device. 前記類似度算出処理は、位相限定相関法を用いて前記類似度を算出することを特徴とする請求項6記載の距離計測装置。   The distance measurement apparatus according to claim 6, wherein the similarity calculation process calculates the similarity using a phase-only correlation method. 前記類似度算出処理は、SAD(Sum of Absolute Difference)を用いて前記類似度を算出することを特徴とする請求項4記載の距離計測装置。   5. The distance measuring apparatus according to claim 4, wherein the similarity calculation processing calculates the similarity using SAD (Sum of Absolute Difference). 前記探索手段は、前記物体領域に設定した各注目点の対応点の探索が終了した後、次フレームに対する処理を開始するまでの期間、前記物体領域以外の非物体領域内に注目点を順次設定し、各注目点の対応点を各参照画像から探索し、
前記距離算出手段は、前記非物体領域に設定した注目点と当該注目点の対応点とから当該注目点の距離を算出することを特徴とする請求項1〜8のいずれかに記載の距離計測装置。
The search means sequentially sets attention points in a non-object region other than the object region for a period from the end of the search for the corresponding point of each attention point set in the object region to the start of processing for the next frame. And search corresponding points of each attention point from each reference image,
The distance measurement unit according to claim 1, wherein the distance calculation unit calculates a distance of the target point from a target point set in the non-object region and a corresponding point of the target point. apparatus.
前記探索手段は、前記非物体補領域の下側から上側に向けて順次注目点を設定することを特徴とする請求項9記載の距離計測装置。   The distance measuring apparatus according to claim 9, wherein the search unit sequentially sets a point of interest from the lower side to the upper side of the non-object compensation region. 前記対象物は、自動車、自動二輪車、自転車、及び人のうち、少なくともいずれか1つを含むことを特徴とする請求項1〜10のいずれかに記載の距離計測装置。   The distance measuring device according to claim 1, wherein the object includes at least one of an automobile, a motorcycle, a bicycle, and a person. 前記探索手段は、下位の階層から上位の階層に向かうにつれて解像度が高くなるように、解像度の異なる複数の前記基準画像及び前記参照画像を階層的に生成し、下位の階層での対応点の探索結果に基づいて、当該階層の探索範囲よりも小さな探索範囲を1つ上の階層の参照画像に設定し、当該探索範囲内で対応点を探索する探索処理を上位の階層に向けて階層的に実行することで対応点を探索することを特徴とする請求項1〜11のいずれかに記載の距離計測装置。   The search means hierarchically generates a plurality of the reference images and the reference images having different resolutions so that the resolution increases from the lower hierarchy toward the upper hierarchy, and searches for corresponding points in the lower hierarchy Based on the result, a search range smaller than the search range of the hierarchy is set in the reference image of the next higher hierarchy, and the search process for searching for a corresponding point within the search range is hierarchically performed toward the upper hierarchy. The distance measuring device according to claim 1, wherein the corresponding point is searched by executing the distance measuring device. 複数の撮影手段を用いて撮影された画像を用いて測定対象となる対象物までの距離を計測する距離計測方法であって、
前記撮影手段により同一タイミングで撮影された複数の入力画像のうち、いずれか1枚の入力画像を基準画像、他の入力画像を参照画像とし、前記基準画像から前記対象物が撮影された物体領域を抽出する抽出ステップと、
前記抽出ステップにより抽出された物体領域の面積を算出する面積算出ステップと、
前記抽出ステップにより抽出された物体領域内に注目点を順次設定し、各注目点の対応点を各参照画像から探索する探索ステップと、
前記注目点と前記対応点との複数の視差を基に、前記対象物までの距離を求める距離算出ステップとを備え、
前記探索ステップは、前記面積算出ステップにより算出された物体領域の面積に応じて注目点の設定密度を変更するものであり、前記物体領域に設定される注目点の個数が前記物体領域の面積によらず一定個数となるように注目点の間引き幅を設定することを特徴とする距離計測方法。
A distance measurement method for measuring a distance to an object to be measured using images photographed using a plurality of photographing means,
An object region in which any one of the plurality of input images photographed at the same timing by the photographing unit is used as a standard image and another input image is used as a reference image, and the target object is photographed from the standard image An extraction step to extract
An area calculating step for calculating an area of the object region extracted by the extracting step;
A search step for sequentially setting a point of interest in the object region extracted by the extraction step, and searching for a corresponding point of each point of interest from each reference image;
A distance calculating step for obtaining a distance to the object based on a plurality of parallaxes between the attention point and the corresponding point;
The searching step changes the setting density of the attention points according to the area of the object region calculated by the area calculation step , and the number of attention points set in the object region is the area of the object region. A distance measurement method characterized by setting a thinning width of a point of interest so that the number is constant regardless of the number .
JP2008021212A 2008-01-31 2008-01-31 Distance measuring device and distance measuring method Active JP4946896B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008021212A JP4946896B2 (en) 2008-01-31 2008-01-31 Distance measuring device and distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008021212A JP4946896B2 (en) 2008-01-31 2008-01-31 Distance measuring device and distance measuring method

Publications (2)

Publication Number Publication Date
JP2009180661A JP2009180661A (en) 2009-08-13
JP4946896B2 true JP4946896B2 (en) 2012-06-06

Family

ID=41034746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008021212A Active JP4946896B2 (en) 2008-01-31 2008-01-31 Distance measuring device and distance measuring method

Country Status (1)

Country Link
JP (1) JP4946896B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5582572B2 (en) * 2010-11-08 2014-09-03 独立行政法人産業技術総合研究所 Image processing method, image processing program, computer-readable storage medium storing the same, and image processing apparatus
JP6351238B2 (en) 2013-11-15 2018-07-04 キヤノン株式会社 Image processing apparatus, imaging apparatus, and distance correction method
KR102463449B1 (en) * 2016-12-15 2022-11-04 현대자동차주식회사 Method and apparatus for calculating vehicle width of vehicle of adjacent lane
CN108919093B (en) * 2018-07-10 2021-06-29 郑州云海信息技术有限公司 Method, device, equipment and storage medium for ICT (information communication technology) pin implantation in PCB (printed circuit board)
CN115346180B (en) * 2022-10-18 2023-02-10 湖北车安达信息科技有限公司 Road congestion condition detection method and device based on low-frequency data

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0833297B2 (en) * 1990-09-04 1996-03-29 三菱電機株式会社 Tracking inter-vehicle distance measuring device
JPH07334800A (en) * 1994-06-06 1995-12-22 Matsushita Electric Ind Co Ltd Vehicle recognition device
JP3819551B2 (en) * 1997-08-07 2006-09-13 本田技研工業株式会社 Vehicle distance measuring device
JP2001004367A (en) * 1999-06-22 2001-01-12 Fuji Electric Co Ltd Distance measurement computing device
JP4517449B2 (en) * 2000-05-10 2010-08-04 株式会社豊田中央研究所 Correlation calculation method for images
JP2006010392A (en) * 2004-06-23 2006-01-12 Suzuki Motor Corp Through hole measuring system, method, and through hole measuring program
JP2006072757A (en) * 2004-09-02 2006-03-16 Toyota Motor Corp Object detection system
JP2006318061A (en) * 2005-05-10 2006-11-24 Olympus Corp Apparatus, method, and program for image processing

Also Published As

Publication number Publication date
JP2009180661A (en) 2009-08-13

Similar Documents

Publication Publication Date Title
JP4553072B1 (en) Image integration apparatus and image integration method
EP2546602B1 (en) Stereo camera apparatus
JP5109691B2 (en) Analysis device
JP5267596B2 (en) Moving body detection device
US20130128001A1 (en) Method and system for detecting object on a road
JP5999127B2 (en) Image processing device
JP6171593B2 (en) Object tracking method and system from parallax map
JP5267330B2 (en) Image processing apparatus and method
JP5471310B2 (en) Operation analysis system
US20140002655A1 (en) Lane departure warning system and lane departure warning method
JP4946896B2 (en) Distance measuring device and distance measuring method
US10043106B2 (en) Corresponding point searching method and distance detection device
KR101699014B1 (en) Method for detecting object using stereo camera and apparatus thereof
JP2016004446A (en) Motion estimation device
US20140147049A1 (en) Corresponding point searching apparatus
JP4985542B2 (en) Corresponding point search device
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
WO2010113253A1 (en) Three-dimensional information display device and three-dimensional information display method
JP4946898B2 (en) Distance measuring device and distance measuring method
JP4872943B2 (en) Analysis device
KR102002228B1 (en) Apparatus and Method for Detecting Moving Object
WO2010113240A1 (en) Three-dimensional information calculating device and three-dimensional information calculating method
JP4985863B2 (en) Corresponding point search device
JP2008097444A (en) Image processor
Kasahara et al. A dynamic background subtraction method for detecting walkers using mobile stereo-camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4946896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350