JP4831084B2 - Corresponding point search device - Google Patents

Corresponding point search device Download PDF

Info

Publication number
JP4831084B2
JP4831084B2 JP2008024477A JP2008024477A JP4831084B2 JP 4831084 B2 JP4831084 B2 JP 4831084B2 JP 2008024477 A JP2008024477 A JP 2008024477A JP 2008024477 A JP2008024477 A JP 2008024477A JP 4831084 B2 JP4831084 B2 JP 4831084B2
Authority
JP
Japan
Prior art keywords
window
image
reference image
pixel value
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008024477A
Other languages
Japanese (ja)
Other versions
JP2009187138A (en
Inventor
宏 大和
雄一 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2008024477A priority Critical patent/JP4831084B2/en
Publication of JP2009187138A publication Critical patent/JP2009187138A/en
Application granted granted Critical
Publication of JP4831084B2 publication Critical patent/JP4831084B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、基準画像に設定された注目点の対応点を参照画像から探索する対応点探索装置に関するものである。   The present invention relates to a corresponding point search device that searches a reference image for corresponding points of a target point set in a standard image.

近年、ステレオカメラを用いて物体を撮影し、得られた入力画像を用いて物体までの距離等を算出するステレオマッチングが知られている。ステレオマッチングでは、ステレオカメラにより撮影された複数の画像のうち、1の入力画像を基準画像、他の入力画像を参照画像とし、基準画像に注目点を設定し、設定した注目点を中心として基準画像にウインドウを設定すると共に、参照画像にも同じウインドウを設定し、両画像の一致度を求めることで、当該注目点の対応点を参照画像から探索する探索処理が採用される。   In recent years, stereo matching is known in which an object is photographed using a stereo camera and a distance to the object is calculated using the obtained input image. In stereo matching, among a plurality of images taken by a stereo camera, one input image is used as a reference image, the other input image is used as a reference image, an attention point is set in the reference image, and the reference point is set around the set attention point. In addition to setting a window for an image, the same window is set for a reference image, and a matching process of both images is obtained to search for a corresponding point of the target point from the reference image.

この探索処理において、ウインドウは、入力画像の端の方に設定されると、入力画像からはみ出してしまう。この場合、ウインドウ内に入力画像の画像領域からはみ出した外領域が含まれてしまい、入力画像と外領域との境界にエッジが現れ、画像が不連続に変化する結果、本来の対応点とは異なる点が対応点として探索される誤探索が発生し、対応点の探索精度が低下するという問題がある。   In this search process, if the window is set toward the end of the input image, the window protrudes from the input image. In this case, the window includes an outer area that protrudes from the image area of the input image, an edge appears at the boundary between the input image and the outer area, and the image changes discontinuously. There is a problem that an erroneous search in which a different point is searched as a corresponding point occurs, and the search accuracy of the corresponding point is lowered.

この問題を解決する手法として、以下に示す4つの従来手法が知られている。第1の従来手法は、ウインドウ内の画像をある領域から周辺に向かって所定のフィルタを用いてぼかすぼかし処理を行うことで不連続性を低減する手法である。第2の従来手法は、外領域の全域を、固定値(例えば0値)で埋める手法である(例えば、特許文献1)。第3の従来手法は、外領域が含まれないような位置に設定されたウインドウ内の入力画像の情報から補間画素値を予め求めておき、当該補間画素値を用いて外領域を設定する手法である。第4の手法は、入力画像をウインドウ内でミラー状に折り返すことによって外領域を埋める手法である。
特開2004−102323号公報
As a technique for solving this problem, the following four conventional techniques are known. The first conventional method is a method of reducing discontinuity by performing a blurring process in which an image in a window is blurred from a certain region toward the periphery using a predetermined filter. The second conventional method is a method of filling the entire outer region with a fixed value (for example, 0 value) (for example, Patent Document 1). A third conventional method is a method in which an interpolation pixel value is obtained in advance from information of an input image in a window set at a position not including an outer region, and the outer region is set using the interpolation pixel value. It is. The fourth method is a method of filling the outer region by folding the input image in a mirror shape within the window.
JP 2004-102323 A

しかしながら、第1の従来手法では、フィルタを用いたぼかし処理が行われているため、演算量が増大すると共に、入力画像の情報を用いて外領域が補間されていないため、ウインドウ内の画像にエッジが現れ、誤探索が発生してしまう。また、第2の従来手法では、固定値と入力画像の端の画素の画素値との差が大きい場合、ウインドウ内の画像にエッジが現れ、誤探索が発生してしまう。   However, in the first conventional method, since the blurring process using the filter is performed, the amount of calculation increases, and the outer area is not interpolated using the information of the input image. An edge appears and an erroneous search occurs. Further, in the second conventional method, when the difference between the fixed value and the pixel value of the pixel at the end of the input image is large, an edge appears in the image in the window, and an erroneous search occurs.

また、第3の従来手法では、ウインドウ内の入力画像の情報が補間画素値に全く反映されていないケースが発生し、この場合、ウインドウ内の画像にエッジが現れ、誤探索が発生してしまう。また、第4の従来手法では、外領域において、入力画像と逆パターンが現れているため、外領域内の点が対応点として探索されるおそれがある。   In the third conventional method, there is a case where the information of the input image in the window is not reflected at all in the interpolation pixel value. In this case, an edge appears in the image in the window, and an erroneous search occurs. . In the fourth conventional method, since an inverse pattern appears in the outer area, the point in the outer area may be searched as a corresponding point.

本発明の目的は、ウインドウが入力画像からはみ出して設定された場合であっても、演算コストを増大させることなく、対応点を精度良く探索することができる対応点探索装置を提供することである。   An object of the present invention is to provide a corresponding point search device capable of searching for corresponding points with high accuracy without increasing the calculation cost even when the window is set so as to protrude from the input image. .

(1)本発明による対応点探索装置は、同一のシーンをとらえた複数の入力画像のうち、1の入力画像を基準画像、他の入力画像を参照画像として取得する取得手段と、前記基準画像に注目点を順次設定し、設定した注目点を含むように前記基準画像にウインドウを設定すると共に、前記参照画像にウインドウを設定し、前記参照画像に設定したウインドウをずらしながら、両ウインドウ内の画像の一致度を求めることで、前記参照画像から前記注目点の対応点を探索する探索手段と、前記ウインドウ内に、前記入力画像の画像領域からはみ出した外領域が含まれているか否かを前記ウインドウがずらされる毎に判定する判定手段と、前記判定手段により前記外領域が含まれていると判定された場合、前記ウインドウ内の入力画像の少なくとも端に位置する画素の画素値に基づいて、前記外領域の補間画素値を算出する補間手段とを備え、前記補間手段は、前記ウインドウ内の入力画像の端の画素の画素平均値を前記補間画素値として算出し、前記外領域において、前記ウインドウの端に向かうにつれてなだらかに変化するように前記補間画素値を算出することを特徴とする。
(1) A corresponding point search apparatus according to the present invention includes an acquisition unit that acquires one input image as a standard image and another input image as a reference image among a plurality of input images capturing the same scene, and the standard image Sequentially set attention points on the reference image, set a window on the base image so as to include the set attention points, set a window on the reference image, and shift the windows set on the reference image, By determining the degree of coincidence of images, search means for searching for corresponding points of the target point from the reference image, and whether or not the window includes an outer region that protrudes from the image region of the input image. A determination unit configured to determine each time the window is shifted; and when the determination unit determines that the outside area is included, at least an input image in the window Based on the pixel values of pixels positioned on the edge, e Bei an interpolation means for calculating an interpolated pixel value of the outer region, wherein the interpolation means, the average pixel value of the pixel at the end of the input image within said window It is calculated as an interpolated pixel value, and the interpolated pixel value is calculated so as to gradually change toward the edge of the window in the outer region.

この構成によれば、対応点を探索するに際し、基準画像及び参照画像の両入力画像の端付近でウインドウが設定された場合に、ウインドウ内に含まれてしまう外領域が、ウインドウ内の入力画像の少なくとも端の画素の画素値に基づいて算出された補間画素値によって埋められる。そのため、外領域と入力画像との境界でのエッジの発生が抑制され、対応点を精度良く探索することができる。また、外領域に補間画素値を設定することで外領域が埋められているため、演算コストの増大を防止することができる。更に、基準画像及び参照画像の両入力画像に設定されるウインドウがずらされる毎に補間画素値が算出されるため、補間画素値は、ウインドウ内に含まれる入力画像の情報がより正確に反映された値になる結果、外領域と入力画像との境界におけるエッジの発生をより確実に抑制することができる。
また、この構成によれば、補間画素値の算出に用いられる画素が、ウインドウ内の入力画像の端の画素のみとなるため、高速に補間画素値を求めることができる。また、ウインドウ内の入力画像の端の画素の画素平均値が補間画素値として算出されるため、外領域と入力画像との境界におけるエッジの発生をより確実に抑制することができる。
また、この構成によれば、ウインドウの端に向かうにつれてなだらかに変化するように外領域に補間画素値が設定され、探索精度を高めることができる。
According to this configuration, when searching for corresponding points, when a window is set near the ends of both the input images of the base image and the reference image, the outer region included in the window is the input image in the window. Are filled with the interpolated pixel value calculated based on the pixel value of at least the end pixel. Therefore, the occurrence of an edge at the boundary between the outer region and the input image is suppressed, and a corresponding point can be searched with high accuracy. In addition, since the outer region is filled by setting the interpolation pixel value in the outer region, it is possible to prevent an increase in calculation cost. Furthermore, since the interpolation pixel value is calculated every time the window set for both the standard image and the reference image is shifted, the interpolation pixel value more accurately reflects the information of the input image included in the window. As a result, the occurrence of an edge at the boundary between the outer region and the input image can be more reliably suppressed.
Further, according to this configuration, since the pixel used for calculating the interpolation pixel value is only the pixel at the end of the input image in the window, the interpolation pixel value can be obtained at high speed. Moreover, since the pixel average value of the pixels at the edge of the input image in the window is calculated as the interpolated pixel value, the occurrence of an edge at the boundary between the outer region and the input image can be more reliably suppressed.
Further, according to this configuration, the interpolation pixel value is set in the outer region so as to change gradually toward the edge of the window, and the search accuracy can be improved.

(2)本発明による別の対応点探索装置は、同一のシーンをとらえた複数の入力画像のうち、1の入力画像を基準画像、他の入力画像を参照画像として取得する取得手段と、前記基準画像に注目点を順次設定し、設定した注目点を含むように前記基準画像にウインドウを設定すると共に、前記参照画像にウインドウを設定し、前記参照画像に設定したウインドウをずらしながら、両ウインドウ内の画像の一致度を求めることで、前記参照画像から前記注目点の対応点を探索する探索手段と、前記ウインドウ内に、前記入力画像の画像領域からはみ出した外領域が含まれているか否かを前記ウインドウがずらされる毎に判定する判定手段と、前記判定手段により前記外領域が含まれていると判定された場合、前記ウインドウ内の入力画像の少なくとも端に位置する画素の画素値に基づいて、前記外領域の補間画素値を算出する補間手段とを備え、前記補間手段は、前記ウインドウ内の入力画像を構成する各画素の画素平均値を前記補間画素値として算出し、前記外領域において、前記ウインドウの端に向かうにつれてなだらかに変化するように前記補間画素値を算出することを特徴とする。
この構成によれば、ウインドウ内の入力画像の画素平均値が補間画素値として採用されているため、両ウインドウ内の画像の一致度が、両ウインドウ内の画像全域ではなく一部の領域を用いて局所的に算出されるような場合であっても、外領域と入力画像との境界におけるエッジの発生をより確実に抑制することができる。
(2) Another corresponding point search device according to the present invention includes: an acquisition unit that acquires one input image as a standard image and another input image as a reference image among a plurality of input images that capture the same scene; Both windows are set by sequentially setting the attention points in the reference image, setting a window in the reference image so as to include the set attention points, setting a window in the reference image, and shifting the window set in the reference image. A search means for searching for a corresponding point of the target point from the reference image by obtaining a degree of coincidence of the image in the image, and whether or not the window includes an outer region that protrudes from the image region of the input image. A determination unit that determines whether the window is shifted, and the determination unit determines that the outside area is included, the amount of input images in the window is small. Interpolating means for calculating the interpolated pixel value of the outer region based on the pixel value of the pixel located at the end, and the interpolating means calculates the pixel average value of each pixel constituting the input image in the window. The interpolation pixel value is calculated as the interpolation pixel value, and the interpolation pixel value is calculated so as to gradually change toward the edge of the window in the outer region .
According to this configuration, since the pixel average value of the input image in the window is adopted as the interpolated pixel value, the degree of coincidence of the images in both windows uses a partial area instead of the entire image in both windows. Even if the calculation is performed locally, the occurrence of an edge at the boundary between the outer region and the input image can be more reliably suppressed.

(3)同一のシーンをとらえた複数の入力画像のうち、1の入力画像を基準画像、他の入力画像を参照画像として取得する取得手段と、前記基準画像に注目点を順次設定し、設定した注目点を含むように前記基準画像にウインドウを設定すると共に、前記参照画像にウインドウを設定し、前記参照画像に設定したウインドウをずらしながら、両ウインドウ内の画像の一致度を求めることで、前記参照画像から前記注目点の対応点を探索する探索手段と、前記ウインドウ内に、前記入力画像の画像領域からはみ出した外領域が含まれているか否かを前記ウインドウがずらされる毎に判定する判定手段と、前記判定手段により前記外領域が含まれていると判定された場合、前記ウインドウ内の入力画像の少なくとも端に位置する画素の画素値に基づいて、前記外領域の補間画素値を算出する補間手段とを備え、前記補間手段は、前記ウインドウ内の入力画像の端に位置する各画素の画素平均値を基準として上下に一定のマージンを与えた値を前記補間画素値として算出することを特徴とする。
この構成によれば、補間画素値の算出対象となる画素において、画素値が画素平均値より大きな画素の割合の方が、小さな画素の割合よりも高いような場合、或いは、低いような場合、画素平均値に上下にマージンを与えて補間画素値の値が調節されるため、外領域と入力画像との境界におけるエッジの発生をより確実に抑制することができる。
(3) Out of a plurality of input images capturing the same scene, acquisition means for acquiring one input image as a standard image and another input image as a reference image, and a point of interest are sequentially set and set in the standard image By setting a window on the reference image so as to include the noted point, setting a window on the reference image, and determining the degree of coincidence of the images in both windows while shifting the window set on the reference image, Search means for searching for a corresponding point of the target point from the reference image, and determining whether or not the window includes an outer region that protrudes from the image region of the input image each time the window is shifted. When the determination unit and the determination unit determine that the outer region is included, the determination unit is based on the pixel value of the pixel located at least at the end of the input image in the window. And interpolating means for calculating interpolated pixel values of the outer region, wherein the interpolating means gives a certain margin in the vertical direction with reference to the pixel average value of each pixel located at the end of the input image in the window. The calculated value is calculated as the interpolation pixel value .
According to this configuration, in the pixel for which the interpolated pixel value is to be calculated, the ratio of the pixel whose pixel value is larger than the pixel average value is higher or lower than the ratio of the small pixel. Since the value of the interpolated pixel value is adjusted by giving a vertical margin to the pixel average value, it is possible to more reliably suppress the occurrence of an edge at the boundary between the outer region and the input image.

)また、前記補間手段は、前記ウインドウ内の入力画像の端の位置において、前記画素平均値よりも画素値の高い画素の割合が、低い画素の割合より高い場合、前記画素平均値に一定のマージンを加えた値を前記補間画素値とし、その逆の場合、前記画素平均値から一定のマージンを差し引いた値を前記補間画素値とすることが好ましい。この構成によれば、外領域と入力画像との境界におけるエッジの発生をより確実に抑制することができる。
( 4 ) In addition, when the ratio of pixels having a pixel value higher than the pixel average value is higher than the ratio of low pixels at the end position of the input image in the window, the interpolation means sets the pixel average value to the pixel average value. It is preferable that a value obtained by adding a certain margin is the interpolation pixel value, and vice versa, a value obtained by subtracting a certain margin from the pixel average value is the interpolation pixel value. According to this configuration, it is possible to more reliably suppress the occurrence of an edge at the boundary between the outer region and the input image.

(5)本発明による更に別の対応点探索装置は、同一のシーンをとらえた複数の入力画像のうち、1の入力画像を基準画像、他の入力画像を参照画像として取得する取得手段と、前記基準画像に注目点を順次設定し、設定した注目点を含むように前記基準画像にウインドウを設定すると共に、前記参照画像にウインドウを設定し、前記参照画像に設定したウインドウをずらしながら、両ウインドウ内の画像の一致度を求めることで、前記参照画像から前記注目点の対応点を探索する探索手段と、前記ウインドウ内に、前記入力画像の画像領域からはみ出した外領域が含まれているか否かを前記ウインドウがずらされる毎に判定する判定手段と、前記判定手段により前記外領域が含まれていると判定された場合、前記ウインドウ内の入力画像の少なくとも端に位置する画素の画素値に基づいて、前記外領域の補間画素値を算出する補間手段とを備え、前記補間手段は、前記ウインドウ内の入力画像の端に位置する各行の画素の画素値を、前記外領域の各行に対応する補間画素値として算出し、前記外領域において、前記ウインドウの端に向かうにつれてなだらかに変化するように前記補間画素値を算出することを特徴とする。
(5) Still another corresponding point search device according to the present invention includes an acquisition unit that acquires one input image as a standard image and another input image as a reference image among a plurality of input images that capture the same scene; Attention points are sequentially set in the reference image, a window is set in the reference image so as to include the set attention points, a window is set in the reference image, and both windows are set while shifting the window set in the reference image. The search means for searching for the corresponding point of the attention point from the reference image by determining the degree of coincidence of the images in the window, and whether the window includes an outer region that protrudes from the image region of the input image A determination unit that determines whether or not the window is shifted, and when the determination unit determines that the outside area is included, the input image in the window Based on the pixel value of the pixel located at the end even without, an interpolation means for calculating an interpolated pixel value of the outer region, the interpolation means, the pixels of each row located at the end of the input image within said window A pixel value is calculated as an interpolated pixel value corresponding to each row of the outer region, and the interpolated pixel value is calculated so as to gradually change toward the edge of the window in the outer region .

この構成によれば、ウインドウ内の入力画像の端の各行の画素の画素値を用いて各行の補間画素値が算出される。そのため、参照画像に設定したウインドウを1ライン分だけ注目点が位置する行と同一行にずらして対応点を探索する手法を採用した場合において、外領域での補間画素値の設定処理の高速化を図りつつ、外領域と入力画像との境界においてエッジの発生を抑制することができる。   According to this configuration, the interpolated pixel value of each row is calculated using the pixel value of the pixel of each row at the end of the input image in the window. Therefore, when the method of searching for the corresponding point by shifting the window set for the reference image to the same line as the line where the point of interest is positioned by one line is used, the interpolation pixel value setting process in the outer region is accelerated. The occurrence of an edge can be suppressed at the boundary between the outer region and the input image.

)また、前記探索手段は、下位の階層から上位の階層に向かうにつれて解像度が高くなるように、解像度の異なる複数の前記基準画像及び前記参照画像を階層的に生成し、下位の階層での対応点の探索結果に基づいて、当該階層の探索範囲よりも小さな探索範囲を1つ上の階層の参照画像に設定し、当該探索範囲内で対応点を探索する探索処理を上位の階層に向けて階層的に実行することで対応点を探索することが好ましい。
( 6 ) The search means hierarchically generates a plurality of the reference images and the reference images having different resolutions so that the resolution becomes higher from the lower hierarchy toward the upper hierarchy. Based on the corresponding point search result, a search range smaller than the search range of the hierarchy is set as a reference image one level higher, and search processing for searching for a corresponding point within the search range is performed in the upper hierarchy. It is preferable to search for corresponding points by executing in a hierarchical manner.

この構成によれば、探索処理としていわゆる多重解像度戦略手法を採用した場合、外領域となる部分がより多く現れる低階層の入力画像において、エッジの発生をより軽減することが可能となり、対応点の探索精度を高めることができる。   According to this configuration, when a so-called multi-resolution strategy method is employed as the search process, it is possible to further reduce the occurrence of edges in a low-level input image in which more parts that are outer regions appear, and Search accuracy can be increased.

)また、前記探索手段は、前記基準画像に設定したウインドウ内の画像と前記参照画像に設定したウインドウ内の画像とを相関演算することで前記一致度を算出することが好ましい。この構成によれば、一致度を精度良く算出することができる。
( 7 ) Further, it is preferable that the search means calculates the degree of coincidence by performing a correlation operation between an image in the window set as the reference image and an image in the window set as the reference image. According to this configuration, the degree of coincidence can be calculated with high accuracy.

)また、前記探索手段は、前記基準画像に設定したウインドウ内の画像と前記参照画像に設定したウインドウ内の画像とを周波数分解することで得られる位相成分に基づいて前記一致度を算出することが好ましい。
( 8 ) Further, the search means calculates the degree of coincidence based on a phase component obtained by frequency-decomposing an image in the window set as the reference image and an image in the window set as the reference image. It is preferable to do.

この構成によれば、基準画像及び参照画像に設定したウインドウ内の両画像を周波数分解して得られる位相成分に基づいて一致度が算出されるため、画像間の輝度差やノイズの影響を受けにくい、ロバストな探索処理を実現することができる。   According to this configuration, since the degree of coincidence is calculated based on the phase component obtained by frequency-decomposing both images in the window set as the standard image and the reference image, it is affected by a luminance difference between images and noise. Difficult and robust search processing can be realized.

)また、前記探索手段は、高速フーリエ変換、離散フーリエ変換、離散コサイン変換、離散サイン変換、ウエーブレット変換、及びアダマール変換のいずれかを用いて周波数分解することが好ましい。
( 9 ) Moreover, it is preferable that the search means performs frequency decomposition using any of fast Fourier transform, discrete Fourier transform, discrete cosine transform, discrete sine transform, wavelet transform, and Hadamard transform.

この構成によれば、ウインドウ内の画像が、ウインドウ内の画像を周波数分解する手法として、高速フーリエ変換、離散フーリエ変換、離散コサイン変換、離散サイン変換、ウエーブレット変換、及びアダマール変換のいずれかの手法が採用されるため、周波数分解を精度良く行うことができる。   According to this configuration, the image in the window is one of a fast Fourier transform, a discrete Fourier transform, a discrete cosine transform, a discrete sine transform, a wavelet transform, and a Hadamard transform as a method for frequency-decomposing the image in the window. Since the method is employed, frequency resolution can be performed with high accuracy.

10)また、前記探索手段は、位相限定相関法を用いて前記一致度を算出することが好ましい。この構成によれば、位相限定相関法を用いて対応点が探索されるため、対応点を精度良く探索することができる。 ( 10 ) Moreover, it is preferable that the said search means calculates the said coincidence using a phase only correlation method. According to this configuration, since the corresponding points are searched using the phase only correlation method, the corresponding points can be searched with high accuracy.

本発明によれば、ウインドウが入力画像からはみ出して設定された場合であっても、演算コストを増大させることなく、対応点を精度良く探索することができる。   According to the present invention, even if the window is set so as to protrude from the input image, the corresponding points can be searched with high accuracy without increasing the calculation cost.

以下、本発明の一実施の形態により対応点探索装置について説明する。図1は、本対応点探索装置の概略構成図を示している。対応点探索装置は、2台のカメラC1,C2、及びコントローラ10を備えている。   Hereinafter, a corresponding point search device according to an embodiment of the present invention will be described. FIG. 1 shows a schematic configuration diagram of the corresponding point search apparatus. The corresponding point search apparatus includes two cameras C1 and C2 and a controller 10.

以下の説明では、本対応点探索装置を自動車等の車体に搭載した場合を例に挙げて説明するが、これは一例にすぎず、対応点を探索するような処理を行う装置であればどのような装置に搭載してもよい。   In the following description, the case where the corresponding point search device is mounted on a vehicle body such as an automobile will be described as an example. However, this is only an example, and any device that performs a process for searching for a corresponding point will be described. You may mount in such an apparatus.

カメラC1,C2は、例えば車体の進行方向に直交し、かつ水平方向に平行な方向である左右方向に所定の間隔を設けて、進行方向を中心に対称となるように同一高さ位置に配設され、所定のフレームレートで車体の前方のシーンを撮影する。ここで、カメラC1,C2は、同一時刻においてフレームが撮影されるように撮影タイミングの同期が図られている。また、カメラC1,C2は予めキャリブレーションがされており、カメラパラメータも予め分かっているものとする。   For example, the cameras C1 and C2 are arranged at the same height so as to be symmetrical with respect to the traveling direction by providing a predetermined interval in the left-right direction that is orthogonal to the traveling direction of the vehicle body and parallel to the horizontal direction. A scene in front of the vehicle body is photographed at a predetermined frame rate. Here, the cameras C1 and C2 are synchronized in shooting timing so that frames are shot at the same time. Assume that the cameras C1 and C2 are calibrated in advance and the camera parameters are also known in advance.

なお、カメラC1,C2は2台としたが、これに限定されず3台以上のカメラを採用してもよい。また、時系列画像により物体の移動量を算出する場合や、撮影データと登録データとを比較するような場合においては、カメラの台数を1台にしてもよい。   In addition, although the cameras C1 and C2 are two, it is not limited to this, You may employ | adopt three or more cameras. In addition, when the amount of movement of an object is calculated from a time series image, or when shooting data and registration data are compared, the number of cameras may be one.

コントローラ10は、例えばCPU、ROM、RAM等を備えるハードウエア装置により構成され、通信ケーブル介してカメラC1,C2により撮影された画像を順次取り込む。なお、コントローラ10は、無線によりカメラC1,C2から画像データを取り込んでも良い。   The controller 10 is configured by a hardware device including, for example, a CPU, a ROM, a RAM, and the like, and sequentially captures images taken by the cameras C1 and C2 via a communication cable. The controller 10 may capture image data from the cameras C1 and C2 wirelessly.

図2は、コントローラ10の機能ブロック図を示している。コントローラ10は、画像取得部11(取得手段の一例)、設定部12(探索手段の一例)、ウインドウ設定部13(探索手段の一例)、判定部14(判定手段の一例)、補間部15(補間手段の一例)、及び探索処理部16(探索手段の一例)を備える。   FIG. 2 shows a functional block diagram of the controller 10. The controller 10 includes an image acquisition unit 11 (an example of an acquisition unit), a setting unit 12 (an example of a search unit), a window setting unit 13 (an example of a search unit), a determination unit 14 (an example of a determination unit), and an interpolation unit 15 ( An example of an interpolation unit) and a search processing unit 16 (an example of a search unit) are provided.

画像取得部11は、カメラC1,C2により所定のフレームレートでシーンが撮影された2枚の入力画像を順次取得し、基準画像取得部11a及び参照画像取得部11bを備えている。基準画像取得部11aは、カメラC1から送信される入力画像を基準画像として順次取得する。参照画像取得部11bは、カメラC2から送信される入力画像を参照画像として順次取得する。基準画像及び参照画像としては、例えば0(黒)〜255(白)の256階調値を有する複数の画素がマトリックス状に配列されたたデジタルの画像データを採用することができる。   The image acquisition unit 11 sequentially acquires two input images obtained by capturing a scene at a predetermined frame rate by the cameras C1 and C2, and includes a standard image acquisition unit 11a and a reference image acquisition unit 11b. The reference image acquisition unit 11a sequentially acquires an input image transmitted from the camera C1 as a reference image. The reference image acquisition unit 11b sequentially acquires an input image transmitted from the camera C2 as a reference image. As the standard image and the reference image, for example, digital image data in which a plurality of pixels having 256 gradation values from 0 (black) to 255 (white) are arranged in a matrix can be employed.

設定部12は、注目点設定部12a及び中心点設定部12bを備えている。注目点設定部12aは、基準画像取得部11aにより取得された基準画像に注目点を設定する。なお、注目点は対応点の探索対象となる基準画像上の画素を示す。ここで、注目点設定部12aは、例えば、基準画像上の全画素又は一定間隔で間引かれた所定の画素を、左上から右下に向けてラスタ走査するように順次注目点として設定する。   The setting unit 12 includes an attention point setting unit 12a and a center point setting unit 12b. The attention point setting unit 12a sets the attention point in the reference image acquired by the reference image acquisition unit 11a. Note that the attention point indicates a pixel on the reference image to be searched for the corresponding point. Here, the point-of-interest setting unit 12a sequentially sets, for example, all pixels on the reference image or predetermined pixels thinned out at regular intervals as the point of interest so as to perform raster scanning from the upper left to the lower right.

図3は、注目点の設定処理の説明図である。図3に示すように、格子状に区画された基準画像上の全画素又は一定間隔で間引かれた所定の画素が注目点CPとして順次設定される。図3の例では、左上の画素が注目点CPとして設定されている。   FIG. 3 is an explanatory diagram of attention point setting processing. As shown in FIG. 3, all the pixels on the reference image partitioned in a grid pattern or predetermined pixels thinned out at a constant interval are sequentially set as the attention point CP. In the example of FIG. 3, the upper left pixel is set as the attention point CP.

中心点設定部12bは、参照ウインドウの中心点を参照画像に設定する。ここで、中心点設定部12bは、注目点設定部12aにより1つの注目点が設定されている間に、参照画像上の各画素を例えば左上から右下に向けて順次ラスタ走査するように中心点として設定する。   The center point setting unit 12b sets the center point of the reference window as a reference image. Here, the center point setting unit 12b performs center raster scanning so that each pixel on the reference image is sequentially scanned from the upper left to the lower right while one attention point is set by the attention point setting unit 12a. Set as a point.

ウインドウ設定部13は、基準ウインドウ設定部13a及び参照ウインドウ設定部13bを備えている。基準ウインドウ設定部13aは、注目点設定部12aにより設定された注目点を中心として所定行×所定列のサイズを有する基準ウインドウを基準画像に設定する。図4は、基準ウインドウが設定された基準画像を示した図である。図4に示すように、基準画像I1の左上の画素が注目点CPとして設定され、注目点CPを中心として14×14のサイズを有する基準ウインドウW1が設定されていることが分かる。また、基準ウインドウW1は基準画像I1からはみ出ており、基準ウインドウW1内に基準画像I1からはみ出た外領域D1が含まれていることが分かる。また、参照ウインドウにおいても同様のことが起こり得る。   The window setting unit 13 includes a standard window setting unit 13a and a reference window setting unit 13b. The reference window setting unit 13a sets a reference window having a size of a predetermined row × predetermined column around the target point set by the target point setting unit 12a as a reference image. FIG. 4 is a diagram showing a reference image in which a reference window is set. As shown in FIG. 4, it can be seen that the upper left pixel of the reference image I1 is set as the attention point CP, and a reference window W1 having a size of 14 × 14 around the attention point CP is set. Further, it can be seen that the reference window W1 protrudes from the reference image I1, and the reference window W1 includes an outer region D1 that protrudes from the reference image I1. The same thing can happen in the reference window.

参照ウインドウ設定部13bは、中心点設定部12bにより設定された中心点を中心として基準ウインドウと同一サイズの参照ウインドウを参照画像に設定する。以下、基準ウインドウと参照ウインドウとを特に区別しない場合は、両者を総称して「ウインドウ」と称し、基準画像と参照画像とを特に区別しない場合は、両者を総称して「入力画像」と称する。なお、図4では、説明の便宜上、14×14のウインドウを例示したが、これは一例であり、ウインドウのサイズは、入力画像全体の画素数、撮影対象により好ましい値に適宜変更すればよい。   The reference window setting unit 13b sets a reference window having the same size as the standard window as a reference image with the center point set by the center point setting unit 12b as the center. Hereinafter, when the standard window and the reference window are not particularly distinguished from each other, they are collectively referred to as “window”, and when the standard image and the reference image are not particularly distinguished from each other, they are collectively referred to as “input image”. . In FIG. 4, for convenience of explanation, a 14 × 14 window is illustrated, but this is an example, and the size of the window may be appropriately changed to a preferable value depending on the number of pixels of the entire input image and the photographing target.

判定部14は、判定部14a,14bを備えている。判定部14aは、基準画像に設定された基準ウインドウにおいて外領域が含まれているか否かを基準ウインドウがずらされる毎に判定する。ここで、判定部14aは、例えば基準画像の端に位置する画素が1つでも含まれている場合、基準ウインドウ内に外領域が含まれていると判定すればよい。   The determination unit 14 includes determination units 14a and 14b. The determination unit 14a determines whether or not an outer region is included in the reference window set in the reference image every time the reference window is shifted. Here, the determination unit 14a may determine that an outer region is included in the reference window when, for example, even one pixel located at the end of the reference image is included.

判定部14bは、判定部14aと同様にして、参照画像に設定された参照ウインドウ内に外領域が含まれているか否かを参照ウインドウがずらされる毎に判定する。   Similar to the determination unit 14a, the determination unit 14b determines whether or not an outer area is included in the reference window set in the reference image every time the reference window is shifted.

補間部15は、判定部14により外領域が含まれていると判定された場合、ウインドウ内の入力画像の少なくとも端に位置する画素の画素値に基づいて、外領域の補間画素値を算出する。ここで、補間部15aは、基準ウインドウの外領域を補間する補間部15aと、参照ウインドウの外領域を補間する補間部15bとを備えている。なお、補間部15の処理の詳細については後述する。また、補間画素値は、外領域において入力画像と同一の解像度で仮想的に画素を設定した場合の画素値を示す。また、外領域において仮想的に設定した画素を「補間画素」と称する。   When the determination unit 14 determines that the outer region is included, the interpolation unit 15 calculates the interpolation pixel value of the outer region based on the pixel value of the pixel located at least at the end of the input image in the window. . Here, the interpolating unit 15a includes an interpolating unit 15a that interpolates an outer region of the reference window, and an interpolating unit 15b that interpolates the outer region of the reference window. Details of the processing of the interpolation unit 15 will be described later. The interpolated pixel value indicates a pixel value when a pixel is virtually set at the same resolution as the input image in the outer region. A pixel virtually set in the outer region is referred to as an “interpolated pixel”.

探索処理部16は、参照ウインドウをずらしながら、基準ウインドウ内の画像と、参照ウインドウ内の画像との一致度を求めることで、参照画像から注目点の対応点を探索する。ここで、探索処理部16は、SAD(Sum of Absolute Difference)、SSD(Sum of Squared intensity Difference)、NCC(Normalized Cross Correlation)、及び位相限定相関法のいずれかを用いて一致度を算出することができる。   The search processing unit 16 searches for a corresponding point of the target point from the reference image by obtaining a degree of coincidence between the image in the reference window and the image in the reference window while shifting the reference window. Here, the search processing unit 16 calculates the degree of coincidence using any one of SAD (Sum of Absolute Difference), SSD (Sum of Squared intensity Difference), NCC (Normalized Cross Correlation), and phase-only correlation method. Can do.

SADによる探索処理は、参照ウインドウをずらしながら、式(1)により得られる相関値から基準ウインドウ内の画像と参照ウインドウ内の画像との一致度を求め、一致度が最も高い値を示すときの参照ウインドウの中心点を注目点の対応点として探索する。式(1)に示すようにSADは、2枚の画像の画素値をそのまま減算することで相関値を算出するため、計算量が少なく、高速処理可能であるといった特徴を有している。   In the search processing by SAD, the degree of coincidence between the image in the standard window and the image in the reference window is obtained from the correlation value obtained by the equation (1) while shifting the reference window, and when the degree of coincidence is the highest. The center point of the reference window is searched as the corresponding point of the attention point. As shown in the equation (1), the SAD has a feature that the correlation value is calculated by subtracting the pixel values of two images as they are, so that the calculation amount is small and high-speed processing is possible.

但し、Mは基準ウインドウ内の画像を示し、Mは参照ウインドウ内の画像を示し、Qはウインドウの水平方向のサイズを示し、Pはウインドウの垂直方向のサイズを示す。 However, M L represents the image in the reference window, M R represents an image in the reference window, Q is shows the horizontal size of the window, P is indicating the vertical size of the window.

SSDによる探索処理は、式(2)により得られる相関値から、基準ウインドウ内の画像と参照ウインドウ内の画像との一致度を求める以外はSADの場合と同様にして対応点を探索する。   In the search processing by SSD, corresponding points are searched in the same manner as in SAD except that the degree of coincidence between the image in the standard window and the image in the reference window is obtained from the correlation value obtained by Expression (2).

式(2)に示すように、SSDは、2枚の画像の画素値の減算値が2乗されているため、ウインドウサイズが小さい場合であっても両画像の誤差を明確にすることができる。 As shown in equation (2), since the subtraction value of the pixel value of two images is squared, the SSD can clarify the error between both images even when the window size is small. .

NCCによる探索処理は、式(3)により得られる相関値から基準ウインドウ内の画像と参照ウインドウ内の画像との一致度を求める以外はSADと同様にして対応点を探索する。   In the search process by NCC, corresponding points are searched in the same manner as SAD except that the degree of coincidence between the image in the reference window and the image in the reference window is obtained from the correlation value obtained by Expression (3).

但し、μMは基準ウインドウ内の画像の局所的な平均値を示し、μMは参照ウインドウ内の画像の局所的な平均値を示す。 However, [mu] M L represents the local mean value of the image within the reference window, [mu] M R represents a local mean value of the image in the reference window.

NCCは、式(3)に示すように、局所的な平均値が減じられた2枚の画像の分散値によって相関値が求められるため、線形な明るさの変化(画素値及びコントラストの線形変化やノイズ等)に影響されない手法である。   As shown in Equation (3), the NCC obtains a correlation value from the variance value of two images obtained by subtracting the local average value, so that a linear change in brightness (linear change in pixel value and contrast) is obtained. This is a technique that is not affected by noise and noise.

位相限定相関法を用いた探索処理は、基準画像に設定したウインドウ内の画像と参照画像に設定したウインドウ内の画像とを周波数分解することで得られる位相成分に基づいて一致度を算出し、対応点を探索する。なお、周波数分解する手法としては、高速フーリエ変換、離散フーリエ変換、離散コサイン変換、離散サイン変換、ウエーブレット変換、及びアダマール変換のいずれかを採用することができる。   The search process using the phase only correlation method calculates the degree of coincidence based on the phase component obtained by frequency-decomposing the image in the window set as the reference image and the image in the window set as the reference image, Search for corresponding points. As a method for performing frequency decomposition, any of fast Fourier transform, discrete Fourier transform, discrete cosine transform, discrete sine transform, wavelet transform, and Hadamard transform can be employed.

図5は、位相限定相関法の処理の流れを示した図である。まず、基準ウインドウ内の画像f及び参照ウインドウ内の画像gが離散フーリエ変換(DFT)され、画像F及び画像Gが得られる。次に、画像F及び画像Gが規格化され、画像F´及び画像G´が得られる。次に、画像F´及び画像G´が合成され、相関画像Rが得られる。次に、相関画像Rが離散フーリエ逆変換(IDFT)され、POC関数rが得られる。図6はPOC関数rを示したグラフである。   FIG. 5 is a diagram showing a flow of processing of the phase only correlation method. First, the image f in the standard window and the image g in the reference window are subjected to a discrete Fourier transform (DFT) to obtain an image F and an image G. Next, the image F and the image G are normalized, and an image F ′ and an image G ′ are obtained. Next, the image F ′ and the image G ′ are combined to obtain a correlation image R. Next, the correlation image R is subjected to inverse discrete Fourier transform (IDFT) to obtain a POC function r. FIG. 6 is a graph showing the POC function r.

図6に示すようにPOC関数rは、急峻な相関ピークを有し、画像マッチングにおけるロバスト性と推定精度とが高いことが知られている。そして、この相関ピークの高さは画像f及び画像gの相関が高いほど大きくなる。したがって、一致度として、例えば相関ピークの高さを採用することで、両ウインドウ内の画像f及び画像gがどれだけ近似しているかを示すことが可能となる。そして、参照ウインドウをずらしていった場合に一致度が最も高くなったときの参照ウインドウの中心点が対応点として探索される。   As shown in FIG. 6, the POC function r has a steep correlation peak, and is known to have high robustness and estimation accuracy in image matching. The height of the correlation peak increases as the correlation between the image f and the image g increases. Therefore, by adopting, for example, the height of the correlation peak as the degree of coincidence, it is possible to indicate how close the images f and g in both windows are. Then, when the reference window is shifted, the center point of the reference window when the matching degree becomes the highest is searched for as a corresponding point.

次に、ウインドウ内に外領域が含まれることによる探索精度の低下について説明する。図7は、対応点の探索処理の説明図である。図7においては、基準画像に設定された注目点CPの参照画像上の対応点であるTPが水平方向にN画素ずれている。また、図7において、参照ウインドウW2の中心点が、注目点CPと同一座標の参照画像上の点であるCP´に位置するように、参照ウインドウW2が参照画像に設定され、探索処理が開始され、参照ウインドウW2がCP´から水平方向に1画素ずつずらされていく。この場合、本来的には、参照ウインドウをN画素ずらしたときに基準ウインドウW1内及び参照ウインドウW2内の両画像の一致度が最も高くなり、TPが対応点として探索されるはずである。   Next, a description will be given of a decrease in search accuracy due to the inclusion of the outer region in the window. FIG. 7 is an explanatory diagram of the corresponding point search process. In FIG. 7, TP, which is a corresponding point on the reference image of the target point CP set in the base image, is shifted by N pixels in the horizontal direction. Further, in FIG. 7, the reference window W2 is set as the reference image so that the center point of the reference window W2 is positioned at CP ′, which is a point on the reference image having the same coordinates as the point of interest CP, and the search process is started. Then, the reference window W2 is shifted from the CP ′ by one pixel in the horizontal direction. In this case, when the reference window is shifted by N pixels, the degree of coincidence of both images in the standard window W1 and the reference window W2 is the highest, and TP should be searched as a corresponding point.

しかしながら、図7に示すように、基準ウインドウW1内に外領域D1が含まれて基準画像と外領域D1との境界にエッジが発生すると、このエッジの影響により、対応点がTPではなく、TPよりエッジ側の例えばCP´で探索されてしまい、誤探索が発生してしまう。   However, as shown in FIG. 7, when the outer area D1 is included in the reference window W1 and an edge is generated at the boundary between the reference image and the outer area D1, the corresponding point is not TP but TP due to the influence of the edge. For example, a search is performed at CP ′ on the edge side, and an erroneous search occurs.

そこで、補間部15a,15bは、共に、以下に示す第1〜第4の手法を用いて外領域を補間する。まず、第1の手法について説明する。図8は、第1及び第3の手法の説明図である。第1の手法は、ウインドウW内の入力画像I1の端E1に位置する画素の画素平均値を補間画素値として算出し、この補間画素値を外領域D1の各補間画素に設定する手法である。ここで、ウインドウW内に入力画像I1の水平及び垂直方向の2辺が含まれ、外領域D1がL字状になる場合は、ウインドウW内の入力画像I1の端の水平方向に1ライン及び垂直方向に1ラインに含まれる画素が端E1に位置する画素となる。また、ウインドウW内に入力画像I1の水平又は垂直方向の一辺が含まれ、外領域D1が帯状になる場合は、ウインドウWの端の水平方向の1ライン又は垂直方向の1ラインに含まれる画素が端E1に位置する画素となる。なお、端E1に位置する画素のライン数を1ラインに代えて2、3ライン等の複数ラインにしてもよい。   Therefore, both the interpolation units 15a and 15b interpolate the outer region using the following first to fourth methods. First, the first method will be described. FIG. 8 is an explanatory diagram of the first and third methods. The first method is a method of calculating a pixel average value of pixels located at the end E1 of the input image I1 in the window W as an interpolation pixel value, and setting the interpolation pixel value to each interpolation pixel in the outer region D1. . Here, when the window W includes two horizontal and vertical sides of the input image I1 and the outer region D1 has an L shape, one line and one edge are formed in the horizontal direction at the end of the input image I1 in the window W. Pixels included in one line in the vertical direction are pixels located at the end E1. Further, when one side of the input image I1 in the horizontal or vertical direction is included in the window W and the outer region D1 has a strip shape, pixels included in one horizontal line or one vertical line at the edge of the window W. Is a pixel located at the end E1. Note that the number of lines of the pixel located at the end E1 may be a plurality of lines such as two or three lines instead of one line.

また、第1の手法において、ウインドウWの端に向かうにつれて、補間画素値がなだらかに変化するように外領域D1に各補間画素を設定してもよい。この場合、外領域D1の画素値がウインドウWの端に向かうにつれて大きくなるようにしてもよいし、ウインドウWの端に向かうにつれて小さくなるようにしてもよい。   Further, in the first method, each interpolation pixel may be set in the outer region D1 so that the interpolation pixel value gradually changes toward the end of the window W. In this case, the pixel value of the outer region D1 may be increased toward the end of the window W, or may be decreased toward the end of the window W.

具体的には、ウインドウWの端に向かうにつれて補間画素値を小さくする場合は、画素平均値を基準として段階的に小さくなるように、補間画素値を算出すればよい。また、ウインドウWの端に向かうにつれて補間画素値を大きくする場合は、画素平均値を基準として段階的に大きくなるように補間画素値を算出すればよい。   Specifically, when the interpolation pixel value is decreased toward the end of the window W, the interpolation pixel value may be calculated so as to decrease stepwise with reference to the pixel average value. Further, when the interpolation pixel value is increased toward the end of the window W, the interpolation pixel value may be calculated so as to increase stepwise with the pixel average value as a reference.

また、ウインドウWの端に向かうにつれて画素値を大きくする場合は、画素平均値よりも所定の値だけ大きい画素値と画素平均値とを補間画素値として採用し、ウインドウWの端に向かうにつれて、大きい画素値の個数が多くなるように、外領域D1の画素値を設定すればよい。   When the pixel value is increased toward the edge of the window W, a pixel value and a pixel average value that are larger than the pixel average value by a predetermined value are used as the interpolation pixel values. The pixel value of the outer region D1 may be set so that the number of large pixel values increases.

第1の手法によれば、補間画素値の算出に用いられる画素がウインドウ内の入力画像I1の端E1の画素のみとなるため、高速に補間画素値を求めることができる。また、ウインドウW内の入力画像I1の端の画素の画素平均値が補間画素値として算出されるため、外領域D1と入力画像I1との境界におけるエッジの発生をより確実に抑制することができる。   According to the first method, since the pixel used for calculation of the interpolation pixel value is only the pixel at the end E1 of the input image I1 in the window, the interpolation pixel value can be obtained at high speed. Further, since the pixel average value of the pixels at the end of the input image I1 in the window W is calculated as the interpolated pixel value, the occurrence of an edge at the boundary between the outer region D1 and the input image I1 can be more reliably suppressed. .

次に、第2の手法について説明する。図9は第2の手法の説明図である。第2の手法は、ウインドウW内の入力画像I1、すなわち、図9のE2の濃い色で示す矩形状の領域を構成する各画素の画素平均値を補間画素値として算出し、外領域D1に設定する手法である。第2の手法においても、第1の手法と同様、端に向かうにつれてなだらかに変化するように外領域D1に補間画素値を設定してもよい。   Next, the second method will be described. FIG. 9 is an explanatory diagram of the second method. In the second method, an input image I1 in the window W, that is, a pixel average value of each pixel constituting a rectangular area indicated by the dark color E2 in FIG. 9 is calculated as an interpolated pixel value, and the outer area D1 is calculated. It is a method to set. Also in the second method, similarly to the first method, the interpolation pixel value may be set in the outer region D1 so as to gradually change toward the end.

第2の手法によれば、ウインドウW内の入力画像I1の画素平均値が補間画素値として採用されているため、基準画像及び参照画像のウインドウW内の両画像の一致度が、両ウインドウ内の画像全域ではなく一部の領域を用いて局所的に算出されるような場合であっても、外領域と入力画像との境界におけるエッジの発生をより確実に抑制することができる。   According to the second method, since the pixel average value of the input image I1 in the window W is adopted as the interpolated pixel value, the degree of coincidence between both images in the window W of the standard image and the reference image is determined in both windows. Even when the calculation is locally performed using a part of the area rather than the entire area of the image, the occurrence of an edge at the boundary between the outer area and the input image can be more reliably suppressed.

次に、第3の手法について図8を用いて説明する。第3の手法は、ウインドウW内の入力画像I1の端E1に位置する各画素の画素平均値を基準として上下に一定のマージンαを与えた値を補間画素値として算出する手法である。この場合、ウインドウW内の入力画像I1の端E1に位置する各画素のうち、画素値が画素平均値より高い画素の割合が、画素平均値より低い画素の割合よりも高い場合、画素平均値に一定のマージンを加えた値(=画素平均値+α)を補間画素値とし、その逆の場合、画素平均値から一定のマージンを差し引いた値(=画素平均値−α)を補間画素値として算出すればよい。   Next, the third method will be described with reference to FIG. The third method is a method of calculating, as an interpolated pixel value, a value that gives a certain margin α in the vertical direction with reference to the pixel average value of each pixel located at the end E1 of the input image I1 in the window W. In this case, among the pixels located at the end E1 of the input image I1 in the window W, when the proportion of pixels whose pixel value is higher than the pixel average value is higher than the proportion of pixels lower than the pixel average value, A value obtained by adding a certain margin (= pixel average value + α) as an interpolation pixel value, and vice versa, a value obtained by subtracting a certain margin from the pixel average value (= pixel average value−α) as an interpolation pixel value What is necessary is just to calculate.

第3の手法によれば、画素平均値に上下にマージンαを与えて補間画素値の値が調節されるため、外領域D1と入力画像I1との境界におけるエッジの発生をより確実に抑制することができる。なお、マージンαとしては、平均画素値の1〜10%の値を採用してもよいし、平均画素値に応じて予め定められた値を採用してもよい。   According to the third method, since the value of the interpolated pixel value is adjusted by giving a vertical margin α to the pixel average value, the occurrence of an edge at the boundary between the outer region D1 and the input image I1 is more reliably suppressed. be able to. As the margin α, a value of 1 to 10% of the average pixel value may be adopted, or a value determined in advance according to the average pixel value may be adopted.

次に、第4の手法について用いて説明する。図10は第4の手法の説明図である。第4の手法は、ウインドウW内の入力画像I1の端に位置する第i行の画素Gの画素値を、外領域D1の第i行に対応する補間画素値Hとして算出し、外領域D1の第i行を構成する各補間画素を、補間画素値Hを用いて設定する手法である。 Next, the fourth method will be described. FIG. 10 is an explanatory diagram of the fourth method. The fourth approach is to calculate the pixel value of the pixel G i in the i-th row on the edge of the input image I1 in the window W, as an interpolated pixel value H i corresponding to the i-th row of the outer area D1, the outer This is a method of setting each interpolation pixel constituting the i-th row of the region D1 using the interpolation pixel value H i .

この場合、探索処理部16は、参照ウインドウの中心点を注目点が位置する行と同一行に設定し、当該行において参照ウインドウを1ライン分だけずらして対応点を探索することが好ましい。カメラC1,C2は、光軸が平行に設置されているため、対応点は、参照画像において、基準画像に設定された注目点と同一行に存在する可能性が高い。そのため、注目点が設定された行と同じ参照画像上の1行を探索範囲として、この探索範囲に中心点が位置するように参照画像をずらすことで、高速に対応点を探索することが可能となる。   In this case, it is preferable that the search processing unit 16 sets the center point of the reference window to the same line as the line where the target point is located, and searches the corresponding point by shifting the reference window by one line in the line. Since the cameras C1 and C2 are installed in parallel with each other, the corresponding points are likely to be present in the same row as the attention point set in the standard image in the reference image. Therefore, it is possible to search for corresponding points at high speed by shifting the reference image so that the center point is located in this search range, with one row on the same reference image as the row where the attention point is set as the search range. It becomes.

そして、参照ウインドウを水平方向に1ラインだけずらして対応点を探索する探索処理を採用すると、外領域D1において、各行の値が異なって横縞が発生していても、水平方向において画素値が連続的に変化していれば、探索に影響を与えない。そこで、補間画素値Hによって外領域D1を水平方向に一律に埋めることで、探索精度を高くし、かつ、処理の高速化を図ることができる。 Then, when a search process for searching for corresponding points by shifting the reference window by one line in the horizontal direction is adopted, pixel values are continuous in the horizontal direction even if horizontal stripes occur due to different values in each row in the outer region D1. If it changes, the search will not be affected. Thus, by uniformly filling the outer region D1 in the horizontal direction with the interpolated pixel value H i , the search accuracy can be increased and the processing speed can be increased.

なお、第4の手法において、ウインドウW内に入力画像I1の2辺が含まれ、外領域D1がL字状となる場合には、入力画像I1において水平方向と平行な端の1ラインに隣接する外領域D1の各補間画素の画素値を、当該1ラインに位置する画素であって、ウインドウW内の画素の画素平均値で埋めればよい。具体的には、図10の場合、ウインドウW内において、入力画像I1の1行目に位置する画素の画素平均値を用いて、当該1行目に隣接する外領域D1の各補間画素の画素値を設定すればよい。   In the fourth method, when the window W includes two sides of the input image I1 and the outer region D1 has an L shape, the input image I1 is adjacent to one line at the end parallel to the horizontal direction. The pixel value of each interpolation pixel in the outer region D1 to be processed may be filled with the pixel average value of the pixels located in the one line and within the window W. Specifically, in the case of FIG. 10, using the pixel average value of the pixels located in the first row of the input image I1 in the window W, the pixels of each interpolation pixel in the outer region D1 adjacent to the first row. A value should be set.

次に、本対応点探索装置の動作について説明する。図11は、対応点探索装置の動作を示すフローチャートである。図11のフローチャートは、時刻tにおいて、カメラC1,C2により撮影された2枚の入力画像を処理する場合を示しており、カメラC1,C2から入力画像が撮影される毎に実行される。   Next, the operation of the corresponding point search device will be described. FIG. 11 is a flowchart showing the operation of the corresponding point search apparatus. The flowchart of FIG. 11 shows a case where two input images captured by the cameras C1 and C2 are processed at time t, and is executed each time an input image is captured from the cameras C1 and C2.

まず、ステップS11において、基準画像取得部11aは、カメラC1により撮影された入力画像を基準画像として取得し、参照画像取得部11bは、カメラC2により撮影された入力画像を参照画像として取得する。   First, in step S11, the standard image acquisition unit 11a acquires an input image captured by the camera C1 as a standard image, and the reference image acquisition unit 11b acquires an input image captured by the camera C2 as a reference image.

ステップS12において、注目点設定部12aが基準画像上の所定の位置に注目点を設定し、基準ウインドウ設定部13aは、注目点を中心として基準ウインドウを基準画像上に設定する。   In step S12, the attention point setting unit 12a sets the attention point at a predetermined position on the reference image, and the reference window setting unit 13a sets the reference window on the reference image with the attention point as the center.

ステップS13において、判定部14aは、基準ウインドウ内に外領域が含まれているか否かを判定する。そして、外領域が含まれている場合(ステップS14でYES)、補間部15aは、上記第1〜第4のいずれかの手法を用いて外領域を補間する(ステップS15)。   In step S13, the determination unit 14a determines whether or not an outer region is included in the reference window. If the outer region is included (YES in step S14), the interpolation unit 15a interpolates the outer region using any one of the first to fourth methods (step S15).

一方、基準ウインドウ内に外領域が含まれていない場合(ステップS14でNO)、ステップS15がスルーされ、中心点設定部12bは、参照画像上の所定の位置に中心点を設定し、参照ウインドウ設定部13bは、中心点を中心として参照ウインドウを参照画像上に設定する(ステップS16)。   On the other hand, when the outer area is not included in the standard window (NO in step S14), step S15 is passed, and the center point setting unit 12b sets the center point at a predetermined position on the reference image, and the reference window The setting unit 13b sets a reference window on the reference image with the center point as the center (step S16).

ステップS17において、判定部14bは、参照ウインドウ内に外領域が含まれているか否かを判定する。そして、外領域が含まれている場合(ステップS18でYES)、補間部15bは、上記第1〜第4のいずれかの手法を用いて外領域を補間する(ステップS19)。   In step S17, the determination unit 14b determines whether or not an outer area is included in the reference window. If the outer region is included (YES in step S18), the interpolation unit 15b interpolates the outer region using any one of the first to fourth methods (step S19).

一方、参照ウインドウ内に外領域が含まれていない場合(ステップS18でNO)、ステップS19がスルーされ、探索処理部16は、基準ウインドウ及び参照ウインドウ内の両画像の一致度を算出する(ステップS20)。   On the other hand, if the reference window does not include an outer region (NO in step S18), step S19 is passed, and the search processing unit 16 calculates the degree of coincidence between the images in the reference window and the reference window (step S19). S20).

ステップS21において、参照ウインドウ設定部13bが参照ウインドウを最終の位置に設定しており、参照ウインドウのスライドが終了している場合(ステップS21でYES)、探索処理部16は、ステップS20で一致度が算出された参照ウインドウの中心点のうち一致度が最も高い中心点を対応点として算出する(ステップS22)。   In step S21, when the reference window setting unit 13b has set the reference window to the final position and the reference window has been slid (YES in step S21), the search processing unit 16 determines the degree of coincidence in step S20. The center point having the highest degree of coincidence among the center points of the reference window for which is calculated is calculated as the corresponding point (step S22).

一方、参照ウインドウ設定部13bが参照ウインドウを最終の位置に設定していない場合(ステップS21でNO)、処理をステップS16に戻す。そして、中心点設定部12bは、参照画像に次の中心点を設定し、参照ウインドウ設定部13bは、この中心点を中心に参照ウインドウを設定する(ステップS16)。以上ステップS16〜S21の処理が繰り返され、参照ウインドウが参照画像上をずらされていく。   On the other hand, when the reference window setting unit 13b has not set the reference window at the final position (NO in step S21), the process returns to step S16. Then, the center point setting unit 12b sets the next center point in the reference image, and the reference window setting unit 13b sets a reference window around the center point (step S16). The processes in steps S16 to S21 are repeated as described above, and the reference window is shifted on the reference image.

ステップS23において、基準ウインドウ設定部13aが基準ウインドウを最終の位置に設定しており、基準ウインドウのスライドが終了している場合(ステップS23でYES)、処理が終了される。一方、基準ウインドウが最終の位置に設定されていない場合(ステップS23でNO)、処理がステップS12に戻される。   In step S23, when the reference window setting unit 13a has set the reference window at the final position and the reference window has been slid (YES in step S23), the process is ended. On the other hand, if the reference window is not set to the final position (NO in step S23), the process returns to step S12.

なお、探索処理部16は、以下に示す多重解像度戦略手法を用いて対応点を探索してもよい。図12は、多重解像度戦略手法の説明図である。多重解像度戦略手法は、下位の階層から上位の階層に向かうにつれて解像度が高くなるように、解像度の異なる複数の基準画像及び参照画像を階層的に生成し、下位の階層での対応点の探索結果に基づいて、当該階層の探索範囲よりも小さな探索範囲を1つ上の階層の参照画像に設定し、当該探索範囲内で対応点を探索する探索処理を上位の階層に向けて階層的に実行することで対応点を探索する手法である。この手法によれば、対応点を高速かつ高精度に探索することが可能となる。   Note that the search processing unit 16 may search for corresponding points using a multi-resolution strategy method described below. FIG. 12 is an explanatory diagram of the multi-resolution strategy method. The multi-resolution strategy method hierarchically generates a plurality of reference images and reference images having different resolutions so that the resolution increases from the lower layer to the upper layer, and the corresponding point search results in the lower layer Based on the above, a search range smaller than the search range of the hierarchy is set in the reference image of the next higher hierarchy, and search processing for searching for corresponding points within the search range is executed hierarchically toward the upper hierarchy This is a method for searching for corresponding points. According to this method, it is possible to search for corresponding points at high speed and with high accuracy.

各階層でのウインドウサイズを同一として多重解像度戦略手法を採用すると、下位の層に向かうにつれて、入力画像I1の解像度が低くなるため、外領域を含むウインドウが設定される箇所が増大し、探索精度が低くなる。上位の層は下位の層での探索結果を承継して探索範囲が設定されるため、下位の層での探索結果は重要である。   When the multi-resolution strategy method is adopted with the window size in each layer being the same, the resolution of the input image I1 becomes lower toward the lower layer, so that the number of places where the window including the outer region is set increases, and the search accuracy is increased. Becomes lower. Since the upper layer inherits the search result in the lower layer and the search range is set, the search result in the lower layer is important.

本対応点探索装置では、外領域が上記第1〜第4の手法を用いて補間されるため、下位の層においても対応点を精度良く探索することが可能となり、多重解像度戦略手法を採用した場合においても、対応点を高速、かつ高精度に探索することが可能となる。   In the corresponding point search apparatus, since the outer region is interpolated using the first to fourth methods, it is possible to search for corresponding points in the lower layers with high accuracy, and the multi-resolution strategy method is adopted. Even in this case, it is possible to search for corresponding points at high speed and with high accuracy.

図13は、多重解像度戦略手法を採用した場合の探索処理のフローチャートである。まず、ステップS31において、図11に示すステップS11と同様、基準画像及び参照画像が取得される。   FIG. 13 is a flowchart of search processing when the multi-resolution strategy method is adopted. First, in step S31, a standard image and a reference image are acquired as in step S11 shown in FIG.

ステップS32において、注目点設定部12a及び中心点設定部12bは、基準画像及び参照画像を階層毎に予め定められた解像度で低解像度化する処理を実行し、解像度の異なる複数の基準画像及び参照画像を階層的に生成する。ここで、階層数及び各階層における解像度は予め定められており、下位の階層から上位の階層に向かうにつれて解像度が高くなり、解像度変換が行われていない基準画像及び参照画像が最上位の階層とされる。   In step S32, the point-of-interest setting unit 12a and the center point setting unit 12b execute a process of reducing the resolution of the standard image and the reference image at a predetermined resolution for each layer, and a plurality of standard images and references having different resolutions Generate images hierarchically. Here, the number of layers and the resolution in each layer are determined in advance, and the resolution increases from the lower layer to the upper layer, and the base image and the reference image that have not undergone resolution conversion are the highest layer. Is done.

ステップS33において、注目点設定部12aは、最上位の階層の基準画像に注目点を設定する。ステップS34において、注目点設定部12a及び中心点設定部12bは、処理対象となる注目層を設定する。ここで、注目層は、まず、最下位の階層を注目層として設定し、次に1つ上の階層を注目層として設定するというように、最上位の階層に向けて順次注目層を設定する。   In step S33, the attention point setting unit 12a sets the attention point in the reference image of the highest hierarchy. In step S34, the attention point setting unit 12a and the center point setting unit 12b set the attention layer to be processed. Here, the attention layer sequentially sets attention layers toward the highest layer, such as setting the lowest layer as the attention layer and then setting the next higher layer as the attention layer. .

ステップS35において、基準ウインドウ設定部13aは、ステップS33で設定した注目点に対応する注目層の基準画像上の投影点を注目点として基準ウインドウを設定する。   In step S35, the reference window setting unit 13a sets the reference window with the projected point on the reference image of the attention layer corresponding to the attention point set in step S33 as the attention point.

ステップS36において、判定部14aは、ステップS35で設定された基準ウインドウに外領域が含まれているか否かを判定する。そして、外領域が存在すると判定された場合(ステップS37でYES)、補間部15aは、外領域を上記第1〜第4のいずれかの手法を用いて補間する(ステップS38)。一方、外領域が存在しないと判定された場合(ステップS37でNO)、ステップS38がスルーされ、探索処理部16により探索処理が実行される(ステップS39)。なお、ステップS39の処理の詳細については後述する。   In step S36, the determination unit 14a determines whether or not the outer region is included in the reference window set in step S35. If it is determined that an outer region exists (YES in step S37), the interpolation unit 15a interpolates the outer region using any one of the first to fourth methods (step S38). On the other hand, if it is determined that there is no outside area (NO in step S37), step S38 is passed through and search processing is executed by the search processing unit 16 (step S39). Details of the process in step S39 will be described later.

ステップS40において、最上位の階層に対する探索処理が終了された場合は(ステップS40でYES)、処理がステップS41に進められる。一方、最上位の階層に対する探索処理が終了されていない場合は(ステップS40でNO)、処理がステップS34に戻され、一つ上の階層が注目層として設定される。   In step S40, when the search process for the highest hierarchy is completed (YES in step S40), the process proceeds to step S41. On the other hand, if the search process for the highest hierarchy has not been completed (NO in step S40), the process returns to step S34, and the hierarchy one level higher is set as the target layer.

ステップS41において、注目点設定部12aにより基準画像上において注目点として順次設定されることが予め定められた点のうち、最後の点が注目点として設定されている場合(ステップS41でYES)、処理が終了される。一方、最後の点が注目点として設定されていない場合(ステップS41でNO)、処理がステップS33に戻され、次の注目点が設定される。   In step S41, when the last point is set as the attention point among the points that are set in advance as the attention points on the reference image by the attention point setting unit 12a (YES in step S41). Processing is terminated. On the other hand, when the last point is not set as the attention point (NO in step S41), the process returns to step S33, and the next attention point is set.

次に、図13に示すステップS39の探索処理の詳細について説明する。図14は探索処理の詳細を示すフローチャートである。まず、ステップS61において、中心点設定部12bは、注目層の参照画像に探索領域を設定する。ここで、中心点設定部12bは、例えば最下位の階層の参照画像においては全域を探索範囲として設定し、それより階層が上の注目層の参照画像においては、注目層の1つ下の階層で算出された対応点に対応する注目層の参照画像の投影点を基準とし、当該投影点が含まれ、かつ、1つ下の階層で設定した探索範囲よりも狭い領域を探索範囲として設定する。   Next, the details of the search process in step S39 shown in FIG. 13 will be described. FIG. 14 is a flowchart showing details of the search process. First, in step S61, the center point setting unit 12b sets a search area in the reference image of the target layer. Here, the center point setting unit 12b sets, for example, the entire region as a search range in the reference image of the lowest hierarchy, and in the reference image of the attention layer higher than that, the center point setting layer 12b is one layer below the attention layer. Based on the projection point of the reference image of the target layer corresponding to the corresponding point calculated in step 1, a region that includes the projection point and is narrower than the search range set in the next lower layer is set as the search range. .

ステップS62において、中心点設定部12bは、ステップS61で設定された探索範囲の所定の位置に中心点を設定し、参照ウインドウ設定部13bは、当該中心点を中心として参照ウインドウを設定する。   In step S62, the center point setting unit 12b sets a center point at a predetermined position in the search range set in step S61, and the reference window setting unit 13b sets a reference window with the center point as the center.

ステップS63において、判定部14bは、参照ウインドウ内に外領域が含まれているか否かを判定する。そして、外領域が含まれている場合(ステップS64でYES)、補間部15bは、外領域を上記第1〜第4の手法のいずれかを用いて補間する(ステップS65)。   In step S63, the determination unit 14b determines whether or not an outer area is included in the reference window. If the outer area is included (YES in step S64), the interpolation unit 15b interpolates the outer area using any of the first to fourth methods (step S65).

一方、外領域が含まれていない場合(ステップS64でNO)、ステップS65がスルーされ、探索処理部16は、注目層の基準ウインドウ及び参照ウインドウ内の両画像の一致度を算出する(ステップS66)。   On the other hand, if the outer region is not included (NO in step S64), step S65 is passed, and the search processing unit 16 calculates the degree of coincidence of both images in the reference window and reference window of the target layer (step S66). ).

ステップS67において、探索処理部16は、参照ウインドウ設定部13bにより参照ウインドウが探索範囲の所定の最終位置に設定され、参照ウインドウのスライドが終了した場合(ステップS67でYES)、探索処理部16は、ステップS66で一致度が算出された参照ウインドウの中心点のうち一致度が最も高い中心点を対応点として算出する(ステップS68)。   In step S67, when the reference window is set to a predetermined final position in the search range by the reference window setting unit 13b and the reference window has finished sliding (YES in step S67), the search processing unit 16 Then, the center point having the highest degree of matching among the center points of the reference window whose degree of matching is calculated in step S66 is calculated as a corresponding point (step S68).

一方、参照ウインドウのスライドが終了していない場合(ステップS67でNO)、処理がステップS62に戻され、注目層の参照画像上に次の中心点が設定される。   On the other hand, if the sliding of the reference window has not ended (NO in step S67), the process returns to step S62, and the next center point is set on the reference image of the attention layer.

以上説明したように、本対応点探索装置によれば、ウインドウが入力画像からはみ出して設定された場合であっても、演算コストを増大させることなく、対応点を精度良く探索することができる。   As described above, according to the corresponding point search apparatus, even when the window is set so as to protrude from the input image, the corresponding point can be searched with high accuracy without increasing the calculation cost.

なお、上記説明では、参照画像を1枚としたが、これに限定されず、参照画像を複数枚としてもよい。この場合、各参照画像に対応する複数のカメラを設置すればよい。また、各参照画像に対応する複数の中心点設定部12b〜補間部15bを設ければよい。そして、探索処理部16は、各参照画像に対して対応点を求めればよい。   In the above description, one reference image is used. However, the present invention is not limited to this, and a plurality of reference images may be used. In this case, a plurality of cameras corresponding to each reference image may be installed. Further, a plurality of center point setting units 12b to 15b corresponding to each reference image may be provided. And the search process part 16 should just obtain | require a corresponding point with respect to each reference image.

本発明の実施の形態による対応点探索装置の概略構成図を示している。1 shows a schematic configuration diagram of a corresponding point search device according to an embodiment of the present invention. FIG. コントローラの機能ブロック図を示している。The functional block diagram of a controller is shown. 注目点の設定処理の説明図である。It is explanatory drawing of the attention point setting process. 基準ウインドウが設定された基準画像を示した図である。It is the figure which showed the reference | standard image in which the reference | standard window was set. 位相限定相関法の処理の流れを示した図である。It is the figure which showed the flow of the process of the phase only correlation method. POC関数を示したグラフである。It is the graph which showed the POC function. 対応点探索処理の説明図である。It is explanatory drawing of a corresponding point search process. 第1及び第3の手法の説明図である。It is explanatory drawing of the 1st and 3rd method. 第2の手法の説明図である。It is explanatory drawing of a 2nd method. 第4の手法の説明図である。It is explanatory drawing of the 4th method. 対応点探索装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a corresponding point search apparatus. 多重解像度戦略手法の説明図である。It is explanatory drawing of a multi-resolution strategy method. 多重解像度戦略手法を採用した場合の探索処理のフローチャートである。It is a flowchart of the search process at the time of employ | adopting a multi-resolution strategy method. 探索処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a search process.

符号の説明Explanation of symbols

10 コントローラ
11 画像取得部
11a 基準画像取得部
11b 参照画像取得部
12 設定部
12a 注目点設定部
12b 中心点設定部
13 ウインドウ設定部
13a 基準ウインドウ設定部
13b 参照ウインドウ設定部
14,14a,14b 判定部
15,15a,15b 補間部
16 探索処理部
C1,C2 カメラ
10 controller 11 image acquisition unit 11a reference image acquisition unit 11b reference image acquisition unit 12 setting unit 12a attention point setting unit 12b center point setting unit 13 window setting unit 13a reference window setting unit 13b reference window setting units 14, 14a and 14b determination unit 15, 15a, 15b Interpolation unit 16 Search processing unit C1, C2 Camera

Claims (10)

同一のシーンをとらえた複数の入力画像のうち、1の入力画像を基準画像、他の入力画像を参照画像として取得する取得手段と、
前記基準画像に注目点を順次設定し、設定した注目点を含むように前記基準画像にウインドウを設定すると共に、前記参照画像にウインドウを設定し、前記参照画像に設定したウインドウをずらしながら、両ウインドウ内の画像の一致度を求めることで、前記参照画像から前記注目点の対応点を探索する探索手段と、
前記ウインドウ内に、前記入力画像の画像領域からはみ出した外領域が含まれているか否かを前記ウインドウがずらされる毎に判定する判定手段と、
前記判定手段により前記外領域が含まれていると判定された場合、前記ウインドウ内の入力画像の少なくとも端に位置する画素の画素値に基づいて、前記外領域の補間画素値を算出する補間手段とを備え、
前記補間手段は、前記ウインドウ内の入力画像の端の画素の画素平均値を前記補間画素値として算出し、前記外領域において、前記ウインドウの端に向かうにつれてなだらかに変化するように前記補間画素値を算出することを特徴とする対応点探索装置。
An acquisition unit that acquires one input image as a standard image and another input image as a reference image among a plurality of input images that capture the same scene;
Attention points are sequentially set in the reference image, a window is set in the reference image so as to include the set attention points, a window is set in the reference image, and both windows are set while shifting the window set in the reference image. Search means for searching for a corresponding point of the attention point from the reference image by obtaining a degree of coincidence of images in the window;
Determining means for determining whether or not the window includes an outer region that protrudes from the image region of the input image each time the window is shifted;
Interpolating means for calculating an interpolated pixel value of the outer area based on a pixel value of a pixel located at least at an end of the input image in the window when the determining means determines that the outer area is included. for example Bei the door,
The interpolation means calculates a pixel average value of pixels at the edge of the input image in the window as the interpolation pixel value, and the interpolation pixel value so as to gradually change toward the edge of the window in the outer region. Corresponding point search device characterized by calculating .
同一のシーンをとらえた複数の入力画像のうち、1の入力画像を基準画像、他の入力画像を参照画像として取得する取得手段と、
前記基準画像に注目点を順次設定し、設定した注目点を含むように前記基準画像にウインドウを設定すると共に、前記参照画像にウインドウを設定し、前記参照画像に設定したウインドウをずらしながら、両ウインドウ内の画像の一致度を求めることで、前記参照画像から前記注目点の対応点を探索する探索手段と、
前記ウインドウ内に、前記入力画像の画像領域からはみ出した外領域が含まれているか否かを前記ウインドウがずらされる毎に判定する判定手段と、
前記判定手段により前記外領域が含まれていると判定された場合、前記ウインドウ内の入力画像の少なくとも端に位置する画素の画素値に基づいて、前記外領域の補間画素値を算出する補間手段とを備え、
前記補間手段は、前記ウインドウ内の入力画像を構成する各画素の画素平均値を前記補間画素値として算出し、前記外領域において、前記ウインドウの端に向かうにつれてなだらかに変化するように前記補間画素値を算出することを特徴とする対応点探索装置。
An acquisition unit that acquires one input image as a standard image and another input image as a reference image among a plurality of input images that capture the same scene;
Attention points are sequentially set in the reference image, a window is set in the reference image so as to include the set attention points, a window is set in the reference image, and both windows are set while shifting the window set in the reference image. Search means for searching for a corresponding point of the attention point from the reference image by obtaining a degree of coincidence of images in the window;
Determining means for determining whether or not the window includes an outer region that protrudes from the image region of the input image each time the window is shifted;
Interpolating means for calculating an interpolated pixel value of the outer area based on a pixel value of a pixel located at least at an end of the input image in the window when the determining means determines that the outer area is included. for example Bei the door,
The interpolation means calculates a pixel average value of each pixel constituting the input image in the window as the interpolation pixel value, and the interpolation pixel gradually changes toward the edge of the window in the outer region. A corresponding point search apparatus characterized by calculating a value .
同一のシーンをとらえた複数の入力画像のうち、1の入力画像を基準画像、他の入力画像を参照画像として取得する取得手段と、
前記基準画像に注目点を順次設定し、設定した注目点を含むように前記基準画像にウインドウを設定すると共に、前記参照画像にウインドウを設定し、前記参照画像に設定したウインドウをずらしながら、両ウインドウ内の画像の一致度を求めることで、前記参照画像から前記注目点の対応点を探索する探索手段と、
前記ウインドウ内に、前記入力画像の画像領域からはみ出した外領域が含まれているか否かを前記ウインドウがずらされる毎に判定する判定手段と、
前記判定手段により前記外領域が含まれていると判定された場合、前記ウインドウ内の入力画像の少なくとも端に位置する画素の画素値に基づいて、前記外領域の補間画素値を算出する補間手段とを備え、
前記補間手段は、前記ウインドウ内の入力画像の端に位置する各画素の画素平均値を基準として上下に一定のマージンを与えた値を前記補間画素値として算出することを特徴とする対応点探索装置。
An acquisition unit that acquires one input image as a standard image and another input image as a reference image among a plurality of input images that capture the same scene;
Attention points are sequentially set in the reference image, a window is set in the reference image so as to include the set attention points, a window is set in the reference image, and both windows are set while shifting the window set in the reference image. Search means for searching for a corresponding point of the attention point from the reference image by obtaining a degree of coincidence of images in the window;
Determining means for determining whether or not the window includes an outer region that protrudes from the image region of the input image each time the window is shifted;
Interpolating means for calculating an interpolated pixel value of the outer area based on a pixel value of a pixel located at least at an end of the input image in the window when the determining means determines that the outer area is included. for example Bei the door,
The interpolating means calculates as the interpolated pixel value a value giving a certain margin in the vertical direction with reference to the pixel average value of each pixel located at the end of the input image in the window. apparatus.
前記補間手段は、前記ウインドウ内の入力画像の端の位置において、前記画素平均値よりも画素値の高い画素の割合が、低い画素の割合より高い場合、前記画素平均値に一定のマージンを加えた値を前記補間画素値とし、その逆の場合、前記画素平均値から一定のマージンを差し引いた値を前記補間画素値とすることを特徴とする請求項記載の対応点探索装置。 The interpolation means adds a certain margin to the average pixel value when the ratio of pixels having a pixel value higher than the average pixel value is higher than the ratio of low pixels at the edge of the input image in the window. 4. The corresponding point search device according to claim 3 , wherein a value obtained by subtracting a certain margin from the average pixel value is used as the interpolated pixel value when the interpolated pixel value is the interpolated pixel value. 同一のシーンをとらえた複数の入力画像のうち、1の入力画像を基準画像、他の入力画像を参照画像として取得する取得手段と、
前記基準画像に注目点を順次設定し、設定した注目点を含むように前記基準画像にウインドウを設定すると共に、前記参照画像にウインドウを設定し、前記参照画像に設定したウインドウをずらしながら、両ウインドウ内の画像の一致度を求めることで、前記参照画像から前記注目点の対応点を探索する探索手段と、
前記ウインドウ内に、前記入力画像の画像領域からはみ出した外領域が含まれているか否かを前記ウインドウがずらされる毎に判定する判定手段と、
前記判定手段により前記外領域が含まれていると判定された場合、前記ウインドウ内の入力画像の少なくとも端に位置する画素の画素値に基づいて、前記外領域の補間画素値を算出する補間手段とを備え、
前記補間手段は、前記ウインドウ内の入力画像の端に位置する各行の画素の画素値を、前記外領域の各行に対応する補間画素値として算出し、前記外領域において、前記ウインドウの端に向かうにつれてなだらかに変化するように前記補間画素値を算出することを特徴とする対応点探索装置。
An acquisition unit that acquires one input image as a standard image and another input image as a reference image among a plurality of input images that capture the same scene;
Attention points are sequentially set in the reference image, a window is set in the reference image so as to include the set attention points, a window is set in the reference image, and both windows are set while shifting the window set in the reference image. Search means for searching for a corresponding point of the attention point from the reference image by obtaining a degree of coincidence of images in the window;
Determining means for determining whether or not the window includes an outer region that protrudes from the image region of the input image each time the window is shifted;
Interpolating means for calculating an interpolated pixel value of the outer area based on a pixel value of a pixel located at least at an end of the input image in the window when the determining means determines that the outer area is included. for example Bei the door,
The interpolation means calculates a pixel value of a pixel in each row located at an end of the input image in the window as an interpolated pixel value corresponding to each row in the outer region, and moves toward the edge of the window in the outer region. A corresponding point search device characterized in that the interpolated pixel value is calculated so as to change gradually with time .
前記探索手段は、下位の階層から上位の階層に向かうにつれて解像度が高くなるように、解像度の異なる複数の前記基準画像及び前記参照画像を階層的に生成し、下位の階層での対応点の探索結果に基づいて、当該階層の探索範囲よりも小さな探索範囲を1つ上の階層の参照画像に設定し、当該探索範囲内で対応点を探索する探索処理を上位の階層に向けて階層的に実行することで対応点を探索することを特徴とする請求項1〜のいずれかに記載の対応点探索装置。 The search means hierarchically generates a plurality of the reference images and the reference images having different resolutions so that the resolution increases from the lower hierarchy toward the upper hierarchy, and searches for corresponding points in the lower hierarchy Based on the result, a search range smaller than the search range of the hierarchy is set in the reference image of the next higher hierarchy, and the search process for searching for a corresponding point within the search range is hierarchically performed toward the upper hierarchy. corresponding point search device according to any one of claims 1 to 5, characterized in that searching the corresponding points by running. 前記探索手段は、前記基準画像に設定したウインドウ内の画像と前記参照画像に設定したウインドウ内の画像とを相関演算することで前記一致度を算出することを特徴とする請求項1〜のいずれかに記載の対応点探索装置。 The search means, according to claim 1-6, characterized in that calculating the degree of coincidence by correlation operation with the image in the window set in the image and the reference image in the window set in the reference image The corresponding point search apparatus according to any one of the above. 前記探索手段は、前記基準画像に設定したウインドウ内の画像と前記参照画像に設定したウインドウ内の画像とを周波数分解することで得られる位相成分に基づいて前記一致度を算出することを特徴とする請求項1〜のいずれかに記載の対応点探索装置。 The search means calculates the degree of coincidence based on a phase component obtained by frequency-decomposing an image in a window set as the reference image and an image in a window set as the reference image. The corresponding point search device according to any one of claims 1 to 7 . 前記探索手段は、高速フーリエ変換、離散フーリエ変換、離散コサイン変換、離散サイン変換、ウエーブレット変換、及びアダマール変換のいずれかを用いて周波数分解することを特徴とする請求項記載の対応点探索装置。 9. The corresponding point search according to claim 8 , wherein the search means performs frequency decomposition using any one of fast Fourier transform, discrete Fourier transform, discrete cosine transform, discrete sine transform, wavelet transform, and Hadamard transform. apparatus. 前記探索手段は、位相限定相関法を用いて前記一致度を算出することを特徴とする請求項記載の対応点探索装置。
The corresponding point search apparatus according to claim 9 , wherein the search means calculates the degree of coincidence using a phase only correlation method.
JP2008024477A 2008-02-04 2008-02-04 Corresponding point search device Expired - Fee Related JP4831084B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008024477A JP4831084B2 (en) 2008-02-04 2008-02-04 Corresponding point search device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008024477A JP4831084B2 (en) 2008-02-04 2008-02-04 Corresponding point search device

Publications (2)

Publication Number Publication Date
JP2009187138A JP2009187138A (en) 2009-08-20
JP4831084B2 true JP4831084B2 (en) 2011-12-07

Family

ID=41070335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008024477A Expired - Fee Related JP4831084B2 (en) 2008-02-04 2008-02-04 Corresponding point search device

Country Status (1)

Country Link
JP (1) JP4831084B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4877243B2 (en) * 2008-02-06 2012-02-15 コニカミノルタホールディングス株式会社 Corresponding point search apparatus and method
JP5316309B2 (en) * 2009-08-25 2013-10-16 コニカミノルタ株式会社 Image processing apparatus and image processing method
CN115909013B (en) * 2023-01-10 2023-07-25 深圳精智达技术股份有限公司 Image convolution method and device, electronic equipment and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06351001A (en) * 1993-06-08 1994-12-22 Matsushita Electric Ind Co Ltd Motion vector detecting method and movement compensation predicting method and device therefor
JP3798161B2 (en) * 1998-10-29 2006-07-19 株式会社ニデック Fundus measurement device and recording medium recording fundus measurement program
JP2005101728A (en) * 2003-09-22 2005-04-14 Hitachi Ulsi Systems Co Ltd Image processing apparatus
JP4877243B2 (en) * 2008-02-06 2012-02-15 コニカミノルタホールディングス株式会社 Corresponding point search apparatus and method

Also Published As

Publication number Publication date
JP2009187138A (en) 2009-08-20

Similar Documents

Publication Publication Date Title
US9361680B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP6016061B2 (en) Image generation apparatus, image display apparatus, image generation method, and image generation program
US9109891B2 (en) Stereo camera
JP5960513B2 (en) Video processing apparatus and method
KR101811718B1 (en) Method and apparatus for processing the image
CN106991650B (en) Image deblurring method and device
US20120155747A1 (en) Stereo image matching apparatus and method
US20100123792A1 (en) Image processing device, image processing method and program
JP5107409B2 (en) Motion detection method and filtering method using nonlinear smoothing of motion region
TWI542201B (en) Method and apparatus for reducing jitters of video frames
RU2570506C2 (en) Method of preparing images in visually indistinguishable spectral regions and corresponding camera and measuring equipment
JP4941565B2 (en) Corresponding point search apparatus and corresponding point searching method
US20180144485A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20090226097A1 (en) Image processing apparatus
JP4631973B2 (en) Image processing apparatus, image processing apparatus control method, and image processing apparatus control program
US10043106B2 (en) Corresponding point searching method and distance detection device
JP4862816B2 (en) Image correspondence point search device, distance measuring device and image motion detection device using the same
KR101875532B1 (en) Apparatus and method for hierarchical stereo matching
JP4831084B2 (en) Corresponding point search device
JP5492223B2 (en) Motion vector detection apparatus and method
JP4985542B2 (en) Corresponding point search device
JP4394487B2 (en) Stereo image processing device
JP2016213578A (en) Image processing apparatus, imaging device, image processing method, program
WO2014069196A1 (en) Stereo image processing device and stereo image processing method
Mohan Adaptive super-resolution image reconstruction with lorentzian error norm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110905

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees