JP2017123122A - Parallax value derivation apparatus, parallax value derivation method, and program - Google Patents

Parallax value derivation apparatus, parallax value derivation method, and program Download PDF

Info

Publication number
JP2017123122A
JP2017123122A JP2016002927A JP2016002927A JP2017123122A JP 2017123122 A JP2017123122 A JP 2017123122A JP 2016002927 A JP2016002927 A JP 2016002927A JP 2016002927 A JP2016002927 A JP 2016002927A JP 2017123122 A JP2017123122 A JP 2017123122A
Authority
JP
Japan
Prior art keywords
image
pixel
value
parallax value
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016002927A
Other languages
Japanese (ja)
Other versions
JP6701738B2 (en
Inventor
栄太 渡邊
Eita Watanabe
栄太 渡邊
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016002927A priority Critical patent/JP6701738B2/en
Publication of JP2017123122A publication Critical patent/JP2017123122A/en
Application granted granted Critical
Publication of JP6701738B2 publication Critical patent/JP6701738B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a parallax value derivation apparatus which can determine an appropriate parallax value even when an image includes a repeated pattern area, a parallax value derivation method, and a program.SOLUTION: A parallax value derivation apparatus includes: acquisition means for acquiring a first image obtained by first imaging means that images a subject, and a second image obtained by second imaging means arranged in a position different from the first imaging means, to image the subject; detection means of detecting repeated pattern areas where the same pattern appears repeatedly, from the first and second images; modification means of modifying a pixel value of a pixel constituting the repeated pattern areas in the first and second images, on the basis of the amount of change to be determined in accordance with a pixel position of the pixel; calculation means of calculating a matching degree between a reference area in the first image modified by the modification means and each of a plurality of candidate areas which are candidates corresponding to the reference area in the second image modified by the modification means; and deriving means of deriving a parallax value between the reference area and the candidate areas, on the basis of the matching degree.SELECTED DRAWING: Figure 11

Description

本発明は、視差値導出装置、視差値導出方法及びプログラムに関する。   The present invention relates to a parallax value derivation device, a parallax value derivation method, and a program.

従来、自動車の安全性において、歩行者と自動車とが衝突したときに、いかに歩行者を守れるか、及び、乗員を保護できるかの観点から、自動車のボディー構造等の開発が行われてきた。しかしながら、近年、情報処理技術及び画像処理技術の発達により、高速に人及び自動車を検出する技術が開発されてきている。これらの技術を応用して、自動車が物体に衝突する前に自動的にブレーキをかけ、衝突を未然に防ぐという自動車もすでに開発されている。自動的にブレーキをかけるには、人又は他車等の物体までの距離を正確に測定する必要があり、そのためには、ミリ波レーダ及びレーザレーダによる測距、ならびに、ステレオカメラによる測距等が実用化されている。   Conventionally, in terms of safety of automobiles, body structures of automobiles have been developed from the viewpoint of how to protect pedestrians and protect passengers when pedestrians and automobiles collide. However, in recent years, with the development of information processing technology and image processing technology, technology for detecting people and cars at high speed has been developed. Automobiles that apply these technologies to automatically apply a brake before an automobile collides with an object to prevent the collision have already been developed. In order to automatically apply the brake, it is necessary to accurately measure the distance to an object such as a person or another vehicle. For this purpose, distance measurement using millimeter wave radar and laser radar, distance measurement using a stereo camera, etc. Has been put to practical use.

2つの異なる視点から撮像を行ない2つの画像を取得する撮像手段を備えたステレオカメラを用い、視差画像を求めることによって、人及び他車等の物体の三次元的な位置及び大きさを正確に検出し、物体までの距離を測定することができる。撮像した撮像画像のある画素についての視差を求める際には、基準となる基準画像のある画素に対応する画素が、比較画像における探索範囲のうちのどの位置にあるかを探すためのマッチング処理を実行する。そして、探索範囲のマッチング処理が全て終了した後で、最もマッチングがとれている位置を最も確からしい適切な視差値としている。   By using a stereo camera equipped with an imaging means that captures images from two different viewpoints and obtains two images, the three-dimensional position and size of an object such as a person or another vehicle can be accurately determined by obtaining a parallax image. Detect and measure the distance to the object. When obtaining the parallax for a certain pixel of the captured image, a matching process is performed to find out which position in the search range the pixel corresponding to the pixel of the reference image serving as a reference is in. Run. Then, after all the search range matching processing is completed, the position with the highest matching is set as the most likely appropriate parallax value.

しかし、ビル窓、タイル壁又はフェンス等のように、外観に同様の模様が繰り返し表れる物体を撮像し、その物体の視差を算出する過程では、マッチングがとれている箇所が複数出現する場合がある。このような場合、どの箇所が正しいのか不明確となるため、視差値を誤って決定することがある。このような現象が生じると、例えば、実際は遠くにある物体(繰り返しパターンを持つ)であるのに、あたかも近くにあるような誤った距離が測定されてしまう。すると、例えば、ステレオカメラにより測距によって近くの距離にある物体を検出した場合に自動的に車両にブレーキを踏ませるシステムでは、ブレーキを踏む必要がない場所で誤ってブレーキが踏まれてしまういわゆる「誤踏み」を引き起こしてしまう。   However, in the process of taking an image of a similar appearance repeatedly appearing on the exterior, such as a building window, tile wall, or fence, and calculating the parallax of the object, multiple matching locations may appear. . In such a case, since it is unclear which part is correct, the parallax value may be erroneously determined. When such a phenomenon occurs, for example, an erroneous distance that is as close as possible is measured even though it is actually a distant object (having a repeated pattern). Then, for example, in a system in which a vehicle is automatically stepped on when a nearby object is detected by ranging with a stereo camera, the brake is stepped on at a place where it is not necessary to step on the brake. It will cause “wrong treading”.

そのため、従来、参照画像を生成し、当該参照画像と入力画像とを比較することによって、同様の模様が繰り返し表れる繰り返しパターン領域を検出する技術が提案されている(特許文献1)。また、マッチング処理により得られた視差値に基づいて同一の物体と見なすべき視差値をグループ化し、当該物体が存在する基準画像上の領域と、当該領域に対応する比較画像上の領域の隣接領域とで再度マッチング処理を行うことで、誤検出された物体を識別する技術が提案されている(特許文献2)。   Therefore, conventionally, a technique has been proposed in which a reference image is generated and a repeated pattern region in which a similar pattern appears repeatedly is detected by comparing the reference image with an input image (Patent Document 1). Further, the disparity values that should be regarded as the same object are grouped based on the disparity value obtained by the matching process, and the region on the reference image where the object exists and the adjacent region on the comparison image corresponding to the region A technique for recognizing an erroneously detected object by performing matching processing again is proposed (Patent Document 2).

しかしながら、従来の技術では、繰り返しパターン領域の検出や誤検出された物体を識別することが可能であるが、適切な視差値を求めることができなかった。   However, with the conventional technique, it is possible to detect a repeated pattern region or identify an erroneously detected object, but it is not possible to obtain an appropriate parallax value.

本発明は、上記に鑑みてなされたものであって、画像中に繰り返しパターン領域が存在する場合であっても、適切な視差値を求めることが可能な視差値導出装置、視差値導出方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above, and a parallax value deriving device, a parallax value deriving method, and a parallax value deriving method capable of obtaining an appropriate parallax value even when a repeated pattern region exists in an image The purpose is to provide a program.

上述した課題を解決し、目的を達成するために、本発明は、第1撮像手段が被写体を撮像することで得られた第1画像と、前記第1撮像手段とは異なる位置に設置された第2撮像手段が前記被写体を撮像することで得られた第2画像とを取得する取得手段と、前記第1画像及び前記第2画像から、同様の模様が繰り返し表れる繰り返しパターン領域をそれぞれ検出する検出手段と、前記第1画像及び前記第2画像の前記繰り返しパターン領域を構成する画素の画素値を、当該画素の画素位置に応じて定まる変更量に基づき変更する変更手段と、前記変更手段で変更された前記第1画像の基準領域と、前記変更手段で変更された前記第2画像において前記基準領域に対応する領域の候補となる複数の候補領域それぞれとの一致度を算出する算出手段と、前記一致度に基づいて、前記基準領域と前記候補領域との視差値を導出する導出手段と、を備える。   In order to solve the above-described problems and achieve the object, the present invention is arranged such that the first image capturing unit captures the subject and the first image capturing unit is located at a different position from the first image capturing unit. An acquisition means for acquiring a second image obtained by imaging the subject by the second imaging means, and a repeated pattern area in which a similar pattern appears repeatedly from the first image and the second image, respectively. A detecting unit; a changing unit that changes a pixel value of a pixel constituting the repetitive pattern region of the first image and the second image based on a change amount determined according to a pixel position of the pixel; and the changing unit. Calculation for calculating a degree of coincidence between the changed reference area of the first image and each of a plurality of candidate areas that are candidates for areas corresponding to the reference area in the second image changed by the changing unit. And stage, based on the matching degree, and a deriving means for deriving the disparity values of the reference region and the candidate region.

本発明によれば、画像中に繰り返しパターンが存在する場合であっても、適切な視差値を求めることができる。   According to the present invention, an appropriate disparity value can be obtained even when a repeated pattern exists in an image.

図1は、撮像部から物体までの距離を導き出す原理を説明する図である。FIG. 1 is a diagram for explaining the principle of deriving the distance from an imaging unit to an object. 図2は、基準画像における基準画素に対応する比較画像における対応画素を求める場合の説明図である。FIG. 2 is an explanatory diagram for obtaining a corresponding pixel in a comparison image corresponding to a reference pixel in the reference image. 図3は、マッチング処理結果のグラフの一例を示す図である。FIG. 3 is a diagram illustrating an example of a graph of the matching processing result. 図4は、基準画像及び比較画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of the reference image and the comparison image. 図5は、図4における基準領域と探索範囲との関係を示す図である。FIG. 5 is a diagram showing the relationship between the reference region and the search range in FIG. 図6は、図5における基準領域と候補領域との関係を示す図である。FIG. 6 is a diagram illustrating the relationship between the reference region and the candidate region in FIG. 図7は、マッチング処理結果のグラフの他の例を示す図である。FIG. 7 is a diagram illustrating another example of the graph of the matching processing result. 図8は、実施形態に係る機器制御システムを車両に搭載した例を示す図である。FIG. 8 is a diagram illustrating an example in which the device control system according to the embodiment is mounted on a vehicle. 図9は、実施形態に係る物体認識装置の外観の一例を示す図である。FIG. 9 is a diagram illustrating an example of the appearance of the object recognition apparatus according to the embodiment. 図10は、実施形態に係る物体認識装置のハードウェア構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of a hardware configuration of the object recognition apparatus according to the embodiment. 図11は、実施形態に係る物体認識装置の機能ブロック構成の一例を示す図である。FIG. 11 is a diagram illustrating an example of a functional block configuration of the object recognition apparatus according to the embodiment. 図12は、実施形態に係る物体認識装置の処理加工部による輝度値の変更方法の一例を説明するための図である。FIG. 12 is a diagram for explaining an example of a luminance value changing method by the processing unit of the object recognition apparatus according to the embodiment. 図13は、画素位置と輝度値の変更量との関係の一例を模式的に示す図である。FIG. 13 is a diagram schematically illustrating an example of the relationship between the pixel position and the amount of change in the luminance value. 図14は、画素位置と輝度値の変更量との関係の他の例を模式的に示す図である。FIG. 14 is a diagram schematically illustrating another example of the relationship between the pixel position and the change amount of the luminance value. 図15は、加工済基準画像及び加工済比較画像の一例を示す図である。FIG. 15 is a diagram illustrating an example of the processed reference image and the processed comparison image. 図16は、図15における基準領域と候補領域との関係を示す図である。FIG. 16 is a diagram illustrating the relationship between the reference region and the candidate region in FIG. 図17は、マッチング処理結果のグラフの他の例を示す図である。FIG. 17 is a diagram illustrating another example of the graph of the matching processing result. 図18は、実施形態に係る物体認識装置の視差値演算処理部の機能ブロック構成の一例を示す図である。FIG. 18 is a diagram illustrating an example of a functional block configuration of a disparity value calculation processing unit of the object recognition device according to the embodiment. 図19は、実施形態に係る視差値導出部のブロックマッチング処理の動作の一例を示すフローチャートである。FIG. 19 is a flowchart illustrating an example of the operation of the block matching process of the disparity value deriving unit according to the embodiment.

(ブロックマッチング処理を用いた測距方法の概略)
まず、図1〜図7を用いて、ブロックマッチング処理による測距方法の概略について説明する。
(Outline of distance measurement method using block matching process)
First, an outline of a distance measuring method using block matching processing will be described with reference to FIGS.

(測距の原理)
図1は、撮像部から物体までの距離を導き出す原理を説明する図である。図1を参照しながら、ステレオマッチング処理により、ステレオカメラから物体に対する視差を導出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。
(Principles of ranging)
FIG. 1 is a diagram for explaining the principle of deriving the distance from an imaging unit to an object. With reference to FIG. 1, the principle of deriving a parallax with respect to an object from the stereo camera by stereo matching processing and measuring the distance from the stereo camera to the object with the parallax value indicating the parallax will be described.

図1に示す撮像システムは、平行等位に配置された撮像部10a(第1撮像手段)と撮像部10b(第2撮像手段)とを有するものとする。撮像部10a、10bは、それぞれ、入射する光を屈折させて物体の像を固体撮像素子である画像センサに結像させる撮像レンズ11a、11bを有する。撮像部10a及び撮像部10bによって撮像された各画像を、それぞれ基準画像Ia及び比較画像Ibとする。図1において、3次元空間内の物体E上の点Sは、基準画像Ia及び比較画像Ibそれぞれにおいて、撮像レンズ11aと撮像レンズ11bとを結ぶ直線と平行な直線上の位置に写像される。ここで、各画像に写像された点Sを、基準画像Iaにおいて点Sa(x,y)とし、比較画像Ibにおいて点Sb(X,y)とする。このとき、視差値dpは、基準画像Ia上の座標における点Sa(x,y)と比較画像Ib上の座標における点Sb(X,y)とを用いて、以下の(式1)のように表される。   The imaging system shown in FIG. 1 includes an imaging unit 10a (first imaging unit) and an imaging unit 10b (second imaging unit) arranged in parallel equiposition. The imaging units 10a and 10b respectively include imaging lenses 11a and 11b that refract incident light and form an image of an object on an image sensor that is a solid-state imaging device. The images captured by the image capturing unit 10a and the image capturing unit 10b are referred to as a reference image Ia and a comparative image Ib, respectively. In FIG. 1, the point S on the object E in the three-dimensional space is mapped to a position on a straight line parallel to a straight line connecting the imaging lens 11a and the imaging lens 11b in each of the reference image Ia and the comparison image Ib. Here, the point S mapped to each image is a point Sa (x, y) in the reference image Ia and a point Sb (X, y) in the comparison image Ib. At this time, the parallax value dp is expressed by the following (Equation 1) using the point Sa (x, y) at the coordinates on the reference image Ia and the point Sb (X, y) at the coordinates on the comparison image Ib. It is expressed in

dp=X−x (式1)   dp = X−x (Formula 1)

また、図1において、基準画像Iaにおける点Sa(x,y)と撮像レンズ11aから撮像面上におろした垂線の交点との距離をΔaとし、比較画像Ibにおける点Sb(X,y)と撮像レンズ11bから撮像面上におろした垂線の交点との距離をΔbにすると、視差値dpは、dp=Δa+Δbと表すこともできる。   In FIG. 1, the distance between the point Sa (x, y) in the reference image Ia and the intersection of the perpendicular line taken from the imaging lens 11a on the imaging surface is Δa, and the point Sb (X, y) in the comparative image Ib is When the distance from the intersection of the perpendicular line taken from the imaging lens 11b to the imaging surface is Δb, the parallax value dp can also be expressed as dp = Δa + Δb.

次に、視差値dpを用いることにより、撮像部10a、10bと物体Eとの間の距離Zを導出する。ここで、距離Zは、撮像レンズ11aの焦点位置と撮像レンズ11bの焦点位置とを結ぶ直線から物体E上の点Sまでの距離である。図1に示すように、撮像レンズ11a及び撮像レンズ11bの焦点距離f、撮像レンズ11aと撮像レンズ11bとの間の長さである基線長B、及び視差値dpを用いて、下記の(式2)により、距離Zを算出することができる。   Next, the distance Z between the imaging units 10a and 10b and the object E is derived by using the parallax value dp. Here, the distance Z is a distance from a straight line connecting the focal position of the imaging lens 11a and the focal position of the imaging lens 11b to the point S on the object E. As shown in FIG. 1, using the focal length f of the imaging lens 11a and the imaging lens 11b, the baseline length B that is the length between the imaging lens 11a and the imaging lens 11b, and the parallax value dp, According to 2), the distance Z can be calculated.

Z=(B×f)/dp (式2)   Z = (B × f) / dp (Formula 2)

この(式2)により、視差値dpが大きいほど距離Zは小さく、視差値dpが小さいほど距離Zは大きくなることがわかる。   From this (Equation 2), it can be seen that the larger the parallax value dp, the smaller the distance Z, and the smaller the parallax value dp, the larger the distance Z.

(ブロックマッチング処理)
次に、ブロックマッチング処理(以下、単にマッチング処理ともいう)による測距方法について説明する。
(Block matching process)
Next, a distance measuring method using block matching processing (hereinafter also simply referred to as matching processing) will be described.

図2は、基準画像における基準画素に対応する比較画像における対応画素を求める場合の説明図である。図3は、マッチング処理結果のグラフの一例を示す図である。図4は、基準画像及び比較画像の一例を示す図である。   FIG. 2 is an explanatory diagram for obtaining a corresponding pixel in a comparison image corresponding to a reference pixel in the reference image. FIG. 3 is a diagram illustrating an example of a graph of the matching processing result. FIG. 4 is a diagram illustrating an example of the reference image and the comparison image.

図2〜4を参照しながら、コスト値C(p,d)の算出方法について説明する。なお、以降、C(p,d)は、C(x,y,d)を表すものとして説明する。   A method for calculating the cost value C (p, d) will be described with reference to FIGS. In the following description, C (p, d) represents C (x, y, d).

図2のうち、図2(a)は、基準画像Iaにおける基準画素p及び基準領域pbを示す概念図を示し、図2(b)は、図2(a)に示す基準画素pに対応する比較画像Ibにおける対応画素の候補を順次シフトしながら(ずらしながら)、コスト値Cを算出する際の概念図である。ここで、対応画素とは、基準画像Iaにおける基準画素pに最も類似する比較画像Ibにおける画素を示す。また、コスト値Cとは、基準画像Iaにおける基準画素pに対する、比較画像Ibにおける各画素の類似度又は非類似度を表す評価値(一致度)である。以下に示すコスト値Cは、値が小さいほど、比較画像Ibにおける画素が基準画素pと類似していることを示す非類似度を表す評価値であるものとして説明する。   2A is a conceptual diagram illustrating the reference pixel p and the reference region pb in the reference image Ia, and FIG. 2B corresponds to the reference pixel p illustrated in FIG. It is a conceptual diagram at the time of calculating the cost value C while sequentially shifting (shifting) the corresponding pixel candidates in the comparative image Ib. Here, the corresponding pixel indicates a pixel in the comparison image Ib that is most similar to the reference pixel p in the reference image Ia. The cost value C is an evaluation value (degree of coincidence) that represents the similarity or dissimilarity of each pixel in the comparison image Ib with respect to the reference pixel p in the reference image Ia. The cost value C shown below is described as an evaluation value that represents a degree of dissimilarity indicating that the smaller the value is, the more similar the pixel in the comparative image Ib is to the reference pixel p.

図2(a)に示すように、基準画像Iaにおける基準画素p(x,y)、及び、基準画素p(x,y)に対する比較画像Ibにおけるエピポーラ線EL上の対応画素の候補である候補画素q(x+d,y)の各輝度値(画素値)に基づいて、基準画素p(x,y)に対する対応画素の候補画素q(x+d,y)のコスト値C(p,d)が算出される。dは、基準画素pと候補画素qとのシフト量(ずれ量)である。シフト量dは、画素単位でシフトされる。すなわち、図3では、候補画素q(x+d,y)を予め指定された範囲(例えば、0<d<25)において順次一画素分シフトしながら、候補画素q(x+d,y)と基準画素p(x,y)との輝度値の非類似度であるコスト値C(p,d)が算出される。また、基準画素pの対応画素を求めるためマッチング処理として、本実施の形態ではブロックマッチング処理を行う。ブロックマッチング処理では、基準画像Iaの基準画素pを中心とする所定領域である基準領域pbと、比較画像Ibの候補画素qを中心とする候補領域qb(大きさは基準領域pbと同一)との非類似度を求める。基準領域pbと候補領域qbとの非類似度を示すコスト値Cとしては、SAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、又は、SSDの値から各ブロックの平均値を減算したZSSD(Zero−mean−Sum of Squared Difference)等が用いられる。これらの評価値は、相関が高い(類似の度合いが高い)ほど、値が小さくなるので非類似度を示す。   As shown in FIG. 2A, a candidate that is a candidate for a reference pixel p (x, y) in the reference image Ia and a corresponding pixel on the epipolar line EL in the comparison image Ib for the reference pixel p (x, y). Based on each luminance value (pixel value) of the pixel q (x + d, y), the cost value C (p, d) of the candidate pixel q (x + d, y) corresponding to the reference pixel p (x, y) is calculated. Is done. d is a shift amount (shift amount) between the reference pixel p and the candidate pixel q. The shift amount d is shifted in units of pixels. That is, in FIG. 3, the candidate pixel q (x + d, y) and the reference pixel p are sequentially shifted by one pixel within a predetermined range (for example, 0 <d <25). A cost value C (p, d), which is the dissimilarity of the luminance value with (x, y), is calculated. In addition, in the present embodiment, block matching processing is performed as matching processing for obtaining a corresponding pixel of the reference pixel p. In the block matching process, a reference region pb that is a predetermined region centered on the reference pixel p of the reference image Ia, and a candidate region qb (size is the same as the reference region pb) centered on the candidate pixel q of the comparison image Ib. Find dissimilarity of. As the cost value C indicating the dissimilarity between the reference region pb and the candidate region qb, the average value of each block is subtracted from the value of SAD (Sum of Absolute Difference), SSD (Sum of Squared Difference), or SSD. ZSSD (Zero-mean-Sum of Squared Difference) or the like is used. These evaluation values indicate dissimilarity because the values are smaller as the correlation is higher (the degree of similarity is higher).

なお、上述のように、撮像部10a、10bは、それぞれ平行等位に配置されるため、基準画像Ia及び比較画像Ibも、それぞれ平行等位の関係にある。したがって、基準画像Iaにおける基準画素pに対応する比較画像Ibにおける対応画素は、図2に紙面視横方向の線として示されるエピポーラ線EL上に存在することになり、比較画像Ibにおける対応画素を求めるためには、比較画像Ibのエピポーラ線EL上の画素を探索すればよい。   As described above, since the imaging units 10a and 10b are arranged in parallel equiposition, the reference image Ia and the comparison image Ib are also in parallel equivalence relations. Accordingly, the corresponding pixel in the comparison image Ib corresponding to the reference pixel p in the reference image Ia exists on the epipolar line EL shown as a horizontal line in FIG. 2, and the corresponding pixel in the comparison image Ib is In order to obtain it, the pixel on the epipolar line EL of the comparison image Ib may be searched.

このようなブロックマッチング処理で算出されたコスト値C(p,d)は、シフト量dとの関係で、例えば、図3に示すグラフにより表される。図3の例では、コスト値Cは、シフト量d=7の場合が最小値となるため、視差値dp=7として導出される。   The cost value C (p, d) calculated by such block matching processing is represented by, for example, the graph shown in FIG. 3 in relation to the shift amount d. In the example of FIG. 3, the cost value C is derived as the parallax value dp = 7 because the minimum value is obtained when the shift amount d = 7.

ただし、ビル窓、タイル壁又はフェンス等のように、同様の模様が繰り返し表れる物体を含む画像では、その物体の視差を算出する過程で、マッチングがとれている箇所が2箇所以上出現する場合がある。このような場合、最も確からしい視差値を誤って決定する可能性がある。   However, in an image including an object such as a building window, a tile wall, or a fence that repeatedly shows the same pattern, two or more matching points may appear in the process of calculating the parallax of the object. is there. In such a case, the most probable parallax value may be erroneously determined.

例えば、基準画像Iaが図4(a)で示す画像であり、比較画像Ibが図4(b)で示す画像である場合、ビル窓を示す領域等が同様の模様が繰り返し表れる繰り返しパターン領域となる。ここで、図4(a)の破線で囲んだ領域を基準領域pbとし、図4(b)の破線で囲んだ領域を候補領域qbの探索範囲Qとする。この場合、類似度(非類似度)は、図5に示すように、基準領域pbと、探索範囲Q内の各候補領域qbとを比較することで導出される。   For example, when the reference image Ia is the image shown in FIG. 4A and the comparison image Ib is the image shown in FIG. 4B, the region showing the building window and the like is a repetitive pattern region in which the same pattern appears repeatedly. Become. Here, a region surrounded by a broken line in FIG. 4A is defined as a reference region pb, and a region surrounded by a broken line in FIG. 4B is defined as a search range Q of the candidate region qb. In this case, the similarity (dissimilarity) is derived by comparing the reference region pb and each candidate region qb in the search range Q as shown in FIG.

図5は、図4の(a)、(b)における基準領域pbと、探索範囲Q(候補領域qb)との関係を示す図である。同図に示すように、類似度(非類似度)は、基準領域pbと、探索範囲Q内の各位置(探索位置)に存在する候補領域qbと比較することで求められる。この場合、基準領域pbの画像は、図6に示すように、探索位置4、7、…、nの候補領域qbの画像と類似する。そのため、このマッチング処理により得られるコスト値Cのグラフは、図7に示すように、被写体に含まれた繰り返しパターン領域によって周期的に変動(上下)する。   FIG. 5 is a diagram showing the relationship between the reference region pb in FIGS. 4A and 4B and the search range Q (candidate region qb). As shown in the figure, the similarity (dissimilarity) is obtained by comparing the reference region pb with the candidate region qb existing at each position (search position) within the search range Q. In this case, as shown in FIG. 6, the image of the reference region pb is similar to the image of the candidate region qb at the search positions 4, 7,. Therefore, as shown in FIG. 7, the graph of the cost value C obtained by this matching processing periodically fluctuates (up and down) depending on the repeated pattern region included in the subject.

このような変動が生じると、コスト値Cの最小値を特定することができず、例えば、実際は遠くにある物体(繰り返しパターンを持つ)であるのに、あたかも近くにあるような誤った距離(視差値dp)が測定されてしまう。すると、例えば、ステレオカメラにより測距によって近くの距離にある物体を検出した場合に自動的に車両にブレーキを踏ませるシステムでは、ブレーキを踏む必要がない場所で誤ってブレーキが踏まれてしまういわゆる「誤踏み」を引き起こしてしまう。   When such a variation occurs, the minimum value of the cost value C cannot be specified. For example, although the object is actually a distant object (having a repetitive pattern), an erroneous distance as if it is close ( The parallax value dp) is measured. Then, for example, in a system in which a vehicle is automatically stepped on when a nearby object is detected by ranging with a stereo camera, the brake is stepped on at a place where it is not necessary to step on the brake. It will cause “wrong treading”.

このように、画像中に繰り返しパターン領域が存在すると、適切な視差値を求めることが困難となる。そこで、以下の実施形態では、画像中に繰り返しパターン領域が存在する場合であっても、適切な視差値を求めることが可能な視差値導出装置、視差値導出方法及びプログラムについて説明する。   As described above, when a repeated pattern region exists in an image, it is difficult to obtain an appropriate parallax value. Therefore, in the following embodiment, a parallax value derivation device, a parallax value derivation method, and a program that can obtain an appropriate parallax value even when a repeated pattern region exists in an image will be described.

以下に、図8〜図19を参照しながら、本発明に係る視差値導出装置、視差値導出方法及びプログラムの実施の形態を詳細に説明する。以下では、視差値導出装置を含む物体認識装置が、自動車に搭載される場合を例に説明する。   Hereinafter, embodiments of a parallax value deriving device, a parallax value deriving method, and a program according to the present invention will be described in detail with reference to FIGS. 8 to 19. Hereinafter, a case where an object recognition device including a parallax value deriving device is mounted on an automobile will be described as an example.

(物体認識装置を備えた車両の概略構成)
図8は、機器制御システムを車両に搭載した例を示す図である。図8のうち、図8(a)は、機器制御システム60を搭載した車両70の側面図であり、図8(b)は、車両70の正面図である。
(Schematic configuration of a vehicle equipped with an object recognition device)
FIG. 8 is a diagram illustrating an example in which the device control system is mounted on a vehicle. 8A is a side view of the vehicle 70 on which the device control system 60 is mounted, and FIG. 8B is a front view of the vehicle 70.

図8に示すように、自動車である車両70は、機器制御システム60を備える。機器制御システム60は、車両70の居室空間である車室に設置された物体認識装置1と、車両制御装置6と、ステアリングホイール7と、ブレーキペダル8と、を備える。   As shown in FIG. 8, a vehicle 70 that is an automobile includes a device control system 60. The device control system 60 includes an object recognition device 1, a vehicle control device 6, a steering wheel 7, and a brake pedal 8 that are installed in a vehicle room that is a room space of the vehicle 70.

物体認識装置1は、車両70の進行方向を撮像する撮像機能を有し、例えば、車両70のフロントウィンドウ内側のバックミラー近傍に設置される。物体認識装置1は、詳細は後述するが、本体部2と、本体部2に固定された撮像部10aと、撮像部10bとを備える。撮像部10a、10bは、車両70の進行方向の被写体を撮像できるように本体部2に固定されている。   The object recognition device 1 has an imaging function for imaging the traveling direction of the vehicle 70 and is installed, for example, in the vicinity of a rearview mirror inside the front window of the vehicle 70. Although the details will be described later, the object recognition device 1 includes a main body unit 2, an imaging unit 10a fixed to the main body unit 2, and an imaging unit 10b. The imaging units 10a and 10b are fixed to the main body unit 2 so that a subject in the traveling direction of the vehicle 70 can be imaged.

車両制御装置6は、物体認識装置1から受信した認識情報に基づき、各種車両制御を実行するECU(Electronic Control Unit)である。車両制御装置6は、車両制御の例として、ステアリングホイール7を含むステアリング系統(制御対象)を制御して障害物を回避するステアリング制御を実行する。また、車両制御装置6は、車両制御の例として、ブレーキペダル8(制御対象)を制御して車両70を減速及び停止させるブレーキ制御を実行する。   The vehicle control device 6 is an ECU (Electronic Control Unit) that performs various vehicle controls based on the recognition information received from the object recognition device 1. As an example of vehicle control, the vehicle control device 6 executes steering control that controls a steering system (control target) including the steering wheel 7 to avoid an obstacle. Moreover, the vehicle control apparatus 6 performs the brake control which controls the brake pedal 8 (control object) and decelerates and stops the vehicle 70 as an example of vehicle control.

このような物体認識装置1及び車両制御装置6を含む機器制御システム60のように、ステアリング制御又はブレーキ制御等の車両制御が実行されることによって、車両70の運転の安全性を向上することができる。   Like the device control system 60 including the object recognition device 1 and the vehicle control device 6 described above, vehicle control such as steering control or brake control is executed, so that the safety of driving the vehicle 70 can be improved. it can.

なお、上述のように、物体認識装置1は、車両70の前方を撮像するものとしたが、これに限定されるものではない。すなわち、物体認識装置1は、車両70の後方又は側方を撮像するように設置されるものとしてもよい。この場合、物体認識装置1は、車両70の後方の後続車、又は側方を並進する他の車両等の位置を検出することができる。そして、車両制御装置6は、車両70の車線変更時又は車線合流時等における危険を検知して、上述の車両制御を実行することができる。また、車両制御装置6は、車両70の駐車時等におけるバック動作において、物体認識装置1によって出力された車両70の後方の障害物についての認識情報に基づいて、衝突の危険があると判断した場合に、上述の車両制御を実行することができる。   Note that, as described above, the object recognition device 1 captures the front of the vehicle 70, but is not limited thereto. That is, the object recognition apparatus 1 may be installed so as to capture the rear or side of the vehicle 70. In this case, the object recognition apparatus 1 can detect the position of a succeeding vehicle behind the vehicle 70 or another vehicle that translates laterally. And the vehicle control apparatus 6 can detect the danger at the time of the lane change of the vehicle 70, or a lane merge, etc., and can perform the above-mentioned vehicle control. Further, the vehicle control device 6 determines that there is a risk of collision based on the recognition information about the obstacle behind the vehicle 70 output by the object recognition device 1 in the back operation when the vehicle 70 is parked. In this case, the vehicle control described above can be executed.

(物体認識装置の構成)
図9は、第1の実施の形態に係る物体認識装置の外観の一例を示す図である。図9に示すように、物体認識装置1は、上述のように、本体部2と、本体部2に固定された撮像部10aと、撮像部10bとを備えている。撮像部10a、10bは、本体部2に対して平行等位に配置された一対の円筒形状のカメラで構成されている。また、説明の便宜上、図9に示す撮像部10aを「右」のカメラと称し、撮像部10bを「左」のカメラと称するものとする。
(Configuration of object recognition device)
FIG. 9 is a diagram illustrating an example of an appearance of the object recognition apparatus according to the first embodiment. As illustrated in FIG. 9, the object recognition device 1 includes the main body unit 2, the imaging unit 10a fixed to the main body unit 2, and the imaging unit 10b as described above. The imaging units 10 a and 10 b are constituted by a pair of cylindrical cameras arranged in parallel equiposition with respect to the main body unit 2. For convenience of explanation, the imaging unit 10a illustrated in FIG. 9 is referred to as a “right” camera, and the imaging unit 10b is referred to as a “left” camera.

<物体認識装置のハードウェア構成>
図10は、第1の実施の形態に係る物体認識装置のハードウェア構成の一例を示す図である。図10を参照しながら、物体認識装置1のハードウェア構成について説明する。
<Hardware configuration of object recognition device>
FIG. 10 is a diagram illustrating an example of a hardware configuration of the object recognition apparatus according to the first embodiment. A hardware configuration of the object recognition apparatus 1 will be described with reference to FIG.

図10に示すように、物体認識装置1(視差値導出装置の一例)は、本体部2において、視差値導出部3(視差値導出装置の一例)及び認識処理部5を備える。   As illustrated in FIG. 10, the object recognition device 1 (an example of a parallax value derivation device) includes a parallax value derivation unit 3 (an example of a parallax value derivation device) and a recognition processing unit 5 in a main body unit 2.

このうち、視差値導出部3は、物体Eを撮像して得られた複数の画像から、物体Eに対する視差を示す視差値dpを導出し、各画素における視差値dpを示す視差画像を出力する。認識処理部5は、視差値導出部3から出力された視差画像に基づいて、撮像部10a、10bから物体Eまでの距離を測定する等の処理を行なう。   Among these, the parallax value deriving unit 3 derives a parallax value dp indicating the parallax with respect to the object E from a plurality of images obtained by imaging the object E, and outputs a parallax image indicating the parallax value dp in each pixel. . The recognition processing unit 5 performs processing such as measuring the distance from the imaging units 10 a and 10 b to the object E based on the parallax image output from the parallax value deriving unit 3.

図10に示すように、視差値導出部3は、撮像部10aと、撮像部10bと、信号変換部20aと、信号変換部20bと、画像処理部30と、を備える。   As illustrated in FIG. 10, the parallax value deriving unit 3 includes an imaging unit 10a, an imaging unit 10b, a signal conversion unit 20a, a signal conversion unit 20b, and an image processing unit 30.

撮像部10aは、前方の被写体を撮像してアナログの画像信号を生成する処理部である。撮像部10aは、撮像レンズ11aと、絞り12aと、画像センサ13aと、備える。   The imaging unit 10a is a processing unit that images an object in front and generates an analog image signal. The imaging unit 10a includes an imaging lens 11a, a diaphragm 12a, and an image sensor 13a.

撮像レンズ11aは、入射する光を屈折させて物体の像を画像センサ13aに結像させるための光学素子である。絞り12aは、撮像レンズ11aを通過した光の一部を遮ることによって、画像センサ13aに入力する光の量を調整する部材である。画像センサ13aは、撮像レンズ11aに入射し、絞り12aを通過した光を電気的なアナログの画像信号に変換する半導体素子である。画像センサ13aは、例えば、CCD(Charge Coupled Devices)又はCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子によって実現される。   The imaging lens 11a is an optical element that refracts incident light to form an image of an object on the image sensor 13a. The diaphragm 12a is a member that adjusts the amount of light input to the image sensor 13a by blocking part of the light that has passed through the imaging lens 11a. The image sensor 13a is a semiconductor element that converts light that has entered the imaging lens 11a and passed through the aperture 12a into an electrical analog image signal. The image sensor 13a is realized by a solid-state imaging device such as a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal Oxide Semiconductor), for example.

撮像部10bは、前方の被写体を撮像してアナログの画像信号を生成する処理部である。撮像部10bは、撮像レンズ11bと、絞り12bと、画像センサ13bと、備えている。なお、撮像レンズ11b、絞り12b及び画像センサ13bの機能は、それぞれ上述した撮像レンズ11a、絞り12a及び画像センサ13aの機能と同様である。また、撮像レンズ11a及び撮像レンズ11bは、左右のカメラが同一の条件で撮像されるように、それぞれのレンズ面が互いに同一平面上にあるように設置されている。   The imaging unit 10b is a processing unit that images an object in front and generates an analog image signal. The imaging unit 10b includes an imaging lens 11b, a diaphragm 12b, and an image sensor 13b. The functions of the imaging lens 11b, the diaphragm 12b, and the image sensor 13b are the same as the functions of the imaging lens 11a, the diaphragm 12a, and the image sensor 13a, respectively. Further, the imaging lens 11a and the imaging lens 11b are installed so that the respective lens surfaces are on the same plane so that the left and right cameras can be imaged under the same conditions.

信号変換部20aは、撮像部10aにより生成されたアナログの画像信号を、デジタル形式の画像データに変換する処理部である。信号変換部20aは、CDS(Correlated Double Sampling)21aと、AGC(Auto Gain Control)22aと、ADC(Analog Digital Converter)23aと、フレームメモリ24aと、を備える。   The signal conversion unit 20a is a processing unit that converts the analog image signal generated by the imaging unit 10a into digital image data. The signal conversion unit 20a includes a correlated double sampling (CDS) 21a, an auto gain control (AGC) 22a, an analog digital converter (ADC) 23a, and a frame memory 24a.

CDS21aは、画像センサ13aにより生成されたアナログの画像信号に対して、相関二重サンプリング、横方向の微分フィルタ、又は縦方向の平滑フィルタ等によりノイズを除去する。AGC22aは、CDS21aによってノイズが除去されたアナログの画像信号の強度を制御する利得制御を行う。ADC23aは、AGC22aによって利得制御されたアナログの画像信号をデジタル形式の画像データに変換する。フレームメモリ24aは、ADC23aによって変換された画像データを記憶する。   The CDS 21a removes noise from the analog image signal generated by the image sensor 13a by correlated double sampling, a horizontal differential filter, or a vertical smoothing filter. The AGC 22a performs gain control for controlling the intensity of the analog image signal from which noise has been removed by the CDS 21a. The ADC 23a converts an analog image signal whose gain is controlled by the AGC 22a into digital image data. The frame memory 24a stores the image data converted by the ADC 23a.

信号変換部20bは、撮像部10bにより生成されたアナログの画像信号を、デジタル形式の画像データに変換する処理部である。信号変換部20bは、CDS21bと、AGC22bと、ADC23bと、フレームメモリ24bと、を備える。なお、CDS21b、AGC22b、ADC23b及びフレームメモリ24bの機能は、それぞれ上述したCDS21a、AGC22a、ADC23a及びフレームメモリ24aの機能と同様である。   The signal conversion unit 20b is a processing unit that converts an analog image signal generated by the imaging unit 10b into digital image data. The signal conversion unit 20b includes a CDS 21b, an AGC 22b, an ADC 23b, and a frame memory 24b. The functions of the CDS 21b, AGC 22b, ADC 23b, and frame memory 24b are the same as the functions of the above-described CDS 21a, AGC 22a, ADC 23a, and frame memory 24a, respectively.

画像処理部30は、信号変換部20a及び信号変換部20bによって変換された画像データに対して画像処理をする装置である。画像処理部30は、FPGA(Field Programmable Gate Array)31と、CPU(Central Processing Unit)32と、ROM(Read Only Memory)33と、RAM(Random Access Memory)34と、I/F(Interface)35と、バスライン39と、を備える。   The image processing unit 30 is a device that performs image processing on the image data converted by the signal conversion unit 20a and the signal conversion unit 20b. The image processing unit 30 includes an FPGA (Field Programmable Gate Array) 31, a CPU (Central Processing Unit) 32, a ROM (Read Only Memory) 33, a RAM (Random Access Memory) 34, and an I / F (35). And a bus line 39.

FPGA31は、集積回路であり、ここでは、画像データに基づく画像における視差値dpを導出する処理を行う。CPU32は、視差値導出部3の各機能を制御する。ROM33は、CPU32が視差値導出部3の各機能を制御するために実行する画像処理用プログラムを記憶している。RAM34は、CPU32のワークエリアとして使用される。I/F35は、認識処理部5におけるI/F55と、通信線4とを介して通信するためのインターフェースである。バスライン39は、図10に示すように、FPGA31、CPU32、ROM33、RAM34及びI/F35が互いに通信可能となるように接続するアドレスバス及びデータバス等である。   The FPGA 31 is an integrated circuit, and here performs a process of deriving a parallax value dp in an image based on image data. The CPU 32 controls each function of the parallax value deriving unit 3. The ROM 33 stores an image processing program that the CPU 32 executes in order to control each function of the parallax value deriving unit 3. The RAM 34 is used as a work area for the CPU 32. The I / F 35 is an interface for communicating with the I / F 55 in the recognition processing unit 5 via the communication line 4. As shown in FIG. 10, the bus line 39 is an address bus, a data bus, or the like that connects the FPGA 31, the CPU 32, the ROM 33, the RAM 34, and the I / F 35 so that they can communicate with each other.

なお、画像処理部30は、視差値dpを導出する集積回路としてFPGA31を備えるものとしているが、これに限定されるものではなく、ASIC(Application Specific Integrated Circuit)等の集積回路であってもよい。   The image processing unit 30 includes the FPGA 31 as an integrated circuit for deriving the parallax value dp. However, the image processing unit 30 is not limited to this and may be an integrated circuit such as an ASIC (Application Specific Integrated Circuit). .

図10に示すように、認識処理部5は、FPGA51と、CPU52と、ROM53と、RAM54と、I/F55と、CAN(Controller Area Network)I/F58と、バスライン59と、を備える。   As shown in FIG. 10, the recognition processing unit 5 includes an FPGA 51, a CPU 52, a ROM 53, a RAM 54, an I / F 55, a CAN (Controller Area Network) I / F 58, and a bus line 59.

FPGA51は、集積回路であり、ここでは、画像処理部30から受信した視差画像に基づいて、物体に対する認識処理を行う。CPU52は、認識処理部5の各機能を制御する。ROM53は、CPU52が認識処理部5の認識処理を実行する認識処理用プログラムを記憶している。RAM54は、CPU52のワークエリアとして使用される。I/F55は、画像処理部30のI/F35と、通信線4とを介して通信するためのインターフェースである。CANI/F58は、外部コントローラ(例えば、図10に示す車両制御装置6)と通信するためのインターフェースであり、例えば、自動車のCAN等に接続される。バスライン59は、図10に示すように、FPGA51、CPU52、ROM53、RAM54、I/F55及びCANI/F58が互いに通信可能となるように接続するアドレスバス及びデータバス等である。   The FPGA 51 is an integrated circuit, and here performs recognition processing on an object based on the parallax image received from the image processing unit 30. The CPU 52 controls each function of the recognition processing unit 5. The ROM 53 stores a recognition processing program for the CPU 52 to execute the recognition processing of the recognition processing unit 5. The RAM 54 is used as a work area for the CPU 52. The I / F 55 is an interface for communicating with the I / F 35 of the image processing unit 30 via the communication line 4. The CAN I / F 58 is an interface for communicating with an external controller (for example, the vehicle control device 6 shown in FIG. 10), and is connected to, for example, a CAN of an automobile. As shown in FIG. 10, the bus line 59 is an address bus, a data bus, or the like that connects the FPGA 51, the CPU 52, the ROM 53, the RAM 54, the I / F 55, and the CAN I / F 58 so that they can communicate with each other.

このような構成により、画像処理部30のI/F35から通信線4を介して認識処理部5に視差画像が送信されると、認識処理部5におけるCPU52の命令によって、FPGA51が、視差画像に基づいて、撮像部10a、10bと物体Eとの間の距離Zを算出したり、物体に対する認識処理を実行する。   With this configuration, when a parallax image is transmitted from the I / F 35 of the image processing unit 30 to the recognition processing unit 5 via the communication line 4, the FPGA 51 is converted into a parallax image by a command of the CPU 52 in the recognition processing unit 5. Based on this, the distance Z between the imaging units 10a, 10b and the object E is calculated, or recognition processing for the object is executed.

なお、上述の各プログラムは、インストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させてもよい。この記録媒体は、CD−ROM(Compact Disc Read Only Memory)又はSD(Secure Digital)メモリカード等である。   Note that each of the above-described programs may be recorded and distributed on a computer-readable recording medium in an installable or executable format file. The recording medium is a CD-ROM (Compact Disc Read Only Memory) or an SD (Secure Digital) memory card.

<物体認識装置の機能ブロック構成及び各機能ブロックの動作>
図11は、第1の実施の形態に係る物体認識装置の機能ブロック構成の一例を示す図である。図11に示すように、物体認識装置1は、視差値導出部3と、認識処理部5と、を備える。このうち、視差値導出部3は、画像取得部100(取得手段)と、変換部200と、パターン検出部300a、300b(検出手段)と、加工処理部400a、400b(変更手段)と、視差値演算処理部500と、を有する。
<Functional block configuration of object recognition apparatus and operation of each functional block>
FIG. 11 is a diagram illustrating an example of a functional block configuration of the object recognition apparatus according to the first embodiment. As illustrated in FIG. 11, the object recognition device 1 includes a parallax value deriving unit 3 and a recognition processing unit 5. Among these, the parallax value deriving unit 3 includes an image acquisition unit 100 (acquisition unit), a conversion unit 200, pattern detection units 300a and 300b (detection unit), processing units 400a and 400b (change unit), and parallax. A value calculation processing unit 500.

画像取得部100は、左右2台のカメラにより前方の被写体を撮像して、それぞれアナログの画像信号を生成し、各画像信号に基づく画像である2つの輝度画像を得る機能部である。画像取得部100は、図10に示す撮像部10a及び撮像部10bによって実現される。   The image acquisition unit 100 is a functional unit that captures an image of a subject in front using two left and right cameras, generates analog image signals, and obtains two luminance images that are images based on the image signals. The image acquisition unit 100 is realized by the imaging unit 10a and the imaging unit 10b illustrated in FIG.

変換部200は、画像取得部100により得られた2つの輝度画像の画像データに対して、ノイズの除去や、歪み補正(2つの輝度画像の平行化)等を施した後、デジタル形式の画像データに変換して出力する機能部である。デジタル形式の画像データは、例えば、8ビットのグレースケールの輝度値の画素で構成される。   The conversion unit 200 performs noise removal, distortion correction (parallelization of the two luminance images), and the like on the image data of the two luminance images obtained by the image acquisition unit 100, and then the digital format image. This is a functional unit that converts the data into an output. Digital image data is composed of, for example, 8-bit grayscale pixels.

ここで、変換部200が出力する2つの輝度画像の画像データ(以下、単に、輝度画像と称する)のうち、画像取得部100の右のカメラ(撮像部10a)により撮像された基準画像Iaの画像データ(以下、単に、基準画像Iaと称する)とし、左のカメラ(撮像部10b)により撮像された比較画像Ibの画像データ(以下、単に、比較画像Ibと称する)とする。すなわち、変換部200は、画像取得部100から出力された2つの輝度画像に基づいて、基準画像Ia及び比較画像Ibを出力する。変換部200は、図10に示す信号変換部20a、20bによって実現される。   Here, of the image data of the two luminance images output from the conversion unit 200 (hereinafter simply referred to as luminance image), the reference image Ia captured by the right camera (imaging unit 10a) of the image acquisition unit 100 is displayed. Image data (hereinafter simply referred to as a reference image Ia) and image data of a comparative image Ib (hereinafter simply referred to as a comparative image Ib) captured by the left camera (imaging unit 10b). That is, the conversion unit 200 outputs the reference image Ia and the comparison image Ib based on the two luminance images output from the image acquisition unit 100. The conversion unit 200 is realized by the signal conversion units 20a and 20b illustrated in FIG.

パターン検出部300aは、変換部200から受信した基準画像Iaの中から、模様等が繰り返しのパターンとして表された繰り返しパターン領域を検出する機能部である。具体的に、パターン検出部300aは、基準画像Iaの各画素が繰り返しパターン領域に含まれるか否かの情報を検出フラグとして出力する。パターン検出部300aは、図10に示すFPGA31によって実現される。   The pattern detection unit 300a is a functional unit that detects a repetitive pattern region in which a pattern or the like is represented as a repetitive pattern from the reference image Ia received from the conversion unit 200. Specifically, the pattern detection unit 300a outputs information as to whether or not each pixel of the reference image Ia is repeatedly included in the pattern area as a detection flag. The pattern detection unit 300a is realized by the FPGA 31 shown in FIG.

パターン検出部300bは、変換部200から受信した比較画像Ibの中から繰り返しパターン領域を検出する機能部である。具体的に、パターン検出部300bは、基準画像Iaの各画素が繰り返しパターン領域に含まれるか否かの情報を検出フラグとして出力する。パターン検出部300bは、図10に示すFPGA31によって実現される。   The pattern detection unit 300b is a functional unit that repeatedly detects a pattern area from the comparison image Ib received from the conversion unit 200. Specifically, the pattern detection unit 300b outputs information as to whether or not each pixel of the reference image Ia is repeatedly included in the pattern area as a detection flag. The pattern detection unit 300b is realized by the FPGA 31 illustrated in FIG.

なお、パターン検出部300a、300bでの繰り返しパターン領域の検出方法は特に問わず、公知の技術を用いることが可能である。例えば、パターン検出部300a、300bは、参照画像を生成し、それと入力画像とを比較することによって繰り返しパターン領域を検出してもよい。また、例えば、パターン検出部300a、300bは、基準画像Ia(比較画像Ib)の各画素値を対象画素値として順次取得し、当該対象画素にする画素間での輝度値の変化量に基づいて、繰り返しパターン領域を検出してもよい。また、パターン検出部300aとパターン検出部300bとを一体化し、基準画像Iaと比較画像Ibとを比較することで、両画像から繰り返しパターン領域を検出する構成としてもよい。   In addition, the detection method of the repeated pattern area | region in the pattern detection parts 300a and 300b does not matter in particular, It is possible to use a well-known technique. For example, the pattern detection units 300a and 300b may detect a repeated pattern region by generating a reference image and comparing it with an input image. In addition, for example, the pattern detection units 300a and 300b sequentially acquire each pixel value of the reference image Ia (comparison image Ib) as a target pixel value, and based on the amount of change in luminance value between the pixels to be the target pixel. The repeated pattern area may be detected. Alternatively, the pattern detection unit 300a and the pattern detection unit 300b may be integrated, and the reference image Ia and the comparison image Ib may be compared to detect a repeated pattern region from both images.

加工処理部400aは、変換部200から受信した基準画像Iaと、パターン検出部300aから受信した検出フラグとに基づき、基準画像Iaに含まれた繰り返しパターン領域の画素値(輝度値)を変更するための処理を実行する。具体的には、加工処理部400aは、基準画像Iaの繰り返しパターン領域を構成する画素の輝度値を、当該画素の位置(以下、画素位置という)に応じて定まる変更量に基づき変更する。そして、加工処理部400aは、繰り返しパターン領域の輝度値を変更した基準画像Iaを、加工済基準画像Iaとして視差値演算処理部500に出力する。なお、基準画像Iaに繰り返しパターン領域が含まれない場合には、当該基準画像Iaを加工済基準画像Iaとして視差値演算処理部500に出力する。加工処理部400aは、図10に示すFPGA31によって実現される。   The processing unit 400a changes the pixel value (luminance value) of the repetitive pattern region included in the reference image Ia based on the reference image Ia received from the conversion unit 200 and the detection flag received from the pattern detection unit 300a. Execute the process for Specifically, the processing unit 400a changes the luminance value of the pixels constituting the repetitive pattern area of the reference image Ia based on the change amount determined according to the position of the pixel (hereinafter referred to as pixel position). Then, the processing unit 400a outputs the reference image Ia in which the luminance value of the repeated pattern region is changed to the parallax value calculation processing unit 500 as the processed reference image Ia. If the reference image Ia does not include a repeated pattern region, the reference image Ia is output to the parallax value calculation processing unit 500 as the processed reference image Ia. The processing unit 400a is realized by the FPGA 31 illustrated in FIG.

ここで、輝度値の変更方法は種々の形態が可能である。図12は、加工処理部400aによる輝度値の変更方法の一例を説明するための図である。まず、加工処理部400aは、パターン検出部300aから受信したフラグ情報に基づき、基準画像Iaから繰り返しパターン領域Raを特定する(図12(a)、(b))。続いて、加工処理部400aは、基準画像Iaの繰り返しパターン領域Raを構成する各画素について、エピポーラ線方向(図面横方向)の画素位置を特定し、その画素位置に応じて定まる変更量を各画素の輝度値に加算する。これにより、繰り返しパターン領域Raの輝度値は、図12(c)に示すように、エピポーラ線方向に連続的に変化する。なお、画素位置の特定に係る基点は、繰り返しパターン領域Raの左端であってもよいし、右端であってもよい。   Here, the brightness value changing method can take various forms. FIG. 12 is a diagram for explaining an example of a method of changing the luminance value by the processing unit 400a. First, the processing unit 400a identifies the repeated pattern region Ra from the reference image Ia based on the flag information received from the pattern detection unit 300a (FIGS. 12A and 12B). Subsequently, the processing unit 400a identifies the pixel position in the epipolar line direction (the horizontal direction in the drawing) for each pixel constituting the repetitive pattern region Ra of the reference image Ia, and sets the change amount determined according to the pixel position. Add to the luminance value of the pixel. Thereby, the luminance value of the repeated pattern region Ra continuously changes in the epipolar line direction as shown in FIG. Note that the base point for specifying the pixel position may be the left end or the right end of the repeated pattern region Ra.

図13は、画素位置と輝度値の変更量との関係の一例を模式的に示す図である。また、図14は、画素位置と輝度値の変更量との関係の他の例を模式的に示す図である。ここで、横軸は基点からの画素位置を意味し、縦軸は輝度値の変更量を意味する。   FIG. 13 is a diagram schematically illustrating an example of the relationship between the pixel position and the amount of change in the luminance value. FIG. 14 is a diagram schematically illustrating another example of the relationship between the pixel position and the change amount of the luminance value. Here, the horizontal axis means the pixel position from the base point, and the vertical axis means the change amount of the luminance value.

加工処理部400aは、図13又は図14に示した画素位置と輝度値の変更量との関係に基づき、繰り返しパターン領域Ra内の各画素の輝度値に、その画素の画素位置に対応する変更量を加算する。例えば、加工処理部400aは、画素位置x1に位置する画素の輝度値P1に、対応する変更量α1を加算することで、新たな輝度値Q1(=P1+α1)に変更する。また、加工処理部400aは、画素位置x2、x3、…、xnの各画素の輝度値P2、P3、…、Pnに、対応する変更量α2、α3、…、αnをそれぞれ加算することで、当該画素に新たな輝度値Q2(=P2+α2)、Q3(=P3+α3)、…、Qn(=Pn+αn)にそれぞれ変更する。   Based on the relationship between the pixel position shown in FIG. 13 or FIG. 14 and the amount of change in luminance value, the processing unit 400a changes the luminance value of each pixel in the repetitive pattern region Ra corresponding to the pixel position of that pixel. Add the amount. For example, the processing unit 400a changes the luminance value P1 of the pixel located at the pixel position x1 to the new luminance value Q1 (= P1 + α1) by adding the corresponding change amount α1. Further, the processing unit 400a adds the corresponding change amounts α2, α3,..., Αn to the luminance values P2, P3,..., Pn of the pixels at the pixel positions x2, x3,. The brightness value Q2 (= P2 + α2), Q3 (= P3 + α3),..., Qn (= Pn + αn) is changed to the pixel.

ここで、図13の関係を用いる場合、加工処理部400aは、基点からの離間距離に応じて輝度値の変更量を増加させる。また、図13の関係を用いる場合、加工処理部400aは、基点からの離間距離に応じて輝度値の変更量を減少させる。   Here, when the relationship of FIG. 13 is used, the processing unit 400a increases the change amount of the luminance value according to the separation distance from the base point. When the relationship of FIG. 13 is used, the processing unit 400a decreases the amount of change in the luminance value according to the separation distance from the base point.

なお、図13、図14で説明した画素位置と輝度値の変更量との関係は、テーブルや関係式の状態でROM33等に保持してもよい。また、図13、図14で説明した画素位置と輝度値の変更量との関係をトーン画像等の画像データの状態でROM33等に保持してもよい。前者の場合、加工処理部400aは、テーブルや関係式に基づいて画素位置毎の変更量を導出し、繰り返しパターン領域内の各画素の画素値を変更する。後者の場合、加工処理部400aは、トーン画像を繰り返しパターン領域に重畳することで、繰り返しパターン領域内の各画素の画素値を変更する。   Note that the relationship between the pixel position and the amount of change in the luminance value described with reference to FIGS. 13 and 14 may be held in the ROM 33 or the like in the state of a table or a relational expression. Further, the relationship between the pixel position and the amount of change in the luminance value described with reference to FIGS. 13 and 14 may be held in the ROM 33 or the like in the state of image data such as a tone image. In the former case, the processing unit 400a derives a change amount for each pixel position based on a table or a relational expression, and changes the pixel value of each pixel in the repeated pattern region. In the latter case, the processing unit 400a changes the pixel value of each pixel in the repeated pattern region by superimposing the tone image on the repeated pattern region.

また、他の変更方法として、基点となる端部の画素から反対の端部の画素に向かって、直前の画素の輝度値を次の画素の輝度値に順次加算していく方法を採用してもよい。この場合、例えば、画像処理部402は、エピポーラ線方向に連続して配置された画素位置x1(輝度値P1)、x2(輝度値P2)、x3(輝度値P3)、…、xn(輝度値Pn)の各画素について、以下のように輝度値を変更する。   As another change method, a method is adopted in which the luminance value of the immediately preceding pixel is sequentially added to the luminance value of the next pixel from the pixel at the end portion serving as the base point toward the pixel at the opposite end portion. Also good. In this case, for example, the image processing unit 402 has pixel positions x1 (luminance value P1), x2 (luminance value P2), x3 (luminance value P3),..., Xn (luminance value) arranged continuously in the epipolar line direction. For each pixel of Pn), the luminance value is changed as follows.

まず、画像処理部402は、画素位置x2の画素の輝度値P2に、画素位置x1の画素の輝度値P1を加算することで、画素位置x2の画素を輝度値Q2(=P2+P1)に変更する。次いで、画像処理部402は、画素位置x3の画素の輝度値P3に、画素位置x2の画素の輝度値Q2を加算することで、画素位置x3の画素を輝度値Q3(=P3+Q2)に変更する。そして、画像処理部402は、画素位置xnの画素の輝度値Pnに、画素位置xn−1の画素の輝度値Qn−1を加算することで、画素位置xnの画素を輝度値Qn(=Pn+Qn−1)に変更する。   First, the image processing unit 402 adds the luminance value P1 of the pixel at the pixel position x1 to the luminance value P2 of the pixel at the pixel position x2, thereby changing the pixel at the pixel position x2 to the luminance value Q2 (= P2 + P1). . Next, the image processing unit 402 adds the luminance value Q2 of the pixel at the pixel position x2 to the luminance value P3 of the pixel at the pixel position x3, thereby changing the pixel at the pixel position x3 to the luminance value Q3 (= P3 + Q2). . Then, the image processing unit 402 adds the luminance value Qn−1 of the pixel at the pixel position xn−1 to the luminance value Pn of the pixel at the pixel position xn, thereby changing the luminance value Qn (= Pn + Qn) of the pixel at the pixel position xn. Change to -1).

また、輝度値に対する変更量の演算方法は加算に限らず、減算、乗算、除算としてもよい。なお、輝度値の変更により、変更後の輝度値が飽和する場合がある。ここで、飽和とは、例えば、輝度値を256階調で表す場合、輝度値が0又は255等の極値や極値近傍に達した状態を意味する。飽和状態の輝度値が複数の画素に連続して設定されると、その部分で白とびや黒潰れが発生し、繰り返しパターン領域Raが本来有していた図柄等の画像の特性が失われる。そこで、画像処理部402は、上記した輝度値の変更に際し、飽和状態の輝度値の連続設定を防ぐための制御を行う。   Further, the calculation method of the change amount with respect to the luminance value is not limited to addition, and may be subtraction, multiplication, or division. Note that the luminance value after the change may be saturated due to the change in the luminance value. Here, for example, when the luminance value is expressed by 256 gradations, the saturation means a state in which the luminance value reaches an extreme value such as 0 or 255 or near the extreme value. When the luminance value in the saturated state is set continuously for a plurality of pixels, overexposure or blackout occurs at that portion, and the characteristics of the image such as the pattern originally possessed by the repeated pattern area Ra are lost. Therefore, the image processing unit 402 performs control to prevent continuous setting of the saturated luminance value when the luminance value is changed.

例えば、画像処理部402は、輝度値の変更により当該輝度値が飽和した場合、輝度値の変更に係る演算子を反対の意味の演算子に切り替える。具体的には、画像処理部402は、変更量を加算する演算方法により輝度値が飽和状態(上限値)に達した場合、変更量を減算する演算方法に切り替える。また、画像処理部402は、変更量を減算する演算方法により輝度値が飽和状態(下限値)に達した場合、変更量を加算する演算方法に切り替える。これにより、変更後の輝度値が飽和してしまうことを防ぐことができるため、繰り返しパターン領域Raが有する本来の画像特性を保持することができる。   For example, when the luminance value is saturated due to the change of the luminance value, the image processing unit 402 switches the operator related to the change of the luminance value to the operator having the opposite meaning. Specifically, when the luminance value reaches a saturation state (upper limit value) by the calculation method for adding the change amount, the image processing unit 402 switches to the calculation method for subtracting the change amount. In addition, when the luminance value reaches a saturation state (lower limit value) by the calculation method for subtracting the change amount, the image processing unit 402 switches to the calculation method for adding the change amount. As a result, it is possible to prevent the luminance value after the change from being saturated, so that the original image characteristics of the repeated pattern region Ra can be maintained.

また、他の制御方法として、画像処理部402は、繰り返しパターン領域の探索方向の横幅と、当該繰り返しパターン領域内の各画素の輝度値の分布等とに基づいて、変更後の輝度値が飽和しないよう変更方法(変更量や演算方法)を決定してもよい。これにより、変更後の輝度値が飽和してしまうことを防ぐことができるため、繰り返しパターン領域Raが有する本来の画像特性を保持することができる。   As another control method, the image processing unit 402 saturates the changed luminance value based on the horizontal width in the search direction of the repeated pattern region, the distribution of the luminance value of each pixel in the repeated pattern region, and the like. The change method (change amount or calculation method) may be determined so as not to be performed. As a result, it is possible to prevent the luminance value after the change from being saturated, so that the original image characteristics of the repeated pattern region Ra can be maintained.

図11に戻り、加工処理部400bは、変換部200から受信した比較画像Ibと、パターン検出部300bから受信した検出フラグとに基づき、比較画像Ibに含まれた繰り返しパターン領域の画素値(輝度値)を変更するための処理を実行する。具体的には、加工処理部400bは、加工処理部400aと同様の変更方法により、比較画像Ibの繰り返しパターン領域を構成する画素の輝度値を、当該画素の画素位置に応じて定まる変更量に基づき変更する。そして、加工処理部400bは、繰り返しパターン領域の輝度値を変更した比較画像Ibを、加工済比較画像Ibとして視差値演算処理部500に出力する。なお、基準画像Iaに繰り返しパターン領域が含まれない場合には、当該基準画像Iaを加工済基準画像Iaとして視差値演算処理部500に出力する。加工処理部400bは、図10に示すFPGA31によって実現される。   Returning to FIG. 11, the processing unit 400b, based on the comparison image Ib received from the conversion unit 200 and the detection flag received from the pattern detection unit 300b, the pixel value (luminance of the repetitive pattern region included in the comparison image Ib. Value) is executed. Specifically, the processing unit 400b changes the luminance value of the pixels constituting the repetitive pattern region of the comparison image Ib to a change amount determined according to the pixel position of the pixel by the same changing method as the processing unit 400a. Change based on. Then, the processing unit 400b outputs the comparison image Ib in which the luminance value of the repeated pattern region is changed to the parallax value calculation processing unit 500 as the processed comparison image Ib. If the reference image Ia does not include a repeated pattern region, the reference image Ia is output to the parallax value calculation processing unit 500 as the processed reference image Ia. The processing unit 400b is realized by the FPGA 31 illustrated in FIG.

上記した加工処理部400a、400bの処理により、基準画像Ia及び比較画像Ibの繰り返しパターン領域を構成する画素の輝度値は、当該画素の画素位置に応じて定まる変更量に基づき変更される。そのため、例えば、図4(a)、(b)で示した基準画像Ia、比較画像Ibに対し、加工処理部400a、400bが処理すると、図15(a)、(b)に示すように、ビル窓部分の繰り返しパターン領域Ra、Rb内の各画素は、エピポーラ線方向(図面横方向)の画素位置に応じてその輝度値が変更される。   Through the processing of the processing units 400a and 400b described above, the luminance values of the pixels constituting the repetitive pattern region of the reference image Ia and the comparison image Ib are changed based on the amount of change determined according to the pixel position of the pixel. Therefore, for example, when the processing units 400a and 400b process the reference image Ia and the comparative image Ib shown in FIGS. 4A and 4B, as shown in FIGS. 15A and 15B, The luminance value of each pixel in the repeated pattern areas Ra and Rb of the building window portion is changed according to the pixel position in the epipolar line direction (the horizontal direction in the drawing).

また、図6で基準領域pbと類似関係にあった探索位置4、7、…、nの候補領域qbに着目すると、図16に示すように、探索位置4、7、…、nの各々において、候補領域qbの輝度値が相違する。そのため、マッチング処理では、基準領域pbと同様の輝度値を有する探索位置4の候補領域qbの類似度が高くなる。また、他の探索位置7、…、nの候補領域qbについては、基準領域pbの輝度値と異なるため非類似度が高くなる。その結果、マッチング処理により得られるコスト値Cのグラフは、図17に示すように、シフト量(探索位置)d=4が最小値となるため、コスト値Cの最小値を特定することができる。これにより、このコスト値Cの最小値から、最も確からしい適切な視差値を求めることができる。   Further, when attention is paid to the candidate regions qb of the search positions 4, 7,..., N that are similar to the reference region pb in FIG. 6, as shown in FIG. 16, at each of the search positions 4, 7,. The brightness values of the candidate areas qb are different. Therefore, in the matching process, the similarity of the candidate region qb at the search position 4 having the same luminance value as that of the reference region pb is increased. Further, since the candidate areas qb of the other search positions 7,..., N are different from the luminance value of the reference area pb, the dissimilarity is increased. As a result, in the graph of the cost value C obtained by the matching process, as shown in FIG. 17, the shift amount (search position) d = 4 becomes the minimum value, so that the minimum value of the cost value C can be specified. . Thereby, the most probable appropriate parallax value can be obtained from the minimum value of the cost value C.

なお、加工処理部400a、400bは、基準画像Ia及び比較画像Ibで検出された繰り返しパターン領域毎に、上述した輝度値の変更処理を行うものとする。   Note that the processing units 400a and 400b perform the luminance value changing process described above for each repeated pattern region detected in the reference image Ia and the comparison image Ib.

図11に戻り、視差値演算処理部500は、加工処理部400a、400bから受信した加工済基準画像Ia及び加工済比較画像Ibに基づいて、加工済基準画像Iaの各画素についての視差値を導出し、当該各画素に視差値を対応させた視差画像を生成する機能部である。視差値演算処理部500は、生成した視差画像を、認識処理部5に出力する。   Returning to FIG. 11, the parallax value calculation processing unit 500 calculates the parallax value for each pixel of the processed reference image Ia based on the processed reference image Ia and the processed comparison image Ib received from the processing units 400a and 400b. A functional unit that derives and generates a parallax image in which a parallax value is associated with each pixel. The parallax value calculation processing unit 500 outputs the generated parallax image to the recognition processing unit 5.

図18に示すように、視差値演算処理部500は、コスト算出部501(算出手段)と、導出部502(導出手段)と、を有する。   As illustrated in FIG. 18, the parallax value calculation processing unit 500 includes a cost calculation unit 501 (calculation unit) and a derivation unit 502 (derivation unit).

コスト算出部501は、図2で説明したマッチング処理により、加工済基準画像Ia(第1画像)の基準領域pbと、加工済比較画像Ib(第2画像)において基準領域pbに対応する領域の候補となる複数の候補領域qbそれぞれとの一致度をコスト値Cとして算出する。具体的には、コスト算出部501は、加工済基準画像Iaの基準画素pを中心とする所定領域である基準領域pbと、加工済比較画像Ibの候補画素qを中心とする候補領域qbとの非類似度をコスト値Cとして算出する。なお、候補領域qbの大きさは、基準領域pbと同一であるとする。   The cost calculation unit 501 performs the matching process described with reference to FIG. 2 on the reference region pb of the processed reference image Ia (first image) and the region corresponding to the reference region pb in the processed comparison image Ib (second image). The degree of coincidence with each of a plurality of candidate regions qb as candidates is calculated as a cost value C. Specifically, the cost calculation unit 501 includes a reference region pb that is a predetermined region centered on the reference pixel p of the processed reference image Ia, and a candidate region qb centered on the candidate pixel q of the processed comparison image Ib. Is calculated as a cost value C. Note that the size of the candidate region qb is the same as that of the reference region pb.

導出部502は、コスト算出部501により算出されたコスト値Cの最小値に対応するシフト量dを、コスト値Cの算出の対象となった加工済基準画像Iaの画素についての視差値dpとして導出する。   The derivation unit 502 uses the shift amount d corresponding to the minimum value of the cost value C calculated by the cost calculation unit 501 as the parallax value dp for the pixel of the processed reference image Ia for which the cost value C is calculated. To derive.

また、導出部502は、導出した視差値dpに基づいて、加工済基準画像Iaの各画素の輝度値を、その画素に対応する視差値dpで表した画像である視差画像を生成し、認識処理部5に出力する。なお、本実施形態では、導出部502は視差画像を出力する構成としたが、これに限らず、視差値dpのみ、或いは視差値dpを画像上の位置と対応付けたものを出力する構成としてもよい。   Further, the deriving unit 502 generates and recognizes a parallax image that is an image in which the luminance value of each pixel of the processed reference image Ia is represented by the parallax value dp corresponding to the pixel based on the derived parallax value dp. Output to the processing unit 5. In the present embodiment, the derivation unit 502 is configured to output a parallax image. However, the configuration is not limited thereto, and only the parallax value dp or a configuration in which the parallax value dp is associated with a position on the image is output. Also good.

図18に示すコスト算出部501及び導出部502は、それぞれ図10に示すFPGA31によって実現される。なお、コスト算出部501及び導出部502の一部又は全部は、ハードウェア回路であるFPGA31ではなく、ROM33に記憶されているプログラムがCPU32によって実行されることによって実現されるものとしてもよい。   The cost calculation unit 501 and the derivation unit 502 shown in FIG. 18 are realized by the FPGA 31 shown in FIG. Note that part or all of the cost calculation unit 501 and the derivation unit 502 may be realized by the CPU 32 executing a program stored in the ROM 33 instead of the FPGA 31 that is a hardware circuit.

また、図18に示す視差値演算処理部500のコスト算出部501及び導出部502は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図18で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図18の1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。   Moreover, the cost calculation part 501 and the derivation | leading-out part 502 of the parallax value calculation process part 500 shown in FIG. 18 show the function notionally, and are not limited to such a structure. For example, a plurality of functional units illustrated as independent functional units in FIG. 18 may be configured as one functional unit. On the other hand, the function of one functional unit in FIG. 18 may be divided into a plurality of functions and configured as a plurality of functional units.

図11に戻り、認識処理部5は、視差値導出部3から出力された視差画像に基づいて、撮像部10a、10bから物体Eまでの距離を測定する等の各種認識処理を行い、認識処理の結果を示す情報である認識情報を、車両制御装置6に出力する。   Returning to FIG. 11, the recognition processing unit 5 performs various recognition processes such as measuring the distance from the imaging units 10 a and 10 b to the object E based on the parallax images output from the parallax value deriving unit 3, and performs the recognition process. The recognition information, which is the information indicating the result, is output to the vehicle control device 6.

なお、図11に示す視差値導出部3の画像取得部100、変換部200、パターン検出部300a、300b、加工処理部400a、400b及び視差値演算処理部500は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図11に示す視差値導出部3において独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図11に示す視差値導出部3において1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。また、視差値導出部3から視差値dp、或いは視差値dpを画像上の位置と対応付けたものが出力される構成の場合、認識処理部5は、これらの情報を用いて上記した各種認識処理を行うものとする。   The image acquisition unit 100, the conversion unit 200, the pattern detection units 300a and 300b, the processing processing units 400a and 400b, and the parallax value calculation processing unit 500 of the parallax value deriving unit 3 illustrated in FIG. However, the present invention is not limited to such a configuration. For example, a plurality of functional units illustrated as independent functional units in the parallax value deriving unit 3 illustrated in FIG. 11 may be configured as one functional unit. On the other hand, in the parallax value deriving unit 3 shown in FIG. In the case where the parallax value dp or the parallax value dp associated with the position on the image is output from the parallax value deriving unit 3, the recognition processing unit 5 uses the information to perform various recognitions described above. Processing shall be performed.

(視差値導出部のブロックマッチング処理)
以下、視差値導出部3の動作について説明する。図19は、視差値導出部3のブロックマッチング処理の動作の一例を示すフローチャートである。図19を参照しながら、物体認識装置1の視差値導出部3のブロックマッチング処理の動作の流れについて説明する。
(Block matching process of parallax value deriving unit)
Hereinafter, the operation of the parallax value deriving unit 3 will be described. FIG. 19 is a flowchart illustrating an example of the operation of the block matching process of the disparity value deriving unit 3. An operation flow of the block matching process of the parallax value deriving unit 3 of the object recognition apparatus 1 will be described with reference to FIG.

<ステップS1−1>
視差値導出部3の画像取得部100は、右のカメラ(撮像部10a)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。これによって、後段の画像処理の対象となる画像信号が得られることになる。そして、ステップS2−1へ移行する。
<Step S1-1>
The image acquisition unit 100 of the parallax value deriving unit 3 images a front subject with the right camera (imaging unit 10a), generates an analog image signal, and obtains a luminance image that is an image based on the image signal. . As a result, an image signal to be subjected to subsequent image processing is obtained. And it transfers to step S2-1.

<ステップS1−2>
視差値導出部3の画像取得部100は、左のカメラ(撮像部10b)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。これによって、後段の画像処理の対象となる画像信号が得られることになる。そして、ステップS2−2へ移行する。
<Step S1-2>
The image acquisition unit 100 of the parallax value deriving unit 3 captures a front subject with the left camera (imaging unit 10b), generates an analog image signal, and obtains a luminance image that is an image based on the image signal. . As a result, an image signal to be subjected to subsequent image processing is obtained. Then, the process proceeds to step S2-2.

<ステップS2−1>
視差値導出部3の変換部200は、撮像部10bにより撮像されて得られたアナログの画像信号に対して、ノイズの除去、歪み補正等を行い、デジタル形式の画像データに変換する。このように、デジタル形式の画像データに変換することによって、その画像データに基づく画像に対して画素ごとの画像処理が可能となる。そして、ステップS3−1へ移行する。
<Step S2-1>
The conversion unit 200 of the parallax value deriving unit 3 performs noise removal, distortion correction, and the like on the analog image signal obtained by imaging by the imaging unit 10b, and converts the analog image signal into digital image data. In this way, by converting the image data into digital image data, image processing for each pixel can be performed on an image based on the image data. And it transfers to step S3-1.

<ステップS2−2>
視差値導出部3の変換部200は、撮像部10aにより撮像されて得られたアナログの画像信号に対して、ノイズの除去、歪み補正等を行い、デジタル形式の画像データに変換する。このように、デジタル形式の画像データに変換することによって、その画像データに基づく画像に対して画素ごとの画像処理が可能となる。そして、ステップS3−2へ移行する。
<Step S2-2>
The conversion unit 200 of the parallax value deriving unit 3 performs noise removal, distortion correction, and the like on the analog image signal obtained by imaging by the imaging unit 10a, and converts the analog image signal into digital image data. In this way, by converting the image data into digital image data, image processing for each pixel can be performed on an image based on the image data. Then, the process proceeds to step S3-2.

<ステップS3−1>
視差値導出部3の変換部200は、ステップS2−1において変換したデジタル形式の画像データに基づく画像をブロックマッチング処理における基準画像Iaとして出力する。これによって、ブロックマッチング処理において視差値を求めるための基準となる画像を得る。そして、ステップS4−1へ移行する。
<Step S3-1>
The conversion unit 200 of the parallax value deriving unit 3 outputs an image based on the digital image data converted in step S2-1 as the reference image Ia in the block matching process. Thus, an image serving as a reference for obtaining a parallax value in the block matching process is obtained. Then, the process proceeds to step S4-1.

<ステップS3−2>
視差値導出部3の変換部200は、ステップS2−2において変換したデジタル形式の画像データに基づく画像をブロックマッチング処理における比較画像Ibとして出力する。これによって、ブロックマッチング処理において視差値を求めるための比較対象となる画像を得る。そして、ステップS4−2へ移行する。
<Step S3-2>
The conversion unit 200 of the parallax value deriving unit 3 outputs an image based on the digital image data converted in step S2-2 as the comparison image Ib in the block matching process. Thus, an image to be compared for obtaining a parallax value in the block matching process is obtained. Then, the process proceeds to step S4-2.

<ステップS4−1>
視差値導出部3のパターン検出部300aは、ステップS3−1で得られた基準画像Iaから繰り返しパターン領域を検出する。これによって、パターン検出部300aは、基準画像Iaからミスマッチングの原因となる領域を特定する。そして、ステップS5−1へ移行する。
<Step S4-1>
The pattern detection unit 300a of the parallax value deriving unit 3 repeatedly detects a pattern area from the reference image Ia obtained in step S3-1. As a result, the pattern detection unit 300a identifies an area causing mismatching from the reference image Ia. Then, the process proceeds to step S5-1.

<ステップS4−2>
視差値導出部3のパターン検出部300bは、ステップS3−2で得られた比較画像Ibから繰り返しパターン領域を検出する。これによって、パターン検出部300bは、比較画像Ibからミスマッチングの原因となる領域を特定する。そして、ステップS5−2へ移行する。
<Step S4-2>
The pattern detection unit 300b of the parallax value deriving unit 3 repeatedly detects a pattern area from the comparison image Ib obtained in step S3-2. As a result, the pattern detection unit 300b identifies a region that causes mismatching from the comparison image Ib. Then, the process proceeds to step S5-2.

<ステップS5−1>
視差値導出部3の加工処理部400aは、ステップS4−1で検出された繰り返しパターン領域を構成する画素の輝度値を、当該画素の画素位置に応じて変更する。これによって、繰り返しパターン領域を構成する画素の輝度値は、その画素位置に応じた変更量によって変更される。そして、ステップS6へ移行する。
<Step S5-1>
The processing unit 400a of the parallax value deriving unit 3 changes the luminance value of the pixel constituting the repetitive pattern area detected in step S4-1 according to the pixel position of the pixel. Thereby, the luminance value of the pixel constituting the repetitive pattern region is changed by the amount of change corresponding to the pixel position. Then, the process proceeds to step S6.

<ステップS5−2>
視差値導出部3の加工処理部400bは、ステップS4−2で検出された繰り返しパターン領域を構成する画素の輝度値を、当該画素の画素位置に応じて変更する。これによって、繰り返しパターン領域を構成する画素の輝度値は、その画素位置に応じた変更量によって変更される。そして、ステップS6へ移行する。
<Step S5-2>
The processing unit 400b of the parallax value deriving unit 3 changes the luminance value of the pixel constituting the repetitive pattern area detected in step S4-2 according to the pixel position of the pixel. Thereby, the luminance value of the pixel constituting the repetitive pattern region is changed by the amount of change corresponding to the pixel position. Then, the process proceeds to step S6.

<ステップS6>
視差値導出部3の視差値演算処理部500のコスト算出部501は、ブロックマッチング処理により、加工済基準画像Iaの基準領域pbと、加工済比較画像Ibの候補領域qbとの非類似度をコスト値Cとして算出する。そして、ステップS7へ進む。
<Step S6>
The cost calculation unit 501 of the parallax value calculation processing unit 500 of the parallax value deriving unit 3 determines the dissimilarity between the reference region pb of the processed reference image Ia and the candidate region qb of the processed comparison image Ib by block matching processing. Calculated as a cost value C. Then, the process proceeds to step S7.

<ステップS7>
視差値導出部3の視差値演算処理部500の導出部502は、コスト算出部501により算出されたコスト値Cの最小値に対応するシフト量dを、コスト値Cの算出の対象となった加工済基準画像Iaの画素についての視差値dpとして導出する。そして、視差値導出部3の視差値演算処理部500の導出部502は、導出した視差値dpに基づいて、加工済基準画像Iaの各画素の輝度値を、その画素に対応する視差値dpで表した画像である視差画像を生成する。導出部502は、生成した視差画像を、認識処理部5に出力する。
<Step S7>
The deriving unit 502 of the parallax value calculation processing unit 500 of the parallax value deriving unit 3 uses the shift amount d corresponding to the minimum value of the cost value C calculated by the cost calculation unit 501 as the target of calculating the cost value C. Derived as a parallax value dp for the pixel of the processed reference image Ia. Then, the deriving unit 502 of the parallax value calculation processing unit 500 of the parallax value deriving unit 3 calculates the luminance value of each pixel of the processed reference image Ia based on the derived parallax value dp, and the parallax value dp corresponding to the pixel. A parallax image that is an image represented by The deriving unit 502 outputs the generated parallax image to the recognition processing unit 5.

以上のように、本実施形態によれば、視差値導出部3の加工処理部400a、400bは、基準画像Ia(第1画像)及び比較画像Ib(第2画像)から検出された繰り返しパターン領域を構成する画素の画素値(輝度値)を、当該画素の画素位置に応じて定まる変更量に基づき変更する。そして、視差値導出部3の視差値演算処理部500は、輝度値が変更された加工済基準画像Iaと加工済比較画像Ibからコスト値及び視差値を導出し、当該視差値に基づいて視差画像を生成する。これにより、基準画像Ia及び比較画像Ibの画像中に繰り返しパターンが存在する場合であっても、コスト値Cの最小値を特定することができるため、適切な視差値を求めることができる。また、適切な視差値を用いて視差画像を生成することができるため、「誤踏み」を防止することができる。   As described above, according to the present embodiment, the processing units 400a and 400b of the parallax value deriving unit 3 are the repetitive pattern regions detected from the reference image Ia (first image) and the comparison image Ib (second image). The pixel value (luminance value) of the pixels constituting the pixel is changed based on the amount of change determined according to the pixel position of the pixel. Then, the parallax value calculation processing unit 500 of the parallax value deriving unit 3 derives the cost value and the parallax value from the processed reference image Ia and the processed comparison image Ib whose luminance values have been changed, and based on the parallax value, the parallax value is calculated. Generate an image. Thereby, even if there is a repeated pattern in the images of the reference image Ia and the comparison image Ib, the minimum value of the cost value C can be specified, so that an appropriate parallax value can be obtained. Moreover, since a parallax image can be generated using an appropriate parallax value, “false steps” can be prevented.

以上、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、追加等を行うことができる。また、上記実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment of this invention was described, the said embodiment was shown as an example and is not intending limiting the range of invention. The above embodiment can be implemented in various other forms, and various omissions, replacements, changes, additions, and the like can be made without departing from the scope of the invention. Moreover, the said embodiment and its deformation | transformation are included in the range of the invention, the summary, and the invention described in the claim, and its equal range.

例えば、上記実施形態では、車両70としての自動車に搭載される物体認識装置1について説明したが、これに限定されるものではない。例えば、他の車両の一例としてバイク、自転車、車椅子又は農業用の耕運機等の車両に搭載されるものとしてもよい。また、移動体の一例としての車両だけでなく、ロボット等の移動体であってもよい。   For example, in the above-described embodiment, the object recognition device 1 mounted on an automobile as the vehicle 70 has been described. However, the present invention is not limited to this. For example, it is good also as what is mounted in vehicles, such as a motorcycle, a bicycle, a wheelchair, or an agricultural cultivator, as an example of other vehicles. In addition to a vehicle as an example of a moving body, a moving body such as a robot may be used.

さらに、ロボットは、移動体だけでなく、FA(Factory Automation)において固定設置される工業用ロボット等の装置であってもよい。また、固定設置される装置としては、ロボットだけでなく、防犯用の監視カメラ等であってもよい。   Furthermore, the robot may be an apparatus such as an industrial robot that is fixedly installed in an FA (Factory Automation) as well as a moving body. Further, the device to be fixedly installed may be not only a robot but also a surveillance camera for security.

また、上記実施形態では、ステレオマッチング処理として、ブロックマッチング処理を例として説明したが、これに限定されるものではなく、SGM(Semi−Global Matching)法を用いた処理であってもよい。   In the above embodiment, the block matching process is described as an example of the stereo matching process. However, the present invention is not limited to this, and a process using an SGM (Semi-Global Matching) method may be used.

なお、上記実施形態において、物体認識装置1のパターン検出部300a、300b、加工処理部400a、400b、及び視差値演算処理部500の少なくとも何れかがプログラムの実行によって実現される場合、そのプログラムは、ROM等に予め組み込まれて提供される。   In the above embodiment, when at least one of the pattern detection units 300a and 300b, the processing processing units 400a and 400b, and the parallax value calculation processing unit 500 of the object recognition apparatus 1 is realized by executing a program, the program is Provided in advance in a ROM or the like.

また、上述の実施形態に係る物体認識装置1で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。また、上述の実施形態の物体認識装置1で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の実施形態の物体認識装置1で実行されるプログラムを、インターネット等のネットワーク経由で提供又は配布するように構成してもよい。   The program executed by the object recognition apparatus 1 according to the above-described embodiment is a file in an installable format or an executable format and is a computer such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD. You may comprise so that it may record and provide on a readable recording medium. The program executed by the object recognition apparatus 1 of the above-described embodiment may be configured to be stored by being stored on a computer connected to a network such as the Internet and downloaded via the network. Moreover, you may comprise so that the program performed with the object recognition apparatus 1 of the above-mentioned embodiment may be provided or distributed via networks, such as the internet.

また、上述の実施形態の物体認識装置1で実行されるプログラムは、上述した各機能部の何れかを含むモジュール構成となっている。実際のハードウェアとしては、CPU32がROM33からプログラムを読み出して実行することにより、上述の各機能部が主記憶装置(RAM34等)上にロードされて生成される。   The program executed by the object recognition device 1 of the above-described embodiment has a module configuration including any of the above-described functional units. As actual hardware, the CPU 32 reads out and executes a program from the ROM 33, whereby the above-described functional units are loaded and generated on the main storage device (RAM 34 or the like).

1 物体認識装置
2 本体部
3 視差値導出部
4 通信線
5 認識処理部
6 車両制御装置
7 ステアリングホイール
8 ブレーキペダル
10a、10b 撮像部
11a、11b 撮像レンズ
12a、12b 絞り
13a、13b 画像センサ
20a、20b 信号変換部
21a、21b CDS
22a、22b AGC
23a、23b ADC
24a、24b フレームメモリ
30 画像処理部
31 FPGA
32 CPU
33 ROM
34 RAM
35 I/F
39 バスライン
51 FPGA
52 CPU
53 ROM
54 RAM
55 I/F
58 CANI/F
59 バスライン
60 機器制御システム
70 車両
100 画像取得部
200 変換部
300a、300b パターン検出部
400a、400b 加工処理部
500 視差値演算処理部
501 コスト算出部
502 導出部
DESCRIPTION OF SYMBOLS 1 Object recognition apparatus 2 Main body part 3 Parallax value derivation part 4 Communication line 5 Recognition processing part 6 Vehicle control apparatus 7 Steering wheel 8 Brake pedal 10a, 10b Imaging part 11a, 11b Imaging lens 12a, 12b Aperture 13a, 13b Image sensor 20a, 20b Signal converter 21a, 21b CDS
22a, 22b AGC
23a, 23b ADC
24a, 24b Frame memory 30 Image processing unit 31 FPGA
32 CPU
33 ROM
34 RAM
35 I / F
39 Bus line 51 FPGA
52 CPU
53 ROM
54 RAM
55 I / F
58 CANI / F
59 Bus Line 60 Device Control System 70 Vehicle 100 Image Acquisition Unit 200 Conversion Unit 300a, 300b Pattern Detection Unit 400a, 400b Processing Processing Unit 500 Parallax Value Calculation Processing Unit 501 Cost Calculation Unit 502 Derivation Unit

特許第5409237号公報Japanese Patent No. 5409237 特許第4856611号公報Japanese Patent No. 4856611

Claims (9)

第1撮像手段が被写体を撮像することで得られた第1画像と、前記第1撮像手段とは異なる位置に設置された第2撮像手段が前記被写体を撮像することで得られた第2画像とを取得する取得手段と、
前記第1画像及び前記第2画像から、同様の模様が繰り返し表れる繰り返しパターン領域をそれぞれ検出する検出手段と、
前記第1画像及び前記第2画像の前記繰り返しパターン領域を構成する画素の画素値を、当該画素の画素位置に応じて定まる変更量に基づき変更する変更手段と、
前記変更手段で変更された前記第1画像の基準領域と、前記変更手段で変更された前記第2画像において前記基準領域に対応する領域の候補となる複数の候補領域それぞれとの一致度を算出する算出手段と、
前記一致度に基づいて、前記基準領域と前記候補領域との視差値を導出する導出手段と、
を備える視差値導出装置。
A first image obtained by imaging the subject by the first imaging means, and a second image obtained by imaging the subject by the second imaging means installed at a position different from the first imaging means. And an acquisition means for acquiring
Detecting means for detecting each of repeated pattern regions in which a similar pattern repeatedly appears from the first image and the second image;
Changing means for changing a pixel value of a pixel constituting the repetitive pattern region of the first image and the second image based on a change amount determined according to a pixel position of the pixel;
The degree of coincidence between the reference area of the first image changed by the changing means and each of a plurality of candidate areas that are candidates for areas corresponding to the reference area in the second image changed by the changing means Calculating means for
Derivation means for deriving a parallax value between the reference region and the candidate region based on the degree of coincidence;
A parallax value deriving device comprising:
前記変更手段は、前記繰り返しパターン領域を構成する画素の画素値を、前記第1画像と前記第2画像とのエピポーラ線方向の画素位置に応じて変更する請求項1に記載の視差値導出装置。   2. The parallax value deriving device according to claim 1, wherein the changing unit changes a pixel value of a pixel constituting the repetitive pattern region in accordance with a pixel position in an epipolar line direction between the first image and the second image. . 前記変更手段は、前記繰り返しパターン領域において、前記エピポーラ線方向の一端を基点とし、当該基点からの離間距離に応じて画素値の変更量を増加させる請求項2に記載の視差値導出装置。   The parallax value deriving device according to claim 2, wherein the changing unit uses the one end in the epipolar line direction as a base point in the repetitive pattern region, and increases a change amount of the pixel value according to a separation distance from the base point. 前記変更手段は、前記繰り返しパターン領域において、前記エピポーラ線方向の一端を基点とし、当該基点からの離間距離に応じて画素値の変更量を減少させる請求項2に記載の視差値導出装置。   The parallax value deriving device according to claim 2, wherein the changing unit uses the one end in the epipolar line direction as a base point in the repetitive pattern region, and reduces the change amount of the pixel value according to a separation distance from the base point. 前記変更手段は、前記繰り返しパターン領域において、前記エピポーラ線方向の一端から他端に向かって、直前の画素の画素値を次の画素の画素値に順次加算する請求項2に記載の視差値導出装置。   The parallax value derivation according to claim 2, wherein the changing unit sequentially adds the pixel value of the immediately preceding pixel to the pixel value of the next pixel from one end to the other end in the epipolar line direction in the repetitive pattern region. apparatus. 前記変更手段は、前記変更により画素値が飽和した場合、当該画素値の変更に係る演算子を反対の意味の演算子に切り替える請求項1〜5の何れか一項に記載の視差値導出装置。   The parallax value deriving device according to claim 1, wherein when the pixel value is saturated due to the change, the changing unit switches an operator related to the change of the pixel value to an operator having an opposite meaning. . 前記変更手段は、前記繰り返しパターン領域の前記エピポーラ線方向の横幅と、当該繰り返しパターン領域内の各画素の画素値とに基づいて、変更方法を決定する請求項1〜5の何れか一項に記載の視差値導出装置。   The said change means determines the change method based on the horizontal width of the said epipolar line direction of the said repeating pattern area | region, and the pixel value of each pixel in the said repeating pattern area | region. The parallax value deriving device described. 第1撮像手段が被写体を撮像することで得られた第1画像と、前記第1撮像手段とは異なる位置に設置された第2撮像手段が前記被写体を撮像することで得られた第2画像とを取得する取得ステップと、
前記第1画像及び前記第2画像から、同様の模様が繰り返し表れる繰り返しパターン領域をそれぞれ検出する検出ステップと、
前記第1画像及び前記第2画像の前記繰り返しパターン領域を構成する画素の画素値を、当該画素の画素位置に応じて定まる変更量に基づき変更する変更ステップと、
前記変更ステップで変更された前記第1画像の基準領域と、前記変更ステップで変更された前記第2画像において前記基準領域に対応する領域の候補となる複数の候補領域との一致度を算出する算出ステップと、
前記一致度に基づいて、前記基準領域と前記候補領域との視差値を導出する導出ステップと、
を有する視差値導出方法。
A first image obtained by imaging the subject by the first imaging means, and a second image obtained by imaging the subject by the second imaging means installed at a position different from the first imaging means. And an acquisition step to acquire
A detection step of detecting a repeated pattern region in which a similar pattern repeatedly appears from the first image and the second image;
A change step of changing a pixel value of a pixel constituting the repetitive pattern region of the first image and the second image based on a change amount determined according to a pixel position of the pixel;
A degree of coincidence between the reference area of the first image changed in the changing step and a plurality of candidate areas that are candidates for areas corresponding to the reference area in the second image changed in the changing step is calculated. A calculation step;
A derivation step for deriving a parallax value between the reference region and the candidate region based on the degree of coincidence;
A method for deriving a disparity value.
コンピュータを、
第1撮像手段が被写体を撮像することで得られた第1画像と、前記第1撮像手段とは異なる位置に設置された第2撮像手段が前記被写体を撮像することで得られた第2画像とを取得する取得手段と、
前記第1画像及び前記第2画像から、同様の模様が繰り返し表れる繰り返しパターン領域をそれぞれ検出する検出手段と、
前記第1画像及び前記第2画像の前記繰り返しパターン領域を構成する画素の画素値を、当該画素の画素位置に応じて定まる変更量に基づき変更する変更手段と、
前記変更手段で変更された前記第1画像の基準領域と、前記変更手段で変更された前記第2画像において前記基準領域に対応する領域の候補となる複数の候補領域それぞれとの一致度を算出する算出手段と、
前記一致度に基づいて、前記基準領域と前記候補領域との視差値を導出する導出手段と、
して機能させるためのプログラム。
Computer
A first image obtained by imaging the subject by the first imaging means, and a second image obtained by imaging the subject by the second imaging means installed at a position different from the first imaging means. And an acquisition means for acquiring
Detecting means for detecting each of repeated pattern regions in which a similar pattern repeatedly appears from the first image and the second image;
Changing means for changing a pixel value of a pixel constituting the repetitive pattern region of the first image and the second image based on a change amount determined according to a pixel position of the pixel;
The degree of coincidence between the reference area of the first image changed by the changing means and each of a plurality of candidate areas that are candidates for areas corresponding to the reference area in the second image changed by the changing means Calculating means for
Derivation means for deriving a parallax value between the reference region and the candidate region based on the degree of coincidence;
Program to make it function.
JP2016002927A 2016-01-08 2016-01-08 Parallax value deriving device, parallax value deriving method and program Expired - Fee Related JP6701738B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016002927A JP6701738B2 (en) 2016-01-08 2016-01-08 Parallax value deriving device, parallax value deriving method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016002927A JP6701738B2 (en) 2016-01-08 2016-01-08 Parallax value deriving device, parallax value deriving method and program

Publications (2)

Publication Number Publication Date
JP2017123122A true JP2017123122A (en) 2017-07-13
JP6701738B2 JP6701738B2 (en) 2020-05-27

Family

ID=59305935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016002927A Expired - Fee Related JP6701738B2 (en) 2016-01-08 2016-01-08 Parallax value deriving device, parallax value deriving method and program

Country Status (1)

Country Link
JP (1) JP6701738B2 (en)

Also Published As

Publication number Publication date
JP6701738B2 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
JP6614247B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6795027B2 (en) Information processing equipment, object recognition equipment, device control systems, moving objects, image processing methods and programs
JP6565188B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6417886B2 (en) Parallax value deriving device, moving body, robot, parallax value production method, and program
JP6561512B2 (en) Parallax value deriving device, moving body, robot, parallax value deriving method, parallax value producing method, and program
JP6597795B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6589313B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6597792B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2017151535A (en) Image processing device, object recognition device, equipment control system, image processing method, and program
JP6516012B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6572696B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6455164B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JPWO2017099199A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6337504B2 (en) Image processing apparatus, moving body, robot, device control method and program
JP2015179499A (en) Parallax value derivation device, apparatus control system, moving body, robot, parallax value derivation method and program
JP6561511B2 (en) Parallax value deriving device, moving body, robot, parallax value production deriving method, parallax value producing method and program
JP6519138B2 (en) PARALLEL VALUE DERIVING DEVICE, MOBILE OBJECT, ROBOT, PARALLEL VALUE PRODUCTION METHOD, AND PROGRAM
JP6701905B2 (en) Detection device, parallax value derivation device, object recognition device, device control system, and program
JP2017167970A (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and program
JP6701738B2 (en) Parallax value deriving device, parallax value deriving method and program
JP2016014610A (en) Camera system, distance measurement method, and program
JP6515547B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE PRODUCTION METHOD, AND PROGRAM
JP6459482B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6442911B2 (en) Parallax value deriving device, moving object, robot, parallax value deriving method, and program
JP2015195019A (en) Disparity deriving apparatus, movable apparatus, robot, method of deriving disparity, method of producing disparity, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200420

R151 Written notification of patent or utility model registration

Ref document number: 6701738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees