JP2016173248A - Parallax value computation device, object recognition device, mobile instrument control system and parallax computation program - Google Patents

Parallax value computation device, object recognition device, mobile instrument control system and parallax computation program Download PDF

Info

Publication number
JP2016173248A
JP2016173248A JP2015052169A JP2015052169A JP2016173248A JP 2016173248 A JP2016173248 A JP 2016173248A JP 2015052169 A JP2015052169 A JP 2015052169A JP 2015052169 A JP2015052169 A JP 2015052169A JP 2016173248 A JP2016173248 A JP 2016173248A
Authority
JP
Japan
Prior art keywords
parallax value
parallax
value
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015052169A
Other languages
Japanese (ja)
Inventor
高橋 祐二
Yuji Takahashi
祐二 高橋
玲子 黒水
Reiko Kuromizu
玲子 黒水
井上 貴之
Takayuki Inoue
貴之 井上
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
渡邊 義一
Giichi Watanabe
義一 渡邊
栄太 渡邊
Eita Watanabe
栄太 渡邊
藤本 英臣
Hideomi Fujimoto
英臣 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015052169A priority Critical patent/JP2016173248A/en
Publication of JP2016173248A publication Critical patent/JP2016173248A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a parallax value computation device that makes a correction by implementing appropriate processing corresponding to a cause of a parallax value error on a parallax value in a unit image area of a correction object, and further to provide an object recognition device, a mobile instrument control system and a parallax computation program.SOLUTION: A parallax image creation unit 132 includes: a parallax value calculation section 132C that calculates a parallax value among a plurality of acquired image data imaged by a plurality of imaging units for imaging the imaging areas for each unit image area; and a reliability determination section 132D. The parallax image creation unit 132 comprises: a reliability determination value change section 132E; a periphery complement processing section 132F; and an interframe complement processing section 132H, as parallax value correction means that corrects the parallax value of the unit image area satisfying at least one parallax value error condition among a plurality of mutually different parallax value error conditions, using correction processing corresponding to the at least one parallax value error condition among a plurality of different correction processing for each of the plurality of parallax value error conditions.SELECTED DRAWING: Figure 1

Description

本発明は、視差値演算装置、物体認識装置、移動体機器制御システム及び視差演算用プログラムに関するものである。   The present invention relates to a parallax value calculation device, an object recognition device, a mobile device control system, and a parallax calculation program.

従来、2つの撮像部で撮像した基準画像と比較画像間における同一地点を撮像する画像部分の位置ズレ量に基づく視差値を単位画像領域ごとに算出した後に、視差値が適切に算出されない単位画像領域の視差値を補正する視差値演算装置が知られている。   Conventionally, a unit image in which a parallax value is not properly calculated after calculating a parallax value for each unit image area based on a positional deviation amount of an image portion that captures the same spot between a reference image captured by two imaging units and a comparison image A parallax value calculation device that corrects a parallax value of a region is known.

例えば、特許文献1には、基準画像内の画像部分と同じ地点を撮像した画像部分を比較画像内から特定するマッチング処理を行い、マッチング処理で特定された比較画像内の画像部分と基準画像内の画像部分との位置ズレ量を視差値として算出するステレオ画像処理装置が開示されている。このステレオ画像処理装置は、単位画像領域ごとの視差値を算出した後、注目する単位画像領域を中心とした3×3の単位画像領域群を抽出し、各単位画像領域のアドレス及び視差値に応じた度数を加算したヒストグラムを作成して、このヒストグラムから抽出した最大度数視差値に応じて、注目した単位画像領域の視差値を補正する多数決フィルタ手段を備えている。   For example, in Patent Document 1, a matching process is performed in which an image part obtained by capturing the same spot as the image part in the reference image is identified from the comparison image, and the image part in the comparison image identified by the matching process is included in the reference image. A stereo image processing apparatus that calculates the amount of positional deviation from the image portion as a parallax value is disclosed. After calculating the parallax value for each unit image area, this stereo image processing apparatus extracts a 3 × 3 unit image area group centered on the unit image area of interest, and sets the address and the parallax value of each unit image area. A majority voting filter means is provided that creates a histogram in which the corresponding frequencies are added and corrects the parallax value of the unit image area of interest in accordance with the maximum frequency parallax value extracted from the histogram.

前記特許文献1に開示のステレオ画像処理装置は、注目する単位画像領域(注目単位画像領域)の周辺に位置する単位画像領域(周辺単位画像領域)の視差値を利用して、当該注目単位画像領域の視差値を補正するという補正方法である。この補正方法によれば、周辺単位画像領域中に正しい視差値が含まれていれば、注目単位画像領域の視差値を適切に補正することが可能である。したがって、撮像部における画像センサの画素欠損や、算出した視差値を記憶するメモリ内のビット状態が放射性粒子等によって変化してしまう1ビットソフトエラーなど、対応する単位画像領域だけに影響を及ぼす不具合によって生じた視差値エラーであれば、適切な補正方法であると言える。   The stereo image processing apparatus disclosed in Patent Document 1 uses the parallax value of a unit image region (peripheral unit image region) located around the unit image region of interest (target unit image region) to generate the target unit image. This is a correction method of correcting the parallax value of the region. According to this correction method, if a correct parallax value is included in the peripheral unit image area, it is possible to appropriately correct the parallax value of the unit image area of interest. Therefore, defects that affect only the corresponding unit image area, such as pixel defects in the image sensor in the imaging unit and 1-bit soft error in which the bit state in the memory that stores the calculated parallax value is changed by radioactive particles, etc. If it is a parallax value error caused by the above, it can be said that this is an appropriate correction method.

しかしながら、視差値が算出されない又は誤った視差値が算出される等の視差値エラーは、このような不具合に起因するものだけでなく、例えば、広範囲にわたる単位画像領域群の視差値エラーに影響を及ぼす不具合に起因するものある。このような不具合に対しては、上述した補正方法では視差値を適切に補正することができないが、別の補正方法であれば、適切に補正することが可能な場合がある。   However, a parallax value error such as a parallax value not being calculated or an incorrect parallax value being calculated is not only caused by such a defect, but also affects, for example, a wide range of unit image area group parallax value errors. There are things that are caused by malfunctions. For such a problem, the parallax value cannot be appropriately corrected by the above-described correction method, but may be appropriately corrected by another correction method.

上述した課題を解決するために、本発明は、撮像領域を撮像する複数の撮像部で撮像した複数の撮像画像データ間における視差値を単位画像領域ごとに算出する視差値算出手段を備えた視差値演算装置において、互いに異なる複数の視差値エラー条件のうちの少なくとも1つの視差値エラー条件を満たす単位画像領域の視差値を、該複数の視差値エラー条件ごとに異なる複数の補正処理のうち該少なくとも1つの視差値エラー条件に対応する補正処理を用いて補正する視差値補正手段を有することを特徴とする。   In order to solve the above-described problem, the present invention provides a disparity including a disparity value calculating unit that calculates a disparity value between a plurality of captured image data captured by a plurality of image capturing units that capture an image capturing area for each unit image region. In the value calculation device, the disparity value of the unit image region that satisfies at least one disparity value error condition among the plurality of disparity value error conditions that are different from each other is calculated from the plurality of correction processes that differ for each of the plurality of disparity value error conditions. It is characterized by having a parallax value correcting means for correcting using a correction process corresponding to at least one parallax value error condition.

本発明によれば、補正対象となる単位画像領域の視差値について、その視差値エラーの原因に対応した適切な補正処理により補正を行うことが可能となるという優れた効果が奏される。   According to the present invention, there is an excellent effect that the parallax value of the unit image area to be corrected can be corrected by an appropriate correction process corresponding to the cause of the parallax value error.

実施形態に係る車載機器制御システムおける視差画像生成部内の機能ブロック図である。It is a functional block diagram in the parallax image generation part in the vehicle equipment control system which concerns on embodiment. 同車載機器制御システムの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the same vehicle equipment control system. 同車載機器制御システムにおける撮像ユニット及び画像解析ユニットの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the imaging unit and image analysis unit in the same vehicle equipment control system. (a)及び(b)は、同撮像ユニットにおける2つの撮像部でそれぞれ撮像した撮像画像の一例をそれぞれ示す説明図である。(A) And (b) is explanatory drawing which each shows an example of the captured image each imaged with the two imaging parts in the imaging unit. 一般的な測距原理を示す説明図である。It is explanatory drawing which shows the general ranging principle. 実施形態の物体認識処理を説明するための処理ブロック図である。It is a process block diagram for demonstrating the object recognition process of embodiment. (a)は視差画像の視差値分布の一例を示す説明図である。(b)は、同(a)の視差画像の行ごとの視差値頻度分布を示す行視差分布マップ(Vマップ)を示す説明図である。(A) is explanatory drawing which shows an example of the parallax value distribution of a parallax image. (B) is explanatory drawing which shows the row parallax distribution map (V map) which shows the parallax value frequency distribution for every row | line | column of the parallax image of the same (a). 対象画素Eを中心とした3画素×3画素内の8つの周辺画素を示す説明図である。It is explanatory drawing which shows eight surrounding pixels in 3 pixels x 3 pixels centering on the object pixel E. FIG.

以下、本発明に係る視差値演算装置を、移動体である自動車に搭載されている車載機器(移動体搭載機器)の制御システムにおける物体認識装置に適用した一実施形態について説明する。
図2は、本実施形態に係る移動体機器制御システムとしての車載機器制御システムの概略構成を示す模式図である。
本車載機器制御システムは、自動車である自車両100に搭載された撮像手段としての撮像ユニット101で撮像した自車両進行方向前方領域(撮像領域)の撮像画像データから、自車両前方に存在する物体を認識し、その認識結果を利用して各種車載機器の制御を行うものである。
Hereinafter, an embodiment in which a parallax value calculation device according to the present invention is applied to an object recognition device in a control system of an in-vehicle device (mobile device mounted) mounted on an automobile that is a moving body will be described.
FIG. 2 is a schematic diagram showing a schematic configuration of an in-vehicle device control system as a mobile device control system according to the present embodiment.
The vehicle-mounted device control system is configured to detect an object existing in front of the host vehicle from captured image data of a front region (imaging region) in the traveling direction of the host vehicle captured by the imaging unit 101 serving as an imaging unit mounted on the host vehicle 100 that is an automobile. And various in-vehicle devices are controlled using the recognition result.

本実施形態の車載機器制御システムには、走行する自車両100の進行方向前方領域を撮像領域として撮像する撮像ユニット101が設けられている。この撮像ユニット101は、例えば、自車両100のフロントガラス105のルームミラー付近に設置される。撮像ユニット101の撮像によって得られる撮像画像データを含む各種データは、画像解析ユニット102に入力される。画像解析ユニット102は、撮像ユニット101から送信されてくるデータを解析して、自車両前方の他車両、歩行者、各種障害物などの認識対象物を認識する。この認識結果は、例えば、表示ユニット103やスピーカーを用いて自車両100の運転者へ警告情報を報知する報知処理に利用されたり、車両走行制御ユニット106により、自車両100の移動方向を変更する機器であるハンドル装置(ステアリング)や、自車両100を増速させる機器であるアクセル装置、自車両100を減速させる機器であるブレーキ装置(制動装置)を制御するなどの走行支援制御に利用されたりする。なお、表示ユニット103としては、液晶ディスプレイやHUD(Head-Up Display)などを用いることができる。   The in-vehicle device control system of the present embodiment is provided with an image pickup unit 101 that picks up an image of an area in the traveling direction of the traveling vehicle 100 as an image pickup area. For example, the imaging unit 101 is installed in the vicinity of a room mirror of the windshield 105 of the host vehicle 100. Various data including captured image data obtained by imaging by the imaging unit 101 is input to the image analysis unit 102. The image analysis unit 102 analyzes the data transmitted from the imaging unit 101 and recognizes recognition objects such as other vehicles in front of the host vehicle, pedestrians, and various obstacles. This recognition result is used for, for example, a notification process of notifying the driver of the host vehicle 100 of warning information using the display unit 103 or a speaker, or the moving direction of the host vehicle 100 is changed by the vehicle travel control unit 106. It is used for driving support control such as a steering device (steering) that is a device, an accelerator device that is a device that accelerates the host vehicle 100, and a brake device (braking device) that is a device that decelerates the host vehicle 100. To do. As the display unit 103, a liquid crystal display, a HUD (Head-Up Display), or the like can be used.

図3は、撮像ユニット101及び画像解析ユニット102の概略構成を示す模式図である。
撮像ユニット101は、2つの撮像部110A,110Bを備えたステレオカメラで構成されており、2つの撮像部110A,110Bは同一のものである。各撮像部110A,110Bは、それぞれ、撮像レンズ111A,111Bと、受光素子が2次元配置された画像センサ113A,113Bを含んだセンサ基板114A,114Bと、センサ基板114A,114Bから出力されるアナログ電気信号(画像センサ113A,113B上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データを生成して出力するデータ出力手段としての信号処理部115A,115Bとから構成されている。なお、信号処理部115A,115Bは、画像センサ113A,113B上に設けられていても良い。本実施形態の撮像ユニット101からは、輝度画像データと視差画像データが出力される。画像データは、例えば、1画素あたり、12ビットのデータ量のものであり、0〜4095階調(画素値)をとる。
FIG. 3 is a schematic diagram illustrating a schematic configuration of the imaging unit 101 and the image analysis unit 102.
The imaging unit 101 is configured by a stereo camera including two imaging units 110A and 110B, and the two imaging units 110A and 110B are the same. The imaging units 110A and 110B respectively include imaging lenses 111A and 111B, sensor substrates 114A and 114B including image sensors 113A and 113B in which light receiving elements are two-dimensionally arranged, and analogs output from the sensor substrates 114A and 114B. It is composed of signal processing units 115A and 115B as data output means for generating and outputting captured image data obtained by converting an electrical signal (the amount of light received by each light receiving element on the image sensors 113A and 113B) into a digital electrical signal. ing. Note that the signal processing units 115A and 115B may be provided on the image sensors 113A and 113B. Luminance image data and parallax image data are output from the imaging unit 101 of the present embodiment. For example, the image data has a data amount of 12 bits per pixel and takes 0 to 4095 gradations (pixel values).

また、撮像ユニット101は、画像処理基板等からなる視差値演算装置としての処理ハードウェア部120を備えている。処理ハードウェア部120は、撮像画像データに対してリアルタイム性が要求される処理を主に実行するものである。具体的には、例えば、ガンマ補正等により輝度値(画素値)を補正する輝度補正処理、2つの撮像部110A,110Bの取り付け位置ズレなどに起因する撮像画像の歪みを補正する歪み補正処理(左右の撮像画像の平行化)、マッチング処理を実行して視差値を演算する視差演算処理などが挙げられる。なお、輝度補正処理や歪み補正処理は必ずしも行う必要はない。   In addition, the imaging unit 101 includes a processing hardware unit 120 as a parallax value calculation device including an image processing board or the like. The processing hardware unit 120 mainly performs processing that requires real-time performance on captured image data. Specifically, for example, a luminance correction process for correcting a luminance value (pixel value) by gamma correction or the like, a distortion correction process for correcting distortion of a captured image caused by an attachment position shift between the two imaging units 110A and 110B ( Parallelization of the left and right captured images), parallax calculation processing for executing parallax values by executing matching processing, and the like. Note that the luminance correction process and the distortion correction process are not necessarily performed.

本実施形態の処理ハードウェア部120は、各撮像部110A,110Bから出力される輝度画像データの輝度補正処理を行う画素値補正手段としての輝度補正処理部124、画像の歪みを補正する画素値補正手段としての歪み補正処理部125、これらの補正処理後の輝度画像データから視差画像を得るために各撮像部110A,110Bでそれぞれ撮像した撮像画像間の対応画像部分の視差値を演算する視差演算部121などで構成される。   The processing hardware unit 120 of the present embodiment includes a luminance correction processing unit 124 serving as a pixel value correcting unit that performs luminance correction processing of luminance image data output from each of the imaging units 110A and 110B, and a pixel value that corrects image distortion. Disparity for calculating the parallax value of the corresponding image portion between the captured images captured by each of the imaging units 110A and 110B in order to obtain a parallax image from the luminance image data after the correction processing, the distortion correction processing unit 125 as a correction unit It is comprised by the calculating part 121 grade | etc.,.

ここでいう視差値とは、各撮像部110A,110Bでそれぞれ撮像した撮像画像の一方を基準画像、他方を比較画像とし、撮像領域内の同一点(同一対象物上の同じ箇所)に対応した基準画像上の画像部分(単位画像領域)に対する比較画像上の画像部分(単位画像領域)の位置ズレ量を、当該画像部分の視差値として算出したものである。三角測量の原理を利用することで、この視差値から当該画像部分に対応した撮像領域内の当該同一点までの距離を算出することができる。   Here, the parallax value corresponds to the same point in the imaging region (the same location on the same object), with one of the captured images captured by the imaging units 110A and 110B as a reference image and the other as a comparison image. The positional deviation amount of the image portion (unit image region) on the comparison image with respect to the image portion (unit image region) on the reference image is calculated as the parallax value of the image portion. By using the principle of triangulation, the distance to the same point in the imaging region corresponding to the image portion can be calculated from the parallax value.

図4(a)及び(b)は、2つの撮像部110A,110Bでそれぞれ撮像した撮像画像の一例をそれぞれ示す説明図である。
図4(a)及び(b)に示す例では、2つの撮像部110A,110Bで互いに異なる方向から同じ撮像領域を撮像し、これにより得られる2つの撮像画像のうちの一方(図4(a)に示す画像)を基準画像とし、他方(図4(b)に示す画像)を比較画像としている。そして、基準画像内のある単位画像領域を含む画像ブロックが比較画像内のどの画像ブロックに対応するかを検索する。例えば、基準画像内の画像ブロックWaに対応する比較画像内の画像ブロックを検索する際、縦方向位置は画像ブロックWaの縦方向位置と同じ位置に固定したまま、横方向位置を変化させて、比較画像内を、Wb1→Wb2→Wb3・・・というように検索していく。そして、この検索を行いながら基準画像と比較画像との間の相関演算を行い、相関値が最も高くなる画像ブロックを検出して、撮像領域内の同一点に対応する対応点を基準画像及び比較画像の両方で特定するマッチング処理を行う。
FIGS. 4A and 4B are explanatory diagrams illustrating examples of captured images captured by the two imaging units 110A and 110B, respectively.
In the example shown in FIGS. 4A and 4B, the same imaging region is imaged from different directions by the two imaging units 110A and 110B, and one of the two captured images obtained thereby (FIG. 4A ) Is a reference image, and the other (image shown in FIG. 4B) is a comparative image. Then, it is searched which image block in the comparison image corresponds to an image block including a certain unit image area in the reference image. For example, when searching for an image block in the comparison image corresponding to the image block Wa in the reference image, the horizontal position is changed while the vertical position is fixed at the same position as the vertical position of the image block Wa. The comparison image is searched in the order of Wb1 → Wb2 → Wb3. Then, while performing this search, the correlation operation between the reference image and the comparison image is performed, the image block having the highest correlation value is detected, and the corresponding points corresponding to the same point in the imaging region are compared with the reference image. A matching process that specifies both images is performed.

図5は、一般的な測距原理を示す説明図である。
マッチング処理により、基準画像内の画像ブロックWaに対応する比較画像内の画像ブロックWb3が特定されたら、撮像領域内の同一点に対応した各画像ブロックWa,Wb3内の対応点について、基準画像と比較画像とのズレ量を視差値として求める。具体的には、図5に示すように、基準画像内における注目画素の基線方向位置をXRとし、比較画像内における対応画素の基線方向位置をXLとしたとき、視差値Dは、D=|XL−XR|から求めることができる。
FIG. 5 is an explanatory view showing a general distance measuring principle.
When the image block Wb3 in the comparison image corresponding to the image block Wa in the reference image is specified by the matching process, the reference image and the corresponding point in each of the image blocks Wa and Wb3 corresponding to the same point in the imaging region are The amount of deviation from the comparative image is obtained as a parallax value. Specifically, as shown in FIG. 5, when the baseline direction position of the pixel of interest in the reference image is XR and the baseline direction position of the corresponding pixel in the comparison image is XL, the parallax value D is D = | XL-XR |.

なお、マッチング処理により求めた視差値Dを用いることで、基準画像内における注目画素に映し出されている撮像領域内の当該同一点(測定対象点)までの距離(基線から測定対象点までの距離)Zを、下記の式(1)より算出することができる。なお、下記の式(1)において、「F」は撮像部110A,110Bの焦点距離であり、「B」は撮像部110A,110B間の基線長である。
Z = B × F / D ・・・(1)
In addition, by using the parallax value D obtained by the matching process, the distance (the distance from the base line to the measurement target point) to the same point (measurement target point) in the imaging region projected on the target pixel in the reference image ) Z can be calculated from the following equation (1). In the following equation (1), “F” is the focal length of the imaging units 110A and 110B, and “B” is the baseline length between the imaging units 110A and 110B.
Z = B × F / D (1)

画像解析ユニット102は、撮像ユニット101から出力される輝度画像データや視差画像データを記憶するRAMやROM等で構成される記憶手段122と、識別対象の認識処理などを行うためのコンピュータプログラムを実行するCPU(Central Processing Unit)123とを備えている。CPUは、各撮像部110A,110Bの画像センサコントローラの制御および処理ハードウェア部120の全体的な制御を担うとともに、他車両やガードレールその他の各種オブジェクト(認識対象物)の認識処理を実行するプログラムをROMからロードして、RAMに蓄えられた輝度画像データや視差画像データを入力として各種処理を実行し、その処理結果を外部へと出力する。外部に出力される認識処理結果のデータは、表示ユニット103等において警告情報を報知するために使用されたり、車両走行制御ユニット106において自車両100の各種車両制御用アクチュエータの制御(ブレーキ制御、車速制御など)を行うための入力データとして使用されたりする。   The image analysis unit 102 executes a storage unit 122 configured by a RAM, a ROM, or the like that stores luminance image data and parallax image data output from the imaging unit 101, and a computer program for performing recognition processing of an identification target. CPU (Central Processing Unit) 123. The CPU is responsible for the control of the image sensor controller of each of the imaging units 110A and 110B and the overall control of the processing hardware unit 120, and executes a recognition process for other vehicles, guardrails, and other various objects (recognition objects). Is read from the ROM, and various processes are executed with the luminance image data and parallax image data stored in the RAM as inputs, and the processing results are output to the outside. The recognition process result data output to the outside is used to notify warning information in the display unit 103 or the like, or the vehicle travel control unit 106 controls various vehicle control actuators (brake control, vehicle speed). Or used as input data for control).

図6は、本実施形態の物体認識処理を説明するための処理ブロック図である。
ステレオカメラを構成する2つの撮像部110A,110Bから出力される2つの輝度画像データは画像処理部131に出力される。この画像処理部131は、輝度画像データに対して輝度補正処理や歪み補正処理などの画像処理を実行するものであり、処理ハードウェア部120の輝度補正処理部124及び歪み補正処理部125によって構成される。
FIG. 6 is a process block diagram for explaining the object recognition process of the present embodiment.
Two luminance image data output from the two imaging units 110 </ b> A and 110 </ b> B constituting the stereo camera are output to the image processing unit 131. The image processing unit 131 performs image processing such as luminance correction processing and distortion correction processing on the luminance image data, and includes a luminance correction processing unit 124 and a distortion correction processing unit 125 of the processing hardware unit 120. Is done.

画像処理部131は、輝度画像データが入力されると、輝度補正処理部124による輝度補正処理を実行した後に、歪み補正処理部125による歪み補正処理を実行する。この歪み補正処理は、撮像部110A,110Bにおける光学系の歪みや左右の撮像部110A,110Bの相対的な位置関係から、各撮像部110A,110Bから出力される輝度画像データ(基準画像と比較画像)を、2つのピンホールカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像となるように変換する。   When the luminance image data is input, the image processing unit 131 executes the distortion correction processing by the distortion correction processing unit 125 after executing the luminance correction processing by the luminance correction processing unit 124. This distortion correction processing is performed by using luminance image data (compared with a reference image) output from each of the imaging units 110A and 110B based on the distortion of the optical system in the imaging units 110A and 110B and the relative positional relationship between the left and right imaging units 110A and 110B. Image) is converted into an ideal parallel stereo image obtained when two pinhole cameras are mounted in parallel.

このようにして歪み補正処理を行った後、次に、視差演算部121によって構成される視差画像生成部132において、視差画像データ(視差情報)を生成する視差画像生成処理を行う。視差画像生成処理では、まず、2つの撮像部110A,110Bのうちの一方の撮像部110Aの輝度画像データを基準画像データとし、他方の撮像部110Bの輝度画像データを比較画像データとし、これらを用いて両者の視差値を演算して、視差画像データを生成して出力する。この視差画像データは、基準画像データ上の各画像部分(単位画像領域)について算出される視差値dに応じた画素値をそれぞれの画像部分の画素値として表した視差画像を示すものである。なお、本実施形態における単位画像領域は輝度画像データ上の1画素に相当するが、これに限られない。   After performing the distortion correction processing in this way, next, the parallax image generation unit 132 configured by the parallax calculation unit 121 performs parallax image generation processing for generating parallax image data (parallax information). In the parallax image generation processing, first, the luminance image data of one imaging unit 110A of the two imaging units 110A and 110B is set as reference image data, and the luminance image data of the other imaging unit 110B is set as comparison image data, and these are used. The parallax values of the two are used to generate and output parallax image data. The parallax image data represents a parallax image in which pixel values corresponding to the parallax value d calculated for each image portion (unit image region) on the reference image data are represented as pixel values of the respective image portions. The unit image area in the present embodiment corresponds to one pixel on the luminance image data, but is not limited thereto.

具体的には、視差画像生成部132は、基準画像データのある行について、一の注目画素(単位画像領域)とその周辺の画素からなる画像ブロックを定義する。ここで、注目画素とともに画像ブロックを構成する周辺画素としては、例えば、注目画素から探索方向(画像右方向)7つ分の画素を用い、注目画素が左端に位置する1画素×8画素の画像ブロックを定義する。画像ブロックの定義方法はこれに限らず、例えば注目画素を中心とする3画素×3画素の画像ブロックを用いてもよい。   Specifically, the parallax image generation unit 132 defines an image block including one target pixel (unit image region) and surrounding pixels for a certain row of reference image data. Here, as the peripheral pixels that form the image block together with the target pixel, for example, seven pixels from the target pixel in the search direction (right direction of the image) are used, and an image of 1 pixel × 8 pixels in which the target pixel is located at the left end. Define the block. The definition method of the image block is not limited to this. For example, an image block of 3 pixels × 3 pixels centered on the target pixel may be used.

一方、比較画像データにおける同じ行において、定義した基準画像データの画像ブロックと同じサイズの画像ブロックを1画素ずつ横ライン方向(X方向)へずらし、基準画像データにおいて定義した画像ブロックの画素値(輝度値)の特徴を示す特徴量と比較画像データにおける各画像ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。そして、算出した相関値に基づき、比較画像データにおける各画像ブロックの中で最も基準画像データの画像ブロックと相関があった比較画像データの画像ブロックを選定するマッチング処理を行う。その後、基準画像データの画像ブロックの注目画素と、マッチング処理で選定された比較画像データの画像ブロックの対応画素との位置ズレ量を視差値dとして算出する。このような視差値dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得ることができる。   On the other hand, in the same row in the comparison image data, an image block having the same size as the image block of the defined reference image data is shifted pixel by pixel in the horizontal line direction (X direction), and the pixel value of the image block defined in the reference image data ( A correlation value indicating a correlation between a feature value indicating the feature of (luminance value) and a feature value indicating the feature of the pixel value of each image block in the comparison image data is calculated. Then, based on the calculated correlation value, a matching process is performed to select an image block of the comparison image data that is most correlated with the image block of the reference image data among the image blocks in the comparison image data. Thereafter, a positional deviation amount between the target pixel of the image block of the reference image data and the corresponding pixel of the image block of the comparison image data selected by the matching process is calculated as the parallax value d. The parallax image data can be obtained by performing such processing for calculating the parallax value d for the entire area of the reference image data or a specific area.

マッチング処理に用いる画像ブロックの特徴量としては、例えば、画像ブロック内の各画素値(輝度値)を用いることができ、相関値としては、例えば、SSD(Sum of Squared Difference)、ZSSD(Zero-mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、ZSAD(Zero-mean Sum of Absolute Difference)などの方法を用いることができる。本実施形態では、基準画像データの画像ブロック内の各画素値(輝度値)と、これらの画素にそれぞれ対応する比較画像データの画像ブロック内の各画素値(輝度値)との差分の絶対値の総和であるSADを相関値として用いて、マッチング処理を行う。この場合、SAD値が最も小さくなる画像ブロックが最も相関があると言える。   As the feature amount of the image block used for the matching processing, for example, each pixel value (luminance value) in the image block can be used. As the correlation value, for example, SSD (Sum of Squared Difference), ZSSD (Zero- Methods such as mean sum of squared difference (SAD), sum of absolute difference (SAD), and zero-mean sum of absolute difference (ZSAD) can be used. In the present embodiment, the absolute value of the difference between each pixel value (luminance value) in the image block of the reference image data and each pixel value (luminance value) in the image block of the comparison image data corresponding to each of these pixels. The matching process is performed using the SAD that is the sum of the correlation values as the correlation value. In this case, it can be said that the image block having the smallest SAD value is most correlated.

このようにして視差画像生成処理を行ったら、次に、Vマップ生成部133において、Vマップを生成するVマップ生成処理を実行する。視差画像データに含まれる各画素データは、x方向位置とy方向位置と視差値dとの組(x,y,d)で示されるところ、これを、X軸にd、Y軸にy、Z軸に頻度を設定して、X−Yの2次元ヒストグラム情報を作成する。これをVマップと呼ぶ。   After performing the parallax image generation processing in this way, the V map generation unit 133 next executes V map generation processing for generating a V map. Each pixel data included in the parallax image data is represented by a set (x, y, d) of an x-direction position, a y-direction position, and a parallax value d, which is represented by d on the X axis, y on the Y axis, XY two-dimensional histogram information is created by setting the frequency on the Z axis. This is called a V map.

具体的に説明すると、Vマップ生成部133は、視差画像生成部132で生成された視差画像データの各行について、視差値頻度分布を計算する。具体例を挙げて説明すると、図7(a)に示すような視差値分布をもった視差画像データが入力されたとき、Vマップ生成部133は、図7(b)に示すような行ごとの視差値頻度分布を計算して出力する。このようにして得られる各行の視差値頻度分布の情報から、Y軸に視差画像上のy方向位置(撮像画像の上下方向位置)をとり、X軸に視差値をとった二次元直交座標系上に、頻度を分布させたVマップを得ることができる。このVマップは、頻度に応じた画素値をもつ画素が前記二次元直交座標系上に分布した画像として表現することもできる。   Specifically, the V map generation unit 133 calculates a parallax value frequency distribution for each row of the parallax image data generated by the parallax image generation unit 132. Explaining with a specific example, when parallax image data having a parallax value distribution as shown in FIG. 7A is input, the V map generation unit 133 performs line by row as shown in FIG. The disparity value frequency distribution is calculated and output. A two-dimensional orthogonal coordinate system in which the y-direction position on the parallax image (vertical direction position of the captured image) is taken on the Y-axis and the parallax value is taken on the X-axis from the information on the parallax value frequency distribution of each row obtained in this way. In addition, a V map in which frequencies are distributed can be obtained. This V map can also be expressed as an image in which pixels having pixel values corresponding to the frequency are distributed on the two-dimensional orthogonal coordinate system.

次に、本実施形態では、視差画像生成部132が生成したVマップの情報(視差ヒストグラム情報)から、路面形状検出部134において、自車両100の前方路面の3次元形状を検出する路面形状検出処理を実行する。
例えば、自車両100の前方路面が相対的に平坦な路面、すなわち、自車両100の前方路面が自車両100の真下の路面部分と平行な面を自車両前方へ延長して得られる仮想の延長面に一致している場合、画像の下部に対応するVマップの下部において、高頻度の点は、画像上方へ向かうほど視差値dが小さくなるような傾きをもった略直線状に分布する。このような分布を示す画素は、視差画像上の各行においてほぼ同一距離に存在していてかつ最も占有率が高く、しかも画像上方へ向かうほど距離が連続的に遠くなる認識対象物を映し出した画素であると言える。このような画素は、路面を映し出す画素が持つ特徴に合致するので、路面を映し出している画素であると推定することができる。
Next, in the present embodiment, road surface shape detection in which the road surface shape detection unit 134 detects the three-dimensional shape of the front road surface of the host vehicle 100 from the V map information (parallax histogram information) generated by the parallax image generation unit 132. Execute the process.
For example, an imaginary extension obtained by extending the front road surface of the own vehicle 100 relatively flat, that is, the front road surface of the own vehicle 100 is parallel to the road surface portion immediately below the own vehicle 100 in front of the own vehicle 100. When they coincide with the plane, in the lower part of the V map corresponding to the lower part of the image, the high-frequency points are distributed in a substantially straight line having an inclination such that the parallax value d decreases toward the upper part of the image. Pixels exhibiting such a distribution are pixels that are present at almost the same distance in each row on the parallax image, have the highest occupation ratio, and project a recognition object whose distance continuously increases toward the top of the image. It can be said that. Since such a pixel matches the characteristics of a pixel that displays the road surface, it can be estimated that the pixel displays the road surface.

路面形状検出部134では、このような路面に対応する視差値が示す特徴、すなわち、撮像画像の上方に向かうほど視差値が低くなるという特徴を示すVマップ上の高頻度の点を直線近似する処理を行う。近似直線の情報が得られたら、次に、路面高さテーブル算出部135において、路面高さ(自車両の真下の路面部分に対する相対的な高さ)を算出してテーブル化する路面高さテーブル算出処理を行う。路面形状検出部134により生成されたVマップ上の近似直線の情報から、撮像画像上の各行領域(画像上下方向の各位置)に映し出されている各路面部分までの距離を算出できる。一方、自車両の真下に位置する路面部分をその面に平行となるように自車両進行方向前方へ延長した仮想平面の自車両進行方向における各面部分が、撮像画像中のどの各行領域に映し出されるかは予め決まっており、この仮想平面はVマップ上で直線(基準直線)により表される。路面形状検出部134から出力される近似直線を基準直線と比較することで、自車両前方の各路面部分の高さを得ることができる。簡易的には、路面形状検出部134から出力される近似直線上のY軸位置から、これに対応する視差値から求められる距離だけ自車両前方に存在する路面部分の高さを算出できる。路面高さテーブル算出部135では、近似直線から得られる各路面部分の高さを、必要な視差範囲についてテーブル化する。   The road surface shape detection unit 134 linearly approximates a high-frequency point on the V map indicating the feature indicated by the parallax value corresponding to the road surface, that is, the feature that the parallax value becomes lower toward the upper side of the captured image. Process. Once the approximate straight line information is obtained, the road surface height table calculation unit 135 calculates the road surface height (relative height with respect to the road surface portion directly below the host vehicle) and forms a table. Perform the calculation process. From the approximate straight line information on the V map generated by the road surface shape detection unit 134, the distance to each road surface portion displayed in each row area (each position in the vertical direction of the image) on the captured image can be calculated. On the other hand, each surface part in the traveling direction of the virtual plane obtained by extending the road surface portion located directly below the traveling vehicle in front of the traveling direction of the vehicle so as to be parallel to the surface is displayed in which row area in the captured image. The virtual plane is represented by a straight line (reference straight line) on the V map. By comparing the approximate straight line output from the road surface shape detection unit 134 with the reference straight line, the height of each road surface portion ahead of the host vehicle can be obtained. In a simple manner, the height of the road surface portion existing in front of the host vehicle can be calculated from the Y-axis position on the approximate straight line output from the road surface shape detection unit 134 by a distance obtained from the corresponding parallax value. The road surface height table calculation unit 135 tabulates the height of each road surface portion obtained from the approximate straight line for the necessary parallax range.

次に、Uマップ生成部136について説明する。Uマップ生成部136では、Uマップを生成するUマップ生成処理を実行する。視差画像データに含まれる各画素データにおけるx方向位置とy方向位置と視差値dとの組(x,y,d)を、X軸にx、Y軸にd、Z軸に頻度を設定して、X−Yの2次元ヒストグラム情報を作成する。これをUマップと呼ぶ。本実施形態のUマップ生成部133では、路面からの高さHが所定の高さ範囲(たとえば20cmから5m)にある視差画像の点(x,y,d)についてだけUマップを作成する。この場合、路面から当該所定の高さ範囲に存在する物体を適切に抽出することができる。   Next, the U map generation unit 136 will be described. The U map generation unit 136 performs U map generation processing for generating a U map. A set (x, y, d) of the x-direction position, the y-direction position, and the parallax value d in each pixel data included in the parallax image data is set to x on the X axis, d on the Y axis, and frequency on the Z axis. Thus, XY two-dimensional histogram information is created. This is called a U map. In the U map generation unit 133 of the present embodiment, a U map is created only for a point (x, y, d) of a parallax image whose height H from the road surface is in a predetermined height range (for example, 20 cm to 5 m). In this case, an object existing within the predetermined height range from the road surface can be appropriately extracted.

例えば、路面の左右両側にガードレールが存在し、他車両としては、先行車両と対向車両がそれぞれ1台ずつ存在する場合、Uマップにおいては、左右のガードレールに対応する高頻度の点は、左右両端側から中央に向かって上方へ延びるような略直線状に分布する。一方、他車両に対応する高頻度の点は、左右のガードレールの間で、X軸方向に略平行に延びる線分の状態で分布する。   For example, when there are guard rails on both the left and right sides of the road surface, and there are one preceding vehicle and one oncoming vehicle as the other vehicles, in the U map, the high frequency points corresponding to the left and right guard rails are It is distributed in a substantially straight line extending upward from the side toward the center. On the other hand, high-frequency points corresponding to other vehicles are distributed between the left and right guard rails in a line segment extending substantially parallel to the X-axis direction.

次に、孤立領域検出部137について説明する。孤立領域検出部137では、Uマップ生成部136で生成されたUマップの情報から、まず、Uマップの平滑化処理を行った後、二値化処理を行う。その後、値のある座標のラベリングを行い、孤立領域を検出する。以下、それぞれの処理について説明する。   Next, the isolated region detection unit 137 will be described. The isolated region detection unit 137 first performs smoothing processing of the U map from the information of the U map generated by the U map generation unit 136, and then performs binarization processing. After that, the coordinate with a value is labeled to detect an isolated area. Hereinafter, each processing will be described.

視差値には計算誤差等もあって分散があり、視差値がすべての画素について計算されているわけではないので、実際のUマップは、ノイズを含んでいる。そのため、ノイズを除去するためと、認識対象物(オブジェクト)を識別しやすくするため、Uマップを平滑化する処理を行う。この平滑化処理では、画像の平滑化と同様に、平滑化フィルタ(たとえば3×3画素の単純平均)を頻度値に対して適用する。これにより、ノイズと考えられるようなUマップ上の地点の頻度が減少し、認識対象物(オブジェクト)の地点では頻度が周囲よりも高いグループとなる。その結果、後段の処理において孤立領域の検出を容易になる。   The disparity value has dispersion due to calculation errors and the like, and the disparity value is not calculated for all pixels. Therefore, the actual U map includes noise. Therefore, a process for smoothing the U map is performed in order to remove noise and make it easy to identify the recognition target (object). In this smoothing process, a smoothing filter (for example, a simple average of 3 × 3 pixels) is applied to the frequency value in the same manner as the smoothing of the image. As a result, the frequency of points on the U map that can be considered as noise is reduced, and the point of the recognition object (object) becomes a higher group than the surroundings. As a result, it becomes easy to detect an isolated region in the subsequent processing.

次に、このように平滑化されたUマップの情報から、Uマップ上において頻度が周囲より高い孤立領域を検出する。この検出では、Uマップをまず二値化する処理を行う。この二値化処理には、例えば、特許第4018310号公報などに開示されている適応二値化方法を用いることができる。各認識対象物(オブジェクト)は、その高さ、形状、背景とのコントラスト差などに違いがあるので、各認識対象物にそれぞれ対応する孤立領域は、頻度値が大きいものもあれば小さいものもある。そのため、単一の閾値による二値化では適切に検出できない孤立領域が発生するおそれがある。これを防ぐためにも、上述した適応二値化方法を用いるのが好ましい。なお、二値化は、頻度の高い領域を「1」(黒)とし、頻度の低い領域を「0」(白)とする。   Next, from the information of the U map smoothed in this way, an isolated region having a higher frequency than the surroundings is detected on the U map. In this detection, the U map is first binarized. For this binarization processing, for example, an adaptive binarization method disclosed in Japanese Patent No. 4018310 can be used. Since each recognition object (object) has a difference in height, shape, contrast difference with the background, etc., the isolated region corresponding to each recognition object may have a large frequency value or a small one. is there. Therefore, there is a possibility that an isolated region that cannot be detected properly by binarization using a single threshold value may occur. In order to prevent this, it is preferable to use the adaptive binarization method described above. In binarization, a high frequency area is set to “1” (black), and a low frequency area is set to “0” (white).

このように二値化処理で「1」の値(黒)をもつ地点(頻度値が二値化閾値より高い座標)をその連結性に基づいてラベリングし、同一ラベルが付いた領域を1つの孤立領域として検出する。   In this way, points having a value of “1” (black) in binarization processing (coordinates whose frequency value is higher than the binarization threshold) are labeled based on their connectivity, and one region with the same label is labeled as one. Detect as an isolated region.

このようにして得られる各孤立領域について、その幅(Uマップ上のX軸方向長さ)と、その孤立領域内の最小視差値dから計算される当該孤立領域に映し出されている認識対象物(オブジェクト)と自車両との距離zとを用い、当該孤立領域に対応する画像領域に映し出されている物体の幅Wを計算することができる。この物体の幅Wが、予め決められた範囲内にある孤立領域を、オブジェクト候補領域として決定する。   For each isolated area obtained in this way, the recognition target object projected in the isolated area calculated from the width (length in the X-axis direction on the U map) and the minimum parallax value d in the isolated area Using the distance z between the (object) and the host vehicle, the width W of the object displayed in the image area corresponding to the isolated area can be calculated. An isolated area in which the width W of the object is within a predetermined range is determined as an object candidate area.

次に、視差画像の対応領域検出部138について説明する。
前記孤立領域検出部137によりオブジェクト候補領域として決定された孤立領域について、当該孤立領域が内接する矩形領域を設定したとき、この矩形領域の幅(Uマップ上のX軸方向長さ)は、当該孤立領域に対応する認識対象物(オブジェクト)の幅に対応する。また、設定した矩形領域の高さは、当該孤立領域に対応する認識対象物(オブジェクト)の奥行き(自車両進行方向長さ)に対応している。一方で、各孤立領域に対応する認識対象物(オブジェクト)の高さについては、この段階では不明である。視差画像の対応領域検出部138は、オブジェクト候補領域に係る孤立領域に対応したオブジェクトの高さを得るために、当該孤立領域に対応する視差画像上の対応領域を検出する。
Next, the parallax image corresponding region detection unit 138 will be described.
For the isolated area determined as the object candidate area by the isolated area detection unit 137, when a rectangular area inscribed by the isolated area is set, the width of this rectangular area (the length in the X-axis direction on the U map) is This corresponds to the width of the recognition object (object) corresponding to the isolated region. Further, the height of the set rectangular area corresponds to the depth (length in the traveling direction of the host vehicle) of the recognition object (object) corresponding to the isolated area. On the other hand, the height of the recognition object (object) corresponding to each isolated region is unknown at this stage. The corresponding region detection unit 138 of the parallax image detects a corresponding region on the parallax image corresponding to the isolated region in order to obtain the height of the object corresponding to the isolated region related to the object candidate region.

具体的には、視差画像の対応領域検出部138は、孤立領域検出部137から出力される孤立領域の情報に基づき、当該孤立領域の幅すなわちX軸方向座標がxminからxmaxまでの範囲(検出幅)について、視差画像を所定のY軸方向範囲について走査し、当該孤立領域に設定されたUマップ上での矩形領域の高さすなわちUマップY軸方向座標(視差値)がdminからdmaxまでの範囲の値を視差値とする画素を候補画素として抽出する。このときの走査範囲(視差画像のY軸方向範囲)は、例えば、視差画像上端から視差画像1/6だけ下の位置から、視差画像下方に向けて、最大視差dmaxから得られる路面までの範囲とすることができる。   Specifically, the corresponding region detection unit 138 of the parallax image is based on the information on the isolated region output from the isolated region detection unit 137, and the width of the isolated region, that is, the range in which the X-axis direction coordinates are from xmin to xmax (detection). With respect to (width), the parallax image is scanned in a predetermined range in the Y-axis direction, and the height of the rectangular area on the U map set in the isolated area, that is, the U map Y-axis direction coordinate (parallax value) is from dmin to dmax. Pixels having a parallax value in the range of are extracted as candidate pixels. The scanning range (Y-axis direction range of the parallax image) at this time is, for example, a range from a position below the parallax image by 1/6 to the road surface obtained from the maximum parallax dmax from the position below the parallax image. It can be.

このようにして抽出した候補画素群の中で、前記検出幅に対して視差画像X軸方向に所定の数以上の候補画素が存在する横方向ラインを、オブジェクト候補ラインとして決定する。次に、縦方向走査して、ある注目しているオブジェクト候補ラインの周囲に他のオブジェクト候補ラインが所定の密度以上で存在している場合、その注目しているオブジェクト候補ラインをオブジェクトラインとして判定する。   In the candidate pixel group extracted in this way, a horizontal line in which a predetermined number or more of candidate pixels exist in the parallax image X-axis direction with respect to the detection width is determined as an object candidate line. Next, when scanning is performed in the vertical direction and there are other object candidate lines with a predetermined density or more around the object candidate line of interest, the object candidate line of interest is determined as an object line. To do.

オブジェクト領域抽出部139は、各孤立領域に対応する各検出幅について、このようにして判定されたオブジェクトラインを探索し、これにより検出されたオブジェクトライン群の外接矩形を、視差画像上のオブジェクト領域として決定する。   The object area extraction unit 139 searches the object line determined in this way for each detection width corresponding to each isolated area, and detects the circumscribed rectangle of the object line group thus detected as the object area on the parallax image. Determine as.

次に、オブジェクトタイプ分類部140について説明する。
前記オブジェクト領域抽出部139で抽出されるオブジェクト領域の高さから、そのオブジェクト領域に対応する画像領域に映し出されている認識対象物(オブジェクト)の実際の高さを計算できる。同様に、オブジェクト領域抽出部139で抽出されるオブジェクト領域の幅から、そのオブジェクト領域に対応する画像領域に映し出されている認識対象物(オブジェクト)の実際の幅を計算できる。また、当該オブジェクト領域に対応する画像領域に映し出されている認識対象物(オブジェクト)の奥行きは、当該オブジェクト領域に対応した孤立領域内の最大視差値dmaxと最小視差値dminから計算することができる。
Next, the object type classification unit 140 will be described.
From the height of the object area extracted by the object area extraction unit 139, the actual height of the recognition object (object) displayed in the image area corresponding to the object area can be calculated. Similarly, the actual width of the recognition object (object) displayed in the image area corresponding to the object area can be calculated from the width of the object area extracted by the object area extracting unit 139. The depth of the recognition target object (object) displayed in the image area corresponding to the object area can be calculated from the maximum parallax value dmax and the minimum parallax value dmin in the isolated area corresponding to the object area. .

オブジェクトタイプ分類部140は、このようにして計算できるオブジェクト領域に対応するオブジェクトの高さ、幅、奥行きの情報から、そのオブジェクトタイプの分類を行う。具体的には、オブジェクトタイプの分類を行うためのテーブルデータと比較して、自車両前方に存在する認識対象物(オブジェクト)が、歩行者なのか、自転車なのか、小型車なのか、トラックなどか等を区別して認識することが可能となる。   The object type classification unit 140 classifies the object type from information on the height, width, and depth of the object corresponding to the object area that can be calculated in this way. Specifically, compared to the table data for classifying the object type, whether the recognition object (object) in front of the host vehicle is a pedestrian, bicycle, small car, truck, etc. Etc. can be recognized separately.

次に、3次元位置決定部141について説明する。
3次元位置決定部141では、検出されたオブジェクト領域に対応するオブジェクトまでの距離や、視差画像の画像中心と視差画像上のオブジェクト領域の中心との画像上の距離も把握されることから、オブジェクトの3次元位置を決定する。
Next, the three-dimensional position determining unit 141 will be described.
Since the three-dimensional position determination unit 141 also knows the distance to the object corresponding to the detected object area and the distance on the image between the image center of the parallax image and the center of the object area on the parallax image, the object Is determined.

次に、ガードレール検出部142について説明する。
路面の側方などに設置される側壁やガードレールは、一般に、路面から30〜100cmの範囲内に存在するので、ガードレール検出処理の対象範囲として、この範囲に対応するUマップ内の領域を選定する。その後、この対象範囲について、Uマップの頻度に重み付けを行い、Hough変換して近似直線を検出し、この近似直線からガードレールを検出する。
Next, the guardrail detection unit 142 will be described.
Since the side walls and guard rails installed on the side of the road surface are generally within a range of 30 to 100 cm from the road surface, an area in the U map corresponding to this range is selected as the target range of the guard rail detection process. . Thereafter, the frequency of the U map is weighted with respect to the target range, Hough transform is performed to detect an approximate line, and a guardrail is detected from the approximate line.

次に、本発明の特徴部分である、視差演算処理について詳しく説明する。
図1は、本実施形態に係る視差演算部121によって構成される視差画像生成部132内の機能ブロック図である。
本実施形態における視差画像生成部132において、画像処理部131により輝度補正処理や歪み補正処理部125がなされた基準画像データと比較画像データは、平坦度判定部132Aに入力される。
Next, the parallax calculation process, which is a characteristic part of the present invention, will be described in detail.
FIG. 1 is a functional block diagram in the parallax image generation unit 132 configured by the parallax calculation unit 121 according to the present embodiment.
In the parallax image generation unit 132 according to the present embodiment, the reference image data and the comparison image data that have been subjected to the luminance correction processing and the distortion correction processing unit 125 by the image processing unit 131 are input to the flatness determination unit 132A.

平坦度判定部132Aでは、基準画像データ及び比較画像データの各画素値について、当該画素の画素値(輝度値)とその周辺に位置する周辺画素の画素値との差が規定値以下であるか否かを示す平坦度を算出する。具体的には、例えば、図8に示すように、平坦度を算出する対象画素Eを中心とした3画素×3画素内の8つの周辺画素A,B,C,D,F,G,H,Iを用いて平坦度を算出する。このとき、例えば、対象画素Eの画素値と各周辺画素A,B,C,D,F,G,H,Iの画素値との差分値をそれぞれ算出したい結果がいずれも所定の規定値以下である場合には平坦度を「1」とし、そうでない場合には平坦度を「0」とする。このようにして平坦度判定部132Aが算出した各画素の平坦度は、画素値補正手段としての輝度ノイズ除去部132Bに送られる。   In the flatness determination unit 132A, for each pixel value of the reference image data and the comparison image data, is the difference between the pixel value (luminance value) of the pixel and the pixel values of surrounding pixels located in the vicinity thereof equal to or less than a specified value? The flatness indicating whether or not is calculated. Specifically, for example, as shown in FIG. 8, eight peripheral pixels A, B, C, D, F, G, and H in 3 pixels × 3 pixels centering on the target pixel E whose flatness is calculated. , I is used to calculate the flatness. At this time, for example, the results of calculating difference values between the pixel value of the target pixel E and the pixel values of the surrounding pixels A, B, C, D, F, G, H, and I are all equal to or less than a predetermined specified value. If the flatness is “1”, the flatness is “1”, otherwise the flatness is “0”. The flatness of each pixel calculated by the flatness determination unit 132A in this way is sent to the luminance noise removal unit 132B as a pixel value correction unit.

輝度ノイズ除去部132Bでは、平坦度判定部132Aからの平坦度に応じて、基準画像データ及び比較画像データ中のノイズを既知のノイズ除去フィルタによって除去するノイズ除去処理を実行する。具体的には、平坦度が「1」である画素に対しては、EMI(Electro-Magnetic Interference)などの電磁波ノイズなどによるノイズを除去するノイズ除去処理を実行し、平坦度が「0」である画素に対してはノイズ除去処理を実行しない。このとき、平坦度が「0」である画素に対しては、エッジ強調処理などの画像処理を実行してもよい。なお、平坦度判定部132Aの処理負荷が大きい場合には、リアルタイム処理を優先して、前回の撮像フレームにおける基準画像データ及び比較画像データについての平坦判定値が輝度ノイズ除去部132Bに入力されるようにしてもよい。   The luminance noise removal unit 132B executes a noise removal process for removing noise in the reference image data and the comparison image data with a known noise removal filter in accordance with the flatness from the flatness determination unit 132A. Specifically, for a pixel having a flatness of “1”, a noise removal process for removing noise due to electromagnetic noise such as EMI (Electro-Magnetic Interference) is executed, and the flatness is “0”. Noise removal processing is not executed for a certain pixel. At this time, image processing such as edge emphasis processing may be performed on the pixels having a flatness of “0”. When the processing load of the flatness determination unit 132A is large, the flatness determination values for the reference image data and the comparison image data in the previous imaging frame are input to the luminance noise removal unit 132B with priority given to real-time processing. You may do it.

ノイズ除去の方法としては、例えば、図8に示したような平坦判定対象の対象画素Eを中心とした3画素×3画素内の8つの周辺画素A,B,C,D,F,G,H,Iを用いて、以下のような式(2)から当該対象画素Eの画素値を補正する方法が挙げられる。
E=(A+2×B+C+2×D+4×E+2×F+G+2×H+I)÷16 ・・・(2)
As a method for removing noise, for example, eight peripheral pixels A, B, C, D, F, G, and 3 pixels in 3 pixels × 3 pixels centered on the target pixel E to be flattened as shown in FIG. A method of correcting the pixel value of the target pixel E from the following equation (2) using H and I can be cited.
E = (A + 2 × B + C + 2 × D + 4 × E + 2 × F + G + 2 × H + I) ÷ 16 (2)

このようにして輝度ノイズ除去部132Bでノイズ除去処理がなされた基準画像データ及び比較画像データは、視差値算出部132Cに送られる。この視差値算出部132Cでは、上述したマッチング処理を行って、各画素の視差値を算出する。すなわち、基準画像データの全域又は特定の一領域について、基準画像データ内の注目画素を含む画像ブロックWaとの間でSAD値が最も小さくなる画像ブロックWbを比較画像データ内から特定するマッチング処理を行い、特定した比較画像データの画像ブロックWbの対応画素と基準画像データの注目画素との位置ズレ量を視差値dとして算出する。   The reference image data and the comparison image data that have been subjected to the noise removal processing by the luminance noise removal unit 132B in this way are sent to the parallax value calculation unit 132C. The parallax value calculation unit 132C performs the above-described matching process to calculate the parallax value of each pixel. That is, a matching process for specifying the image block Wb having the smallest SAD value from the comparison image data with respect to the entire image of the reference image data or a specific area with the image block Wa including the target pixel in the reference image data. Then, the positional deviation amount between the corresponding pixel of the image block Wb of the specified comparison image data and the target pixel of the reference image data is calculated as the parallax value d.

本実施形態の画像ブロックは、上述したとおり、注目画素が左端に位置する1画素×8画素の画像ブロックWaで定義され、当該注目画素と同じ位置である比較画像内の画素を左端にもった画像ブロックWb1から順に、所定の探索方向へ1画素ずつ画像ブロックWb1,Wb2,Wb3,・・・をずらし、各画像ブロックWb1,Wb2,Wb3,・・・のSAD値を算出する。   As described above, the image block of this embodiment is defined by the image block Wa of 1 pixel × 8 pixels in which the target pixel is located at the left end, and the pixel in the comparison image at the same position as the target pixel is located at the left end. The image blocks Wb1, Wb2, Wb3,... Are shifted pixel by pixel in a predetermined search direction in order from the image block Wb1, and the SAD values of the image blocks Wb1, Wb2, Wb3,.

下記の表1は、画像ブロックWb1〜Wb8までのSAD値の一例を示す表である。

Figure 2016173248
Table 1 below is a table showing an example of SAD values for the image blocks Wb1 to Wb8.
Figure 2016173248

前記表1の例において、SAD値が最も小さいのは画像ブロックWb7であり、視差値算出部132Cは、この画像ブロックWb7の対応画素と当該注目画素との視差値dをそのまま算出してもよい。しかしながら、この画像ブロックWb7のSAD値と他の画像ブロックのSAD値との差が、誤差に相当する僅かな差である場合、その画像ブロックWb7が注目画素に対応する対応画素を含んだものではないマッチングミスが生じている可能性が高い。この場合、その視差値の信頼性は低いものと言える。   In the example of Table 1, the image block Wb7 has the smallest SAD value, and the disparity value calculating unit 132C may calculate the disparity value d between the corresponding pixel of the image block Wb7 and the target pixel as it is. . However, when the difference between the SAD value of the image block Wb7 and the SAD value of another image block is a slight difference corresponding to the error, the image block Wb7 does not include the corresponding pixel corresponding to the target pixel. There is a high probability that no matching mistakes have occurred. In this case, it can be said that the reliability of the parallax value is low.

そこで、本実施形態においては、信頼性の低い視差値が算出されるのを防止するために、視差値算出部132Cは、算出した視差値の信頼度を算出し、その信頼度とともに視差値を、信頼度判定部132Dへ送る。ここで、信頼度は、視差値の信頼性を示すものであればどのようなものでもよいが、本実施形態では、SAD値が最も小さい画像ブロックのSAD値と、その画像ブロックに対して2画素分ずれた画像ブロックのSAD値との比較結果を信頼度として用いる。具体的には、前記表1の例で言えば、SAD値が最も小さい画像ブロックWb7のSAD値である「55」と、その画像ブロックWbに対して2画素分ずれた画像ブロックWb5のSAD値である「85」との差分値を、信頼度として用いる。この場合、信頼度は「30」となる。   Therefore, in this embodiment, in order to prevent a parallax value with low reliability from being calculated, the parallax value calculation unit 132C calculates the reliability of the calculated parallax value, and calculates the parallax value together with the reliability. And sent to the reliability determination unit 132D. Here, the reliability may be any value as long as it indicates the reliability of the parallax value, but in the present embodiment, the SAD value of the image block having the smallest SAD value and 2 for the image block. The comparison result with the SAD value of the image block shifted by the pixel is used as the reliability. Specifically, in the example of Table 1, “55” which is the SAD value of the image block Wb7 having the smallest SAD value and the SAD value of the image block Wb5 which is shifted by 2 pixels from the image block Wb. The difference value from “85” is used as the reliability. In this case, the reliability is “30”.

信頼度判定部132Dは、このようにして算出される信頼度と視差値とを視差値算出部132Cから受け取ると、その信頼度が信頼度判定値を超えているか否かを判定する。信頼度判定値が「10」である場合、前記表1の例では信頼度が「30」であるため、この信頼度判定値「10」を超えている。よって、この場合、その視差値の信頼性は高いものと判断され、その視差値についてはそのまま後段の周辺補完処理部132Fへ出力される。一方、信頼度が信頼度判定値以下である視差値については、信頼度が低いため、その視差値を後段の周辺補完処理部132Fへ出力する代わりに、ブランク値又はエラー値を出力する。   When the reliability and the parallax value calculated in this way are received from the parallax value calculation unit 132C, the reliability determination unit 132D determines whether or not the reliability exceeds the reliability determination value. When the reliability determination value is “10”, since the reliability is “30” in the example of Table 1, the reliability determination value exceeds “10”. Therefore, in this case, it is determined that the reliability of the parallax value is high, and the parallax value is output as it is to the subsequent peripheral complement processing unit 132F. On the other hand, the parallax value whose reliability is equal to or lower than the reliability determination value has low reliability, and therefore, instead of outputting the parallax value to the peripheral complement processing unit 132F in the subsequent stage, a blank value or an error value is output.

このようにして信頼度判定部132Dから出力される視差値は、信頼性の低い視差値が除外されたものとなるが、信頼性が低いと判定された視差値の中には、マッチングミスが生じていない適切な視差値を示しているものも含まれる。特に、輝度値に差が出ないような被写体部分を映し出す画像部分については、その画像部分に含まれる画像ブロック内の画素値(輝度値)がほぼ一様で特徴の無いものとなるため、いずれの画像ブロックWb1〜Wb8のSAD値も近い値を取ることになる。この場合、信頼度(SAD値の差分値で示される信頼度)が小さい視差値であっても、画像ブロック内の画素値(輝度値)に一定の特徴が存在する画像部分と比べて、適切な視差値が算出されている可能性が高い。   In this way, the disparity value output from the reliability determination unit 132D is obtained by excluding the disparity value with low reliability, but the disparity value determined to have low reliability includes a matching error. Also included are those that show appropriate parallax values that have not occurred. In particular, for an image portion that shows a subject portion that does not show a difference in luminance value, the pixel values (luminance values) in the image block included in the image portion are almost uniform and have no features. The SAD values of the image blocks Wb1 to Wb8 of FIG. In this case, even if the disparity value has a small degree of reliability (reliability indicated by the difference value of the SAD value), it is appropriate compared to the image portion in which a certain feature exists in the pixel value (luminance value) in the image block. There is a high possibility that a correct parallax value is calculated.

下記の表2は、画像ブロックWb1〜Wb8までのSAD値の他の例を示す表である。この例は、輝度値に差が出ないような被写体部分を映し出す画像部分についての例である。

Figure 2016173248
Table 2 below is a table showing other examples of SAD values for the image blocks Wb1 to Wb8. This example is an example of an image portion that projects a subject portion in which there is no difference in luminance value.
Figure 2016173248

前記表2に示す例では、上述した表1の例と比べて、いずれの画像ブロックWb1〜Wb8のSAD値も近い値を取っている。この例において、SAD値が最も小さいのは画像ブロックWb6であるが、その信頼度は、当該画像ブロックWb6のSAD値である「52」と、その画像ブロックWbに対して2画素分ずれた画像ブロックWb4のSAD値である「58」との差分値である「6」、若しくは、その画像ブロックWbに対して2画素分ずれた画像ブロックWb8のSAD値である「60」との差分値である「8」となる。いずれの差分値を信頼度として用いたとしても、上述した信頼度判定値である「10」を超えていないので、当該注目画素についての視差値はブランク値又はエラー値として出力されることになる。   In the example shown in Table 2, the SAD values of any of the image blocks Wb1 to Wb8 are close to those in the example of Table 1 described above. In this example, the image block Wb6 has the smallest SAD value, but the reliability is “52” which is the SAD value of the image block Wb6, and an image shifted by 2 pixels from the image block Wb. A difference value between “6” which is a difference value from “58” which is the SAD value of the block Wb4, or “60” which is a SAD value of the image block Wb8 which is shifted by 2 pixels from the image block Wb. It becomes a certain “8”. Regardless of which difference value is used as the reliability, since the reliability determination value “10” described above is not exceeded, the parallax value for the target pixel is output as a blank value or an error value. .

そこで、本実施形態では、SAD値の差で示される信頼度が小さい場合でも適切な視差値が算出されている可能性が高い画像部分(輝度値に差が出ないような被写体部分を映し出す画像部分)については、信頼度判定値を下げて、その視差値がブランク値又はエラー値にならないようにする。具体的には、信頼度判定値変更部132Eにおいて、上述した平坦度判定部132Aが算出した平坦度を利用してこのような画像部分であるかどうかを判断し、このような画像部分であればその信頼度判定値を下げる処理を行う。   Therefore, in the present embodiment, even when the reliability indicated by the difference in the SAD values is small, an image portion that is highly likely to have an appropriate parallax value calculated (an image that shows a subject portion that does not have a difference in luminance value) For (part), the reliability determination value is lowered so that the parallax value does not become a blank value or an error value. Specifically, the reliability determination value changing unit 132E determines whether the image portion is such an image portion by using the flatness calculated by the flatness determination portion 132A described above. For example, processing for lowering the reliability judgment value is performed.

詳しくは、信頼度判定値変更部132Eは、平坦度判定部132Aから受け取った平坦度に基づき、注目画像を含む画像ブロックWaのすべての画素の平坦度がすべて「1」であるという画素値平坦条件を満たすか否かを判断する。このとき、画素値平坦条件を満たさなければ、通常どおり、当該注目画像の視差値について信頼度判定部132Dが用いる信頼度判定値を「10」に設定する。一方、画素値平坦条件を満たす場合には、当該注目画像の視差値について信頼度判定部132Dが用いる信頼度判定値を「5」に設定する。なお、画素値平坦条件は、これに限らず、例えば注目画像を含む画像ブロックWa内に平坦度が「1」である画素が例えば3回連続するという条件や、比較画像中の画像ブロックWbについての平坦度も利用した条件であってもよい。   In detail, the reliability determination value changing unit 132E is based on the flatness received from the flatness determination unit 132A, and the flatness of all the pixels of the image block Wa including the target image is “1”. Determine whether the condition is met. At this time, if the pixel value flat condition is not satisfied, the reliability determination value used by the reliability determination unit 132D for the parallax value of the target image is set to “10” as usual. On the other hand, when the pixel value flat condition is satisfied, the reliability determination value used by the reliability determination unit 132D for the parallax value of the image of interest is set to “5”. Note that the pixel value flat condition is not limited to this, for example, a condition that a pixel having a flatness of “1” continues three times, for example, in an image block Wa including the target image, or an image block Wb in the comparison image. It is also possible to use a condition that utilizes the flatness of.

このように、本実施形態では、信頼度判定値変更部132Eにおいて画素値平坦条件を満たすと判断された場合、信頼度判定部132Dで用いられる信頼度判定値が下げられる結果、前記表2の例のように、信頼度が「10」以下である視差値についても視差値が算出されることになり、ブランク値又はエラー値になっていた視差値を補完することができる。   As described above, in the present embodiment, when the reliability determination value changing unit 132E determines that the pixel value flatness condition is satisfied, the reliability determination value used in the reliability determination unit 132D is lowered. As in the example, the disparity value is also calculated for the disparity value having the reliability of “10” or less, and the disparity value that is the blank value or the error value can be complemented.

このようにして信頼度判定部132Dから出力される視差値の中には、未だ、ブランク値又はエラー値を示すものが存在する。その原因は、種々考えられるが、その1つにハードウェアエラーに起因するものが挙げられる。ここでいうハードウェアエラーとは、局所的に誤った視差値を生じさせるものであり、そのエラーを検出できるようなものである。   Among the parallax values output from the reliability determination unit 132D in this way, there are still those indicating a blank value or an error value. There are various possible causes, one of which is caused by a hardware error. The hardware error referred to here is one that causes an erroneous parallax value locally, and that error can be detected.

ハードウェアエラーの具体例としては、例えば、1ビットソフトエラーが挙げられる。1ビットソフトエラーとは、放射性粒子によって生じるメモリ内のビット状態が変化してしまう不具合であり、いつ発生するのかを予測することができないものである。本実施形態において、信号処理部115A,115Bは、フレームメモリへのデータ入出力時にチェックサム処理を行って1ビットソフトエラーの発生をチェックしている。信号処理部115A,115Bが1ビットソフトエラーの発生を検出した場合、その検出情報が処理ハードウェア部120へ送られる。本実施形態では、撮像ユニット101の信号処理部115A,115Bから送られてくる1ビットソフトエラーの検出情報をハードウェアエラー検出部132Gで取得する。これにより、1ビットソフトエラーが発生した画素を特定することができる。   A specific example of the hardware error is, for example, a 1-bit soft error. A 1-bit soft error is a problem that a bit state in a memory is changed due to radioactive particles, and cannot be predicted when it occurs. In this embodiment, the signal processing units 115A and 115B perform checksum processing at the time of data input / output to / from the frame memory to check the occurrence of a 1-bit soft error. When the signal processing units 115A and 115B detect the occurrence of a 1-bit soft error, the detection information is sent to the processing hardware unit 120. In this embodiment, the hardware error detection unit 132G acquires detection information of 1-bit soft error sent from the signal processing units 115A and 115B of the imaging unit 101. As a result, it is possible to specify a pixel in which a 1-bit soft error has occurred.

また、ハードウェアエラーの具体例としては、例えば、撮像部110A,110Bの画像センサ113A,113B上の受光素子が故障する画素欠陥も考えられる。この場合、その受光素子に対応する画素値は常にゼロ又はエラー値を示すものとなる。画像解析ユニット102は、この画素欠陥を検出したら、画像センサ113A,113Bの画素欠陥エラーを示す画素欠陥情報を処理ハードウェア部120へ出力する。この画素欠陥情報がハードウェアエラー検出部132Gで取得されることにより、画素欠陥が発生した画素を特定することができる。   Further, as a specific example of the hardware error, for example, a pixel defect in which a light receiving element on the image sensors 113A and 113B of the imaging units 110A and 110B fails can be considered. In this case, the pixel value corresponding to the light receiving element always indicates zero or an error value. When detecting this pixel defect, the image analysis unit 102 outputs pixel defect information indicating a pixel defect error of the image sensors 113A and 113B to the processing hardware unit 120. This pixel defect information is acquired by the hardware error detection unit 132G, whereby the pixel in which the pixel defect has occurred can be specified.

このようなハードウェアエラーを検出したハードウェアエラー検出部132Gは、そのハードウェアエラー検出結果を周辺補完処理部132Fへ送る。周辺補完処理部132Fは、このハードウェアエラー検出結果から特定される画素について、その周辺に位置する周辺画素の視差値を用いて補正する周辺視差値補正処理を実行する。具体的には、例えば、図8に示したような補完対象の対象画素Eを中心とした3画素×3画素内の8つの周辺画素A,B,C,D,F,G,H,Iを用いて、以下のような式(3)から当該対象画素Eの画素値を補正する方法が挙げられる。
E=(A+2×B+C+2×D+2×F+G+2×H+I)÷12 ・・・(3)
The hardware error detection unit 132G that has detected such a hardware error sends the hardware error detection result to the peripheral complement processing unit 132F. The peripheral complement processing unit 132F performs peripheral parallax value correction processing for correcting the pixel specified from the hardware error detection result using the parallax value of the peripheral pixel located in the vicinity thereof. Specifically, for example, eight peripheral pixels A, B, C, D, F, G, H, and I in 3 pixels × 3 pixels centering on the target pixel E to be complemented as shown in FIG. And a method of correcting the pixel value of the target pixel E from the following equation (3).
E = (A + 2 × B + C + 2 × D + 2 × F + G + 2 × H + I) ÷ 12 (3)

周辺補完処理部132Fにおける周辺視差値補正処理により、ハードウェアエラーに起因してブランク値又はエラー値を示す画素について視差値が補完されるか、ハードウェアエラーに起因して不適切な視差値を示す画素について視差値が補正される。   By the peripheral parallax value correction process in the peripheral complement processing unit 132F, the parallax value is supplemented for the pixel indicating the blank value or the error value due to the hardware error, or an inappropriate parallax value is set due to the hardware error. The parallax value is corrected for the indicated pixel.

このようにして周辺補完処理部132Fから出力される視差値の中には、未だ、ブランク値又はエラー値を示すものが存在することがある。その原因は、これまでの補正処理、すなわち、輝度補正処理部124による輝度補正処理、歪み補正処理部125による歪み補正処理、輝度ノイズ除去部132Bによるノイズ除去処理、信頼度判定値変更部132Eによる信頼度判定部132Dの信頼度判定値を低下させる判定値低下処理、周辺補完処理部132Fによる周辺視差値補正処理では、解消することができていない原因である。このような原因としては、短時間だけ誤った視差値を生じさせる短時間エラーを原因にするものが挙げられる。具体的には、例えば、対向車両のヘッドランプ等の強い光が瞬間的に撮像ユニット101に入射し、基準画像や比較画像の画素値が飽和してしまう場合である。   In this way, among the disparity values output from the peripheral complement processing unit 132F, there may still be a value indicating a blank value or an error value. The cause is the correction processing so far, that is, the luminance correction processing by the luminance correction processing unit 124, the distortion correction processing by the distortion correction processing unit 125, the noise removal processing by the luminance noise removal unit 132B, and the reliability judgment value changing unit 132E. This is the reason that the determination value reduction process for reducing the reliability determination value of the reliability determination unit 132D and the peripheral parallax value correction process performed by the peripheral complement processing unit 132F cannot be solved. Such causes include those caused by short-time errors that produce erroneous parallax values for only a short time. Specifically, for example, strong light such as a headlamp of an oncoming vehicle instantaneously enters the imaging unit 101 and the pixel values of the reference image and the comparison image are saturated.

そこで、本実施形態では、フレーム間補完処理部132Hにおいて、短時間の視差値エラーが発生している画素について、その撮像フレームよりも前に撮像された正常な視差値が算出されている過去の撮像フレームの視差値を用いて補正する時間差補正処理を実行する。具体的には、最も簡単な方法としては、短時間の視差値エラーが発生している画素の視差値として、同じ画素位置における当該過去の撮像フレームの視差値を補完する方法である。ただし、自車両100が走行している場合、短時間の視差値エラーが発生している画素に対応する撮像領域内の地点が、過去の撮像フレームでは別の画素に対応していることがあるので、自車両100の車速や過去の撮像フレームとの時間差などを考慮し、必要に応じて、過去の撮像フレームにおける別の画素位置の視差値を利用して時間差補正処理を実行してもよい。   Therefore, in the present embodiment, in the inter-frame interpolation processing unit 132H, a normal parallax value captured before the imaging frame is calculated for a pixel in which a short-time parallax value error has occurred. A time difference correction process for correcting using the parallax value of the imaging frame is executed. Specifically, the simplest method is a method of complementing the parallax value of the past imaging frame at the same pixel position as the parallax value of the pixel in which the short-time parallax value error has occurred. However, when the host vehicle 100 is traveling, a point in the imaging region corresponding to a pixel in which a short-time parallax value error has occurred may correspond to another pixel in the past imaging frame. Therefore, the time difference correction process may be executed using the parallax value of another pixel position in the past imaging frame in consideration of the vehicle speed of the host vehicle 100, the time difference from the past imaging frame, and the like. .

なお、以上の説明では、本発明に係る視差値演算装置を利用した物体認識装置を車載機器制御システムに適用した例であったが、これに限られない。例えば、本発明に係る視差値演算装置を利用した物体認識装置を、FA(Factory Automation)に適用した場合、工場ラインを流れるパーツを当該物体認識装置で認識し、その認識結果に基づいて、流れてくるパーツをマニピュレータ装置等によりピッキングする制御に利用できる。   In the above description, the object recognition device using the parallax value calculation device according to the present invention is applied to the in-vehicle device control system. However, the present invention is not limited to this. For example, when an object recognition device using a parallax value calculation device according to the present invention is applied to FA (Factory Automation), a part flowing through a factory line is recognized by the object recognition device, and the flow is determined based on the recognition result. It can be used to control picking of incoming parts with a manipulator device or the like.

以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様A)
撮像領域を撮像する複数の撮像部110A,110Bで撮像した基準画像データ及び比較画像データ等の複数の撮像画像データ間における視差値を1画素等の単位画像領域ごとに算出する視差値算出部132C、信頼度判定部132D等の視差値算出手段を備えた視差値演算装置において、互いに異なる複数の視差値エラー条件のうちの少なくとも1つの視差値エラー条件を満たす単位画像領域の視差値を、該複数の視差値エラー条件ごとに異なる複数の補正処理のうち該少なくとも1つの視差値エラー条件に対応する補正処理を用いて補正する信頼度判定値変更部132E、周辺補完処理部132F、フレーム間補完処理部132H等の視差値補正手段を有することを特徴とする。
本態様によれば、補正対象となる単位画像領域の視差値(エラー値やブランク値を含む。)は、互いに異なる複数の視差値エラー条件のうち、少なくとも1つの視差値エラー条件を満たすものである。よって、これらの視差値エラー条件として、視差値エラーを引き起こすエラー原因をそれぞれ特定可能な条件に設定すれば、補正対象となる単位画像領域の視差値を、エラー原因ごとに区別することができる。そして、本態様では、複数の視差値エラー条件ごとに異なる複数の補正処理があり、補正対象となる単位画像領域の視差値については、その単位画像領域が満たした視差値エラー条件に対応する補正処理を用いて補正がなされる。よって、補正対象となる単位画像領域の視差値を、そのエラー原因に対応した適切な補正処理により補正することが可能となる。なお、ここでいう補正処理は、視差値算出手段により算出された視差値をより適切な視差値に補正するだけでなく、視差値算出手段により視差値が算出されなかった単位画像領域の視差値を補完することも含む。
What has been described above is merely an example, and the present invention has a specific effect for each of the following modes.
(Aspect A)
A parallax value calculation unit 132C that calculates a parallax value between a plurality of captured image data such as reference image data and comparison image data captured by a plurality of imaging units 110A and 110B that capture an imaging region for each unit image region such as one pixel. In the parallax value calculation device including the parallax value calculation means such as the reliability determination unit 132D, the parallax value of the unit image area satisfying at least one parallax value error condition among a plurality of different parallax value error conditions is obtained. A reliability determination value changing unit 132E that corrects using a correction process corresponding to the at least one parallax value error condition among a plurality of correction processes that differ for each of the plurality of parallax value error conditions, a peripheral complement processing unit 132F, and inter-frame complement It has a parallax value correcting means such as a processing unit 132H.
According to this aspect, the parallax value (including an error value and a blank value) of the unit image region to be corrected is a value that satisfies at least one parallax value error condition among a plurality of different parallax value error conditions. is there. Therefore, if the error cause causing the parallax value error is set as a condition that can specify the parallax value error as these parallax value error conditions, the parallax value of the unit image area to be corrected can be distinguished for each error cause. In this aspect, there are a plurality of different correction processes for each of the plurality of parallax value error conditions, and for the parallax value of the unit image area to be corrected, correction corresponding to the parallax value error condition satisfied by the unit image area Corrections are made using the process. Therefore, the parallax value of the unit image area to be corrected can be corrected by an appropriate correction process corresponding to the cause of the error. The correction processing here is not only to correct the parallax value calculated by the parallax value calculating means to a more appropriate parallax value, but also to the parallax value of the unit image area for which the parallax value was not calculated by the parallax value calculating means. Including complementing.

(態様B)
前記態様Aにおいて、前記複数の補正処理は、補正対象となる単位画像領域の視差値について、該単位画像領域の周辺に位置する周辺単位画像領域の視差値を用いて補正する周辺視差値補正処理を含むことを特徴とする。
これによれば、局所的に誤った視差値(エラー値やブランク値を含む。)を、その周辺単位画像領域の正常な視差値によって推定される視差値で補正あるいは補完することができる。周辺単位画像領域の視差値が正常であれば、局所的に誤った視差値を適切に補正することができる。
(Aspect B)
In the aspect A, the plurality of correction processes is a peripheral parallax value correction process in which a parallax value of a unit image area to be corrected is corrected using a parallax value of a peripheral unit image area located around the unit image area. It is characterized by including.
According to this, a locally incorrect parallax value (including an error value and a blank value) can be corrected or supplemented with a parallax value estimated by a normal parallax value of the peripheral unit image area. If the disparity value of the peripheral unit image region is normal, the locally disparity value can be corrected appropriately.

(態様C)
前記態様Bにおいて、局所的に誤った視差値を生じさせる1ビットソフトエラーや画素欠陥等のハードウェアエラーを検出するハードウェアエラー検出部132G等のエラー検出手段を有し、前記複数の視差値エラー条件は、前記エラー検出手段が検出したハードウェアエラーに対応した単位画像領域であるというハードウェアエラー条件を含み、前記周辺視差値補正処理は、前記ハードウェアエラー条件に対応する補正処理であることを特徴とする。
これによれば、ハードウェアエラーに起因して局所的に誤った視差値(エラー値やブランク値を含む。)が生じた場合、これを周辺視差値補正処理により補正、補完することができる。このようなハードウェアエラーに起因した局所的な視差値エラーは、その周辺単位画像領域の視差値は正常であることが多い。よって、ハードウェアエラーに起因して局所的に誤った視差値を適切に補正することができる。
(Aspect C)
In the aspect B, the plurality of parallax values include error detection means such as a hardware error detection unit 132G that detects a hardware error such as a 1-bit soft error or a pixel defect that causes an erroneous parallax value locally. The error condition includes a hardware error condition that the unit image area corresponds to the hardware error detected by the error detection unit, and the peripheral parallax value correction process is a correction process corresponding to the hardware error condition. It is characterized by that.
According to this, when a locally erroneous parallax value (including an error value and a blank value) is generated due to a hardware error, this can be corrected and complemented by the peripheral parallax value correction process. The local parallax value error caused by such a hardware error often has a normal parallax value in the peripheral unit image area. Therefore, it is possible to appropriately correct a parallax value that is locally erroneous due to a hardware error.

(態様D)
前記態様A〜Cのいずれかの態様において、前記視差値算出手段は、単位画像領域ごとに視差値の信頼度を導出し、導出した信頼度が所定の信頼度閾値を超えている視差値については当該単位画像領域の視差値として算出し、導出した信頼度が該所定の信頼度閾値以下である視差値については当該単位画像領域の視差値として算出しないものであり、前記複数の視差値エラー条件は、前記複数の撮像画像データの少なくとも一方における単位画像領域の画素値と該単位画像領域の周辺に位置する周辺単位画像領域の画素値との差が規定値以下であるという画素値平坦条件を含み、前記複数の補正処理は、前記画素値平坦条件に対応する補正処理として、前記所定の信頼度閾値を下げる閾値低下処理を含むことを特徴とする。
信頼度が低い視差値は、視差値がブランク値やエラー値である場合よりも、かえって後段の処理において問題を引き起こすことがある。そのため、導出した信頼度が所定の信頼度閾値以下である信頼性の低い視差値については算出しないものとすることで、後段の処理において問題を引き起こすのを回避することができる。ただし、画素値の差が少ない画素値平坦条件を満たすような画像部分においては、信頼性が低いと判定される場合でも適切な視差値を示している場合も多い。本態様によれば、画素値の差が少ない画素値平坦条件を満たすような画像部分については、所定の信頼度閾値を下げる閾値低下処理が行われる結果、信頼性が低いと判定されても、視差値算出手段において所定の信頼度閾値を超えていると判断されて、その視差値が算出される。
(Aspect D)
In any one of the aspects A to C, the disparity value calculating unit derives the reliability of the disparity value for each unit image area, and the derived reliability is greater than a predetermined reliability threshold. Is calculated as a parallax value of the unit image area, and a parallax value whose derived reliability is less than or equal to the predetermined reliability threshold value is not calculated as a parallax value of the unit image area, and the plurality of parallax value errors The condition is that a pixel value flat condition that a difference between a pixel value of a unit image area in at least one of the plurality of captured image data and a pixel value of a peripheral unit image area located around the unit image area is equal to or less than a specified value The plurality of correction processes include a threshold reduction process for reducing the predetermined reliability threshold as a correction process corresponding to the flat pixel value condition.
A disparity value with low reliability may cause a problem in subsequent processing, rather than a case where the disparity value is a blank value or an error value. Therefore, by not calculating a low-reliability parallax value whose derived reliability is equal to or less than a predetermined reliability threshold, it is possible to avoid causing problems in subsequent processing. However, an image portion that satisfies a pixel value flat condition that has a small difference in pixel values often shows an appropriate parallax value even when it is determined that the reliability is low. According to this aspect, for an image portion that satisfies the pixel value flatness condition with a small difference in pixel values, even if it is determined that the reliability is low as a result of the threshold reduction process for lowering the predetermined reliability threshold, The parallax value calculation means determines that the predetermined reliability threshold value is exceeded, and calculates the parallax value.

(態様E)
前記態様A〜Dのいずれかの態様において、前記複数の補正処理は、補正対象となる単位画像領域の視差値を、該視差値を算出した複数の撮像画像データの撮像時期よりも前及び後の少なくとも一方の時期に撮像した複数の撮像画像データ間における視差値を用いて補正する時間差補正処理を含むことを特徴とする。
これによれば、短時間だけ誤った視差値(エラー値やブランク値を含む。)が算出される場合、当該視差値を、撮像時期が異なる撮像画像データに基づく視差値により適切に補正あるいは補完することができる。
(Aspect E)
In any one of the aspects A to D, the plurality of correction processes may be performed such that the parallax value of the unit image area to be corrected is before and after the imaging timing of the plurality of captured image data for which the parallax value is calculated. Including a time difference correction process in which correction is performed using a parallax value between a plurality of captured image data captured at at least one of the times.
According to this, when an incorrect parallax value (including an error value and a blank value) is calculated for a short time, the parallax value is appropriately corrected or complemented by a parallax value based on captured image data having different imaging timings. can do.

(態様F)
前記態様Eにおいて、前記複数の視差値エラー条件は、短時間だけ誤った視差値を生じさせる単位画像領域であるという短時間エラー条件を含み、前記時間差補正処理は、前記短時間エラー条件に対応する補正処理であることを特徴とする。
これによれば、瞬間的な強い外乱光が撮像手段に入射するなどして、短時間だけ誤った視差値を生じた場合、これを時間差補正処理により適切に補正、補完することができる。
(Aspect F)
In the aspect E, the plurality of parallax value error conditions include a short-time error condition that a unit image area causes an incorrect parallax value for a short time, and the time difference correction processing corresponds to the short-time error condition It is the correction process to perform.
According to this, when an instantaneous strong disturbance light is incident on the imaging means and an incorrect parallax value is generated for a short time, it can be appropriately corrected and supplemented by the time difference correction process.

(態様G)
前記態様A〜Fのいずれかの態様において、前記複数の撮像画像データにおける画素値を補正する輝度補正処理部124、歪み補正処理部125、輝度ノイズ除去部132B等の画素値補正手段を有し、前記視差値算出手段は、前記画素値補正手段によって補正された後の複数の撮像画像データ間における視差値を単位画像領域ごとに算出することを特徴とする。
これによれば、視差値算出手段により視差値を算出する前段階で、視差値エラーを生じさせる原因の一部を撮像画像データから取り除くことができる。よって、より適切な視差値を算出することが可能となる。
(Aspect G)
In any one of the aspects A to F, pixel value correction means such as a luminance correction processing unit 124, a distortion correction processing unit 125, and a luminance noise removal unit 132B that correct pixel values in the plurality of captured image data are provided. The parallax value calculating means calculates a parallax value between a plurality of captured image data corrected by the pixel value correcting means for each unit image area.
According to this, a part of the cause of the parallax value error can be removed from the captured image data before the parallax value is calculated by the parallax value calculating means. Therefore, a more appropriate parallax value can be calculated.

(態様H)
撮像領域を撮像する複数の撮像部110A,110Bを備えた撮像ユニット101等の撮像手段と、前記複数の撮像部で撮像した複数の撮像画像データ間における視差値を単位画像領域ごとに演算する処理ハードウェア部120等の視差値演算装置と、前記視差値演算装置が演算した視差値に基づいて撮像領域内の認識対象物を認識する画像解析ユニット102等の認識処理手段とを有する物体認識装置において、前記視差値演算装置として、前記態様A〜Gのいずれかの態様に係る視差値演算装置を用いたことを特徴とする。
本態様によれば、適切に演算された視差値に基づいて認識対象物の認識処理を行うことができ、誤認識の少ない認識処理を実現できる。
(Aspect H)
Processing for calculating, for each unit image area, a parallax value between an imaging unit such as the imaging unit 101 including a plurality of imaging units 110A and 110B that captures an imaging area and a plurality of captured image data captured by the plurality of imaging units. An object recognition apparatus having a parallax value calculation device such as a hardware unit 120 and a recognition processing unit such as an image analysis unit 102 that recognizes a recognition target in an imaging region based on the parallax value calculated by the parallax value calculation device. The parallax value calculation device according to any one of the modes A to G is used as the parallax value calculation device.
According to this aspect, the recognition target object can be recognized based on the appropriately calculated parallax value, and a recognition process with few erroneous recognitions can be realized.

(態様I)
自車両100等の移動体の周囲に存在する他車両、歩行者、ガードレール等の認識対象物を認識する物体認識装置と、前記物体認識装置の認識結果に基づいて、移動体に搭載された所定の機器を制御する車両走行制御ユニット106等の移動体機器制御手段とを備えた移動体機器制御システムにおいて、前記物体認識装置として、前記態様Hに係る物体認識装置を用いたことを特徴とする。
本態様によれば、誤認識の少ない認識処理に基づいて移動体搭載機器を制御できる。
(Aspect I)
An object recognition device for recognizing recognition objects such as other vehicles, pedestrians, guardrails, etc. existing around the moving body such as the own vehicle 100, and a predetermined mounted on the moving body based on the recognition result of the object recognition apparatus In a mobile device control system comprising a mobile device control means such as a vehicle travel control unit 106 that controls the device, the object recognition device according to aspect H is used as the object recognition device. .
According to this aspect, it is possible to control the mobile unit mounted device based on recognition processing with few erroneous recognitions.

(態様J)
撮像領域を撮像する複数の撮像部で撮像した複数の撮像画像データ間における視差値を演算する視差値演算装置のコンピュータを機能させる視差演算用プログラムであって、前記複数の撮像画像データ間における視差値を単位画像領域ごとに算出する視差値算出手段、及び、互いに異なる複数の視差値エラー条件のうちの少なくとも1つの視差値エラー条件を満たす単位画像領域の視差値を、該複数の視差値エラー条件ごとに異なる複数の補正処理のうち該少なくとも1つの視差値エラー条件に対応する補正処理を用いて補正する視差値補正手段として、前記コンピュータを機能させることを特徴とする。
本態様によれば、補正対象となる単位画像領域の視差値(エラー値やブランク値を含む。)は、互いに異なる複数の視差値エラー条件のうち、少なくとも1つの視差値エラー条件を満たすものである。よって、これらの視差値エラー条件として、視差値エラーを引き起こすエラー原因をそれぞれ特定可能な条件に設定すれば、補正対象となる単位画像領域の視差値を、エラー原因ごとに区別することができる。そして、本態様では、複数の視差値エラー条件ごとに異なる複数の補正処理があり、補正対象となる単位画像領域の視差値については、その単位画像領域が満たした視差値エラー条件に対応する補正処理を用いて補正がなされる。よって、補正対象となる単位画像領域の視差値を、そのエラー原因に対応した適切な補正処理により補正することが可能となる。
なお、このプログラムは、CD−ROM等の記録媒体に記録された状態で配布したり、入手したりすることができる。また、このプログラムを乗せ、所定の送信装置により送信された信号を、公衆電話回線や専用線、その他の通信網等の伝送媒体を介して配信したり、受信したりすることでも、配布、入手が可能である。この配信の際、伝送媒体中には、コンピュータプログラムの少なくとも一部が伝送されていればよい。すなわち、コンピュータプログラムを構成するすべてのデータが、一時に伝送媒体上に存在している必要はない。このプログラムを乗せた信号とは、コンピュータプログラムを含む所定の搬送波に具現化されたコンピュータデータ信号である。また、所定の送信装置からコンピュータプログラムを送信する送信方法には、プログラムを構成するデータを連続的に送信する場合も、断続的に送信する場合も含まれる。
(Aspect J)
A parallax calculation program for causing a computer of a parallax value computing device that computes a parallax value between a plurality of captured image data captured by a plurality of imaging units that capture an imaging area to function as a parallax between the plurality of captured image data A parallax value calculating means for calculating a value for each unit image area, and a parallax value of the unit image area satisfying at least one parallax value error condition among a plurality of different parallax value error conditions from each other. The computer is caused to function as a parallax value correcting unit that performs correction using a correction process corresponding to the at least one parallax value error condition among a plurality of correction processes that differ for each condition.
According to this aspect, the parallax value (including an error value and a blank value) of the unit image region to be corrected is a value that satisfies at least one parallax value error condition among a plurality of different parallax value error conditions. is there. Therefore, if the error cause causing the parallax value error is set as a condition that can specify the parallax value error as these parallax value error conditions, the parallax value of the unit image area to be corrected can be distinguished for each error cause. In this aspect, there are a plurality of different correction processes for each of the plurality of parallax value error conditions, and for the parallax value of the unit image area to be corrected, correction corresponding to the parallax value error condition satisfied by the unit image area Corrections are made using the process. Therefore, the parallax value of the unit image area to be corrected can be corrected by an appropriate correction process corresponding to the cause of the error.
This program can be distributed or obtained in a state of being recorded on a recording medium such as a CD-ROM. It is also possible to distribute and obtain signals by placing this program and distributing or receiving signals transmitted by a predetermined transmission device via transmission media such as public telephone lines, dedicated lines, and other communication networks. Is possible. At the time of distribution, it is sufficient that at least a part of the computer program is transmitted in the transmission medium. That is, it is not necessary for all data constituting the computer program to exist on the transmission medium at one time. The signal carrying the program is a computer data signal embodied on a predetermined carrier wave including the computer program. Further, the transmission method for transmitting a computer program from a predetermined transmission device includes a case where data constituting the program is transmitted continuously and a case where it is transmitted intermittently.

100 自車両
101 撮像ユニット
102 画像解析ユニット
103 表示ユニット
106 車両走行制御ユニット
110A,110B 撮像部
113A,113B 画像センサ
115A,115B 信号処理部
120 処理ハードウェア部
121 視差演算部
122 記憶手段
124 輝度補正処理部
125 補正処理部
132 視差画像生成部
132A 平坦度判定部
132B 輝度ノイズ除去部
132C 視差値算出部
132D 信頼度判定部
132E 信頼度判定値変更部
132F 周辺補完処理部
132G ハードウェアエラー検出部
132H フレーム間補完処理部
DESCRIPTION OF SYMBOLS 100 Own vehicle 101 Imaging unit 102 Image analysis unit 103 Display unit 106 Vehicle travel control unit 110A, 110B Imaging part 113A, 113B Image sensor 115A, 115B Signal processing part 120 Processing hardware part 121 Parallax calculating part 122 Storage means 124 Brightness correction process Unit 125 correction processing unit 132 parallax image generation unit 132A flatness determination unit 132B luminance noise removal unit 132C parallax value calculation unit 132D reliability determination unit 132E reliability determination value change unit 132F peripheral complement processing unit 132G hardware error detection unit 132H frame Interpolation processing section

特許第5239947号公報Japanese Patent No. 5239947

Claims (10)

撮像領域を撮像する複数の撮像部で撮像した複数の撮像画像データ間における視差値を単位画像領域ごとに算出する視差値算出手段を備えた視差値演算装置において、
互いに異なる複数の視差値エラー条件のうちの少なくとも1つの視差値エラー条件を満たす単位画像領域の視差値を、該複数の視差値エラー条件ごとに異なる複数の補正処理のうち該少なくとも1つの視差値エラー条件に対応する補正処理を用いて補正する視差値補正手段を有することを特徴とする視差値演算装置。
In a parallax value calculation device including a parallax value calculation unit that calculates a parallax value between a plurality of captured image data captured by a plurality of imaging units that capture an imaging region for each unit image region,
A parallax value of a unit image area satisfying at least one parallax value error condition among a plurality of different parallax value error conditions is set as the at least one parallax value among a plurality of correction processes different for each of the plurality of parallax value error conditions. A parallax value computing device comprising parallax value correcting means for correcting using a correction process corresponding to an error condition.
請求項1に記載の視差値演算装置において、
前記複数の補正処理は、補正対象となる単位画像領域の視差値について、該単位画像領域の周辺に位置する周辺単位画像領域の視差値を用いて補正する周辺視差値補正処理を含むことを特徴とする視差値演算装置。
In the parallax value calculating apparatus according to claim 1,
The plurality of correction processes include a peripheral parallax value correction process for correcting a parallax value of a unit image area to be corrected using a parallax value of a peripheral unit image area positioned around the unit image area. A parallax value computing device.
請求項2に記載の視差値演算装置において、
局所的に誤った視差値を生じさせるハードウェアエラーを検出するエラー検出手段を有し、
前記複数の視差値エラー条件は、前記エラー検出手段が検出したハードウェアエラーに対応した単位画像領域であるというハードウェアエラー条件を含み、
前記周辺視差値補正処理は、前記ハードウェアエラー条件に対応する補正処理であることを特徴とする視差値演算装置。
The parallax value calculation apparatus according to claim 2,
Having an error detection means for detecting a hardware error causing a locally incorrect parallax value;
The plurality of parallax value error conditions include a hardware error condition that is a unit image area corresponding to a hardware error detected by the error detection unit,
The peripheral parallax value correction process is a correction process corresponding to the hardware error condition.
請求項1乃至3のいずれか1項に記載の視差値演算装置において、
前記視差値算出手段は、単位画像領域ごとに視差値の信頼度を導出し、導出した信頼度が所定の信頼度閾値を超えている視差値については当該単位画像領域の視差値として算出し、導出した信頼度が該所定の信頼度閾値以下である視差値については当該単位画像領域の視差値として算出しないものであり、
前記複数の視差値エラー条件は、前記複数の撮像画像データの少なくとも一方における単位画像領域の画素値と該単位画像領域の周辺に位置する周辺単位画像領域の画素値との差が規定値以下であるという画素値平坦条件を含み、
前記複数の補正処理は、前記画素値平坦条件に対応する補正処理として、前記所定の信頼度閾値を下げる閾値低下処理を含むことを特徴とする視差値演算装置。
In the parallax value calculating device according to any one of claims 1 to 3,
The parallax value calculation means derives the reliability of the parallax value for each unit image area, calculates the parallax value for which the derived reliability exceeds a predetermined reliability threshold as the parallax value of the unit image area, A parallax value whose derived reliability is equal to or less than the predetermined reliability threshold value is not calculated as a parallax value of the unit image area,
The plurality of parallax value error conditions are such that a difference between a pixel value of a unit image area in at least one of the plurality of captured image data and a pixel value of a peripheral unit image area located around the unit image area is equal to or less than a specified value. Including the pixel value flatness condition,
The plurality of correction processes include a threshold value reduction process for reducing the predetermined reliability threshold value as a correction process corresponding to the pixel value flat condition.
請求項1乃至4のいずれか1項に記載の視差値演算装置において、
前記複数の補正処理は、補正対象となる単位画像領域の視差値を、該視差値を算出した複数の撮像画像データの撮像時期よりも前及び後の少なくとも一方の時期に撮像した複数の撮像画像データ間における視差値を用いて補正する時間差補正処理を含むことを特徴とする視差値演算装置。
In the parallax value calculating device according to any one of claims 1 to 4,
The plurality of correction processes are a plurality of captured images obtained by capturing parallax values of a unit image area to be corrected at least before or after the imaging timing of the plurality of captured image data for which the parallax values are calculated. A parallax value calculation device comprising a time difference correction process for correcting using parallax values between data.
請求項5に記載の視差値演算装置において、
前記複数の視差値エラー条件は、短時間だけ誤った視差値を生じさせる単位画像領域であるという短時間エラー条件を含み、
前記時間差補正処理は、前記短時間エラー条件に対応する補正処理であることを特徴とする視差値演算装置。
In the parallax value calculating device according to claim 5,
The plurality of parallax value error conditions include a short-time error condition of being a unit image region that causes an erroneous parallax value for a short time,
The time difference correction process is a correction process corresponding to the short-time error condition.
請求項1乃至6のいずれか1項に記載の視差値演算装置において、
前記複数の撮像画像データにおける画素値を補正する画素値補正手段を有し、
前記視差値算出手段は、前記画素値補正手段によって補正された後の複数の撮像画像データ間における視差値を単位画像領域ごとに算出することを特徴とする視差値演算装置。
In the parallax value calculating device according to any one of claims 1 to 6,
Pixel value correcting means for correcting pixel values in the plurality of captured image data;
The parallax value calculation unit calculates a parallax value between a plurality of captured image data corrected by the pixel value correction unit for each unit image region.
撮像領域を撮像する複数の撮像部を備えた撮像手段と、
前記複数の撮像部で撮像した複数の撮像画像データ間における視差値を単位画像領域ごとに演算する視差値演算装置と、
前記視差値演算装置が演算した視差値に基づいて撮像領域内の認識対象物を認識する認識処理手段とを有する物体認識装置において、
前記視差値演算装置として、請求項1乃至7のいずれか1項に記載の視差値演算装置を用いたことを特徴とする物体認識装置。
An imaging means comprising a plurality of imaging units for imaging the imaging region;
A parallax value calculation device that calculates a parallax value between a plurality of captured image data captured by the plurality of imaging units for each unit image area;
In an object recognition apparatus having a recognition processing means for recognizing a recognition object in an imaging region based on a parallax value calculated by the parallax value calculation apparatus.
An object recognition apparatus using the parallax value calculation apparatus according to claim 1 as the parallax value calculation apparatus.
移動体の周囲に存在する認識対象物を認識する物体認識装置と、
前記物体認識装置の認識結果に基づいて、移動体に搭載された所定の機器を制御する移動体機器制御手段とを備えた移動体機器制御システムにおいて、
前記物体認識装置として、請求項8に記載の物体認識装置を用いたことを特徴とする移動体機器制御システム。
An object recognition device for recognizing a recognition object existing around a moving object;
In a mobile device control system comprising mobile device control means for controlling a predetermined device mounted on a mobile based on the recognition result of the object recognition device,
A mobile device control system using the object recognition device according to claim 8 as the object recognition device.
撮像領域を撮像する複数の撮像部で撮像した複数の撮像画像データ間における視差値を演算する視差値演算装置のコンピュータを機能させる視差演算用プログラムであって、
前記複数の撮像画像データ間における視差値を単位画像領域ごとに算出する視差値算出手段、及び、
互いに異なる複数の視差値エラー条件のうちの少なくとも1つの視差値エラー条件を満たす単位画像領域の視差値を、該複数の視差値エラー条件ごとに異なる複数の補正処理のうち該少なくとも1つの視差値エラー条件に対応する補正処理を用いて補正する視差値補正手段として、前記コンピュータを機能させることを特徴とする視差演算用プログラム。
A parallax calculation program for causing a computer of a parallax value calculation device that calculates a parallax value between a plurality of captured image data captured by a plurality of imaging units that capture an imaging region to function,
Parallax value calculating means for calculating a parallax value between the plurality of captured image data for each unit image area; and
A parallax value of a unit image area satisfying at least one parallax value error condition among a plurality of different parallax value error conditions is set as the at least one parallax value among a plurality of correction processes different for each of the plurality of parallax value error conditions. A parallax calculation program that causes the computer to function as parallax value correction means that corrects using a correction process corresponding to an error condition.
JP2015052169A 2015-03-16 2015-03-16 Parallax value computation device, object recognition device, mobile instrument control system and parallax computation program Pending JP2016173248A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015052169A JP2016173248A (en) 2015-03-16 2015-03-16 Parallax value computation device, object recognition device, mobile instrument control system and parallax computation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015052169A JP2016173248A (en) 2015-03-16 2015-03-16 Parallax value computation device, object recognition device, mobile instrument control system and parallax computation program

Publications (1)

Publication Number Publication Date
JP2016173248A true JP2016173248A (en) 2016-09-29

Family

ID=57008812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015052169A Pending JP2016173248A (en) 2015-03-16 2015-03-16 Parallax value computation device, object recognition device, mobile instrument control system and parallax computation program

Country Status (1)

Country Link
JP (1) JP2016173248A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091534A (en) * 2018-12-03 2020-06-11 キヤノン株式会社 Image processing device, generating method of three=dimensional shape data and program
WO2024062540A1 (en) * 2022-09-20 2024-03-28 日立Astemo株式会社 Image processing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091534A (en) * 2018-12-03 2020-06-11 キヤノン株式会社 Image processing device, generating method of three=dimensional shape data and program
JP7250493B2 (en) 2018-12-03 2023-04-03 キヤノン株式会社 Image processing device, method and program for generating three-dimensional shape data
WO2024062540A1 (en) * 2022-09-20 2024-03-28 日立Astemo株式会社 Image processing device

Similar Documents

Publication Publication Date Title
US10984509B2 (en) Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product
JP6274557B2 (en) Moving surface information detection apparatus, moving body device control system using the same, and moving surface information detection program
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
JP6202367B2 (en) Image processing device, distance measurement device, mobile device control system, mobile device, and image processing program
JP6733225B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6150164B2 (en) Information detection apparatus, mobile device control system, mobile object, and information detection program
US11004215B2 (en) Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
JP2014197378A (en) Object detection device, moving vehicle device control system, and object detection program
WO2017138245A1 (en) Image processing device, object recognition device, device control system, and image processing method and program
JP3562751B2 (en) Forward vehicle detection method and device
US10628960B2 (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
JP2014006885A (en) Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
JP2013250907A (en) Parallax calculation device, parallax calculation method and parallax calculation program
JP2015148887A (en) Image processing device, object recognition device, moving body instrument control system and object recognition program
JP2016206801A (en) Object detection device, mobile equipment control system and object detection program
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
JP2017016584A (en) Object detection device, object detection method, and program
CN109522779B (en) Image processing apparatus and method
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2016173248A (en) Parallax value computation device, object recognition device, mobile instrument control system and parallax computation program
JP7356319B2 (en) Vehicle exterior environment recognition device
JP2016170513A (en) Movable body-mounting equipment control device, movable body, and movable body-mounting equipment control program