JP2016206801A - Object detection device, mobile equipment control system and object detection program - Google Patents

Object detection device, mobile equipment control system and object detection program Download PDF

Info

Publication number
JP2016206801A
JP2016206801A JP2015085364A JP2015085364A JP2016206801A JP 2016206801 A JP2016206801 A JP 2016206801A JP 2015085364 A JP2015085364 A JP 2015085364A JP 2015085364 A JP2015085364 A JP 2015085364A JP 2016206801 A JP2016206801 A JP 2016206801A
Authority
JP
Japan
Prior art keywords
image
parallax
height
area
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015085364A
Other languages
Japanese (ja)
Inventor
高橋 禎郎
Sadao Takahashi
禎郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015085364A priority Critical patent/JP2016206801A/en
Publication of JP2016206801A publication Critical patent/JP2016206801A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To properly detect objects by suppressing such a situation that image regions showing a plurality of approaching objects are erroneously selected as one candidate region.SOLUTION: On the basis of parallax image information for an imaging region, parallax histogram information (real frequency U map information) showing a frequency distribution of parallax values d in each row region obtained by dividing the photographed image into plural pieces in the longitudinal direction is generated. On the basis of the parallax histogram information, image regions approaching in the longitudinal direction of the photographed image, and having proximate parallax values with a frequency equal to or greater than a prescribed value are selected as candidate regions (isolated regions) of a detection object image region showing a detection object. With this, the detection object existing in the imaging region is detected. The image region having a real space height satisfying a prescribed height condition is selected as the candidate region using height distribution information showing a distribution of real space heights on the parallax image.SELECTED DRAWING: Figure 3

Description

本発明は、物体検出装置、移動体機器制御システム及び物体検出用プログラムに関するものである。   The present invention relates to an object detection device, a mobile device control system, and an object detection program.

従来、自動車等の移動体の前方領域(撮像領域)をステレオカメラによって撮像して得られる2つの撮像画像から視差画像情報を取得し、その視差画像情報に基づいて移動体前方領域に存在する他車両等の検出対象物を検出する物体検出装置が知られている。   Conventionally, parallax image information is acquired from two captured images obtained by capturing a front area (imaging area) of a moving body such as an automobile with a stereo camera, and the other area exists in the front area of the moving body based on the parallax image information. An object detection device that detects a detection target such as a vehicle is known.

例えば、特許文献1には、この種の物体検出装置が開示されている。この物体検出装置では、視差画像情報から、撮像画像を左右方向に複数分割して得られる各列領域内における視差値の頻度分布を示す視差ヒストグラム情報(Uマップ情報)を生成する。そして、生成した視差ヒストグラム情報に基づいて、撮像画像の左右方向で近接していて、かつ、所定値以上の頻度をもつ視差値の値が近接している画像領域を、検出対象物を映し出す検出対象物画像領域の候補領域として選別する。そして、選別した候補領域に映し出されている物体の実空間上の幅や高さ等を算出し、算出した幅や高さ等とテーブルデータとを比較して、当該候補領域が検出対象物を映し出す検出対象物画像領域であるか否かを判断する。   For example, Patent Document 1 discloses this type of object detection device. In this object detection device, parallax histogram information (U map information) indicating the frequency distribution of parallax values in each row region obtained by dividing a captured image into a plurality of left and right directions is generated from parallax image information. Then, based on the generated parallax histogram information, detection is performed in which a detection target is projected in an image area that is close in the left-right direction of the captured image and that has a value of a parallax value having a frequency equal to or higher than a predetermined value. The candidate image area is selected as a candidate area. Then, the width and height of the object projected in the selected candidate area are calculated in real space, and the calculated width and height are compared with the table data. It is determined whether or not it is a detection object image area to be projected.

ところが、特許文献1に記載の物体検出装置において、候補領域として選別するにあたり、近接した複数の物体を映し出す複数の画像領域を1つの候補領域(1つの物体を映し出す画像領域)として誤って選別してしまうことがある。例えば、道路脇に存在する壁に寄せて他車両が駐車してある道路を自車両が通過しようとするとき、これらの壁と他車両をそれぞれ映し出す画像領域は、視差ヒストグラム情報において、撮像画像の左右方向で近接していて、かつ、所定値以上の頻度をもつ視差値の値が近接したものとなる。そのため、これらの壁と他車両をそれぞれ映し出す画像領域は1つの候補領域として選別されてしまう。このように、複数の物体を映し出す複数の画像領域が1つの候補領域として選別されると、これらの物体を適切に検出することはできない。   However, in the object detection device described in Patent Document 1, when selecting as candidate areas, a plurality of image areas that project a plurality of adjacent objects are erroneously selected as one candidate area (an image area that displays one object). May end up. For example, when the host vehicle tries to pass a road on which another vehicle is parked near a wall that is located on the side of the road, the image areas in which these walls and the other vehicle are respectively shown in the parallax histogram information The values of parallax values that are close in the left-right direction and have a frequency equal to or higher than a predetermined value are close to each other. For this reason, the image areas in which these walls and other vehicles are projected are selected as one candidate area. As described above, when a plurality of image areas displaying a plurality of objects are selected as one candidate area, these objects cannot be appropriately detected.

上述した課題を解決するために、本発明は、撮像領域についての視差画像情報を生成する視差画像情報生成手段と、前記視差画像情報生成手段が生成した視差画像情報に基づいて、前記撮像画像を左右方向に複数分割して得られる各列領域内における視差値の頻度分布を示す視差ヒストグラム情報を生成する視差ヒストグラム情報生成手段と、前記視差ヒストグラム情報生成手段が生成した視差ヒストグラム情報に基づいて、前記撮像画像の左右方向で近接していて、かつ、所定値以上の頻度をもつ視差値の値が近接している画像領域を、検出対象物を映し出す検出対象物画像領域の候補領域として選別し、選別した候補領域の中から所定の特定条件に従って検出対象物画像領域を特定する検出対象物画像領域特定手段とを有し、前記撮像領域内に存在する検出対象物を検出する物体検出装置において、前記視差画像情報に基づいて、当該視差画像上における実空間高さの分布を示す高さ分布情報を生成する高さ分布情報生成手段を有し、前記検出対象物画像領域特定手段は、前記高さ分布情報を用いて、実空間高さが所定の高さ条件を満たす画像領域を前記候補領域として選別することを特徴とする。   In order to solve the above-described problem, the present invention provides a parallax image information generation unit that generates parallax image information about an imaging region, and the captured image based on the parallax image information generated by the parallax image information generation unit. Based on the parallax histogram information generating means for generating parallax histogram information indicating the frequency distribution of the parallax values in each row region obtained by dividing into multiple in the left-right direction, and the parallax histogram information generated by the parallax histogram information generating means, An image area that is close in the left-right direction of the captured image and that is close to a parallax value having a frequency equal to or higher than a predetermined value is selected as a candidate area for the detection target image area that displays the detection target. Detection object image area specifying means for specifying a detection object image area from the selected candidate areas according to a predetermined specific condition, and the imaging area A height distribution information generating unit configured to generate height distribution information indicating a real space height distribution on the parallax image based on the parallax image information in an object detection device that detects a detection target existing in the object; And the detection object image area specifying means uses the height distribution information to select an image area whose real space height satisfies a predetermined height condition as the candidate area.

本発明によれば、近接した複数の物体を映し出す複数の画像領域が1つの候補領域として誤選別される事態を抑制して、当該物体を適切に検出することが可能になるという優れた効果が得られる。   According to the present invention, it is possible to suppress a situation in which a plurality of image regions that project a plurality of adjacent objects are erroneously selected as one candidate region, and it is possible to appropriately detect the object. can get.

実施形態における車載機器制御システムの概略構成を示す模式図である。It is a mimetic diagram showing a schematic structure of an in-vehicle device control system in an embodiment. 同車載機器制御システムを構成する撮像ユニットの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the imaging unit which comprises the same vehicle equipment control system. 図2における画像処理基板および画像解析ユニットで実現される物体検出処理を説明するための処理ブロック図である。FIG. 3 is a processing block diagram for explaining object detection processing realized by the image processing board and the image analysis unit in FIG. 2. オブジェクトデータリストの一例を示す説明図である。It is explanatory drawing which shows an example of an object data list. (a)は視差画像の視差値分布の一例を示す説明図である。(b)は、同(a)の視差画像の行ごとの視差値頻度分布を示す行視差分布マップ(Vマップ)を示す説明図である。(A) is explanatory drawing which shows an example of the parallax value distribution of a parallax image. (B) is explanatory drawing which shows the row parallax distribution map (V map) which shows the parallax value frequency distribution for every row | line | column of the parallax image of the same (a). 一方の撮像部で撮像される基準画像の一例を模式的に表した画像例である。It is an example of an image showing typically an example of a standard picture imaged with one image pick-up part. 図6の画像例に対応するVマップを示す説明図である。It is explanatory drawing which shows the V map corresponding to the example of an image of FIG. 実施形態における抽出条件を説明するためのVマップを示す説明図である。It is explanatory drawing which shows the V map for demonstrating the extraction conditions in embodiment. 路面形状検出部内の処理ブロック図である。It is a processing block diagram in a road surface shape detection part. 路面候補点検出部で行う路面候補点検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the road surface candidate point detection process performed in a road surface candidate point detection part. 区分直線近似部で行う区分直線近似処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the piecewise straight line approximation process performed in a piecewise straight line approximation part. 一方の撮像部で撮像される基準画像の一例を模式的に表した画像例である。It is an example of an image showing typically an example of a standard picture imaged with one image pick-up part. 図12の画像例に対応する頻度Uマップを示す説明図である。It is explanatory drawing which shows the frequency U map corresponding to the example of an image of FIG. 図12の画像例に対応する高さUマップを示す説明図である。It is explanatory drawing which shows the height U map corresponding to the example of an image of FIG. 図13に示した頻度Uマップに対応するリアル頻度Uマップである。It is a real frequency U map corresponding to the frequency U map shown in FIG. 孤立領域検出部で行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process performed in an isolated area | region detection part. 孤立領域検出部で検出された孤立領域が内接する矩形領域を設定したリアル頻度Uマップを示す説明図である。It is explanatory drawing which shows the real frequency U map which set the rectangular area | region which the isolated area detected by the isolated area detection part inscribed. 図17に示したリアル頻度Uマップに対応する視差画像を模式的に示した説明図である。It is explanatory drawing which showed typically the parallax image corresponding to the real frequency U map shown in FIG. オブジェクトライン群の外接矩形を設定した視差画像を示す説明図である。It is explanatory drawing which shows the parallax image which set the circumscribed rectangle of an object line group. オブジェクトタイプの分類を行うためのテーブルデータの一例を示す表である。It is a table | surface which shows an example of the table data for classifying an object type. 道路脇に存在する壁に寄せて他車両が駐車してある状況の基準画像の一例を模式的に表した画像例である。It is the example of an image showing typically an example of a standard picture of the situation where other vehicles are parked near the wall which exists on the roadside. 図21の画像例に対応するリアル頻度Uマップを示す説明図である。It is explanatory drawing which shows the real frequency U map corresponding to the example of an image of FIG. 図21の画像例に対応するリアル高さUマップを示す説明図である。It is explanatory drawing which shows the real height U map corresponding to the example of an image of FIG. 実施形態における高さ分離処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the height separation process in embodiment. 同高さ分離処理における探索範囲の設定方法を説明するための説明図である。It is explanatory drawing for demonstrating the setting method of the search range in the same height separation process. 同高さ分離処理における壁の探索範囲に対する探索処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the search process with respect to the search range of the wall in the same height separation process. 同高さ分離処理における車両の探索範囲に対する探索処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the search process with respect to the search range of the vehicle in the same height separation process.

以下、本発明に係る物体検出装置を、移動体機器制御システムである車載機器制御システムに用いた一実施形態について説明する。
図1は、本実施形態における車載機器制御システムの概略構成を示す模式図である。
本車載機器制御システムは、移動体である自動車などの自車両100に搭載された撮像ユニット101で撮像した自車両進行方向前方領域(撮像領域)の撮像画像データから検出対象物を検出し、その検知結果を利用して各種車載機器の制御を行う。
Hereinafter, an embodiment in which an object detection device according to the present invention is used in an in-vehicle device control system that is a mobile device control system will be described.
FIG. 1 is a schematic diagram illustrating a schematic configuration of an in-vehicle device control system according to the present embodiment.
The in-vehicle device control system detects a detection target from captured image data of a forward area (imaging area) in the traveling direction of the host vehicle captured by the imaging unit 101 mounted on the host vehicle 100 such as an automobile that is a moving body, Various in-vehicle devices are controlled using the detection results.

本実施形態の車載機器制御システムには、走行する自車両100の進行方向前方領域を撮像領域として撮像する撮像ユニット101が設けられている。この撮像ユニット101は、例えば、自車両100のフロントガラス105のルームミラー付近に設置される。撮像ユニット101の撮像によって得られる撮像画像データ等の各種データは、画像解析ユニット102に入力される。画像解析ユニット102は、撮像ユニット101から送信されてくるデータを解析して、撮像領域内に存在する他車両等の検出対象物を検出する。   The in-vehicle device control system of the present embodiment is provided with an image pickup unit 101 that picks up an image of an area in the traveling direction of the traveling vehicle 100 as an image pickup area. For example, the imaging unit 101 is installed in the vicinity of a room mirror of the windshield 105 of the host vehicle 100. Various data such as captured image data obtained by imaging by the imaging unit 101 is input to the image analysis unit 102. The image analysis unit 102 analyzes the data transmitted from the imaging unit 101 and detects a detection target such as another vehicle existing in the imaging region.

画像解析ユニット102の検出結果は、車両走行制御ユニット106に送られる。車両走行制御ユニット106は、画像解析ユニット102が検出した検出結果に基づいて、自車両100の運転者へ表示モニタ103を用いて警告を報知したり、自車両のハンドルやブレーキを制御するなどの走行支援制御を行ったりする。   The detection result of the image analysis unit 102 is sent to the vehicle travel control unit 106. Based on the detection result detected by the image analysis unit 102, the vehicle travel control unit 106 notifies the driver of the host vehicle 100 of a warning using the display monitor 103, or controls the handle or brake of the host vehicle. Carry out driving support control.

図2は、撮像ユニット101の概略構成を示す模式図である。
撮像ユニット101は、撮像手段としての2つの撮像部110A,110Bを備えたステレオカメラを備えており、2つの撮像部110A,110Bは同一のものである。各撮像部110A,110Bは、それぞれ、撮像レンズ111A,111Bと、受光素子が2次元配置された画像センサ113A,113Bと、画像センサコントローラ115A,115Bとから構成されている。画像センサコントローラ115A,115Bは、画像センサ113A,113Bの露光制御、画像読み出し制御、外部回路との通信、画像データの送信等の役割を担う。画像センサコントローラ115A,115Bからは、画像センサ113A,113Bから出力されるアナログ電気信号(画像センサ上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データ(輝度画像データ)が出力される。
FIG. 2 is a schematic diagram illustrating a schematic configuration of the imaging unit 101.
The imaging unit 101 includes a stereo camera including two imaging units 110A and 110B as imaging means, and the two imaging units 110A and 110B are the same. Each of the imaging units 110A and 110B includes imaging lenses 111A and 111B, image sensors 113A and 113B in which light receiving elements are two-dimensionally arranged, and image sensor controllers 115A and 115B, respectively. The image sensor controllers 115A and 115B play a role such as exposure control of the image sensors 113A and 113B, image readout control, communication with an external circuit, transmission of image data, and the like. From the image sensor controllers 115A and 115B, captured image data (luminance image data) obtained by converting analog electrical signals (the amount of light received by the respective light receiving elements on the image sensor) output from the image sensors 113A and 113B into digital electrical signals. Is output.

また、撮像ユニット101は、2つの撮像部110A,110Bに対してデータバス及びシリアルバスで接続された画像処理基板120を備えている。画像処理基板120には、CPU(Central Processing Unit)、RAM、ROM、FPGA(Field-Programmable Gate Array)、シリアルIF(インターフェース)、データIFなどが設けられている。画像処理基板120のデータバスは、2つの撮像部110A,110Bから出力される輝度画像データを画像処理基板120上のRAMに転送する。画像処理基板120のシリアルバスは、CPUやFPGAからのセンサ露光制御値の変更命令、画像読み出しパラメータの変更命令、各種設定データなどの送受信を行う。画像処理基板120のFPGAは、RAMに保存された画像データに対してリアルタイム性が要求される処理、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像データを生成し、RAMに書き戻す。CPUは、路面形状検出処理、オブジェクト検出処理等を実行するためのプログラムをROMからロードし、RAMに蓄えられた輝度画像データや視差画像データを入力して、各種処理を実行する。検出された各種データは、データIFやシリアルIFから外部へ出力される。各種処理の実行に際しては、データIFを利用して、適宜、車両の情報(車速、加速度、舵角、ヨーレートなど)を入力し、各種処理のパラメータとして使用する。   The imaging unit 101 includes an image processing board 120 connected to the two imaging units 110A and 110B by a data bus and a serial bus. The image processing board 120 is provided with a CPU (Central Processing Unit), RAM, ROM, FPGA (Field-Programmable Gate Array), serial IF (interface), data IF, and the like. The data bus of the image processing board 120 transfers luminance image data output from the two imaging units 110A and 110B to the RAM on the image processing board 120. The serial bus of the image processing board 120 transmits / receives a sensor exposure control value change command, an image read parameter change command, various setting data, and the like from the CPU and FPGA. The FPGA of the image processing board 120 performs a parallax image by performing a process requiring real-time processing on the image data stored in the RAM, for example, gamma correction, distortion correction (parallelization of left and right images), and parallax calculation by block matching. Data is generated and written back to the RAM. The CPU loads a program for executing road surface shape detection processing, object detection processing, and the like from the ROM, inputs luminance image data and parallax image data stored in the RAM, and executes various processes. Various types of detected data are output from the data IF or serial IF to the outside. When executing various processes, vehicle information (vehicle speed, acceleration, rudder angle, yaw rate, etc.) is appropriately input using the data IF and used as parameters for various processes.

次に、本実施形態における物体検出処理について説明する。
図3は、主に画像処理基板120上のCPUがプログラムを実行することによってあるいはFPGAによって実現される物体検出処理を説明するための処理ブロック図である。
ステレオカメラを構成する2つの撮像部110A,110Bからは輝度画像データが出力される。このとき、撮像部110A,110Bがカラーの場合には、そのRGB信号から輝度信号(Y)を得るカラー輝度変換を、例えば下記の式(1)を用いて行う。
Y = 0.3R + 0.59G + 0.11B ・・・(1)
Next, the object detection process in this embodiment will be described.
FIG. 3 is a processing block diagram for explaining object detection processing realized mainly by the CPU on the image processing board 120 executing a program or by an FPGA.
Luminance image data is output from the two imaging units 110A and 110B constituting the stereo camera. At this time, when the imaging units 110A and 110B are in color, color luminance conversion for obtaining a luminance signal (Y) from the RGB signals is performed using, for example, the following equation (1).
Y = 0.3R + 0.59G + 0.11B (1)

輝度画像データが入力されると、まず、平行化画像生成部131で平行化画像生成処理を実行する。この平行化画像生成処理は、撮像部110A,110Bにおける光学系の歪みや左右の撮像部110A,110Bの相対的な位置関係から、各撮像部110A,110Bから出力される輝度画像データ(基準画像と比較画像)を、2つのピンホールカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像となるように変換する。これは、各画素での歪み量を、Δx=f(x,y)、Δy=g(x,y)という多項式を用いて計算し、その計算結果を用いて、各撮像部110A,110Bから出力される輝度画像データ(基準画像と比較画像)の各画素を変換する。多項式は、例えば、x(画像の横方向位置)、y(画像の縦方向位置)に関する5次多項式に基づく。   When the luminance image data is input, first, the parallelized image generation unit 131 executes a parallelized image generation process. This parallelized image generation processing is performed using luminance image data (reference image) output from each of the imaging units 110A and 110B based on the distortion of the optical system in the imaging units 110A and 110B and the relative positional relationship between the left and right imaging units 110A and 110B. And the comparison image) are converted into an ideal parallel stereo image obtained when two pinhole cameras are mounted in parallel. This is because the amount of distortion in each pixel is calculated using polynomials Δx = f (x, y) and Δy = g (x, y), and the calculation results are used to calculate the distortion amount from each of the imaging units 110A and 110B. Each pixel of the output luminance image data (reference image and comparison image) is converted. The polynomial is based on, for example, a quintic polynomial relating to x (the horizontal position of the image) and y (the vertical position of the image).

このようにして平行化画像処理を行った後、次に、FPGA等で構成される視差画像生成部132において、視差画像データ(視差画像情報)を生成する視差画像生成処理を行う。視差画像生成処理では、まず、2つの撮像部110A,110Bのうちの一方の撮像部110Aの輝度画像データを基準画像データとし、他方の撮像部110Bの輝度画像データを比較画像データとし、これらを用いて両者の視差を演算して、視差画像データを生成して出力する。この視差画像データは、基準画像データ上の各画像部分について算出される視差値dに応じた画素値をそれぞれの画像部分の画素値として表した視差画像を示すものである。   After performing the parallelized image processing in this way, next, the parallax image generation unit 132 configured by FPGA or the like performs parallax image generation processing for generating parallax image data (parallax image information). In the parallax image generation processing, first, the luminance image data of one imaging unit 110A of the two imaging units 110A and 110B is set as reference image data, and the luminance image data of the other imaging unit 110B is set as comparison image data, and these are used. The parallax between them is calculated to generate and output parallax image data. The parallax image data indicates a parallax image in which pixel values corresponding to the parallax value d calculated for each image portion on the reference image data are represented as pixel values of the respective image portions.

具体的には、視差画像生成部132は、基準画像データのある行について、一の注目画素を中心とした複数画素(例えば16画素×1画素)からなるブロックを定義する。一方、比較画像データにおける同じ行において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向(X方向)へずらし、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。そして、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値dとして算出する。このような視差値dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得ることができる。   Specifically, the parallax image generation unit 132 defines a block composed of a plurality of pixels (for example, 16 pixels × 1 pixel) centered on one target pixel for a certain row of reference image data. On the other hand, in the same row in the comparison image data, a block having the same size as the block of the defined reference image data is shifted by one pixel in the horizontal line direction (X direction) to show the feature of the pixel value of the block defined in the reference image data. Correlation values indicating the correlation between the feature amount and the feature amount indicating the feature of the pixel value of each block in the comparison image data are calculated. Then, based on the calculated correlation value, a matching process is performed for selecting a block of comparison image data that is most correlated with the block of reference image data among the blocks in the comparison image data. Thereafter, a positional deviation amount between the target pixel of the block of the reference image data and the corresponding pixel of the block of the comparison image data selected by the matching process is calculated as the parallax value d. The parallax image data can be obtained by performing such processing for calculating the parallax value d for the entire area of the reference image data or a specific area.

マッチング処理に用いるブロックの特徴量としては、例えば、ブロック内の各画素の値(輝度値)を用いることができ、相関値としては、例えば、基準画像データのブロック内の各画素の値(輝度値)と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値(輝度値)との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが最も相関があると言える。   As the feature amount of the block used for the matching process, for example, the value (luminance value) of each pixel in the block can be used, and as the correlation value, for example, the value (luminance) of each pixel in the block of the reference image data Value) and the sum of absolute values of the differences between the values (luminance values) of the pixels in the block of comparison image data corresponding to these pixels, respectively. In this case, it can be said that the block having the smallest sum is most correlated.

視差画像生成部132でのマッチング処理をハードウェア処理によって実現する場合には、例えばSSD(Sum of Squared Difference)、ZSSD(Zero-mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、ZSAD(Zero-mean Sum of Absolute Difference)などの方法を用いることができる。なお、マッチング処理では画素単位での視差値しか算出できないので、1画素未満のサブピクセルレベルの視差値が必要な場合には推定値を用いる必要がある。その推定方法としては、例えば、等角直線方式、二次曲線方式等を利用することができる。ただし、このサブピクセルレベルの推定視差値には誤差が発生するので、この推定誤差を減少させるEEC(推定誤差補正)などを用いてもよい。   When the matching processing in the parallax image generation unit 132 is realized by hardware processing, for example, SSD (Sum of Squared Difference), ZSSD (Zero-mean Sum of Squared Difference), SAD (Sum of Absolute Difference), ZSAD ( A method such as Zero-mean Sum of Absolute Difference can be used. In the matching process, only a parallax value in units of pixels can be calculated. Therefore, when a sub-pixel level parallax value less than one pixel is required, an estimated value needs to be used. As the estimation method, for example, an equiangular straight line method, a quadratic curve method, or the like can be used. However, since an error occurs in the estimated parallax value at the sub-pixel level, EEC (estimated error correction) or the like for reducing the estimated error may be used.

次に、オブジェクトトラッキング部133は、過去の撮像フレームの画像検出処理で検出されたオブジェクト(検出対象物)を追跡する処理を実行する。
詳しく説明すると、本実施形態においては、過去の画像検出処理で検出されたオブジェクトの情報を示すオブジェクトデータリスト135が保存される。オブジェクトデータリスト135は、図4に示すように、検出したオブジェクトデータの最新情報(最新の位置、大きさ、距離、相対速度、視差情報)に加え、オブジェクト予測データ(次の撮像フレームにおいて当該オブジェクトがどの位置にいるかを推測する情報)、オブジェクトトラッキング部133や後述のオブジェクトマッチング部147で利用するオブジェクト特徴量、当該オブジェクトがどれだけのフレーム数検出されたか又は連続して検出されなかったかを示す検出/未検出フレーム数、当該オブジェクトが追跡すべき対象かどうかを示す要追跡確度(安定フラグ)などを含む。
Next, the object tracking unit 133 executes processing for tracking the object (detection target) detected in the image detection processing of the past imaging frame.
More specifically, in the present embodiment, an object data list 135 indicating information on objects detected by past image detection processing is stored. As shown in FIG. 4, the object data list 135 includes object prediction data (the object in the next imaging frame) in addition to the latest information (latest position, size, distance, relative speed, parallax information) of the detected object data. Information indicating the position of the object), the object feature amount used in the object tracking unit 133 and the object matching unit 147 described later, and how many frames the object is detected or not detected continuously. This includes the number of detected / undetected frames, tracking accuracy (stability flag) indicating whether the object is a target to be tracked, and the like.

オブジェクト選択部134は、オブジェクトデータリスト135に保存されているオブジェクトについて、当該オブジェクトの存在確度が高いとか(S=1)、当該オブジェクトが追跡対象とするのにふさわしい位置にいるか等を判断基準にして、当該オブジェクトを追跡するか否かを選択する。具体的には、オブジェクトデータリスト135のオブジェクト予測データに基づいて当該オブジェクトが位置すると予測される視差画像データ中の予測範囲を設定し、その予測範囲内における当該オブジェクトの高さを特定した後、オブジェクトデータリスト135のオブジェクト特徴量を参照して、特定した高さから当該オブジェクトの幅を特定し、特定した幅から視差画像データ上におけるオブジェクトの横方向位置を推定する。このようにして推定したオブジェクトの横方向位置が所定の追跡対象条件(当該オブジェクトが画像内に存在する確度が高い位置である場合、当該オブジェクトが追跡対象とするのにふさわしい位置である場合等)を満たせば、当該オブジェクトを追跡対象として選択し、その結果をオブジェクトトラッキング部133に出力する。なお、オブジェクト選択部134の結果に基づき、オブジェクトデータリスト135の情報を更新する。   The object selection unit 134 determines whether the object stored in the object data list 135 has a high probability of existence of the object (S = 1), whether the object is in a position suitable for tracking, and the like. To select whether to track the object. Specifically, after setting the prediction range in the parallax image data where the object is predicted to be located based on the object prediction data of the object data list 135, and specifying the height of the object within the prediction range, With reference to the object feature amount of the object data list 135, the width of the object is specified from the specified height, and the horizontal position of the object on the parallax image data is estimated from the specified width. The lateral position of the object estimated in this way is a predetermined tracking target condition (when the object is in a position where the probability that the object exists in the image is high, or when the object is a position suitable for tracking) If this condition is satisfied, the object is selected as a tracking target, and the result is output to the object tracking unit 133. Note that the information in the object data list 135 is updated based on the result of the object selection unit 134.

オブジェクトトラッキング部133は、オブジェクト選択部134により追跡対象として選択されたオブジェクトについて追跡処理を行う。この追跡処理のため、オブジェクトトラッキング部133には、視差画像生成部132で生成された視差画像データと、オブジェクト選択部134で選択されたオブジェクトデータのオブジェクト予測データ及びオブジェクト特徴量が入力される。   The object tracking unit 133 performs tracking processing on the object selected as the tracking target by the object selection unit 134. For this tracking process, the object tracking unit 133 receives the parallax image data generated by the parallax image generation unit 132 and the object prediction data and the object feature amount of the object data selected by the object selection unit 134.

視差補間部136は、上述した視差画像生成部132における視差画像生成処理で視差値が算出できなかった画像部分の視差値を補間する視差補間処理を実行する。例えば、輝度画像データ上において横方向のエッジ部分や輝度変化が少ない箇所では視差画像生成処理のブロックマッチングが正しく計算できず、視差値が算出されない場合がある。このような場合、視差補間処理において、所定の補間条件を満たした画像部分については、離れた二画素間の間を補間視差で埋める処理を行う。補間条件としては、例えば、同一の横方向座標内の二点間の距離が所定の大きさ(幅)より小さく、その二点間に他の視差値が存在しないという条件を挙げることができる。   The parallax interpolation unit 136 performs a parallax interpolation process for interpolating the parallax value of the image portion for which the parallax value could not be calculated by the parallax image generation process in the parallax image generation unit 132 described above. For example, in the luminance image data, block matching in the parallax image generation processing cannot be calculated correctly at the edge portion in the horizontal direction or a portion where the luminance change is small, and the parallax value may not be calculated. In such a case, in the parallax interpolation process, for an image portion that satisfies a predetermined interpolation condition, a process for filling between two distant pixels with the interpolation parallax is performed. As an interpolation condition, for example, a condition that the distance between two points in the same lateral coordinate is smaller than a predetermined size (width), and no other parallax value exists between the two points.

以上のようにして視差補間処理を行ったら、次に、Vマップ生成部137において、Vマップを生成するVマップ生成処理を実行する。視差画像データに含まれる各視差画素データは、x方向位置とy方向位置と視差値dとの組(x,y,d)で示されるところ、これを、X軸にd、Y軸にy、Z軸に頻度fを設定した三次元座標情報(d,y,f)に変換したもの、又はこの三次元座標情報(d,y,f)から所定の頻度閾値を超える情報に限定した三次元座標情報(d,y,f)を生成する。この三次元座標情報(d,y,f)をX−Yの2次元座標系に分布させたものを、Vマップと呼ぶ。   After performing the parallax interpolation processing as described above, the V map generation unit 137 next executes V map generation processing for generating a V map. Each piece of parallax pixel data included in the parallax image data is indicated by a set (x, y, d) of an x-direction position, a y-direction position, and a parallax value d, which is d on the X axis and y on the Y axis. , Converted to three-dimensional coordinate information (d, y, f) with the frequency f set on the Z-axis, or tertiary limited to information exceeding a predetermined frequency threshold from the three-dimensional coordinate information (d, y, f) Original coordinate information (d, y, f) is generated. The three-dimensional coordinate information (d, y, f) distributed in the XY two-dimensional coordinate system is called a V map.

具体的に説明すると、Vマップ生成部137は、画像を上下方向に複数分割して得られる視差画像データの各行領域について、視差値頻度分布を計算する。具体例を挙げて説明すると、図5(a)に示すような視差値分布をもった視差画像データが入力されたとき、Vマップ生成部137は、行ごとの各視差値のデータの個数の分布である視差値頻度分布を計算して出力する。このようにして得られる各行の視差値頻度分布の情報を、Y軸に視差画像上のy方向位置(撮像画像の上下方向位置)をとりX軸に視差値をとった二次元直交座標系上に表すことで、図5(b)に示すようなVマップを得ることができる。このVマップは、頻度fに応じた画素値をもつ画素が前記二次元直交座標系上に分布した画像として表現することもできる。   More specifically, the V map generation unit 137 calculates a disparity value frequency distribution for each row region of disparity image data obtained by dividing an image into a plurality of parts in the vertical direction. To explain with a specific example, when parallax image data having a parallax value distribution as shown in FIG. 5A is input, the V map generation unit 137 determines the number of pieces of data of each parallax value for each row. A disparity value frequency distribution as a distribution is calculated and output. The parallax value frequency distribution information of each row obtained in this way is represented on a two-dimensional orthogonal coordinate system in which the y-axis position on the parallax image (the vertical position of the captured image) is taken on the Y-axis and the parallax value is taken on the X-axis. By expressing in V, a V map as shown in FIG. 5B can be obtained. This V map can also be expressed as an image in which pixels having pixel values corresponding to the frequency f are distributed on the two-dimensional orthogonal coordinate system.

次に、本実施形態では、Vマップ生成部137が生成したVマップの情報(視差ヒストグラム情報)から、路面形状検出部138において、自車両100の前方路面の3次元形状を検出する路面形状検出処理が実行される。
図6は、撮像部110Aで撮像される基準画像の一例を模式的に表した画像例である。
図7は、図6の画像例に対応するVマップである。
図6に示す画像例では、自車両100が走行している路面と、自車両100の前方に存在する先行車両と、路外に存在する電柱が映し出されている。この画像例は、自車両100の前方路面が相対的に平坦な路面、すなわち、自車両100の前方路面が自車両100の真下の路面部分と平行な面を自車両前方へ延長して得られる仮想の基準路面(仮想基準移動面)に一致している場合のものである。この場合、画像の下部に対応するVマップの下部において、高頻度の点は、画像上方へ向かうほど視差値dが小さくなるような傾きをもった略直線状に分布する。このような分布を示す画素は、視差画像上の各行においてほぼ同一距離に存在していてかつ最も占有率が高く、しかも画像上方へ向かうほど距離が連続的に遠くなる検出対象物を映し出した画素であると言える。
Next, in this embodiment, road surface shape detection in which the road surface shape detection unit 138 detects the three-dimensional shape of the front road surface of the host vehicle 100 from the V map information (parallax histogram information) generated by the V map generation unit 137. Processing is executed.
FIG. 6 is an image example schematically illustrating an example of a reference image captured by the imaging unit 110A.
FIG. 7 is a V map corresponding to the image example of FIG.
In the image example shown in FIG. 6, a road surface on which the host vehicle 100 is traveling, a preceding vehicle existing in front of the host vehicle 100, and a utility pole existing outside the road are displayed. This image example is obtained by extending a road surface in which the front road surface of the host vehicle 100 is relatively flat, that is, a surface in which the front road surface of the host vehicle 100 is parallel to a road surface portion directly below the host vehicle 100 to the front side of the host vehicle 100. This is a case where it coincides with a virtual reference road surface (virtual reference movement surface). In this case, in the lower part of the V map corresponding to the lower part of the image, the high-frequency points are distributed in a substantially straight line having an inclination such that the parallax value d decreases toward the upper part of the image. Pixels exhibiting such a distribution are pixels that are present at almost the same distance in each row on the parallax image, have the highest occupation ratio, and project a detection object whose distance continuously increases toward the top of the image. It can be said that.

撮像部110Aでは自車両前方領域を撮像するため、その撮像画像の内容は、図6に示すように、画像上方へ向かうほど路面の視差値dは小さくなる。また、同じ行(横ライン)内において、路面を映し出す画素はほぼ同じ視差値dを持つことになる。したがって、Vマップ上において上述した略直線状に分布する高頻度の点は、路面(移動面)を映し出す画素が持つ特徴に対応したものである。よって、Vマップ上における高頻度の点を直線近似して得られる近似直線上又はその近傍に分布する点の画素は、高い精度で、路面を映し出している画素であると推定することができる。また、各画素に映し出されている路面部分までの距離は、当該近似直線上の対応点の視差値dから高精度に求めることができる。   Since the imaging unit 110A captures an area in front of the host vehicle, the parallax value d of the road surface decreases as the content of the captured image moves upward as shown in FIG. Also, in the same row (horizontal line), the pixels that project the road surface have substantially the same parallax value d. Therefore, the high-frequency points distributed substantially linearly on the V map correspond to the characteristics of the pixels that project the road surface (moving surface). Therefore, it is possible to estimate that the pixels of the points distributed on or near the approximate straight line obtained by linearly approximating high-frequency points on the V map are the pixels displaying the road surface with high accuracy. Further, the distance to the road surface portion projected on each pixel can be obtained with high accuracy from the parallax value d of the corresponding point on the approximate straight line.

ここで、Vマップ上における高頻度の点を直線近似する際、その直線近似処理に含める点をどの範囲まで含めるかは、その処理結果の精度を大きく左右する。すなわち、直線近似処理に含める範囲が広いほど、路面に対応しない点が多く含まれ、処理精度を落とすことになり、また、直線近似処理に含める範囲が狭いほど、路面に対応する点の数が少なく、やはり処理精度を落とす結果となる。そこで、本実施形態では、直線近似処理の対象とする視差ヒストグラム情報部分を、以下のようにして抽出している。   Here, when linearly approximating high-frequency points on the V map, the range of points to be included in the linear approximation processing greatly affects the accuracy of the processing result. In other words, the wider the range included in the straight line approximation process, the more points that do not correspond to the road surface are included, and the processing accuracy is reduced. The narrower the range included in the straight line approximation process is, the smaller the number of points corresponding to the road surface is. However, the processing accuracy is reduced. Therefore, in the present embodiment, the parallax histogram information portion that is the target of the straight line approximation process is extracted as follows.

図8は、本実施形態における抽出条件を説明するためのVマップを示す説明図である。
本実施形態のVマップ生成部137では、視差画像データを受け取ると、その視差画像データに含まれる各視差画素データ(x,y,d)を、三次元座標情報である視差ヒストグラム情報構成要素としてのVマップ要素(d,y,f)に変換して、視差ヒストグラム情報としてのVマップ情報を生成する。このとき、視差画像データの中から、画像上下方向位置yと視差値dとの関係が所定の抽出条件を満たす視差画素データを抽出し、その抽出した視差画素データを対象にして上述した変換を行い、Vマップ情報を生成する。
FIG. 8 is an explanatory diagram showing a V map for explaining extraction conditions in the present embodiment.
When the V map generation unit 137 of the present embodiment receives parallax image data, each parallax pixel data (x, y, d) included in the parallax image data is used as a parallax histogram information constituent element that is three-dimensional coordinate information. To V map information (d, y, f) to generate V map information as parallax histogram information. At this time, the parallax pixel data in which the relationship between the image vertical position y and the parallax value d satisfies a predetermined extraction condition is extracted from the parallax image data, and the above-described conversion is performed on the extracted parallax pixel data. To generate V map information.

本実施形態における抽出条件は、自車両100の前方路面が自車両100の真下の路面部分と平行な面を自車両前方へ延長して得られる仮想の基準路面(仮想基準移動面)に対応する視差値dと画像上下方向位置yとの関係を基準として定まる所定の抽出範囲内に属するという条件である。この基準路面に対応する視差値dと画像上下方向位置yとの関係は、図8に示すように、Vマップ上において直線(以下「基準直線」という。)で示される。本実施形態では、この直線を中心に画像上下方向へ±δの範囲を、抽出範囲として規定している。この抽出範囲は、状況に応じて刻々と変化する実際の路面のVマップ要素(d,y,f)の変動範囲を含むように設定される。   The extraction condition in the present embodiment corresponds to a virtual reference road surface (virtual reference movement surface) obtained by extending a front road surface of the host vehicle 100 parallel to a road surface portion immediately below the host vehicle 100 to the front of the host vehicle. This is a condition that the image belongs to a predetermined extraction range determined based on the relationship between the parallax value d and the image vertical position y. The relationship between the parallax value d corresponding to the reference road surface and the image vertical position y is indicated by a straight line (hereinafter referred to as “reference straight line”) on the V map, as shown in FIG. In the present embodiment, a range of ± δ in the vertical direction of the image around this straight line is defined as the extraction range. This extraction range is set so as to include the fluctuation range of the actual road surface V map element (d, y, f) that changes momentarily according to the situation.

具体的には、例えば、自車両前方の路面が相対的に上り傾斜である場合、当該路面が相対的に平坦である場合よりも、撮像画像中に映し出される路面画像部分(移動面画像領域)は画像上側へ広がる。しかも、同じ画像上下方向位置yに映し出される路面画像部分を比較すると、相対的に上り傾斜である場合には、相対的に平坦である場合よりも、視差値dが大きくなる。この場合のVマップ要素(d,y,f)は、Vマップ上において、おおよそ、基準直線に対し、上側に位置し、かつ、傾き(絶対値)が大きい直線を示すものとなる。本実施形態では、前方の路面における相対的な上り傾斜が想定され得る範囲内であれば、その路面のVマップ要素(d,y,f)が抽出範囲内に収まる。   Specifically, for example, when the road surface ahead of the host vehicle is relatively upwardly inclined, the road surface image portion (moving surface image region) displayed in the captured image is more than when the road surface is relatively flat. Expands to the top of the image. In addition, when comparing road surface image portions projected at the same image vertical direction position y, the parallax value d is greater when the slope is relatively upward than when it is relatively flat. In this case, the V map element (d, y, f) is a straight line that is positioned above the reference straight line and has a large slope (absolute value) on the V map. In the present embodiment, the V map element (d, y, f) of the road surface falls within the extraction range as long as the relative upward inclination on the road surface in front can be assumed.

また、例えば、自車両前方の路面が相対的に下り傾斜である場合、そのVマップ要素(d,y,f)は、Vマップ上において、基準直線に対し、下側に位置し、かつ、傾き(絶対値)が小さい直線を示すものとなる。本実施形態では、前方の路面における相対的な下り傾斜が想定され得る範囲内であれば、その路面のVマップ要素(d,y,f)が抽出範囲内に収まる。   Further, for example, when the road surface in front of the host vehicle has a relatively downward slope, the V map element (d, y, f) is located below the reference straight line on the V map, and A straight line having a small slope (absolute value) is shown. In the present embodiment, the V map element (d, y, f) of the road surface falls within the extraction range as long as the relative downward inclination on the road surface ahead can be assumed.

また、例えば、自車両100が速度を加速している加速時においては、自車両100の後方に加重がかかり、自車両の姿勢は、自車両前方が鉛直方向上側を向くような姿勢となる。この場合、自車両100の速度が一定である場合と比べて、撮像画像中に映し出される路面画像部分(移動面画像領域)は画像下側へシフトする。この場合のVマップ要素(d,y,f)は、Vマップ上において、おおよそ、基準直線に対し、下側に位置し、かつ、基準直線とほぼ平行な直線を示すものとなる。本実施形態では、自車両100の加速が想定され得る範囲内であれば、その路面のVマップ要素(d,y,f)が抽出範囲内に収まる。   Further, for example, during acceleration in which the host vehicle 100 is accelerating the speed, a weight is applied to the rear of the host vehicle 100, and the posture of the host vehicle is such that the front of the host vehicle is directed upward in the vertical direction. In this case, as compared with the case where the speed of the host vehicle 100 is constant, the road surface image portion (moving surface image region) displayed in the captured image is shifted to the lower side of the image. In this case, the V map element (d, y, f) is located on the lower side of the reference line on the V map and indicates a straight line substantially parallel to the reference straight line. In the present embodiment, the V map element (d, y, f) of the road surface is within the extraction range as long as the acceleration of the host vehicle 100 can be assumed.

また、例えば、自車両100が速度を減速している減速時においては、自車両100の前方に加重がかかり、自車両の姿勢は、自車両前方が鉛直方向下側を向くような姿勢となる。この場合、自車両100の速度が一定である場合と比べて、撮像画像中に映し出される路面画像部分(移動面画像領域)は画像上側へシフトする。この場合のVマップ要素(d,y,f)は、Vマップ上において、おおよそ、基準直線に対し、上側に位置し、かつ、基準直線とほぼ平行な直線を示すものとなる。本実施形態では、自車両100の減速が想定され得る範囲内であれば、その路面のVマップ要素(d,y,f)が抽出範囲内に収まる。   In addition, for example, when the host vehicle 100 is decelerating at a reduced speed, a load is applied to the front of the host vehicle 100, and the posture of the host vehicle is such that the front of the host vehicle faces downward in the vertical direction. . In this case, compared with the case where the speed of the host vehicle 100 is constant, the road surface image portion (moving surface image region) displayed in the captured image is shifted to the upper side of the image. In this case, the V map element (d, y, f) is located on the upper side of the reference line on the V map and shows a straight line substantially parallel to the reference straight line. In the present embodiment, the V map element (d, y, f) of the road surface is within the extraction range as long as the host vehicle 100 can be decelerated.

路面形状検出部138では、Vマップ生成部137においてVマップ情報が生成されたら、路面に対応する視差値及びy方向位置の組(Vマップ要素)が示す特徴、すなわち、撮像画像の上方に向かうほど視差値が低くなるという特徴を示すVマップ上の高頻度の点を直線近似する処理を行う。なお、路面が平坦な場合には一本の直線で十分な精度で近似可能であるが、車両進行方向において路面の傾斜状況が変化するような路面については、一本の直線で十分な精度の近似は難しい。したがって、本実施形態においては、Vマップの情報(Vマップ情報)を視差値に応じて2以上の視差値区画に区分けし、各視差値区画についてそれぞれ個別に直線近似を行う。   In the road surface shape detection unit 138, when the V map information is generated by the V map generation unit 137, the road surface shape detection unit 138 moves upward in the feature indicated by the set (V map element) of the parallax value and the y-direction position corresponding to the road surface, that is, above the captured image. A process of linearly approximating a high-frequency point on the V map indicating the feature that the parallax value becomes lower as the value becomes smaller. When the road surface is flat, it can be approximated with sufficient accuracy with a single straight line.However, with respect to a road surface in which the slope of the road surface changes in the vehicle traveling direction, sufficient accuracy can be achieved with a single straight line. Approximation is difficult. Therefore, in this embodiment, the V map information (V map information) is divided into two or more parallax value sections according to the parallax value, and linear approximation is performed individually for each parallax value section.

図9は、路面形状検出部138内の処理ブロック図である。
本実施形態の路面形状検出部138は、Vマップ生成部137から出力されるVマップ情報(Vマップ情報)を受け取ると、まず、路面候補点検出部138Aにおいて、路面に対応するVマップ要素が示す特徴、すなわち、撮像画像の上方に向かうほど視差値が低くなるという特徴を示すVマップ上の高頻度の点を、路面候補点として検出する。
FIG. 9 is a processing block diagram in the road surface shape detection unit 138.
When the road surface shape detection unit 138 of the present embodiment receives the V map information (V map information) output from the V map generation unit 137, the road surface candidate point detection unit 138A first determines a V map element corresponding to the road surface. A high-frequency point on the V map showing the characteristic to be shown, that is, the characteristic that the parallax value becomes lower toward the upper side of the captured image is detected as a road surface candidate point.

このとき、本実施形態では、路面候補点検出部138Aでの路面候補点検出処理は、Vマップの情報(Vマップ情報)を視差値に応じて2以上の視差値区画に区分けし、各視差値区画にそれぞれ対応した決定アルゴリズムに従って各視差値区画における路面候補点を決定する。具体的には、例えば、所定の基準距離に対応する視差値を境に、VマップをX軸方向(横軸方向)に2つの領域、すなわち視差値の大きい領域と小さい領域に区分けし、その領域ごとに異なる路面候補点検出アルゴリズムを用いて路面候補点を検出する。なお、視差値の大きい近距離領域については、後述する第1路面候補点検出処理を行い、視差の小さい遠距離領域については、後述する第2路面候補点検出処理を行う。   At this time, in the present embodiment, the road surface candidate point detection process in the road surface candidate point detection unit 138A divides the V map information (V map information) into two or more parallax value sections according to the parallax values, and sets each parallax. Road surface candidate points in each parallax value section are determined according to a determination algorithm corresponding to each value section. Specifically, for example, with the parallax value corresponding to a predetermined reference distance as a boundary, the V map is divided into two regions in the X-axis direction (horizontal axis direction), that is, a region having a large parallax value and a region having a small parallax value. Road surface candidate points are detected using different road surface candidate point detection algorithms for each region. Note that a first road surface candidate point detection process described later is performed for a short distance area with a large parallax value, and a second road surface candidate point detection process described below is performed for a long distance area with a small parallax.

ここで、前記のように視差の大きい近距離領域と視差の小さい遠距離領域とで、路面候補点検出処理の方法を変える理由について説明する。
図6に示したように、自車両100の前方を撮像した撮像画像で、近距離の路面部分についてはその路面画像領域の占有面積が大きく、路面に対応する画素数が多いので、Vマップ上の頻度が大きい。これに対し、遠距離の路面部分については、その路面画像領域の撮像画像内における占有面積が小さく、路面に対応する画素数が少ないので、Vマップ上の頻度が小さい。すなわち、Vマップにおいて、路面に対応する点の頻度値は、遠距離では小さく、近距離では大きい。そのため、例えば同じ頻度閾値を用いるなど、両領域について同じ基準で路面候補点を検出しようとすると、近距離領域については路面候補点を適切に検出できるが、遠距離領域については路面候補点が適切に検出できないおそれがあり、遠距離領域の路面検出精度が劣化する。逆に、遠距離領域の路面候補点を十分に検出できるような基準で近距離領域の検出を行うと、近距離領域のノイズ成分が多く検出され、近距離領域の路面検出精度が劣化する。そこで、本実施形態では、Vマップを近距離領域と遠距離領域とに区分し、各領域についてそれぞれ適した基準や検出方法を用いて路面候補点を検出することにより、両領域の路面検出精度を高く維持している。
Here, the reason for changing the method of road surface candidate point detection processing between the short-distance region having a large parallax and the long-distance region having a small parallax as described above will be described.
As shown in FIG. 6, in the captured image obtained by capturing the front of the host vehicle 100, the area occupied by the road surface image area is large and the number of pixels corresponding to the road surface is large for a short-distance road surface portion. The frequency of On the other hand, for a road surface portion at a long distance, the occupied area in the captured image of the road surface image region is small and the number of pixels corresponding to the road surface is small, so the frequency on the V map is low. That is, in the V map, the frequency value of the point corresponding to the road surface is small at a long distance and large at a short distance. Therefore, if you try to detect road surface candidate points with the same criteria for both areas, for example, using the same frequency threshold, you can properly detect road surface candidate points for short distance areas, but road surface candidate points are appropriate for long distance areas. The road surface detection accuracy in a long-distance area deteriorates. On the contrary, if the short distance area is detected on the basis of sufficiently detecting road surface candidate points in the long distance area, many noise components in the short distance area are detected, and the road surface detection accuracy in the short distance area deteriorates. Therefore, in this embodiment, the V map is divided into a short-distance area and a long-distance area, and road surface detection accuracy in both areas is detected by detecting road surface candidate points using a criterion and a detection method suitable for each area. Is kept high.

第1路面候補点検出処理では、各視差値dについて、所定の検索範囲内でy方向位置を変えながら、Vマップ情報に含まれる各Vマップ要素(d,y,f)の頻度値fが第1頻度閾値よりも大きく、かつ、最も頻度値fが大きいVマップ要素を探索し、そのVマップ要素を当該視差値dについての路面候補点として決定する。このときの第1頻度閾値は、低めに設定し、路面に対応するVマップ要素が抜け落ちないようにするのが好ましい。本実施形態においては、上述したとおり、Vマップ生成部137において路面に対応するVマップ要素を抽出していることから、第1頻度閾値を低めに設定しても、路面分に対応しないVマップ要素が路面候補点として決定される事態は軽減されるからである。   In the first road surface candidate point detection process, for each parallax value d, the frequency value f of each V map element (d, y, f) included in the V map information is changed while changing the position in the y direction within a predetermined search range. A V map element that is larger than the first frequency threshold and has the largest frequency value f is searched, and the V map element is determined as a road surface candidate point for the parallax value d. In this case, it is preferable that the first frequency threshold value is set to be low so that the V map element corresponding to the road surface does not fall out. In the present embodiment, as described above, the V map generation unit 137 extracts the V map element corresponding to the road surface. Therefore, even if the first frequency threshold is set low, the V map does not correspond to the road surface portion. This is because the situation where elements are determined as road surface candidate points is reduced.

ここで、各視差値dについてy値を変化させる検索範囲は、上述したVマップ生成部137における抽出範囲、すなわち、基準直線の画像上下方向位置ypを中心にとした画像上下方向へ±δの範囲である。具体的には、「yp−δ」から「yp+δ」の範囲を探索範囲とする。これにより、探索すべきy値の範囲が限定され、高速な路面候補点検出処理を実現できる。   Here, the search range in which the y value is changed for each parallax value d is the extraction range in the above-described V map generation unit 137, that is, ± δ in the image vertical direction centered on the image vertical direction position yp of the reference line. It is a range. Specifically, the range from “yp−δ” to “yp + δ” is set as the search range. Thereby, the range of the y value to be searched is limited, and high-speed road surface candidate point detection processing can be realized.

一方、第2路面候補点検出処理は、第1頻度閾値の変わりにこれとは別の第2頻度閾値を用いる点を除いて、前記第1路面候補点検出処理と同じである。すなわち、第2路面候補点検出処理では、各視差値dについて、所定の検索範囲内でy方向位置を変えながら、Vマップ情報に含まれる各Vマップ要素(d,y,f)の頻度値fが第2頻度閾値よりも大きく、かつ、最も頻度値fが大きいVマップ要素を探索し、そのVマップ要素を当該視差値dについての路面候補点として決定する。   On the other hand, the second road surface candidate point detection process is the same as the first road surface candidate point detection process except that a second frequency threshold different from this is used instead of the first frequency threshold. That is, in the second road surface candidate point detection process, for each parallax value d, the frequency value of each V map element (d, y, f) included in the V map information while changing the y-direction position within a predetermined search range. A V map element having the largest frequency value f and f being larger than the second frequency threshold is searched, and the V map element is determined as a road surface candidate point for the parallax value d.

図10は、路面候補点検出部138Aで行う路面候補点検出処理の流れを示すフローチャートである。
入力されるVマップの情報について、例えば視差値dの大きい順に路面候補点の検出を行い、各視差値dについての路面候補点(y,d)を検出する。視差値dが所定の基準距離に対応する基準視差値よりも大きい場合(S1のYes)、上述した第1路面候補点検出処理を行う。すなわち、当該視差値dに応じたyの探索範囲(「yp−δ」〜「yp+δ」)を設定し(S2)、この探索範囲内における頻度値fが第1頻度閾値よりも大きいVマップ要素(d,y,f)を抽出する(S3)。そして、抽出したVマップ要素のうち、最大の頻度値fを持つVマップ要素(d,y,f)を、当該視差値dの路面候補点として検出する(S4)。
FIG. 10 is a flowchart showing a flow of road surface candidate point detection processing performed by the road surface candidate point detection unit 138A.
For the input V map information, for example, road surface candidate points are detected in descending order of the parallax value d, and a road surface candidate point (y, d) for each parallax value d is detected. When the parallax value d is larger than the reference parallax value corresponding to the predetermined reference distance (Yes in S1), the above-described first road surface candidate point detection process is performed. That is, a search range of y (“yp−δ” to “yp + δ”) corresponding to the parallax value d is set (S2), and the V map element in which the frequency value f in the search range is larger than the first frequency threshold value. (D, y, f) is extracted (S3). Then, among the extracted V map elements, the V map element (d, y, f) having the maximum frequency value f is detected as a road surface candidate point of the parallax value d (S4).

そして、視差値dが基準視差値以下になるまで第1路面候補点検出処理を繰り返し行い(S5)、視差値dが基準視差値以下になったら(S1のNo)、今度は、上述した第2路面候補点検出処理で路面候補点検出を行う。すなわち、第2路面候補点検出処理でも当該視差値dに応じたyの探索範囲(「yp−δ」〜「yp+δ」)を設定し(S6)、この探索範囲内における頻度値fが第1頻度閾値よりも大きいVマップ要素(d,y,f)を抽出する(S7)。そして、抽出したVマップ要素のうち、最大の頻度値fを持つVマップ要素(d,y,f)を、当該視差値dの路面候補点として検出する(S8)。この第2路面候補点検出処理を、視差値dがなくなるまで繰り返し行う(S9)。   Then, the first road surface candidate point detection process is repeatedly performed until the parallax value d is equal to or smaller than the reference parallax value (S5). When the parallax value d is equal to or smaller than the reference parallax value (No in S1), this time, Two road surface candidate point detection processing is performed to detect road surface candidate points. That is, in the second road surface candidate point detection process, a search range (“yp−δ” to “yp + δ”) corresponding to the parallax value d is set (S6), and the frequency value f in the search range is the first value. A V map element (d, y, f) larger than the frequency threshold is extracted (S7). Then, among the extracted V map elements, the V map element (d, y, f) having the maximum frequency value f is detected as a road surface candidate point of the parallax value d (S8). This second road surface candidate point detection process is repeated until there is no parallax value d (S9).

このようにして路面候補点検出部138Aにより各視差値dについての路面候補点(抽出処理対象)を検出したら、次に、区分直線近似部138Bにより、これらの路面候補点についてVマップ上の近似直線を求める直線近似処理を行う。このとき、路面が平坦な場合であれば、Vマップの視差値範囲全域にわたって一本の直線で十分な精度の近似が可能であるが、車両進行方向において路面の傾斜状況が変化している場合には、一本の直線で十分な精度の近似が難しい。したがって、本実施形態においては、Vマップの情報(Vマップ情報)を視差値に応じて2以上の視差値区画に区分けし、各視差値区画についてそれぞれ個別に直線近似処理を行う。   After the road surface candidate point detection unit 138A detects the road surface candidate points (extraction processing target) for each parallax value d in this way, the segmented straight line approximation unit 138B then approximates these road surface candidate points on the V map. A straight line approximation process is performed to obtain a straight line. At this time, if the road surface is flat, it is possible to approximate with sufficient accuracy with a single straight line over the entire range of the parallax value of the V map, but the inclination of the road surface changes in the vehicle traveling direction. Therefore, it is difficult to approximate with sufficient accuracy with a single straight line. Therefore, in the present embodiment, V map information (V map information) is divided into two or more parallax value sections according to the parallax value, and linear approximation processing is individually performed for each parallax value section.

直線近似処理は、最小二乗近似を利用することができるが、より正確に行うにはRMA(Reduced Major Axis)などの他の近似を用いるのがよい。その理由は、最小二乗近似は、X軸のデータに誤差がなく、Y軸のデータに誤差が存在するという前提があるときに、正確に計算されるものである。しかしながら、Vマップ情報から検出される路面候補点の性質を考えると、Vマップ情報に含まれる各Vマップ要素のデータは、Y軸のデータyについては画像上の正確な位置を示していると言えるが、X軸のデータである視差値dについては、誤差を含んでいるものである。また、路面候補点検出処理では、Y軸方向に沿って路面候補点の探索を行い、その最大のy値をもつVマップ要素を路面候補点として検出するものであるため、路面候補点はY軸方向の誤差も含んでいる。したがって、路面候補点となっているVマップ要素は、X軸方向にもY軸方向にも誤差を含んでいることになり、最小二乗近似の前提が崩れている。したがって、二変数(dとy)に互換性のある回帰直線(RMA)が有効である。   For the linear approximation process, least square approximation can be used, but other approximation such as RMA (Reduced Major Axis) is preferably used for more accurate execution. The reason for this is that the least square approximation is accurately calculated when there is an assumption that there is no error in the X-axis data and that there is an error in the Y-axis data. However, considering the nature of the road surface candidate points detected from the V map information, the data of each V map element included in the V map information indicates an accurate position on the image with respect to the Y-axis data y. It can be said that the parallax value d which is X-axis data includes an error. In the road surface candidate point detection process, a road surface candidate point is searched along the Y-axis direction and the V map element having the maximum y value is detected as a road surface candidate point. Axial errors are also included. Therefore, the V map element which is a road surface candidate point includes an error in both the X-axis direction and the Y-axis direction, and the premise of least square approximation is broken. Therefore, a regression line (RMA) compatible with the two variables (d and y) is effective.

図11は、区分直線近似部138Bで行う区分直線近似処理の流れを示すフローチャートである。
区分直線近似部138Bは、路面候補点検出部138Aから出力される各視差値dの路面候補点のデータを受け取ったら、まず、最近距離の第一区間(最も視差値が大きい区間)を設定する(S11)。そして、この第一区間内の各視差値dに対応した路面候補点を抽出する(S12)。このとき、抽出された路面候補点の数が所定の値以下である場合(S13のNo)、当該第一区間を所定の視差値分だけ延長する(S14)。具体的には、当初の第一区間と第二区間とを結合して、新たにひとつの第一区間(延長された第一区間)とする。このとき、当初の第三区間は新たな第二区間となる。そして、延長された第一区間内の各視差値dに対応した路面候補点を再び抽出し(S12)、抽出された路面候補点の数が所定の値よりも多くなった場合には(S13のYes)、抽出した路面候補点について直線近似処理を行う(S15)。なお、第一区間ではない区間、例えば第二区間を延長する場合には、当初の第二区間と第三区間とを結合して、新たにひとつの第二区間(延長された第二区間)とする。
FIG. 11 is a flowchart showing the flow of the piecewise straight line approximation process performed by the piecewise straight line approximation unit 138B.
When the piecewise straight line approximating unit 138B receives the road surface candidate point data of each parallax value d output from the road surface candidate point detecting unit 138A, first, the first interval of the nearest distance (section with the largest parallax value) is set. (S11). Then, road surface candidate points corresponding to the respective parallax values d in the first section are extracted (S12). At this time, when the number of extracted road surface candidate points is equal to or smaller than a predetermined value (No in S13), the first section is extended by a predetermined parallax value (S14). Specifically, the initial first section and the second section are combined to form a new first section (extended first section). At this time, the initial third section becomes a new second section. Then, the road surface candidate points corresponding to each parallax value d in the extended first section are extracted again (S12), and when the number of extracted road surface candidate points exceeds a predetermined value (S13) Yes), a straight line approximation process is performed on the extracted road surface candidate points (S15). In addition, when extending a section that is not the first section, for example, the second section, the first second section and the third section are combined to create a new second section (extended second section). And

このようにして直線近似処理を行ったら、次に、その直線近似処理により得られる近似直線の信頼性判定を行う。この信頼性判定では、最初に、得られた近似直線の傾きと切片が所定の範囲内にあるかどうかを判定する(S17)。この判定で所定の範囲内ではない場合には(S17のNo)、当該第一区間を所定の視差値分だけ延長し(S14)、延長された第一区間について再び直線近似処理を行う(S12〜15)。そして、所定の範囲内ではあると判定されたら(S17のYes)、その直線近似処理を行った区間が第一区間かどうかを判断する(S18)。   After performing the straight line approximation process in this way, next, the reliability of the approximate straight line obtained by the straight line approximation process is determined. In this reliability determination, first, it is determined whether or not the slope and intercept of the obtained approximate line are within a predetermined range (S17). If it is not within the predetermined range in this determination (No in S17), the first section is extended by a predetermined parallax value (S14), and the linear approximation process is performed again for the extended first section (S12). ~ 15). If it is determined that it is within the predetermined range (Yes in S17), it is determined whether or not the section on which the straight line approximation process is performed is the first section (S18).

このとき、第一区間であると判断された場合には(S18のYes)、その近似直線の相関値が所定の値よりも大きいかどうかを判定する(S19)。この判定において、近似直線の相関値が所定の値よりも大きければ、その近似直線を当該第一区間の近似直線として決定する。近似直線の相関値が所定の値以下であれば、当該第一区間を所定の視差値分だけ延長し(S14)、延長された第一区間について再び直線近似処理を行い(S12〜15)、再び信頼性判定を行う(S17〜S19)。なお、第一区間でない区間については(S18のNo)、近似直線の相関値に関する判定処理(S19)は実施しない。   At this time, when it is determined that it is the first section (Yes in S18), it is determined whether or not the correlation value of the approximate straight line is larger than a predetermined value (S19). In this determination, if the correlation value of the approximate line is larger than a predetermined value, the approximate line is determined as the approximate line of the first section. If the correlation value of the approximate straight line is less than or equal to a predetermined value, the first section is extended by a predetermined disparity value (S14), and the extended first section is again subjected to a linear approximation process (S12 to 15). Reliability determination is performed again (S17 to S19). In addition, about the area which is not a 1st area (No of S18), the determination process (S19) regarding the correlation value of an approximate line is not implemented.

その後、残りの区間があるかどうかを確認し(S20)、もし残りの区間が無ければ、区分直線近似部138Bは区分直線近似処理を終了する。一方、残りの区間がある場合には(S20のYes)、前区間の幅に対応する距離を定数倍した距離に対応する幅をもった次の区間(第二区間)を設定する(S21)。そして、この設定後に残っている区間が更に次に設定される区間(第三区間)よりも小さいか否かを判断する(S22)。この判断において小さくないと判断されたなら、当該第二区間内の各視差値dに対応した路面候補点を抽出して直線近似処理を行うとともに(S12〜S15)、信頼性判定処理を行う(S17〜S19)。   Thereafter, it is confirmed whether there is a remaining section (S20). If there is no remaining section, the piecewise linear approximation unit 138B ends the piecewise straight line approximation process. On the other hand, when there is a remaining section (Yes in S20), a next section (second section) having a width corresponding to a distance obtained by multiplying a distance corresponding to the width of the previous section by a constant is set (S21). . Then, it is determined whether or not the section remaining after the setting is smaller than the section (third section) to be set next (S22). If it is determined in this determination that the distance is not small, road surface candidate points corresponding to the respective parallax values d in the second section are extracted to perform straight line approximation processing (S12 to S15), and reliability determination processing is performed ( S17 to S19).

このようにして順次区間を設定し、その区間の直線近似処理及び信頼性判定処理を行うという処理を繰り返していくと、いずれ、前記処理ステップS22において、設定後に残っている区間が更に次に設定される区間よりも小さいと判断される(S22のYes)。この場合、設定された区間を延長して当該残っている区間を含めるようにし、これを最後の区間として設定する(S23)。この場合、この最後の区間内の各視差値dに対応した路面候補点を抽出し(S12)、抽出した路面候補点について直線近似処理を行ったら(S15)、処理ステップS16において最後の区間であると判断されるので(S16のYes)、区分直線近似部138Bは区分直線近似処理を終了する。   In this way, when the sections are sequentially set and the process of performing the linear approximation process and the reliability determination process in the sections is repeated, the section remaining after the setting is further set in the process step S22. It is determined that it is smaller than the interval to be performed (Yes in S22). In this case, the set section is extended to include the remaining section, and this is set as the last section (S23). In this case, road surface candidate points corresponding to the respective parallax values d in the last section are extracted (S12), and after the straight line approximation process is performed on the extracted road surface candidate points (S15), in the processing section S16, the last section is processed. Since it is determined that there is (Yes in S16), the piecewise line approximation unit 138B ends the piecewise line approximation process.

このようにして区分直線近似部138Bが各区間の直線近似処理を実行して得た各区間の近似直線は、通常、区間境界で連続したものにはならない。そのため、本実施形態では、各区間の近似直線が区間境界において連続になるように、区分直線近似部138Bから出力される近似直線を、区間近似直線連続化部138Cにより修正する。具体的には、例えば、区間の境界上における両区間の近似直線の端点間の中点を通るように両近似直線を修正する。   Thus, the approximate straight line of each section obtained by the piecewise straight line approximation unit 138B executing the straight line approximation process of each section is not usually continuous at the section boundary. Therefore, in the present embodiment, the approximate straight line output from the segmented straight line approximation unit 138B is corrected by the segment approximate straight line continuation unit 138C so that the approximate straight line of each segment is continuous at the segment boundary. Specifically, for example, both approximate lines are corrected so as to pass the midpoint between the end points of the approximate lines of both sections on the boundary of the sections.

以上のようにして、路面形状検出部138においてVマップ上の近似直線の情報が得られたら、次に、路面高さテーブル算出部139において、路面高さ(自車両の真下の路面部分に対する相対的な高さ)を算出してテーブル化する路面高さテーブル算出処理を行う。路面形状検出部138により生成されたVマップ上の近似直線の情報から、撮像画像上の各行領域(画像上下方向の各位置)に映し出されている各路面部分までの距離を算出できる。一方、自車両の真下に位置する路面部分をその面に平行となるように自車両進行方向前方へ延長した仮想平面の自車両進行方向における各面部分が、撮像画像中のどの各行領域に映し出されるかは予め決まっており、この仮想平面(基準路面)はVマップ上で直線(基準直線)により表される。路面形状検出部138から出力される近似直線を基準直線と比較することで、自車両前方の各路面部分の高さを得ることができる。簡易的には、路面形状検出部138から出力される近似直線上のY軸位置から、これに対応する視差値から求められる距離だけ自車両前方に存在する路面部分の高さを算出できる。路面高さテーブル算出部139では、近似直線から得られる各路面部分の高さを、必要な視差範囲についてテーブル化する。   As described above, when the road surface shape detection unit 138 obtains the information of the approximate straight line on the V map, the road surface height table calculation unit 139 then determines the road surface height (relative to the road surface portion directly below the host vehicle). Road surface height table calculation processing for calculating a table and calculating a table. From the approximate straight line information on the V map generated by the road surface shape detection unit 138, the distance to each road surface portion displayed in each row region (each position in the vertical direction of the image) on the captured image can be calculated. On the other hand, each surface part in the traveling direction of the virtual plane obtained by extending the road surface portion located directly below the traveling vehicle in front of the traveling direction of the vehicle so as to be parallel to the surface is displayed in which row area in the captured image. The virtual plane (reference road surface) is represented by a straight line (reference straight line) on the V map. By comparing the approximate straight line output from the road surface shape detection unit 138 with the reference straight line, the height of each road surface portion ahead of the host vehicle can be obtained. In a simple manner, the height of the road surface portion existing in front of the host vehicle can be calculated from the Y-axis position on the approximate straight line output from the road surface shape detection unit 138 by a distance obtained from the corresponding parallax value. The road surface height table calculation unit 139 tabulates the height of each road surface portion obtained from the approximate straight line for the necessary parallax range.

なお、ある視差値dにおいてY軸位置がy’である地点に対応する撮像画像部分に映し出されている物体の路面からの高さは、当該視差値dにおける近似直線上のY軸位置をy0としたとき、(y’−y0)から算出することができる。一般に、Vマップ上における座標(d,y’)に対応する物体についての路面からの高さHは、下記の式(2)より算出することができる。ただし、下記の式(2)において、「z」は、視差値dから計算される距離(z=BF/(d−offset))であり、「f」はカメラの焦点距離を(y’−y0)の単位と同じ単位に変換した値である。ここで、「BF」は、ステレオカメラの基線長と焦点距離を乗じた値であり、「offset」は無限遠の物体を撮影したときの視差値である。
H = z×(y’−y0)/f ・・・(2)
Note that the height from the road surface of the object projected on the captured image portion corresponding to the point where the Y-axis position is y ′ at a certain parallax value d is the y-axis position on the approximate straight line at the parallax value d. , It can be calculated from (y′−y0). In general, the height H from the road surface of the object corresponding to the coordinates (d, y ′) on the V map can be calculated from the following equation (2). However, in the following formula (2), “z” is a distance (z = BF / (d−offset)) calculated from the parallax value d, and “f” is the focal length of the camera (y′− It is a value converted into the same unit as the unit of y0). Here, “BF” is a value obtained by multiplying the base line length of the stereo camera and the focal length, and “offset” is a parallax value when an object at infinity is photographed.
H = z × (y′−y0) / f (2)

次に、Uマップ生成部140について説明する。
Uマップ生成部140では、Uマップを生成するUマップ生成処理を実行する。Uマップ生成処理では、視差画像データに含まれる各視差画素データにおけるx方向位置とy方向位置と視差値dとの組(x,y,d)を、X軸にx、Y軸にd、Z軸に頻度を設定した三次元座標情報(x,d,f)に変換したもの、又はこの三次元座標情報(x,d,f)から所定の頻度閾値を超える情報に限定した三次元座標情報(x,d,f)を、視差ヒストグラム情報として生成する。この三次元座標情報(x,d,f)をX−Yの2次元座標系に分布させたものを、頻度Uマップと呼ぶ。
Next, the U map generation unit 140 will be described.
The U map generation unit 140 executes U map generation processing for generating a U map. In the U map generation processing, a set (x, y, d) of the x-direction position, the y-direction position, and the parallax value d in each piece of parallax pixel data included in the parallax image data is x on the X axis, d on the Y axis, Three-dimensional coordinates that are converted to three-dimensional coordinate information (x, d, f) in which the frequency is set on the Z axis, or limited to information that exceeds a predetermined frequency threshold from the three-dimensional coordinate information (x, d, f) Information (x, d, f) is generated as parallax histogram information. The three-dimensional coordinate information (x, d, f) distributed in the XY two-dimensional coordinate system is called a frequency U map.

具体的に説明すると、Uマップ生成部140は、画像を左右方向に複数分割して得られる視差画像データの各列領域について、視差値頻度分布を計算する。この視差値頻度分布を示す情報が視差ヒストグラム情報である。具体的には、視差値分布をもった視差画像データが入力されたとき、Uマップ生成部140は、列ごとの各視差値のデータの個数の分布である視差値頻度分布を計算し、これを視差ヒストグラム情報として出力する。このようにして得られる各列の視差値頻度分布の情報を、X軸に視差画像上のx方向位置(撮像画像の左右方向位置)をとりY軸に視差値をとった二次元直交座標系上に表すことで、頻度Uマップを得ることができる。この頻度Uマップは、頻度fに応じた画素値をもつ画素が前記二次元直交座標系上に分布した画像として表現することもできる。   More specifically, the U map generation unit 140 calculates a parallax value frequency distribution for each column region of parallax image data obtained by dividing an image into a plurality of left and right directions. Information indicating the parallax value frequency distribution is parallax histogram information. Specifically, when disparity image data having a disparity value distribution is input, the U map generation unit 140 calculates a disparity value frequency distribution that is a distribution of the number of pieces of data of each disparity value for each column. Are output as parallax histogram information. The two-dimensional orthogonal coordinate system in which the parallax value frequency distribution information of each column obtained in this manner is taken with the x-axis position on the parallax image (the left-right position of the captured image) on the x-axis and the parallax value on the y-axis. By expressing it above, a frequency U map can be obtained. This frequency U map can also be expressed as an image in which pixels having pixel values corresponding to the frequency f are distributed on the two-dimensional orthogonal coordinate system.

本実施形態のUマップ生成部140では、路面高さテーブル算出部139によってテーブル化された各路面部分の高さに基づいて、路面からの高さHが所定の高さ範囲(たとえば20cmから3m)にある視差画像の点(x,y,d)についてだけUマップを作成する。この場合、路面から当該所定の高さ範囲に存在する物体を適切に抽出することができる。なお、例えば、撮像画像の下側5/6の画像領域に対応する視差画像の点(x,y,d)についてだけUマップを作成するようにしてもよい。この場合、撮像画像の上側1/6は、ほとんどの場合、空が映し出されていて認識対象とする必要のある物体が映し出されていないためである。   In the U map generation unit 140 of the present embodiment, the height H from the road surface is within a predetermined height range (for example, 20 cm to 3 m) based on the height of each road surface portion tabulated by the road surface height table calculation unit 139. The U map is created only for the point (x, y, d) of the parallax image at). In this case, an object existing within the predetermined height range from the road surface can be appropriately extracted. For example, the U map may be created only for the point (x, y, d) of the parallax image corresponding to the lower 5/6 image area of the captured image. In this case, the upper one-sixth of the captured image is because, in most cases, the sky is projected and no object that needs to be recognized is projected.

また、各視差画像の点(x,y,d)については、路面高さテーブル算出部139によってテーブル化された各路面部分の高さに基づいて路面からの高さHが対応づけされることから、頻度に関する三次元座標情報(x,d,f)だけでなく、三次元座標情報(x,d,H)も得ることができる。この三次元座標情報(x,d,H)をX−Yの2次元座標系に分布させたものを、高さUマップと呼ぶ。この高さUマップは、高さHに応じた画素値をもつ画素が前記二次元直交座標系上に分布した画像として表現することもできる。本実施形態では、本実施形態では、頻度Uマップを構成する三次元座標情報(x,d,f)から、視差値dごとの最大高さHmaxを用いて、三次元座標情報(x,d,Hmax)を抽出し、この三次元座標情報(x,d,Hmax)をX−Yの2次元座標系に分布させた高さUマップを用いる。   Further, the point (x, y, d) of each parallax image is associated with the height H from the road surface based on the height of each road surface portion tabulated by the road surface height table calculation unit 139. Thus, not only the three-dimensional coordinate information (x, d, f) related to the frequency but also the three-dimensional coordinate information (x, d, H) can be obtained. This three-dimensional coordinate information (x, d, H) distributed in an XY two-dimensional coordinate system is called a height U map. This height U map can also be expressed as an image in which pixels having pixel values corresponding to the height H are distributed on the two-dimensional orthogonal coordinate system. In the present embodiment, in the present embodiment, the three-dimensional coordinate information (x, d) is obtained using the maximum height Hmax for each parallax value d from the three-dimensional coordinate information (x, d, f) constituting the frequency U map. , Hmax) is extracted, and a height U map in which the three-dimensional coordinate information (x, d, Hmax) is distributed in an XY two-dimensional coordinate system is used.

図12は、撮像部110Aで撮像される基準画像の一例を模式的に表した画像例である。
図13は、図12の画像例に対応するUマップであり、頻度fに応じた画素値をもつ画素が二次元直交座標系上に分布した画像として表現した頻度Uマップである。
図14は、図12の画像例に対応するUマップであり、視差値ごとの実空間上の最大高さHmaxに応じた画素値をもつ画素が二次元直交座標系上に分布した画像として表現した高さUマップである。
FIG. 12 is an image example schematically showing an example of a reference image imaged by the imaging unit 110A.
FIG. 13 is a U map corresponding to the image example of FIG. 12, and is a frequency U map expressed as an image in which pixels having pixel values corresponding to the frequency f are distributed on a two-dimensional orthogonal coordinate system.
FIG. 14 is a U map corresponding to the image example of FIG. 12, and is represented as an image in which pixels having pixel values corresponding to the maximum height Hmax in the real space for each parallax value are distributed on a two-dimensional orthogonal coordinate system. This is a height U map.

図12に示す画像例では、路面の左右両側にガードレールが存在し、他車両としては、先行車両と対向車両がそれぞれ1台ずつ存在する。このとき、頻度Uマップにおいては、図13に示すように、左右のガードレールに対応する高頻度の点は、左右両端側から中央に向かって上方へ延びるような略直線状に分布する。一方、他車両に対応する高頻度の点は、左右のガードレールの間で、略X軸方向に平行に延びる線分の状態で分布する。なお、先行車両の背面部分又は対向車両の前面部分以外に、これらの車両の側面部分が映し出されているような状況にあっては、同じ他車両を映し出している画像領域内において視差が生じる。このような場合、図13に示すように、他車両に対応する高頻度の点は、略X軸方向に平行に延びる線分と略X軸方向に対して傾斜した線分とが連結した状態の分布を示す。   In the image example shown in FIG. 12, guard rails exist on both the left and right sides of the road surface, and there are one preceding vehicle and one oncoming vehicle as other vehicles. At this time, in the frequency U map, as shown in FIG. 13, the high-frequency points corresponding to the left and right guard rails are distributed in a substantially straight line extending upward from the left and right ends toward the center. On the other hand, high-frequency points corresponding to other vehicles are distributed between the left and right guard rails in a line segment extending substantially parallel to the X-axis direction. In addition, in a situation where the side portions of these vehicles are projected in addition to the rear portion of the preceding vehicle or the front portion of the oncoming vehicle, parallax occurs in the image area where the same other vehicle is projected. In such a case, as shown in FIG. 13, a high-frequency point corresponding to another vehicle is a state in which a line segment extending in parallel with the substantially X-axis direction and a line segment inclined with respect to the approximately X-axis direction are connected. The distribution of.

また、高さUマップにおいては、図14に示すように、図13に示す頻度Uマップと同様の画像形状を示すが、左右のガードレールに対応する箇所は実空間上の高さが相対的に低いので画素値が低く、他車両に対応する箇所は実空間上の高さが相対的に高いので画素値が高くなっている。   In addition, as shown in FIG. 14, the height U map shows the same image shape as the frequency U map shown in FIG. 13, but the height corresponding to the left and right guard rails is relatively high in real space. The pixel value is low because it is low, and the pixel value is high because the height corresponding to the other vehicle is relatively high in real space.

次に、リアルUマップ生成部141について説明する。
リアルUマップ生成部141は、Uマップ生成部140で生成される頻度Uマップ及び高さUマップにおけるX軸を、視差画素データ上のx方向位置から、実空間上のx方向位置に変換したものである。すなわち、視差画素データ上のx方向位置は、実空間上のx方向位置が同じであっても、距離が離れるほど(画像上側ほど)、視差画素データ上の消失点に近づくので、頻度Uマップ及び高さUマップについて、このような視差画素データ上のx方向位置を実空間上のx方向位置に変換したものをリアル頻度Uマップ及びリアル高さUマップと呼ぶ。
Next, the real U map generation unit 141 will be described.
The real U map generation unit 141 converts the X axis in the frequency U map and the height U map generated by the U map generation unit 140 from the x direction position on the parallax pixel data to the x direction position in the real space. Is. That is, the x-direction position on the parallax pixel data is closer to the vanishing point on the parallax pixel data as the distance increases (the upper side of the image) even if the x-direction position in the real space is the same. As for the height U map, those obtained by converting the x-direction position on the parallax pixel data into the x-direction position in the real space are referred to as a real frequency U map and a real height U map.

図15は、図13に示した頻度Uマップに対応するリアル頻度Uマップである。
図15に示すリアル頻度Uマップでは、Y軸を、頻度Uマップでの視差dを距離に応じた間引き率で変換した間引き視差という単位としている。近距離の物体は大きく映し出されるために算出される視差値の距離に対する分解能が高いので、視差値について大きく間引くことが可能になる。図15に示すリアル頻度Uマップにおいて、左右のガードレールについては上下方向に延びる線分の状態で分布し、他車両については略長方形状の状態で分布するため、いずれも、実空間上の自車両前方領域を真上から見たときの実際の形状に近い分布形状をとる。なお、リアルUマップ生成部141では、同様にしてリアル高さUマップも生成する。
FIG. 15 is a real frequency U map corresponding to the frequency U map shown in FIG.
In the real frequency U map shown in FIG. 15, the Y axis is a unit of thinning parallax obtained by converting the parallax d in the frequency U map at a thinning rate according to the distance. Since an object at a short distance is projected largely, the resolution with respect to the distance of the calculated parallax value is high, so that the parallax value can be greatly thinned out. In the real frequency U map shown in FIG. 15, the left and right guard rails are distributed in a line segment extending in the vertical direction, and the other vehicles are distributed in a substantially rectangular state. The distribution shape is close to the actual shape when the front region is viewed from directly above. The real U map generation unit 141 generates a real height U map in the same manner.

次に、孤立領域検出部142について説明する。
孤立領域検出部142は、撮像領域内に存在する各物体に対応する画像領域に物体ごとに選別するための処理である。本実施形態では、リアル頻度Uマップを利用して、画像左右方向で近接していて、かつ、所定値以上の頻度fをもつ視差値の値が近接している画像領域を、検出対象物(オブジェクト)を映し出す検出対象物画像領域の候補領域(オブジェクト候補領域)として選別する。
Next, the isolated region detection unit 142 will be described.
The isolated area detection unit 142 is a process for selecting, for each object, an image area corresponding to each object existing in the imaging area. In the present embodiment, using the real frequency U map, an image region that is close in the left-right direction of the image and that has a close parallax value having a frequency f equal to or greater than a predetermined value is detected ( The object is selected as a candidate area (object candidate area) of the detection target image area that projects the object.

図16は、孤立領域検出部142で行う処理の流れを示すフローチャートである。
孤立領域検出部142では、リアルUマップ生成部141で生成されたリアル頻度Uマップの情報から、まず、リアル頻度Uマップの平滑化処理を行う。視差値には計算誤差等もあって分散があり、視差値がすべての画素について計算されているわけではないので、実際のリアル頻度Uマップは、図13に示した模式図とは異なり、ノイズを含んでいる。そのため、ノイズを除去するためと、検出対象物(オブジェクト)を検出しやすくするため、リアル頻度Uマップを平滑化する処理を行う。平滑化処理では、画像の平滑化と同様に、平滑化フィルタ(たとえば3×3画素の単純平均)を頻度値fに対して適用する。これにより、ノイズと考えられるようなリアル頻度Uマップ上の地点の頻度fが減少し、検出対象物(オブジェクト)の地点では頻度fが周囲よりも高いグループとなる。その結果、後段の処理において孤立領域の検出を容易になる。
FIG. 16 is a flowchart showing the flow of processing performed by the isolated region detection unit 142.
The isolated region detection unit 142 first performs smoothing processing of the real frequency U map from the information of the real frequency U map generated by the real U map generation unit 141. Since the disparity value has dispersion due to calculation errors and the like, and the disparity value is not calculated for all pixels, the actual real frequency U map is different from the schematic diagram shown in FIG. Is included. Therefore, processing for smoothing the real frequency U map is performed in order to remove noise and to make it easier to detect the detection target (object). In the smoothing process, a smoothing filter (for example, a simple average of 3 × 3 pixels) is applied to the frequency value f in the same manner as the smoothing of the image. Thereby, the frequency f of the point on the real frequency U map considered to be noise decreases, and the frequency f becomes a group higher than the surroundings at the point of the detection target (object). As a result, it becomes easy to detect an isolated region in the subsequent processing.

次に、このように平滑化されたリアル頻度Uマップの情報を二値化する処理を行う。各検出対象物(オブジェクト)は、その高さ、形状、背景とのコントラスト差などに違いがあるので、各検出対象物にそれぞれ対応する孤立領域は、頻度値fが大きいものもあれば小さいものもある。そのため、単一の閾値による二値化では適切に検出できない孤立領域が発生するおそれがある。これを防ぐため、本実施形態では、複数の二値化閾値を用いて孤立領域を検出する。   Next, a process for binarizing the information of the real frequency U map smoothed in this way is performed. Since each detection object (object) has a difference in height, shape, contrast difference with the background, etc., isolated regions corresponding to each detection object each have a large frequency value f or a small one. There is also. Therefore, there is a possibility that an isolated region that cannot be detected properly by binarization using a single threshold value may occur. In order to prevent this, in the present embodiment, an isolated region is detected using a plurality of binarization thresholds.

具体的には、まず、二値化閾値を最も小さい値に設定した上で(S32)、リアル頻度Uマップの二値化処理を行う(S33)。この二値化処理により、当該二値化閾値よりも高い頻度fの領域が「1」となり、当該二値化閾値以下の頻度の領域が「0」となる。この二値化処理で「1」の値をもつ地点(頻度値fが二値化閾値よりも高い座標)をその連結性に基づいてラベリングし(S34)、同一ラベルが付いた領域を1つの孤立領域として検出する。ラベリングの方法は、例えば、注目座標の周囲に位置する周囲座標に対して既にラベル付けされている場合には、その周囲座標のラベルと同一のラベルを割り当てる。もし、周囲座標中に異なるラベルが付されている場合には、注目座標と周囲座標のすべてについて、それらの中で最も小さい値のラベルを割り当る。   Specifically, first, the binarization threshold is set to the smallest value (S32), and the binarization process of the real frequency U map is performed (S33). As a result of this binarization processing, a region having a frequency f higher than the binarization threshold is “1”, and a region having a frequency equal to or lower than the binarization threshold is “0”. In this binarization processing, points having a value of “1” (coordinates where the frequency value f is higher than the binarization threshold) are labeled based on their connectivity (S34), and one region with the same label is labeled as one. Detect as an isolated region. In the labeling method, for example, when the peripheral coordinates located around the target coordinate are already labeled, the same label as the label of the peripheral coordinates is assigned. If different labels are attached to the surrounding coordinates, the label having the smallest value among the attention coordinates and the surrounding coordinates is assigned.

このようにして孤立領域を検出したら、検出された1又は2以上の孤立領域について、大きさ判定を実施する(S35)。これは、検出対象物には、歩行者から大型自動車まで含まれるので、孤立領域の幅がそれらのサイズの範囲内であるかどうかを判定するものである。この大きさ判定によりサイズを超えていると判定された孤立領域については(S35のYes)、二値化閾値を1だけインクリメントした新たな二値化閾値を設定し(S32)、当該孤立領域内について再び二値化処理を行って(S33)、ラベリング処理を行い(S34)、より小さな孤立領域を検出する。このような処理を繰り返し行うことで、所望の大きさの孤立領域を検出することができる。   When the isolated region is detected in this way, the size determination is performed for one or more detected isolated regions (S35). Since the detection objects include pedestrians and large vehicles, it is determined whether or not the width of the isolated region is within the size range. For the isolated region determined to exceed the size by this size determination (Yes in S35), a new binarization threshold value obtained by incrementing the binarization threshold value by 1 is set (S32) Is binarized again (S33), labeling is performed (S34), and a smaller isolated region is detected. By repeating such a process, an isolated region having a desired size can be detected.

このようにして所望の大きさの孤立領域が検出されたら、次に、周縁部分除去処理を行う(S36)。遠方にある物体については、路面検出の精度が悪く、路面部分の視差値についてもリアル頻度Uマップに反映され、当該物体と路面とが一つの孤立領域として検出される場合がある。この場合、リアル頻度Uマップ上における左端部分や右端部分あるいは上端部分や下端部分が路面である可能性があるので、周縁部分除去処理において、所定の除去条件を満たす周縁部分を除去する。この周縁部分除去処理において除去部分が存在した場合には(S37のYes)、周縁部分除去処理後の当該孤立領域について、もう一度ラベリングを行い(S34)、孤立領域の再設定を行う。   If an isolated region having a desired size is detected in this way, then a peripheral portion removal process is performed (S36). For a distant object, the accuracy of road surface detection is poor, and the parallax value of the road surface part is also reflected in the real frequency U map, and the object and the road surface may be detected as one isolated region. In this case, since there is a possibility that the left end portion, the right end portion, the upper end portion, or the lower end portion on the real frequency U map is a road surface, the peripheral portion that satisfies a predetermined removal condition is removed in the peripheral portion removal process. If a removed portion is present in the peripheral portion removal processing (Yes in S37), the isolated region after the peripheral portion removal processing is labeled again (S34), and the isolated region is reset.

次に、周縁部分除去処理を終えた孤立領域に対し、その大きさ(幅、高さ、距離)に応じて(S38)、横方向分離処理を行う(S39)。例えば物体同士(自動車とバイク、自動車と歩行者、自動車同士など)が横に並んで近接している場合、リアル頻度Uマップの平滑化処理が原因で、複数の物体に対応する部分を1つの孤立領域として検出してしまうことがある。また、視差画像データの視差補間処理の影響で、異なる物体同士の視差がつながってしまい、これが原因で複数の物体に対応する部分を1つの孤立領域として検出してしまうこともある。横方向分離処理は、このようなケースを検出して、複数の物体に対応した1つの孤立領域を、それぞれの物体ごとの孤立領域に分離する処理である。この横方向分離処理で1つの孤立領域が分離された場合には(S40のYes)、分離後の各孤立領域について、もう一度ラベリングを行い(S34)、孤立領域の再設定を行う。   Next, the horizontal direction separation process is performed on the isolated region that has undergone the peripheral portion removal process according to the size (width, height, distance) (S38). For example, when objects (a car and a motorcycle, a car and a pedestrian, a car, etc.) are side by side and close to each other, the smoothing process of the real frequency U map causes one part corresponding to a plurality of objects. It may be detected as an isolated region. Further, due to the influence of the parallax interpolation processing of the parallax image data, parallax between different objects may be connected, and this may cause a portion corresponding to a plurality of objects to be detected as one isolated region. The horizontal separation process is a process for detecting such a case and separating one isolated region corresponding to a plurality of objects into isolated regions for each object. When one isolated region is separated by this horizontal separation process (Yes in S40), each isolated region after separation is labeled again (S34), and the isolated region is reset.

また、周縁部分除去処理を終えた孤立領域に対し、その大きさ(幅、高さ、距離)に応じて(S38)、縦方向分離処理を行う(S41)。例えば複数の先行車両が遠方を走行している場合、視差画像データ上の視差値の分散が大きくなりやすく、リアル頻度Uマップ上において上下に位置する各先行車両に対応する領域が連結して、1つの孤立領域として検出されることがある。縦方向分離処理は、このようなケースを検出して、複数の物体に対応した1つの孤立領域を、それぞれの物体ごとの孤立領域に分離する処理である。この縦方向分離処理で1つの孤立領域が分離された場合には(S42のYes)、分離後の各孤立領域について、もう一度ラベリングを行い(S34)、孤立領域の再設定を行う。   In addition, the vertical direction separation process is performed on the isolated region that has undergone the peripheral part removal process according to its size (width, height, distance) (S38) (S41). For example, when a plurality of preceding vehicles are traveling far away, the dispersion of the parallax values on the parallax image data is likely to increase, and the areas corresponding to the preceding vehicles positioned above and below on the real frequency U map are connected, It may be detected as one isolated region. The vertical direction separation process is a process of detecting such a case and separating one isolated region corresponding to a plurality of objects into isolated regions for each object. When one isolated area is separated by this vertical direction separation processing (Yes in S42), each isolated area after separation is labeled again (S34), and the isolated area is reset.

更に、本実施形態においては、周縁部分除去処理を終えた孤立領域に対して、高さ分離処理を実施する(S43)。上述した縦分離処理や横分離処理を実施してもなお、複数の物体に対応する部分を1つの孤立領域として検出し残ってしまうケースがある。このようなケースとしては、例えば、乗用車等の車高の低い他車両と高い壁や建物とが近接して位置している傍らを自車両が通過しようとするケースが挙げられる。本実施形態では、このようなケースを検出して、複数の物体に対応した1つの孤立領域を、それぞれの物体ごとの孤立領域に分離するために、高さ分離処理を実施する。そして、この高さ分離処理で1つの孤立領域が分離された場合には(S44のYes)、分離後の各孤立領域について、もう一度ラベリングを行い(S34)、孤立領域の再設定を行う。なお、高さ分離処理の詳細については後述する。   Furthermore, in the present embodiment, a height separation process is performed on the isolated area after the peripheral portion removal process (S43). Even when the vertical separation process and the horizontal separation process described above are performed, there are cases where a part corresponding to a plurality of objects is detected and left as one isolated region. As such a case, for example, a case where the host vehicle tries to pass through a side where another vehicle with a low vehicle height such as a passenger car and a high wall or building are located close to each other. In the present embodiment, such a case is detected, and a height separation process is performed in order to separate one isolated region corresponding to a plurality of objects into isolated regions for each object. If one isolated region is separated by this height separation processing (Yes in S44), the isolated regions after the separation are labeled again (S34), and the isolated regions are reset. Details of the height separation process will be described later.

このようにして得られる各孤立領域について、その幅(Uマップ上のX軸方向長さ)と、その孤立領域内の最小視差値dから計算される当該孤立領域に映し出されている検出対象物(オブジェクト)と自車両との距離zとを用い、下記の式(3)より、当該孤立領域に対応する画像領域に映し出されている物体の幅Wを計算することができる。
W = z×(xmax−xmin)/f ・・・(3)
この物体の幅Wが、予め決められた範囲内にある孤立領域を、オブジェクト候補領域として決定する(S45)。
About each isolated area obtained in this way, the detection target imaged in the isolated area calculated from the width (the length in the X-axis direction on the U map) and the minimum parallax value d in the isolated area Using the distance z between the (object) and the host vehicle, the width W of the object shown in the image area corresponding to the isolated area can be calculated from the following equation (3).
W = z × (xmax−xmin) / f (3)
An isolated area in which the width W of the object is within a predetermined range is determined as an object candidate area (S45).

次に、視差画像の対応領域検出部143について説明する。
前記孤立領域検出部142によりオブジェクト候補領域として決定された孤立領域について、図17に示すように、当該孤立領域が内接する矩形領域を設定したとき、この矩形領域の幅(リアル頻度Uマップ上のX軸方向長さ)は、当該孤立領域に対応する検出対象物(オブジェクト)の幅に対応する。また、設定した矩形領域の高さは、当該孤立領域に対応する検出対象物(オブジェクト)の奥行き(自車両進行方向長さ)に対応している。一方、各孤立領域に対応する検出対象物(オブジェクト)の高さについては、リアルUマップ生成部141が生成したリアル高さUマップから得られるが、ここでは、オブジェクト候補領域に係る孤立領域に対応したオブジェクトの正確な高さを得るために、視差画像の対応領域検出部143において、当該孤立領域に対応する視差画像上の対応領域を検出する。
Next, the corresponding region detection unit 143 for parallax images will be described.
For the isolated area determined as the object candidate area by the isolated area detection unit 142, as shown in FIG. 17, when a rectangular area inscribed by the isolated area is set, the width of the rectangular area (on the real frequency U map) The length in the X-axis direction corresponds to the width of the detection target (object) corresponding to the isolated region. Further, the height of the set rectangular area corresponds to the depth (length in the traveling direction of the host vehicle) of the detection target (object) corresponding to the isolated area. On the other hand, the height of the detection target (object) corresponding to each isolated area is obtained from the real height U map generated by the real U map generation unit 141. In order to obtain an accurate height of the corresponding object, the corresponding region detection unit 143 of the parallax image detects a corresponding region on the parallax image corresponding to the isolated region.

図18は、図17に示したリアル頻度Uマップに対応する視差画像を模式的に示した説明図である。
視差画像の対応領域検出部143は、孤立領域検出部142から出力される孤立領域の情報に基づき、当該孤立領域の幅すなわちX軸方向座標がxminからxmaxまでの範囲(検出幅)を決定する。また、視差画像の対応領域検出部143は、孤立領域検出部142から出力される孤立領域の情報に基づき、当該孤立領域に対応する視差画像上の高さすなわちY軸方向座標がymin(最大視差dmaxについての路面からの最大高さに相当する地点のy座標)からymax(最大視差dmaxに対応する路面のy座標)までの範囲(検出高さ)を決定する。このように決定した検出幅及び検出高さについて、視差画像を走査し、当該孤立領域に設定されたリアル頻度Uマップ上での矩形領域の高さ、すなわち、リアル頻度UマップのY軸方向座標(視差値)がdminからdmaxまでの範囲の値を視差値とする画素を候補画素として抽出する。
FIG. 18 is an explanatory diagram schematically showing a parallax image corresponding to the real frequency U map shown in FIG.
The corresponding region detection unit 143 of the parallax image determines a range (detection width) in which the width of the isolated region, that is, the coordinate in the X-axis direction is from xmin to xmax based on the information on the isolated region output from the isolated region detection unit 142. . Further, the corresponding region detection unit 143 of the parallax image has the height on the parallax image corresponding to the isolated region, that is, the Y-axis direction coordinate ymin (maximum parallax) based on the information of the isolated region output from the isolated region detection unit 142. A range (detection height) from ymax (y coordinate of the road surface corresponding to the maximum parallax dmax) to ymax (y coordinate of the point corresponding to the maximum height from the road surface for dmax) is determined. The parallax image is scanned for the detection width and the detection height determined in this manner, and the height of the rectangular area on the real frequency U map set in the isolated area, that is, the Y-axis direction coordinates of the real frequency U map Pixels having a parallax value in the range of (parallax value) from dmin to dmax are extracted as candidate pixels.

このようにして抽出した候補画素群の中で、前記検出幅に対して視差画像X軸方向に所定割合以上の候補画素が存在する横方向ラインを、オブジェクト候補ラインとして決定する。次に、縦方向走査して、ある注目しているオブジェクト候補ラインの周囲に他のオブジェクト候補ラインが所定の密度以上で存在している場合、その注目しているオブジェクト候補ラインをオブジェクトラインとして判定する。   In the candidate pixel group extracted in this way, a horizontal line in which there are more than a predetermined ratio of candidate pixels in the parallax image X-axis direction with respect to the detection width is determined as an object candidate line. Next, when scanning is performed in the vertical direction and there are other object candidate lines with a predetermined density or more around the object candidate line of interest, the object candidate line of interest is determined as an object line. To do.

オブジェクト領域抽出部144は、各孤立領域に対応する検出幅及び検出高さの範囲で探索して得られたオブジェクトライン群の最下端及び最上端を決定し、これにより規定される外接矩形を、図19に示すように、視差画像上のオブジェクト領域として決定する。   The object region extraction unit 144 determines the lowermost end and the uppermost end of the object line group obtained by searching in the range of the detection width and the detection height corresponding to each isolated region, and the circumscribed rectangle defined thereby is As shown in FIG. 19, it is determined as an object area on the parallax image.

次に、オブジェクトタイプ分類部145について説明する。
前記オブジェクト領域抽出部144で抽出されるオブジェクト領域の高さ(yomax−yomin)から、下記の式(4)より、そのオブジェクト領域に対応する画像領域に映し出されている検出対象物(オブジェクト)の実際の高さHoを計算できる。ただし、「zo」は、当該オブジェクト領域内の最小視差値dから計算される当該オブジェクト領域に対応するオブジェクトと自車両との距離であり、「f」はカメラの焦点距離を(yomax−yomin)の単位と同じ単位に変換した値である。
Ho = zo×(yomax−yomin)/f ・・・(4)
Next, the object type classification unit 145 will be described.
From the height (yomax-yomin) of the object area extracted by the object area extraction unit 144, the detection object (object) displayed in the image area corresponding to the object area is expressed by the following equation (4). The actual height Ho can be calculated. However, “zo” is the distance between the object corresponding to the object area calculated from the minimum parallax value d in the object area and the host vehicle, and “f” is the focal length of the camera (yomax−yomin). The value converted to the same unit as.
Ho = zo × (yomax−yomin) / f (4)

同様に、オブジェクト領域抽出部144で抽出されるオブジェクト領域の幅(xomax−xomin)から、下記の式(5)より、そのオブジェクト領域に対応する画像領域に映し出されている検出対象物(オブジェクト)の実際の幅Woを計算できる。
Wo = zo×(xomax−xomin)/f ・・・(5)
Similarly, from the width (xomax−xomin) of the object area extracted by the object area extraction unit 144, the detection target object (object) displayed in the image area corresponding to the object area is calculated from the following equation (5). The actual width Wo of can be calculated.
Wo = zo × (xomax−xomin) / f (5)

また、当該オブジェクト領域に対応する画像領域に映し出されている検出対象物(オブジェクト)の奥行きDoは、当該オブジェクト領域に対応した孤立領域内の最大視差値dmaxと最小視差値dminから、下記の式(6)より計算することができる。
Do = BF×(1/(dmin−offset)−1/(dmax−offset)) ・・・(6)
In addition, the depth Do of the detection target (object) projected in the image area corresponding to the object area is expressed by the following equation from the maximum parallax value dmax and the minimum parallax value dmin in the isolated area corresponding to the object area. It can be calculated from (6).
Do = BF × (1 / (dmin−offset) −1 / (dmax−offset)) (6)

オブジェクトタイプ分類部145は、このようにして計算できるオブジェクト領域に対応するオブジェクトの高さ、幅、奥行きの情報から、そのオブジェクトタイプの分類を行う。図20に示す表は、オブジェクトタイプの分類を行うためのテーブルデータの一例を示すものである。これによれば、自車両前方に存在する検出対象物(オブジェクト)が、歩行者なのか、自転車なのか、小型車なのか、トラックなどか等を区別して認識することが可能となる。   The object type classification unit 145 classifies the object type from the information on the height, width, and depth of the object corresponding to the object area that can be calculated in this way. The table shown in FIG. 20 shows an example of table data for classifying object types. According to this, it becomes possible to distinguish and recognize whether the detection target (object) existing in front of the host vehicle is a pedestrian, a bicycle, a small car, a truck, or the like.

次に、3次元位置決定部146について説明する。
検出されたオブジェクト領域に対応するオブジェクトまでの距離や、視差画像の画像中心と視差画像上のオブジェクト領域の中心との画像上の距離も把握されることから、オブジェクトの3次元位置を決定することができる。視差画像上のオブジェクト領域の中心座標を(region_centerX,region_centerY)とし、視差画像の画像中心座標を(image_centerX,imgae_centerY)としたとき、検出対象物(オブジェクト)の撮像部110A,110Bに対する相対的な横方向位置および高さ方向位置は、下記の式(7)及び式(8)より計算できる。
Xo = Z×(region_centerX−image_centerX)/f ・・・(7)
Yo = Z×(region_centerY−image_centerY)/f ・・・(8)
Next, the three-dimensional position determining unit 146 will be described.
The distance to the object corresponding to the detected object area and the distance on the image between the image center of the parallax image and the center of the object area on the parallax image are also grasped, so that the three-dimensional position of the object is determined. Can do. When the center coordinates of the object region on the parallax image are (region_centerX, region_centerY) and the image center coordinates of the parallax image are (image_centerX, image_centerY), the horizontal direction relative to the imaging units 110A and 110B of the detection target (object) is detected. The direction position and the height direction position can be calculated from the following equations (7) and (8).
Xo = Z × (region_centerX-image_centerX) / f (7)
Yo = Z × (region_centerY−image_centerY) / f (8)

次に、オブジェクトマッチング部147について説明する。
オブジェクトマッチング部147では、ある1つの撮像フレームで撮像された撮像画像から検出された各オブジェクト領域について、オブジェクトデータリスト135内のS=0であるデータリストと比較マッチングを実行する。この比較マッチングによりマッチングしたオブジェクト領域については、オブジェクトデータリスト135内のマッチングしたオブジェクト、すなわち、過去(例えば直前の撮像フレーム)に検出されたオブジェクトと同一のものであるとして、”Matched”に分類される。一方、オブジェクトデータリスト135内のオブジェクトとはマッチングされなかったオブジェクト領域については、新規に検出されたオブジェクトとして、”NewObject”に分類される。”NewObject”に分類されたオブジェクト領域についての各種情報は、新たに、オブジェクトデータリスト135内に追加される。
Next, the object matching unit 147 will be described.
The object matching unit 147 performs comparison matching with the data list in the object data list 135 where S = 0 for each object region detected from the captured image captured in a certain imaging frame. The object area matched by this comparison matching is classified as “Matched” as the matched object in the object data list 135, that is, the same object as the object detected in the past (for example, the immediately preceding imaging frame). The On the other hand, an object area that has not been matched with an object in the object data list 135 is classified as “NewObject” as a newly detected object. Various pieces of information regarding the object area classified as “NewObject” are newly added to the object data list 135.

このようにして比較マッチングを実行した後、マッチングされなかったオブジェクトデータリスト135内のオブジェクトについては、”Missing”に分類される。”Missing”に分類されたオブジェクトは、未検出フレーム数がカウントアップされ、未検出フレーム数が規定値に達したオブジェクトについては、オブジェクトデータリスト135内から消去される。   After the comparison matching is executed in this way, the objects in the object data list 135 that are not matched are classified as “Missing”. For objects classified as “Missing”, the number of undetected frames is counted up, and an object whose number of undetected frames has reached a specified value is deleted from the object data list 135.

次に、孤立領域検出部142における高さ分離処理について説明する。
図21に示すように、自車両進行方向正面(撮像画像の左右方向中央部分)より横にずれた位置に存在する他車両(隣接車線を走行する車両や駐車車両など)と壁とが近接している場合、他車両と壁とが一つのオブジェクト候補領域として検出されてしまい、他車両又は壁あるいはその両方を適切に検出することができない場合がある。高さ分離処理では、このようなケースでも、他車両と壁とを別々のオブジェクト候補領域に分離して検出する処理を実行する。
Next, the height separation process in the isolated region detection unit 142 will be described.
As shown in FIG. 21, the other vehicle (a vehicle traveling in an adjacent lane, a parked vehicle, etc.) existing in a position shifted laterally from the front of the host vehicle traveling direction (the central portion in the left-right direction of the captured image) and the wall are close to each other. In this case, the other vehicle and the wall are detected as one object candidate area, and the other vehicle and / or the wall may not be detected appropriately. Even in such a case, the height separation process executes a process of separating and detecting the other vehicle and the wall into separate object candidate areas.

図22は、図21の画像例に対応するリアル頻度Uマップを示す説明図である。
図21の画像例のように、道路脇に存在する壁に寄せて他車両が駐車してある道路を自車両が通過しようとするとき、これらの壁と他車両をそれぞれ映し出す画像領域は、図22に示すリアル頻度Uマップ上において、撮像画像の左右方向で近接していて、かつ、所定値以上の頻度fをもつ視差値の値dが近接したものである。このような場合、他車両の壁よりの部分の視差値がその分散によって壁に対応する視差値と連結されてしまい、上述した孤立領域検出処理における縦分離処理や横分離処理まで実施してもなお、図22に示すように、他車両と壁とが1つの孤立領域として検出される。
FIG. 22 is an explanatory diagram showing a real frequency U map corresponding to the image example of FIG.
As shown in the image example of FIG. 21, when the host vehicle tries to pass the road where other vehicles are parked near the wall existing on the side of the road, the image areas for displaying these walls and the other vehicles are shown in FIG. On the real frequency U map shown in FIG. 22, the parallax value d, which is close in the left-right direction of the captured image and has a frequency f equal to or higher than a predetermined value, is close. In such a case, the parallax value of the part from the wall of the other vehicle is connected to the parallax value corresponding to the wall due to the dispersion, and even the vertical separation process and the horizontal separation process in the isolated region detection process described above may be performed. As shown in FIG. 22, the other vehicle and the wall are detected as one isolated region.

図23は、図21の画像例に対応するリアル高さUマップを示す説明図である。
図23に示すリアル高さUマップは、当該視差画像上における実空間高さの分布を示すものであり、本実施形態では、図22に示される個々の孤立領域内に限定して実空間高さの分布が示される。また、本実施形態では、実空間高さの分布のうち、各視差値に対応した実空間高さの最大値Hmaxの分布を示している。図23に示すリアル高さUマップにおいては、実空間高さが比較的低い他車両に対応する孤立領域部分については画素値が低く、実空間高さが比較的高い壁に対応する孤立領域部分については画素値が高くなっている。本実施形態の高さ分離処理では、リアル高さUマップを利用し、実空間高さの違いによって孤立領域を分離することにより、他車両と壁とを個別の孤立領域として検出されるようにしている。
FIG. 23 is an explanatory diagram showing a real height U map corresponding to the image example of FIG.
The real height U map shown in FIG. 23 shows the distribution of the real space height on the parallax image. In this embodiment, the real space height is limited to each isolated region shown in FIG. The distribution of depth is shown. In the present embodiment, the distribution of the maximum value Hmax of the real space height corresponding to each parallax value among the distribution of the real space height is shown. In the real height U map shown in FIG. 23, an isolated region corresponding to a wall having a relatively low real space height and a pixel value of an isolated region corresponding to another vehicle having a relatively low real space height. Has a high pixel value. In the height separation process of the present embodiment, a real height U map is used, and an isolated area is separated by a difference in real space height so that other vehicles and walls can be detected as separate isolated areas. ing.

図24は、本実施形態における高さ分離処理の流れを示すフローチャートである。
本実施形態における高さ分離処理(S43)では、まず、処理対象となる孤立領域の左右方向位置が、所定の高さ分離実行領域内にあるか否かを判定する(S43−1)。本実施形態では、正面(左右方向中央部分)については高さ分離実行領域外としているので、孤立領域の左右方向位置が正面であれば(S43−1のYes)、そのまま高さ分離処理を終了する。仮に正面に複数の物体が近接して横並びで存在する場合、両物体間に存在する隙間を撮像することが可能である。そのため、これらの物体をそれぞれ映し出す画像領域は、所定値以上の頻度fをもつ視差値の値dが近接した画像領域ではあるが、撮像画像の左右方向においては一定の隙間が存在しており、上述した視差補間処理を実施しても連続したものとはならず、近接したものとはならない。よって、この場合、上述した二値化処理やラベリング処理によって個別の孤立領域として検出されることになり、高さ分離処理によって分離する必要がない。そのため、本実施形態では、正面については高さ分離実行領域外としている。
FIG. 24 is a flowchart showing the flow of height separation processing in the present embodiment.
In the height separation process (S43) in the present embodiment, first, it is determined whether or not the position in the left-right direction of the isolated area to be processed is within a predetermined height separation execution area (S43-1). In the present embodiment, since the front (left and right central portion) is outside the height separation execution area, if the left and right position of the isolated area is the front (Yes in S43-1), the height separation process is terminated as it is. To do. If a plurality of objects are close to each other and are side by side, it is possible to image a gap that exists between the two objects. For this reason, the image areas in which these objects are respectively displayed are image areas in which the value d of the parallax value having a frequency f equal to or higher than a predetermined value is close, but there is a certain gap in the left-right direction of the captured image. Even if the above-described parallax interpolation processing is performed, the parallax interpolation process does not become continuous but does not become adjacent. Therefore, in this case, individual isolated regions are detected by the above-described binarization processing and labeling processing, and there is no need to separate by height separation processing. Therefore, in the present embodiment, the front side is outside the height separation execution region.

具体的には、図22に示したリアル頻度Uマップにおいて、図中縦方向に延びる2つの破線に囲まれた領域(正面)に重複する部分が無い孤立領域については、高さ分離実行領域内にあると判定して(S43−1のNo)、高さ分離処理を継続する。正面領域の幅は、例えば実空間上の距離で1mとする。なお、2つの破線の左右方向端部側に設定される高さ分離実行領域を、例えば実空間上の距離で10m程度の領域幅に設定し、その高さ分離実行領域内に孤立領域の全体が収まっている孤立領域を、高さ分離実行領域内にあると判定してもよい。   Specifically, in the real frequency U map shown in FIG. 22, an isolated region that does not overlap in the region (front) surrounded by two broken lines extending in the vertical direction in the drawing is within the height separation execution region. (No in S43-1), the height separation process is continued. The width of the front area is, for example, 1 m in real space. Note that the height separation execution area set on the left and right ends of the two broken lines is set to an area width of, for example, about 10 m as a distance in real space, and the entire isolated area is included in the height separation execution area. It may be determined that the isolated region in which is contained is in the height separation execution region.

高さ分離実行領域内であると判定された孤立領域については、次に、各孤立領域の左右方向位置に応じて最大高さHmaxの探索を行うための探索範囲を設定する(S43−2)。この探索範囲の設定では、壁に対応すると想定される領域を壁の探索範囲として設定し、車両に対応すると想定される領域を車両の探索範囲として設定する。具体的には、図25の左側に位置する孤立領域については、図中右上がりの斜線がひかれている領域を壁の探索範囲として設定する。この探索範囲の幅は例えば孤立領域幅の1/2とし、その高さは孤立領域と同じ高さに設定する。また、右下がりの斜線がひかれている領域は、車両の探索範囲として設定する。この探索範囲の幅は例えば8画素分とし、その高さは孤立領域と同じ高さに設定する。図25の右側に位置する孤立領域についても同様である。   For the isolated area determined to be within the height separation execution area, next, a search range for searching for the maximum height Hmax is set according to the horizontal position of each isolated area (S43-2). . In this search range setting, an area assumed to correspond to a wall is set as a wall search range, and an area assumed to correspond to a vehicle is set as a vehicle search range. Specifically, for the isolated area located on the left side of FIG. 25, an area with a diagonal line rising to the right in the figure is set as the wall search range. The width of this search range is, for example, ½ of the isolated area width, and the height is set to the same height as the isolated area. In addition, a region with a downward slanting diagonal line is set as a vehicle search range. The width of this search range is, for example, 8 pixels, and the height is set to the same height as the isolated area. The same applies to the isolated region located on the right side of FIG.

このようにして壁と車両の探索範囲を設定したら、まず、リアル高さUマップの情報を利用し、壁の探索範囲に対して最大高さHmaxが壁用高さ閾値を超える領域を探索し、壁が存在するか否かを判定する(S43−3)。具体的には、図26に示すように、まず、壁の探索範囲における行領域(リアル高さUマップ上のY軸位置)ごとに、それぞれの列領域に対応した最大高さHmaxを壁用高さ閾値と比較して、行領域ごとの壁用高さ閾値を超える視差値の数をカウントする(S43−3−1)。そして、各行領域のカウント値が所定の壁カウント閾値よりも大きい行領域の数をカウントする(S43−3−2)。このようにしてカウントした行領域の数が所定の壁領域数閾値より大きいときには、この探索範囲には高い壁が存在するとして高壁フラグを立てる(S43−3−3)。   Once the wall and vehicle search range is set in this manner, first, the real height U map information is used to search for a region where the maximum height Hmax exceeds the wall height threshold with respect to the wall search range. It is determined whether or not a wall exists (S43-3). Specifically, as shown in FIG. 26, first, for each row region (Y-axis position on the real height U map) in the wall search range, the maximum height Hmax corresponding to each column region is used for the wall. Compared to the height threshold, the number of parallax values exceeding the wall height threshold for each row region is counted (S43-3-1). Then, the number of row areas in which the count value of each row area is larger than a predetermined wall count threshold is counted (S43-3-2). When the number of row areas counted in this way is larger than a predetermined wall area number threshold, a high wall flag is set as a high wall exists in this search range (S43-3-3).

また、リアル高さUマップの情報を利用し、車両の探索範囲に対して最大高さHmaxが車両用高さ閾値を超える領域を探索し、壁が存在するか否かを判定する(S43−4)。具体的には、図27に示すように、まず、車両の探索範囲における行領域(リアル高さUマップ上のY軸位置)ごとに、それぞれの列領域に対応した最大高さHmaxを車両用高さ閾値と比較して、行領域ごとの車両用高さ閾値を超える視差値の数をカウントする(S43−4−1)。そして、各行領域のカウント値が所定の車両カウント閾値よりも大きい行領域の数をカウントする(S43−4−2)。このようにしてカウントした行領域の数が所定の車両領域数閾値より大きいときには、この探索範囲には高い車両が存在するとして高車両フラグを立てる(S43−4−3)。   Further, using the information of the real height U map, a region where the maximum height Hmax exceeds the vehicle height threshold with respect to the vehicle search range is searched to determine whether or not a wall exists (S43-). 4). Specifically, as shown in FIG. 27, first, for each row region (Y-axis position on the real height U map) in the vehicle search range, the maximum height Hmax corresponding to each column region is set for the vehicle. Compared with the height threshold value, the number of parallax values exceeding the vehicle height threshold value for each row region is counted (S43-4-1). Then, the number of row regions in which the count value of each row region is larger than a predetermined vehicle count threshold is counted (S43-4-2). When the number of row areas counted in this way is larger than a predetermined vehicle area number threshold, a high vehicle flag is set on the assumption that a high vehicle exists in this search range (S43-4-3).

そして、壁の探索領域について高壁フラグが立てられ、かつ、車両の探索領域について高車両フラグが立てられていない場合(S43−5のYes)、最大高さHmaxが壁用高さ閾値を超える視差値に対して、新しいラベルを割り当てる新ラベル割り当て処理を実行する(S43−7)。このように新たなラベルが割り当てた孤立領域部分は、もとの孤立領域とは別のラベルが割り当てられる結果、もとの孤立領域は、最大高さHmaxが壁用高さ閾値を超える視差値に対応する部分とそれ以外の部分とに分離される。   When the high wall flag is set for the wall search area and the high vehicle flag is not set for the vehicle search area (Yes in S43-5), the maximum height Hmax exceeds the wall height threshold. A new label assignment process for assigning a new label to the disparity value is executed (S43-7). In this way, the isolated area portion to which the new label is assigned is assigned a different label from the original isolated area. As a result, the original isolated area has a parallax value whose maximum height Hmax exceeds the wall height threshold. It is separated into a part corresponding to, and other parts.

このようにして、高さ分離処理により孤立領域が分離された場合(S44のYes)、分離後の孤立領域について更に細かい孤立領域が検出されることがあり得るため、分離後の孤立領域については、もう一度ラベリングを行い(S34)、孤立領域の再設定を行う。   Thus, when an isolated region is separated by the height separation process (Yes in S44), a finer isolated region may be detected for the isolated region after separation. Then, labeling is performed again (S34), and the isolated area is reset.

以上に説明したものは一例であり、次の態様毎に特有の効果を奏する。
(態様A)
自車両前方の撮像領域についての視差画像データ等の視差画像情報を生成する視差画像生成部132等の視差画像情報生成手段と、前記視差画像情報生成手段が生成した視差画像情報に基づいて、前記撮像画像を左右方向に複数分割して得られる各列領域内における視差値dの頻度分布を示すリアル頻度Uマップ情報等の視差ヒストグラム情報を生成するUマップ生成部140及びリアルUマップ生成部141等の視差ヒストグラム情報生成手段と、前記視差ヒストグラム情報生成手段が生成した視差ヒストグラム情報に基づいて、前記撮像画像の左右方向で近接していて、かつ、所定値以上の頻度fをもつ視差値の値dが近接している画像領域を、他車両等の検出対象物(オブジェクト)を映し出すオブジェクト領域等の検出対象物画像領域の候補領域(孤立領域)として選別し、選別した候補領域の中から所定の特定条件に従って検出対象物画像領域を特定する孤立領域検出部142、視差画像の対応領域検出部143、オブジェクト領域抽出部144、オブジェクトタイプ分類部145等の検出対象物画像領域特定手段とを有し、前記撮像領域内に存在する検出対象物を検出する画像処理基板120及び画像解析ユニット102等の物体検出装置において、前記視差画像情報に基づいて、当該視差画像上における実空間高さの分布を示すリアル高さUマップ情報等の高さ分布情報を生成するUマップ生成部140及びリアルUマップ生成部141等の高さ分布情報生成手段を有し、前記検出対象物画像領域特定手段は、前記高さ分布情報を用いて、実空間高さが所定の高さ条件を満たす画像領域を前記候補領域として選別することを特徴とする。
これによれば、候補領域を選別する選別条件に実空間上の高さが所定範囲内であるなどの条件が含まれる結果、実空間上の高さが有意に異なる複数の物体を映し出す複数の画像領域を別々の候補領域として選別することが可能となる。よって、近接した複数の物体を映し出す複数の画像領域が1つの候補領域として誤選別される事態を抑制できる。
What was demonstrated above is an example, and there exists an effect peculiar for every following aspect.
(Aspect A)
Based on the parallax image information generating unit such as the parallax image generating unit 132 that generates parallax image information such as parallax image data for the imaging region in front of the host vehicle, and the parallax image information generated by the parallax image information generating unit, A U map generation unit 140 and a real U map generation unit 141 that generate parallax histogram information such as real frequency U map information indicating the frequency distribution of the parallax values d in each row region obtained by dividing the captured image into a plurality of left and right directions. Based on the disparity histogram information generating means such as the disparity histogram information generated by the disparity histogram information generating means, and the disparity value of the disparity value that is close in the left-right direction of the captured image and has a frequency f greater than or equal to a predetermined value. An image area where the value d is close to a detection object image area such as an object area that displays a detection object (object) such as another vehicle. Are selected as candidate regions (isolated regions), and an isolated region detecting unit 142 that specifies a detection target image region from the selected candidate regions according to a predetermined specific condition, a corresponding region detecting unit 143 for parallax images, and an object region extracting unit 144, and an object detection device such as the image processing unit 120 and the image analysis unit 102 that detect the detection target object existing in the imaging region. Based on the parallax image information, the U map generation unit 140, the real U map generation unit 141, etc. that generate height distribution information such as real height U map information indicating the distribution of the real space height on the parallax image. A height distribution information generating unit, wherein the detection object image area specifying unit uses the height distribution information to determine whether the real space height is a predetermined height line. Characterized by selecting an image area satisfying as the candidate region.
According to this, as a result of the selection condition for selecting the candidate area including a condition such that the height in the real space is within a predetermined range, a plurality of objects that project a plurality of objects having significantly different heights in the real space are displayed. Image regions can be selected as separate candidate regions. Therefore, it is possible to suppress a situation in which a plurality of image areas that project a plurality of adjacent objects are erroneously selected as one candidate area.

(態様B)
前記態様Aにおいて、前記検出対象物画像領域特定手段は、前記視差ヒストグラム情報に基づいて候補領域(孤立領域)を仮選別した後、前記高さ分布情報を用いて、仮選別された候補領域を前記所定の高さ条件に従って分離して個別の候補領域として選別するものであり、前記高さ分布情報生成手段は、前記仮選別された候補領域内における実空間高さの分布を示す高さ分布情報を生成することを特徴とする。
これによれば、仮選別された候補領域内に限定して高さ分布情報を生成するので、高さ分布情報の生成に関する処理を軽減できる。
(Aspect B)
In the aspect A, the detection object image area specifying unit temporarily selects a candidate area (isolated area) based on the parallax histogram information, and then uses the height distribution information to select the temporarily selected candidate area. According to the predetermined height condition, it is separated and selected as individual candidate areas, and the height distribution information generating means is a height distribution indicating a distribution of real space heights within the temporarily selected candidate areas. It is characterized by generating information.
According to this, since the height distribution information is generated only within the temporarily selected candidate region, the processing related to the generation of the height distribution information can be reduced.

(態様C)
前記態様Bにおいて、前記高さ分布情報生成手段が生成する高さ分布情報は、前記仮選別された候補領域内における前記各列領域について視差値ごとの実空間上の最大高さの分布を示すものであることを特徴とする。
これによれば、高さ分布情報の生成に関する処理を更に軽減できる。
(Aspect C)
In the aspect B, the height distribution information generated by the height distribution information generation unit indicates a distribution of the maximum height in real space for each parallax value for each row region in the temporarily selected candidate region. It is characterized by being.
According to this, processing related to generation of height distribution information can be further reduced.

(態様D)
前記態様A〜Cのいずれかの態様において、前記所定の高さ条件は、前記撮像画像上の位置の違いによって異なることを特徴とする。
実空間上の高さが有意に異なる複数の物体を映し出す複数の画像領域が1つの候補領域として選別される状況は予め想定することができるので、それぞれの物体が映し出される各画像領域の撮像画像上の位置は推測することが可能である。本態様によれば、このようにして推測される領域ごとに、その領域に存在することが予想されるそれぞれの物体に適した高さ条件を設定することで、各物体を映し出す複数の画像領域を個別の候補領域へ適切に分離することができる。
(Aspect D)
In any one of the aspects A to C, the predetermined height condition is different depending on a difference in position on the captured image.
Since it is possible to assume in advance a situation in which a plurality of image areas that project a plurality of objects that are significantly different in height in real space are selected as one candidate area, a captured image of each image area in which each object is projected The upper position can be inferred. According to this aspect, for each region estimated in this way, a plurality of image regions that project each object are set by setting a height condition suitable for each object that is expected to exist in that region. Can be appropriately separated into individual candidate regions.

(態様E)
前記態様Dにおいて、前記所定の高さ条件は、前記撮像画像上の位置の違いによって異なる閾値に対し、当該位置における実空間高さが当該位置における閾値を超えているという条件を含むことを特徴とする。
これによれば、各物体を映し出す複数の画像領域を個別の候補領域へ分離する処理をより簡易に実行することができる。
(Aspect E)
In the aspect D, the predetermined height condition includes a condition that a real space height at the position exceeds a threshold value at the position with respect to a threshold value that differs depending on a position on the captured image. And
According to this, the process which isolate | separates the several image area | region which projects each object into an individual candidate area | region can be performed more simply.

(態様F)
前記態様A〜Eのいずれかの態様において、前記検出対象物画像領域特定手段は、所定の領域設定条件に従って設定される前記撮像画像の一部分である高さ分離実行領域等の高さ選別用画像領域に対しては、前記高さ分布情報を用いて前記候補領域を選別するが、該撮像画像の他の部分(正面領域等)に対しては前記高さ分布情報を用いずに前記候補領域を選別することを特徴とする。
実空間上の高さが有意に異なる複数の物体を映し出す複数の画像領域が1つの候補領域として選別されてしまう事態は、撮像画像上の特定の位置だけで起こることがある。具体的には、上述したとおり、撮像画像の左右方向中央部分(正面領域)ではそのような事態が起こりにくい。本態様によれば、このような事態が起こりにくい箇所については、高さ分布情報を用いた候補領域の選別を実施しないので、処理の簡略化を実現できる。
(Aspect F)
In any one of the aspects A to E, the detection object image area specifying unit includes a height selection image such as a height separation execution area that is a part of the captured image set in accordance with a predetermined area setting condition. For the area, the candidate area is selected using the height distribution information, but the candidate area is not used for the other part (front area or the like) of the captured image. It is characterized by sorting.
A situation in which a plurality of image regions that project a plurality of objects having significantly different heights in the real space are selected as one candidate region may occur only at a specific position on the captured image. Specifically, as described above, such a situation is unlikely to occur in the central portion (front region) in the left-right direction of the captured image. According to this aspect, since the candidate area is not selected using the height distribution information for a place where such a situation is unlikely to occur, the process can be simplified.

(態様G)
自車両100等の移動体の移動方向前方を撮像領域とし、該撮像領域についての視差画像情報に基づいて、該撮像領域内に存在する他車両等の検出対象物を検出する物体検出装置と、前記物体検出装置の検出結果に基づいて、移動体に搭載された所定の機器を制御する移動体機器制御手段とを備えた移動体機器制御システムにおいて、前記物体検出装置として、前記態様A〜Fのいずれかの態様に係る物体検出装置を用いることを特徴とする。
これによれば、近接した複数の物体を映し出す複数の画像領域が1つの候補領域として誤選別される事態を抑制できるので、移動体に搭載された所定の機器をより高精度に制御することが可能となる。
(Aspect G)
An object detection device that detects a detection target such as another vehicle existing in the imaging region based on parallax image information about the imaging region, with the moving direction front of the moving body such as the host vehicle 100 as an imaging region; In a mobile device control system including mobile device control means for controlling a predetermined device mounted on a mobile based on the detection result of the object detection device, the modes A to F are used as the object detection device. The object detection apparatus according to any one of the aspects is used.
According to this, since it is possible to suppress a situation in which a plurality of image areas that project a plurality of adjacent objects are erroneously selected as one candidate area, it is possible to control a predetermined device mounted on the moving body with higher accuracy. It becomes possible.

(態様H)
撮像領域についての視差画像情報を生成する視差画像情報生成手段と、前記視差画像情報生成手段が生成した視差画像情報に基づいて、前記撮像画像を左右方向に複数分割して得られる各列領域内における視差値の頻度分布を示す視差ヒストグラム情報を生成する視差ヒストグラム情報生成手段と、前記視差ヒストグラム情報生成手段が生成した視差ヒストグラム情報に基づいて、前記撮像画像の左右方向で近接していて、かつ、所定値以上の頻度をもつ視差値の値が近接している画像領域を、検出対象物を映し出す検出対象物画像領域の候補領域として選別し、選別した候補領域の中から所定の特定条件に従って検出対象物画像領域を特定する検出対象物画像領域特定手段とを有し、前記撮像領域内に存在する検出対象物を検出する物体検出装置のコンピュータを、前記視差画像情報生成手段、前記視差ヒストグラム情報生成手段、及び、前記検出対象物画像領域特定手段として機能させる物体検出用プログラムであって、前記視差画像情報に基づいて、当該視差画像上における実空間高さの分布を示す高さ分布情報を生成する高さ分布情報生成手段として、前記コンピュータを機能させるものであり、前記検出対象物画像領域特定手段は、前記高さ分布情報を用いて、実空間高さが所定の高さ条件を満たす画像領域を前記候補領域として選別することを特徴とする。
これによれば、候補領域を選別する選別条件に実空間上の高さが所定範囲内であるなどの条件が含まれる結果、実空間上の高さが有意に異なる複数の物体を映し出す複数の画像領域を別々の候補領域として選別することが可能となる。よって、近接した複数の物体を映し出す複数の画像領域が1つの候補領域として誤選別される事態を抑制できる。
(Aspect H)
Parallax image information generating means for generating parallax image information for the imaging area, and in each row area obtained by dividing the captured image into a plurality of left and right directions based on the parallax image information generated by the parallax image information generating means Based on the parallax histogram information generated by the parallax histogram information generated by the parallax histogram information generating unit, and the parallax histogram information generated by the parallax histogram information generating unit. In addition, an image area with a parallax value having a frequency equal to or higher than a predetermined value is selected as a candidate area of a detection target image area that displays the detection target, and the predetermined candidate area is selected from the selected candidate areas. Detection object image area specifying means for specifying a detection object image area, and an object detection for detecting a detection object existing in the imaging area. An object detection program that causes a computer of an apparatus to function as the parallax image information generation unit, the parallax histogram information generation unit, and the detection target image region identification unit, and based on the parallax image information, The computer is caused to function as height distribution information generation means for generating height distribution information indicating the distribution of real space height on the image, and the detection object image area specifying means is the height distribution information. And selecting an image area whose real space height satisfies a predetermined height condition as the candidate area.
According to this, as a result of the selection condition for selecting the candidate area including a condition such that the height in the real space is within a predetermined range, a plurality of objects that project a plurality of objects having significantly different heights in the real space are displayed. Image regions can be selected as separate candidate regions. Therefore, it is possible to suppress a situation in which a plurality of image areas that project a plurality of adjacent objects are erroneously selected as one candidate area.

なお、このプログラムは、CD−ROM等の記録媒体に記録された状態で配布したり、入手したりすることができる。また、このプログラムを乗せ、所定の送信装置により送信された信号を、公衆電話回線や専用線、その他の通信網等の伝送媒体を介して配信したり、受信したりすることでも、配布、入手が可能である。この配信の際、伝送媒体中には、コンピュータプログラムの少なくとも一部が伝送されていればよい。すなわち、コンピュータプログラムを構成するすべてのデータが、一時に伝送媒体上に存在している必要はない。このプログラムを乗せた信号とは、コンピュータプログラムを含む所定の搬送波に具現化されたコンピュータデータ信号である。また、所定の送信装置からコンピュータプログラムを送信する送信方法には、プログラムを構成するデータを連続的に送信する場合も、断続的に送信する場合も含まれる。   This program can be distributed or obtained in a state of being recorded on a recording medium such as a CD-ROM. It is also possible to distribute and obtain signals by placing this program and distributing or receiving signals transmitted by a predetermined transmission device via transmission media such as public telephone lines, dedicated lines, and other communication networks. Is possible. At the time of distribution, it is sufficient that at least a part of the computer program is transmitted in the transmission medium. That is, it is not necessary for all data constituting the computer program to exist on the transmission medium at one time. The signal carrying the program is a computer data signal embodied on a predetermined carrier wave including the computer program. Further, the transmission method for transmitting a computer program from a predetermined transmission device includes a case where data constituting the program is transmitted continuously and a case where it is transmitted intermittently.

100 自車両
101 撮像ユニット
102 画像解析ユニット
103 表示モニタ
106 車両走行制御ユニット
110A,110B 撮像部
113A,113B 画像センサ
115A,115B 画像センサコントローラ
120 画像処理基板
131 平行化画像生成部
132 視差画像生成部
133 オブジェクトトラッキング部
134 オブジェクト選択部
135 オブジェクトデータリスト
136 視差補間部
137 Vマップ生成部
138 路面形状検出部
139 テーブル算出部
140 Uマップ生成部
141 リアルUマップ生成部
142 孤立領域検出部
143 対応領域検出部
144 オブジェクト領域抽出部
145 オブジェクトタイプ分類部
146 3次元位置決定部
147 オブジェクトマッチング部
DESCRIPTION OF SYMBOLS 100 Own vehicle 101 Imaging unit 102 Image analysis unit 103 Display monitor 106 Vehicle traveling control unit 110A, 110B Imaging part 113A, 113B Image sensor 115A, 115B Image sensor controller 120 Image processing board 131 Parallelization image generation part 132 Parallax image generation part 133 Object tracking unit 134 Object selection unit 135 Object data list 136 Parallax interpolation unit 137 V map generation unit 138 Road surface shape detection unit 139 Table calculation unit 140 U map generation unit 141 Real U map generation unit 142 Isolated region detection unit 143 Corresponding region detection unit 144 Object region extraction unit 145 Object type classification unit 146 3D position determination unit 147 Object matching unit

特開2014−225220号公報JP 2014-225220 A

Claims (8)

撮像領域についての視差画像情報を生成する視差画像情報生成手段と、
前記視差画像情報生成手段が生成した視差画像情報に基づいて、前記撮像画像を左右方向に複数分割して得られる各列領域内における視差値の頻度分布を示す視差ヒストグラム情報を生成する視差ヒストグラム情報生成手段と、
前記視差ヒストグラム情報生成手段が生成した視差ヒストグラム情報に基づいて、前記撮像画像の左右方向で近接していて、かつ、所定値以上の頻度をもつ視差値の値が近接している画像領域を、検出対象物を映し出す検出対象物画像領域の候補領域として選別し、選別した候補領域の中から所定の特定条件に従って検出対象物画像領域を特定する検出対象物画像領域特定手段とを有し、
前記撮像領域内に存在する検出対象物を検出する物体検出装置において、
前記視差画像情報に基づいて、当該視差画像上における実空間高さの分布を示す高さ分布情報を生成する高さ分布情報生成手段を有し、
前記検出対象物画像領域特定手段は、前記高さ分布情報を用いて、実空間高さが所定の高さ条件を満たす画像領域を前記候補領域として選別することを特徴とする物体検出装置。
Parallax image information generating means for generating parallax image information about the imaging region;
Based on the parallax image information generated by the parallax image information generation unit, parallax histogram information for generating parallax histogram information indicating the frequency distribution of parallax values in each row region obtained by dividing the captured image into a plurality of left and right directions Generating means;
Based on the parallax histogram information generated by the parallax histogram information generating unit, an image region that is close in the left-right direction of the captured image and that has a value of a parallax value having a frequency equal to or higher than a predetermined value is A detection object image area specifying means for selecting the detection object image area as a candidate area of the detection object image area for projecting the detection object and specifying the detection object image area according to a predetermined specific condition from the selected candidate areas;
In the object detection apparatus for detecting a detection target existing in the imaging region,
Based on the parallax image information, having height distribution information generating means for generating height distribution information indicating the distribution of real space height on the parallax image;
The detection object image area specifying means uses the height distribution information to select, as the candidate area, an image area whose real space height satisfies a predetermined height condition.
請求項1に記載の物体検出装置において、
前記検出対象物画像領域特定手段は、前記視差ヒストグラム情報に基づいて候補領域を仮選別した後、前記高さ分布情報を用いて、仮選別された候補領域を前記所定の高さ条件に従って分離して個別の候補領域として選別するものであり、
前記高さ分布情報生成手段は、前記仮選別された候補領域内における実空間高さの分布を示す高さ分布情報を生成することを特徴とする物体検出装置。
The object detection apparatus according to claim 1,
The detection object image region specifying unit temporarily selects candidate regions based on the parallax histogram information, and then uses the height distribution information to separate the temporarily selected candidate regions according to the predetermined height condition. Are selected as individual candidate areas,
The height distribution information generation unit generates height distribution information indicating a distribution of real space heights in the temporarily selected candidate area.
請求項2に記載の物体検出装置において、
前記高さ分布情報生成手段が生成する高さ分布情報は、前記仮選別された候補領域内における前記各列領域について視差値ごとの実空間上の最大高さの分布を示すものであることを特徴とする物体検出装置。
The object detection device according to claim 2,
The height distribution information generated by the height distribution information generation means indicates the distribution of the maximum height in real space for each parallax value for each row area in the temporarily selected candidate area. A featured object detection device.
請求項1乃至3のいずれか1項に記載の物体検出装置において、
前記所定の高さ条件は、前記撮像画像上の位置の違いによって異なることを特徴とする物体検出装置。
The object detection device according to any one of claims 1 to 3,
The object detection apparatus according to claim 1, wherein the predetermined height condition varies depending on a position on the captured image.
請求項4に記載の物体検出装置において、
前記所定の高さ条件は、前記撮像画像上の位置の違いによって異なる閾値に対し、当該位置における実空間高さが当該位置における閾値を超えているという条件を含むことを特徴とする物体検出装置。
The object detection device according to claim 4,
The predetermined height condition includes a condition that a real space height at the position exceeds a threshold value at the position with respect to a threshold value that differs depending on a difference in position on the captured image. .
請求項1乃至5のいずれか1項に記載の物体検出装置において、
前記検出対象物画像領域特定手段は、所定の領域設定条件に従って設定される前記撮像画像の一部分である高さ選別用画像領域に対しては、前記高さ分布情報を用いて前記候補領域を選別するが、該撮像画像の他の部分に対しては前記高さ分布情報を用いずに前記候補領域を選別することを特徴とする物体検出装置。
In the object detection device according to any one of claims 1 to 5,
The detection object image area specifying unit selects the candidate area using the height distribution information for a height selection image area that is a part of the captured image set according to a predetermined area setting condition. However, the candidate area is selected without using the height distribution information for other parts of the captured image.
移動体の移動方向前方を撮像領域とし、該撮像領域についての視差画像情報に基づいて、該撮像領域内に存在する検出対象物を検出する物体検出装置と、
前記物体検出装置の検出結果に基づいて、移動体に搭載された所定の機器を制御する移動体機器制御手段とを備えた移動体機器制御システムにおいて、
前記物体検出装置として、請求項1乃至6のいずれか1項に記載の物体検出装置を用いることを特徴とする移動体機器制御システム。
An object detection device that detects a detection target existing in the imaging region based on parallax image information about the imaging region, with the moving direction front of the moving body as an imaging region;
In a mobile device control system comprising mobile device control means for controlling a predetermined device mounted on the mobile based on the detection result of the object detection device,
A mobile device control system using the object detection device according to any one of claims 1 to 6 as the object detection device.
撮像領域についての視差画像情報を生成する視差画像情報生成手段と、前記視差画像情報生成手段が生成した視差画像情報に基づいて、前記撮像画像を左右方向に複数分割して得られる各列領域内における視差値の頻度分布を示す視差ヒストグラム情報を生成する視差ヒストグラム情報生成手段と、前記視差ヒストグラム情報生成手段が生成した視差ヒストグラム情報に基づいて、前記撮像画像の左右方向で近接していて、かつ、所定値以上の頻度をもつ視差値の値が近接している画像領域を、検出対象物を映し出す検出対象物画像領域の候補領域として選別し、選別した候補領域の中から所定の特定条件に従って検出対象物画像領域を特定する検出対象物画像領域特定手段とを有し、前記撮像領域内に存在する検出対象物を検出する物体検出装置のコンピュータを、前記視差画像情報生成手段、前記視差ヒストグラム情報生成手段、及び、前記検出対象物画像領域特定手段として機能させる物体検出用プログラムであって、
前記視差画像情報に基づいて、当該視差画像上における実空間高さの分布を示す高さ分布情報を生成する高さ分布情報生成手段として、前記コンピュータを機能させるものであり、
前記検出対象物画像領域特定手段は、前記高さ分布情報を用いて、実空間高さが所定の高さ条件を満たす画像領域を前記候補領域として選別することを特徴とする物体検出用プログラム。
Parallax image information generating means for generating parallax image information for the imaging area, and in each row area obtained by dividing the captured image into a plurality of left and right directions based on the parallax image information generated by the parallax image information generating means Based on the parallax histogram information generated by the parallax histogram information generated by the parallax histogram information generating unit, and the parallax histogram information generated by the parallax histogram information generating unit. In addition, an image area with a parallax value having a frequency equal to or higher than a predetermined value is selected as a candidate area of a detection target image area that displays the detection target, and the predetermined candidate area is selected from the selected candidate areas. Detection object image area specifying means for specifying a detection object image area, and an object detection for detecting a detection object existing in the imaging area. The computer device, the parallax image information generating means, wherein the disparity histogram information generating means, and, a object detection program to function as the detection object image area specifying means,
Based on the parallax image information, the computer is caused to function as height distribution information generation means for generating height distribution information indicating a distribution of real space height on the parallax image.
The detection object image area specifying unit selects an image area whose real space height satisfies a predetermined height condition as the candidate area using the height distribution information.
JP2015085364A 2015-04-17 2015-04-17 Object detection device, mobile equipment control system and object detection program Pending JP2016206801A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015085364A JP2016206801A (en) 2015-04-17 2015-04-17 Object detection device, mobile equipment control system and object detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015085364A JP2016206801A (en) 2015-04-17 2015-04-17 Object detection device, mobile equipment control system and object detection program

Publications (1)

Publication Number Publication Date
JP2016206801A true JP2016206801A (en) 2016-12-08

Family

ID=57489792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015085364A Pending JP2016206801A (en) 2015-04-17 2015-04-17 Object detection device, mobile equipment control system and object detection program

Country Status (1)

Country Link
JP (1) JP2016206801A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3312303A1 (en) 2016-10-21 2018-04-25 Tungaloy Corporation Coated cutting tool
CN108596899A (en) * 2018-04-27 2018-09-28 海信集团有限公司 Road flatness detection method, device and equipment
JP2021039692A (en) * 2019-09-05 2021-03-11 京セラ株式会社 Object detection device, object detection system, moving object, and object detection method
WO2021054341A1 (en) * 2019-09-19 2021-03-25 京セラ株式会社 Object detecting device, object detecting system, moving body, and method for detecting object
JP2021051476A (en) * 2019-09-24 2021-04-01 京セラ株式会社 Object detection device, object detection system, moving object and object detection method
WO2022004495A1 (en) 2020-07-02 2022-01-06 株式会社豊田自動織機 Obstacle detection device and obstacle detection method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3312303A1 (en) 2016-10-21 2018-04-25 Tungaloy Corporation Coated cutting tool
CN108596899A (en) * 2018-04-27 2018-09-28 海信集团有限公司 Road flatness detection method, device and equipment
JP7229129B2 (en) 2019-09-05 2023-02-27 京セラ株式会社 OBJECT DETECTION DEVICE, OBJECT DETECTION SYSTEM, MOBILE OBJECT AND OBJECT DETECTION METHOD
JP2021039692A (en) * 2019-09-05 2021-03-11 京セラ株式会社 Object detection device, object detection system, moving object, and object detection method
WO2021045092A1 (en) * 2019-09-05 2021-03-11 京セラ株式会社 Object detecting device, object detecting system, and method of detecting moving body and object
WO2021054341A1 (en) * 2019-09-19 2021-03-25 京セラ株式会社 Object detecting device, object detecting system, moving body, and method for detecting object
JP2021047741A (en) * 2019-09-19 2021-03-25 京セラ株式会社 Object detecting device, object detecting system, movable body, and object detecting method
JP7308112B2 (en) 2019-09-19 2023-07-13 京セラ株式会社 OBJECT DETECTION DEVICE, OBJECT DETECTION SYSTEM, MOBILE OBJECT AND OBJECT DETECTION METHOD
JP2021051476A (en) * 2019-09-24 2021-04-01 京セラ株式会社 Object detection device, object detection system, moving object and object detection method
WO2021060117A1 (en) * 2019-09-24 2021-04-01 京セラ株式会社 Object detection device, object detection system, moving object, and object detection method
JP7308115B2 (en) 2019-09-24 2023-07-13 京セラ株式会社 OBJECT DETECTION DEVICE, OBJECT DETECTION SYSTEM, MOBILE OBJECT AND OBJECT DETECTION METHOD
KR20230015429A (en) 2020-07-02 2023-01-31 가부시키가이샤 도요다 지도숏키 Obstacle detection device and obstacle detection method
WO2022004495A1 (en) 2020-07-02 2022-01-06 株式会社豊田自動織機 Obstacle detection device and obstacle detection method

Similar Documents

Publication Publication Date Title
US10984509B2 (en) Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product
JP6274557B2 (en) Moving surface information detection apparatus, moving body device control system using the same, and moving surface information detection program
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
US9330320B2 (en) Object detection apparatus, object detection method, object detection program and device control system for moveable apparatus
JP6344638B2 (en) Object detection apparatus, mobile device control system, and object detection program
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
US9443313B2 (en) Stereo camera apparatus
JP6733225B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
US10860867B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, and recording medium
US20160014406A1 (en) Object detection apparatus, object detection method, object detection program, and device control system mountable to moveable apparatus
JP6150164B2 (en) Information detection apparatus, mobile device control system, mobile object, and information detection program
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
US11064177B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and recording medium
JP2016206801A (en) Object detection device, mobile equipment control system and object detection program
JP6702340B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
JP6687039B2 (en) Object detection device, device control system, imaging device, object detection method, and program
JP2014006882A (en) Road surface slope recognition device, road surface slope recognition method, and road surface slope recognition program
JP6705497B2 (en) Image processing device, imaging device, mobile device control system, image processing method, program, and mobile device
JP6711395B2 (en) Image processing device, imaging device, mobile device control system, mobile device, image processing method, and program
JP2014115980A (en) Target-point arrival detection device, target-point arrival detection program, and mobile-body apparatus control system
JP2014006885A (en) Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
JP2015148887A (en) Image processing device, object recognition device, moving body instrument control system and object recognition program
JPWO2017154389A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP6733302B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program