JP6753134B2 - Image processing device, imaging device, mobile device control system, image processing method, and image processing program - Google Patents

Image processing device, imaging device, mobile device control system, image processing method, and image processing program Download PDF

Info

Publication number
JP6753134B2
JP6753134B2 JP2016093441A JP2016093441A JP6753134B2 JP 6753134 B2 JP6753134 B2 JP 6753134B2 JP 2016093441 A JP2016093441 A JP 2016093441A JP 2016093441 A JP2016093441 A JP 2016093441A JP 6753134 B2 JP6753134 B2 JP 6753134B2
Authority
JP
Japan
Prior art keywords
map
height
image
parallax
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016093441A
Other languages
Japanese (ja)
Other versions
JP2017021780A (en
Inventor
聖也 天野
聖也 天野
高橋 禎郎
禎郎 高橋
横田 聡一郎
聡一郎 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP16178187.7A priority Critical patent/EP3115933B1/en
Publication of JP2017021780A publication Critical patent/JP2017021780A/en
Application granted granted Critical
Publication of JP6753134B2 publication Critical patent/JP6753134B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an image processing device, an imaging device, a mobile device control system, an image processing method, and an image processing program.

今日において、ミリ波レーダ、レーザレーダ、又は、ステレオカメラによる測距等により、人又は自動車等のオブジェクトを高速に検出する技術が知られている。例えば、ステレオカメラによる測距で、人又は先行車両等のオブジェクトの三次元的な位置及び大きさを検出する場合、オブジェクトの視差を補間した後、路面の位置を検出し、その路面に接しているオブジェクトを検出する。このようなオブジェクトの検出出力は、自動ブレーキ制御又は自動ハンドル制御等に用いられる。 Today, there is known a technique for detecting an object such as a person or an automobile at high speed by measuring a distance with a millimeter wave radar, a laser radar, or a stereo camera. For example, when detecting the three-dimensional position and size of an object such as a person or a preceding vehicle by distance measurement with a stereo camera, the parallax of the object is interpolated, the position of the road surface is detected, and the object is in contact with the road surface. Detects existing objects. The detection output of such an object is used for automatic brake control, automatic steering wheel control, and the like.

特許文献1(特開2014−096005号公報)には、同一とみなされるオブジェクトを正確にグループ化して検出する物体検出装置が開示されている。この物体検出装置は、距離画像を用いて有効領域同士をグルーピングした後、グルーピングされた物体に対して濃淡画像の輪郭部分(エッジ)に着目して領域を分割する。 Patent Document 1 (Japanese Unexamined Patent Publication No. 2014-096005) discloses an object detection device that accurately groups and detects objects that are considered to be the same. This object detection device groups effective regions with each other using a distance image, and then divides the regions by focusing on the contour portion (edge) of the shaded image with respect to the grouped objects.

特許文献2(国際公開第2012/017650号)には、物体及び路面を精度よく検出可能な物体検出装置が開示されている。この物体検出装置は、路面領域を検出した後、路面以上の高さを持つデータを物体候補領域として検出し、形状特徴に基づいて物体及び路面の判別を行う。 Patent Document 2 (International Publication No. 2012/017650) discloses an object detection device capable of accurately detecting an object and a road surface. After detecting the road surface region, this object detection device detects data having a height higher than the road surface as an object candidate region, and discriminates between the object and the road surface based on the shape feature.

しかし、特許文献1に開示されている物体検出装置は、1つの領域にグルーピングされた物体が、濃淡画像において複雑なエッジを持っていた場合、正しく分離することが困難となる問題がある。また、特許文献2に開示されている物体検出装置は、路面以上のオブジェクトが存在し得る領域に対して、隣接するオブジェクトが結合して検出される問題がある。このようなことから、特許文献1の物体検出装置及び特許文献2の物体検出装置は、オブジェクトを精度良く検出困難な問題があった。 However, the object detection device disclosed in Patent Document 1 has a problem that it is difficult to correctly separate objects grouped in one region when they have complicated edges in a grayscale image. Further, the object detection device disclosed in Patent Document 2 has a problem that adjacent objects are combined and detected in a region where an object above the road surface can exist. For this reason, the object detection device of Patent Document 1 and the object detection device of Patent Document 2 have a problem that it is difficult to detect an object with high accuracy.

本発明は、上述の課題に鑑みてなされたものであり、オブジェクトを精度良く検出可能な画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラムの提供を目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing device, an imaging device, a mobile device control system, an image processing method, and an image processing program capable of accurately detecting an object. ..

上述した課題を解決し、目的を達成するために、本発明は、画素毎に距離情報を備えた距離画像から、オブジェクトの高さの基準とする基準オブジェクトを検出する基準検出部と、基準オブジェクトからの高さ範囲を、それぞれ異なる高さ範囲に設定した複数のマップのうち、距離画像の各画素における基準オブジェクトからの高さに対応する高さ範囲のマップに対して、各画素の距離情報を投票するマップ生成部と、各マップから、距離情報の集合領域を検出する集合検出部と、各マップにおける集合領域の分布に基づいて、集合領域のオブジェクトの種類を分類する分類部と、を備え、マップ生成部は、距離画像上のオブジェクトとの間の実距離を横軸とし、距離画像の距離情報を縦軸として生成した2次元ヒストグラムを、マップとして生成するIn order to solve the above-mentioned problems and achieve the object, the present invention has a reference detection unit that detects a reference object as a reference for the height of an object from a distance image provided with distance information for each pixel, and a reference object. Distance information of each pixel with respect to the map of the height range corresponding to the height from the reference object in each pixel of the distance image among a plurality of maps in which the height range from is set to a different height range. A map generation unit that votes for, a set detection unit that detects the set area of distance information from each map, and a classification part that classifies the types of objects in the set area based on the distribution of the set area in each map. The map generation unit generates a two-dimensional histogram generated with the actual distance to the object on the distance image as the horizontal axis and the distance information of the distance image as the vertical axis as a map .

本発明によれば、オブジェクトを精度良く検出できるという効果を奏する。 According to the present invention, there is an effect that an object can be detected with high accuracy.

図1は、実施の形態の移動体制御システムの概略構成を示す模式図である。FIG. 1 is a schematic diagram showing a schematic configuration of a mobile control system according to an embodiment. 図2は、撮像ユニット及び解析ユニットの概略構成を示すブロック図である。FIG. 2 is a block diagram showing a schematic configuration of an imaging unit and an analysis unit. 図3は、XZ平面上における被写体と各撮像部の撮像レンズとの位置関係を示す図である。FIG. 3 is a diagram showing the positional relationship between the subject and the imaging lens of each imaging unit on the XZ plane. 図4は、実施の形態の移動体制御システムの各種機能の機能ブロック図である。FIG. 4 is a functional block diagram of various functions of the mobile control system of the embodiment. 図5は、撮像ユニットで撮像された撮像画像を示す図である。FIG. 5 is a diagram showing an captured image captured by the imaging unit. 図6は、図5の撮像画像に対応するVマップを示す図である。FIG. 6 is a diagram showing a V map corresponding to the captured image of FIG. 図7は、撮像画像の一例を示す図である。FIG. 7 is a diagram showing an example of a captured image. 図8は、図7の撮像画像に対応する頻度のUマップを示す図である。FIG. 8 is a diagram showing a U-map of the frequency corresponding to the captured image of FIG. 7. 図9は、図7の撮像画像に対応する高さのUマップを示す図である。FIG. 9 is a diagram showing a U map having a height corresponding to the captured image of FIG. 7. 図10は、図7の撮像画像に対応するリアルUマップを示す図である。FIG. 10 is a diagram showing a real U map corresponding to the captured image of FIG. 7. 図11は、撮像画像の一例を示す図である。FIG. 11 is a diagram showing an example of a captured image. 図12は、図11の撮像画像に対応するリアルUマップを示す図である。FIG. 12 is a diagram showing a real U map corresponding to the captured image of FIG. 図13は、図11の撮像画像に対応する、路面からの高さが60cm〜200cmのオブジェクトのレイヤのレイヤUマップを示す図である。FIG. 13 is a diagram showing a layer U map of a layer of an object having a height from the road surface of 60 cm to 200 cm, which corresponds to the captured image of FIG. 図14は、図11の撮像画像に対応する、路面からの高さが150cm〜200cmのオブジェクトのレイヤのレイヤUマップを示す図である。FIG. 14 is a diagram showing a layer U map of a layer of an object having a height from the road surface of 150 cm to 200 cm, which corresponds to the captured image of FIG. 図15は、レイヤUマップの生成動作を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining the layer U map generation operation. 図16は、撮像画像の一例を示す図である。FIG. 16 is a diagram showing an example of a captured image. 図17は、図16の撮像画像に対応するリアルUマップを示す図である。FIG. 17 is a diagram showing a real U map corresponding to the captured image of FIG. 図18は、図16の撮像画像に対応する、路面からの高さが60cm〜200cmのオブジェクトのレイヤのレイヤUマップを示す図である。FIG. 18 is a diagram showing a layer U map of a layer of an object having a height from the road surface of 60 cm to 200 cm, which corresponds to the captured image of FIG. 図19は、図16の撮像画像に対応する、路面からの高さが150cm〜200cmのオブジェクトのレイヤのレイヤUマップを示す図である。FIG. 19 is a diagram showing a layer U map of a layer of an object having a height from the road surface of 150 cm to 200 cm, which corresponds to the captured image of FIG. 図20は、図16の撮像画像に対応する、路面からの高さが200cm以上のオブジェクトのレイヤのレイヤUマップを示す図である。FIG. 20 is a diagram showing a layer U map of a layer of an object having a height of 200 cm or more from the road surface, which corresponds to the captured image of FIG. 図21は、孤立領域検出処理の流れを示すフローチャートである。FIG. 21 is a flowchart showing the flow of the isolated region detection process. 図22は、ラベリング方法を説明するための模式図である。FIG. 22 is a schematic diagram for explaining the labeling method. 図23は、ラベリング方法を説明するための他の模式図である。FIG. 23 is another schematic diagram for explaining the labeling method. 図24は、ラベリング方法を説明するためのさらに他の模式図である。FIG. 24 is still another schematic diagram for explaining the labeling method. 図25は、遠方の路面が実際の高さよりも低く検出され、路面と車両が一つのオブジェクトとして検出されたレイヤUマップを示す図である。FIG. 25 is a diagram showing a layer U map in which a distant road surface is detected lower than the actual height and the road surface and the vehicle are detected as one object. 図26は、図25に対応する高さのリアルUマップを示す図である。FIG. 26 is a diagram showing a real U map having a height corresponding to FIG. 25. 図27は、周辺領域除去処理の流れを示すフローチャートである。FIG. 27 is a flowchart showing the flow of the peripheral area removal process. 図28は、周辺領域除去処理で除去される領域を説明するための図である。FIG. 28 is a diagram for explaining a region removed by the peripheral region removal process. 図29は、横方向分離処理の流れを示すフローチャートである。FIG. 29 is a flowchart showing the flow of the lateral separation process. 図30は、横方向の評価値の演算処理を説明するための図である。FIG. 30 is a diagram for explaining the calculation process of the evaluation value in the horizontal direction. 図31は、評価値の二値化処理を説明するための図である。FIG. 31 is a diagram for explaining the binarization process of the evaluation value. 図32は、平滑化処理後のレイヤUマップを示す図である。FIG. 32 is a diagram showing a layer U map after the smoothing process. 図33は、縦方向分離処理の流れを示すフローチャートである。FIG. 33 is a flowchart showing the flow of the vertical separation process. 図34は、各ラインの評価値の算出動作を説明するための図である。FIG. 34 is a diagram for explaining the calculation operation of the evaluation value of each line. 図35は、評価値が最大のラインからオブジェクトの実幅を検出する動作を説明するための図である。FIG. 35 is a diagram for explaining an operation of detecting the actual width of the object from the line having the maximum evaluation value. 図36は、オブジェクトの分離境界の演算動作を説明するための図である。FIG. 36 is a diagram for explaining the calculation operation of the separation boundary of the object. 図37は、リアルUマップ上におけるオブジェクトの縦方向の分離位置を説明するための図である。FIG. 37 is a diagram for explaining the vertical separation position of the object on the real U map. 図38は、孤立領域の検出処理及びオブジェクトタイプの分類処理の流れを示すフローチャートである。FIG. 38 is a flowchart showing the flow of the isolated region detection process and the object type classification process. 図39は、撮像画像の一例を示す図である。FIG. 39 is a diagram showing an example of a captured image. 図40は、図39の撮像画像に対応する、路面からの高さが60cm〜200cmのオブジェクトのレイヤのレイヤUマップを示す図である。FIG. 40 is a diagram showing a layer U map of a layer of an object having a height from the road surface of 60 cm to 200 cm, which corresponds to the captured image of FIG. 39. 図41は、図39の撮像画像に対応する、路面からの高さが150cm〜200cmのオブジェクトのレイヤのレイヤUマップを示す図である。FIG. 41 is a diagram showing a layer U map of a layer of an object having a height from the road surface of 150 cm to 200 cm, which corresponds to the captured image of FIG. 39. 図42は、図39の撮像画像に対応する、路面からの高さが200cm以上のオブジェクトのレイヤのレイヤUマップを示す図である。FIG. 42 is a diagram showing a layer U map of a layer of an object having a height of 200 cm or more from the road surface, which corresponds to the captured image of FIG. 39. 図43は、図40〜図42の各レイヤを重ね合わせた状態のレイヤUマップを示す図である。FIG. 43 is a diagram showing a layer U map in a state in which the layers of FIGS. 40 to 42 are superimposed. 図44は、頻度のリアルUマップを示す図である。FIG. 44 is a diagram showing a real U map of frequency. 図45は、オブジェクトライン群の外接矩形を、視差画像におけるオブジェクト領域として決定する動作を説明するための図である。FIG. 45 is a diagram for explaining an operation of determining the circumscribed rectangle of the object line group as an object area in the parallax image. 図46は、視差画像におけるオブジェクト領域(対応領域)の検出処理の流れを示すフローチャートである。FIG. 46 is a flowchart showing the flow of the detection process of the object area (corresponding area) in the parallax image.

以下、添付図面を参照して、実施の形態の移動体制御システムを詳細に説明する。図1は、実施の形態の移動体制御システムの概略構成を示す模式図である。この図1に示すように、移動体制御システムは、移動体の一例である自動車等の車両1に設けられる。移動体制御システムは、撮像ユニット2、解析ユニット3、制御ユニット4及び表示部5を有している。 Hereinafter, the mobile control system of the embodiment will be described in detail with reference to the accompanying drawings. FIG. 1 is a schematic diagram showing a schematic configuration of a mobile control system according to an embodiment. As shown in FIG. 1, the mobile body control system is provided in a vehicle 1 such as an automobile, which is an example of a mobile body. The mobile control system includes an imaging unit 2, an analysis unit 3, a control unit 4, and a display unit 5.

撮像ユニット2は、車両1のフロントガラス6のルームミラー付近に設けられ、車両1の例えば進行方向等の画像を撮像する。撮像ユニット2の撮像動作で得られる画像データを含む各種データは、解析ユニット3に供給される。解析ユニット3は、撮像ユニット2から供給される各種データに基づいて、車両1が走行中の路面、車両1の前方車両、歩行者、障害物等の認識対象物を解析する。制御ユニット4は、解析ユニット3の解析結果に基づいて、表示部5を介して、車両1の運転者へ警告等を行う。また、制御ユニット4は、解析結果に基づいて、各種車載機器の制御、車両1のハンドル制御又はブレーキ制御等の走行支援を行う。 The image pickup unit 2 is provided near the rearview mirror of the windshield 6 of the vehicle 1 and captures an image of the vehicle 1, for example, the traveling direction. Various data including the image data obtained by the imaging operation of the imaging unit 2 are supplied to the analysis unit 3. The analysis unit 3 analyzes the recognition target such as the road surface on which the vehicle 1 is traveling, the vehicle in front of the vehicle 1, pedestrians, obstacles, etc., based on various data supplied from the imaging unit 2. Based on the analysis result of the analysis unit 3, the control unit 4 gives a warning to the driver of the vehicle 1 via the display unit 5. Further, the control unit 4 performs running support such as control of various in-vehicle devices, steering wheel control of the vehicle 1, or brake control based on the analysis result.

図2は、撮像ユニット2及び解析ユニット3の概略的なブロック図である。この図2に示すように、撮像ユニット2は、例えば2つの撮像部10A、10Bを備えたステレオカメラ構成となっている。2つの撮像部10A、10Bは、それぞれ同じ構成を有している。具体的には、撮像部10A、10Bは、撮像レンズ11A、11Bと、受光素子が2次元配置された画像センサ12A、12Bと、各画像センサ12A、12Bを撮像駆動するコントローラ13A、13Bを有している。 FIG. 2 is a schematic block diagram of the imaging unit 2 and the analysis unit 3. As shown in FIG. 2, the imaging unit 2 has, for example, a stereo camera configuration including two imaging units 10A and 10B. The two imaging units 10A and 10B each have the same configuration. Specifically, the image pickup units 10A and 10B include image pickup lenses 11A and 11B, image sensors 12A and 12B in which light receiving elements are two-dimensionally arranged, and controllers 13A and 13B for image pickup driving of the image sensors 12A and 12B. doing.

解析ユニット3は、FPGA(Field-Programmable Gate Array)14、RAM(Random Access Memory)15及びROM(Read Only Memory)16を有している。また、解析ユニット3は、CPU(Central Processing Unit)17、シリアルインタフェース(シリアルIF)18、及び、データIF19を有している。FPGA14〜データIF19は、解析ユニット3のデータバスライン21を介して相互に接続されている。また、撮像ユニット2及び解析ユニット3は、データバスライン21及びシリアルバスライン20を介して相互に接続されている。 The analysis unit 3 has an FPGA (Field-Programmable Gate Array) 14, a RAM (Random Access Memory) 15, and a ROM (Read Only Memory) 16. Further, the analysis unit 3 has a CPU (Central Processing Unit) 17, a serial interface (serial IF) 18, and a data IF 19. The FPGA 14 to the data IF 19 are connected to each other via the data bus line 21 of the analysis unit 3. Further, the imaging unit 2 and the analysis unit 3 are connected to each other via the data bus line 21 and the serial bus line 20.

RAM15には、撮像ユニット2から供給される輝度画像データに基づいて生成された視差画像データ等が記憶される。ROM16には、オペレーションシステム及びオブジェクト検出プログラム等の各種プログラムが記憶されている。 The RAM 15 stores parallax image data and the like generated based on the luminance image data supplied from the imaging unit 2. Various programs such as an operation system and an object detection program are stored in the ROM 16.

また、FPGA14は、各撮像部10A、10Bでそれぞれ撮像された撮像画像のうち、一方を基準画像とすると共に他方を比較画像とする。そして、FPGA14は、撮像領域内の同一地点に対応する基準画像上の対応画像部分と比較画像上の対応画像部分との位置ズレ量を、対応画像部分の視差値(視差画像データ)として算出する。 Further, the FPGA 14 uses one of the captured images captured by the imaging units 10A and 10B as a reference image and the other as a comparative image. Then, the FPGA 14 calculates the amount of positional deviation between the corresponding image portion on the reference image and the corresponding image portion on the comparison image corresponding to the same point in the imaging region as a parallax value (parallax image data) of the corresponding image portion. ..

図3に、XZ平面上における被写体30と各撮像部10A、10Bの撮像レンズ11A、11Bとの位置関係を示す。この図3において、各撮像レンズ11A、11Bの間の距離b及び各撮像レンズ11A、11Bの焦点距離fは、それぞれ固定値である。また、被写体30の注視点Pに対する撮像レンズ11AのX座標のズレ量をΔ1とする。また、被写体30の注視点Pに対する撮像レンズ11BのX座標のズレ量をΔ2とする。この場合において、FPGA14は、被写体30の注視点Pに対する各撮像レンズ11A、11BのX座標の差である視差値Dを、以下の数1式で算出する。 FIG. 3 shows the positional relationship between the subject 30 and the imaging lenses 11A and 11B of the imaging units 10A and 10B on the XZ plane. In FIG. 3, the distance b between the imaging lenses 11A and 11B and the focal length f of the imaging lenses 11A and 11B are fixed values, respectively. Further, the amount of deviation of the X coordinate of the image pickup lens 11A with respect to the gazing point P of the subject 30 is set to Δ1. Further, the amount of deviation of the X coordinate of the image pickup lens 11B with respect to the gazing point P of the subject 30 is set to Δ2. In this case, the FPGA 14 calculates the parallax value D, which is the difference between the X coordinates of the imaging lenses 11A and 11B with respect to the gazing point P of the subject 30, by the following equation (1).

視差値D=|Δ1−Δ2|・・・(数1式) Parallax value D = | Δ1-Δ2 | ... (Equation 1 formula)

解析ユニット3のFPGA14は、撮像ユニット2から供給される輝度画像データに対して、例えばガンマ補正処理及び歪み補正処理(左右の撮像画像の平行化)等のリアルタイム性が要求される処理を施す。また、FPGA14は、このようなリアルタイム性が要求される処理を施した輝度画像データを用いて上述の数1式の演算を行うことで、視差画像データ(視差値D)を生成し、RAM15に書き込む。 The FPGA 14 of the analysis unit 3 performs processing that requires real-time performance, such as gamma correction processing and distortion correction processing (parallelization of left and right captured images), on the luminance image data supplied from the imaging unit 2. Further, the FPGA 14 generates parallax image data (parallax value D) by performing the above-mentioned calculation of the equation 1 using the luminance image data that has been subjected to such processing that requires real-time performance, and causes the RAM 15 to generate the parallax image data. Write.

CPU17は、ROM16に記憶されているオペレーションシステムに基づいて動作し、各撮像部10A、10Bの全体的な撮像制御を行う。また、CPU17は、ROM16からオブジェクト検出プログラムをロードし、RAM15に書き込まれた視差画像データを用いて各種処理を実行する。具体的には、CPU17は、オブジェクト検出プログラムに基づいて、車両1に設けられた各センサから、データIF19を介して取得した、車速、加速度、操舵角、ヨーレート等のCAN(Controller Area Network)情報を参照し、路面、ガードレール、車両、人間等の認識対象物の認識処理、視差計算、認識対象物との間の距離の計算等を行う。 The CPU 17 operates based on the operation system stored in the ROM 16 and controls the overall imaging of the imaging units 10A and 10B. Further, the CPU 17 loads the object detection program from the ROM 16 and executes various processes using the parallax image data written in the RAM 15. Specifically, the CPU 17 obtains CAN (Controller Area Network) information such as vehicle speed, acceleration, steering angle, and yaw rate from each sensor provided in the vehicle 1 based on the object detection program via the data IF19. Refers to, and performs recognition processing of recognition objects such as road surfaces, guard rails, vehicles, and humans, parallax calculation, calculation of the distance to recognition objects, and the like.

ここで、視差値Dは、図3に示す各撮像レンズ11A、11Bから被写体30までの距離を「Z」として、以下の数2式でも算出できる。 Here, the parallax value D can also be calculated by the following equation 2 with the distance from each of the imaging lenses 11A and 11B shown in FIG. 3 to the subject 30 as “Z”.

視差値D=(b×f)/Z・・・(数2式) Parallax value D = (b × f) / Z ... (Equation 2 formula)

この数2式からわかるように、各撮像レンズ11A、11Bから被写体30までの距離Zは、算出した視差値Dを用いて、以下の数3式で算出できる。 As can be seen from the equation (2), the distance Z from each of the imaging lenses 11A and 11B to the subject 30 can be calculated by the following equation (3) using the calculated parallax value D.

Z=(b×f)/D・・・(数3式) Z = (b × f) / D ... (Equation 3 formula)

CPU17は、撮像ユニット2から供給される上述の視差値Dを用いて、認証対象物との間の距離Zを算出する。 The CPU 17 calculates the distance Z from the authentication target by using the parallax value D supplied from the image pickup unit 2.

CPU17は、処理結果を、シリアルIF18又はデータIF19を介して、図1に示す制御ユニット4に供給する。制御ユニット4は、処理結果となるデータに基づいて、例えばブレーキ制御、車速制御、ハンドル制御等を行う。また、制御ユニット4は、処理結果となるデータに基づいて、表示部5に警告表示等を行う。これにより、車両1の運転者の運転支援を行うことができる。 The CPU 17 supplies the processing result to the control unit 4 shown in FIG. 1 via the serial IF18 or the data IF19. The control unit 4 performs, for example, brake control, vehicle speed control, handle control, and the like based on the data resulting from the processing. Further, the control unit 4 displays a warning or the like on the display unit 5 based on the data as the processing result. As a result, the driving support of the driver of the vehicle 1 can be provided.

次に、水平方向(幅方向)、高さ方向、奥行き方向の三次元情報(空間情報)を用いて認識対象物を検出する場合、各次元の情報(幅、高さ、奥行きの各情報)を効率的に用いることが重要となる。従来は、座標の横軸(X軸)を実距離とし、座標の縦軸(Y軸)を視差値とする2次元マップ(Real U−Disparity map)を用いて認識対象物の検出を行っている。以下、「Real U−Disparity map」を、単に「リアルUマップ」という。 Next, when detecting an object to be recognized using three-dimensional information (spatial information) in the horizontal direction (width direction), height direction, and depth direction, information in each dimension (each information in width, height, and depth) It is important to use. Conventionally, a recognition target is detected using a two-dimensional map (Real U-Disparity map) in which the horizontal axis (X axis) of the coordinates is the actual distance and the vertical axis (Y axis) of the coordinates is the parallax value. There is. Hereinafter, the "Real U-Disparity map" is simply referred to as a "real U map".

しかし、従来手法では、リアルUマップにおいて、カメラ座標の縦軸(Y軸)と平行する地面からの認識対象物の高さ情報は欠如している。このため、複数の認識対象物が互いに隣接して位置する場合、複数の認識対象物が一つの認識対象物として誤検出される不都合が多々生ずる。このような誤検出の発生/未発生は、認識対象物の動き方(写り方)に左右される。従って、従来手法では、認識対象物を精度良く検出することは困難となっている。 However, in the conventional method, the height information of the recognition object from the ground parallel to the vertical axis (Y axis) of the camera coordinates is lacking in the real U map. Therefore, when a plurality of recognition objects are located adjacent to each other, there are many inconveniences that the plurality of recognition objects are erroneously detected as one recognition object. The occurrence / non-occurrence of such false positives depends on the movement (image) of the recognition object. Therefore, it is difficult to accurately detect the recognition target by the conventional method.

これに対して、実施の形態の移動体制御システムは、認識対象物の路面からの高さに基づいた層構造(高さ範囲)で複数のリアルUマップを作成する。すなわち、視差画像内の視差点をリアルUマップ上に投票する際に、予め設定した高さ範囲のリアルUマップに投票することで、各高さ範囲のリアルUマップを作成する。以下、各高さのUマップを「レイヤUマップ」という。そして、実施の形態の移動体制御システムは、各高さ範囲のレイヤUマップで、それぞれ2次元平面のグルーピング処理を行い、各グルーピング結果の統合又は分離を行う。 On the other hand, the mobile control system of the embodiment creates a plurality of real U maps with a layered structure (height range) based on the height of the recognition object from the road surface. That is, when voting the parallax points in the parallax image on the real U map, the real U map of each height range is created by voting for the real U map of the preset height range. Hereinafter, the U map of each height is referred to as a "layer U map". Then, the mobile control system of the embodiment performs grouping processing of two-dimensional planes on each layer U map of each height range, and integrates or separates the grouping results.

すなわち、ステレオ画像から得られた視差画像上の視差点を、路面からの実高さに基づいて、予め用意した高さのレイヤUマップに投票し、各レイヤUマップ内の2次元平面でグルーピング処理を行い、各グルーピング結果の統合又は分離を行う。これにより、高速かつ高さ情報を効率的に用いて、認識対象物を高精度に検出できる。実施の形態の移動体制御システムは、特に、人間を高精度に検出可能となっている。 That is, the parallax points on the parallax image obtained from the stereo image are voted on the layer U map of the height prepared in advance based on the actual height from the road surface, and grouped by the two-dimensional plane in each layer U map. Process and integrate or separate each grouping result. As a result, the recognition target can be detected with high accuracy by efficiently using the height information at high speed. The mobile control system of the embodiment is capable of detecting a human being with high accuracy.

以下、このような実施の形態の移動体制御システムにおける認識対象物の認識動作を具体的に説明する。図4は、実施の形態の移動体制御システムの各種機能の機能ブロック図である。この図4において、平行化画像生成部41及び視差画像生成部42は、FPGA14のプログラム可能な論理ブロックにより、ハードウェアで実現される。なお、この例では、平行化画像生成部41及び視差画像生成部42は、ハードウェアで実現することとしたが、以下に説明するオブジェクト検出プログラム等により、ソフトウェアで実現してもよい。 Hereinafter, the recognition operation of the recognition target object in the mobile control system of such an embodiment will be specifically described. FIG. 4 is a functional block diagram of various functions of the mobile control system of the embodiment. In FIG. 4, the parallelized image generator 41 and the parallax image generator 42 are implemented in hardware by the programmable logic blocks of the FPGA 14. In this example, the parallelized image generation unit 41 and the parallax image generation unit 42 are realized by hardware, but may be realized by software by an object detection program or the like described below.

また、図4において、Vマップ生成部45〜3次元位置決定部54は、CPU17がROM16に記憶されているオブジェクト検出プログラムを実行することで、ソフトウェアで実現される。すなわち、CPU17は、オブジェクト検出プログラムを実行することで、Vマップ生成部45、路面形状検出部46、リスト生成部47、Uマップ生成部48、レイヤUマップ生成部49、孤立領域検出部50、分類部51、対応領域検出部52、領域抽出部53及び3次元位置決定部54として機能する。 Further, in FIG. 4, the V-map generation unit 45 to the three-dimensional position determination unit 54 is realized by software when the CPU 17 executes an object detection program stored in the ROM 16. That is, by executing the object detection program, the CPU 17 executes the V map generation unit 45, the road surface shape detection unit 46, the list generation unit 47, the U map generation unit 48, the layer U map generation unit 49, and the isolated area detection unit 50. It functions as a classification unit 51, a corresponding area detection unit 52, an area extraction unit 53, and a three-dimensional position determination unit 54.

なお、この例では、Vマップ生成部45〜3次元位置決定部54は、CPU17がソフトウェアで実現することとしたが、一部又は全部を、IC(Integrated Circuit)等のハードウェアで実現してもよい。また、オブジェクト検出プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。DVDは、「Digital Versatile Disk」の略記である。また、オブジェクト検出プログラムは、インターネット等のネットワーク経由でインストールする形態で提供してもよい。また、オブジェクト検出プログラムは、機器内のROM等に予め組み込んで提供してもよい。 In this example, the V-map generation unit 45 to the three-dimensional position determination unit 54 are realized by the CPU 17 by software, but a part or all of them are realized by hardware such as an IC (Integrated Circuit). May be good. In addition, the object detection program is a file in an installable format or an executable format that can be read by a computer device such as a CD-ROM, flexible disk (FD), CD-R, DVD, Blu-ray disk (registered trademark), or semiconductor memory. It may be recorded and provided on a possible recording medium. DVD is an abbreviation for "Digital Versatile Disk". Further, the object detection program may be provided in the form of being installed via a network such as the Internet. Further, the object detection program may be provided by incorporating it into a ROM or the like in the device in advance.

このような移動体制御システムにおいて、ステレオカメラを構成する撮像ユニット2の各撮像部10A、10Bは、輝度画像データを生成する。具体的には、各撮像部10A、10Bがカラー仕様の場合、各撮像部10A、10Bは、以下の数4式の演算を行うことで、RGB(赤緑青)の各信号から輝度(Y)信号を生成するカラー輝度変換処理を行う。各撮像部10A、10Bは、カラー輝度変換処理により生成した輝度画像データを、FPGA14の平行化画像生成部41に供給する。 In such a mobile control system, the imaging units 10A and 10B of the imaging unit 2 constituting the stereo camera generate luminance image data. Specifically, when each imaging unit 10A and 10B has a color specification, each imaging unit 10A and 10B performs the following calculation of the following equation 4 to obtain brightness (Y) from each RGB (red, green, and blue) signal. Performs color luminance conversion processing to generate a signal. Each of the imaging units 10A and 10B supplies the luminance image data generated by the color luminance conversion process to the parallelized image generation unit 41 of the FPGA 14.

Y=0.3R+0.59G+0.11B・・・(数4式) Y = 0.3R + 0.59G + 0.11B ... (Equation 4 formula)

平行化画像生成部41は、撮像ユニット2から供給された輝度画像データに対して、平行化処理を施す。この平行化処理は、各撮像部10A、10Bから出力される輝度画像データを、2つのピンホールカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像に変換する処理である。具体的には、各画素の歪み量を、Δx=f(x、y)、Δy=g(x、y)という多項式を用いて計算した計算結果を用いて、各撮像部10A、10Bから出力される輝度画像データの各画素を変換する。多項式は、例えば、x(画像の横方向位置)、y(画像の縦方向位置)に関する6次多項式に基づく。これにより、撮像部10A、10Bの光学系の歪みを補正した平行な輝度画像を得ることができる。 The parallelization image generation unit 41 performs parallelization processing on the luminance image data supplied from the imaging unit 2. This parallelization process is a process of converting the luminance image data output from the imaging units 10A and 10B into an ideal parallelized stereo image obtained when two pinhole cameras are mounted in parallel. Specifically, the amount of distortion of each pixel is output from each imaging unit 10A and 10B using the calculation result calculated using the polynomials Δx = f (x, y) and Δy = g (x, y). Each pixel of the luminance image data to be generated is converted. The polynomial is based on, for example, a sixth degree polynomial with respect to x (horizontal position of the image), y (vertical position of the image). As a result, it is possible to obtain a parallel luminance image in which the distortion of the optical system of the imaging units 10A and 10B is corrected.

次に、視差画像生成部42は、画素毎に距離情報を備えた距離画像の一例である、画素毎に視差値を備えた視差画像を生成する。すなわち、視差画像生成部42は、撮像部10Aの輝度画像データを基準画像データとし、撮像部10Bの輝度画像データを比較画像データとし、上述の数1式に示す演算を行うことで、基準画像データと比較画像データの視差を示す視差画像データを生成する。具体的には、視差画像生成部42は、基準画像データの所定の「行」について、一つの注目画素を中心とした複数画素(例えば16画素×1画素)からなるブロックを定義する。一方、比較画像データにおける同じ「行」において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向(X方向)へズラす。そして、視差画像生成部42は、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。 Next, the parallax image generation unit 42 generates a parallax image having a parallax value for each pixel, which is an example of a distance image having distance information for each pixel. That is, the parallax image generation unit 42 uses the brightness image data of the imaging unit 10A as the reference image data, the brightness image data of the imaging unit 10B as the comparison image data, and performs the calculation shown in the above equation 1 to perform the reference image. Data and comparison Image data that shows the difference between the image data and the data is generated. Specifically, the parallax image generation unit 42 defines a block composed of a plurality of pixels (for example, 16 pixels × 1 pixel) centered on one pixel of interest for a predetermined “row” of the reference image data. On the other hand, in the same "row" in the comparative image data, a block having the same size as the defined reference image data block is shifted one pixel at a time in the horizontal line direction (X direction). Then, the parallax image generation unit 42 obtains a correlation value indicating the correlation between the feature amount indicating the characteristics of the pixel value of the block defined in the reference image data and the feature amount indicating the characteristics of the pixel value of each block in the comparison image data. Calculate each.

また、視差画像生成部42は、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値Dとして算出する。このような視差値Dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得る。視差画像データは、画像座標であるx座標およびy座標と、視差値Dとを有する3次元のデータの組である。以下、画像という言葉を用いて説明するが、実際に画像として構成されている必要はなく、3次元のデータの組を表すものとして説明する。 Further, the parallax image generation unit 42 performs a matching process of selecting the block of the comparison image data that has the most correlation with the block of the reference image data among the blocks of the comparison image data based on the calculated correlation value. After that, the amount of positional deviation between the attention pixel of the reference image data block and the corresponding pixel of the comparison image data block selected by the matching process is calculated as the parallax value D. Parallax image data is obtained by performing such a process of calculating the parallax value D for the entire area of the reference image data or a specific area. The parallax image data is a set of three-dimensional data having x-coordinates and y-coordinates which are image coordinates and a parallax value D. Hereinafter, the term “image” will be used, but it does not have to be actually configured as an image, and will be described as representing a set of three-dimensional data.

マッチング処理に用いるブロックの特徴量としては、例えばブロック内の各画素の値(輝度値)を用いることができる。また、相関値としては、例えば基準画像データのブロック内の各画素の値(輝度値)と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値(輝度値)との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが、最も相関があるブロックとして検出される。 As the feature amount of the block used for the matching process, for example, the value (luminance value) of each pixel in the block can be used. Further, as the correlation value, for example, the difference between the value (luminance value) of each pixel in the block of the reference image data and the value (luminance value) of each pixel in the block of the comparative image data corresponding to each of these pixels. The sum of the absolute values of can be used. In this case, the block with the smallest sum is detected as the most correlated block.

このような視差画像生成部42のマッチング処理としては、例えばSSD(Sum of Squared Difference)、ZSSD(Zero-mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、又は、ZSAD(Zero-mean Sum of Absolute Difference)等の手法を用いることができる。なお、マッチング処理において、1画素未満のサブピクセルレベルの視差値が必要な場合は、推定値を用いる。推定値の推定手法としては、例えば等角直線方式又は二次曲線方式等を用いることができる。ただし、推定したサブピクセルレベルの視差値には誤差が発生する。このため、推定誤差を減少させるEEC(推定誤差補正)等の手法を用いてもよい。 Examples of the matching process of the parallax image generation unit 42 include SSD (Sum of Squared Difference), ZSD (Zero-mean Sum of Squared Difference), SAD (Sum of Absolute Difference), or ZSAD (Zero-mean Sum). A method such as of Absolute Difference) can be used. If a subpixel level parallax value of less than one pixel is required in the matching process, an estimated value is used. As a method for estimating the estimated value, for example, an isometric straight line method or a quadratic curve method can be used. However, an error occurs in the estimated subpixel level parallax value. Therefore, a method such as EEC (estimation error correction) that reduces the estimation error may be used.

なお、本実施形態においては、視差値と距離値が等価に扱えることから、距離画像の一例として視差画像を示しているが、これに限られない。例えば、ミリ波レーダやレーザレーダの距離情報と、ステレオカメラで生成される視差画像を融合させて距離画像を生成しても良い。 In the present embodiment, since the parallax value and the distance value can be treated equivalently, the parallax image is shown as an example of the distance image, but the present invention is not limited to this. For example, a distance image may be generated by fusing the distance information of a millimeter wave radar or a laser radar with a parallax image generated by a stereo camera.

次に、視差画像(x座標値、y座標値、視差値D)の組のうち、X軸を視差値D、Y軸をy座標値、Z軸を頻度とした2次元ヒストグラムを作成することを考える。以下、この2次元ヒストグラムを「V−Disparityマップ(Vマップ)」という。Vマップ生成部45は、例えば、図5に示すように画面中央に延びる平坦な路面60上を走行する車両61の左側に電柱62が存在する、撮像ユニット2の撮像画像の視差画像の各画素のうち、視差値D及びy座標値を有する画素に対して、一つカウントアップした度数(頻度)を付与する。そして、Vマップ生成部45は、X軸を視差値D、Y軸をy座標値、Z軸を頻度とした2次元ヒストグラム上に各画素を投票することで、図6に示すように、右下がりの直線として投票される路面60上に、車両61及び電柱62が投票されたVマップを作成する。このVマップ上における直線状の画素群を特定することで、路面に相当する画素群を特定できる。このようなVマップにおいては、路面より下の部分の視差値は検出されない。このため、図6に斜線で示す領域Aに相当する視差値はカウントされることはない。 Next, in the set of parallax images (x-coordinate value, y-coordinate value, parallax value D), a two-dimensional histogram is created in which the X-axis is the parallax value D, the Y-axis is the y-coordinate value, and the Z-axis is the frequency. think of. Hereinafter, this two-dimensional histogram is referred to as a "V-Disparity map (V map)". For example, as shown in FIG. 5, the V-map generation unit 45 has a utility pole 62 on the left side of the vehicle 61 traveling on a flat road surface 60 extending in the center of the screen, and each pixel of the parallax image of the image captured by the imaging unit 2. Among them, the pixel having the parallax value D and the y coordinate value is given a frequency (frequency) counted up by one. Then, the V-map generation unit 45 votes each pixel on a two-dimensional histogram with the X-axis as the differential value D, the Y-axis as the y-coordinate value, and the Z-axis as the frequency, so that the right side is shown in FIG. A V-map in which the vehicle 61 and the electric pole 62 are voted is created on the road surface 60 voted as a descending straight line. By specifying the linear pixel group on the V-map, the pixel group corresponding to the road surface can be specified. In such a V-map, the parallax value of the portion below the road surface is not detected. Therefore, the parallax value corresponding to the area A shown by the diagonal line in FIG. 6 is not counted.

もしノイズ等により路面より下の部分の視差値があれば、これらの視差値は以降のオブジェクト検出において利用しないようにすればよい。なお、オブジェクトの高さを検出するためには、路面を正確に検出することが必要となる。そのため、車両1が停止している状態において検出される路面に相当する仮想直線Kを用いて、仮想直線Kから所定距離内における画素のみをマッピングしたVマップ(制限Vマップ)を路面検出に利用してもよい。 If there are parallax values in the portion below the road surface due to noise or the like, these parallax values may not be used in the subsequent object detection. In order to detect the height of the object, it is necessary to accurately detect the road surface. Therefore, using a virtual straight line K corresponding to the road surface detected when the vehicle 1 is stopped, a V map (restricted V map) that maps only pixels within a predetermined distance from the virtual straight line K is used for road surface detection. You may.

次に、このように生成されたVマップを用いて路面形状を検出する路面形状検出部46の動作を説明する。路面形状検出部46は、基準検出部の一例である。路面形状検出部46は、各オブジェクトの高さの基準とする基準オブジェクトの一例である路面を検出する。路面形状検出部46は、Vマップ上で路面と推定される位置を直線近似する。路面が平坦な場合は、一本の直線で近似する。また、途中で勾配が変わる路面の場合、Vマップ上を複数の区間に分割して直線近似を行う。これにより、途中で勾配が変わる路面の場合でも、精度よく直線近似を行うことができる。 Next, the operation of the road surface shape detecting unit 46 that detects the road surface shape using the V map generated in this way will be described. The road surface shape detection unit 46 is an example of a reference detection unit. The road surface shape detecting unit 46 detects a road surface which is an example of a reference object which is a reference for the height of each object. The road surface shape detecting unit 46 linearly approximates the position estimated to be the road surface on the V map. If the road surface is flat, approximate it with a single straight line. Further, in the case of a road surface whose slope changes on the way, the V map is divided into a plurality of sections and linear approximation is performed. As a result, even in the case of a road surface whose slope changes on the way, linear approximation can be performed with high accuracy.

具体的に説明すると、路面形状検出部46は、まず、Vマップを用いて路面候補点を検出する。路面候補点の検出は、横軸を二つに分割し、それぞれの領域で候補点の検出方法を変える。具体的には、路面形状検出部46は、視差の大きい近距離の領域においては、第1の候補点検出方法で路面候補点の検出を行う。また、路面形状検出部46は、視差の小さい遠距離の領域においては、第2の候補点検出方法で路面候補点の検出を行う。 Specifically, the road surface shape detecting unit 46 first detects a road surface candidate point using a V map. For the detection of road surface candidate points, the horizontal axis is divided into two, and the detection method of the candidate points is changed in each area. Specifically, the road surface shape detection unit 46 detects road surface candidate points by the first candidate point detection method in a short-distance region with a large parallax. Further, the road surface shape detection unit 46 detects the road surface candidate point by the second candidate point detection method in a long-distance region where the parallax is small.

ここで、上記のように視差の大きい近距離の領域と視差の小さい遠距離の領域とで路面候補点の検出方法を変更する理由は、以下のとおりである。例えば図5に示す撮影画像のように、近距離では路面の面積が大きく、路面上の視差データがVマップに投票される頻度が大きいのに対し、遠距離では路面の面積が小さくなり、路面を表す座標の頻度が相対的に小さくなる。つまり、Vマップで路面として予測される点の頻度値は、遠距離では小さく、近距離では大きい。このため、同じ基準で路面候補点を検出すると、近距離では路面の候補点は検出できるが、遠距離の路面候補点は検出困難となり、遠距離の路面検出精度が低下する。 Here, the reason for changing the detection method of the road surface candidate point between the short-distance region with a large parallax and the long-distance region with a small parallax as described above is as follows. For example, as shown in the photographed image shown in FIG. 5, the area of the road surface is large at a short distance and the parallax data on the road surface is frequently voted on the V map, whereas the area of the road surface is small at a long distance and the road surface is small. The frequency of the coordinates representing is relatively small. That is, the frequency value of the points predicted as the road surface on the V map is small at a long distance and large at a short distance. Therefore, if the road surface candidate points are detected based on the same criteria, the road surface candidate points can be detected at a short distance, but the road surface candidate points at a long distance become difficult to detect, and the road surface detection accuracy at a long distance decreases.

このような欠点を解消するために、Vマップを視差の大きい領域と視差の小さい領域との二つの領域に分け、それぞれの領域で路面候補点の検出の方法及び基準を変更する。これにより、近距離及び遠距離の双方の路面検出精度を向上させることができる。 In order to eliminate such a defect, the V map is divided into two regions, a region having a large parallax and a region having a small parallax, and the method and criteria for detecting road surface candidate points are changed in each region. Thereby, it is possible to improve the road surface detection accuracy of both the short distance and the long distance.

次に、リスト生成部47の動作を説明する。リスト生成部47は、路面高さを算出してRAM15等の記憶部に記憶する(テーブル化する)。Vマップから路面を表す直線式が得られたため、視差dが決まれば、対応するy座標y0が決まる。この座標y0が、路面の高さとなる。リスト生成部47は、路面の高さを示す座標y0と、必要な範囲の視差とを関連付けた路面高さリストを生成する。また、視差がdでy座標がy’である場合、y’−y0が、視差dのときの路面からの高さを示す。リスト生成部47は、座標(d、y’)の路面からの高さHを、「H=(z×(y’−y0))/f」の演算式を用いて算出する。なお、この演算式における「z」は、視差dから計算される距離(z=BF/(d−offset))、「f」は撮像ユニット2の焦点距離を(y’−y0)の単位と同じ単位に変換した値である。ここで、BFは、撮像ユニット2の基線長Bと焦点距離fを乗じた値、offsetは無限遠のオブジェクトを撮影したときの視差である。 Next, the operation of the list generation unit 47 will be described. The list generation unit 47 calculates the road surface height and stores (tables) it in a storage unit such as the RAM 15. Since the linear equation representing the road surface is obtained from the V map, if the parallax d is determined, the corresponding y coordinate y0 is determined. The coordinate y0 is the height of the road surface. The list generation unit 47 generates a road surface height list in which the coordinates y0 indicating the height of the road surface and the parallax in the required range are associated with each other. When the parallax is d and the y coordinate is y', y'−y0 indicates the height from the road surface when the parallax is d. The list generation unit 47 calculates the height H of the coordinates (d, y') from the road surface using the calculation formula of "H = (z × (y'−y0)) / f". In this calculation formula, "z" is the distance calculated from the parallax d (z = BF / (d-offset)), and "f" is the focal length of the imaging unit 2 as the unit of (y'-y0). It is a value converted to the same unit. Here, BF is a value obtained by multiplying the baseline length B of the imaging unit 2 by the focal length f, and offset is the parallax when an object at infinity is photographed.

次に、U−Disparityマップ生成部(Uマップ生成部)48の動作を説明する。Uマップは、横軸を視差画像のx、縦軸を視差画像の視差d、Z軸を頻度とした2次元ヒストグラムである。路面からの高さが、例えば20cm〜3m等の所定の高さの範囲にある視差画像の点(x、y、d)を、(x、d)の値に基づいて投票する。Uマップ生成部48は、ある視差画像の点(x、y、d)を視差画像の所定の範囲の画素を投票してUマップを生成する。すなわち、視差画像の上部1/6の領域には空が写っており、殆どの場合、認識を必要とするオブジェクトが写っていることは無い。このため、Uマップ生成部48は、例えば視差画像の地面側5/6の領域(上部1/6の領域以外の領域)の画素を投票して頻度のUマップを生成する。 Next, the operation of the U-Disparity map generation unit (U map generation unit) 48 will be described. The U map is a two-dimensional histogram in which the horizontal axis is x of the parallax image, the vertical axis is the parallax d of the parallax image, and the Z axis is the frequency. Points (x, y, d) of the parallax image whose height from the road surface is in a predetermined height range such as 20 cm to 3 m are voted based on the value of (x, d). The U-map generation unit 48 generates a U-map by voting the points (x, y, d) of a certain parallax image for pixels in a predetermined range of the parallax image. That is, the sky is shown in the upper 1/6 area of the parallax image, and in most cases, the object requiring recognition is not shown. Therefore, the U map generation unit 48, for example, votes the pixels of the ground side 5/6 region (the region other than the upper 1/6 region) of the parallax image to generate the frequency U map.

具体的に説明すると、図7に示す輝度画像の場合、左右にガードレール81、82があり、車両77及び車両79がセンターラインを挟んで対面通行をしている。各走行車線には、それぞれ1台の車両77又は車両79が走行している。この場合、Uマップ生成部48は、図8に示す頻度のUマップを生成する。すなわち、Uマップ生成部48は、各ガードレール81、82を、左右から中央上部に伸びる直線として投票した頻度のUマップを生成する。また、各ガードレール81、82の間で、水平線分と、側面が見える状態で車両81、82が検出されている場合、Uマップ生成部48は、車両の側面を示す斜線が水平線分に連結した形状で、車両77、79を頻度のUマップ上に投票する。 More specifically, in the case of the luminance image shown in FIG. 7, there are guardrails 81 and 82 on the left and right, and the vehicle 77 and the vehicle 79 are facing each other across the center line. One vehicle 77 or 79 is traveling in each traveling lane. In this case, the U-map generation unit 48 generates the U-map with the frequency shown in FIG. That is, the U-map generation unit 48 generates a U-map with a frequency of voting for each guardrail 81, 82 as a straight line extending from the left and right to the upper center. Further, when the horizontal line component and the vehicle 81, 82 are detected between the guardrails 81 and 82 with the side surface visible, the U-map generator 48 connects the diagonal line indicating the side surface of the vehicle to the horizontal line component. By shape, vehicles 77, 79 are voted on the frequency U map.

また、Uマップ生成部48は、このような頻度のUマップと共に、高さのUマップを生成する。高さのUマップは、Uマップに投票される(x、d)の組のうち、路面からの高さが、最も高い値を設定したマップである。図9において、各車両77、79の高さは、左右のガードレール81、82よりも高くなる。これによりオブジェクトの高さ情報を、オブジェクト検出に利用可能とすることができる。 Further, the U map generation unit 48 generates a height U map together with the U map having such a frequency. The height U map is a map in which the height from the road surface has the highest value among the pairs (x, d) voted for in the U map. In FIG. 9, the heights of the vehicles 77 and 79 are higher than those of the left and right guardrails 81 and 82. As a result, the height information of the object can be used for object detection.

次に、レイヤUマップ生成部49の動作を説明する。レイヤUマップ生成部49は、マップ生成部の一例である。レイヤUマップ生成部49は、画像の画素が横軸となっていた上述のUマップにおいて、実際の距離(実距離)を横軸としたリアルUマップを生成する。そして、レイヤUマップ生成部49は、リアルUマップに投票される点を、路面からの高さに応じて、予め設定した該当する高さの(レイヤの)リアルUマップに投票し、レイヤ毎のリアルUマップであるレイヤUマップを生成する。レイヤUマップは、マップの一例である。 Next, the operation of the layer U map generation unit 49 will be described. The layer U map generation unit 49 is an example of a map generation unit. The layer U map generation unit 49 generates a real U map with the actual distance (actual distance) as the horizontal axis in the above-mentioned U map in which the pixels of the image are on the horizontal axis. Then, the layer U map generation unit 49 votes the points to be voted for the real U map to the real U map (of the layer) of the corresponding height set in advance according to the height from the road surface, and for each layer. Generates a layer U map that is a real U map of. The layer U map is an example of a map.

まず、図10にリアルUマップの一例を示す。図10に示すように、リアルUマップの横軸は、実距離となっている。また、リアルUマップの縦軸は、距離に応じた間引き率を用いて間引き処理した間引き視差となっている。具体的には、例えば50m以上の遠距離の場合、レイヤUマップ生成部49は、間引き処理しない視差を用いる。また、例えば20m〜50m等の中距離の場合、レイヤUマップ生成部49は、1/2間引き処理した間引き視差を用いる。また、例えば10m〜20m等の近距離の場合、レイヤUマップ生成部49は、1/3間引き処理した間引き視差を用いる。また、例えば0m〜10m等の最近距離の場合、レイヤUマップ生成部49は、1/8間引き処理した間引き視差を用いる。 First, FIG. 10 shows an example of a real U map. As shown in FIG. 10, the horizontal axis of the real U map is the actual distance. Further, the vertical axis of the real U map is the thinned parallax processed by thinning using the thinning rate according to the distance. Specifically, for example, in the case of a long distance of 50 m or more, the layer U map generation unit 49 uses parallax that is not thinned out. Further, in the case of a medium distance such as 20 m to 50 m, the layer U map generation unit 49 uses the thinned parallax processed by 1/2 thinning. Further, in the case of a short distance such as 10 m to 20 m, the layer U map generation unit 49 uses the thinned parallax processed by 1/3 thinning. Further, in the case of a recent distance such as 0 m to 10 m, the layer U map generation unit 49 uses the thinned parallax processed by 1/8 thinning.

遠方では、認識すべきオブジェクトが小さく、視差情報が少なく、また、距離の分解能も小さいため、間引き処理は行わない。これに対して、近距離の場合は、オブジェクトが大きく写るため、視差情報が多く距離の分解能も大きい。このため、大きな間引き処理を行うことが可能となる。図10は、頻度のリアルUマップの一例である。この図10からわかるように、リアルUマップの場合、ガードレール81、82は、縦の直線状に表され、各車両77、79の形状も、実際の車両に近い形状となっている。 At a distance, the object to be recognized is small, the parallax information is small, and the resolution of the distance is also small, so the thinning process is not performed. On the other hand, in the case of a short distance, since the object appears large, the parallax information is large and the resolution of the distance is also large. Therefore, it is possible to perform a large thinning process. FIG. 10 is an example of a real U map of frequency. As can be seen from FIG. 10, in the case of the real U map, the guardrails 81 and 82 are represented by vertical straight lines, and the shapes of the vehicles 77 and 79 are also close to the actual vehicles.

横軸を実距離とし、縦軸を視差値とした2次元ヒストグラムを作成することで、高さ情報を圧縮し、2次元平面で孤立領域の検出処理を行うことができる。このため、高速処理を可能とすることができる。 By creating a two-dimensional histogram with the horizontal axis as the actual distance and the vertical axis as the parallax value, the height information can be compressed and the isolated region can be detected in the two-dimensional plane. Therefore, high-speed processing can be enabled.

次に、レイヤUマップ生成部49は、このような頻度のリアルUマップを用いて、各高さ範囲のリアルUマップであるレイヤUマップを生成する。すなわち、横軸x、縦軸y、視差dのUマップ上に、視差画像の点(x、y、d)を投票する際、路面形状検出部46の路面形状検出処理により、リアルUマップに投票される(x、d)の路面からの高さ(h)を計算できる。レイヤUマップ生成部49は、レイヤUマップに投票される点(x、d)の路面からの高さ(h)に基づいて、予め設定した該当する高さ範囲の(レイヤの)リアルUマップに投票することで、レイヤ毎のレイヤUマップを生成する。 Next, the layer U map generation unit 49 generates a layer U map which is a real U map of each height range by using the real U map having such a frequency. That is, when voting the points (x, y, d) of the parallax image on the U map of the horizontal axis x, the vertical axis y, and the parallax d, the road surface shape detection process of the road surface shape detection unit 46 creates a real U map. The height (h) from the road surface to be voted (x, d) can be calculated. The layer U map generation unit 49 uses a preset real U map (of the layer) of the corresponding height range based on the height (h) of the points (x, d) to be voted for in the layer U map from the road surface. By voting for, a layer U map for each layer is generated.

具体的には、例えば図11に示すように、左右のガードレール81、82の間を、車両77及び車両79がセンターラインを挟んで対面通行をしており、車両79と右のガードレール82の間に、ガードレール82に沿って二人の人間83、84が存在する撮像画像が得られたとする。この場合、レイヤUマップ生成部49は、横軸を実距離、縦軸を間引き視差とした頻度のリアルUマップを生成する。これにより、図12に示すように、縦の直線で表されるガードレール81、82の間に、各車両77、79と、車両79と右のガードレール82の間に、ガードレール82に沿って二人の人間83、84が存在するリアルUマップが生成される。 Specifically, for example, as shown in FIG. 11, the vehicle 77 and the vehicle 79 pass face-to-face between the left and right guardrails 81 and 82 with the center line in between, and between the vehicle 79 and the right guardrail 82. It is assumed that a captured image in which two humans 83 and 84 exist along the guardrail 82 is obtained. In this case, the layer U map generation unit 49 generates a real U map having a frequency with the horizontal axis as the actual distance and the vertical axis as the thinned parallax. As a result, as shown in FIG. 12, between the guardrails 81 and 82 represented by vertical straight lines, each vehicle 77 and 79, and between the vehicle 79 and the right guardrail 82, two people along the guardrail 82. A real U-map is generated in which humans 83 and 84 are present.

次に、レイヤUマップ生成部49は、路面形状検出部46の路面形状検出処理により計算した、各オブジェクトの路面からの高さを検出する。これにより、ガードレール81、82の路面からの高さは、例えば150cm未満、車両77の路面からの高さは150cm未満、車両79の路面からの高さは150cm以上、各人間83,84の路面からの高さは150cm以上のように、各オブジェクトの路面からの高さを検出できる。 Next, the layer U map generation unit 49 detects the height of each object from the road surface calculated by the road surface shape detection process of the road surface shape detection unit 46. As a result, the height of the guardrails 81 and 82 from the road surface is, for example, less than 150 cm, the height of the vehicle 77 from the road surface is less than 150 cm, the height of the vehicle 79 from the road surface is 150 cm or more, and the road surface of each person 83, 84. The height from the road surface of each object can be detected, such as 150 cm or more.

次に、レイヤUマップ生成部49は、図13に示す路面からの高さが60cm〜200cmのオブジェクト用のレイヤUマップを生成する。ガードレール81、82、車両77、79及び人間83,84は、全て60cm〜200cmのレイヤに含まれるオブジェクトである。このため、図12に示したリアルUマップと同様に、図13に示すように、縦の直線で表されるガードレール81、82の間に、各車両77、79と、車両79と右のガードレール82の間に、ガードレール82に沿って二人の人間83、84が存在するレイヤUマップが生成される。 Next, the layer U map generation unit 49 generates a layer U map for an object having a height of 60 cm to 200 cm from the road surface shown in FIG. Guardrails 81, 82, vehicles 77, 79 and humans 83, 84 are all objects contained in a layer of 60 cm to 200 cm. Therefore, as in the real U map shown in FIG. 12, as shown in FIG. 13, between the guardrails 81 and 82 represented by the vertical straight lines, the respective vehicles 77 and 79, the vehicle 79 and the right guardrail Between 82, a layer U map is generated in which two humans 83, 84 are present along the guardrail 82.

同様に、レイヤUマップ生成部49は、図14に示す路面からの高さが150cm〜200cmのオブジェクト用のレイヤUマップを生成する。この場合、路面からの高さが150cm未満であるガードレール81、82及び車両77は、投票されないレイヤUマップが生成される。すなわち、図14に示すように路面からの高さが150cm〜200cmのオブジェクトである、車両79及び二人の人間83、84が投票されたレイヤUマップが生成される。 Similarly, the layer U map generation unit 49 generates a layer U map for an object having a height of 150 cm to 200 cm from the road surface shown in FIG. In this case, the guardrails 81, 82 and the vehicle 77, whose height from the road surface is less than 150 cm, generate a layer U map that is not voted. That is, as shown in FIG. 14, a layer U map is generated in which the vehicle 79 and the two humans 83 and 84, which are objects having a height from the road surface of 150 cm to 200 cm, are voted.

このとき、上述した2種類のレイヤUマップにおいては、対象となる高さがオーバーラップしているため、路面からの高さが150cm〜200cmを示す画素は両方のレイヤUマップに投票される。なお、本実施形態においては2種類のレイヤUマップで、対象となる高さがオーバーラップしているが、これに限られない。例えば、1つ目のレイヤUマップを60cm〜150cm未満とし、2つ目のレイヤUマップを150cm〜200cmとすることもできる。ただし、オーバーラップを設けることにより、重複した処理を省略することができるため、高速化が可能となる。 At this time, in the above-mentioned two types of layer U maps, since the target heights overlap, the pixels whose heights from the road surface are 150 cm to 200 cm are voted for both layer U maps. In the present embodiment, the target heights of the two types of layer U maps overlap, but the present invention is not limited to this. For example, the first layer U map may be 60 cm to less than 150 cm, and the second layer U map may be 150 cm to 200 cm. However, by providing the overlap, the duplicated processing can be omitted, so that the speed can be increased.

図15のフローチャートは、このようなレイヤUマップの生成動作の流れを示している。レイヤUマップ上にレイヤとして取り扱う高さの閾値は、予め設定されている。あくまでも一例であるが、図15の例の場合、路面からの高さが60cm〜200cmの人領域レイヤ、150cm〜200cmの大人領域レイヤ及び200cm以上の2m以上領域レイヤの計3つのレイヤが予め設定されている。 The flowchart of FIG. 15 shows the flow of such a layer U map generation operation. The threshold value of the height to be treated as a layer on the layer U map is set in advance. Although it is only an example, in the case of the example of FIG. 15, a total of three layers, a human area layer having a height from the road surface of 60 cm to 200 cm, an adult area layer of 150 cm to 200 cm, and an area layer of 2 m or more of 200 cm or more are set in advance. Has been done.

ステップS101では、レイヤUマップ生成部49が、視差画像上の点(x、y、d)からレイヤUマップ上の対応点を計算する(x、d)。ステップS102では、レイヤUマップ生成部49が、投票される点(x、d)の路面からの実高さ(h)を計算する。そして、レイヤUマップ生成部49は、ステップS103において、予め設定されているレイヤのうち、計算した実高さhが該当するレイヤを判別して投票する(ステップS104、ステップS105、ステップS106)。 In step S101, the layer U map generation unit 49 calculates the corresponding points on the layer U map from the points (x, y, d) on the parallax image (x, d). In step S102, the layer U map generation unit 49 calculates the actual height (h) of the points (x, d) to be voted from the road surface. Then, in step S103, the layer U map generation unit 49 determines and votes for the layer to which the calculated actual height h corresponds among the preset layers (step S104, step S105, step S106).

例えば、実高さh=170cmと計算した場合、レイヤUマップ生成部49は、60cm〜200cm領域のレイヤUマップ及び150cm〜200cm領域のレイヤUマップに投票を行う。なお、この場合、200cm以上のレイヤUマップに対しては、投票は行わない。 For example, when the actual height h = 170 cm, the layer U map generation unit 49 votes for the layer U map in the 60 cm to 200 cm region and the layer U map in the 150 cm to 200 cm region. In this case, no voting is performed for the layer U map of 200 cm or more.

具体的に説明すると、この例の場合、図16に示すように路面からの実高さが200cm以上のオブジェクトが投票されるレイヤと、路面からの実高さが150cm〜200cmのオブジェクトが投票されるレイヤと、路面からの実高さが0cm〜200cmのオブジェクトが投票されるレイヤとが、予め設定されている。すなわち、レイヤUマップは、上述のリアルUマップに対して、高さの情報を付加したUマップとなっている。このため、人間及び物が隣接して存在した場合でも、正確にオブジェクトを特定して検出可能となっている。 Specifically, in the case of this example, as shown in FIG. 16, a layer in which an object having an actual height of 200 cm or more from the road surface is voted and an object having an actual height of 150 cm to 200 cm from the road surface are voted. A layer and a layer on which an object having an actual height of 0 cm to 200 cm from the road surface is voted are set in advance. That is, the layer U map is a U map in which height information is added to the above-mentioned real U map. Therefore, even when humans and objects are adjacent to each other, the objects can be accurately identified and detected.

複数の人が隣接して画像上に存在する場合、一般的に、路面からの高さが高い部分では独立しているが、例えば路面付近又は人が手を繋いでいる場合等のように、路面からの高さが低い部分では、視差領域が繋がっていることが多い。このため、レイヤUマップの場合、図17に示すように、複数の人が一つのオブジェクトとして検出される可能性がある。すなわち、図16に示す3人の人が、レイヤUマップ上では、図17に示すように例えば長方形状のオブジェクトとして繋がって検出される可能性がある。 When multiple people are adjacent to each other on the image, they are generally independent in the part where the height from the road surface is high, but for example, near the road surface or when people are holding hands, etc. Parallax regions are often connected in areas where the height from the road surface is low. Therefore, in the case of the layer U map, as shown in FIG. 17, a plurality of people may be detected as one object. That is, there is a possibility that the three people shown in FIG. 16 are connected and detected on the layer U map as, for example, rectangular objects as shown in FIG.

一方、レイヤUマップの場合、予め設定される高さに対応するレイヤ構造でデータが格納される。このため、図18に示すように、60cm〜200cmの高さで設定したレイヤUマップ上でオブジェクトのデータが結合した場合でも、他のレイヤである150cm〜200cmの高さで設定したレイヤUマップ上では、図19に示すように各オブジェクトのデータが分離されて現れる。これにより、各オブジェクトを正確に検出できる。このようなレイヤUマップは、設定する高さの閾値により様々な用途がある。例えば、200cm以上の高さの閾値を設定した場合、図20に示すように路面から200cm以上の高さの電柱及びポール等の検出が可能となる。 On the other hand, in the case of a layer U map, data is stored in a layer structure corresponding to a preset height. Therefore, as shown in FIG. 18, even when the object data is combined on the layer U map set at a height of 60 cm to 200 cm, the layer U map set at a height of 150 cm to 200 cm, which is another layer, is used. Above, as shown in FIG. 19, the data of each object appears separately. As a result, each object can be detected accurately. Such a layer U map has various uses depending on the height threshold value to be set. For example, when a threshold value having a height of 200 cm or more is set, it is possible to detect utility poles and poles having a height of 200 cm or more from the road surface as shown in FIG.

次に、このようなレイヤUマップを用いて各オブジェクトの検出を行う孤立領域検出部50の動作を説明する。孤立領域検出部50は、集合検出部の一例である。孤立領域検出部50は、各レイヤUマップから、所定の閾値以上の視差情報の塊の領域である孤立領域(集合領域)を検出する。図21は、孤立領域検出部50の動作の流れを示すフローチャートである。ステップS131では、孤立領域検出部50が、頻度のレイヤUマップの平滑化を行う。すなわち、視差には、計算誤差等による分散がある。また、全ての画素に対する視差の計算は行われない。このため、レイヤUマップは、ノイズを含んでいる。孤立領域検出部50は、ノイズの除去及び検出するオブジェクトを分離し易くするために、レイヤUマップの平滑化処理を行う。画像の平滑化と同様に、平滑化フィルタ(例えば、3画素×3画素の単純平均)をレイヤUマップの頻度値に適用することで、ノイズとなる頻度を減少させることができる。また、オブジェクトの部分では、頻度が周囲より高い纏まったグループを形成でき、後段の孤立領域検出処理を容易化できる。 Next, the operation of the isolated area detection unit 50 that detects each object using such a layer U map will be described. The isolated region detection unit 50 is an example of a collective detection unit. The isolated area detection unit 50 detects an isolated area (aggregate area), which is an area of a mass of parallax information equal to or larger than a predetermined threshold value, from each layer U map. FIG. 21 is a flowchart showing the operation flow of the isolated area detection unit 50. In step S131, the isolated region detection unit 50 smoothes the frequency layer U map. That is, the parallax has a variance due to a calculation error or the like. Also, the parallax is not calculated for all pixels. Therefore, the layer U map contains noise. The isolated area detection unit 50 performs a layer U map smoothing process in order to remove noise and facilitate separation of objects to be detected. Similar to image smoothing, by applying a smoothing filter (for example, a simple average of 3 pixels × 3 pixels) to the frequency value of the layer U map, the frequency of noise can be reduced. Further, in the object part, a group can be formed with a higher frequency than the surroundings, and the isolated area detection process in the subsequent stage can be facilitated.

次に、孤立領域検出部50は、ステップS132において、レイヤUマップを二値化するための閾値を設定する。この二値化処理は、頻度データが存在するか否か(閾値0)で行う。孤立領域検出部50は、ステップS133において、最初は閾値0で二値化を行う。レイヤUマップ上に投票されるオブジェクトは、オブジェクトの高さ、形状、路面視差との分離等により、独立しているオブジェクト及び他オブジェクトと連結しているオブジェクトが存在する。このため、孤立領域検出部50は、小さい閾値からレイヤUマップを二値化処理し、徐々に閾値を増加させて二値化処理を行う。これにより、最初は独立した適切な大きさのオブジェクト(孤立領域)を検出し、その後、閾値を増加させていくことで連結しているオブジェクトを分離し、独立した大きさのオブジェクトとして検出できる。 Next, the isolated region detection unit 50 sets a threshold value for binarizing the layer U map in step S132. This binarization process is performed depending on whether or not frequency data exists (threshold value 0). In step S133, the isolated region detection unit 50 first binarizes at a threshold value of 0. Objects to be voted on the layer U map include objects that are independent and objects that are connected to other objects due to the height, shape, separation from road parallax, etc. of the objects. Therefore, the isolated region detection unit 50 binarizes the layer U map from a small threshold value, and gradually increases the threshold value to perform the binarization process. As a result, an independent object of an appropriate size (isolated area) can be detected first, and then the connected objects can be separated by increasing the threshold value and detected as an independent size object.

次に、孤立領域検出部50は、ステップS134において、値のある座標のラベリング処理を行って、孤立領域を検出する。具体的には、孤立領域検出部50は、二値化後に黒の値となる座標(頻度値が二値化閾値より高い座標)を、その連結性に基づいてラベリングし、同一ラベルが付いた領域を一つのオブジェクトとして検出する。ラベリングの方法は、図22に示す「×」印で示す座標が黒であり、ラベル付け対象座標である場合、「×」印で示す座標の左斜め上、上、右斜め上、左の各位置の座標である、「1」、「2」、「3」、「4」の各位置の座標がラベル付けされていれば、同じラベルを「×」印で示す座標に割り当てる。 Next, in step S134, the isolated region detection unit 50 detects the isolated region by performing labeling processing of the coordinates having a value. Specifically, the isolated region detection unit 50 labels the coordinates that become black values after binarization (coordinates whose frequency value is higher than the binarization threshold value) based on their connectivity, and attaches the same label. Detect the area as one object. In the labeling method, when the coordinates indicated by the “x” mark shown in FIG. 22 are black and are the coordinates to be labeled, the coordinates indicated by the “x” mark are diagonally above left, above, diagonally above right, and left respectively. If the coordinates of each position of "1", "2", "3", and "4", which are the coordinates of the position, are labeled, the same label is assigned to the coordinates indicated by the "x" mark.

図23に示すように、「×」印で示す座標の周囲に、複数のラベルが割り当てられている場合、孤立領域検出部50は、図24に示すように、最も小さい値のラベルを、「×」印で示す座標に割り当てる。また、孤立領域検出部50は、図24に示すように、「×」印で示す座標の周囲の座標のうち、ラベルが割り当てられていた座標のラベルを、最も小さい値のラベルに置換する。図23及び図24の例の場合、孤立領域検出部50は、「8」のラベルを、「×」印で示す座標に割り当てる。また、孤立領域検出部50は、「9」又は「8」のラベルが割り当てられていた座標である、「×」印で示す座標の左斜め上、右斜め上及び左の各座標のラベルを、「8」のラベルに置換する。 As shown in FIG. 23, when a plurality of labels are assigned around the coordinates indicated by the “x” mark, the isolated area detection unit 50 displays the label with the smallest value as shown in FIG. 24. Assign to the coordinates indicated by the "x" mark. Further, as shown in FIG. 24, the isolated area detection unit 50 replaces the label of the coordinate to which the label is assigned among the coordinates around the coordinates indicated by the “x” mark with the label of the smallest value. In the case of the examples of FIGS. 23 and 24, the isolated area detection unit 50 assigns the label of “8” to the coordinates indicated by the “x” mark. Further, the isolated area detection unit 50 displays the labels of the coordinates indicated by the “x” mark, which are the coordinates to which the labels “9” or “8” are assigned, at the diagonally upper left, diagonally upper right, and left. , Replace with the label "8".

このようなラベリング処理により検出されたオブジェクトの幅(同じラベルのオブジェクトの幅)は、実際のオブジェクトに近い幅Wとみなすことができる。孤立領域検出部50は、幅Wが所定の範囲内のオブジェクトを、オブジェクト候補領域とみなす。 The width of the object (width of the object having the same label) detected by such labeling processing can be regarded as the width W close to the actual object. The isolated area detection unit 50 considers an object having a width W within a predetermined range as an object candidate area.

次に、孤立領域検出部50は、ステップS135において、検出した複数の孤立領域の大きさをそれぞれ判定する。この大きさの判定処理は、検出対象が歩行者から大型自動車であるため、孤立領域の幅が検出対象のサイズの範囲内であるか否かを判定する処理である。孤立領域の幅が検出対象のサイズよりも大きい場合(ステップS135:Yes)、孤立領域検出部50は、ステップS132に処理を戻す。そして、孤立領域検出部50は、二値化の閾値を1つインクリメントし、検出対象のサイズよりも大きい幅の孤立領域を、再度二値化処理する。また、孤立領域検出部50は、再度二値化処理された孤立領域をラベリング処理し、より小さな孤立領域を検出して、検出対象のサイズよりも大きいか否かの判定を行う。孤立領域検出部50は、このように閾値設定からラベリングの処理を繰り返し行い、所定の大きさの孤立領域を検出する。 Next, the isolated region detection unit 50 determines the sizes of the plurality of detected isolated regions in step S135. This size determination process is a process for determining whether or not the width of the isolated region is within the size range of the detection target because the detection target is a pedestrian to a large vehicle. When the width of the isolated region is larger than the size of the detection target (step S135: Yes), the isolated region detection unit 50 returns the process to step S132. Then, the isolated region detection unit 50 increments the binarization threshold value by one, and binarizes the isolated region having a width larger than the size of the detection target again. In addition, the isolated area detection unit 50 labels the isolated area that has been binarized again, detects a smaller isolated area, and determines whether or not the size is larger than the size of the detection target. The isolated area detection unit 50 repeats the labeling process from the threshold setting in this way to detect an isolated area having a predetermined size.

次に、所定の大きさの孤立領域を検出すると(ステップS135:No)、孤立領域検出部50は、ステップS136において、周辺領域除去処理を行う。遠方に存在するオブジェクトで、路面検出精度が悪く、路面の視差がレイヤUマップ内に投票され、オブジェクト及び路面の視差が一塊になって検出される場合がある。このような場合に、孤立領域検出部50は、オブジェクト及び路面の視差が一塊となっている領域(除去領域)の左右及び近傍の領域で高さが路面に近い領域を削除する周辺領域除去処理を行う。 Next, when an isolated region having a predetermined size is detected (step S135: No), the isolated region detection unit 50 performs a peripheral region removal process in step S136. In the case of an object existing in a distant place, the road surface detection accuracy is poor, the parallax of the road surface is voted in the layer U map, and the parallax of the object and the road surface may be detected as a group. In such a case, the isolated area detection unit 50 deletes a peripheral area removal process that deletes a region whose height is close to the road surface on the left, right, and near the region (removal region) where the parallax between the object and the road surface is a mass. I do.

このような周辺領域除去処理を具体的に説明する。図25に、遠方の路面が実際の高さよりも低く検出され、路面と車両が一つのオブジェクトとして検出されたレイヤUマップを示す。この図25において、右斜線の領域は、頻度が高い領域を示しており、左斜線の領域は、頻度が低い領域を示している。図26は、図25のレイヤUマップに対応する高さのリアルUマップである。ここでいう高さのリアルUマップは、画素毎に最大高さの情報を持つマップである。この図26において、右斜線の領域は、高さが高い領域を示しており、左斜線の領域は、高さが低い領域を示している。図25及び図26を見比べて分かるように、レイヤUマップにおける頻度が高い領域と、高さのリアルUマップにおける高さが高い領域とが一致しない。また、レイヤUマップにおける頻度が低い領域も、高さのリアルUマップにおける高さが低い領域に一致しない。 Such a peripheral area removal process will be specifically described. FIG. 25 shows a layer U map in which a distant road surface is detected lower than the actual height and the road surface and the vehicle are detected as one object. In FIG. 25, the area shaded to the right indicates a region having a high frequency, and the region shaded to the left indicates a region having a low frequency. FIG. 26 is a real U map with a height corresponding to the layer U map of FIG. The height real U map referred to here is a map having information on the maximum height for each pixel. In FIG. 26, the area shaded to the right indicates a region having a high height, and the region shaded to the left indicates a region having a low height. As can be seen by comparing FIGS. 25 and 26, the frequently used region in the layer U map and the high height region in the real U map of height do not match. Also, the infrequent areas in the layer U map do not match the low height areas in the real U map of height.

このような場合、孤立領域検出部50は、レイヤUマップの代わりに、高さのリアルUマップを用いて、オブジェクトと路面の境界を検出して周辺領域を除去する。レイヤUマップは、各高さ範囲の分割数(レイヤの数)の高さ情報しか有さないが、高さのリアルUマップは、細かい分解能で高さの情報を有しているため、周辺領域の除去に適しているからである。孤立領域検出部50は、例えば図27のフローチャートに示す流れで、近傍領域の除去(ステップS145)、左領域の除去(ステップS146)及び右領域の除去(ステップS147)の順に、周辺領域の除去を行う。 In such a case, the isolated area detection unit 50 uses a real U map of height instead of the layer U map to detect the boundary between the object and the road surface and remove the peripheral area. The layer U map has only the height information of the number of divisions (the number of layers) of each height range, but the real height U map has the height information with fine resolution, so that it is peripheral. This is because it is suitable for removing the region. For example, in the flow shown in the flowchart of FIG. 27, the isolated region detection unit 50 removes the peripheral region in the order of removal of the neighboring region (step S145), removal of the left region (step S146), and removal of the right region (step S147). I do.

ステップS145における近傍領域除去の判定は、孤立領域検出部50が、高さの閾値を以下のように設定し、条件1、条件2又は条件3が、孤立領域の最下端(ボトムライン)から成り立ち続ける場合に、該当するラインの頻度を変更して除去する。高さの閾値を設定する場合、孤立領域検出部50は、オブジェクト及び路面の視差が一塊となっている領域(除去領域)の最大高さに応じて、高さ閾値を設定する。例えば、最大高さが120cm以上の場合、孤立領域検出部50は、高さ閾値を60cmに設定する。また、最大高さが120cm未満の場合、孤立領域検出部50は、高さ閾値を40cmに設定する。 In the determination of neighborhood region removal in step S145, the isolated region detection unit 50 sets the height threshold value as follows, and condition 1, condition 2 or condition 3 consists of the lowest end (bottom line) of the isolated region. If you want to continue, change the frequency of the corresponding line and remove it. When setting the height threshold value, the isolated area detection unit 50 sets the height threshold value according to the maximum height of the area (removal area) in which the parallax of the object and the road surface is a mass. For example, when the maximum height is 120 cm or more, the isolated region detection unit 50 sets the height threshold value to 60 cm. When the maximum height is less than 120 cm, the isolated region detection unit 50 sets the height threshold value to 40 cm.

条件1は、「ライン内に高さを持つ点が、例えば5つ等の所定の数以下で、高さ閾値以上の高さを持つ点が存在しないこと」である。また、条件2は、「ライン内に高さ閾値以上の高さを持つ点の数が、高さ閾値未満の高さを持つ点の数より少なく、高さ閾値以上の高さを持つ点の数が2つ未満であること」である。また、条件3は、「高さ閾値以上の高さを持つ点の数が、ライン全体の高さを持つ点の数の10%未満であること」である。孤立領域検出部50は、上述の条件1、条件2又は条件3が、孤立領域の最下端(ボトムライン)から成り立ち続ける場合に、該当するラインの頻度を変更して除去する。 Condition 1 is that "there are no points in the line having heights equal to or less than a predetermined number such as five and having a height equal to or higher than the height threshold value". In addition, condition 2 states that "the number of points in the line having a height equal to or higher than the height threshold is less than the number of points having a height less than the height threshold, and the number of points having a height equal to or higher than the height threshold" The number is less than two. " Further, the condition 3 is "the number of points having a height equal to or higher than the height threshold value is less than 10% of the number of points having a height of the entire line". When the above-mentioned condition 1, condition 2 or condition 3 continues to consist of the lowermost end (bottom line) of the isolated region, the isolated region detection unit 50 changes the frequency of the corresponding line and removes it.

また、孤立領域検出部50は、ステップS146及びステップS147における左右領域除去の判定は、高さ閾値を以下のように設定し、条件4、条件5又は条件6が孤立領域の左端又は右端の列から成り立ち続ける場合に、該当する列の頻度を変更して除去する。高さ閾値を設定する場合、孤立領域検出部50は、オブジェクト及び路面の視差が一塊となっている領域(除去領域)の最大高さに応じて設定する。例えば、最大高さが120cm以上の場合、孤立領域検出部50は、高さ閾値を60cmに設定する。また、最大高さが120cm未満の場合、孤立領域検出部50は、高さ閾値を40cmに設定する。 Further, the isolated region detection unit 50 sets the height threshold value as follows for the determination of the left and right region removal in steps S146 and S147, and the condition 4, condition 5 or condition 6 is the left end or right end row of the isolated region. If it continues to consist of, change the frequency of the corresponding column and remove it. When setting the height threshold value, the isolated area detection unit 50 sets according to the maximum height of the area (removal area) in which the parallax between the object and the road surface is a mass. For example, when the maximum height is 120 cm or more, the isolated region detection unit 50 sets the height threshold value to 60 cm. When the maximum height is less than 120 cm, the isolated region detection unit 50 sets the height threshold value to 40 cm.

条件4は、「列内に高さを持つ点が、例えば5つ等の所定の数以下で、高さ閾値以上の高さを持つ点がないこと」である。条件5は、「列内に高さ閾値以上の高さを持つ点の数が、高さ閾値未満の高さを持つ点の数より少なく、高さ閾値以上の高さを持つ点の数が2つ未満であること」である。条件6は、「高さ閾値以上の高さを持つ点の数が、列全体の高さを持つ点の数の10%未満であること」である。孤立領域検出部50は、条件4、条件5又は条件6が孤立領域の左端又は右端の列から成り立ち続ける場合に、該当する列の頻度を変更して除去する。 Condition 4 is that "the number of points having a height in the row is not more than a predetermined number such as 5, and there is no point having a height equal to or more than the height threshold value". Condition 5 states that "the number of points in the column having a height equal to or higher than the height threshold is less than the number of points having a height less than the height threshold, and the number of points having a height equal to or higher than the height threshold is large. There are less than two. " Condition 6 is that "the number of points having a height equal to or higher than the height threshold value is less than 10% of the number of points having a height of the entire column". When the condition 4, condition 5 or condition 6 continues to consist of the leftmost or rightmost rows of the isolated region, the isolated region detection unit 50 changes the frequency of the corresponding rows and removes them.

図28において、中心に位置する黒塗りの領域は、高さが高い孤立領域を示している。また、右斜線、左斜線及び網線で示す孤立領域は、それぞれ高さが低い孤立領域を示している。このうち、右斜線で示す孤立領域は、孤立領域検出部50により設定された高さ閾値と、上述の条件1、条件2又は条件3に基づいて除去される。また、左斜線及び網線で示す孤立領域は、孤立領域検出部50により設定された高さ閾値と、上述の条件4、条件5又は条件6に基づいて除去される。これにより、図28の中心に示す黒塗りの孤立領域のみを抽出できる。 In FIG. 28, the black-painted region located at the center indicates an isolated region having a high height. In addition, the isolated areas indicated by the right diagonal line, the left diagonal line, and the net line each indicate an isolated area having a low height. Of these, the isolated region indicated by the right diagonal line is removed based on the height threshold value set by the isolated region detecting unit 50 and the above-mentioned condition 1, condition 2 or condition 3. Further, the isolated region indicated by the left diagonal line and the net line is removed based on the height threshold value set by the isolated region detecting unit 50 and the above-mentioned condition 4, condition 5 or condition 6. As a result, only the black-painted isolated region shown in the center of FIG. 28 can be extracted.

次に、孤立領域検出部50は、図21のフローチャートのステップS137において、他に除去領域が存在するか否かを判別する。他に除去領域が存在する場合(ステップS137:Yes)、孤立領域検出部50は、ステップS134に処理を戻し、再度ラベリング処理を行い、孤立領域の再設定を行う。 Next, the isolated area detection unit 50 determines in step S137 of the flowchart of FIG. 21 whether or not there is another removal area. If there is another removal region (step S137: Yes), the isolated region detection unit 50 returns the processing to step S134, performs the labeling process again, and resets the isolated region.

次に、孤立領域検出部50は、ステップS137において、他に除去領域は存在しないと判別すると(ステップS137:No)、ステップS138に処理を進め、周辺領域除去を行った孤立領域の大きさ(幅、高さ、距離)を判定する。 Next, when the isolated area detection unit 50 determines in step S137 that there is no other removed area (step S137: No), the process proceeds to step S138, and the size of the isolated area where the peripheral area is removed (step S137: No). Width, height, distance) is determined.

例えば、自動車とバイク、自動車と歩行者、自動車同士等のように、オブジェクト同士が横に並んで近接している場合、レイヤUマップの平滑化が原因で、複数のオブジェクトの孤立領域を、一つのオブジェクトの孤立領域として検出するおそれがある。または、視差画像の画素点数を補うために視差補間処理を行う場合、異なるオブジェクト同士の視差が繋がることがある。このような場合、孤立領域検出部50は、以下に説明する横方向分離処理を行い、複数のオブジェクトが重なっている一つの孤立領域を、オブジェクト毎の複数の孤立領域に分離する。 For example, when objects are placed side by side and close to each other, such as automobiles and motorcycles, automobiles and pedestrians, automobiles, etc., the smoothing of the layer U map causes the isolated areas of multiple objects to be one. May be detected as an isolated area of one object. Alternatively, when parallax interpolation processing is performed to compensate for the number of pixel points in a parallax image, the parallax between different objects may be connected. In such a case, the isolated area detection unit 50 performs the lateral separation process described below to separate one isolated area in which a plurality of objects overlap into a plurality of isolated areas for each object.

これに対して、隣の車線を走行している複数の先行車が遠方にいる場合、ステレオ画像から得られる視差の分散が大きいと、レイヤUマップ上では、各オブジェクトの視差が上下に伸び、連結することがある。そして、連結されたオブジェクトの孤立領域を、一つのオブジェクトの孤立領域として検出するおそれがある。このような場合、孤立領域検出部50は、以下に説明する縦方向分離処理を行い、一つのオブジェクトとして検出された孤立領域を、手前を走る先行車両の孤立領域と、先行車両の前方を走行する車両の孤立領域とに分離する。 On the other hand, when a plurality of preceding vehicles traveling in the adjacent lane are far away, if the parallax dispersion obtained from the stereo image is large, the parallax of each object extends up and down on the layer U map. May be connected. Then, the isolated area of the concatenated objects may be detected as the isolated area of one object. In such a case, the isolated area detection unit 50 performs the vertical separation process described below, and travels in the isolated area detected as one object with the isolated area of the preceding vehicle running in front and in front of the preceding vehicle. Separate into isolated areas of the vehicle.

ステップS138では、孤立領域検出部50が、周辺領域除去を行った孤立領域の大きさ(幅、高さ、距離)を判定することで、このような横方向分離処理又は縦方向分離処理を行うか否かを判別する。孤立領域検出部50は、いずれの分離処理も行わないと判別した場合は、ステップS139に処理を進め、周辺領域除去処理を施した孤立領域を、オブジェクト候補として、例えばRAM15等の記憶部に一旦、登録する。 In step S138, the isolated area detection unit 50 performs such a horizontal separation process or a vertical separation process by determining the size (width, height, distance) of the isolated area from which the peripheral area has been removed. Whether or not it is determined. When the isolated area detection unit 50 determines that none of the separation processes is performed, the process proceeds to step S139, and the isolated area subjected to the peripheral area removal process is temporarily stored in a storage unit such as RAM 15 as an object candidate. ,sign up.

これに対して、例えば幅2mの自動車に、幅50cmの別のオブジェクトが近接している場合、レイヤUマップから検出される孤立領域は、ステップS138の大きさ判定において、2.5mを超える幅のオブジェクトとして判定される。このような場合、孤立領域検出部50は、ステップS140に処理を進め、横方向分離処理を実行すると共に、ステップS142に処理を進め、縦方向分離処理を実行する。 On the other hand, when another object having a width of 50 cm is close to a car having a width of 2 m, for example, the isolated area detected from the layer U map has a width exceeding 2.5 m in the size determination in step S138. It is judged as an object of. In such a case, the isolated area detection unit 50 proceeds with the process in step S140 to execute the horizontal separation process, and advances the process to step S142 to execute the vertical direction separation process.

図29に、孤立領域検出部50が実行する横方向分離処理の流れを示すフローチャートを示す。ステップS151では、孤立領域検出部50が、図30に示すように各X座標の頻度情報と高さ情報とを積算処理し、各X座標の積算値を縦方向(Y方向)に積分処理して横方向の評価値を算出する。 FIG. 29 shows a flowchart showing the flow of the lateral separation process executed by the isolated region detection unit 50. In step S151, the isolated region detection unit 50 integrates the frequency information and the height information of each X coordinate as shown in FIG. 30, and integrates the integrated value of each X coordinate in the vertical direction (Y direction). And calculate the evaluation value in the horizontal direction.

図31に、横方向の評価値の波形の一例を示す。この評価値のうち、ボトムBT部分が評価値の最小値(最小評価値)を示している。ステップS152では、孤立領域検出部50が、この最小評価値の位置を検出する。ステップS153では、孤立領域検出部50が、各評価値の平均値に、例えば0.5等の所定の係数を乗算処理し、評価値の二値化閾値Tを算出する。そして、孤立領域検出部50は、図31中点線で示すように、二値化閾値Tを評価値に設定する。そして、ステップS154において、この二値化閾値に基づいて、評価値を二値化する。 FIG. 31 shows an example of the waveform of the evaluation value in the horizontal direction. Of these evaluation values, the bottom BT portion indicates the minimum value (minimum evaluation value) of the evaluation value. In step S152, the isolated region detection unit 50 detects the position of the minimum evaluation value. In step S153, the isolated region detection unit 50 multiplies the average value of each evaluation value by a predetermined coefficient such as 0.5 to calculate the binarization threshold value T of the evaluation value. Then, the isolated region detection unit 50 sets the binarization threshold value T as the evaluation value, as shown by the dotted line in the middle of FIG. Then, in step S154, the evaluation value is binarized based on the binarization threshold value.

評価値を用いる理由は、以下のとおりである。まず、連結している部分の頻度値を、オブジェクトの頻度値より比較的小さな値で取り扱うことができるためである。また、高さのリアルUマップでは、連結している部分はオブジェクトの部分と高さが異なり、高さを持つデータが少ないためである。また、視差補間の影響で連結している場合、高さのリアルUマップにおける視差の分散が小さいためである。 The reason for using the evaluation value is as follows. First, it is possible to handle the frequency value of the connected part with a value relatively smaller than the frequency value of the object. Further, in the real U map of height, the connected portion has a height different from that of the object portion, and there is little data having a height. Further, when they are connected due to the influence of parallax interpolation, the variance of parallax in the real U map of height is small.

次に、孤立領域検出部50は、ステップS155において、図31に示すように最小評価値を含み、二値化閾値Tより小さい評価値を含む領域を分離領域SRとして設定し、分離領域SRの両端を分離境界SKとする。孤立領域検出部50は、分離境界SKの内側の頻度値を変更することで、各オブジェクトに対応する孤立領域を横方向に分離する。 Next, in step S155, the isolated region detection unit 50 sets a region including the minimum evaluation value and including an evaluation value smaller than the binarization threshold T as the separation region SR as shown in FIG. 31, and sets the separation region SR. Both ends are defined as separation boundary SK. The isolated area detection unit 50 laterally separates the isolated area corresponding to each object by changing the frequency value inside the separation boundary SK.

図21のフローチャートのステップS141では、孤立領域検出部50が、このような横方向分離処理により分離できないオブジェクトを(ステップS141:No)、オブジェクト候補としてRAM15等の記憶部に登録する。また、孤立領域検出部50は、横方向分離処理ができた場合は(ステップS141:Yes)、さらに分離できる可能性があるため、ステップS134に処理を戻し、再度、横方向分離処理を試みる。 In step S141 of the flowchart of FIG. 21, the isolated area detection unit 50 registers an object that cannot be separated by such a lateral separation process (step S141: No) in a storage unit such as a RAM 15 as an object candidate. Further, if the isolated region detection unit 50 can perform the lateral separation process (step S141: Yes), the isolated region detection unit 50 may be able to further separate the process. Therefore, the isolated area detection unit 50 returns the process to step S134 and tries the lateral separation process again.

図32に、平滑化処理後のレイヤUマップを示す。この図32に示すレイヤUマップは、左斜線の孤立領域が頻度の高い孤立領域を示しており、右斜線の孤立領域が頻度の低い孤立領域を示している。また、図32の下側の頻度の高い孤立領域(左斜線の孤立領域)は、直前を走行する先行車両に対応する孤立領域である。また、図32の上側(奥側)の頻度の高い孤立領域(左斜線の孤立領域)は、直前を走行する先行車両のさらに先を走行する先行車両に対応する孤立領域である。 FIG. 32 shows a layer U map after the smoothing process. In the layer U map shown in FIG. 32, the isolated region with the left diagonal line shows the isolated region with high frequency, and the isolated region with the right diagonal line shows the isolated region with low frequency. Further, the frequently isolated region (isolated region on the left diagonal line) on the lower side of FIG. 32 is an isolated region corresponding to the preceding vehicle traveling immediately before. Further, the frequently isolated region (isolated region on the left diagonal line) on the upper side (back side) of FIG. 32 is an isolated region corresponding to the preceding vehicle traveling further ahead of the preceding vehicle traveling immediately before.

このような図32のレイヤUマップの場合、先行車両の左右端に視差が集中し、視差の分散も大きいため、頻度の高い孤立領域の両側で左カーブを描くように視差が伸びている。視差の伸びが大きいため、図32中点線の楕円で示すように、手前の先行車両の視差の伸びと、奥側の先行車両の視差の伸びとが連結し、2台の先行車両が1つの孤立領域として検出される。このような場合、検出された孤立領域の幅は、実際の先行車両の幅より大きくなる。このため、孤立領域検出部50は、先行車両の実幅を算出するための領域の設定を行う。先行車両の実幅を算出するための領域としては、孤立領域検出部50は、以下に示すように孤立領域の最近傍距離Zminの大きさに応じて所定の距離範囲Zrを設定する。そして、孤立領域検出部50は、その距離範囲に相当する視差範囲の領域内で手前の先行車の実幅を探索する。図32に示す距離範囲の領域が実幅算出領域JRである。このZrの値は撮像ユニット2の撮像画像から得られる視差の分散の大きさから設定できる。 In the case of the layer U map of FIG. 32 as described above, the parallax is concentrated on the left and right ends of the preceding vehicle, and the parallax is widely dispersed. Therefore, the parallax extends so as to draw a left curve on both sides of the frequently isolated region. Since the parallax growth is large, as shown by the ellipse in the middle dotted line in FIG. 32, the parallax growth of the preceding vehicle in the foreground and the parallax growth of the preceding vehicle in the back side are connected, and the two leading vehicles are one. Detected as an isolated area. In such a case, the width of the detected isolated area becomes larger than the width of the actual preceding vehicle. Therefore, the isolated area detection unit 50 sets an area for calculating the actual width of the preceding vehicle. As a region for calculating the actual width of the preceding vehicle, the isolated region detection unit 50 sets a predetermined distance range Zr according to the size of the nearest neighbor distance Zmin of the isolated region as shown below. Then, the isolated region detection unit 50 searches for the actual width of the preceding vehicle in the region of the parallax range corresponding to the distance range. The area of the distance range shown in FIG. 32 is the actual width calculation area JR. The value of Zr can be set from the magnitude of the dispersion of parallax obtained from the image captured by the imaging unit 2.

具体的には、孤立領域検出部50は、実幅算出領域の距離範囲Zrを、以下のように設定する。すなわち、例えば「Zmin<50m」の場合、孤立領域検出部50は、Zr=20mに設定する。また、例えば「50m<=Zmin<100m」の場合、孤立領域検出部50は、Zr=25mに設定する。さらに、例えば「Zmin>100m」の場合、孤立領域検出部50は、Zr=30mに設定する。孤立領域検出部50は、孤立領域内で横方向に連結している複数のオブジェクトを、このような横方向分離処理により分離する。 Specifically, the isolated region detection unit 50 sets the distance range Zr of the actual width calculation region as follows. That is, for example, in the case of "Zmin <50 m", the isolated region detection unit 50 is set to Zr = 20 m. Further, for example, in the case of "50 m <= Zmin <100 m", the isolated region detection unit 50 is set to Zr = 25 m. Further, for example, in the case of "Zmin> 100 m", the isolated region detection unit 50 is set to Zr = 30 m. The isolated area detection unit 50 separates a plurality of objects horizontally connected in the isolated area by such a horizontal separation process.

次に、ステップS142における縦方向分離処理を説明する。図32に示したように、レイヤUマップ上で縦方向にオブジェクトが並んでおり、2台以上の縦列状態を1つの孤立領域として検出した場合、2台以上の車が持つ視差の範囲と車間距離を合せた範囲が、その孤立領域の視差範囲となる。例えば20m以上の遠方となると、ガードレール又は壁以外で視差(距離)が広い範囲を有し、縦列方向の分離が困難となる。このため、孤立領域検出部50は、距離に応じた孤立領域の視差(距離)範囲が大きい孤立領域を対象として、縦方向分離処理を行う。なお、ガードレール又は建物の壁等は、視差範囲が広くても幅が狭い。孤立領域検出部50は、幅の狭い孤立領域に対しては、縦方向分離処理を実行しない。 Next, the vertical separation process in step S142 will be described. As shown in FIG. 32, when objects are arranged in the vertical direction on the layer U map and two or more columns are detected as one isolated area, the parallax range and the distance between the two or more vehicles are present. The range in which the distances are combined is the parallax range of the isolated region. For example, when the distance is 20 m or more, the parallax (distance) has a wide range other than the guardrail or the wall, and it becomes difficult to separate in the column direction. Therefore, the isolated region detection unit 50 performs the vertical separation process on the isolated region having a large parallax (distance) range of the isolated region according to the distance. The guardrail or the wall of the building is narrow even if the parallax range is wide. The isolated area detection unit 50 does not execute the vertical separation process on the narrow isolated area.

具体的には、孤立領域検出部50は、孤立領域の最近傍距離を「Zmin」、最遠方距離を「Zmax」、幅を「W」とし、以下の条件7又は条件8のいずれかを満たすときに、縦方向分離処理を実行する。条件7は、「W>1500、かつ、Zmin>100mのとき、Zmax−Zmin>50m」である。条件は、「W>1500、かつ、100m≧Zmin>20mのとき、Zmax−Zmin>40m」である。 Specifically, the isolated region detection unit 50 sets the nearest neighbor distance of the isolated region to "Zmin", the farthest distance to "Zmax", and the width to "W", and satisfies either the following condition 7 or condition 8. Occasionally, a vertical separation process is performed. Condition 7 is "Zmax-Zmin> 50m when W> 1500 and Zmin> 100m". The condition is "Zmax-Zmin> 40m when W> 1500 and 100m ≧ Zmin> 20m".

図33のフローチャートに、縦方向分離処理の流れを示す。まず、図32は、上述のように、左隣の車線を走行している2台の先行車両が一つの孤立領域として検出されたレイヤUマップを示している。この例の場合、図32中、下側(手前)の頻度の高い斜線の領域が、自車両の直前を走行する先行車両を表し、図32中、上側(奥側)の頻度の高い斜線の領域が、先行車両のさらに前を走る先行車両を示している。先行車両の左右端に視差が集中し、また、分散も大きいため、頻度の高い領域の両側で左カーブを描くように視差が伸びている。この視差の伸びが大きいため、手前の先行車両の視差の伸びと、奥側の先行車両の視差の伸びとが連結し、2台の先行車両が一つの孤立領域として検出されている。 The flow chart of FIG. 33 shows the flow of the vertical separation process. First, FIG. 32 shows a layer U map in which two preceding vehicles traveling in the left adjacent lane are detected as one isolated region as described above. In the case of this example, the frequently shaded area on the lower side (front side) in FIG. 32 represents the preceding vehicle traveling in front of the own vehicle, and the frequently shaded area on the upper side (back side) in FIG. 32. The area shows the preceding vehicle running further ahead of the preceding vehicle. Since the parallax is concentrated on the left and right ends of the preceding vehicle and the dispersion is large, the parallax extends so as to draw a left curve on both sides of the frequently used area. Since the increase in parallax is large, the increase in parallax of the preceding vehicle in the foreground and the increase in parallax of the preceding vehicle in the back are connected, and the two preceding vehicles are detected as one isolated region.

このような場合、2台の先行車両の幅が重なって検出されているため、実際の1台分の先行車両の幅より、大きい幅として、孤立領域の幅が検出される。このため、孤立領域検出部50は、図33のフローチャートのステップS161において、実幅を算出するための領域の設定を行う。 In such a case, since the widths of the two preceding vehicles are detected overlapping, the width of the isolated region is detected as a width larger than the actual width of one preceding vehicle. Therefore, the isolated area detection unit 50 sets the area for calculating the actual width in step S161 of the flowchart of FIG. 33.

具体的には、孤立領域検出部50は、孤立領域のZminからZminの大きさに応じて所定の距離範囲Zrを以下に説明するように設定する。 Specifically, the isolated region detection unit 50 sets a predetermined distance range Zr according to the magnitude of Zmin to Zmin of the isolated region as described below.

Zmin<50mの場合、Zr=20mに設定
50m≦Zmin<100mの場合、Zr=25mに設定
Zmin>100mの場合、Zr=30mに設定
Set Zr = 20m when Zmin <50m Set Zr = 25m when 50m ≤ Zmin <100m Set Zr = 30m when Zmin> 100m

孤立領域検出部50は、このように設定した距離範囲に相当する視差範囲の領域内で、手前の先行車両の実幅を検出する.図32の括弧の範囲の領域が実幅算出領域JRである。孤立領域検出部50は、撮像ユニット2から得られる視差の分散の大きさに基づいて、所定の距離範囲Zrの値を設定する。 The isolated area detection unit 50 detects the actual width of the preceding vehicle in the area of the parallax range corresponding to the distance range set in this way. The area in the range of parentheses in FIG. 32 is the actual width calculation area JR. The isolated region detection unit 50 sets a value of a predetermined distance range Zr based on the magnitude of the dispersion of parallax obtained from the image pickup unit 2.

次に孤立領域検出部50は、ステップS162において、実幅算出領域JR内で横方向評価値を算出する。孤立領域検出部50は、図34に示すように実幅算出領域JRのライン毎に積算処理した頻度値を、各ラインの評価値とする。また、孤立領域検出部50は、図35に示すように、評価値が最大のラインを実幅検出位置とする。 Next, the isolated region detection unit 50 calculates the lateral evaluation value in the actual width calculation region JR in step S162. As shown in FIG. 34, the isolated area detection unit 50 uses the frequency value of each line of the actual width calculation area JR as the evaluation value of each line. Further, as shown in FIG. 35, the isolated region detection unit 50 sets the line having the maximum evaluation value as the actual width detection position.

次に、孤立領域検出部50は、ステップS163において、図35に示すように、実幅検出位置における頻度値が、連続して存在し、かつ、最大の長さ(幅)を有する実幅領域を検出し、検出した最大の長さを実幅とする。図35の例の場合、実幅は5となる。 Next, in step S163, as shown in FIG. 35, the isolated region detection unit 50 has the actual width region in which the frequency values at the actual width detection positions are continuously present and have the maximum length (width). Is detected, and the maximum detected length is taken as the actual width. In the case of the example of FIG. 35, the actual width is 5.

次に、孤立領域検出部50は、ステップS164において、実幅の境界の外側を分離境界とし、分離境界を基準として、孤立領域の各視差における分離境界の位置を順次計算して設定する。すなわち、図36に示すように、撮像ユニット2のカメラのレンズ中心をO、カメラの向いている方向をカメラ中心軸(レイヤUマップの中心の縦軸)、カメラ中心軸の鉛直方向を横軸とする。例えば、実幅領域の分離境界の位置が、距離Z0、横位置X0とする。このとき距離Zにおける分離境界の位置Xは、「X=X0×(Z/Z0)」となる。 Next, in step S164, the isolated region detection unit 50 sequentially calculates and sets the position of the separated boundary in each parallax of the isolated region with the outside of the actual width boundary as the separation boundary and the separation boundary as a reference. That is, as shown in FIG. 36, the lens center of the camera of the imaging unit 2 is O, the direction in which the camera is facing is the camera center axis (vertical axis of the center of the layer U map), and the vertical direction of the camera center axis is the horizontal axis. And. For example, the position of the separation boundary of the actual width region is the distance Z0 and the horizontal position X0. At this time, the position X of the separation boundary at the distance Z is “X = X0 × (Z / Z0)”.

また、撮像ユニット2の基線長Bと焦点距離Fを掛け合わせた値をBFとし、Z0に対応する視差をd0、Zに対応する視差をd、オフセット(offset)を無限遠における視差とする。この場合、「Z=BF/(d−offset)」、「Z0=BF/(d0−offset)」となる。このため、「X=X0×(Z/Z0)」の数式を「X=X0×(d0−offset)/(d−offset)」のように変形できる。 Further, the value obtained by multiplying the baseline length B of the image pickup unit 2 and the focal length F is defined as BF, the parallax corresponding to Z0 is d0, the parallax corresponding to Z is d, and the offset is the parallax at infinity. In this case, "Z = BF / (d-offset)" and "Z0 = BF / (d0-offset)". Therefore, the mathematical formula of "X = X0 × (Z / Z0)" can be transformed into “X = X0 × (d0-offset) / (d-offset)”.

視差dとレイヤUマップの間引き視差との対応は分かっているため、孤立領域内の分離境界の位置を、全ての間引き視差の値で決定できる。図37の黒塗りの領域が、分離境界となる領域を示している。これにより、ステップS165において、自車両の直前を走行する先行車両(手前のオブジェクト)と、先行車両のされに先を走行する先行車両(奥のオブジェクト)とを分離することができる。 Since the correspondence between the parallax d and the thinned parallax of the layer U map is known, the position of the separation boundary in the isolated region can be determined by the values of all the thinned parallax. The black-painted area in FIG. 37 shows the area serving as the separation boundary. As a result, in step S165, the preceding vehicle (object in front) traveling in front of the own vehicle and the preceding vehicle (object in the back) traveling ahead of the preceding vehicle can be separated.

なお、図37の例の場合、孤立領域の左下に縦に長い領域が分離される。しかし、分離された縦に長い領域は、幅が細いため、孤立領域検出部50は、ノイズとして処理する。また、図37の例は、先行車両が左隣の車線を走行している例であったが、先行車両が右隣の車線を走行している場合は、孤立領域の頻度マップは、図32の例を左右反転した分布となる。 In the case of the example of FIG. 37, a vertically long region is separated at the lower left of the isolated region. However, since the vertically long region separated is narrow in width, the isolated region detection unit 50 processes it as noise. Further, the example of FIG. 37 is an example in which the preceding vehicle is traveling in the lane adjacent to the left, but when the preceding vehicle is traveling in the lane adjacent to the right, the frequency map of the isolated region is shown in FIG. 32. The example of is a left-right inverted distribution.

自車両の走行車線の隣の車線の遠方を複数の先行車両が走行している場合、撮像画像から得られる視差の分散が大きいため、レイヤUマップ上では、各オブジェクトの視差が上下に伸びて連結し、一つのオブジェクトとして誤検出されるおそれがある。しかし、このような縦方向分離処理を行うことで、連結して検出されるオブジェクトを分離して、複数のオブジェクトとして検出できる。すなわち、この例の場合、手前を走る先行車両と、さらに前方を走行する先行車両とを分離して認識できる。 When a plurality of preceding vehicles are traveling in the lane next to the driving lane of the own vehicle, the parallax obtained from the captured image is widely dispersed, so that the parallax of each object extends vertically on the layer U map. It may be concatenated and falsely detected as one object. However, by performing such a vertical separation process, the objects that are connected and detected can be separated and detected as a plurality of objects. That is, in the case of this example, the preceding vehicle traveling in front and the preceding vehicle traveling further ahead can be recognized separately.

このような縦方向分離処理を行うと、孤立領域検出部50は、図21のフローチャートのステップS143に処理を進め、オブジェクトの縦方向分離を行うことができたか否かを判別する。そして、オブジェクトの縦方向分離を行うことができたと判別した場合(ステップS143:Yes)、さらに分離できる可能性があるため、孤立領域検出部50は、ステップS134に処理を戻し、再度、縦方向分離処理を試みる。これに対して、オブジェクトの縦方向分離を行うことができなかったと判別した場合(ステップS143:No)、孤立領域検出部50は、ステップS139に処理を進め、縦方向分離処理により分離できないオブジェクトを、オブジェクト候補としてRAM15等の記憶部に登録する。 When such vertical separation processing is performed, the isolated area detection unit 50 proceeds to step S143 of the flowchart of FIG. 21 to determine whether or not the vertical separation of the objects can be performed. Then, when it is determined that the vertical direction separation of the objects can be performed (step S143: Yes), there is a possibility that the objects can be further separated. Therefore, the isolated area detection unit 50 returns the process to step S134 and again in the vertical direction. Attempt separation processing. On the other hand, when it is determined that the vertical separation of the objects could not be performed (step S143: No), the isolated area detection unit 50 proceeds to step S139 and selects the objects that cannot be separated by the vertical separation processing. , Is registered in a storage unit such as RAM 15 as an object candidate.

次に、図38のフローチャートに、孤立領域検出部50における上述の孤立領域検出処理の流れ、及び、検出された孤立領域に基づく、分類部51におけるオブジェクト認識処理の流れを示す。図38のフローチャートのステップS111〜ステップS116が、孤立領域検出部50における孤立領域検出処理の流れを示し、ステップS117〜ステップS127が、分類部51におけるオブジェクト認識処理の流れを示している。 Next, the flowchart of FIG. 38 shows the flow of the above-mentioned isolated area detection process in the isolated area detection unit 50 and the flow of the object recognition process in the classification unit 51 based on the detected isolated area. Steps S111 to S116 of the flowchart of FIG. 38 show the flow of the isolated area detection process in the isolated area detection unit 50, and steps S117 to S127 show the flow of the object recognition process in the classification unit 51.

なお、この図38のフローチャートの説明において、高さの閾値が60cm〜200cmに設定されたレイヤUマップを「LRUD_H」という。また、高さの閾値が150cm〜200cmに設定されたレイヤUマップを「LRUD_A」という。また、高さの閾値が200cm〜に設定されたレイヤUマップを「LRUD_T」という。 In the description of the flowchart of FIG. 38, the layer U map in which the height threshold value is set to 60 cm to 200 cm is referred to as “LRUD_H”. Further, the layer U map in which the height threshold value is set to 150 cm to 200 cm is referred to as "LRUD_A". Further, the layer U map in which the height threshold is set to 200 cm or more is called "LRUD_T".

まず、孤立領域検出部50は、ステップS111において、LRUD_Hのデータの二値化処理を行う。次に、孤立領域検出部50は、ステップS112において、二値化されたLRUD_Hに対してラベリング処理を施し、孤立領域の検出を行う。 First, the isolated region detection unit 50 performs a binarization process of the data of LRUD_H in step S111. Next, in step S112, the isolated region detection unit 50 performs a labeling process on the binarized LRUD_H to detect the isolated region.

同様に、孤立領域検出部50は、ステップS113において、LRUD_Aのデータの二値化を行い、ステップS114において、二値化されたLRUD_Aに対してラベリング処理を行い、孤立領域の検出を行う。また、孤立領域検出部50は、ステップS115において、LRUD_Tのデータの二値化処理を行い、ステップS116において、二値化されたLRUD_Tに対してラベリング処理を行い、孤立領域の検出を行う。 Similarly, in step S113, the isolated region detection unit 50 binarizes the data of LRUD_A, and in step S114, performs labeling processing on the binarized LRUD_A to detect the isolated region. Further, the isolated region detection unit 50 performs a binarization process of the data of LRUD_T in step S115, and performs a labeling process on the binarized LRUD_T in step S116 to detect the isolated region.

LRUD_Aの範囲(150cm〜200cm)は、LRUD_H(60cm〜200cm)の範囲に含まれている。このため、孤立領域検出部50は、LRUD_Aに対する二値化処理及びラベリング処理は、LRUD_Hで検出された孤立領域内に限定して処理を行う。これにより、重複した処理を省略して、二値化処理及びラベリング処理を高速化できる。 The range of LRUD_A (150 cm to 200 cm) is included in the range of LRUD_H (60 cm to 200 cm). Therefore, the isolated area detection unit 50 performs the binarization process and the labeling process for LRUD_A only within the isolated area detected by LRUD_H. As a result, duplicate processing can be omitted, and binarization processing and labeling processing can be speeded up.

ここまでの処理の具体例を説明する。図39は、撮像画像の一例である。この図39に示す撮像画像の場合、奥側に車両85の側面が写っており、手前左側に第1の人グループ86が、手前右側の奥寄りに第2の人グループ87が写っている。また、第2の人グループ87の右側に電柱93が写っている。 A specific example of the processing up to this point will be described. FIG. 39 is an example of a captured image. In the captured image shown in FIG. 39, the side surface of the vehicle 85 is shown on the back side, the first person group 86 is shown on the front left side, and the second person group 87 is shown on the front right side. In addition, the utility pole 93 is shown on the right side of the second person group 87.

車両85は、路面からの実高さが150cm以上200cm未満となっている。第1の人グループ86は、路面からの実高さが150cm未満の子供88、及び、路面からの実高さが150cm以上200cm未満の大人89のグループとなっている。また、第2の人グループ87は、路面からの実高さが150cm以上200cm未満の2人の大人91、92のグループとなっている。電柱93は、路面からの実高さが200cm以上となっている。 The actual height of the vehicle 85 from the road surface is 150 cm or more and less than 200 cm. The first person group 86 is a group of 88 children whose actual height from the road surface is less than 150 cm and 89 adults whose actual height from the road surface is 150 cm or more and less than 200 cm. The second person group 87 is a group of two adults 91 and 92 whose actual height from the road surface is 150 cm or more and less than 200 cm. The utility pole 93 has an actual height of 200 cm or more from the road surface.

閾値が60cm〜200cmに設定されたレイヤUマップに、図39の撮像画像に対応する視差画像を投票すると、図40に示すレイヤUマップとなる。閾値が60cm〜200cmの場合、上述の車両85、第1、第2の人グループ86、87及び電柱93が、それぞれ孤立領域として検出される。すなわち、第1、第2の人グループ86、87は、それぞれ複数の人(子供88、大人89、大人91、大人92)が存在するが、それぞれ連結した一塊の孤立領域として検出される。 When the parallax image corresponding to the captured image of FIG. 39 is voted on the layer U map whose threshold value is set to 60 cm to 200 cm, the layer U map shown in FIG. 40 is obtained. When the threshold value is 60 cm to 200 cm, the above-mentioned vehicle 85, first and second person groups 86, 87 and utility pole 93 are detected as isolated regions, respectively. That is, in the first and second person groups 86 and 87, although there are a plurality of people (children 88, adults 89, adults 91, adults 92), they are detected as a single isolated region connected to each other.

これに対して、図41は、閾値が150cm〜200cmに設定されたレイヤUマップに、図39の撮像画像に対応する視差画像を投票したレイヤUマップである。閾値が150cm〜200cmの場合、路面からの実高さが150cm未満の子供88はレイヤUマップ上に投票されない。このため、大人89のみが、孤立領域として検出される。また、第2の人グループ87において、大人91及び大人92は、路面からの高さが150cm以下の部分で接触している場合、大人91及び大人92を、それぞれ二つの孤立領域として検出できる。 On the other hand, FIG. 41 is a layer U map in which a parallax image corresponding to the captured image of FIG. 39 is voted on the layer U map whose threshold value is set to 150 cm to 200 cm. When the threshold is 150 cm to 200 cm, the child 88 whose actual height from the road surface is less than 150 cm is not voted on the layer U map. Therefore, only adult 89 is detected as an isolated region. Further, in the second person group 87, when the adult 91 and the adult 92 are in contact with each other at a portion where the height from the road surface is 150 cm or less, the adult 91 and the adult 92 can be detected as two isolated regions, respectively.

また、図42は、閾値が200cm以上に設定されたレイヤUマップに、図39の撮像画像に対応する視差画像を投票したレイヤUマップである。閾値が200cm以上の場合、電柱93のみが孤立領域として検出される。図40〜図42に示す各オブジェクトを重ね合わせると、図43に示すレイヤUマップとなる。左斜線の孤立領域が、閾値が60cm〜200cmに設定されたレイヤUマップから検出される孤立領域である。また、黒塗りの孤立領域が、閾値が150cm〜200cmに設定されたレイヤUマップから検出される孤立領域であり、左斜線の孤立領域が、閾値が200cm以上に設定されたレイヤUマップから検出される孤立領域である。 Further, FIG. 42 is a layer U map in which a parallax image corresponding to the captured image of FIG. 39 is voted on the layer U map whose threshold value is set to 200 cm or more. When the threshold value is 200 cm or more, only the utility pole 93 is detected as an isolated region. By superimposing the objects shown in FIGS. 40 to 42, the layer U map shown in FIG. 43 is obtained. The isolated region on the left diagonal line is the isolated region detected from the layer U map whose threshold value is set to 60 cm to 200 cm. Further, the black-painted isolated area is an isolated area detected from the layer U map whose threshold value is set to 150 cm to 200 cm, and the isolated area on the left diagonal line is detected from the layer U map whose threshold value is set to 200 cm or more. It is an isolated area to be.

次に、このような孤立領域の検出処理が完了すると、分類部51が、オブジェクトタイプの分類処理を行う。すなわち、孤立領域の検出処理が完了すると、図38のフローチャートの処理がステップS117に進む。ステップS117では、分類部51が、RAM15等の記憶部に記憶されているオブジェクト情報を参照し、LRUD_Hの孤立領域のオブジェクトの種類及びサイズを検出する。このオブジェクト情報は、表1及び表2に示す情報となっている。具体的には、一例として表1に示すように「幅1100mm未満、高さ2500mm未満、奥行き1000mm未満」のサイズのオブジェクトの種類は、オートバイ及び自転車として規定されている。同様に、「幅1100mm未満、高さ2500mm未満、奥行き1000mm以下」のサイズのオブジェクトの種類は、歩行者として規定されている。 Next, when the detection process of such an isolated region is completed, the classification unit 51 performs the object type classification process. That is, when the isolated region detection process is completed, the process of the flowchart of FIG. 38 proceeds to step S117. In step S117, the classification unit 51 refers to the object information stored in the storage unit such as the RAM 15, and detects the type and size of the object in the isolated area of LRUD_H. This object information is the information shown in Tables 1 and 2. Specifically, as shown in Table 1 as an example, the types of objects having a size of "width less than 1100 mm, height less than 2500 mm, depth less than 1000 mm" are defined as motorcycles and bicycles. Similarly, the type of object having a size of "width less than 1100 mm, height less than 2500 mm, depth 1000 mm or less" is defined as a pedestrian.

同様に、「幅1700mm未満、高さ1700mm未満、奥行き10000mm未満」のサイズのオブジェクトの種類は、小型車として規定されている。また、「幅1700mm未満、高さ2500mm未満、奥行き10000mm未満」のサイズのオブジェクトの種類は、普通車として規定されている。また、「幅3500mm未満、高さ3500mm未満、奥行き15000mm未満」のサイズのオブジェクトの種類は、トラック車両として規定されている。 Similarly, the type of object having a size of "less than 1700 mm in width, less than 1700 mm in height, less than 10000 mm in depth" is defined as a compact car. In addition, the type of object having a size of "width less than 1700 mm, height less than 2500 mm, depth less than 10000 mm" is defined as an ordinary vehicle. Further, the type of the object having the size of "width less than 3500 mm, height less than 3500 mm, depth less than 15000 mm" is defined as a truck vehicle.

Figure 0006753134
Figure 0006753134

また、歩行者の種類のオブジェクトにおいては、例えば表2に示すように「幅1200mm未満、高さ2000mm未満、奥行き1200mm未満」のオブジェクトは、大人の歩行者に規定されている。また、「幅1200mm未満、高さ1500mm未満、奥行き1200mm未満」のオブジェクトは、子供の歩行者に規定されている。また、「幅2500mm未満、高さ1500mm未満、奥行き2500mm未満」のオブジェクトは、付随物がある歩行者に規定されている。 Further, among pedestrian type objects, for example, as shown in Table 2, an object having a width of less than 1200 mm, a height of less than 2000 mm, and a depth of less than 1200 mm is defined as an adult pedestrian. In addition, an object having a width of less than 1200 mm, a height of less than 1500 mm, and a depth of less than 1200 mm is defined as a child pedestrian. In addition, an object having a width of less than 2500 mm, a height of less than 1500 mm, and a depth of less than 2500 mm is defined as a pedestrian with an accessory.

Figure 0006753134
Figure 0006753134

分類部51は、ステップS117において、路面からの実高さが60cm〜200cmの範囲のLRUD_Hの孤立領域は、表2に示した付随物を備えた歩行者サイズ未満であるか否かを判別する。付随物は、例えば図39に示す子供88である。通常、身長150cm〜200cmの範囲の大人89,91、92の孤立領域は、表2に示すように幅が1200mm以下である。これに対して、図39に示した第1の人グループ86のように、付随物である子供と手を繋いでいる大人の歩行者に対応する孤立領域は、表2に示すように幅が2500mm以下となる。 In step S117, the classification unit 51 determines whether or not the isolated region of LRUD_H having an actual height from the road surface in the range of 60 cm to 200 cm is smaller than the pedestrian size with the attachments shown in Table 2. .. Ancillary is, for example, the child 88 shown in FIG. Usually, the isolated areas of adults 89, 91, 92 in the height range of 150 cm to 200 cm have a width of 1200 mm or less as shown in Table 2. On the other hand, as in the first person group 86 shown in FIG. 39, the isolated area corresponding to the adult pedestrian holding hands with the child as an accessory has a width as shown in Table 2. It will be 2500 mm or less.

分類部51は、LRUD_H上の孤立領域が、付随物を備えた歩行者サイズ以上であると判別した場合(ステップS117:No)、処理をステップS120及びステップS121に進める。これに対して、LRUD_Hの孤立領域が歩行者サイズ未満であると判別した場合(ステップS117:Yes)、分類部51は、処理をステップS118に進める。 When the classification unit 51 determines that the isolated region on LRUD_H is larger than the size of a pedestrian with an accessory (step S117: No), the process proceeds to step S120 and step S121. On the other hand, when it is determined that the isolated region of LRUD_H is smaller than the pedestrian size (step S117: Yes), the classification unit 51 proceeds to the process in step S118.

ステップS118では、分類部51が、路面からの実高さが150cm〜200cmの範囲のLRUD_Aに現れている、LRUD_Hの孤立領域に相当する孤立領域のサイズは、表2に示す大人の歩行者サイズ以上であるか否かを判別する。図39に示す第1の人グループ86の子供88が身長150cm未満である場合(ステップS118:No)、図41に示すように路面からの実高さが150cm〜200cmの範囲のLRUD_Aには現れない。分類部51は、この場合、ステップS122に処理を進める。そして、分類部51は、歩行者サイズであり、かつ、LRUD_Aには現れない孤立領域のオブジェクトを、ステップS122において、身長150cm未満の子供の歩行者とするオブジェクトタイプの分類を行い、この分類情報を、孤立領域のオブジェクトに関連付けて、例えばRAM15等の記憶部に一旦登録する。 In step S118, the size of the isolated region corresponding to the isolated region of LRUD_H, in which the classification unit 51 appears in LRUD_A whose actual height from the road surface is in the range of 150 cm to 200 cm, is the adult pedestrian size shown in Table 2. It is determined whether or not it is the above. When the child 88 of the first person group 86 shown in FIG. 39 is less than 150 cm tall (step S118: No), it appears in LRUD_A in which the actual height from the road surface is in the range of 150 cm to 200 cm as shown in FIG. Absent. In this case, the classification unit 51 proceeds to step S122. Then, the classification unit 51 classifies the object of the isolated area which is pedestrian size and does not appear in LRUD_A as a pedestrian of a child with a height of less than 150 cm in step S122, and classifies the classification information. Is once registered in a storage unit such as a RAM 15 in association with an object in an isolated area.

また、LRUD_Aに現れている、LRUD_Hの孤立領域に相当する孤立領域のサイズは、表2に示す大人の歩行者サイズ以上と判別した場合(ステップS118:Yes)、分類部51は、ステップS119に処理を進める。ステップS119では、分類部51が、例えば図40に示す路面からの実高さが60cm〜200cmの範囲のLRUD_Hに現れている各孤立領域と、図42に示す路面からの実高さが200cm以上の範囲のLRUD_Tに現れている各孤立領域とを比較する。そして、分類部51は、LRUD_Hに現れている各孤立領域及びLRUD_Tに現れている各孤立領域で、位置が一致する孤立領域を検出する。 Further, when it is determined that the size of the isolated region corresponding to the isolated region of LRUD_H appearing in LRUD_A is equal to or larger than the adult pedestrian size shown in Table 2 (step S118: Yes), the classification unit 51 moves to step S119. Proceed with processing. In step S119, the classification unit 51 includes each isolated region appearing in LRUD_H whose actual height from the road surface shown in FIG. 40 is in the range of 60 cm to 200 cm, and the actual height from the road surface shown in FIG. 42 is 200 cm or more. Compare with each isolated region appearing in LRUD_T in the range of. Then, the classification unit 51 detects the isolated regions having the same positions in each isolated region appearing in LRUD_H and each isolated region appearing in LRUD_T.

例えば、図42に示す電柱93は、図40に示すLRUD_H上の孤立領域の位置と、図42に示すLRUD_T上の孤立領域の位置とが一致する(ステップS119:Yes)。このため、分類部51は、ステップS123において、LRUD_H上の孤立領域のオブジェクトを、例えば電柱93等の200cm以上のオブジェクトとするオブジェクトタイプの分類を行い、例えばRAM15等の記憶部に一旦登録する。 For example, in the utility pole 93 shown in FIG. 42, the position of the isolated region on LRUD_H shown in FIG. 40 coincides with the position of the isolated region on LRUD_T shown in FIG. 42 (step S119: Yes). Therefore, in step S123, the classification unit 51 classifies the object type in which the object in the isolated region on LRUD_H is an object of 200 cm or more such as a utility pole 93, and temporarily registers the object in a storage unit such as RAM 15.

これに対して、LRUD_Hに現れている孤立領域の位置と、LRUD_Tに現れている孤立領域の位置とが不一致ということは(ステップS119:No)、LRUD_Hに現れている孤立領域は、例えば図41に示す大人89、91、92のように、150cm〜200cmの範囲のオブジェクトであることを意味する。このため、分類部51は、ステップS124において、LRUD_H上のオブジェクトを、身長150cm以上の人間とするオブジェクトタイプの分類を行い、例えばRAM15等の記憶部に一旦登録する。 On the other hand, the fact that the position of the isolated region appearing in LRUD_H and the position of the isolated region appearing in LRUD_T do not match (step S119: No) means that the isolated region appearing in LRUD_H is, for example, FIG. 41. It means that the object is in the range of 150 cm to 200 cm, such as adults 89, 91, and 92 shown in. Therefore, in step S124, the classification unit 51 classifies the object type on the LRUD_H as a human being having a height of 150 cm or more, and temporarily registers the object in a storage unit such as the RAM 15.

一方、ステップS117で、LRUD_Hの孤立領域は、表1に示した付随物を備えた歩行者サイズ以上と判別することで、処理をステップS120に進めると、分類部51は、LRUD_H上で付随物を備えた歩行者サイズ以上のサイズと判別した孤立領域に相当するLRUD_A上の孤立領域は、表2に示す大人の歩行者サイズであるか否かを判別する。付随物を備えた歩行者の場合、子供の身長が150cm未満の場合、LRUD_A上には、身長が150cm以上の大人89の孤立領域のみが現れる。このため、分類部51は、LRUD_Hの孤立領域が付随物を備えた歩行者サイズ以上、かつ、対応するLRUD_A上の孤立領域が、大人の歩行者サイズである場合(ステップS120:Yes)、ステップS125において、LRUD_A上の孤立領域は、付随物を所持している歩行者として分類し、例えばRAM15等の記憶部に一旦登録する。 On the other hand, in step S117, when the isolated region of LRUD_H is determined to be equal to or larger than the pedestrian size with the attachments shown in Table 1, and the process proceeds to step S120, the classification unit 51 sees the attachments on LRUD_H. It is determined whether or not the isolated area on LRUD_A corresponding to the isolated area determined to be the size equal to or larger than the pedestrian size provided with is the adult pedestrian size shown in Table 2. In the case of a pedestrian with an accessory, if the child is less than 150 cm tall, only an isolated area of an adult 89 with a height of 150 cm or more appears on LRUD_A. Therefore, when the isolated region of LRUD_H is larger than the pedestrian size with an accessory and the isolated region on the corresponding LRUD_A is the adult pedestrian size (step S120: Yes), the classification unit 51 steps. In S125, the isolated region on LRUD_A is classified as a pedestrian carrying an accessory, and is temporarily registered in a storage unit such as RAM 15.

また、ステップS117で、LRUD_Hの孤立領域は、付随物を備えた歩行者サイズ以上であると判別することで(ステップS120:No)、処理をステップS121に進めると、分類部51は、LRUD_Aの孤立領域は、表2に示す子供の歩行者サイズ未満か否かを判別する。子供の歩行者サイズ未満であると判別した場合(ステップS121:Yes)、分類部51は、ステップS126に処理を進める。そして、分類部51は、ステップS126において、LRUD_Aの孤立領域は、例えばガードレール等の背が低く長いオブジェクトとするオブジェクトタイプの分類を行い、RAM15等の記憶部に一旦登録する。これに対して、子供の歩行者サイズ以上であると判別した場合(ステップS121:No)、分類部51は、ステップS127に処理を進め、LRUD_Aの孤立領域は、自転車、オートバイ、自動車、バス又はトラック等の人以上のサイズのオブジェクトとするオブジェクトタイプの分類を行い、RAM15等の記憶部に一旦登録する。 Further, in step S117, by determining that the isolated region of LRUD_H is equal to or larger than the size of a pedestrian with an accessory (step S120: No), when the process proceeds to step S121, the classification unit 51 of LRUD_A It is determined whether the isolated area is smaller than the pedestrian size of the child shown in Table 2. If it is determined that the size is smaller than the pedestrian size of the child (step S121: Yes), the classification unit 51 proceeds to step S126. Then, in step S126, the classification unit 51 classifies the object type in which the isolated area of LRUD_A is a short and long object such as a guardrail, and temporarily registers the isolated area in the storage unit such as the RAM 15. On the other hand, when it is determined that the size is larger than the pedestrian size of the child (step S121: No), the classification unit 51 proceeds to step S127, and the isolated area of LRUD_A is a bicycle, a motorcycle, a car, a bus, or a bus. The object type is classified into an object having a size larger than that of a person such as a truck, and temporarily registered in a storage unit such as a RAM 15.

このように分類部51は、各レイヤUマップにおける孤立領域の分布に基づいて、各孤立領域に対応するオブジェクトタイプを分類する。 In this way, the classification unit 51 classifies the object types corresponding to each isolated region based on the distribution of the isolated regions in each layer U map.

このようなオブジェクト分類動作の流れを再度説明すると、例えば図39に示す第1の人グループ86の場合、路面からの実高さが60cm〜200cmの範囲のレイヤUマップ(LRUD_H)において、図40に示すように歩行者サイズ以上の孤立領域として現れる。しかし、第1の人グループ86の場合、路面からの実高さが150cm〜200cmの範囲のレイヤUマップ上(LRUD_A)では、図41に示すように大人の歩行者サイズの孤立領域として現れる。このため、分類部51は、LRUD_H上の孤立領域において、人サイズより大きいサイズの孤立領域であり、LRUD_A上において、人サイズとなる孤立領域を、付随物を所持している歩行者として登録する(ステップS125)。 To explain the flow of such an object classification operation again, for example, in the case of the first person group 86 shown in FIG. 39, in the layer U map (LRUD_H) in which the actual height from the road surface is in the range of 60 cm to 200 cm, FIG. 40 As shown in, it appears as an isolated area larger than the size of a pedestrian. However, in the case of the first person group 86, on the layer U map (LRUD_A) in which the actual height from the road surface is in the range of 150 cm to 200 cm, it appears as an adult pedestrian-sized isolated region as shown in FIG. Therefore, the classification unit 51 registers the isolated area having a size larger than the human size in the isolated area on LRUD_H and the isolated area having a human size on LRUD_A as a pedestrian carrying an accessory. (Step S125).

一方、図39に示す第2の人グループ87の場合、LRUD_H上では、人サイズより大きなサイズの1つの孤立領域が、LRUD_A上では、人サイズとなる2つの孤立領域となる。このため、2つの孤立領域は、150cm以上のサイズの大人の歩行者としてそれぞれ登録される。車両は、LRUD_H及びLRUD_Aの双方において、人サイズより大きい孤立領域として検出されるため、人サイズ以上のオブジェクトとして登録される。また、図39に示す電柱93は、LRUD_H及びLRUD_Aの双方において、人サイズとなるが、200cm以上の範囲のレイヤUマップ(LRUD_T)上にも、孤立領域として存在するため、2m以上の高さをもつオブジェクトとして登録する。このようにレイヤUマップ内で検出された孤立領域を立体物候補として、それぞれのサイズや各レイヤ間(LRUD_H〜LRUD_T間)での対応関係からオブジェクトタイプを分類し、RAM15等に登録する。 On the other hand, in the case of the second person group 87 shown in FIG. 39, on LRUD_H, one isolated area having a size larger than the person size is formed, and on LRUD_A, there are two isolated areas having a person size. Therefore, each of the two isolated areas is registered as an adult pedestrian with a size of 150 cm or more. Since the vehicle is detected as an isolated area larger than the human size in both LRUD_H and LRUD_A, the vehicle is registered as an object larger than the human size. Further, the utility pole 93 shown in FIG. 39 is human-sized in both LRUD_H and LRUD_A, but is also present as an isolated region on the layer U map (LRUD_T) in a range of 200 cm or more, and therefore has a height of 2 m or more. Register as an object with. Using the isolated area detected in the layer U map as a three-dimensional object candidate in this way, the object types are classified according to their sizes and the correspondence between each layer (between LRUD_H and LRUD_T), and registered in the RAM 15 or the like.

すなわち、視差画像中におけるオブジェクトの実幅及び実高は、以下の数式で算出できる。 That is, the actual width and height of the object in the parallax image can be calculated by the following mathematical formulas.

実幅=オブジェクトまでの距離×(視差画像におけるオブジェクト領域の幅)/f
実高=オブジェクトまでの距離×(視差画像におけるオブジェクト領域の高さ)/f
Actual width = distance to object x (width of object area in parallax image) / f
Actual height = distance to object x (height of object area in parallax image) / f

また、レイヤUマップの矩形領域の最小視差dminと最大視差dmaxから、オブジェクトの奥行きも、以下の数式で算出できる。 Further, the depth of the object can also be calculated by the following formula from the minimum parallax dmin and the maximum parallax dmax in the rectangular area of the layer U map.

奥行き=BF×(1/(dmin−offset)−1/(dmax−offset)) Depth = BF × (1 / (dmin-offset) -1 / (dmax-offset))

分類部51は、これらの情報に基づいて、例えば表1に示す歩行者、自転車、小型車、トラック等のオブジェクトタイプの分類を行う。 Based on this information, the classification unit 51 classifies object types such as pedestrians, bicycles, compact cars, and trucks shown in Table 1, for example.

次に、レイヤUマップで検出した孤立領域を囲む矩形の幅は、検出したオブジェクトの幅、高さは検出したオブジェクトの奥行きに相当する。また、オブジェクトの高さは、レイヤUマップの高さの最大値である。図4に示す対応領域検出部52は、オブジェクトの正確な位置及び高さを検出するために、レイヤUマップで検出した孤立領域に対応する視差画像の対応領域を検出する。 Next, the width of the rectangle surrounding the isolated area detected by the layer U map corresponds to the width of the detected object, and the height corresponds to the depth of the detected object. The height of the object is the maximum height of the layer U map. The corresponding area detection unit 52 shown in FIG. 4 detects the corresponding area of the parallax image corresponding to the isolated area detected by the layer U map in order to detect the accurate position and height of the object.

すなわち、レイヤUマップで検出した孤立領域の位置、幅及び最小視差から、視差画像で検出すべき範囲(xmin、xmax)を決定できる。また、視差画像において、オブジェクトの高さ及び位置(ymin=最大視差dmaxの時の路面からの最大高さに相当するy座標から、ymax=最大視差dmaxから得られる路面の高さを示すyまで)を決定できる。対応領域検出部52は、オブジェクトの正確な位置を検出するため、設定した画像領域を走査し、孤立領域検出した矩形の奥行き(最小視差dmin、最大視差dmax)の範囲の値を視差に持つ画素を候補画素として抽出する。そして、対応領域検出部52は、抽出した候補画素群の中で、検出幅に対して横方向に所定の割合以上存在するラインを候補ラインとする。 That is, the range (xmin, xmax) to be detected in the parallax image can be determined from the position, width, and minimum parallax of the isolated region detected in the layer U map. Further, in the parallax image, from the y coordinate corresponding to the maximum height from the road surface at the time of ymin = maximum parallax dmax to y indicating the height of the road surface obtained from ymax = maximum parallax dmax. ) Can be determined. The corresponding area detection unit 52 scans the set image area in order to detect the accurate position of the object, and has a parallax value in the range of the depth (minimum parallax dm, maximum parallax dmax) of the rectangle detected in the isolated area. Is extracted as a candidate pixel. Then, the corresponding area detection unit 52 sets a line existing in a predetermined ratio or more in the lateral direction with respect to the detection width in the extracted candidate pixel group as a candidate line.

候補ラインが存在する領域は、例えば図44に示すように、車両77、79を囲む矩形111、112となる。次に、対応領域検出部52は、縦方向走査を行い、注目しているラインの周囲に候補ラインが所定の密度以上存在する場合に、その注目ラインをオブジェクトラインとして検出する。 The area where the candidate line exists is, for example, as shown in FIG. 44, the rectangles 111 and 112 surrounding the vehicles 77 and 79. Next, the corresponding area detection unit 52 performs vertical scanning, and when there are candidate lines having a density equal to or higher than a predetermined density around the line of interest, the corresponding area detection unit 52 detects the line of interest as an object line.

次に、図4に示す領域抽出部53は、視差画像の探索領域でオブジェクトラインを検出し、オブジェクトラインの最下端及び最上端を決定する。そして、領域抽出部53は、図45に示すようにオブジェクトライン群の外接矩形111、112を視差画像におけるオブジェクト領域として決定する。 Next, the area extraction unit 53 shown in FIG. 4 detects the object line in the search area of the parallax image, and determines the lowermost end and the uppermost end of the object line. Then, the area extraction unit 53 determines the circumscribed rectangles 111 and 112 of the object line group as the object area in the parallax image as shown in FIG. 45.

図46のフローチャートに、対応領域検出部52及び領域抽出部53における、視差画像の対応領域検出処理の流れを示す。まず、ステップS171において、対応領域検出部52が、レイヤUマップの孤立領域の位置、幅及び最小視差から、視差画像内のxの探索範囲を決定する。次にステップS172において、対応領域検出部52が、孤立領域の最大視差dmax及び路面高さの関係から、y方向の最大探索値ymaxを求める。次に、ステップS173では、対応領域検出部52が、レイヤUマップの孤立領域の最大高さ、ymax及びdmaxから、最小探索値yminを求める。 The flowchart of FIG. 46 shows the flow of the corresponding area detection process of the parallax image in the corresponding area detection unit 52 and the area extraction unit 53. First, in step S171, the corresponding region detection unit 52 determines the search range of x in the parallax image from the position, width, and minimum parallax of the isolated region of the layer U map. Next, in step S172, the corresponding region detection unit 52 obtains the maximum search value ymax in the y direction from the relationship between the maximum parallax dmax of the isolated region and the road surface height. Next, in step S173, the corresponding region detection unit 52 obtains the minimum search value ymin from the maximum heights, ymax and dmax of the isolated region of the layer U map.

次に、対応領域検出部52は、ステップS174において、設定した探索範囲で視差画像を探索し、孤立領域の最小視差dminから最大視差dmaxの範囲内にある画素を抽出し、オブジェクト候補画素とする。ステップS175では、対応領域検出部52が、オブジェクト候補画素が横方向に一定の割合以上存在するラインを、オブジェクト候補ラインとして抽出する。ステップS176では、対応領域検出部52が、オブジェクト候補ラインの密度を計算し、所定の値より大きい密度のラインを、オブジェクトラインと決定する。ステップS177では、領域抽出部53が、オブジェクトライン群の外接矩形を視差画像内のオブジェクト領域として検出する。 Next, in step S174, the corresponding area detection unit 52 searches for a parallax image in the set search range, extracts pixels within the range of the maximum parallax dmax from the minimum parallax dm in the isolated region, and uses them as object candidate pixels. .. In step S175, the corresponding area detection unit 52 extracts a line in which the object candidate pixels exist in a certain ratio or more in the horizontal direction as an object candidate line. In step S176, the corresponding area detection unit 52 calculates the density of the object candidate line, and determines a line having a density higher than a predetermined value as an object line. In step S177, the area extraction unit 53 detects the circumscribed rectangle of the object line group as the object area in the parallax image.

次に、図4に示す3次元位置決定部54は、視差の情報からオブジェクトまでの距離、視差画像の画像中心と視差画像上のオブジェクトの領域中心までの画像上の距離に基づいて、オブジェクトの3次元位置を決定する。具体的には、3次元位置決定部54は、視差画像上のオブジェクトの領域の中心座標を(region_centerX、region_centerY)とし、視差画像の画像中心座標を(image_centerX、image_centerY)とし、オブジェクトの撮像ユニット2に対する相対的な横位置及び高さ位置を、以下の数式の演算を行うことで算出する。 Next, the three-dimensional positioning unit 54 shown in FIG. 4 is based on the distance from the parallax information to the object, and the distance on the image from the image center of the parallax image to the area center of the object on the parallax image. Determine the three-dimensional position. Specifically, the three-dimensional positioning unit 54 sets the center coordinates of the area of the object on the parallax image as (region_centerX, region_centerY), the image center coordinates of the parallax image as (image_centerX, image_centerY), and the image pickup unit 2 of the object. The horizontal position and the height position relative to the above are calculated by performing the following mathematical expressions.

横位置=Z×(region_centerX−image_centerX)/f
高さ位置=Z×(region_centerY−image_centerY)/f
Horizontal position = Z × (region_centerX-image_centerX) / f
Height position = Z × (region_centerY-image_centerY) / f

以上の説明から明らかなように、実施の形態の移動体制御システムは、オブジェクトの路面からの高さ情報に基づく層構造で、複数のレイヤUマップを作成する。換言すると、実施の形態の移動体制御システムは、撮像ユニット2から得られた視差画像上の視差点を路面からの実高さに基づいて、それぞれ異なる高さに設定された層構造のレイヤUマップに視差画像内の視差点を投票し、各レイヤUマップ内の2次元平面でグルーピング処理を行い、それぞれの結果を用いてグルーピング結果の統合又は分離を行う。 As is clear from the above description, the mobile control system of the embodiment creates a plurality of layer U maps with a layer structure based on height information from the road surface of the object. In other words, in the moving body control system of the embodiment, the layer U having a layer structure in which the disparity points on the disparity image obtained from the imaging unit 2 are set to different heights based on the actual height from the road surface. The parallax points in the parallax image are voted on the map, the grouping process is performed on the two-dimensional plane in each layer U map, and the grouping results are integrated or separated using the respective results.

路面検出処理の誤検出、視差補間処理の副作用又は視差の分散の影響により、レイヤUマップからオブジェクトを検出する際、複数のオブジェクトが連結されて一つのオブジェクトとして誤検出する不都合を生じていた。 Due to the erroneous detection of the road surface detection process, the side effect of the parallax interpolation process, or the influence of the dispersion of the parallax, when an object is detected from the layer U map, a plurality of objects are concatenated and erroneously detected as one object.

しかし、実施の形態の移動体制御システムの場合、路面からの実高さ情報を用いているため、連結されたオブジェクトを分割し、個々のオブジェクトとして正しい大きさ、位置及び距離で検出できる。これにより、高精度かつ高速なオブジェクト検出を行うことができる。特に、人間は、精度良く検出できる。従って、車載ステレオカメラ(撮像ユニット2)を利用して、高精度の車両制御を行うことができる。 However, in the case of the moving body control system of the embodiment, since the actual height information from the road surface is used, the connected objects can be divided and detected as individual objects with the correct size, position and distance. As a result, highly accurate and high-speed object detection can be performed. In particular, humans can detect it with high accuracy. Therefore, the vehicle-mounted stereo camera (imaging unit 2) can be used to perform highly accurate vehicle control.

上述の実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。実施の形態および各実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 The embodiments described above are presented as examples and are not intended to limit the scope of the invention. This novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The embodiments and modifications of each embodiment are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalent scope thereof.

1 車両
2 撮像ユニット
3 解析ユニット
4 制御ユニット
5 表示部
10A 撮像部
10B 撮像部
11A 撮像レンズ
11B 撮像レンズ
12A 画像センサ
12B 画像センサ
13A コントローラ
13B コントローラ
14 FPGA
15 RAM
16 ROM
17 CPU
18 シリアルインタフェース(シリアルIF)
19 データIF
20 シリアルバスライン
21 データバスライン
41 平行化画像生成部
42 視差画像生成部
45 Vマップ生成部
46 路面形状検出部
47 リスト生成部
48 Uマップ生成部
49 レイヤUマップ生成部
50 孤立領域検出部
51 分類部
52 対応領域検出部
53 領域抽出部
54 3次元位置決定部
60 路面のオブジェクト
61 車両のオブジェクト
62 電柱のオブジェクト
71 視差分割路面候補点検出部
72 区分直線近似部
73 区分近似直線連続化部
74 直線補正部
75 補正点検出部
77 車両のオブジェクト
79 車両のオブジェクト
81 ガードレールのオブジェクト
82 ガードレールのオブジェクト
83 人間のオブジェクト
84 人間のオブジェクト
85 車両のオブジェクト
86 第1の人グループ
87 第2の人グループ
88 子供のオブジェクト
89 大人のオブジェクト
91 大人のオブジェクト
92 大人のオブジェクト
93 電柱のオブジェクト
1 Vehicle 2 Imaging unit 3 Analysis unit 4 Control unit 5 Display 10A Imaging unit 10B Imaging unit 11A Imaging lens 11B Imaging lens 12A Image sensor 12B Image sensor 13A controller 13B controller 14 FPGA
15 RAM
16 ROM
17 CPU
18 Serial interface (serial IF)
19 Data IF
20 Serial bus line 21 Data bus line 41 Parallelized image generation unit 42 Disparity image generation unit 45 V map generation unit 46 Road surface shape detection unit 47 List generation unit 48 U map generation unit 49 Layer U map generation unit 50 Isolated area detection unit 51 Classification unit 52 Corresponding area detection unit 53 Area extraction unit 54 Three-dimensional positioning unit 60 Road surface object 61 Vehicle object 62 Electric pole object 71 Disparity division road surface candidate point detection unit 72 Division straight line approximation unit 73 Division approximation straight line continuation unit 74 Straight line correction unit 75 Correction point detection unit 77 Vehicle object 79 Vehicle object 81 Guard rail object 82 Guard rail object 83 Human object 84 Human object 85 Vehicle object 86 First person group 87 Second person group 88 Children Object 89 Adult Object 91 Adult Object 92 Adult Object 93 Electric Pillar Object

特開2014−096005号公報JP-A-2014-096005 国際公開第2012/017650号International Publication No. 2012/017650

Claims (8)

画素毎に距離情報を備えた距離画像から、オブジェクトの高さの基準とする基準オブジェクトを検出する基準検出部と、
前記基準オブジェクトからの高さ範囲を、それぞれ異なる高さ範囲に設定した複数のマップのうち、前記距離画像の各画素における前記基準オブジェクトからの高さに対応する高さ範囲の前記マップに対して、前記各画素の距離情報を投票するマップ生成部と、
前記各マップから、前記距離情報の集合領域を検出する集合検出部と、
前記各マップにおける前記集合領域の分布に基づいて、前記集合領域のオブジェクトの種類を分類する分類部と、を備え、
前記マップ生成部は、前記距離画像上のオブジェクトとの間の実距離を横軸とし、前記距離画像の距離情報を縦軸として生成した2次元ヒストグラムを、前記マップとして生成すること
を特徴とする画像処理装置。
A reference detector that detects a reference object that serves as a reference for the height of an object from a distance image that has distance information for each pixel.
Of a plurality of maps in which the height range from the reference object is set to different height ranges, with respect to the map having a height range corresponding to the height from the reference object in each pixel of the distance image. , A map generator that votes for the distance information of each pixel,
From each of the maps, a set detection unit that detects the set area of the distance information and
A classification unit for classifying the types of objects in the set area based on the distribution of the set area in each map is provided.
The map generation unit generates a two-dimensional histogram generated with the actual distance between the object on the distance image as the horizontal axis and the distance information of the distance image as the vertical axis as the map.
An image processing device characterized by .
前記分類部は、各オブジェクトの予め設定された基準サイズと前記集合領域のサイズとの比較結果、及び、前記各マップにおける前記集合領域の分布に基づいて、前記集合領域のオブジェクトの種類を分類すること
を特徴とする請求項1に記載の画像処理装置。
The classification unit classifies the types of objects in the set area based on the comparison result between the preset reference size of each object and the size of the set area, and the distribution of the set area in each map. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized in that.
前記マップ生成部は、対象となる高さの範囲がオーバーラップした前記マップを作成することThe map generation unit creates the map in which the target height ranges overlap.
を特徴とする請求項1又は請求項2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2.
前記距離画像は視差画像であり、
前記距離情報は、前記実距離に応じて間引き処理された視差値である間引き視差であること
を特徴とする請求項1から請求項3のうち、いずれか一項に記載の画像処理装置。
The distance image is a parallax image and is
The image processing apparatus according to any one of claims 1 to 3, wherein the distance information is a thinned-out parallax, which is a parallax value thinned out according to the actual distance.
請求項1乃至4のいずれか一項に記載の画像処理装置と、
複数の撮像装置と、
前記複数の撮像装置により撮像された複数の画像から視差画像を生成する視差画像生成部と、を備え、
前記画像処理装置は、前記視差画像生成部が生成する視差画像に基づいてオブジェクトの種類の分類を行うこと
を特徴とする撮像装置。
The image processing apparatus according to any one of claims 1 to 4.
With multiple imaging devices
A parallax image generation unit that generates a parallax image from a plurality of images captured by the plurality of image pickup devices is provided.
The image processing device is an imaging device characterized in that it classifies the types of objects based on the parallax image generated by the parallax image generation unit.
請求項5に記載の撮像装置を備え、
分類された前記オブジェクトの種類に基づいて機器の制御を行う
移動体機器制御システム。
The imaging device according to claim 5 is provided.
A mobile device control system that controls devices based on the types of the classified objects.
基準検出部が、画素毎に距離情報を備えた距離画像から、オブジェクトの高さの基準とする基準オブジェクトを検出する基準検出ステップと、
マップ生成部が、前記基準オブジェクトからの高さ範囲を、それぞれ異なる高さ範囲に設定した複数のマップのうち、前記距離画像の各画素における前記基準オブジェクトからの高さに対応する高さ範囲の前記マップに対して、前記各画素の距離情報を投票するマップ生成ステップと、
集合検出部が、前記各マップから、前記距離情報の集合領域を検出する集合検出ステップと、
分類部が、前記各マップにおける前記集合領域の分布に基づいて、前記集合領域のオブジェクトの種類を分類する分類ステップと、を備え、
前記マップ生成ステップでは、前記距離画像上のオブジェクトとの間の実距離を横軸とし、前記距離画像の距離情報を縦軸として生成した2次元ヒストグラムを、前記マップとして生成すること
を特徴とする画像処理方法。
A reference detection step in which the reference detection unit detects a reference object as a reference for the height of an object from a distance image having distance information for each pixel.
Of a plurality of maps in which the map generation unit sets the height range from the reference object to different height ranges, the height range corresponding to the height from the reference object in each pixel of the distance image. A map generation step for voting the distance information of each pixel with respect to the map,
A set detection step in which the set detection unit detects a set area of the distance information from each of the maps,
The classification unit includes a classification step of classifying the types of objects in the set area based on the distribution of the set area in each map .
In the map generation step, a two-dimensional histogram generated with the actual distance to the object on the distance image as the horizontal axis and the distance information of the distance image as the vertical axis is generated as the map.
An image processing method characterized by .
コンピュータを、
画素毎に距離情報を備えた距離画像から、オブジェクトの高さの基準とする基準オブジェクトを検出する基準検出部と、
前記基準オブジェクトからの高さ範囲を、それぞれ異なる高さ範囲に設定した複数のマップのうち、前記距離画像の各画素における前記基準オブジェクトからの高さに対応する高さ範囲の前記マップに対して、前記各画素の距離情報を投票するマップ生成部と、
前記各マップから、前記距離情報の集合領域を検出する集合検出部と、
前記各マップにおける前記集合領域の分布に基づいて、前記集合領域のオブジェクトの種類を分類する分類部として機能させ、
前記マップ生成部は、前記距離画像上のオブジェクトとの間の実距離を横軸とし、前記距離画像の距離情報を縦軸として生成した2次元ヒストグラムを、前記マップとして生成すること
を特徴とする画像処理プログラム。
Computer,
A reference detector that detects a reference object that serves as a reference for the height of an object from a distance image that has distance information for each pixel.
Of a plurality of maps in which the height range from the reference object is set to different height ranges, with respect to the map having a height range corresponding to the height from the reference object in each pixel of the distance image. , A map generator that votes for the distance information of each pixel,
From each of the maps, a set detection unit that detects the set area of the distance information and
Based on the distribution of the set area in each map, it functions as a classification unit for classifying the types of objects in the set area .
The map generation unit is characterized in that a two-dimensional histogram generated with the actual distance between the object on the distance image as the horizontal axis and the distance information of the distance image as the vertical axis is generated as the map. Image processing program.
JP2016093441A 2015-07-07 2016-05-06 Image processing device, imaging device, mobile device control system, image processing method, and image processing program Active JP6753134B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP16178187.7A EP3115933B1 (en) 2015-07-07 2016-07-06 Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015136544 2015-07-07
JP2015136544 2015-07-07

Publications (2)

Publication Number Publication Date
JP2017021780A JP2017021780A (en) 2017-01-26
JP6753134B2 true JP6753134B2 (en) 2020-09-09

Family

ID=57889702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016093441A Active JP6753134B2 (en) 2015-07-07 2016-05-06 Image processing device, imaging device, mobile device control system, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6753134B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6805534B2 (en) 2015-07-02 2020-12-23 株式会社リコー Parallax image generator, parallax image generation method and parallax image generation program, object recognition device, device control system
EP3416132B1 (en) 2016-02-08 2021-06-16 Ricoh Company, Ltd. Image processing device, object recognition device, device control system, and image processing method and program
JP2019160248A (en) * 2018-03-16 2019-09-19 株式会社リコー Information processing device, system, mobile body, information processing method and program
CN112513870A (en) * 2018-08-08 2021-03-16 索博客科技有限公司 System and method for detecting, tracking and counting human objects of interest with improved altimetry
JP7306139B2 (en) * 2019-07-30 2023-07-11 株式会社リコー Image processing device, object recognition device, device control system, image processing method and program
JP7483790B2 (en) * 2022-05-19 2024-05-15 キヤノン株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, MOBILE BODY, AND COMPUTER PROGRAM

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3669205B2 (en) * 1999-05-17 2005-07-06 日産自動車株式会社 Obstacle recognition device
JP4341564B2 (en) * 2005-02-25 2009-10-07 株式会社豊田中央研究所 Object judgment device
JP5127182B2 (en) * 2006-08-14 2013-01-23 富士重工業株式会社 Object detection device
JP6151150B2 (en) * 2013-10-07 2017-06-21 日立オートモティブシステムズ株式会社 Object detection device and vehicle using the same

Also Published As

Publication number Publication date
JP2017021780A (en) 2017-01-26

Similar Documents

Publication Publication Date Title
JP6519262B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
JP6550881B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP6657789B2 (en) Image processing device, imaging device, device control system, frequency distribution image generation method, and program
JP6274557B2 (en) Moving surface information detection apparatus, moving body device control system using the same, and moving surface information detection program
JP6340850B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP6705496B2 (en) Image processing device, imaging device, mobile device control system, mobile device, image processing method, and program
JP6376429B2 (en) Target point arrival detection device, target point arrival detection program, mobile device control system, and mobile
EP3115933B1 (en) Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
JP6702340B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6150164B2 (en) Information detection apparatus, mobile device control system, mobile object, and information detection program
JP6583527B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
WO2015147764A1 (en) A method for vehicle recognition, measurement of relative speed and distance with a single camera
JP6705497B2 (en) Image processing device, imaging device, mobile device control system, image processing method, program, and mobile device
JP7091686B2 (en) 3D object recognition device, image pickup device and vehicle
WO2017047282A1 (en) Image processing device, object recognition device, device control system, image processing method, and program
JP6340849B2 (en) Image processing apparatus, image processing method, image processing program, and mobile device control system
JP2016206801A (en) Object detection device, mobile equipment control system and object detection program
JP2018085059A (en) Information processing device, imaging apparatus, device control system, information processing method and program
JP2022152922A (en) Electronic apparatus, movable body, imaging apparatus, and control method for electronic apparatus, program, and storage medium
JP7062904B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
JP2018088237A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program
Xie Lane Departure and Front Collision Warning System Using Monocular and Stereo Vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200803

R151 Written notification of patent or utility model registration

Ref document number: 6753134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151