JP5666726B2 - Vehicle detection device - Google Patents

Vehicle detection device Download PDF

Info

Publication number
JP5666726B2
JP5666726B2 JP2014022126A JP2014022126A JP5666726B2 JP 5666726 B2 JP5666726 B2 JP 5666726B2 JP 2014022126 A JP2014022126 A JP 2014022126A JP 2014022126 A JP2014022126 A JP 2014022126A JP 5666726 B2 JP5666726 B2 JP 5666726B2
Authority
JP
Japan
Prior art keywords
lamp
candidate
pixel
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014022126A
Other languages
Japanese (ja)
Other versions
JP2014135062A (en
Inventor
齋藤 徹
徹 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2014022126A priority Critical patent/JP5666726B2/en
Publication of JP2014135062A publication Critical patent/JP2014135062A/en
Application granted granted Critical
Publication of JP5666726B2 publication Critical patent/JP5666726B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両検出装置に係り、特に、位置検出手段により得られた位置データに基づいて先行車両等の車両を検出する車両検出装置に関する。   The present invention relates to a vehicle detection device, and more particularly to a vehicle detection device that detects a vehicle such as a preceding vehicle based on position data obtained by position detection means.

近年、CCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラ等の撮像手段で撮像した画像の画像解析やレーダ装置から発射された電波やレーザビームの反射波解析等により、例えばそれらの撮像手段や装置を搭載した車両の周囲に存在する車両等を検出する車両検出装置の開発が進められている(例えば特許文献1等参照)。   In recent years, for example, by image analysis of an image captured by an imaging means such as a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera, analysis of reflected waves of radio waves or laser beams emitted from a radar device, etc. Development of a vehicle detection device that detects a vehicle or the like existing around a vehicle on which an imaging unit or device is mounted is underway (see, for example, Patent Document 1).

車両を含む物体の検出の手法としては、例えば一対のカメラ等の撮像手段で周囲を同時に撮像して得られた一対の画像に対してステレオマッチング処理等を施して各画素ごとに視差の情報を算出して物体までの距離を算出したり、レーダ装置から電波を照射し、その反射波を解析して物体までの距離を検出し、得られた距離の情報等に基づいて実空間上の物体の位置を把握することで、実空間上に物体を検出することができる。   As a method for detecting an object including a vehicle, for example, a stereo matching process is performed on a pair of images obtained by simultaneously imaging the surroundings with an imaging unit such as a pair of cameras, and parallax information is obtained for each pixel. Calculate the distance to the object, radiate radio waves from the radar device, analyze the reflected wave to detect the distance to the object, and based on the obtained distance information etc. By grasping the position of the object, an object can be detected in the real space.

例えば特許文献1に記載された手法では、例えば図18に示すような画像Tが撮像されるシーンにおいて、撮像された画像Tを含む一対の画像に対してステレオマッチング処理を行うと、画像Tの各画素ブロックごとに視差の情報が得られるが、その視差の情報やそれから算出される距離の情報を各画素ブロックに割り当てると、図19に示すように視差や距離の情報を画像状に表すことができる。以下、この視差や距離の情報が画像状に表されたものを距離画像Tzという。   For example, in the technique described in Patent Document 1, for example, when a stereo matching process is performed on a pair of images including the captured image T in a scene where the image T as illustrated in FIG. Disparity information is obtained for each pixel block, but when the disparity information and distance information calculated therefrom are assigned to each pixel block, the disparity and distance information is represented in an image form as shown in FIG. Can do. Hereinafter, the parallax and distance information represented in an image form is referred to as a distance image Tz.

また、レーダ装置から照射した電波の反射波を解析して距離を検出し、その距離が検出された方位に距離のデータを当てはめて画像状に表した場合にも、図19に示した距離画像Tzと同様の画像状のデータが得られる。以下、距離画像Tzという場合、レーダ装置を用いて検出された距離のデータを画像状に並べたものも含むものとする。   Further, when the distance is detected by analyzing the reflected wave of the radio wave emitted from the radar device, and the distance data is applied to the direction in which the distance is detected and displayed in an image form, the distance image shown in FIG. Image-like data similar to Tz is obtained. Hereinafter, the term “distance image Tz” includes an image in which distance data detected using a radar device is arranged in an image.

そして、このようにして得られた距離画像Tzを、例えば図20に示すように所定の画素幅で縦方向に延在する短冊状の区分Dnに分割し、各区分Dnごとに、図21に示すようなヒストグラムHnを作成し、当該区分Dnに属する視差dpや距離Zの情報を投票する。そして、例えば各ヒストグラムHnにおける最頻値が属する階級の階級値を当該区分Dnにおける物体の代表視差dpnや代表距離Znとする。これを全区分Dnについて行い、各区分Dnごとに代表視差dpnや代表距離Znを算出する。   Then, the distance image Tz obtained in this way is divided into strip-shaped sections Dn extending in the vertical direction with a predetermined pixel width, for example, as shown in FIG. 20, and each section Dn is shown in FIG. A histogram Hn as shown is created, and information on the parallax dp and the distance Z belonging to the section Dn is voted. For example, the class value of the class to which the mode value in each histogram Hn belongs is set as the representative parallax dpn and the representative distance Zn of the object in the section Dn. This is performed for all sections Dn, and the representative parallax dpn and the representative distance Zn are calculated for each section Dn.

なお、視差dpと距離Zとの関係は、以下のように対応づけられる。すなわち、一対のカメラ等の撮像手段を用いた画像解析において、一対の撮像手段の中央真下の地面等の基準面上の点を原点とし、距離方向すなわち撮像手段正面の無限遠点に向かう方向にZ軸をとり、左右方向および上下方向にそれぞれX軸およびY軸をとった場合の実空間上の点(X,Y,Z)と、上記の視差dp、距離画像TZ上の画素の座標(i,j)とは、三角測量の原理に基づいて、
X=CD/2+Z×PW×(i−IV) …(1)
Y=CH+Z×PW×(j−JV) …(2)
Z=CD/(PW×(dp−DP)) …(3)
で表される座標変換により1対1に対応づけることができる。
Note that the relationship between the parallax dp and the distance Z is associated as follows. That is, in image analysis using an imaging means such as a pair of cameras, the origin is a point on the reference surface such as the ground directly below the center of the pair of imaging means, and the distance direction, that is, the direction toward the infinity point in front of the imaging means. take the Z-axis, a point in the real space in the case of taking the X-axis and Y-axis along the horizontal direction and the vertical direction (X, Y, Z) and the coordinates of pixels on the parallax dp, distance image T Z (I, j) is based on the principle of triangulation,
X = CD / 2 + Z * PW * (i-IV) (1)
Y = CH + Z × PW × (j−JV) (2)
Z = CD / (PW × (dp−DP)) (3)
It is possible to make a one-to-one correspondence by coordinate transformation represented by

なお、上記各式において、CDは一対の撮像手段の間隔、PWは1画素当たりの視野角、CHは一対の撮像手段の取り付け高さ、IVおよびJVは正面の無限遠点の距離画像TZ上のi座標およびj座標、DPは消失点視差を表す。また、代表視差dpnは上記(3)式に基づいて代表距離Znと1対1に対応づけられる。 In the above equations, CD is the distance between the pair of imaging means, PW is the viewing angle per pixel, CH is the mounting height of the pair of imaging means, and IV and JV are distance images T Z at the infinity point on the front. Upper i-coordinate and j-coordinate, and DP represent vanishing point parallax. The representative parallax dpn is associated with the representative distance Zn on a one-to-one basis based on the above equation (3).

上記のようにして距離画像Tzを縦方向に延在する短冊状の区分Dnに分割することは、実空間上に置き換えた場合、図22の平面図に示すように、自車両に搭載された撮像手段Aによる実空間上の撮像領域Rを上下方向に延在する複数の区分空間Snに分割することに対応する。   When the distance image Tz is divided into strip-shaped sections Dn extending in the vertical direction as described above, when replaced in real space, the distance image Tz is mounted on the host vehicle as shown in the plan view of FIG. This corresponds to dividing the imaging region R in the real space by the imaging means A into a plurality of partitioned spaces Sn extending in the vertical direction.

また、レーダ装置においても同様である。すなわち、図22における装置Aをレーダ装置、領域Rをレーダ装置による実空間上の電波の照射領域と見れば、距離画像Tzを縦方向に延在する短冊状の区分Dnに分割することはレーダ装置Aによる実空間上の照射領域Rを上下方向に延在する複数の区分空間Snに分割することに対応する。   The same applies to the radar apparatus. That is, if the device A in FIG. 22 is viewed as a radar device and the region R is an irradiation region of radio waves in real space by the radar device, dividing the distance image Tz into strip-shaped sections Dn extending in the vertical direction is a radar. This corresponds to dividing the irradiation area R in the real space by the apparatus A into a plurality of partitioned spaces Sn extending in the vertical direction.

そして、実空間上の各区分空間Snに、当該区分空間Snに対応する距離画像Tzの区分Dnにおける代表距離Zn(算出された代表視差dpnに1対1に対応づけられる代表距離Zn)をプロットすると、各代表距離Znは、例えば図23に示すようにプロットされる。なお、実際には、区分Dnの数に応じて図23に示した以上に多数の点が細かくプロットされる。   Then, the representative distance Zn in the section Dn of the distance image Tz corresponding to the section space Sn (representative distance Zn correlated one-to-one with the calculated representative parallax dpn) is plotted in each section space Sn in the real space. Then, each representative distance Zn is plotted as shown in FIG. 23, for example. Actually, more points than those shown in FIG. 23 are plotted finely according to the number of sections Dn.

そして、図24に示すように、例えばプロットされた各代表距離Znをそれらの間の距離や方向性(すなわち左右方向(すなわちX軸方向)に延在するか距離方向(すなわちZ軸方向)に延在するか)に基づいて互いに隣接する各点をそれぞれグループG1、G2、G3、…にまとめてグループ化し、図25に示すように、各グループに属する各点をそれぞれ直線近似することで、物体を検出することができる。   Then, as shown in FIG. 24, for example, the plotted representative distances Zn extend in the distance and directionality between them (that is, in the left-right direction (that is, the X-axis direction) or in the distance direction (that is, the Z-axis direction). Each of the points adjacent to each other are grouped together into groups G1, G2, G3,... And each point belonging to each group is linearly approximated as shown in FIG. An object can be detected.

なお、その際、例えば略左右方向に延在するグループOと略距離方向に延在するグループSとが共通のコーナー点Cを有する場合には同一の物体とする等して、検出した物体の統合、分離等を行う。   In this case, for example, when the group O extending in the substantially left-right direction and the group S extending in the substantially distance direction have a common corner point C, the same object is used. Perform integration, separation, etc.

また、例えば、撮像手段で撮像した画像の画像解析で物体を検出する場合には、上記のように距離画像Tzに基づいて検出された各物体を、図26に示すように、撮像手段で撮像された元の画像T上にそれぞれ矩形状の枠線で包囲するようにして、検出結果を画像T上に可視化することができる。このようにして、車両を含む各物体を検出することが可能となる。   Further, for example, when an object is detected by image analysis of an image captured by the imaging unit, each object detected based on the distance image Tz as described above is captured by the imaging unit as shown in FIG. The detection result can be visualized on the image T by surrounding the original image T with a rectangular frame line. In this way, each object including the vehicle can be detected.

また、例えば特許文献2では、2台の車両の位置が接近した場合に、異なる車両を誤って1台の車両として検出しない手法として、上記のような視差や距離の情報を用いずに、画像中のウィンカランプ、ブレーキランプに相当する領域を見出し、車両後部のウィンカランプ位置及びブレーキランプ位置が車両によらずほぼ一定間隔であることを理由にその位置関係から前方の車両を認識する手法が提案されている。   In addition, for example, in Patent Document 2, as a method of not detecting different vehicles as one vehicle by mistake when the positions of two vehicles approach each other, the image without using the parallax and distance information as described above is used. There is a method of finding the area corresponding to the blinker lamp and brake lamp in the middle and recognizing the preceding vehicle from the positional relationship because the position of the blinker lamp and the brake lamp at the rear of the vehicle is almost constant regardless of the vehicle. Proposed.

特許第3349060号公報Japanese Patent No. 3349060 特開平8−241500号公報JP-A-8-241500

しかしながら、上記の特許文献1に記載された手法(図18〜図26参照)を採用した場合、例えば図27に示すような画像Tが撮像されるシーンでは、例えば図28(A)に示すように、先行車両Vahを単独に検出したいところであるが、先行車両Vahと生垣Hとが隣接して撮像されているために、図28(B)に示すように、先行車両Vahと生垣Hとがグループ化されて1つの物体として検出されてしまう場合がある。   However, when the method described in Patent Document 1 (see FIGS. 18 to 26) is adopted, in a scene where an image T as shown in FIG. 27 is captured, for example, as shown in FIG. Although the preceding vehicle Vah is desired to be detected separately, the preceding vehicle Vah and the hedge H are captured as shown in FIG. 28B because the preceding vehicle Vah and the hedge H are imaged adjacent to each other. In some cases, the objects are grouped and detected as one object.

また、例えば図29に示すような画像Tが撮像されるシーンでは、先行車両Vahである平ボディの荷台付きトラックの荷台Pの後あおりBの部分の左右のエッジ部分(図中の一点鎖線参照)や、前壁F(前構造、鳥居ともいう。)やキャブCaの背面部分に対応する部分(図中の一点鎖線参照)には有効な視差や距離の情報が検出され易いが、平板状で構造(テクスチャ等ともいう。)に乏しい荷台Pの後あおりBの中央部に対応する部分には、有効な視差や距離の情報がほとんど検出されない。   For example, in a scene where an image T as shown in FIG. 29 is captured, the left and right edge portions of the rear tilt B portion of the loading platform P of the truck with a loading platform of the flat body which is the preceding vehicle Vah (see the dashed line in the figure) ), The front wall F (also referred to as the front structure or torii), and the portion corresponding to the back portion of the cab Ca (see the alternate long and short dash line in the figure), it is easy to detect effective parallax and distance information. In the part corresponding to the center part of the rear tail B of the loading platform P having a poor structure (also referred to as texture or the like), information on effective parallax and distance is hardly detected.

そのため、上記のように距離画像Tzを短冊状の各区分Dnに分割して、区分Dnごとに代表視差dpnや代表距離Znを算出してグループ化すると、図30に示すように、先行車両Vahの荷台Pの後あおりBの左側のエッジ部分と右側のエッジ部分とがグループ化されずに、自車両からそれぞれZbの距離にある別々の物体として検出され、前壁FやキャブCaの部分が、自車両からZfの距離にあるさらに別の物体として検出されてしまう場合がある。   Therefore, when the distance image Tz is divided into the strip-shaped sections Dn as described above and the representative parallax dpn and the representative distance Zn are calculated and grouped for each section Dn, as shown in FIG. 30, the preceding vehicle Vah The left edge portion and the right edge portion of the rear tail B of the cargo bed P are detected as separate objects at a distance of Zb from the host vehicle, and the front wall F and the cab Ca portion are detected. In some cases, the object is detected as another object at a distance of Zf from the host vehicle.

そして、図27と図29とが合わさった例えば図31に示すような画像Tが撮像されるシーンでは、図31や図32に示すように、先行車両Vahの荷台Pの後あおりBの左側のエッジ部分は、右側のエッジ部分とグループ化できないばかりでなく、もはや生垣Hと一体化して検出されてしまう。   Then, in a scene where an image T as shown in FIG. 31, for example, where FIG. 27 and FIG. 29 are combined is captured, as shown in FIG. 31 and FIG. 32, the left side of the rear tilt B of the loading platform P of the preceding vehicle Vah. The edge portion cannot be grouped with the right edge portion, but is no longer integrated with the hedge H and detected.

そのため、先行車両Vahと生垣Hが撮像されたシーンであるにもかかわらず、生垣Hと、前壁FやキャブCaと、荷台Pの後あおりBの右側のエッジ部分とが、それぞれ別の物体として検出されてしまう場合があった。   Therefore, despite the scene in which the preceding vehicle Vah and the hedge H are imaged, the hedge H, the front wall F and the cab Ca, and the right edge portion of the rear tilt B of the loading platform P are different objects. May have been detected.

一方、特許文献2に記載の手法を採用した場合には、例えば自車両が片側複数車線の道路を走行しており、先行車両Vahの右隣の車線に例えば同型の車両が走行しているような場合には、図示を省略するが、先行車両Vahの右側のウインカランプやブレーキランプと、右隣の車線を走行している車両の左側のウインカランプやブレーキランプとを、1台の車両の左右のウインカランプやブレーキランプとして検出してしまう可能性があり、検出の信頼性に問題があった。   On the other hand, when the method described in Patent Document 2 is adopted, for example, the host vehicle is traveling on a road having a plurality of lanes on one side, and a vehicle of the same type is traveling in the lane on the right side of the preceding vehicle Vah. In this case, although not shown in the figure, the blinker lamp and brake lamp on the right side of the preceding vehicle Vah and the blinker lamp and brake lamp on the left side of the vehicle traveling in the lane on the right are connected to one vehicle. There is a possibility of detection as left and right turn signal lamps or brake lamps, and there is a problem in detection reliability.

このように、同一の物体が別々の物体として検出されてしまったり、別々の物体(或いは本来物体がない部分)を1つの物体として検出しまうと、誤った物体の情報に基づいて制御を行うことになり、本来、安全走行等に資するべき車両の自動制御において、逆に、事故の危険性が増大してしまう等の問題があった。   In this way, if the same object is detected as different objects, or if different objects (or parts that do not have an original object) are detected as one object, control is performed based on information on the wrong object. Thus, in the automatic control of a vehicle that should contribute to safe driving, there is a problem that the risk of accidents increases.

なお、以下では、上記のように、一対のカメラ等の撮像手段で得られた画像に基づき、或いはレーダ装置等により得られた物体までの距離を含む物体の位置の情報を、位置データという。   Hereinafter, as described above, information on the position of the object including the distance to the object based on an image obtained by an imaging unit such as a pair of cameras or obtained by a radar device or the like is referred to as position data.

本発明は、このような事情に鑑みてなされたものであり、検出した物体の位置データを的確にグループ化して先行車両等の車両を的確に検出することが可能な車両検出装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides a vehicle detection device that can accurately detect the position of detected objects and accurately detect vehicles such as preceding vehicles. With the goal.

前記の問題を解決するために、第1の発明は、車両検出装置において、
撮像手段により撮像された画像中の各画素について画素ごとに実空間上の距離情報を検出する位置検出手段と、
前記画素の画素値に基づいて抽出した画素領域の中から、前記画像上で車両のテールランプに対応する可能性がある、対となる前記画素領域をランプペア候補として抽出するランプペア候補抽出手段と、
前記位置検出手段により検出された各画素の実空間上の距離情報に基づいて実空間上で近接する点同士をグループ化するグループ化手段と、
前記グループ化したグループの中に実空間上の距離情報が検出された前記ランプペア候補が含まれている場合、前記グループを前記ランプペア候補が属するグループと前記ランプペア候補が属さないグループとに強制的に分離するグルーピング手段と、
を備えることを特徴とする。
In order to solve the above-mentioned problem, the first invention is a vehicle detection device,
Position detecting means for detecting distance information in real space for each pixel in the image captured by the imaging means;
Lamp pair candidate extraction means for extracting the pair of pixel areas as a lamp pair candidate that may correspond to a tail lamp of a vehicle on the image from the pixel areas extracted based on the pixel values of the pixels;
Grouping means for grouping adjacent points in the real space based on distance information in the real space of each pixel detected by the position detection means;
When the grouped group includes the lamp pair candidate from which distance information in real space is detected, the group is forcibly made into a group to which the lamp pair candidate belongs and a group to which the lamp pair candidate does not belong. Grouping means to separate;
It is characterized by providing.

第2の発明は、第1の発明の車両検出装置において、前記グルーピング手段は、前記グループの強制的に分離した上で、前記ランプペア候補が属するグループ同士が実空間上で所定の距離閾値内に存在する場合に、前記ランプペア候補が属するグループ同士を再グループ化することを特徴とする。   According to a second invention, in the vehicle detection device according to the first invention, the grouping means forcibly separates the groups, and the groups to which the lamp pair candidates belong fall within a predetermined distance threshold in real space. If present, the groups to which the lamp pair candidates belong are regrouped.

第3の発明は、第1または第2の発明の車両検出装置において、
前記画素値に基づいて、所定の輝度以上の輝度を有する画素を抽出し、抽出した前記画素同士が前記画像上で隣接する場合には前記画素同士を同一の画素領域として統合し、前記実空間上の距離情報に基づいて前記画素領域の路面からの高さを算出し、前記各画素領域の中から、路面からの高さが所定範囲内にある前記画素領域をランプ候補として抽出するランプ候補抽出手段を備え、
前記ランプペア候補抽出手段は、
前記ランプ候補抽出手段により抽出された前記各ランプ候補の中から、任意に2つの前記ランプ候補を選択し、
一方の前記ランプ候補の画素数の、他方の前記ランプ候補の画素数に対する比が所定範囲内であるか、前記一方のランプ候補の前記画像における縦方向の画素数の、前記他方のランプ候補の前記画像における縦方向の画素数に対する差が所定範囲内であるか、前記一方のランプ候補の実空間上での距離および高さがそれぞれ前記他方のランプ候補の実空間上の位置から所定の範囲内にあるか、または、前記一方のランプ候補と前記他方のランプ候補の実空間上での左右方向の間隔が車両1台分に相当する幅以内である場合に、当該2つのランプ候補の組み合わせを前記ランプペア候補として抽出し、
上記の抽出処理を、前記ランプ候補抽出手段により抽出された前記ランプ候補同士における全ての組み合わせについて行うことを特徴とする。
3rd invention is the vehicle detection apparatus of 1st or 2nd invention,
Based on the pixel value, pixels having a luminance equal to or higher than a predetermined luminance are extracted, and when the extracted pixels are adjacent to each other on the image, the pixels are integrated as the same pixel region, and the real space A lamp candidate that calculates the height of the pixel area from the road surface based on the distance information above, and extracts, from the pixel areas, the pixel area whose height from the road surface is within a predetermined range as a lamp candidate. An extraction means,
The lamp pair candidate extraction means includes:
Arbitrarily selecting two lamp candidates from the lamp candidates extracted by the lamp candidate extraction means;
The ratio of the number of pixels of one lamp candidate to the number of pixels of the other lamp candidate is within a predetermined range, or the number of pixels in the vertical direction in the image of the one lamp candidate is the other lamp candidate. The difference with respect to the number of pixels in the vertical direction in the image is within a predetermined range, or the distance and height of the one lamp candidate in the real space are each within a predetermined range from the position of the other lamp candidate in the real space. Or the combination of the two lamp candidates when the one lamp candidate and the other lamp candidate in the right-and-left direction in the real space are within a width corresponding to one vehicle. Are extracted as the lamp pair candidates,
The extraction process is performed for all combinations of the lamp candidates extracted by the lamp candidate extraction unit.

第4の発明は、第1から第3のいずれかの発明の車両検出装置において、
前記画素値に基づいて、所定の輝度以上の輝度を有する画素を抽出し、抽出した前記画素同士が前記画像上で隣接する場合には前記画素同士を同一の画素領域として統合し、前記実空間上の距離情報に基づいて前記画素領域の路面からの高さを算出し、前記各画素領域の中から、路面からの高さが所定範囲内にある前記画素領域をランプ候補として抽出するランプ候補抽出手段を備え、
前記ランプペア候補抽出手段は、抽出した前記ランプペア候補としての左右の前記ランプ候補の間に存在し、かつ、前記左右のランプ候補の前記画像中の上側の位置に別の前記ランプ候補が存在する場合には、当該別のランプ候補をハイマウントストップランプとして当該ランプペア候補に追加することを特徴とする。
A fourth invention is the vehicle detection device according to any one of the first to third inventions,
Based on the pixel value, pixels having a luminance equal to or higher than a predetermined luminance are extracted, and when the extracted pixels are adjacent to each other on the image, the pixels are integrated as the same pixel region, and the real space A lamp candidate that calculates the height of the pixel area from the road surface based on the distance information above, and extracts, from the pixel areas, the pixel area whose height from the road surface is within a predetermined range as a lamp candidate. With extraction means,
The lamp pair candidate extraction unit exists between the left and right lamp candidates as the extracted lamp pair candidates, and another lamp candidate exists at an upper position in the image of the left and right lamp candidates. Is characterized in that the other lamp candidate is added to the lamp pair candidate as a high-mount stop lamp.

第5の発明は、第4の発明の車両検出装置において、前記ランプペア候補抽出手段は、ハイマウントストップランプとして追加した前記ランプ候補が、当該ランプ候補が追加された前記ランプペア候補とは別の前記ランプペア候補に属している場合には、前記追加したランプ候補を、追加された前記ランプペア候補から除外するとともに、追加を除外された前記ランプ候補が属する当該別のランプペア候補については前記ランプペア候補としての指定を解除することを特徴とする。   According to a fifth aspect of the present invention, in the vehicle detection device according to the fourth aspect, the lamp pair candidate extraction means is configured such that the lamp candidate added as a high-mount stop lamp is different from the lamp pair candidate to which the lamp candidate is added. If it belongs to the lamp pair candidate, the added lamp candidate is excluded from the added lamp pair candidate, and the other lamp pair candidate to which the added lamp candidate is excluded belongs as the lamp pair candidate. It is characterized by canceling the designation.

第6の発明は、第1から第5のいずれかの発明の車両検出装置において、
さらに、前記位置検出手段により検出された前記実空間上の距離情報を、前記撮像手段により撮像された前記画像の対応する各画素に割り当てて距離画像を作成する距離画像作成手段を備え、
前記グループ化手段は、
前記距離画像作成手段により作成された前記距離画像を所定の画素幅で縦方向に延在する複数の区分に分割し、
前記区分ごとにヒストグラムを作成して前記区分内の各画素に割当てられた前記実空間上の距離情報を投票して当該区分の代表距離を算出し、
算出した前記各代表距離を前記グループ化の対象とすることを特徴とする。
A sixth invention is the vehicle detection device of any one of the first to fifth inventions,
Furthermore, distance information creating means for creating distance images by assigning distance information in the real space detected by the position detecting means to each corresponding pixel of the image imaged by the imaging means,
The grouping means includes
Dividing the distance image created by the distance image creating means into a plurality of sections extending in the vertical direction with a predetermined pixel width;
Create a histogram for each section and vote the distance information on the real space assigned to each pixel in the section to calculate the representative distance of the section,
Each of the calculated representative distances is a target of the grouping.

第1の発明によれば、グループ化手段が各画素の実空間上の距離情報をグループ化してグループを生成する際、生成された1つのグループの中に、車両の左右のテールランプTL等に対応するランプペア候補が属するグループと、そうでないグループとが含まれてしまう場合がある。そのような場合に、ランプペア候補が属するグループと、ランプペア候補が属さないグループとを強制的に分離して、当該グループをそれぞれ別のグループとして、一旦、いわばばらばらにする。   According to the first invention, when the grouping unit generates the group by grouping the distance information of each pixel in the real space, the generated group corresponds to the left and right tail lamps TL of the vehicle. In some cases, a group to which a candidate lamp pair belongs and a group to which the candidate lamp pair belongs are not included. In such a case, the group to which the lamp pair candidate belongs and the group to which the lamp pair candidate does not belong are forcibly separated, and the groups are separated into different groups.

そのため、例えば図32に示したように、生垣Hと車両の一部とが同一のグループとして処理されてしまうことを的確に防止することが可能となり、車両の左右のテールランプTL等に対応するランプペア候補が属するグループと、ランプペア候補が属さないグループとを的確に分離した状態で車両を的確に検出することが可能となる。   Therefore, for example, as shown in FIG. 32, it is possible to accurately prevent the hedge H and a part of the vehicle from being processed as the same group, and a lamp pair corresponding to the left and right tail lamps TL of the vehicle. The vehicle can be accurately detected in a state where the group to which the candidate belongs and the group to which the lamp pair candidate does not belong are accurately separated.

第2の発明によれば、第1の発明でランプペア候補が属するグループと、ランプペア候補が属さないグループとを強制的に分離した後、改めて再グルーピング処理を行うため、車両の左右のテールランプTL等に対応するランプペア候補が属するグループと、ランプペア候補が属さないグループとを的確に分離して、それぞれ別々のグループとして、他のグループとの再グルーピングの可否が判定されるようになる。   According to the second invention, in order to perform the regrouping process again after forcibly separating the group to which the lamp pair candidate belongs and the group to which the lamp pair candidate does not belong in the first invention, the left and right tail lamps TL, etc. The group to which the lamp pair candidate corresponding to the above and the group to which the lamp pair candidate does not belong are accurately separated, and whether or not regrouping with another group is possible is determined as a separate group.

第3の発明によれば、例えば、路面から高い位置にある画素領域や、路面と同じ高さの画素領域は、街路灯に対応する画素領域であったり、雨で濡れた路面での反射光に対応する画素領域であったりする可能性があり、いずれも車両のテールランプTLに対応する画素領域とは言えない。そこで、画素領域の路面からの高さに基づき、画素領域の路面からの高さが所定範囲内にあるか否かに応じて画素領域を切り分けることで、車両のテールランプに対応する可能性がある画素領域を的確にランプ候補として抽出することが可能となる。   According to the third aspect of the invention, for example, the pixel region located at a high position from the road surface or the pixel region having the same height as the road surface is a pixel region corresponding to a street light, or reflected light from a road surface wet with rain. May not be a pixel region corresponding to the tail lamp TL of the vehicle. Therefore, there is a possibility of corresponding to the tail lamp of the vehicle by dividing the pixel area according to whether or not the height of the pixel area from the road surface is within a predetermined range based on the height of the pixel area from the road surface. It is possible to accurately extract the pixel area as a lamp candidate.

そして、上記の各条件のうちのいずれかの条件を満たす場合にランプ候補をランプペア候補とすることで、車両の左右のテールランプTL等にそれぞれ対応するランプ候補をランプペア候補として的確に抽出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   Then, if any of the above conditions is satisfied, the lamp candidate is set as a lamp pair candidate, so that the lamp candidates respectively corresponding to the left and right tail lamps TL of the vehicle can be accurately extracted as lamp pair candidates. It becomes possible, and it becomes possible to exhibit the effect of each said invention more exactly.

第4の発明によれば、近年、車両には左右のテールランプTLの他に、ハイマウントストップランプが備え付けられている場合があるが、そのような場合にも上記のランプペア候補にハイマウントストップランプに対応するランプ候補を的確に組み込むことが可能となり、車両の左右のテールランプTLとハイマウントストップランプにそれぞれ対応するランプ候補をランプペア候補として的確に抽出することが可能となる。そのため、前記各発明の効果をより的確に発揮させることが可能となる。   According to the fourth aspect of the present invention, in recent years, there are cases where a vehicle is provided with a high-mount stop lamp in addition to the left and right tail lamps TL. The lamp candidates corresponding to the right and left tail lamps TL and the high-mount stop lamp can be accurately extracted as lamp pair candidates. Therefore, the effects of the above inventions can be more accurately exhibited.

第5の発明によれば、上記の第4の発明のように、一旦ハイマウントストップランプとして追加したランプ候補が、追加されたランプペア候補とは別のランプペア候補に属している場合、画像中で、ランプペア候補の上側にさらに別のランプペア候補が撮像されているという異常な状態になる。   According to the fifth invention, as in the fourth invention, when a lamp candidate once added as a high mount stop lamp belongs to a lamp pair candidate different from the added lamp pair candidate, Then, an abnormal state occurs in which another lamp pair candidate is imaged above the lamp pair candidate.

そこで、このような場合に、ハイマウントストップランプとして追加したランプ候補を追加されたランプペア候補から除外することで、ハイマウントストップランプに対応するものではない可能性が高いランプ候補がランプペア候補に追加されることを的確に防止することが可能となり、前記第4の発明の効果をより的確に発揮させることが可能となる。   Therefore, in such a case, by removing the candidate lamps added as high mount stop lamps from the added lamp pair candidates, lamp candidates that are not likely to correspond to the high mount stop lamps are added to the lamp pair candidates. It is possible to accurately prevent this, and the effect of the fourth invention can be more accurately exhibited.

第6の発明によれば、距離画像上に検出された全ての実空間上の距離情報に対して上記の各処理を行うように構成すると、データ点数が膨大な量になり、処理に時間がかかり、車両検出のリアルタイム性が損なわれる可能性がある。しかし、距離画像を複数の区分Dnに分割し、分割した各区分Dnごとに代表距離を算出し、算出した各代表距離をグループ化の対象とすることで、処理の対象となるデータ点数を低減することが可能となり、前記各発明の効果に加え、車両検出のリアルタイム性を確保することが可能となる。   According to the sixth aspect of the invention, when each of the above processes is performed on all the distance information in the real space detected on the distance image, the number of data points becomes enormous and the processing time is long. Therefore, the real-time property of vehicle detection may be impaired. However, the distance image is divided into a plurality of sections Dn, a representative distance is calculated for each of the divided sections Dn, and the calculated representative distance is set as a grouping target, thereby reducing the number of data points to be processed. In addition to the effects of the respective inventions, it is possible to ensure real-time performance of vehicle detection.

本実施形態に係る車両検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle detection apparatus which concerns on this embodiment. 基準画像における水平ラインを説明する図である。It is a figure explaining the horizontal line in a standard image. 統合処理手段における統合処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the integration process in an integrated process means. 統合処理手段における統合処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the integration process in an integrated process means. (A)入力された注目画素およびその左に隣接する画素、および(B)左に隣接する画素が画素領域に属している例を説明する図である。(A) It is a figure explaining the example to which the pixel of interest and the pixel adjacent to the left which were input to (A) and the pixel adjacent to the left belong to a pixel area. (A)入力された注目画素およびその下に隣接する画素、および(B)下に隣接する画素が画素領域に属している例を説明する図である。(A) It is a figure explaining the example to which the input pixel of interest, the pixel adjacent below it, and the (B) pixel adjacent below belong to a pixel area. (A)左や下に隣接する画素がそれぞれ属する各グループの例を説明する図であり、(B)各グループが一の画素と統合されて1つのグループになる例を説明する図である。(A) It is a figure explaining the example of each group to which the pixel adjacent on the left or the bottom belongs, respectively, (B) It is a figure explaining the example which each group is integrated with one pixel and becomes one group. ランプペア候補抽出手段におけるランプペア候補の抽出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the extraction process of a lamp pair candidate in a lamp pair candidate extraction means. 2つのランプ候補の実空間上での左右方向の間隔の算出の仕方の例を説明する図である。It is a figure explaining the example of the method of calculating the space | interval of the left-right direction in the real space of two lamp candidates. 抽出したランプペア候補としての左右のランプ候補の間に存在し、かつ、左右のランプ候補の上側の位置に存在する別のランプ候補の例を示す図である。It is a figure which shows the example of another lamp candidate which exists between the right and left lamp candidates as an extracted lamp pair candidate, and exists in the upper position of the left and right lamp candidates. ハイマウントストップランプとして追加されたランプ候補が別のランプペア候補に属している状態の例を表す図である。It is a figure showing the example of the state where the lamp candidate added as a high mount stop lamp belongs to another lamp pair candidate. 図11においてハイマウントストップランプとして追加されたランプ候補が元のランプペア候補から除外された状態等を表す図である。FIG. 12 is a diagram illustrating a state where a lamp candidate added as a high mount stop lamp in FIG. 11 is excluded from the original lamp pair candidates. グルーピング手段におけるグループ化処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the grouping process in a grouping means. グルーピング手段における再グルーピング処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the regrouping process in a grouping means. 左側のテールランプと生垣とが含まれていた1つのグループが左側のテールランプを含むグループと生垣を含むグループGとに分離された状態を表す図である。It is a figure showing the state by which one group which contained the tail lamp and hedge on the left side was separated into the group containing the left tail lamp and the group G containing the hedge. 図15の状態に対して再グルーピング処理を行うことで左右のテールランプに対応する各グループが新たな1つのグループとされた状態を表す図である。FIG. 16 is a diagram illustrating a state in which each group corresponding to the left and right tail lamps is made a new group by performing a regrouping process on the state of FIG. 15. 自車両の走行軌跡に基づいて先行車両が特定された状態を表す図である。It is a figure showing the state by which the preceding vehicle was specified based on the driving track of the own vehicle. 撮像手段で撮像される画像の例を示す図である。It is a figure which shows the example of the image imaged with an imaging means. 図18の画像に基づいて作成された距離画像を表す図である。It is a figure showing the distance image produced based on the image of FIG. 複数の区分に分割された距離画像の例を表す図である。It is a figure showing the example of the distance image divided | segmented into the some division. 区分Dnごとに作成されたヒストグラムを表す図である。It is a figure showing the histogram produced for every division Dn. 距離画像を分割する複数の区分を実空間上に置き換えた場合に各区分に対応する複数の区分空間を説明する図である。It is a figure explaining the some division space corresponding to each division when the some division which divides | segments a distance image is replaced on real space. 各区分ごとの代表距離を実空間上にプロットした図である。It is the figure which plotted the representative distance for every division on real space. 図23の各点のグループ化を説明する図である。It is a figure explaining grouping of each point of FIG. 図24の各グループに属する各点を直線近似して得られる物体を表す図である。It is a figure showing the object obtained by carrying out the straight line approximation of each point which belongs to each group of FIG. 検出された各物体を基準画像上で矩形状の枠線に包囲して表した図である。It is the figure which represented each detected object surrounded on the reference | standard image by the rectangular-shaped frame line. 先行車両と生垣とが隣接して撮像されている画像を表す図である。It is a figure showing the image by which the preceding vehicle and the hedge are imaged adjacently. (A)先行車両のみが検出される状態を説明する図であり、(B)先行車両と生垣とが1つの物体として検出される状態を表す図である。(A) It is a figure explaining the state in which only a preceding vehicle is detected, (B) is a figure showing the state in which a preceding vehicle and a hedge are detected as one object. 先行車両として平ボディの荷台付きトラックが撮影された画像を表す図である。It is a figure showing the image by which the track | truck with a loading platform of a flat body was image | photographed as a preceding vehicle. 図29の場合に先行車両の荷台の後あおりの左右の各エッジ部分がグループ化されず、左右の各エッジ部分と前壁等の部分とがそれぞれ別の物体として検出される状態を説明する図である。FIG. 29 is a diagram illustrating a state in which the left and right edge portions of the rear tilt of the preceding vehicle loading platform are not grouped and the left and right edge portions and the front wall and the like are detected as separate objects in the case of FIG. 29. It is. 先行車両としての平ボディの荷台付きトラックと生垣とが隣接して撮像されている画像を表す図である。It is a figure showing the image by which the track with a flat body as a preceding vehicle and the hedge are imaged adjacently. 図31の場合に先行車両の荷台の後あおりの左側のエッジ部分が生垣と一体化して検出される状態を説明する図である。FIG. 32 is a diagram illustrating a state in which the left edge portion of the rear tilt of the loading platform of the preceding vehicle is detected integrally with the hedge in the case of FIG. 31.

以下、本発明に係る車両検出装置の実施の形態について、図面を参照して説明する。   Hereinafter, embodiments of a vehicle detection device according to the present invention will be described with reference to the drawings.

なお、本実施形態では、撮像手段2として2台のカメラを用いてステレオ撮像を行う形態が示されるが、撮像手段を例えば単数のカメラや3台以上のカメラ等で構成することも可能である。   In the present embodiment, a mode of performing stereo imaging using two cameras as the imaging unit 2 is shown, but the imaging unit may be configured by, for example, a single camera or three or more cameras. .

本実施形態に係る車両検出装置1は、図1に示すように、主に、撮像手段2や変換手段3、画像処理手段6等で構成される位置検出手段9と、統合処理手段11やランプ候補抽出手段12等を含む処理部10とで構成されている。   As shown in FIG. 1, the vehicle detection apparatus 1 according to the present embodiment mainly includes a position detection unit 9 including an imaging unit 2, a conversion unit 3, an image processing unit 6, an integrated processing unit 11, and a lamp. It is comprised with the process part 10 containing the candidate extraction means 12 grade | etc.,.

位置検出手段9は、自車両の周囲を撮像する撮像手段2を含み、自車両の周囲の物体を撮像するとともに、自車両からそれらの物体までの距離や高さ、左右方向の位置を含む物体の実空間上の位置に対応する位置データを検出するようになっている。   The position detection means 9 includes an image pickup means 2 for picking up an image of the surroundings of the own vehicle, picks up images of objects around the own vehicle, and includes an object including the distance and height from the own vehicle to those objects, and the position in the left-right direction The position data corresponding to the position in the real space is detected.

本実施形態では、位置検出手段9は、本願出願人により先に提出された前記特許文献1や特開平5−114099号公報、特開平5−265547号公報、特開平6−266828号公報、特開平10−283477号公報、特開2006−72495号公報等に記載された車両検出装置等をベースに構成されている。以下、簡単に説明する。   In the present embodiment, the position detecting means 9 includes the above-mentioned Patent Document 1, Japanese Patent Application Laid-Open No. 5-111499, Japanese Patent Application Laid-Open No. 5-265547, Japanese Patent Application Laid-Open No. 6-266828, and the like previously filed by the applicant of the present application. The vehicle detection device described in Japanese Laid-Open Patent Publication No. 10-283477, Japanese Unexamined Patent Application Publication No. 2006-72495, and the like is used as a base. A brief description is given below.

位置検出手段9は、図1に示すように、車幅方向(すなわち左右方向)に一定の距離をあけて配置されCCDカメラで構成された一対のメインカメラ2aおよびサブカメラ2bを備える撮像手段2で自車両の周囲を撮像して得られた一対の撮像画像を変換手段3であるA/Dコンバータ3a、3bでそれぞれデジタル画像に変換し、画像補正部4でずれやノイズの除去、輝度値の補正等の画像補正を行って、画像データメモリ5に格納するとともに、処理部10に送信するようになっている。   As shown in FIG. 1, the position detection means 9 includes an image pickup means 2 including a pair of a main camera 2a and a sub camera 2b that are arranged with a certain distance in the vehicle width direction (that is, the left-right direction) and are configured by a CCD camera. The A / D converters 3a and 3b, which are the conversion means 3, respectively convert the pair of captured images obtained by imaging the surroundings of the host vehicle to digital images, and the image correction unit 4 removes deviations and noises, and the luminance value. Are corrected and stored in the image data memory 5 and transmitted to the processing unit 10.

なお、例えば撮像手段2のメインカメラ2aでは、前述した図18等に示したような画像T(以下、基準画像Tという。)が撮像され、サブカメラ2bでは、基準画像Tと同様の画像ではあるが、メインカメラ2aから車幅方向に一定の距離だけ離れた位置から撮像された画像(図示省略。以下、比較画像という。)が撮像される。   For example, the main camera 2a of the imaging unit 2 captures an image T (hereinafter referred to as a reference image T) as shown in FIG. 18 and the like, and the sub camera 2b has an image similar to the reference image T. However, an image (not shown; hereinafter referred to as a comparative image) captured from a position separated from the main camera 2a by a certain distance in the vehicle width direction is captured.

また、本実施形態では、撮像手段2のメインカメラ2aおよびサブカメラ2bでは、それぞれモノクロの輝度Dが取得されるようになっているが、RGB値等で表されるカラーの画像データを撮像する撮像手段を用いることも可能であり、その場合についても本発明が適用される。   In the present embodiment, the main camera 2a and the sub camera 2b of the imaging unit 2 each acquire monochrome luminance D, but image color image data represented by RGB values or the like. It is also possible to use an imaging means, and the present invention is also applied to such a case.

さらに、本実施形態では、撮像手段2のメインカメラ2aやサブカメラ2bで基準画像Tや比較画像を撮像する場合、図2に示すように、基準画像T等の各水平ラインjの最も左側の画素から撮像を開始し、その後、順に右方向に走査していく。また、走査する水平ラインjを最も下側のラインから順に上方に切り替えながら撮像するようにして、各画素ごとに撮像した順に基準画像Tと比較画像Tcの各画素の輝度Dをそれぞれ変換手段3に順次送信するようになっている。   Furthermore, in the present embodiment, when the reference image T or the comparison image is picked up by the main camera 2a or the sub camera 2b of the image pickup means 2, the leftmost of each horizontal line j such as the reference image T as shown in FIG. Imaging starts from the pixel, and then scans sequentially in the right direction. Also, the horizontal line j to be scanned is picked up while switching upward from the lowermost line in order, and the luminance D of each pixel of the reference image T and the comparative image Tc is converted in order of picking up each pixel. Are sent sequentially.

画像補正部4で画像補正が行われた一対の撮像画像は、画像処理手段6にも送信される。そして、画像処理手段6のイメージプロセッサ7で、メインカメラ2aで撮像した基準画像Tが複数の画素ブロックに分割され、各画素ブロックについてそれぞれサブカメラ2bで撮像した比較画像の対応する画素ブロックがステレオマッチング処理により見出され、前述したように、各画素ブロックごとに視差dpが算出される。   The pair of captured images that have been subjected to image correction by the image correction unit 4 are also transmitted to the image processing means 6. Then, the image processor 7 of the image processing means 6 divides the reference image T captured by the main camera 2a into a plurality of pixel blocks, and the pixel blocks corresponding to the comparison image captured by the sub camera 2b for each pixel block are stereo. The parallax dp is calculated for each pixel block as found by the matching process and as described above.

この視差dpの算出については、前記各公報に詳述されている。また、この視差dpと画素ブロックの基準画像T上の座標(i,j)が、実空間上の点(X,Y,Z)と上記(1)〜(3)式を介して1対1に対応付けられることは前述した通りである。また、本実施形態では、この視差dpと座標(i,j)から構成されるデータ(i,j,dp)を位置データとして扱うように構成されているが、例えば、データ(i,j,dp)を上記(1)〜(3)式に代入して算出した実空間上の位置(X,Y,Z)を位置データとして扱うように構成することも可能である。   The calculation of the parallax dp is described in detail in the above publications. Also, the parallax dp and the coordinates (i, j) on the reference image T of the pixel block are in a one-to-one relationship with the point (X, Y, Z) in the real space via the above equations (1) to (3). As described above, it is associated with. In the present embodiment, the data (i, j, dp) composed of the parallax dp and the coordinates (i, j) is handled as position data. For example, the data (i, j, d, The position (X, Y, Z) in the real space calculated by substituting dp) into the above formulas (1) to (3) may be handled as position data.

画像処理手段6は、上記のように画素ブロックごとに算出した視差dpを基準画像Tの対応する各画素に割り当てて前述した距離画像Tz(例えば図19参照)を作成し、作成した距離画像Tzを距離データメモリ8に格納するとともに、距離画像Tzを処理部10に送信するようになっている。   The image processing means 6 creates the above-mentioned distance image Tz (see, for example, FIG. 19) by assigning the parallax dp calculated for each pixel block to each corresponding pixel of the reference image T as described above, and creates the created distance image Tz. Is stored in the distance data memory 8 and the distance image Tz is transmitted to the processing unit 10.

すなわち、本実施形態では、画像処理手段6が距離画像作成手段に相当する。なお、距離画像Tzは、距離の情報としての視差dpを有するものであるが、距離画像Tzには、図19に示したように座標(i,j)の情報も含まれており、距離画像Tzは、位置検出手段9が検出した視差dpを含む位置データ(i,j,dp)を基準画像Tに割り当てたものに相当する。   That is, in the present embodiment, the image processing unit 6 corresponds to a distance image creating unit. The distance image Tz has a parallax dp as distance information, but the distance image Tz also includes information on coordinates (i, j) as shown in FIG. Tz corresponds to the position data (i, j, dp) including the parallax dp detected by the position detector 9 assigned to the reference image T.

なお、図示を省略するが、本実施形態の他にも、自車両に対する各車両の距離Z(或いは視差dp)を含む位置データの測定については、例えば自車両前方にレーザ光Lや赤外線等を照射してその反射光の情報に基づいて物体までの距離Zや物体の実空間上の位置(X,Y,Z)等を測定するレーダ装置等で構成することも可能であり、この場合は、レーダ装置等が距離検出手段9ということになる。このように、距離データを検出する距離検出手段9の構成は、特定の構成に限定されない。   Although illustration is omitted, in addition to the present embodiment, for measurement of position data including the distance Z (or parallax dp) of each vehicle with respect to the own vehicle, for example, laser light L or infrared light is used in front of the own vehicle. It is also possible to configure a radar device that irradiates and measures the distance Z to the object and the position (X, Y, Z) of the object in the real space based on the information of the reflected light. The radar device or the like is the distance detecting means 9. Thus, the structure of the distance detection means 9 which detects distance data is not limited to a specific structure.

しかし、車両検出装置1は、距離検出手段9としてレーダ装置等を用いる場合でも、撮像手段2を備えるように構成される。そして、この場合、撮像手段2を単数のカメラで構成してもよく、その場合、距離画像作成手段としての画像処理手段6は、距離検出手段9としてのレーダ装置等で検出された位置データを、撮像手段2で撮像された画像中の各画素に割り当てて、前述した距離画像Tzを作成するように構成される。   However, the vehicle detection device 1 is configured to include the imaging unit 2 even when a radar device or the like is used as the distance detection unit 9. In this case, the image pickup means 2 may be composed of a single camera. In this case, the image processing means 6 as the distance image creation means uses the position data detected by the radar device as the distance detection means 9 or the like. The distance image Tz described above is generated by assigning to each pixel in the image captured by the imaging means 2.

処理部10は、本実施形態では、図示しないCPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)、入出力インターフェース等がバスに接続されたコンピュータや、専用回路で構成されている。処理部10は、統合処理手段11やランプ候補抽出手段12、ランプペア候補抽出手段13、グルーピング手段14を備えており、本実施形態では、さらに、図示しないメモリを備えている。   In the present embodiment, the processing unit 10 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input / output interface, etc. (not shown) connected to the bus or a dedicated circuit. Has been. The processing unit 10 includes an integration processing unit 11, a lamp candidate extraction unit 12, a lamp pair candidate extraction unit 13, and a grouping unit 14, and further includes a memory (not shown) in this embodiment.

なお、処理部10において先行車両検出等の他の処理を行うように構成することも可能である。また、処理部10に、必要に応じて、車速センサやヨーレートセンサ、ステアリングホイールの舵角を測定する舵角センサ等のセンサ類Qからの測定値が入力されるようになっている。   Note that the processing unit 10 may be configured to perform other processing such as detection of a preceding vehicle. Moreover, the measured value from sensors Q, such as a vehicle speed sensor, a yaw rate sensor, and the steering angle sensor which measures the steering angle of a steering wheel, is input into the process part 10 as needed.

以下、処理部10の各手段における処理について説明するとともに、本実施形態に係る車両検出装置1の作用について説明する。   Hereinafter, processing in each unit of the processing unit 10 will be described, and an operation of the vehicle detection device 1 according to the present embodiment will be described.

統合処理手段11は、撮像手段2のメインカメラ2aにより撮像された基準画像T上で、先行車両Vah等の車両のウインカランプやブレーキランプ等のテールランプTLの明るさに相当する所定の輝度以上の輝度を有する画素を抽出し、抽出した画素が基準画像T上で隣接する場合にはそれらの画素同士を同一の画素領域として統合するようになっている。なお、この統合処理手段11における統合処理では、前述した比較画像は用いられない。   The integrated processing means 11 has a predetermined brightness or higher on the reference image T picked up by the main camera 2a of the image pickup means 2 and corresponding to the brightness of the tail lamp TL such as a blinker lamp or a brake lamp of a vehicle such as the preceding vehicle Vah. Pixels having luminance are extracted, and when the extracted pixels are adjacent on the reference image T, these pixels are integrated as the same pixel region. In the integration processing in the integration processing unit 11, the above-described comparison image is not used.

以下、この統合処理手段11における統合処理を、図3および図4に示すフローチャート等を用いて具体的に説明する。   Hereinafter, the integration processing in the integration processing means 11 will be specifically described with reference to the flowcharts shown in FIGS.

なお、以下では、例えば図2に示した基準画像Tにおける画素を、基準画像Tの左下隅の画素を原点とし、右向きにi軸、上向きにj軸をとった場合の画素の座標(i,j)を用いて、画素pi,jのように表す。また、画素pi,jの輝度Dを、輝度Di,jのように表す。   In the following description, for example, the pixel in the reference image T shown in FIG. 2 is set to the pixel coordinates (i, when the pixel at the lower left corner of the reference image T is the origin, the i axis is directed rightward, and the j axis is upward. j) is used to represent a pixel pi, j. Further, the luminance D of the pixel pi, j is represented as luminance Di, j.

統合処理手段11は、撮像手段2により撮像が開始されると(ステップS1)、iおよびjの値をそれぞれ0に設定する(ステップS2)。前述したように、撮像手段2で撮像された水平ライン0(すなわちj座標が0の各画素からなる水平ラインj)上の左端の画素p0,0(すなわち原点の画素)の輝度D0,0の処理部10への入力が開始されると(ステップS3)、続いて、画素p1,0、p2,0、p3,0、…の輝度D1,0、D2,0、D3,0、…が順次入力される。   When the imaging unit 2 starts imaging (step S1), the integration processing unit 11 sets the values of i and j to 0 (step S2). As described above, the luminance D0,0 of the leftmost pixel p0,0 (that is, the origin pixel) on the horizontal line 0 (that is, the horizontal line j including each pixel whose j coordinate is 0) captured by the imaging unit 2 is When the input to the processing unit 10 is started (step S3), the luminances D1,0, D2,0, D3,0,... Of the pixels p1,0, p2,0, p3,0,. Entered.

統合処理手段11は、水平ラインjの右端の画素まで処理を完了していなければ(ステップS4;NO)、処理が繰り返されるごとにi座標を1ずつインクリメントして(ステップS5)、設定した注目画素pi,jを水平ラインj上の右隣の画素に移動させながら(ステップS6)、処理を続ける。   If the processing has not been completed up to the rightmost pixel of the horizontal line j (step S4; NO), the integrated processing unit 11 increments the i coordinate by 1 each time the processing is repeated (step S5), and sets the attention of interest. The processing is continued while moving the pixel pi, j to the right adjacent pixel on the horizontal line j (step S6).

また、水平ラインjの右端の画素まで処理を完了すると(ステップS4;YES)、基準画像Tの最上段の水平ラインjまで処理が終了していなければ(ステップS7;NO)、処理を行う水平ラインjを1行上方の水平ラインj+1に移行させ、注目画素のi座標を0に設定して(ステップS8)、画素p0,j+1を注目画素として(ステップS6)処理を行い、注目画素を画素p0,j+1から順に右側に移動させながら処理を続行する。   When the processing is completed up to the rightmost pixel of the horizontal line j (step S4; YES), if the processing is not completed up to the uppermost horizontal line j of the reference image T (step S7; NO), the horizontal to be processed is processed. The line j is shifted to the horizontal line j + 1 one row above, the i coordinate of the pixel of interest is set to 0 (step S8), the pixel p0, j + 1 is set as the pixel of interest (step S6), and processing is performed. The processing is continued while moving the pixel p0, j + 1 sequentially to the right side.

次に、注目画素を画素pi,jに設定(ステップS6)した後の統合処理手段11における処理(図4のステップS9以降)について説明する。   Next, the processing (after step S9 in FIG. 4) in the integration processing unit 11 after setting the target pixel to the pixel pi, j (step S6) will be described.

統合処理手段11は、まず、注目画素pi,jが所定の輝度Dth以上の輝度を有する画素であるか否かを判定し(ステップS9)、注目画素pi,jの輝度Dが所定の輝度Dth以上であれば(ステップS9;YES)、注目画素pi,jを抽出する。   First, the integration processing means 11 determines whether or not the target pixel pi, j is a pixel having a luminance equal to or higher than the predetermined luminance Dth (step S9), and the luminance D of the target pixel pi, j is the predetermined luminance Dth. If it is above (step S9; YES), the target pixel pi, j is extracted.

この場合、上記の所定の輝度Dthは、先行車両Vah等の車両のウインカランプやブレーキランプ等のテールランプTLを検出することができる輝度が設定される。すなわち、輝度Dとしてとり得る値の範囲が例えば0〜255の場合には、所定の輝度Dthは例えば240に設定される。   In this case, the predetermined luminance Dth is set to a luminance capable of detecting a tail lamp TL such as a blinker lamp or a brake lamp of a vehicle such as the preceding vehicle Vah. That is, when the range of values that can be taken as the luminance D is, for example, 0 to 255, the predetermined luminance Dth is set to 240, for example.

なお、以下、このように抽出された画素を抽出画素という。また、注目画素pi,jの輝度Dが所定の輝度Dth未満であれば(ステップS9;NO)、図3のステップS4の処理に移行する。   Hereinafter, the pixel extracted in this way is referred to as an extracted pixel. If the luminance D of the target pixel pi, j is less than the predetermined luminance Dth (step S9; NO), the process proceeds to step S4 in FIG.

統合処理手段11は、注目画素pi,jの輝度Dが所定の輝度Dth以上であると判定して注目画素pi,jを抽出すると(ステップS9;YES)、ステップS10の判定処理に移行する。そして、図5(A)に示すように注目画素pi,jが入力されるより以前に入力されて上記のステップS9の判定処理が行われた、注目画素pi,jの左に隣接する画素pi-1,jが、抽出画素であるか否かを判定する(ステップS10)。   When the integration processing unit 11 determines that the luminance D of the pixel of interest pi, j is equal to or higher than the predetermined luminance Dth and extracts the pixel of interest pi, j (step S9; YES), the integration processing unit 11 proceeds to the determination process of step S10. Then, as shown in FIG. 5A, the pixel pi adjacent to the left of the target pixel pi, j that has been input before the target pixel pi, j is input and subjected to the determination process in step S9 described above. It is determined whether −1, j is an extracted pixel (step S10).

注目画素pi,jの左に隣接する画素pi-1,jが抽出画素である場合には(ステップS10;YES)、統合処理手段11は、続いて、ステップS11の判定処理に移行し、図6(A)に示すように注目画素pi,jが入力されるより以前に入力されて上記のステップS9の判定処理が行われた、注目画素pi,jの下に隣接する画素pi,j-1が、抽出画素であるか否かを判定する(ステップS11)。   When the pixel pi-1, j adjacent to the left of the pixel of interest pi, j is an extracted pixel (step S10; YES), the integration processing unit 11 subsequently proceeds to the determination process of step S11. As shown in FIG. 6 (A), the pixel pi, j− adjacent to the target pixel pi, j, which has been input before the target pixel pi, j and has been subjected to the determination processing in step S9 described above. It is determined whether 1 is an extraction pixel (step S11).

そして、統合処理手段11は、注目画素pi,jの下に隣接する画素pi,j-1が、抽出画素でなければ(ステップS11;NO)、ステップS10の判定処理で、注目画素pi,jの左に隣接する画素pi-1,jは抽出画素であったから、注目画素pi,jとその左に隣接する画素pi-1,jとを1つの画素領域gに統合する(ステップS12)。   Then, if the pixel pi, j-1 adjacent to the pixel of interest pi, j is not an extracted pixel (step S11; NO), the integration processing unit 11 determines the pixel of interest pi, j in the determination process of step S10. Since the pixel pi-1, j adjacent to the left is an extracted pixel, the pixel of interest pi, j and the pixel pi-1, j adjacent to the left are integrated into one pixel region g (step S12).

その際、図5(A)に示したように、左に隣接する画素pi-1,jが他の画素と統合されていなければ、注目画素pi,jと左に隣接する画素pi-1,jが統合されて、左右に隣接する2つの画素からなる画素領域gが新たに形成される。また、例えば図5(B)に示すように、左に隣接する画素pi-1,jが既に画素領域gに属していれば、注目画素pi,jが画素領域gに追加されるように統合され、画素領域gが注目画素pi,jの分だけ1画素分拡大する。   At this time, as shown in FIG. 5A, if the pixel pi-1, j adjacent to the left is not integrated with other pixels, the pixel pi-1, j adjacent to the pixel of interest pi, j is left. j is integrated to newly form a pixel region g composed of two pixels adjacent to the left and right. For example, as shown in FIG. 5B, if the pixel pi-1, j adjacent to the left belongs to the pixel region g, the target pixel pi, j is integrated so as to be added to the pixel region g. Then, the pixel area g is enlarged by one pixel by the pixel of interest pi, j.

また、統合処理手段11は、ステップS11の判定処理で、注目画素pi,jの下に隣接する画素pi,j-1が抽出画素であれば(ステップS11;YES)、ステップS10の判定処理で、注目画素pi,jの左に隣接する画素pi-1,jも抽出画素であったから、注目画素pi,jを、下に隣接する画素pi,j-1および左に隣接する画素pi-1,jと統合する(ステップS13)。   In addition, in the determination process of step S11, if the pixel pi, j-1 adjacent to the target pixel pi, j is an extracted pixel (step S11; YES), the integration processing unit 11 performs the determination process of step S10. Since the pixel pi-1, j adjacent to the left of the pixel of interest pi, j is also an extracted pixel, the pixel of interest pi, j is divided into the pixel pi, j-1 adjacent below and the pixel pi-1 adjacent to the left. , j (step S13).

その際、下に隣接する画素pi,j-1や左に隣接する画素pi-1,jが他の画素と統合されていなければ、注目画素pi,jと下および左に隣接する画素pi,j-1、pi-1,jが統合されて、3つの画素からなる画素領域gが新たに形成される。   At this time, if the pixel pi, j-1 adjacent below and the pixel pi-1, j adjacent to the left are not integrated with other pixels, the pixel pi, j adjacent to the pixel pi, j below and to the left j-1 and pi-1, j are integrated to form a new pixel region g composed of three pixels.

また、例えば図7(A)に示すように、左に隣接する画素pi-1,jが画素領域g1に属し、下に隣接する画素pi,j-1が他の画素領域g2に属している場合、注目画素pi,jが下に隣接する画素pi,j-1および左に隣接する画素pi-1,jと統合されると(ステップS13)、図7(B)に示すように、注目画素pi,jを介して画素領域g1と画素領域g2とが統合されて1つの画素領域gとなる。   For example, as shown in FIG. 7A, the pixel pi-1, j adjacent to the left belongs to the pixel region g1, and the pixel pi, j-1 adjacent to the lower belongs to the other pixel region g2. In this case, when the target pixel pi, j is integrated with the lower adjacent pixel pi, j-1 and the left adjacent pixel pi-1, j (step S13), as shown in FIG. The pixel region g1 and the pixel region g2 are integrated through the pixel pi, j to form one pixel region g.

一方、上記のステップS10の判定処理で、注目画素pi,jの左に隣接する画素pi-1,jが抽出画素でない場合には(ステップS10;NO)、統合処理手段11は、続いて、ステップS14の判定処理に移行し、図6(A)に示したように注目画素pi,jが入力されるより以前に入力されて上記のステップS9の判定処理が行われた、注目画素pi,jの下に隣接する画素pi,j-1が、抽出画素であるか否かを判定する(ステップS14)。   On the other hand, when the pixel pi-1, j adjacent to the left of the target pixel pi, j is not an extracted pixel in the determination process in step S10 described above (step S10; NO), the integration processing unit 11 continues to The process proceeds to the determination process in step S14, and as shown in FIG. 6A, the target pixel pi, which is input before the target pixel pi, j is input and the determination process in step S9 is performed. It is determined whether or not the pixel pi, j-1 adjacent to j is an extracted pixel (step S14).

そして、統合処理手段11は、注目画素pi,jの下に隣接する画素pi,j-1が、抽出画素であれば(ステップS14;YES)、注目画素pi,jとその下に隣接する画素pi,j-1とを1つの画素領域gに統合する(ステップS15)。   Then, if the pixel pi, j-1 adjacent below the target pixel pi, j is an extracted pixel (step S14; YES), the integration processing unit 11 and the pixel adjacent below the target pixel pi, j. Pi, j-1 is integrated into one pixel region g (step S15).

その際、図6(A)に示したように、下に隣接する画素pi,j-1が他の画素と統合されていなければ、注目画素pi,jと下に隣接する画素pi,j-1が統合されて、上下に隣接する2つの画素からなる画素領域gが新たに形成される。また、例えば図6(B)に示すように、下に隣接する画素pi,j-1が既に画素領域gに属していれば、注目画素pi,jが画素領域gに追加されるように統合され、画素領域gが注目画素pi,jの分だけ1画素分拡大する。   At this time, as shown in FIG. 6A, if the pixel pi, j-1 adjacent below is not integrated with other pixels, the pixel pi, j- 1 is integrated to newly form a pixel region g composed of two vertically adjacent pixels. Further, for example, as shown in FIG. 6B, if the pixel pi, j-1 adjacent to the lower side already belongs to the pixel region g, the target pixel pi, j is integrated so as to be added to the pixel region g. Then, the pixel area g is enlarged by one pixel by the pixel of interest pi, j.

また、統合処理手段11は、ステップS14の判定処理で、注目画素pi,jの下に隣接する画素pi,j-1が抽出画素でなければ(ステップS14;NO)、今回、新たに抽出された注目画素pi,jを新たな画素領域gとして登録する(ステップS16)。   Further, in the determination process in step S14, the integration processing unit 11 newly extracts this time if the pixel pi, j-1 adjacent to the target pixel pi, j is not an extraction pixel (step S14; NO). The target pixel pi, j is registered as a new pixel region g (step S16).

統合処理手段11は、ステップS12、S13、S15の処理で注目画素pi,jを隣接する画素pと統合したり、或いは、ステップS16の処理で注目画素pi,jを新たな画素領域gとして登録すると、画素領域gの画素数を更新し、画素領域gの左端gleft、右端grightの画素の各座標や上端gtop、下端gbottomの画素の各座標、中心の座標(gi,gj)等に変更があれば更新する。   The integration processing unit 11 integrates the target pixel pi, j with the adjacent pixel p in the processes of steps S12, S13, and S15, or registers the target pixel pi, j as a new pixel area g in the process of step S16. Then, the number of pixels in the pixel region g is updated, and the coordinates of the pixels at the left end gleft and the right end gright of the pixel region g, the coordinates of the pixels at the upper end gtop and the lower end gbottom, the coordinates of the center (gi, gj), etc. are changed. Update if present.

その際、画素領域gの中心の座標(gi,gj)のうち、giは画素領域gの左端gleftと右端grightの中間点のi座標、gjは画素領域gの上端gtopと下端gbottomの中間点のj座標として算出される。   At this time, among the coordinates (gi, gj) of the center of the pixel region g, gi is the i coordinate of the middle point between the left end gleft and the right end gright of the pixel region g, and gj is the middle point between the upper end gtop and the lower end gbottom of the pixel region g. As the j coordinate.

また、例えば図7(B)に示したように、複数の画素領域g1、g2が統合されて1つの画素領域gとされた場合には、1つに統合された画素領域gの画素領域番号を、統合の対象となった複数の画素領域g1、g2の各画素領域番号のうち例えば最も小さい番号を選択する等して更新する(ステップS17)。   For example, as shown in FIG. 7B, when a plurality of pixel areas g1 and g2 are integrated into one pixel area g, the pixel area number of the integrated pixel area g Is updated by, for example, selecting the smallest number among the pixel area numbers of the plurality of pixel areas g1 and g2 to be integrated (step S17).

そして、統合処理手段11は、ステップS17の処理を終了すると、図3のステップS4の判定処理以降の処理を続行する。そして、以上の処理が、基準画像Tの最上段の水平ラインjまで終了すると統合処理を終了するようになっている。   And the integration process means 11 will continue the process after the determination process of FIG.3 S4, after complete | finishing the process of step S17. Then, when the above processing is completed up to the uppermost horizontal line j of the reference image T, the integration processing is terminated.

ランプ候補抽出手段12(図1参照)は、上記のようにして統合処理手段11が統合した各画素領域gの中から、位置検出手段9が検出した位置データ、すなわち本実施形態では距離画像作成手段としての画像処理手段6が作成した距離画像Tzに基づいて、車両のテールランプTLに対応する可能性がある画素領域gをランプ候補gとして抽出するようになっている。 The lamp candidate extraction unit 12 (see FIG. 1) creates position data detected by the position detection unit 9 from the pixel regions g integrated by the integration processing unit 11 as described above, that is, a distance image in this embodiment. Based on the distance image Tz created by the image processing means 6 as a means, a pixel region g that may correspond to the tail lamp TL of the vehicle is extracted as a lamp candidate g L.

すなわち、統合処理手段11が基準画像T上で統合した画素領域gは、上記のように、先行車両Vah等の車両のウインカランプやブレーキランプ等のテールランプTLの明るさに相当する所定の輝度Dth以上の輝度Dを有する画素を抽出して統合されたものであるが、例えば路面から高い位置にある街路灯に対応する画素領域gであったり、或いは、例えば雨で濡れた路面での反射光に対応する画素領域gであったりする可能性がある。   That is, the pixel region g integrated by the integration processing unit 11 on the reference image T has a predetermined brightness Dth corresponding to the brightness of the tail lamp TL such as a blinker lamp or a brake lamp of a vehicle such as the preceding vehicle Vah as described above. The pixel having the above luminance D is extracted and integrated. For example, the pixel region g corresponding to a street lamp located at a high position from the road surface, or reflected light from a road surface wetted by rain, for example. May be a pixel region g corresponding to.

そこで、本実施形態では、ランプ候補抽出手段12は、統合処理手段11が上記のようにして統合した各画素領域gについて、各画素領域gの路面からの高さyが、車両のテールランプTLが存在する高さyの範囲内にあるか否かを判定するようになっている。この範囲は、例えば路面から10cm〜3mの範囲に設定される。   Therefore, in the present embodiment, the lamp candidate extraction unit 12 determines that the height y from the road surface of each pixel region g for each pixel region g integrated by the integration processing unit 11 as described above is the vehicle tail lamp TL. It is determined whether or not it is within the range of the existing height y. This range is set to a range of 10 cm to 3 m from the road surface, for example.

画素領域gの路面からの高さyは、例えば、上記のようにして更新した画素領域gの上端の座標gtopや下端の座標gbottom、或いは中心のj座標gj(図4のステップS17参照)や、基準画像Tに対応する距離画像Tzから割り出した視差dpを上記(3)式や(2)式に代入して算出される実空間上の高さYとして算出することができる。   The height y of the pixel region g from the road surface is, for example, the coordinate gtop at the upper end, the coordinate gbottom at the lower end of the pixel region g updated as described above, or the j coordinate gj at the center (see step S17 in FIG. 4), The parallax dp calculated from the distance image Tz corresponding to the reference image T can be calculated as the height Y in the real space calculated by substituting the parallax dp into the above equations (3) and (2).

また、例えば、処理部10内に、路面自体の高さを検出する路面検出手段を別に設け、上記の実空間上の高さYから路面自体の高さを減算した値を画素領域gの路面からの高さyとするように構成することも可能である。   Further, for example, a road surface detection unit for detecting the height of the road surface itself is separately provided in the processing unit 10, and a value obtained by subtracting the height of the road surface itself from the height Y in the real space is used as the road surface of the pixel region g. It is also possible to configure so that the height is from y.

そして、ランプ候補抽出手段12は、各画素領域gについて上記の判定を行い、画素領域gの路面からの高さyが上記の設定範囲内にあれば、その画素領域gをランプ候補gとして抽出するようになっている。このようにして、画素領域gは、ランプ候補gと、それ以外の画素領域gとに分類される。 Then, the lamp candidate extraction unit 12 performs the above determination for each pixel region g, and if the height y of the pixel region g from the road surface is within the set range, the pixel region g is set as the lamp candidate g L. It comes to extract. In this way, the pixel area g is classified into the lamp candidate g L and the other pixel area g.

なお、このランプ候補抽出手段12におけるランプ候補gの抽出処理を、上記のように、統合処理手段11が全ての画素領域gを統合し終えた後で行うように構成してもよく、また、統合処理手段11が統合処理を行っている最中に行うように構成することも可能である。すなわち、統合処理手段11が注目画素pi,jを画素領域gに統合したり(図4のステップS12、S13、S15参照)、新たな画素領域gとして登録(ステップS16参照)するごとにランプ候補抽出手段12が行うように構成することも可能である。 The lamp candidate extraction unit 12 may extract the lamp candidate g L after the integration processing unit 11 has integrated all the pixel regions g as described above. The integration processing unit 11 may be configured to perform the integration process. That is, each time the integration processing unit 11 integrates the pixel of interest pi, j into the pixel area g (see steps S12, S13, and S15 in FIG. 4) or registers as a new pixel area g (see step S16), a lamp candidate is obtained. It is also possible to configure so that the extraction means 12 performs.

ランプペア候補抽出手段13(図1参照)は、上記のようにしてランプ候補抽出手段12により抽出された各ランプ候補gの中から、位置検出手段9により検出された位置データ、すなわち本実施形態では距離画像作成手段としての画像処理手段6が作成した距離画像Tzに基づいて、車両の左右のテールランプTLに対応する可能性があるランプ候補gの組み合わせをランプペア候補Pgとして抽出するようになっている。 The lamp pair candidate extracting means 13 (see FIG. 1) is the position data detected by the position detecting means 9 from the lamp candidates g L extracted by the lamp candidate extracting means 12 as described above, that is, the present embodiment. Then, based on the distance image Tz created by the image processing means 6 as the distance image creating means, a combination of lamp candidates g L that may correspond to the left and right tail lamps TL of the vehicle is extracted as a lamp pair candidate Pg L. It has become.

また、近年、車両の背面部分に、ウインカランプやブレーキランプ等の左右のテールランプTLの他に、左右のテールランプの左右方向の中間部分の上部にハイマウントストップランプが設けられた車両が増えているため、ランプペア候補抽出手段13は、このようにハイマウントストップランプが設けられている場合には、そのハイマウントストップランプに対応するランプ候補gも、左右のテールランプTLに対応するランプ候補gの組み合わせであるランプペア候補Pgに追加するようになっている。 Further, in recent years, an increasing number of vehicles are provided with a high-mount stop lamp at the upper portion of the left and right tail lamps in the left and right direction in addition to the left and right tail lamps TL such as a blinker lamp and a brake lamp on the rear portion of the vehicle. Therefore, the lamp pair candidate extraction unit 13, when such a high mount stop lamp is provided, the lamp candidate g L also lamp candidate g L corresponding to the left and right tail lamp TL corresponding to the high mount stop lamp Are added to the lamp pair candidate Pg L , which is a combination of the above.

以下、本実施形態でのランプペア候補抽出手段13におけるランプペア候補Pgの抽出処理について、図8に示すフローチャートを用いて説明する。 Hereinafter, the extraction processing of the lamp pair candidate Pg L in the lamp pair candidate extraction unit 13 in the present embodiment will be described with reference to the flowchart shown in FIG.

ランプペア候補抽出手段13は、全てのランプ候補gの組み合わせについて下記の判定処理を行っていなければ(ステップS20;NO)、ランプ候補抽出手段12により抽出された各ランプ候補gの中から任意に2つのランプ候補gを選択する(ステップS21)。そして、選択した2つのランプ候補gが、車両の左右のテールランプTLとしてふさわしい条件を満たすか否かを判定する(ステップS22)。 If the lamp pair candidate extraction means 13 does not perform the following determination processing for all combinations of lamp candidates g L (step S20; NO), the lamp pair candidate extraction means 13 arbitrarily selects each lamp candidate g L extracted by the lamp candidate extraction means 12. selecting two lamps candidate g L (step S21). Then, it is determined whether or not the two selected lamp candidates g L satisfy a condition suitable for the left and right tail lamps TL of the vehicle (step S22).

具体的には、ステップS22の判定処理において、ランプペア候補抽出手段13は、選択した2つのランプ候補gのうちの一方のランプ候補gの画素数の、他方のランプ候補gの画素数に対する比が、例えば0.5倍〜1.5倍等の所定範囲内であるか否かを判定する。 Specifically, in the determination processing in step S22, the lamp pair candidate extraction unit 13, the number of pixels one lamp candidate g L of the two lamps candidate g L selected, the number of pixels of the other lamp candidate g L It is determined whether the ratio to is within a predetermined range such as 0.5 times to 1.5 times.

また、ランプペア候補抽出手段13は、一方のランプ候補gの基準画像Tにおける縦方向の画素数(例えば当該ランプ候補gとしての画素領域gの前述した上端の座標gtopと下端の座標gbottomの差)の、他方のランプ候補gの基準画像Tにおける縦方向の画素数に対する差が、例えば10画素以内等の所定範囲内であるか否かを判定する。 Further, the lamp pair candidate extraction unit 13, one lamp candidate g longitudinal number of pixels in the reference image T L (e.g., the lamp candidate g L as the aforementioned upper end of the pixel region g of coordinates gtop and bottom coordinates gbottom of It is determined whether or not the difference between the difference) and the number of pixels in the vertical direction in the reference image T of the other lamp candidate g L is within a predetermined range, for example, within 10 pixels.

ランプ候補gの大きさすなわち基準画像T中における各画素数や、縦方向の大きさが違い過ぎる場合には、選択した2つのランプ候補gを車両の左右のテールランプTLに対応するものと見做すことができない。上記の2つの条件は、このような場合を排除するための条件である。 If the size of the lamp candidate g L , that is, the number of pixels in the reference image T or the size in the vertical direction is too different, the two selected lamp candidates g L correspond to the left and right tail lamps TL of the vehicle. I can't take it. The above two conditions are conditions for eliminating such a case.

また、ランプペア候補抽出手段13は、一方のランプ候補gと他方のランプ候補gの実空間上での左右方向の間隔が、車両1台分に相当する例えば2.5m等の幅以内であるか否かを判定する。一方のランプ候補gと他方のランプ候補gの実空間上での左右方向の間隔は、例えば図9に示すように、右側のランプ候補gの右端grightの画素に対応する実空間上のX座標Xrと、左側のランプ候補gの左端gleftの画素に対応する実空間上のX座標Xlとの差分ΔXとして算出される。 Further, the lamp pair candidate extraction unit 13, the distance in the horizontal direction in the real space of one lamp candidate g L and the other lamp candidate g L is within the width of, for example, 2.5m or the like corresponding to one minute vehicle It is determined whether or not there is. Lateral direction spacing in the real space of one lamp candidate g L and the other lamp candidate g L, for example, as shown in FIG. 9, the real space corresponding to the pixel at the right end gright the right lamp candidates g L Is calculated as a difference ΔX between the X coordinate Xr of the left lamp candidate g L and the X coordinate Xl in the real space corresponding to the pixel at the left end gleft of the left lamp candidate g L.

ランプ候補g同士の左右方向の間隔ΔXが車両1台分に相当する幅よりもかけ離れて大きい場合には、選択した2つのランプ候補gを車両の左右のテールランプTLに対応するものと見做すことができない。上記の条件は、このような場合を排除するための条件である。 If the distance ΔX between the lamp candidates g L in the left-right direction is far larger than the width corresponding to one vehicle, the two selected lamp candidates g L are regarded as corresponding to the left and right tail lamps TL of the vehicle. I can't hesitate. The above conditions are conditions for eliminating such a case.

さらに、ランプペア候補抽出手段13は、一方のランプ候補gの実空間上での距離Z(視差dpに対応する。)および高さYが、それぞれ他方のランプ候補の実空間上の位置から所定の範囲内にあるか否かを判定する。例えば、一方のランプ候補gの実空間上での距離Zや高さYが、他方のランプ候補の実空間上の距離Zや高さYの0.8倍〜1.2倍等の範囲内であるか否かを判定する。距離Zと高さYのいずれかが上記の所定の範囲内にない場合には、条件を満たすとは判定されない。 Further, the lamp pair candidate extraction unit 13 determines the distance Z (corresponding to the parallax dp) and the height Y of the one lamp candidate g L from the position of the other lamp candidate in the real space. It is determined whether it is within the range. For example, the distance Z and the height Y in the real space of one lamp candidate g L is in the range of 0.8 times to 1.2 times the like of the distance Z and the height Y of the real space of the other lamp candidate It is determined whether it is in. If either the distance Z or the height Y is not within the predetermined range, it is not determined that the condition is satisfied.

ランプ候補g同士の距離Zや高さYの差があまりにも大きい場合には、選択した2つのランプ候補gを車両の左右のテールランプTLに対応するものと見做すことができない。上記の条件は、このような場合を排除するための条件である。 If the difference between the lamp candidate g L distance Z and the height Y of each other too large can not be regarded as the corresponding two lamp candidates g L selected to tail lamps TL of the left and right of the vehicle. The above conditions are conditions for eliminating such a case.

例えば、前述したように、自車両が片側複数車線の道路を走行しており先行車両Vahの右隣の車線に例えば同型の車両が走行しているような場合に、基準画像T上で、車両のウインカランプやブレーキランプ等のテールランプTLに対応する4つのランプ候補gが横方向に並ぶ場合があり、従来の特許文献2に記載の手法を採用した場合には、先行車両Vahの右側のテールランプTLと右隣の車線を走行している車両の左側のテールランプTLとを1台の車両の左右のテールランプTLとして検出してしまう可能性があった。 For example, as described above, when the host vehicle is traveling on a road having a plurality of lanes on one side and a vehicle of the same type is traveling in the lane on the right side of the preceding vehicle Vah, the vehicle is displayed on the reference image T. four lamps candidate g L corresponding to the tail lamp TL such turn signal lamps and brake lamps may arranged in the horizontal direction, in the case of employing the method described in conventional Patent Document 2, the preceding vehicle Vah right of There is a possibility that the tail lamp TL and the tail lamp TL on the left side of the vehicle traveling in the lane on the right are detected as the left and right tail lamps TL of one vehicle.

しかし、本実施形態では、このように基準画像T上で4つのランプ候補gが横方向に並ぶ場合でも、位置検出手段9が検出した位置データ、すなわち本実施形態では距離画像作成手段としての画像処理手段6が作成した距離画像Tzに基づいて、先行車両Vahの右側のテールランプTLと右隣の車両の左側のテールランプTLとの視差dpや実空間上での距離Zが有意に異なる値である場合には、ランプペア候補抽出手段13によりランプペア候補Pgとしては抽出されない。 However, in the present embodiment, even when the four lamp candidates g L are arranged in the horizontal direction on the reference image T in this way, the position data detected by the position detecting unit 9, that is, the distance image creating unit in the present embodiment. Based on the distance image Tz created by the image processing means 6, the parallax dp between the right tail lamp TL of the preceding vehicle Vah and the left tail lamp TL of the right adjacent vehicle and the distance Z in the real space are significantly different values. In some cases, the lamp pair candidate extraction unit 13 does not extract the lamp pair candidate Pg L.

このように、本実施形態では、上記のような場合でも、それぞれ他の車両の背面部分に設けられた各テールランプTLを、誤って1台の車両の左右のテールランプTLとして検出する可能性を低減することが可能となる。   As described above, in the present embodiment, even in the above-described case, the possibility of erroneously detecting the tail lamps TL provided on the back portions of the other vehicles as the left and right tail lamps TL of one vehicle is reduced. It becomes possible to do.

本実施形態では、ランプペア候補抽出手段13は、選択した2つのランプ候補gが、上記の各条件のうちのいずれかの条件を満たす場合に(ステップS22;YES)当該2つのランプ候補gの組み合わせをランプペア候補Pgとして抽出するようになっている(ステップS23)。そして、このランプペア候補Pgの抽出処理を、ランプ候補抽出手段12により抽出されたランプ候補g同士における全ての組み合わせについて行う(ステップS20;NO)。 In the present embodiment, the lamp pair candidate extraction unit 13 determines that the selected two lamp candidates g L satisfy any one of the above conditions (step S22; YES), the two lamp candidates g L. Are extracted as lamp pair candidates Pg L (step S23). The extraction process of the lamp pair candidate Pg L is performed for all combinations of the lamp candidates g L extracted by the lamp candidate extraction unit 12 (step S20; NO).

また、前述したように、車両によっては、ハイマウントストップランプが設けられている場合があるため、ランプペア候補抽出手段13は、引き続き、ハイマウントストップランプが設けられている場合には、そのハイマウントストップランプに対応するランプ候補gも、左右のテールランプTLに対応するランプ候補gの組み合わせであるランプペア候補Pgに追加するようになっている。 Further, as described above, depending on the vehicle, there is a case where a high mount stop lamp is provided. Therefore, when the high mount stop lamp is continuously provided, the lamp pair candidate extraction means 13 continues to provide the high mount stop lamp. The lamp candidate g L corresponding to the stop lamp is also added to the lamp pair candidate Pg L which is a combination of the lamp candidates g L corresponding to the left and right tail lamps TL.

具体的には、ランプペア候補抽出手段13は、上記のランプペア候補Pgの抽出処理をランプ候補g同士の全ての組み合わせについて行うと(ステップS20;YES)、続いて、抽出した各ランプペア候補Pgについて、図10に示すように、抽出したランプペア候補Pgとしての左右のランプ候補gの間に存在し、かつ、左右のランプ候補gの基準画像Tにおける上側の位置に、別のランプ候補gが存在するか否かを判定する(ステップS24)。 Specifically, when the lamp pair candidate extraction unit 13 performs the above extraction process of the lamp pair candidates Pg L for all combinations of the lamp candidates g L (step S20; YES), subsequently, the extracted lamp pair candidates Pg. As shown in FIG. 10, L exists between the left and right lamp candidates g L as the extracted lamp pair candidate Pg L , and another position exists at the upper position in the reference image T of the left and right lamp candidates g L. It is determined whether or not the lamp candidate g L exists (step S24).

そして、図10に示すように、上記の位置に別のランプ候補gが存在する場合には(ステップS24;YES)、当該別のランプ候補gをハイマウントストップランプとして、左右のランプ候補gからなる当該ランプペア候補Pgに追加するようになっている(ステップS25)。 Then, as shown in FIG. 10, if there is another lamp candidate g L in the above position (step S24; YES), the different lamp candidate g L as a high-mount stop lamp, the left and right lamp candidates It is added to the lamp pair candidate Pg L composed of g L (step S25).

しかし、ハイマウントストップランプとして追加したランプ候補gが、図11に示すように、追加されたランプペア候補Pg1とは別のランプペア候補Pg2に属している場合、基準画像T中で、当該ランプ候補gが追加される前のランプペア候補Pg0の上側に別のランプペア候補Pg2が撮像されているという異常な状態になっている。 However, if the lamp candidate g L added as a high-mount stop lamp belongs to a lamp pair candidate Pg L 2 different from the added lamp pair candidate Pg L 1 as shown in FIG. In this abnormal state, another lamp pair candidate Pg L 2 is imaged above the lamp pair candidate Pg L 0 before the lamp candidate g L is added.

そこで、本実施形態では、ランプペア候補抽出手段13は、このように、ハイマウントストップランプとして追加したランプ候補gが、当該ランプ候補gが追加されたランプペア候補Pg1とは別のランプペア候補Pg2に属しているか否かを判定する(ステップS26)。 Therefore, in the present embodiment, the lamp pair candidate extraction unit 13 thus replaces the lamp candidate g L added as the high-mount stop lamp with a lamp pair different from the lamp pair candidate Pg L 1 to which the lamp candidate g L is added. It is determined whether or not it belongs to the candidate Pg L 2 (step S26).

そして、追加したランプ候補gが、当該ランプ候補gが追加されたランプペア候補Pg1とは別のランプペア候補Pg2に属している場合には(ステップS26;YES)、図12に示すように、追加したランプ候補gを、追加された元のランプペア候補Pg1から除外するようになっている(ステップS27)。この場合、図11に示したランプペア候補Pg1は、図12に示すように、結局、元のランプペア候補Pg0に戻る。 When the added lamp candidate g L belongs to a lamp pair candidate Pg L 2 different from the lamp pair candidate Pg L 1 to which the lamp candidate g L is added (step S26; YES), FIG. As shown, the added lamp candidate g L is excluded from the added original lamp pair candidate Pg L 1 (step S27). In this case, the lamp pair candidate Pg L 1 shown in FIG. 11 eventually returns to the original lamp pair candidate Pg L 0 as shown in FIG.

そして、本実施形態では、この場合、ランプペア候補抽出手段13は、さらに、追加を除外されたランプ候補gが属する当該別のランプペア候補Pg2(図11参照)については、図12に示すように、ランプペア候補としての指定を解除するようになっている。また、追加を除外されたランプ候補gについては、ランプ候補としての指定も解除するように構成することも可能である。 In this embodiment, in this case, the lamp pair candidate extraction unit 13 further shows another lamp pair candidate Pg L 2 (see FIG. 11) to which the lamp candidate g L that is excluded from addition belongs, as shown in FIG. As described above, the designation as a lamp pair candidate is canceled. Further, the lamp candidate g L from which the addition has been excluded can be configured to cancel the designation as a lamp candidate.

ランプペア候補抽出手段13は、上記のステップ24からステップS27までの処理を、抽出した全てのランプペア候補Pgについて行うようになっている(ステップS28)。 The lamp pair candidate extraction means 13 performs the processing from step 24 to step S27 for all the extracted lamp pair candidates Pg L (step S28).

本実施形態では、上記のように、ランプ候補抽出手段12は、前述したように統合処理手段11が統合した各画素領域gの中から車両のテールランプTLに対応する可能性がある画素領域gをランプ候補gとして抽出し、また、ランプペア候補抽出手段13は、ランプ候補抽出手段12が抽出した各ランプ候補gの中から、車両の左右のテールランプTLやハイマウントストップランプに対応する可能性があるランプ候補gの組み合わせをランプペア候補Pgとして抽出するようになっている。 In the present embodiment, as described above, the lamp candidate extraction unit 12 selects the pixel region g that may correspond to the tail lamp TL of the vehicle from among the pixel regions g integrated by the integration processing unit 11 as described above. The lamp candidate g L is extracted as the lamp candidate g L , and the lamp pair candidate extraction unit 13 may correspond to the left and right tail lamps TL and high mount stop lamps of the vehicle from among the lamp candidates g L extracted by the lamp candidate extraction unit 12. A combination of a certain lamp candidate g L is extracted as a lamp pair candidate Pg L.

グルーピング手段14(図1参照)は、本実施形態では、基本的には前述した図20〜図26に示した特許文献1に記載の手法をベースとして位置検出手段により検出された位置データをグループ化するように構成されているが、上記のランプ候補抽出手段12やランプペア候補抽出手段13における処理結果、すなわちランプ候補やランプペア候補の情報を用いて再グルーピング処理を行うように構成されている点で異なる処理になっている。   In this embodiment, the grouping unit 14 (see FIG. 1) basically groups the position data detected by the position detection unit based on the method described in Patent Document 1 shown in FIGS. However, the re-grouping process is performed using the processing results in the lamp candidate extraction unit 12 and the lamp pair candidate extraction unit 13, that is, information on the lamp candidates and the lamp pair candidates. The process is different.

本実施形態では、グルーピング手段14は、位置検出手段9が検出した位置データをグループ化し、グループ化して生成した位置データを含む各グループGについて、ランプ候補抽出手段13により抽出されたランプ候補gに属する位置データを含むグループG同士の再グルーピングの可否を判定し、再グルーピング可能と判定したグループ同士を再グルーピングする。ランプ候補gに属する位置データを含むグループGをGと表す。 In the present embodiment, the grouping unit 14 groups the position data detected by the position detection unit 9, and for each group G including the position data generated by grouping, the lamp candidate g L extracted by the lamp candidate extraction unit 13. It is determined whether or not the group G including the position data belonging to the group G can be regrouped, and the groups determined to be regroupable are regrouped. A group G including position data belonging to the lamp candidate g L is represented as GL .

そして、その後で、ランプ候補gに属さない位置データを含むグループGを含む全てのグループG同士の再グルーピングの可否を判定し、再グルーピング可能と判定したグループG同士を再グルーピングするようにして、位置データを含むグループ化処理およびグループの再グルーピング処理を行うようになっている。 Then, thereafter, it is determined regrouping of whether all groups G between that contains the group G including the position data which does not belong to the lamp candidate g L, so as to re-grouping a group G together it is determined that the re-grouping The grouping process including the position data and the group regrouping process are performed.

その際、このグルーピング手段14における再グルーピング処理では、ランプ候補gに属する位置データを含むグループG同士の再グルーピングを行う際の位置データに関する閾値が、その後の全てのグループG同士の再グルーピングを行う際の閾値よりも、再グルーピングし易い閾値とされるようになっている。 At that time, re-grouping processing in the grouping unit 14, the lamp candidate g threshold on the position data when performing re-grouping of the group G L between containing position data belonging to L are regrouped in all groups G between subsequent The threshold is more easily regrouped than the threshold used when performing the above.

なお、グループ化とグルーピングとは、本来、同じ意味であるが、本発明では、位置検出手段9が検出した位置データをグループ化する処理を、グループ化処理といい、グループ化処理により生成されたグループ同士を再びグループ化する処理を、再グルーピング処理というものとする。   Note that grouping and grouping originally have the same meaning, but in the present invention, the process of grouping the position data detected by the position detecting means 9 is called a grouping process and is generated by the grouping process. The process of grouping the groups again is referred to as a regrouping process.

以下、本実施形態でのグルーピング手段14におけるグループ化処理および再グルーピング処理について、図13および図14に示すフローチャートを用いて説明する。   Hereinafter, the grouping process and the regrouping process in the grouping unit 14 in the present embodiment will be described with reference to the flowcharts shown in FIGS. 13 and 14.

本実施形態では、グルーピング手段14は、前述した図20に示したように、まず、距離画像作成手段である画像処理手段6(図1参照)が作成した距離画像Tzを、所定の画素幅で縦方向に延在する短冊状の複数の区分Dnに分割し(ステップS40)、図21に示したように、各区分DnごとにヒストグラムHnを作成する(ステップS41)。   In the present embodiment, as shown in FIG. 20 described above, the grouping unit 14 first creates a distance image Tz created by the image processing unit 6 (see FIG. 1), which is a distance image creation unit, with a predetermined pixel width. Divided into a plurality of strip-shaped sections Dn extending in the vertical direction (step S40), and as shown in FIG. 21, a histogram Hn is created for each section Dn (step S41).

従来の特許文献1に記載の手法では、ここで、区分Dnに属する各画素に割り当てられた視差dpや距離Zを、当該区分Dnに対応するヒストグラムHnに投票するように構成されている。しかし、本実施形態では、グルーピング手段14は、ここで、ランプ候補抽出手段12(図1参照)が抽出したランプ候補gの情報を活用するようになっている。 In the conventional technique described in Patent Document 1, the parallax dp and the distance Z assigned to each pixel belonging to the section Dn are voted on the histogram Hn corresponding to the section Dn. However, in this embodiment, the grouping unit 14, where (see Fig. 1) the lamp candidate extraction unit 12 is adapted to utilize the extracted information of the lamp candidate g L is.

具体的には、グルーピング手段14は、各区分Dnごとに、区分Dn内にランプ候補抽出手段12が抽出したランプ候補gが存在するか否かを判定する(ステップS42)。そして、区分Dn内にランプ候補gが存在する場合には(ステップS42;YES)、ランプ候補g中の各画素に割り当てられた位置データ(i,j,dp)における距離の情報すなわち本実施形態では視差dpを、ヒストグラムHnに投票する(ステップS43)。 Specifically, the grouping unit 14 determines, for each section Dn, whether or not the lamp candidate g L extracted by the lamp candidate extracting unit 12 exists in the section Dn (step S42). When the lamp candidate g L exists in the section Dn (step S42; YES), information on the distance in the position data (i, j, dp) assigned to each pixel in the lamp candidate g L , that is, this book In the embodiment, the parallax dp is voted on the histogram Hn (step S43).

この場合、当該区分Dn内に、ランプ候補g以外の画素に視差dpが割り当てられていても、その視差dpは当該ヒストグラムHnには投票されない。そして、グルーピング手段14は、例えば当該ヒストグラムHnにおける最頻値が属する階級の階級値を、当該区分Dnにおける代表距離すなわち本実施形態では代表視差dpnとして算出する(ステップS44)。 In this case, on the in-section Dn, even if the parallax dp is assigned to pixels other than the lamp candidate g L, the parallax dp is not found in the histogram Hn. Then, the grouping unit 14 calculates, for example, the class value of the class to which the mode value belongs in the histogram Hn as the representative distance in the section Dn, that is, the representative parallax dpn in the present embodiment (step S44).

また、グルーピング手段14は、区分Dn内にランプ候補gが存在しない場合には(ステップS42;NO)、特許文献1に記載された手法と同様に、当該区分Dn内の各画素に割り当てられた位置データにおける距離の情報すなわち視差dpをヒストグラムHnに投票し(ステップS45)、例えば当該ヒストグラムHnにおける最頻値が属する階級の階級値を、当該区分Dnにおける代表視差dpn(代表距離)として算出する(ステップS46)。 Further, when the lamp candidate g L does not exist in the section Dn (step S42; NO), the grouping unit 14 is assigned to each pixel in the section Dn as in the method described in Patent Document 1. The distance information in the position data, that is, the parallax dp is voted on the histogram Hn (step S45), and for example, the class value of the class to which the mode value in the histogram Hn belongs is calculated as the representative parallax dpn (representative distance) in the section Dn. (Step S46).

ただし、この場合、算出した代表視差dpnに対応するヒストグラムHnの階級の度数Fn(図21参照)が、例えば最頻値であるとしても小さい度数Fnである場合には、算出された代表視差dpnの信頼性が低くなる。   However, in this case, when the frequency Fn (see FIG. 21) of the histogram Hn corresponding to the calculated representative parallax dpn is, for example, the frequency Fn that is small even if it is the mode value, the calculated representative parallax dpn The reliability becomes low.

そこで、本実施形態では、グルーピング手段14は、上記のように、区分Dn内にランプ候補gが存在しない場合(ステップS42;NO)に算出した当該区分Dnの代表視差dpnに対応するヒストグラムHnの階級の度数Fnが、予め設定された所定値未満であるか否かを判定する(ステップS47)。 Therefore, in the present embodiment, the grouping unit 14 as described above, the histogram Hn corresponding to the representative parallax dpn of the section Dn calculated when the lamp candidate g L does not exist in the section Dn (step S42; NO). It is determined whether or not the class frequency Fn is less than a predetermined value set in advance (step S47).

そして、代表視差dpnに対応する度数Fnが所定値未満である場合には(ステップS47;YES)、当該区分Dnについては代表視差dpnを無効とするようになっている(ステップS48)。そのため、グルーピング手段14は、代表視差dpnを無効とした区分Dnについては、代表視差dpnがないものとして以下のグループ化処理を行う。   When the frequency Fn corresponding to the representative parallax dpn is less than the predetermined value (step S47; YES), the representative parallax dpn is invalidated for the section Dn (step S48). Therefore, the grouping unit 14 performs the following grouping process on the assumption that there is no representative parallax dpn for the section Dn in which the representative parallax dpn is invalid.

なお、この代表視差dpnに対応する度数Fnに基づく代表視差dpnを無効とするか否かの判定処理(ステップS47)は、区分Dn内にランプ候補gが存在する場合(ステップS42;YES)には行われない。そのため、この場合には、ステップS44の処理で算出された代表視差dpnに対応するヒストグラムHnの階級の度数Fnが小さな度数Fnであっても、代表視差dpnが無効とされることはない。 The determination process (step S47) for determining whether or not to invalidate the representative parallax dpn based on the frequency Fn corresponding to the representative parallax dpn is when the lamp candidate g L exists in the section Dn (step S42; YES). Is not done. Therefore, in this case, the representative parallax dpn is not invalidated even if the class frequency Fn of the histogram Hn corresponding to the representative parallax dpn calculated in step S44 is a small frequency Fn.

そして、グルーピング手段14は、全ての区分DnについてステップS42〜S48の各処理を行っていなければ(ステップS49;NO)、各区分DnについてステップS42〜S48の各処理を行い、代表視差dpnが無効とされて存在しない場合も含めて、全ての区分Dnについて代表視差dpnを算出する。   If the grouping unit 14 does not perform the processes in steps S42 to S48 for all the sections Dn (step S49; NO), the grouping unit 14 performs the processes in steps S42 to S48 for each section Dn, and the representative parallax dpn is invalid. The representative parallax dpn is calculated for all the sections Dn, including the case where they do not exist.

上記のように構成すると、区分Dn内に、ランプ候補g中の各画素に割り当てられた視差dpから算出された代表視差dpnとは異なる視差dpが割り当てられた画素が、ランプ候補g中の代表視差dpnが割り当てられた各画素よりも多く存在する場合でも(すなわち前者の度数Fnが後者の度数Fnより多い場合でも)、区分Dn内にランプ候補gが存在する場合には、ランプ候補g中の各画素の視差dpから算出された代表視差dpnが当該区分Dnの代表視差dpn(代表距離)として優先的に算出される。 Comprised as described above, in the classification Dn, lamp candidate g pixels different parallax dp is assigned to the representative parallax dpn calculated from the parallax dp assigned to each pixel in the L is the lamp candidate g L in Even when there are more representative parallaxes dpn than the assigned pixels (that is, even when the former frequency Fn is greater than the latter frequency Fn), if there is a lamp candidate g L in the section Dn, the lamp The representative parallax dpn calculated from the parallax dp of each pixel in the candidate g L is preferentially calculated as the representative parallax dpn (representative distance) of the section Dn.

そのため、区分Dn内にランプ候補gが存在する場合には、区分Dn内に存在するランプ候補g以外の部分の画素に割り当てられた視差dpではなく、車両のテールランプTLに対応するランプ候補gにおける代表視差dpnを、当該区分Dnの代表視差dpnとして確実に抽出することが可能となる。 Therefore, when the lamp candidate g L exists in the section Dn, the lamp candidate corresponding to the tail lamp TL of the vehicle, not the parallax dp assigned to the pixels other than the lamp candidate g L existing in the section Dn. It becomes possible to reliably extract the representative parallax dpn in g L as the representative parallax dpn of the section Dn.

本実施形態では、グルーピング手段14は、上記のようにして各区分Dnごとの代表視差dpn(代表距離)を算出すると(ステップS44、S46、S48)、特許文献1に記載された手法と同様に、代表視差dpnを含む各区分Dnの位置データをグルーピングの対象としてグループ化処理を行うようになっている(ステップS50)。   In the present embodiment, when the grouping unit 14 calculates the representative parallax dpn (representative distance) for each section Dn as described above (steps S44, S46, S48), similarly to the method described in Patent Document 1. The grouping process is performed with the position data of each section Dn including the representative parallax dpn as a grouping target (step S50).

各区分Dnごとに算出した代表視差dpnと、例えば短冊状の各区分Dnの横方向(すなわち図20に示した距離画像Tzにおけるi軸方向)の画素幅の中間点のi座標を上記の(1)式および(3)式に代入して、各区分Dnごとの代表視差dpnに対応する実空間上の2次元の位置データ(X,Z)を算出して実空間平面上にプロットすると、各区分Dnごとの代表視差dpnに対応する実空間上の各点は、図23に示したように、自車両前方の各車両に対応する部分に多少ばらつきを持ってプロットされる。   The representative parallax dpn calculated for each section Dn and the i coordinate of the intermediate point of the pixel width in the horizontal direction (that is, the i-axis direction in the distance image Tz shown in FIG. 20) of each strip-shaped section Dn, for example, Substituting into the formulas (1) and (3) to calculate the two-dimensional position data (X, Z) on the real space corresponding to the representative parallax dpn for each section Dn and plot it on the real space plane, Each point on the real space corresponding to the representative parallax dpn for each section Dn is plotted with some variation in the part corresponding to each vehicle ahead of the host vehicle, as shown in FIG.

グルーピング手段14は、このようにプロットされた各点について、実空間上で隣接する点同士のX軸方向(左右方向)の間隔が設定された閾値以内であり、かつ、Z軸方向(距離方向)の間隔が設定された閾値以内であるか否かを判定し、X軸方向の間隔とZ軸方向の間隔がともに各閾値以内である場合に、それらの隣接する点を1つのグループGとしてグループ化するようになっている。   For each point plotted in this way, the grouping means 14 is within a threshold value in which the interval in the X-axis direction (left-right direction) between adjacent points in real space is set, and the Z-axis direction (distance direction) ) Is within a set threshold value, and when both the X-axis direction interval and the Z-axis direction interval are within each threshold value, those adjacent points are defined as one group G. It is designed to be grouped.

また、グルーピング手段14は、グループ化した1つのグループGの中に、左右方向(すなわちX軸方向)に延在する各点の部分と距離方向(すなわちZ軸方向)に延在する各点の部分とが存在する場合には、図24に示したように、グループ化した1つのグループGをその方向性に応じて複数のグループGに分離するようになっている(ステップS51)。なお、この点については特許文献1等に詳述されており、参照されたい。   Further, the grouping means 14 includes a portion of each point extending in the left-right direction (that is, the X-axis direction) and a point extending in the distance direction (that is, the Z-axis direction) in one grouped group G. If there is a portion, as shown in FIG. 24, the grouped one group G is separated into a plurality of groups G according to the directionality (step S51). This point is described in detail in Patent Document 1 and the like, and should be referred to.

グルーピング手段14は、続いて、上記のようにしてグループ化(ステップS50)および分離(ステップS51)を行って生成された各グループGの再グルーピング処理を行うようになっている。   Subsequently, the grouping unit 14 performs a regrouping process for each group G generated by performing grouping (step S50) and separation (step S51) as described above.

具体的には、図14のフローチャートに示すように、グルーピング手段14は、まず、生成したグループG中に、前述したランプペア候補抽出手段13により抽出されたランプペア候補Pgに属する位置データが含まれているか否かを判定する(ステップS52)。 Specifically, as shown in the flowchart of FIG. 14, the grouping unit 14 first includes position data belonging to the lamp pair candidate Pg L extracted by the lamp pair candidate extraction unit 13 in the generated group G. It is determined whether or not (step S52).

そして、グループG中にランプペア候補Pgに属する位置データが含まれている場合(ステップS52;YES)には、当該グループ中の、ランプペア候補Pgを構成する各ランプ候補gに属する位置データ(すなわち図24における各点)と、各ランプ候補gに属さない位置データとを強制的に分離して、それぞれ別のグループGとするようになっている。すなわち、グループGを、ランプ候補gに属する位置データからなるグループGと、ランプ候補gに属する位置データを含まないグループGに分離する。 If position data belonging to the lamp pair candidate Pg L is included in the group G (step S52; YES), position data belonging to each lamp candidate g L constituting the lamp pair candidate Pg L in the group G. (i.e. each point in FIG. 24) and, the position data which does not belong to the lamp candidate g L forcibly separated, are respectively adapted to the different groups G. That is, to separate the group G, lamp and candidate g L group consisting position data belonging to G L, the groups G that do not contain position data belonging to the lamp candidate g L.

前述したように、例えば図31に示したようなシーンでは、従来の特許文献1に記載された手法では、図32に示したように、先行車両Vahである平ボディの荷台付きトラックの荷台Pの後あおりBの左側のエッジ部分が、右側のエッジ部分とグループ化できず、生垣Hと一体化されて1つのグループとされてしまう場合があった。   As described above, for example, in the scene shown in FIG. 31, in the conventional technique described in Patent Document 1, as shown in FIG. 32, the loading platform P of the truck with a loading platform of the flat body which is the preceding vehicle Vah. In some cases, the left edge portion of the rear tilt B cannot be grouped with the right edge portion, and is integrated with the hedge H to form one group.

しかし、本実施形態では、上記のグループ化処理(図13のステップS50)で、仮に先行車両Vahである平ボディの荷台付きトラックの左側のテールランプTLl(図31参照)と生垣Hとが1つのグループとしてグループ化されたとしても、ランプペア候補抽出手段13により左側のテールランプTLlと右側のテールランプTLrに対応する各ランプ候補gがランプペア候補Pgとして抽出されている。 However, in the present embodiment, in the above-described grouping process (step S50 in FIG. 13), the tail lamp TLl (see FIG. 31) on the left side of the truck with a flat body that is the preceding vehicle Vah and the hedge H are one. Even when grouped as a group, the lamp pair candidate extraction unit 13 extracts the lamp candidates g L corresponding to the left tail lamp TLl and the right tail lamp TLr as lamp pair candidates Pg L.

そのため、図14のステップS52の判定処理とステップS53の分離処理を行うことで、図15に示すように、左側のテールランプTLlと生垣Hとが含まれていた1つのグループを、左側のテールランプTLlを含むグループGと、生垣Hを含むがランプ候補gに属する位置データを含まないグループGとを分離して、それぞれ別のグループG、Gに的確に分離することが可能となる。 Therefore, by performing the determination process in step S52 and the separation process in step S53 of FIG. 14, as shown in FIG. 15, one group including the left tail lamp TL1 and the hedge H is replaced with the left tail lamp TL1. and groups G L containing, including hedge H separates the groups G that do not contain position data belonging to the lamp candidate g L, separate groups G L, it is possible to accurately separate G.

なお、この場合、距離画像Tzの1つの区分Dn(図20参照)内に、平ボディの荷台付きトラックの前壁FやキャブCaの背面部分と左側のテールランプTLl(右側のテールランプTLrについても同様)とが含まれる場合がある。   In this case, within one section Dn (see FIG. 20) of the distance image Tz, the front wall F of the truck with a load carrier of the flat body and the rear portion of the cab Ca and the left tail lamp TLl (the same applies to the right tail lamp TLr). ) May be included.

しかし、上記のように、このような区分Dnで、仮に前壁FやキャブCaのエッジ部分に対応する各画素に多くの視差dpが算出されるとしても、左側のテールランプTLlに対応するランプ候補g中の各画素の視差dpから算出された代表視差dpnが当該区分Dnの代表視差dpnとして優先的に算出される。 However, as described above, even if many parallaxes dp are calculated for each pixel corresponding to the edge portion of the front wall F or the cab Ca in such a section Dn, the lamp candidate corresponding to the left tail lamp TLl is calculated. The representative parallax dpn calculated from the parallax dp of each pixel in g L is preferentially calculated as the representative parallax dpn of the section Dn.

そのため、左側のテールランプTLlに対応する代表視差dpnや位置データが確実に抽出される。そして、そのため、上記のように、グルーピング手段14で分離処理(ステップS52、S53)を行うことで、左側のテールランプTLlに対応するグループGとが、確実に生垣Hに対応するグループGと分離されて、それぞれ別のグループとされる。 Therefore, the representative parallax dpn and position data corresponding to the left tail lamp TLl are reliably extracted. And therefore, as described above, by performing separation processing by the grouping unit 14 (step S52, S53), and the group G L corresponding to the left side of the tail lamp TLl is separated from group G corresponding to reliably hedge H Are made into different groups.

グルーピング手段14は、続いて、各グループGの中から、ランプ候補gに属する位置データを含む1つのグループGを任意に選択し(ステップS54)、当該グループGと、他のランプ候補gに属する位置データを含むグループGとの全ての組み合わせについて、再グルーピングの可否を判定する(ステップS55)。 Subsequently, the grouping means 14 arbitrarily selects one group GL including position data belonging to the lamp candidate g L from each group G (step S54), and the group GL and other lamp candidates are selected. Whether or not regrouping is possible is determined for all combinations with the group G L including the position data belonging to g L (step S55).

この場合、再グルーピングの可否の判定においては、例えば、以下の2つの条件をともに満たす場合に再グルーピング可能と判定するように構成することが可能である。   In this case, in determining whether or not regrouping is possible, for example, it is possible to determine that regrouping is possible when both of the following two conditions are satisfied.

すなわち、再グルーピングの可否の判定における1つめの閾値Δdpth(或いはΔzth)として、2つのグループGに属する各位置データのうち、相手方のグループに最も近接する位置データを各グループG中に1つずつ選び出し、その位置データ同士の代表視差dpn(或いは代表距離Zn。以下同じ)の差異Δdp(或いは差異Δz)が10%以内、すなわち一方のグループGから選ばれた位置データにおける代表視差dpnに対する、他方のグループGから選ばれた位置データにおける代表視差dpnの比が0.9倍〜1.1倍の範囲内とし、この範囲内にあるか否かを判定する。 That is, first one threshold Δdpth in the determination of the re-grouping possibility (or Derutazth), among the position data belonging to the two groups G L, the position data that is closest to the group of the other party in each group G L 1 picked by one difference Derutadp (or difference Delta] z) is within 10% of the representative parallax dpn of the position data with each other (or the representative distance Zn. hereinafter the same), i.e. representative parallax dpn in position data selected from one of group G L for the ratio of the representative parallax dpn in position data selected from the other group G L is in the range of 0.9 to 1.1 times, determines whether within this range.

また、再グルーピングの可否の判定における2つめの閾値Δxthとして、2つのグループGからそれぞれ選ばれた上記の2つの位置データについて、それらの実空間上の左右方向の位置(すなわち各X座標)の間隔Δxが2m以内とし、この範囲内にあるか否かを判定する。 Further, as the second threshold value Δxth in the determination of whether or not regrouping is possible, for the above-described two position data respectively selected from the two groups GL , their horizontal positions in the real space (that is, the respective X coordinates). It is determined whether or not the distance Δx is within 2 m.

そして、本実施形態では、グルーピング手段14は、選択した当該グループGと他のグループGとの組み合わせについて、上記の2つの条件がともに満たされた場合に再グルーピング可能と判定し、再グルーピング可能と判定した当該グループGと他のグループG同士を再グルーピングするようになっている(ステップS55)。 In this embodiment, the grouping unit 14 determines that regrouping is possible when the above two conditions are satisfied for the selected combination of the group GL and the other group GL, and the regrouping is performed. The group GL determined to be possible and the other groups GL are regrouped (step S55).

そして、選択した当該グループGと他のグループGとの全ての組み合わせについて上記の再グルーピングの可否の判定、および再グルーピング可能と判定した場合の再グルーピングの実施を行うようになっている。 Then, for all combinations of the selected group GL and other groups GL , the above-described determination of whether or not regrouping is possible is performed, and regrouping is performed when it is determined that regrouping is possible.

また、グルーピング手段14は、全てのグループGについて上記の他のグループGとの再グルーピングの可否の判定および実施を行っていなければ(ステップS56;NO)、全てのグループGについて上記の他のグループGとの再グルーピングの可否の判定および実施の処理(ステップS54、S55)を繰り返すようになっている。 In addition, the grouping unit 14 does not perform the determination and implementation of the regrouping with the other group GL with respect to all the groups GL (step S56; NO), the above-described process with respect to all the groups GL . The determination as to whether or not regrouping with another group GL is possible and the execution process (steps S54 and S55) are repeated.

このランプ候補gに属する位置データを含むグループG同士の再グルーピングの可否の判定における閾値Δdpth(或いはΔzth)、Δxthは、後述するその後の全てのグループG同士の再グルーピングを行う際の閾値Δdpth(或いはΔzth)、Δxthよりも、再グルーピングし易い閾値とされている。 Threshold Δdpth in the determination of the re-grouping of whether the group G L between including position data belonging to the lamp candidate g L (or Δzth), Δxth the threshold when performing the regrouping of all groups G between subsequent described later The threshold is more easily regrouped than Δdpth * (or Δzth * ) and Δxth * .

また、上記のように、ランプ候補gに属する位置データを含まないグループGを除外して、先にランプ候補gに属する位置データを含むグループGについて、再グルーピングし易い閾値Δdpth(或いはΔzth)、Δxthを用いて再グルーピング処理を行うように構成することで、例えば前述した図31に示したようなシーンにおいて、図15に示すようにグループ化された各グループGのうち、ランプ候補gに属する位置データを含む左右のテールランプTLl、TLrに対応する各グループGについて、先に再グルーピングの可否を判定することが可能となる。 Further, as described above, the group G not including the position data belonging to the lamp candidate g L is excluded, and the threshold Δdpth (or the group G L including the position data belonging to the lamp candidate g L is easily regrouped. By performing the regrouping process using Δzth) and Δxth, for example, in the scene as shown in FIG. 31, the lamp candidate among the groups G grouped as shown in FIG. For each group G L corresponding to the left and right tail lamps TLl and TLr including the position data belonging to g L , it is possible to determine whether or not regrouping is possible first.

そして、左右のテールランプTLl、TLrに対応する各グループGについては、上記の2つの条件がともに満たされるため、左右のテールランプTLl、TLrに対応する各グループGを優先的に再グルーピングすることが可能となり、図16に示すように、左右のテールランプTLl、TLrに対応する各グループGを、新たな1つのグループGとすることが可能となる。 Then, the left and right tail lights TLl, for each group G L corresponding to TLr, since the above two conditions are both satisfied, the left and right tail lights TLl, each group G L corresponding to regrouped preferentially to TLr becomes possible, as shown in FIG. 16, the left and right tail lights TLl, each group G L corresponding to TLr, it is possible to a new one of the groups G L.

グルーピング手段14は、ランプ候補gに属する位置データを含む全てのグループGについて上記の処理を行うと(ステップS56;YES)、続いて、再グルーピングされたグループGや再グルーピングされなかったグループGを含む全てのグループGの組み合わせについて再グルーピングの可否の判定、および再グルーピング可能と判定した場合の再グルーピングの実施を行うようになっている(ステップS57)。 Grouping unit 14, for all groups G L containing position data belonging to the lamp candidate g L When performing the above-described processing (step S56; YES), subsequently, was not a group G L and regrouping is regrouping Whether or not regrouping is possible is determined for all combinations of groups G including group GL , and regrouping is performed when it is determined that regrouping is possible (step S57).

その際、ステップS57の再グルーピングの可否の判定における閾値は、例えば、上記の1つめの閾値Δdpth(或いはΔzth)として、上記の差異Δdp(或いはΔz)が5%以内とされ、また、2つめの閾値Δxthとして、上記の実空間上の左右方向の間隔Δxが1m以内とされるなど、上記のランプ候補gに属する位置データを含むグループG同士の再グルーピングの可否の判定における閾値Δdpth(或いはΔzth)、Δxthよりも、再グルーピングし難い閾値とされている。 At that time, for example, the threshold value in the determination of whether or not regrouping is possible in step S57 is the above-described difference Δdp (or Δz) within 5% as the first threshold value Δdpth * (or Δzth * ), as second threshold Δxth *, etc. interval Δx in the horizontal direction in the real space described above is within a 1 m, the determination of the re-grouping of whether the group G L between including position data belonging to the lamp candidate g L The threshold value Δdpth (or Δzth) and Δxth in FIG.

実際には、ステップS57の再グルーピングの可否の判定における閾値Δdpth(或いはΔzth)、Δxthは、再グルーピングし難い閾値というよりも、寧ろ、例えば図31や図32に示したような問題は生じるとしても、例えば図18に示したような通常のシーンにおいては車両を含む各物体を適切に切り分けて検出することができる閾値として設定される。 Actually, the thresholds Δdpth * (or Δzth * ) and Δxth * in the determination of whether or not regrouping is possible in step S57 are problems rather than thresholds that are difficult to regroup, for example, as shown in FIGS. Even if this occurs, for example, in a normal scene as shown in FIG. 18, the threshold is set so that each object including the vehicle can be appropriately separated and detected.

そして、ステップS55の判定処理で用いられる、ランプ候補gに属する位置データを含むグループG同士の再グルーピングの可否の判定における閾値Δdpth(或いはΔzth)、Δxthの方が、それよりもいわば緩い閾値とされて、再グルーピングし易くなるように設定されている。 Then, it used in the determination process in step S55, the threshold Δdpth in the determination of the re-grouping of whether the group G L between including position data belonging to the lamp candidate g L (or Derutazth), found the following Derutaxth, so to speak looser than The threshold value is set so as to facilitate regrouping.

グルーピング手段14は、以上の処理が終了すると、続いて、生成したグループGがランプ候補gに属する位置データを含むグループGであれば(ステップS58;YES)、当該グループG(すなわちグループG)を、車両の背面部分に対応するグループとして識別し(ステップS59)、検出したグループG(すなわちグループG)の情報をメモリに保存する。 When the above processing is completed, the grouping unit 14 continues the group G (that is, the group G) if the generated group G is a group G L including position data belonging to the lamp candidate g L (step S58; YES). L ) is identified as a group corresponding to the rear portion of the vehicle (step S59), and the information of the detected group G (that is, group G L ) is stored in the memory.

また、生成したグループGがランプ候補gに属する位置データを含まないグループGであっても(ステップS58;NO)、当該グループG内の各位置データが実空間上で左右方向(すなわちX軸方向)に延在している場合には(ステップS60;YES)、当該グループGを車両の背面部分に対応するグループとして識別し(ステップS59)、検出したグループGの情報をメモリに保存する。 Further, even if the generated group G is a group G that does not include the position data belonging to the lamp candidate g L (step S58; NO), each position data in the group G is left-right direction (that is, the X axis) in the real space. If it extends in the direction (step S60; YES), the group G is identified as a group corresponding to the rear portion of the vehicle (step S59), and the information of the detected group G is stored in the memory.

なお、この段階で、車両の背面部分に対応するグループとして識別した各グループG、Gについて、例えば、その識別の確からしさを表す確率を算出するように構成することも可能である。 Note that at this stage, for each group G L , G identified as a group corresponding to the rear portion of the vehicle, for example, a probability representing the probability of the identification can be calculated.

その際、例えば、車両の背面部分に対応するグループとして識別した各グループが、ランプ候補gに属する位置データを含むグループGである場合には、高い確率が割り当てられるように構成し、また、ランプ候補gに属する位置データを含む当該グループGの中に、ランプペア候補抽出手段13により抽出された1つのランプペア候補Pgを構成する全てのランプ候補g(ハイマウントストップランプに対応するランプ候補gが含まれることがあることは前述した通り。)が含まれる場合には、さらに高い確率が割り当てられるように構成することが可能である。 At that time, for example, each group was identified as a group corresponding to the rear portion of the vehicle, when a group G L containing position data belonging to the lamp candidate g L is configured to be assigned a high probability, also , in the group G L containing position data belonging to the lamp candidate g L, corresponding to all the lamps candidate g L (high-mount stop lamp constituting a single lamp pair candidate Pg L extracted by the lamp pair candidate extraction unit 13 As described above, the lamp candidate g L to be included may be included, as described above. In this case, a higher probability can be assigned.

そして、例えば、車両の背面部分に対応するグループとして識別した各グループが、ランプ候補gに属する位置データを含まないグループGである場合には、より低い確率が割り当てられるように構成することが可能である。 For example, when each group identified as a group corresponding to the rear portion of the vehicle is a group G that does not include position data belonging to the lamp candidate g L , a lower probability is assigned. Is possible.

一方、グルーピング手段14は、生成したグループGがランプ候補gに属する位置データを含まないグループGであって(ステップS58;NO)、しかも、当該グループG内の各位置データが実空間上で距離方向(すなわちZ軸方向)に延在している場合には(ステップS60;NO)、当該グループGを車両の背面部分に対応するグループとしては識別せず、車両の側面部分や前述した生垣H(図31等参照)のように自車両の進行方向(すなわちZ軸方向)に延在する物体であるとして識別する。なお、この情報をメモリに保存するか否かは適宜決められる。 On the other hand, the grouping means 14 is a group G in which the generated group G does not include position data belonging to the lamp candidate g L (step S58; NO), and each position data in the group G is in real space. When extending in the distance direction (that is, the Z-axis direction) (step S60; NO), the group G is not identified as a group corresponding to the rear portion of the vehicle, and the side portion of the vehicle or the hedge described above. The object is identified as an object extending in the traveling direction of the host vehicle (that is, the Z-axis direction) such as H (see FIG. 31 and the like). Note that whether or not to save this information in the memory is determined as appropriate.

なお、車両の背面部分に対応するグループとして識別したグループG、Gや、自車両の進行方向(すなわちZ軸方向)に延在する物体であるとして識別したグループG、Gについて、図25に示したように各グループG、Gに属する各位置データをそれぞれ直線近似したり、図26に示したように検出したG、Gに対応する車両等の物体を基準画像T上にそれぞれ矩形状の枠線等で包囲して表示する等の処理が適宜行われる。 FIG. 25 shows the groups G L and G identified as groups corresponding to the rear portion of the vehicle and the groups G L and G identified as objects extending in the traveling direction of the host vehicle (that is, the Z-axis direction). As shown in FIG. 26, each position data belonging to each of the groups G L and G is linearly approximated, and the detected object such as a vehicle corresponding to G L and G shown in FIG. Processing such as surrounding and displaying with a rectangular frame or the like is appropriately performed.

グルーピング手段14は、全てのグループG、Gについて上記の処理を行っていなければ(ステップS61;NO)、上記のステップS58〜S60の各処理を繰り返して行う。また、全てのグループG、Gについて上記の処理を行うと(ステップS61;YES)、グルーピング手段14は、検出したグループG、Gの中から先行車両Vahに対応するグループGahを特定して(ステップS62)、処理を終了する。 If the above processing is not performed for all the groups G L and G (step S61; NO), the grouping means 14 repeats the above processing of steps S58 to S60. When the above processing is performed for all the groups G L and G (step S61; YES), the grouping means 14 identifies the group Gah corresponding to the preceding vehicle Vah from the detected groups G L and G. (Step S62), the process ends.

そして、処理部10は、グルーピング手段14が上記の処理を終了すると、メモリに保存された必要な情報を外部装置に送信するとともに、図3に示したステップS1から新たに一連の処理を再開するようになっている。   Then, when the grouping unit 14 ends the above processing, the processing unit 10 transmits necessary information stored in the memory to the external device and restarts a series of processing from step S1 shown in FIG. It is like that.

なお、図14のステップS62における処理では、例えば以下のようにして、先行車両Vahを特定するように構成することが可能である。なお、後述する図17では、図26に示した場合と同様に、位置データが左右方向に延在するグループG、GがグループOとして表記され、位置データが距離方向に延在するグループG、GがグループSとして表記されている。 In addition, in the process in step S62 of FIG. 14, for example, the following vehicle Vah can be specified as follows. In FIG. 17 to be described later, as in the case shown in FIG. 26, the groups G L and G in which the position data extends in the left-right direction are represented as a group O, and the group G in which the position data extends in the distance direction. L and G are described as a group S.

先行車両Vahの特定処理では、図17に示すように自車両の挙動(すなわち車速やヨーレート、ステアリングホイールの舵角等)に基づいて自車両が今後進行するであろう軌跡を走行軌跡Lestとして推定する。   In the preceding vehicle Vah specifying process, as shown in FIG. 17, the trajectory that the host vehicle will travel in the future is estimated as the travel track Lest based on the behavior of the host vehicle (that is, vehicle speed, yaw rate, steering angle of the steering wheel, etc.). To do.

すなわち、自車両の走行軌跡Lestは、自車両の車速Vやヨーレートγ、ステアリングホイールの舵角δ等に基づいて下記(4)式または下記(5)、(6)式に従って算出される自車両の旋回曲率Cuaに基づいて算出することができる。なお、下記の各式におけるReは旋回半径、Asfは車両のスタビリティファクタ、Lwbはホイールベースである。
Cua=γ/V …(4)
Re=(1+Asf・V)・(Lwb/δ) …(5)
Cua=1/Re …(6)
In other words, the travel locus Lest of the host vehicle is calculated according to the following formula (4) or the following formulas (5) and (6) based on the vehicle speed V and yaw rate γ of the host vehicle, the steering angle δ of the steering wheel, and the like. Can be calculated based on the turning curvature Cua. In the following equations, Re is a turning radius, Asf is a vehicle stability factor, and Lwb is a wheelbase.
Cua = γ / V (4)
Re = (1 + Asf · V 2 ) · (Lwb / δ) (5)
Cua = 1 / Re (6)

そして、先行車両Vahに対応するグループGahは、図17に示すように、自車両の走行軌跡Lest上に存在するグループGまたはグループG(すなわちクループO)、或いは、走行軌跡Lestを中心とする自車両の車幅分の領域内に存在するクループOとして検出することができる。例えば図17では、グループO3が先行車両Vahに対応するグループGahとして検出される。 Then, the group Gah corresponding to the preceding vehicle Vah is centered on the group GL or the group G (that is, the group O) existing on the traveling locus Lest of the host vehicle or the traveling locus Lest as shown in FIG. It can be detected as a croup O existing in the area of the vehicle width of the host vehicle. For example, in FIG. 17, the group O3 is detected as the group Gah corresponding to the preceding vehicle Vah.

なお、前回のサンプリング周期で検出した先行車両Vahに対応するグループGahと、今回のサンプリング周期で先行車両Vahに対応するグループGahが、同一の車両に対応するグループGahである確率を算出する等して、整合性を保ちながら先行車両Vahを追跡するように構成することが可能である。   In addition, the group Gah corresponding to the preceding vehicle Vah detected in the previous sampling cycle and the group Gah corresponding to the preceding vehicle Vah in the current sampling cycle are calculated as the group Gah corresponding to the same vehicle. Thus, the preceding vehicle Vah can be tracked while maintaining consistency.

このように構成すれば、検出した先行車両Vahが自車両の前方から離脱してさらにその前方の車両が新たに先行車両Vahとなったり、自車両と先行車両Vahとの間に他の車両が割り込んできて当該他の車両が新たな先行車両Vahとなることによる先行車両Vahの交替等を的確に検出することが可能となる。   If comprised in this way, the detected preceding vehicle Vah will leave | separate from the front of the own vehicle, and the vehicle ahead of it will become the preceding vehicle Vah newly, or other vehicles will exist between the own vehicle and the preceding vehicle Vah. It becomes possible to accurately detect the replacement of the preceding vehicle Vah due to the interruption and the other vehicle becoming the new preceding vehicle Vah.

以上のように、本実施形態に係る車両検出装置1によれば、グルーピング手段14は、前述した特許文献1に記載された手法と同様に、位置検出手段9により検出された位置データをグループ化して車両を含む各物体に対応する各グループGを生成する。   As described above, according to the vehicle detection device 1 according to the present embodiment, the grouping unit 14 groups the position data detected by the position detection unit 9 in the same manner as the method described in Patent Document 1 described above. Then, each group G corresponding to each object including the vehicle is generated.

しかし、本実施形態では、グルーピング手段14は、グループ化して生成した各グループGについてさらに処理を行い、ランプ候補抽出手段12が抽出したランプ候補gに属する位置データを含むグループG同士の再グルーピングの可否を判定し、再グルーピング可能と判定したグループG同士を再グルーピングする。そして、その後で、グループGを含む全てのグループG同士の再グルーピングの可否を判定し、再グルーピング可能と判定したグループG、G同士を再グルーピングするように構成した。 However, in the present embodiment, the grouping unit 14 further performs processing on each group G generated by grouping, and regroups the groups G L including the position data belonging to the lamp candidate g L extracted by the lamp candidate extraction unit 12. Whether grouping is possible is determined, and the groups GL determined to be regroupable are regrouped. Then, after that, it is determined whether or not regrouping of all the groups G including the group G L is possible, and the groups G L and G determined to be regroupable are regrouped.

しかも、その際、ランプ候補gに属する位置データを含むグループG同士の再グルーピングを行う際の位置データに関する閾値Δdpth(或いはΔzth)、Δxthを、その後の全てのグループG、G同士の再グルーピングを行う際の閾値Δdpth(或いはΔzth)、Δxthよりも、再グルーピングし易い閾値となるように構成した。 In addition, at that time, the thresholds Δdpth (or Δzth) and Δxth relating to the position data when regrouping the groups G L including the position data belonging to the lamp candidate g L are set as the values of all the groups G L and G after that. The threshold value Δdpth * (or Δzth * ) and Δxth * for regrouping is set to be a threshold value that facilitates regrouping.

このように、ランプ候補gに属する位置データを含まないグループGを除外して、先にランプ候補gに属する位置データを含むグループGについて、再グルーピングし易い閾値Δdpth(或いはΔzth)、Δxthを用いて再グルーピング処理を行うように構成したため、例えば前述した図31に示したようなシーンにおいても、図15に示すようにグループ化された各グループGのうち、ランプ候補gに属する位置データを含む左右のテールランプTLl、TLrに対応する各グループGについて、先に再グルーピングの可否を判定することが可能となる。 Thus, by excluding a group G containing no position data belonging to the lamp candidate g L, the groups G L containing position data belonging to previously lamp candidate g L, regrouped easily threshold Derutadpth (or Derutazth), Since the regrouping process is performed using Δxth, for example, in the scene as shown in FIG. 31 described above, among the groups G grouped as shown in FIG. 15, it belongs to the lamp candidate g L. left and right tail lights TLl including the position data, for each group G L corresponding to TLr, it is possible to determine the previously re-grouping possibility.

そして、左右のテールランプTLl、TLrに対応する各グループGを優先的に再グルーピングすることが可能となり、図16に示すように、左右のテールランプTLl、TLrに対応する各グループGを、新たな1つのグループGとすることが可能となる。 Then, the left and right tail lights TLl, it is possible to re-grouping preferentially each group G L corresponding to TLr, as shown in FIG. 16, the left and right tail lights TLl, each group G L corresponding to TLr, new One group GL can be obtained.

このように、本実施形態に係る車両検出装置1によれば、車両のウインカランプやブレーキランプ等のテールランプTLに対応するランプ候補g同士の再グルーピングの可否を先に判定し、再グルーピングを行ってそれらを新たな1つのグループGとした上で、他のグループG、Gとの再グルーピングの可否が判定されるため、車両の左右のテールランプTLに対応するグループGを基準として、車両に対応するグループGを検出することが可能となる。 Thus, according to the vehicle detection device 1 according to the present embodiment, the re-grouping of whether the lamp candidate g L each other corresponding to the tail lamps TL such turn signal lamps and brake lights of the vehicle is determined previously, the regrouping performed by on that those with new one group G L, another group G L, since the re-grouping of the possibility is judged with G, based on the group G L corresponding to the tail lamp TL of the left and right sides of the vehicle The group G corresponding to the vehicle can be detected.

そのため、位置検出手段9により検出された位置データを的確にグループ化して、先行車両Vahを含む車両を的確に検出することが可能となる。   For this reason, the position data detected by the position detection means 9 can be accurately grouped to accurately detect the vehicle including the preceding vehicle Vah.

なお、本発明が上記の実施形態に限定されず、適宜変更可能であることはいうまでもない。   Needless to say, the present invention is not limited to the above-described embodiment, and can be changed as appropriate.

1 車両検出装置
2 撮像手段
6 画像処理手段(距離画像作成手段)
9 位置検出手段
11 統合処理手段
12 ランプ候補抽出手段
13 ランプペア候補抽出手段
14 グルーピング手段
Dn 区分
dp 視差(距離)
dpn 代表視差(代表距離)
G グループ
g 画素領域
ランプ候補に属する位置データを含むグループ
ランプ候補
Hn ヒストグラム
(i,j,dp) 位置データ
p 画素
Pg ランプペア候補
T 基準画像(画像)
TL テールランプ
TLl、TLr 左右のテールランプ
Tz 距離画像
Vah 先行車両(車両)
(X,Y,Z) 位置データ
Y 実空間上での高さ
y 路面からの高さ
Z 距離
Zn 代表距離
Δdpth、Δzth、Δxth 閾値
Δdpth、Δzth、Δxth 閾値
ΔX 間隔
DESCRIPTION OF SYMBOLS 1 Vehicle detection apparatus 2 Imaging means 6 Image processing means (distance image creation means)
9 Position detection means 11 Integration processing means 12 Lamp candidate extraction means 13 Lamp pair candidate extraction means 14 Grouping means Dn Section dp Parallax (distance)
dpn representative parallax (representative distance)
G group g pixel area GL group g L lamp candidate Hn including position data belonging to L lamp candidate histogram (i, j, dp) position data p pixel Pg L lamp pair candidate T reference image (image)
TL Tail lamps TLl, TLr Left and right tail lamps Tz Distance image Vah Leading vehicle (vehicle)
(X, Y, Z) Position data Y Height in real space Height from road surface Z Distance Zn Representative distances Δdpth, Δzth, Δxth threshold values Δdpth * , Δzth * , Δxth * threshold values ΔX intervals

Claims (6)

撮像手段により撮像された画像中の各画素について画素ごとに実空間上の距離情報を検出する位置検出手段と、
前記画素の画素値に基づいて抽出した画素領域の中から、前記画像上で車両のテールランプに対応する可能性がある、対となる前記画素領域をランプペア候補として抽出するランプペア候補抽出手段と、
前記位置検出手段により検出された各画素の実空間上の距離情報に基づいて実空間上で近接する点同士をグループ化するグループ化手段と、
前記グループ化したグループの中に実空間上の距離情報が検出された前記ランプペア候補が含まれている場合、前記グループを前記ランプペア候補が属するグループと前記ランプペア候補が属さないグループとに強制的に分離するグルーピング手段と、
を備えることを特徴とする車両検出装置。
Position detecting means for detecting distance information in real space for each pixel in the image captured by the imaging means;
Lamp pair candidate extraction means for extracting the pair of pixel areas as a lamp pair candidate that may correspond to a tail lamp of a vehicle on the image from the pixel areas extracted based on the pixel values of the pixels;
Grouping means for grouping adjacent points in the real space based on distance information in the real space of each pixel detected by the position detection means;
When the grouped group includes the lamp pair candidate from which distance information in real space is detected, the group is forcibly made into a group to which the lamp pair candidate belongs and a group to which the lamp pair candidate does not belong. Grouping means to separate;
A vehicle detection device comprising:
前記グルーピング手段は、前記グループの強制的に分離した上で、前記ランプペア候補が属するグループ同士が実空間上で所定の距離閾値内に存在する場合に、前記ランプペア候補が属するグループ同士を再グループ化することを特徴とする請求項1に記載の車両検出装置。   The grouping means regroups the groups to which the lamp pair candidates belong when the groups to which the lamp pair candidates belong are within a predetermined distance threshold in real space after the groups are forcibly separated. The vehicle detection device according to claim 1. 前記画素値に基づいて、所定の輝度以上の輝度を有する画素を抽出し、抽出した前記画素同士が前記画像上で隣接する場合には前記画素同士を同一の画素領域として統合し、前記実空間上の距離情報に基づいて前記画素領域の路面からの高さを算出し、前記各画素領域の中から、路面からの高さが所定範囲内にある前記画素領域をランプ候補として抽出するランプ候補抽出手段を備え、
前記ランプペア候補抽出手段は、
前記ランプ候補抽出手段により抽出された前記各ランプ候補の中から、任意に2つの前記ランプ候補を選択し、
一方の前記ランプ候補の画素数の、他方の前記ランプ候補の画素数に対する比が所定範囲内であるか、前記一方のランプ候補の前記画像における縦方向の画素数の、前記他方のランプ候補の前記画像における縦方向の画素数に対する差が所定範囲内であるか、前記一方のランプ候補の実空間上での距離および高さがそれぞれ前記他方のランプ候補の実空間上の位置から所定の範囲内にあるか、または、前記一方のランプ候補と前記他方のランプ候補の実空間上での左右方向の間隔が車両1台分に相当する幅以内である場合に、当該2つのランプ候補の組み合わせを前記ランプペア候補として抽出し、
上記の抽出処理を、前記ランプ候補抽出手段により抽出された前記ランプ候補同士における全ての組み合わせについて行うことを特徴とする請求項1または請求項2に記載の車両検出装置。
Based on the pixel value, pixels having a luminance equal to or higher than a predetermined luminance are extracted, and when the extracted pixels are adjacent to each other on the image, the pixels are integrated as the same pixel region, and the real space A lamp candidate that calculates the height of the pixel area from the road surface based on the distance information above, and extracts, from the pixel areas, the pixel area whose height from the road surface is within a predetermined range as a lamp candidate. With extraction means,
The lamp pair candidate extraction means includes:
Arbitrarily selecting two lamp candidates from the lamp candidates extracted by the lamp candidate extraction means;
The ratio of the number of pixels of one lamp candidate to the number of pixels of the other lamp candidate is within a predetermined range, or the number of pixels in the vertical direction in the image of the one lamp candidate is the other lamp candidate. The difference with respect to the number of pixels in the vertical direction in the image is within a predetermined range, or the distance and height of the one lamp candidate in the real space are each within a predetermined range from the position of the other lamp candidate in the real space. Or the combination of the two lamp candidates when the one lamp candidate and the other lamp candidate in the right-and-left direction in the real space are within a width corresponding to one vehicle. Are extracted as the lamp pair candidates,
The vehicle detection apparatus according to claim 1, wherein the extraction process is performed for all combinations of the lamp candidates extracted by the lamp candidate extraction unit.
前記画素値に基づいて、所定の輝度以上の輝度を有する画素を抽出し、抽出した前記画素同士が前記画像上で隣接する場合には前記画素同士を同一の画素領域として統合し、前記実空間上の距離情報に基づいて前記画素領域の路面からの高さを算出し、前記各画素領域の中から、路面からの高さが所定範囲内にある前記画素領域をランプ候補として抽出するランプ候補抽出手段を備え、
前記ランプペア候補抽出手段は、抽出した前記ランプペア候補としての左右の前記ランプ候補の間に存在し、かつ、前記左右のランプ候補の前記画像中の上側の位置に別の前記ランプ候補が存在する場合には、当該別のランプ候補をハイマウントストップランプとして当該ランプペア候補に追加することを特徴とする請求項1から請求項3のいずれか一項に記載の車両検出装置。
Based on the pixel value, pixels having a luminance equal to or higher than a predetermined luminance are extracted, and when the extracted pixels are adjacent to each other on the image, the pixels are integrated as the same pixel region, and the real space A lamp candidate that calculates the height of the pixel area from the road surface based on the distance information above, and extracts, from the pixel areas, the pixel area whose height from the road surface is within a predetermined range as a lamp candidate. An extraction means,
The lamp pair candidate extraction unit exists between the left and right lamp candidates as the extracted lamp pair candidates, and another lamp candidate exists at an upper position in the image of the left and right lamp candidates. The vehicle detection device according to any one of claims 1 to 3, wherein the another lamp candidate is added to the lamp pair candidate as a high-mount stop lamp.
前記ランプペア候補抽出手段は、ハイマウントストップランプとして追加した前記ランプ候補が、当該ランプ候補が追加された前記ランプペア候補とは別の前記ランプペア候補に属している場合には、前記追加したランプ候補を、追加された前記ランプペア候補から除外するとともに、追加を除外された前記ランプ候補が属する当該別のランプペア候補については前記ランプペア候補としての指定を解除することを特徴とする請求項4に記載の車両検出装置。   The lamp pair candidate extraction means, when the lamp candidate added as a high mount stop lamp belongs to the lamp pair candidate different from the lamp pair candidate to which the lamp candidate is added, the added lamp candidate. 5. The vehicle according to claim 4, wherein the vehicle is excluded from the added lamp pair candidate, and the designation as the lamp pair candidate is canceled for the other lamp pair candidate to which the added lamp candidate belongs. Detection device. さらに、前記位置検出手段により検出された前記実空間上の距離情報を、前記撮像手段により撮像された前記画像の対応する各画素に割り当てて距離画像を作成する距離画像作成手段を備え、
前記グループ化手段は、
前記距離画像作成手段により作成された前記距離画像を所定の画素幅で縦方向に延在する複数の区分に分割し、
前記区分ごとにヒストグラムを作成して前記区分内の各画素に割当てられた前記実空間上の距離情報を投票して当該区分の代表距離を算出し、
算出した前記各代表距離を前記グループ化の対象とすることを特徴とする請求項1から請求項5のいずれか一項に記載の車両検出装置。
Furthermore, distance information creating means for creating distance images by assigning distance information in the real space detected by the position detecting means to each corresponding pixel of the image imaged by the imaging means,
The grouping means includes
Dividing the distance image created by the distance image creating means into a plurality of sections extending in the vertical direction with a predetermined pixel width;
Create a histogram for each section and vote the distance information on the real space assigned to each pixel in the section to calculate the representative distance of the section,
The vehicle detection device according to claim 1, wherein the calculated representative distances are targets of the grouping.
JP2014022126A 2014-02-07 2014-02-07 Vehicle detection device Active JP5666726B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014022126A JP5666726B2 (en) 2014-02-07 2014-02-07 Vehicle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014022126A JP5666726B2 (en) 2014-02-07 2014-02-07 Vehicle detection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011030547A Division JP5693994B2 (en) 2011-02-16 2011-02-16 Vehicle detection device

Publications (2)

Publication Number Publication Date
JP2014135062A JP2014135062A (en) 2014-07-24
JP5666726B2 true JP5666726B2 (en) 2015-02-12

Family

ID=51413232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014022126A Active JP5666726B2 (en) 2014-02-07 2014-02-07 Vehicle detection device

Country Status (1)

Country Link
JP (1) JP5666726B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6134693B2 (en) * 2014-09-04 2017-05-24 本田技研工業株式会社 Object detection device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869596A (en) * 1994-08-29 1996-03-12 Fujitsu Ltd Traffic monitoring device
JP3747599B2 (en) * 1997-11-20 2006-02-22 日産自動車株式会社 Obstacle detection device for vehicle
JP2007272785A (en) * 2006-03-31 2007-10-18 Matsushita Electric Ind Co Ltd Image processing type vehicle detector and image processing type vehicle detection method
JP4914234B2 (en) * 2007-01-31 2012-04-11 富士重工業株式会社 Leading vehicle detection device
JP2009048566A (en) * 2007-08-22 2009-03-05 Denso Corp Vehicle detector
JP5073700B2 (en) * 2009-03-24 2012-11-14 富士重工業株式会社 Object detection device
JP5254102B2 (en) * 2009-03-24 2013-08-07 富士重工業株式会社 Environment recognition device

Also Published As

Publication number Publication date
JP2014135062A (en) 2014-07-24

Similar Documents

Publication Publication Date Title
JP5693994B2 (en) Vehicle detection device
JP4956452B2 (en) Vehicle environment recognition device
JP6344638B2 (en) Object detection apparatus, mobile device control system, and object detection program
JP4876080B2 (en) Environment recognition device
JP5371725B2 (en) Object detection device
EP3082066B1 (en) Road surface gradient detection device
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP5591730B2 (en) Environment recognition device
CN107273788B (en) Imaging system for performing lane detection in a vehicle and vehicle imaging system
US9886773B2 (en) Object detection apparatus and object detection method
JP6601506B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, image processing program, and vehicle
CN110088801B (en) Driving region detection device and driving assistance system
JP2007280132A (en) Travel guide obstacle detector, and controller for vehicle
JP2010224918A (en) Environment recognition device
JP5073700B2 (en) Object detection device
JP2007264717A (en) Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device
JP5411671B2 (en) Object detection device and driving support system
JP5727639B2 (en) Vehicle detection device
JP5666726B2 (en) Vehicle detection device
JP2007233487A (en) Pedestrian detection method, device, and program
JP3532896B2 (en) Smear detection method and image processing apparatus using the smear detection method
CN112784671A (en) Obstacle detection device and obstacle detection method
JP2013161433A (en) Periphery monitoring device for vehicle
JP2008143452A (en) Image processor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141210

R150 Certificate of patent or registration of utility model

Ref document number: 5666726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250