JP5254102B2 - Environment recognition device - Google Patents

Environment recognition device Download PDF

Info

Publication number
JP5254102B2
JP5254102B2 JP2009072165A JP2009072165A JP5254102B2 JP 5254102 B2 JP5254102 B2 JP 5254102B2 JP 2009072165 A JP2009072165 A JP 2009072165A JP 2009072165 A JP2009072165 A JP 2009072165A JP 5254102 B2 JP5254102 B2 JP 5254102B2
Authority
JP
Japan
Prior art keywords
group
pixel
real space
distance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009072165A
Other languages
Japanese (ja)
Other versions
JP2010224925A (en
Inventor
徹 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2009072165A priority Critical patent/JP5254102B2/en
Publication of JP2010224925A publication Critical patent/JP2010224925A/en
Application granted granted Critical
Publication of JP5254102B2 publication Critical patent/JP5254102B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、環境認識装置に係り、特に、道路上に存在する光源を検出する環境認識装置に関する。   The present invention relates to an environment recognition apparatus, and more particularly to an environment recognition apparatus that detects a light source existing on a road.

従来から、自車両に例えばCCDカメラやCMOSカメラ等を搭載し、カメラで撮像した撮像画像中から、信号機の点灯されている信号灯等を検出する装置が知られている。   2. Description of the Related Art Conventionally, there has been known a device that mounts a CCD camera, a CMOS camera, or the like on a host vehicle and detects a signal lamp or the like in which a traffic light is lit from a captured image captured by the camera.

例えば、特許文献1に記載された装置では、カメラで撮像された撮像画像から赤色の発光部を抽出し、抽出した赤色発光部の撮像画像上での輝度や大きさ、撮像画像上での高さ、形状、楕円度等に基づいて信号機の赤色発光体の発光状態であるか否か、すなわち赤信号であるか否かを判定する。   For example, in the apparatus described in Patent Document 1, a red light emitting unit is extracted from a captured image captured by a camera, the luminance and size of the extracted red light emitting unit on the captured image, and the high on the captured image. Then, based on the shape, ellipticity, etc., it is determined whether or not the red light emitter of the traffic light is in a light emission state, that is, whether or not it is a red signal.

また、特許文献1に記載された装置では、赤信号が複数抽出された場合には、撮像画像上での赤色発光部の大きさが大きく、かつ、撮像画像上における高さが高いほど自車両に近い距離であると判断して、自車両に近い順に各赤信号を認識することが提案されている。   In addition, in the apparatus described in Patent Document 1, when a plurality of red signals are extracted, the size of the red light emitting unit on the captured image is larger and the height on the captured image is higher. It has been proposed to recognize each red signal in the order of proximity to the host vehicle.

特開2007−34693号公報JP 2007-34693 A

しかしながら、このような従来の赤信号の認識手法では、撮像画像上での輝度や大きさ、高さのみに基づいて発光部を認識しているため、例えば後述する図15に示すように、撮像画像T中に信号機A、B、Cがほぼ同等の大きさで撮像されているような場合、撮像画像Tの中央付近に撮像されている信号機Aが検出されてしまう可能性が高くなる。   However, in such a conventional red signal recognition method, since the light emitting unit is recognized based only on the luminance, size, and height on the captured image, for example, as shown in FIG. When the traffic lights A, B, and C are captured in the image T with approximately the same size, there is a high possibility that the traffic signal A captured near the center of the captured image T will be detected.

しかし、信号機Aは自車両の進行路上ではなく側道上に設置された信号機であり、自車両の進行路上の信号機Bが青信号の場合に信号機Aは赤信号である場合も多い。そのような場合、側道上の信号機Aを自車両の進行路上の信号機と誤認して、赤信号であると認識してしまうと、例えばその検出結果に基づいて自車両のブレーキ制御を行う場合、自車両の進行路上の信号機Bが青信号であるにもかかわらず、信号機Bの手前で自動的にブレーキがかかる状態となり、後続車に追突される等の危険性が生じる。   However, the traffic light A is a traffic light installed on the side road instead of on the traveling path of the host vehicle. When the traffic signal B on the traveling path of the host vehicle is a green signal, the traffic signal A is often a red signal. In such a case, if the traffic light A on the side road is mistaken as a traffic light on the traveling path of the host vehicle and recognized as a red signal, for example, when brake control of the host vehicle is performed based on the detection result, Although the traffic light B on the traveling path of the host vehicle is a green light, the vehicle is automatically braked in front of the traffic light B, and there is a risk that it will be collided with the following vehicle.

このように、特に信号機の点灯されている信号灯のような誤認識が許されない対象を検出する場合、撮像画像上での輝度や大きさ、高さ等のみに基づいて認識する手法では、認識の信頼性が必ずしも高いものとはならない。   Thus, especially when detecting an object that is not allowed to be erroneously recognized, such as a signal light with a traffic light on, the method of recognizing based only on the brightness, size, height, etc. on the captured image Reliability is not necessarily high.

また、自車両から距離が遠い所にある信号機を検出する場合、上記の手法では、赤信号なのか広告塔やネオンサイン等の赤い表示であるのかを区別することが難しく、広告塔やネオンサイン等の赤い表示を赤信号であると誤認識してしまう場合もある。   Also, when detecting traffic lights that are far away from the host vehicle, it is difficult to distinguish whether it is a red signal or a red display such as an advertising tower or neon sign by the above method. In some cases, a red display such as the above is erroneously recognized as a red signal.

道路上に存在する光源としては、信号機の点灯された信号灯のほかにも、例えば先行車両のテールランプやブレーキランプ、ウインカ等のように、誤認識すると甚大な事故を生じかねないものが多く、それらの光源を確実に検出し的確に認識することが可能な環境認識装置の開発が望まれている。   There are many light sources on the road that can cause serious accidents if they are misrecognized, such as tail lights, brake lights, turn signals, etc. It is desired to develop an environment recognition device that can reliably detect and accurately recognize the light source.

本発明は、このような事情に鑑みてなされたものであり、撮像画像中から自車両の進行路上に存在する信号機の点灯されている信号灯等の光源を確実に検出し的確に認識することが可能な環境認識装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and it is possible to reliably detect and accurately recognize a light source such as a signal lamp that is turned on in a traveling path of the host vehicle from a captured image. An object is to provide a possible environment recognition device.

前記の問題を解決するために、第1の発明は、
環境認識装置において、
画素ごとに画像データを有する画像を撮像する撮像手段と、
前記画像の各画素について実空間上の距離を検出する距離検出手段と、
前記画像から道路面を検出する路面検出手段と、
前記画像において互いに隣接する画素の各画像データに基づいて当該隣接する画素を1つのグループに統合する統合処理手段と、
前記グループに属する前記画素および前記グループの周囲に存在する前記画素に対応する前記実空間上の距離の少なくともいずれかに基づいて、前記グループの実空間上の距離を算出する距離算出手段と、
前記グループの実空間上の距離および前記グループの前記画像中での座標に基づいて、当該グループの実空間上の大きさ、前記道路面からの実空間上の高さ、および当該グループの自車両の進行路に対する実空間上の位置を算出し、前記大きさ、高さおよび位置がそれぞれ所定の条件を満たす場合に当該グループを道路上に存在する光源として検出する光源検出手段と、
を備えることを特徴とする。
In order to solve the above problem, the first invention provides:
In the environment recognition device,
Imaging means for imaging an image having image data for each pixel;
Distance detecting means for detecting a distance in real space for each pixel of the image;
Road surface detection means for detecting a road surface from the image;
Integration processing means for integrating adjacent pixels into one group based on image data of adjacent pixels in the image;
Distance calculating means for calculating a distance in the real space of the group based on at least one of the distance in the real space corresponding to the pixels belonging to the group and the pixels existing around the group;
Based on the distance of the group in the real space and the coordinates of the group in the image, the size of the group in the real space, the height in the real space from the road surface, and the host vehicle of the group A light source detection means for calculating a position in real space with respect to the traveling path of the light source, and detecting the group as a light source existing on the road when the size, height, and position respectively satisfy predetermined conditions;
It is characterized by providing.

第2の発明は、第1の発明の環境認識装置において、
前記画像中から自車両側方の車線を検出する車線検出手段を備え、
前記光源検出手段は、前記車線の実空間上の位置に基づいて前記自車両の進行路およびそれに対する前記グループの実空間上の位置を算出することを特徴とする。
The second invention is the environment recognition device of the first invention,
Lane detection means for detecting a lane on the side of the host vehicle from the image,
The light source detection unit calculates a traveling path of the host vehicle and a position of the group in the real space relative to the traveling path based on the position of the lane in the real space.

第3の発明は、第1または第2の発明の環境認識装置において、前記統合処理手段は、予め設定された第1の条件を満たす前記画像データを有する画素を検出するととともに、前記第1の条件で規定される前記画像データの範囲よりも広い範囲に設定された第2の条件を満たす前記画像データを有する画素を検出する場合、前記第1の条件を満たす前記画像データを有する画素と統合して1つのグループとすることを特徴とする。   According to a third aspect of the present invention, in the environment recognition device according to the first or second aspect, the integrated processing unit detects a pixel having the image data that satisfies a preset first condition, and When detecting a pixel having the image data that satisfies the second condition set in a range wider than the range of the image data defined by the condition, the pixel is integrated with the pixel having the image data that satisfies the first condition Thus, one group is used.

第4の発明は、第3の発明の環境認識装置において、
前記画像データはカラーの画像データであり、
前記第1の条件は、前記画像の中から特定の色と特定の明るさを有する前記画素が検出されるように設定されており、
前記第2の条件は、前記特定の色を有するが、その明るさが前記第1の条件で規定される前記特定の明るさよりも暗い前記画素が検出されるように設定されていることを特徴とする。
A fourth invention is the environment recognition device of the third invention, wherein
The image data is color image data,
The first condition is set so that the pixel having a specific color and a specific brightness is detected from the image,
The second condition is set so that the pixel having the specific color but whose brightness is darker than the specific brightness defined by the first condition is detected. And

第5の発明は、第4の発明の環境認識装置において、前記第2の条件は、前記特定の色を有し、その明るさが前記第1の条件で規定される前記特定の明るさよりも明るい前記画素も検出されるように設定されていることを特徴とする。   According to a fifth aspect of the present invention, in the environment recognition device according to the fourth aspect, the second condition has the specific color, and the brightness is higher than the specific brightness defined by the first condition. The bright pixels are set so as to be detected.

第6の発明は、第1から第5のいずれかの発明の環境認識装置において、前記統合処理手段は、前記画素と隣接する画素の前記実空間上の距離の差異と、前記画素の前記実空間上の距離と前記グループの前記実空間上の距離との差異のいずれかの差異が所定の閾値を上回る場合には、前記画素をグループに非統合とすることを特徴とする。   According to a sixth aspect of the present invention, in the environment recognition apparatus according to any one of the first to fifth aspects of the invention, the integration processing unit includes a difference in distance between the pixels adjacent to the pixel in the real space, and the real of the pixel. If any of the differences between the distance in space and the distance in the real space of the group exceeds a predetermined threshold, the pixels are not integrated into the group.

第7の発明は、第1から第6のいずれかの発明の環境認識装置において、前記統合処理手段は、前記画素を前記グループに統合した場合に、当該グループの形状が円形状でなくなる場合には、前記画素を前記グループに非統合とすることを特徴とする。   According to a seventh invention, in the environment recognition device according to any one of the first to sixth inventions, when the integration processing means integrates the pixels into the group, the shape of the group is not circular. Is characterized in that the pixels are not integrated into the group.

第8の発明は、第1から第6のいずれかの発明の環境認識装置において、前記統合処理手段は、前記画素を前記グループに統合した場合に、当該グループの形状が円形状でなくなる場合には、前記グループを棄却して、前記光源検出手段における処理の対象から除外することを特徴とする。   According to an eighth aspect of the present invention, in the environment recognition apparatus according to any one of the first to sixth aspects, when the integration processing unit integrates the pixels into the group, the shape of the group is not circular. Is characterized by rejecting the group and excluding it from the object of processing in the light source detection means.

第9の発明は、第1から第8のいずれかの発明の環境認識装置において、前記距離算出手段は、前記グループに属する前記各画素に対応する前記実空間上の距離と、前記グループの画像上での範囲から左右または上下に探索して、前記実空間上の距離が検出されており前記画像上で前記範囲に最も近接する位置に存在する前記画素に対応する前記実空間上の距離の少なくともいずれかに基づいて、前記グループの実空間上の距離を算出することを特徴とする。   According to a ninth aspect of the present invention, in the environment recognition device according to any one of the first to eighth aspects, the distance calculating means includes the distance in the real space corresponding to the pixels belonging to the group, and the image of the group. The distance in the real space is detected by searching left and right or up and down from the above range, and the distance in the real space corresponding to the pixel existing at the position closest to the range on the image is detected. A distance in the real space of the group is calculated based on at least one of them.

第10の発明は、第9の発明の環境認識装置において、前記距離算出手段は、前記グループに属する前記各画素に対応する前記実空間上の距離、および/または、前記グループの前記画像上での範囲の左右または上下に最も近接する位置に存在する前記画素に対応する前記実空間上の距離の、平均値または中央値を、前記各グループの実空間上の距離として算出することを特徴とする。   A tenth aspect of the invention is the environment recognition device according to the ninth aspect of the invention, in which the distance calculation means is a distance in the real space corresponding to each pixel belonging to the group and / or on the image of the group. Calculating a mean value or a median value of the distances in the real space corresponding to the pixels present closest to the right and left or up and down of the range of the range as the distance in the real space of each group, To do.

第11の発明は、第9の発明の環境認識装置において、前記距離算出手段は、前記グループに属する前記各画素に対応する前記実空間上の距離、および/または、前記グループの前記画像上での範囲の左右または上下に最も近接する位置に存在する前記画素に対応する前記実空間上の距離を、前記グループごとにヒストグラムに投票し、そのピーク値を前記各グループの実空間上の距離として算出することを特徴とする。   An eleventh invention is the environment recognition device according to the ninth invention, wherein the distance calculation means is a distance in the real space corresponding to each pixel belonging to the group and / or on the image of the group. The distance in the real space corresponding to the pixel existing closest to the left or right or up and down of the range is voted on the histogram for each group, and the peak value is set as the distance in the real space of each group. It is characterized by calculating.

第12の発明は、第9の発明の環境認識装置において、前記距離算出手段は、前記グループに属する前記各画素に対応する前記実空間上の距離、および/または、前記グループの前記画像上での範囲の左右または上下に最も近接する位置に存在する前記画素に対応する前記実空間上の距離のうち、近接した値の前記距離同士をまとめ、まとめられた前記距離の群のうち、データ数が最も多い群に属する前記実空間上の距離の平均値または中央値を前記各グループの実空間上の距離として算出することを特徴とする。   A twelfth aspect of the invention is the environment recognition device according to the ninth aspect of the invention, wherein the distance calculation means is a distance in the real space corresponding to each pixel belonging to the group and / or on the image of the group. Of the distances in the real space corresponding to the pixels present closest to the left and right or up and down of the range of The average value or median value of the distances in the real space belonging to the group with the largest number is calculated as the distance in the real space of each group.

第13の発明は、第1から第12のいずれかの発明の環境認識装置において、前記光源検出手段は、前記光源として、信号機の点灯された信号灯、先行車両のテールランプ、ブレーキランプ、ウインカのいずれかを検出することを特徴とする。   A thirteenth aspect of the present invention is the environment recognition apparatus according to any one of the first to twelfth aspects of the present invention, wherein the light source detection means is any one of a signal light with a traffic light lit, a tail lamp of a preceding vehicle, a brake lamp, and a blinker as the light source. It is characterized by detecting.

第14の発明は、第1から第13のいずれかの発明の環境認識装置において、前記光源検出手段は、前記光源として信号機の点灯された信号灯を検出する場合、検出した前記グループの前記画像上の位置から下方の所定距離内に、物体が存在しない場合に、前記信号機の点灯された信号灯を検出することを特徴とする。   According to a fourteenth aspect of the present invention, in the environment recognition apparatus according to any one of the first to thirteenth aspects, the light source detection unit detects a signal light with a traffic light turned on as the light source, and detects the detected signal on the image of the group. When the object does not exist within a predetermined distance below the position, a signal lamp with which the traffic light is lit is detected.

第1の発明によれば、各グループに属する各画素の実空間上の距離に基づいて各グループの実空間上の大きさ、道路面からの実空間上の高さ、およびグループの道路面上での自車両の進行路に対する実空間上の位置が判定されるため、それらに基づいて、検出した光源が信号機の点灯された信号灯(例えば赤信号)等であるか否かを判定して的確に認識することが可能となる。また、それにより、光源を精度良く確実に検出することが可能となるとともに、認識の信頼性を飛躍的に向上させることが可能となる。   According to the first invention, based on the distance in the real space of each pixel belonging to each group, the size in the real space of each group, the height in the real space from the road surface, and the road surface of the group Since the position in real space with respect to the traveling path of the host vehicle is determined, whether or not the detected light source is a signal light (for example, a red signal) with a traffic light turned on is determined accurately. Can be recognized. As a result, the light source can be detected accurately and reliably, and the recognition reliability can be greatly improved.

また、光源が自車両から遠い距離にある場合でも、実空間上の大きさや道路面からの実空間上の高さ、道路面上での自車両の進行路に対する実空間上の位置に基づいて光源を判定するため、例えば、道路脇の広告塔やネオンサイン等の赤い表示を赤信号であると誤認識することを的確に防止することが可能となる。   Even when the light source is at a distance from the host vehicle, it is based on the size in the real space, the height in the real space from the road surface, and the position in the real space with respect to the traveling path of the host vehicle on the road surface. Since the light source is determined, it is possible to accurately prevent, for example, erroneous recognition of a red display such as an advertising tower beside a road or a neon sign as a red signal.

第2の発明によれば、画像中から検出した自車両側方の車線の情報に基づいて自車両の進行路やそれに対するグループの実空間上の位置、道路面を的確に算出することが可能となり、前記発明の効果がより的確かつ確実に発揮される。   According to the second invention, it is possible to accurately calculate the traveling path of the host vehicle, the position of the group in real space, and the road surface based on the information on the lane on the side of the host vehicle detected from the image. Thus, the effects of the present invention are more accurately and reliably exhibited.

第3の発明によれば、画像上では、光源は、中央が明るく、中央から離れるに従って暗く撮像されるという特徴を有するが、最初に中央の明るい部分を検出するように構成すると、画像中に撮像された空等の明るい部分が全て検出されてしまうため、検出すべき光源を効率良く検出できない。   According to the third aspect of the invention, on the image, the light source has a feature that the center is bright and the image is darkened as the distance from the center increases. Since all bright portions such as the sky that have been imaged are detected, the light source to be detected cannot be detected efficiently.

そのため、前記各発明の効果に加え、画素の画像データに対する第1の条件を、中央の明るい部分ではなく、その周囲の部分の画像データを有する画素に絞り込んで検出するように規定し、当該画素の周囲の画素の探索における第2の条件を第1の条件で規定される画像データの範囲よりも広い範囲に設定して画素を検出することで、光源を効率良く検出することが可能となる。   Therefore, in addition to the effects of the respective inventions, the first condition for the image data of the pixel is defined so as to be detected by narrowing down to pixels having the image data of the peripheral portion instead of the central bright portion, and the pixel By detecting the pixels by setting the second condition in the search for the surrounding pixels of the pixel to a range wider than the range of the image data defined by the first condition, it becomes possible to detect the light source efficiently. .

第4の発明によれば、カラー画像上では、光源は、中央に白っぽく明るい部分が撮像され、その周囲に光源に特有の色を有する明るい部分が撮像され、さらにその周囲に光源に特有の色を有するが暗い部分が撮像されるという特徴を有するが、最初に中央の白っぽく明るい部分を検出するように構成すると、画像中に撮像された空等の白っぽく明るい部分が全て検出されてしまうため、検出すべき光源を効率良く検出できない。   According to the fourth invention, on the color image, the light source has an image of a white and bright part in the center, an image of a bright part having a color specific to the light source in the periphery, and a color specific to the light source in the periphery. However, if it is configured to detect a white whitish bright part at the center, all whitish bright parts such as the sky captured in the image will be detected. The light source to be detected cannot be detected efficiently.

そのため、前記各発明の効果に加え、画素の画像データに対する第1の条件を、中央の白っぽい明るい部分ではなく、その周囲の部分の、光源に特有の特定の色と特定の明るさを有する画素に絞り込んで検出するように規定し、その後の当該画素の周囲の画素の探索における第2の条件を、第1の条件で規定される画像データの範囲よりも広く、特定の色を有するがその明るさが第1の条件で規定される特定の明るさよりも暗い範囲に設定して画素を検出することで、光源に特有の辺縁部の暗い部分を含めて、光源に特有の色に着目して光源を効率良く検出することが可能となる。   Therefore, in addition to the effects of the above-described inventions, the first condition for the image data of the pixel is that the pixel having a specific color and a specific brightness specific to the light source in the peripheral portion, not in the central whitish bright portion The second condition in the subsequent search for pixels around the pixel is wider than the range of image data defined by the first condition, and has a specific color. Focus on colors specific to the light source, including the dark part of the edge that is specific to the light source, by detecting the pixels with the brightness set to a range darker than the specific brightness specified in the first condition Thus, the light source can be detected efficiently.

第5の発明によれば、第2の条件を、光源に特有の特定の色を有しその明るさが第1の条件で規定される特定の明るさよりもさらに明るい画素も検出されるように設定することで、光源に特有の中央の白っぽく明るい部分を含めて、光源に特有の色に着目して光源を効率良く検出することが可能となり、前記各発明の効果がより的確に発揮させることが可能となる。   According to the fifth invention, the second condition is such that a pixel having a specific color specific to the light source and having a brightness higher than the specific brightness defined by the first condition is also detected. By setting, it becomes possible to efficiently detect the light source by focusing on the color peculiar to the light source including the central whitish bright part peculiar to the light source, and the effects of each of the above inventions can be exhibited more accurately. Is possible.

第6の発明によれば、画素と隣接する画素の実空間上の距離の差異や、グループの実空間上の距離との差異が所定の閾値を上回り大きく離れている場合には、当該画素と、隣接する画素やグループとは、異なる撮像対象に対応する画素であると考えられるため、そのような場合に画素をグループに非統合とするように構成することで、異なる撮像対象に対応する画素を1つのグループに統合することが回避され、画像上に撮像された異なる撮像対象をそれぞれ別のグループに分割して検出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   According to the sixth aspect of the present invention, when the difference in the real space between the pixel and the adjacent pixel or the difference in the real space between the groups is more than a predetermined threshold value, Since adjacent pixels and groups are considered to be pixels corresponding to different imaging targets, in such a case, pixels corresponding to different imaging targets can be configured by making the pixels non-integrated into groups. Are integrated into one group, and different imaging targets captured on the image can be divided into different groups and detected, and the effects of the above-described inventions can be more accurately exhibited. It becomes possible.

第7の発明によれば、信号機の点灯された信号灯等の光源を検出する場合、画像上で光源が撮像された画素領域に他の光源からの光が入り込んで検出したグループ全体の形状が円形状でなくなる場合がある。そのような場合に、検出の途中で、画像上でのグループの全体の形状が円形状でなくなった時点で当該画素をグループに非統合として統合処理を終了することで、他の光源から入り込んだ光の部分を的確に排除して、目的の光源から発光された光のみを的確に抽出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   According to the seventh invention, when detecting a light source such as a signal lamp with a traffic light turned on, the shape of the entire group detected by entering light from another light source into a pixel area where the light source is imaged on the image is a circle. It may lose its shape. In such a case, during the detection, when the entire shape of the group on the image is no longer circular, the pixel is not integrated into the group and the integration process is terminated, so that the light enters from another light source. It is possible to accurately exclude only the light portion and extract only the light emitted from the target light source, and to exhibit the effects of the inventions more accurately.

第8の発明によれば、他の光源からの光が入り込む環境にないような光源の場合には、検出の途中で、画像上でのグループの全体の形状が円形状でないことが分かった段階で統合処理を打ち切り、グループを棄却するように構成した方が処理の効率が向上する場合がある。そのため、そのような場合にして、グループを棄却して、その後の距離算出手段や光源検出手段における処理の対象から除外することで目的の光源を効率良く検出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   According to the eighth invention, in the case of a light source that does not have an environment where light from another light source enters, it is found that the entire shape of the group on the image is not circular during detection. In some cases, it is possible to improve the efficiency of the process by disposing the integration process and rejecting the group. Therefore, in such a case, it becomes possible to efficiently detect the target light source by rejecting the group and excluding it from the processing target in the subsequent distance calculation means and light source detection means. The effect can be exhibited more accurately.

第9の発明によれば、統合して検出したグループ自体の実空間上での距離を算出する場合、グループに属する各画素について距離検出手段により実空間上の距離がそれぞれ検出されていればそれらを用いてグループの実空間上の距離を算出することができるが、それらの画素に必ずしも実空間上の距離が検出されているとは限らない。   According to the ninth invention, when calculating the distance in the real space of the group itself detected in an integrated manner, if the distance in the real space is detected by the distance detection means for each pixel belonging to the group, The distance in the real space of the group can be calculated using, but the distance in the real space is not always detected for these pixels.

そのため、そのような場合には、画像上でグループが占める画素範囲を越えて上下や左右に実空間上の距離が検出されている画素を探し、それらの画素のうちでグループに最も近い画素の実空間上の距離を用いてグループの実空間上の距離を算出することが可能となる。そして、そのように構成することで、グループの実空間上の距離を的確に算出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   Therefore, in such a case, a pixel whose distance in the real space is detected vertically and horizontally beyond the pixel range occupied by the group on the image is searched, and the pixel closest to the group among those pixels is searched. The distance in the real space of the group can be calculated using the distance in the real space. And it becomes possible to calculate the distance in the real space of a group exactly by comprising in that way, and it becomes possible to exhibit the effect of each said invention more exactly.

第10の発明によれば、上記のようにグループの実空間上の距離を算出する際、グループに属する各画素や上記のようにグループに最も近接する画素の実空間上の距離の平均値や中央値を算出して、各グループの実空間上の距離とすることで、各グループの実空間上の距離を容易かつ的確に算出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   According to the tenth invention, when calculating the distance in the real space of the group as described above, the average value of the distance in the real space of each pixel belonging to the group or the pixel closest to the group as described above, By calculating the median and calculating the distance of each group in the real space, it becomes possible to easily and accurately calculate the distance of each group in the real space, and the effects of the above-described inventions can be demonstrated more accurately. It becomes possible to make it.

第11の発明によれば、上記のようにグループの実空間上の距離を算出する際、グループに属する各画素や上記のようにグループに最も近接する画素の実空間上の距離のデータを、グループごとに作成された各ヒストグラムに投票し、そのピーク値を各グループの実空間上の距離として算出することで、例えば各画素の実空間上の距離のデータ中に誤検出等で他の画素の実空間上の距離から大きく離れた実空間上の距離のデータが存在しても、その大きく離れた実空間上の距離のデータに引きずられることなく、各グループの実空間上の距離を的確に算出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   According to the eleventh aspect, when calculating the distance in the real space of the group as described above, the data of the distance in the real space of each pixel belonging to the group or the pixel closest to the group as described above is obtained. By voting on each histogram created for each group and calculating the peak value as the distance in the real space of each group, for example, other pixels due to false detection or the like in the distance data of each pixel in the real space Even if there is distance data in the real space that is far away from the distance in the real space, the distance in the real space that is far away is not dragged by the data in the real space. Thus, the effects of the respective inventions can be exhibited more accurately.

第12の発明によれば、上記のようにグループの実空間上の距離を算出する際、グループに属する各画素や上記のようにグループに最も近接する画素の実空間上の距離のデータとして、近接した値同士を群にまとめられるような距離のデータが得られた場合、まとめられた距離の群のうち、データ数が最も多い群に属する実空間上の距離の平均値や中央値を各グループの実空間上の距離として算出することで、各グループの実空間上の距離を的確に算出することが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。   According to the twelfth invention, when calculating the distance in the real space of the group as described above, as the data of the distance in the real space of each pixel belonging to the group or the pixel closest to the group as described above, When distance data is obtained so that close values can be grouped together, the average and median distances in real space belonging to the group with the largest number of data among the group of distances collected By calculating the distance in the real space of the group, the distance in the real space of each group can be accurately calculated, and the effects of the respective inventions can be more accurately exhibited.

第13の発明によれば、光源が信号機の点灯された信号灯や先行車両のテールランプ、ブレーキランプ、ウインカ等である場合にも、前記各発明の効果が的確に発揮され、撮像された少なくとも画像中から信号機の点灯された信号灯等の目的の光源を確実に検出して的確に認識することが可能となる。   According to the thirteenth invention, even when the light source is a signal light with a traffic light turned on, a tail lamp of a preceding vehicle, a brake lamp, a blinker, etc., the effect of each of the above inventions is accurately exhibited, and at least in the captured image. Therefore, it is possible to reliably detect and accurately recognize a target light source such as a signal light with a traffic light turned on.

第14の発明によれば、前記各発明の効果に加え、光源として信号機の点灯された信号灯を検出する場合、実空間上で信号機の信号灯の下方の所定距離内には物体が存在せず、空間が存在するはずであるから、統合し検出したグループが他の条件を満たし、さらにその下側の所定距離内に物体が存在しない空間部分があれば、そのグループを信号機の点灯された信号灯であると的確に認識することが可能となり、光源として特に信号機の点灯された信号灯を検出する場合にその検出や認識の信頼性をさらに向上させることが可能となる。   According to the fourteenth invention, in addition to the effects of the above inventions, in the case of detecting a signal light with a traffic light lit as a light source, there is no object within a predetermined distance below the signal light of the traffic light in real space, Since a space should exist, if the group detected by integration meets other conditions, and there is a space part where no object exists within a predetermined distance below it, the group is identified by a signal light with a traffic light. It becomes possible to accurately recognize that there is, and it is possible to further improve the reliability of detection and recognition when detecting a signal light with a traffic light turned on, particularly as a light source.

第1の実施形態に係る環境認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the environment recognition apparatus which concerns on 1st Embodiment. 撮像手段で撮像される基準画像の例を示す図である。It is a figure which shows the example of the reference | standard image imaged with an imaging means. 距離検出手段のイメージプロセッサによるステレオマッチング処理を説明する図である。It is a figure explaining the stereo matching process by the image processor of a distance detection means. 作成された距離画像の例を示す図である。It is a figure which shows the example of the produced distance image. 基準画像の水平ライン上を探索して検出された車線候補点の例を説明する図である。It is a figure explaining the example of the lane candidate point detected by searching on the horizontal line of a reference image. 自車両側方に検出された車線の例を説明する図である。It is a figure explaining the example of the lane detected by the own vehicle side. 形成された車線モデルの例を説明する図であり、(A)はZ−X平面上の水平形状モデル、(B)はZ−Y平面上の道路高モデルを表す。It is a figure explaining the example of the formed lane model, (A) represents the horizontal shape model on a ZX plane, (B) represents the road height model on a ZY plane. 基準画像上に撮像された光源の例を示す図である。It is a figure which shows the example of the light source imaged on the reference | standard image. 検出した画素の上下方向に探索して検出された第2の条件を満たす画素およびグループを示す図である。It is a figure which shows the pixel and group which satisfy | fill the 2nd condition detected by searching in the up-down direction of the detected pixel. 図9の画素列の右隣の画素列におけるグループの検出の手法を説明する図である。FIG. 10 is a diagram illustrating a method for detecting a group in a pixel column on the right side of the pixel column in FIG. 9. グループの縦方向の長さの変化を説明する図であり、(A)は最大値になった場合、(B)は最大値より短い場合、(C)は(B)よりさらに短い場合を表す。It is a figure explaining the change of the length of the vertical direction of a group, when (A) becomes the maximum value, (B) is shorter than a maximum value, (C) represents the case where it is still shorter than (B). . グループの縦方向の長さが最小値より増加した場合を説明する図である。It is a figure explaining the case where the length of the vertical direction of a group has increased from the minimum value. グループの範囲の上下に近接し実空間上の距離が検出されている各画素を表す図である。It is a figure showing each pixel which adjoined the upper and lower sides of the range of the group, and the distance in real space is detected. グループの左右端の各画素および上下端の各画素を説明する図である。It is a figure explaining each pixel of the right-and-left end of a group, and each pixel of an upper-lower end. 自車両の進行路上の信号機を含む複数の信号機が撮像された基準画像の例を示す図である。It is a figure which shows the example of the reference | standard image by which the some signal apparatus containing the signal apparatus on the advancing path of the own vehicle was imaged. 図15の基準画像上で自車両の進行路に基づいて検出された信号機を説明する図である。It is a figure explaining the traffic signal detected based on the advancing path of the own vehicle on the reference | standard image of FIG. グループに属する各画素に対応する実空間上の各点をX−Z平面にプロットした例を説明する図である。It is a figure explaining the example which plotted each point on the real space corresponding to each pixel which belongs to a group on the XZ plane. グループに属する各画素に対応する実空間上の各点をY−Z平面にプロットした例を説明する図である。It is a figure explaining the example which plotted on the YZ plane each point on the real space corresponding to each pixel which belongs to a group.

以下、本発明に係る環境認識装置の実施の形態について、図面を参照して説明する。   Hereinafter, an embodiment of an environment recognition apparatus according to the present invention will be described with reference to the drawings.

本実施形態に係る環境認識装置1は、図1に示すように、撮像手段2や距離検出手段6、統合処理手段10や距離算出手段11、光源検出手段12、路面検出手段14等を有する処理部9等を備えて構成されている。   As shown in FIG. 1, the environment recognition apparatus 1 according to the present embodiment includes processing including an imaging unit 2, a distance detection unit 6, an integration processing unit 10, a distance calculation unit 11, a light source detection unit 12, a road surface detection unit 14, and the like. The unit 9 is provided.

なお、距離検出手段6等を含む処理部9の上流側の構成については、本願出願人により先に提出された特開2006−72495号公報等に詳述されており、構成の詳細な説明はそれらの公報に委ねる。以下、簡単に説明する。   The upstream configuration of the processing unit 9 including the distance detecting means 6 and the like is described in detail in Japanese Patent Application Laid-Open No. 2006-72495 previously filed by the applicant of the present application. Leave them to the gazette. A brief description is given below.

本実施形態では、撮像手段2は、互いに同期が取られたCCDやCMOSセンサ等のイメージセンサがそれぞれ内蔵され、例えば車両のルームミラー近傍に車幅方向に所定の間隔をあけて取り付けられた一対のメインカメラ2aおよびサブカメラ2bからなるステレオカメラであり、所定のサンプリング周期で撮像して、一対の画像を出力するように構成されている。   In the present embodiment, the image pickup means 2 includes a built-in image sensor such as a CCD or a CMOS sensor that is synchronized with each other. For example, a pair of image sensors 2 attached in the vicinity of a vehicle rearview mirror with a predetermined interval in the vehicle width direction. The stereo camera is composed of a main camera 2a and a sub camera 2b, and is configured to capture a predetermined sampling period and output a pair of images.

一対のカメラのうち、メインカメラ2aは運転者に近い側のカメラであり、例えば図2に示すような画像Tを撮像するようになっている。サブカメラ2bで撮像された画像と区別するために、以下、メインカメラ2aで撮像された画像Tを基準画像T、サブカメラ2bで撮像された画像を比較画像Tcという。   Of the pair of cameras, the main camera 2a is a camera on the side close to the driver, and takes an image T as shown in FIG. 2, for example. In order to distinguish from the image captured by the sub camera 2b, hereinafter, the image T captured by the main camera 2a is referred to as a reference image T, and the image captured by the sub camera 2b is referred to as a comparative image Tc.

なお、本実施形態では、撮像手段2のメインカメラ2aおよびサブカメラ2bでは、それぞれRGB値等で表されるカラーの画像データDが取得されるようになっているが、モノクロの画像データを撮像する撮像手段を用いることも可能であり、その場合についても本発明が適用される。また、以下、カラーの画像データDが、RGB値、すなわちRGB表色系におけるR(赤)、G(緑)、B(青)の色成分で表現される各データ値として出力される場合について説明するが、RGB値を例えばL表色系やHLS(HSL、HSIともいう。)等で記述される各データ値に変換して処理を行うように構成することも可能である。 In the present embodiment, the main camera 2a and the sub camera 2b of the image pickup unit 2 acquire color image data D represented by RGB values or the like, but pick up monochrome image data. It is also possible to use an imaging means that performs this, and the present invention is also applied to such a case. Hereinafter, the case where the color image data D is output as RGB values, that is, data values represented by R (red), G (green), and B (blue) color components in the RGB color system. As will be described, the RGB value can be converted into each data value described in, for example, the L * a * b * color system, HLS (also referred to as HSL, HSI), or the like. is there.

変換手段3は、一対のA/Dコンバータ3a、3bで構成されており、撮像手段2のメインカメラ2aおよびサブカメラ2bで各画素ごとに撮像された基準画像Tと比較画像Tcの各画像データDがそれぞれ順次送信されてくると、各画像データDのRGB値をそれぞれ例えば0〜255の輝度値のデジタル値に変換して画像補正部4に出力するようになっている。   The conversion unit 3 includes a pair of A / D converters 3a and 3b, and each image data of the reference image T and the comparison image Tc captured for each pixel by the main camera 2a and the sub camera 2b of the imaging unit 2. When D is sequentially transmitted, the RGB value of each image data D is converted into a digital value having a luminance value of 0 to 255, for example, and output to the image correction unit 4.

画像補正部4は、送信されてきた基準画像Tと比較画像Tcの各画像データDに対してずれやノイズの除去、輝度の補正等の画像補正をそれぞれ順次行い、画像補正した基準画像Tと比較画像Tcの各画像データDを画像データメモリ5に順次格納するとともに、処理部9に順次送信するようになっている。また、画像補正部4は、画像補正した基準画像Tと比較画像Tcの各画像データDを距離検出手段6にも順次送信するようになっている。   The image correction unit 4 sequentially performs image corrections such as displacement, noise removal, luminance correction, and the like on the transmitted reference image T and comparison image Tc for each image data D, and the corrected image of the reference image T Each image data D of the comparison image Tc is sequentially stored in the image data memory 5 and is sequentially transmitted to the processing unit 9. Further, the image correction unit 4 sequentially transmits the image data D of the reference image T and the comparison image Tc subjected to the image correction to the distance detection unit 6.

距離検出手段6のイメージプロセッサ7では、基準画像Tと比較画像Tcの各画像データに対して順次ステレオマッチング処理やフィルタリング処理を施して、実空間上の距離に対応する視差dpを基準画像Tの各画素ごとに順次算出するようになっている。   In the image processor 7 of the distance detection means 6, stereo matching processing and filtering processing are sequentially performed on the image data of the reference image T and the comparison image Tc, and the parallax dp corresponding to the distance in the real space is obtained from the reference image T. Calculation is sequentially performed for each pixel.

イメージプロセッサ7におけるステレオマッチング処理では、基準画像Tと比較画像Tcの各画像データDが送信されてくると、図3に示すように、基準画像T上に例えば3×3画素や4×4画素等の所定の画素数の基準画素ブロックPBを設定し、基準画素ブロックPBに対応する比較画像Tc中のエピポーララインEPL上の基準画素ブロックPBと同形の各比較画素ブロックPBcについて、下記(1)式に従って当該基準画素ブロックPBとの輝度パターンの差異であるSAD値を算出し、SAD値が最小の比較画素ブロックPBcを特定するようになっている。
SAD=Σ|D1s,t−D2s,t|
=Σ{|R1s,t−R2s,t|+|G1s,t−G2s,t|
+|B1s,t−B2s,t|} …(1)
In the stereo matching process in the image processor 7, when each image data D of the reference image T and the comparison image Tc is transmitted, for example, 3 × 3 pixels or 4 × 4 pixels on the reference image T as shown in FIG. For each comparison pixel block PBc having the same shape as the reference pixel block PB on the epipolar line EPL in the comparison image Tc corresponding to the reference pixel block PB, a reference pixel block PB having a predetermined number of pixels is set. An SAD value, which is a difference in luminance pattern from the reference pixel block PB, is calculated according to the equation, and a comparison pixel block PBc having the smallest SAD value is specified.
SAD = Σ | D1s, t−D2s, t |
= Σ {| R1s, t-R2s, t | + | G1s, t-G2s, t |
+ | B1s, t-B2s, t |} (1)

なお、上記(1)式において、D1s,t等は基準画素ブロックPB中の各画素の画像データD等を表し、D2s,t等は比較画素ブロックPBc中の各画素の画像データD等を表す。また、上記の総和は、基準画素ブロックPBや比較画素ブロックPBcが例えば3×3画素の領域として設定される場合には1≦s≦3、1≦t≦3の範囲、4×4画素の領域として設定される場合には1≦s≦4、1≦t≦4の範囲の全画素について計算される。   In the above equation (1), D1s, t, etc. represent the image data D, etc. of each pixel in the reference pixel block PB, and D2s, t, etc., represent the image data D, etc., of each pixel in the comparison pixel block PBc. . Further, the above sum is obtained when the reference pixel block PB and the comparison pixel block PBc are set as a 3 × 3 pixel region, for example, a range of 1 ≦ s ≦ 3, 1 ≦ t ≦ 3, and 4 × 4 pixels. When set as a region, calculation is performed for all pixels in the range of 1 ≦ s ≦ 4 and 1 ≦ t ≦ 4.

イメージプロセッサ7は、このようにして基準画像Tの各基準画素ブロックPBについて、特定した比較画素ブロックPBcの比較画像Tc上の位置と当該基準画素ブロックPBの基準画像T上の位置から視差dpを順次算出するようになっている。以下、基準画像Tの各画素に視差dpを割り当てた画像を距離画像Tzという。また、このようにして各画素ごとに算出された視差dpの情報すなわち距離画像Tzは、距離検出手段6の距離データメモリ8に順次格納されるとともに、処理部9に順次送信されるようになっている。   For each reference pixel block PB of the reference image T in this way, the image processor 7 calculates the parallax dp from the position on the comparison image Tc of the identified comparison pixel block PBc and the position on the reference image T of the reference pixel block PB. It is calculated sequentially. Hereinafter, an image in which the parallax dp is assigned to each pixel of the reference image T is referred to as a distance image Tz. In addition, information on the parallax dp calculated for each pixel in this way, that is, the distance image Tz is sequentially stored in the distance data memory 8 of the distance detecting unit 6 and is sequentially transmitted to the processing unit 9. ing.

なお、実空間上で、前記一対のカメラ2a、2bの中央真下の道路面上の点を原点とし、自車両の車幅方向(すなわち水平方向)をX軸方向、車高方向(すなわち高さ方向)をY軸方向、車長方向(すなわち距離方向)をZ軸方向とした場合、実空間上の点(X,Y,Z)と、距離画像Tz上の画素の座標(i,j)および視差dpとは、下記(2)〜(4)式で表される三角測量の原理に基づく座標変換により一意に対応付けることができる。
X=CD/2+Z×PW×(i−IV) …(2)
Y=CH+Z×PW×(j−JV) …(3)
Z=CD/(PW×(dp−DP)) …(4)
In real space, a point on the road surface directly below the center of the pair of cameras 2a and 2b is used as an origin, and the vehicle width direction (that is, the horizontal direction) of the host vehicle is the X-axis direction and the vehicle height direction (that is, the height). (Direction) is the Y-axis direction and the vehicle length direction (that is, the distance direction) is the Z-axis direction, the point (X, Y, Z) in real space and the coordinates (i, j) of the pixel on the distance image Tz The parallax dp and the parallax dp can be uniquely associated by coordinate conversion based on the principle of triangulation expressed by the following equations (2) to (4).
X = CD / 2 + Z * PW * (i-IV) (2)
Y = CH + Z × PW × (j−JV) (3)
Z = CD / (PW × (dp−DP)) (4)

上記各式において、CDは一対のカメラの間隔、PWは1画素当たりの視野角、CHは一対のカメラの取り付け高さ、IVおよびJVは自車両正面の無限遠点の距離画像Tz上のi座標およびj座標、DPは消失点視差を表す。   In the above equations, CD is the distance between the pair of cameras, PW is the viewing angle per pixel, CH is the mounting height of the pair of cameras, and IV and JV are i on the distance image Tz at the infinity point in front of the host vehicle. The coordinates, j-coordinate, and DP represent vanishing point parallax.

また、イメージプロセッサ7は、視差dpの信頼性を向上させる目的から、上記のようなステレオマッチング処理で得られた視差dpに対してフィルタリング処理を施し、有効とされた視差dpのみを出力するようになっている。   Further, for the purpose of improving the reliability of the parallax dp, the image processor 7 performs a filtering process on the parallax dp obtained by the stereo matching process as described above, and outputs only the valid parallax dp. It has become.

例えば、道路面の映像のみからなる特徴に乏しい4×4画素の基準画素ブロックPBに対して、比較画像Tc上でステレオマッチング処理を行っても、比較画像Tcの道路面が撮像されている部分ではすべて相関が高くなるため、対応する比較画素ブロックPBcが特定されて視差dpが算出されてもその視差dpの信頼性は低い。そのため、そのような視差dpはフィルタリング処理を施して無効とし、視差dpの値として0を出力するようになっている。   For example, even if a stereo matching process is performed on the reference image block PB of 4 × 4 pixels having poor features consisting only of a road surface image, the road surface of the comparison image Tc is captured. Since all the correlations are high, the reliability of the parallax dp is low even if the corresponding comparison pixel block PBc is specified and the parallax dp is calculated. Therefore, the parallax dp is invalidated by performing a filtering process, and 0 is output as the value of the parallax dp.

したがって、基準画像Tの各画素に、有効に算出された視差dpを割り当てて(すなわち対応付けて)距離画像Tzを作成すると、距離画像Tzは、例えば図4に示すように、基準画像T上で有意な特徴を有する部分である撮像対象の辺縁部分(エッジ部分)等に有効な視差dpが算出された画像となる。なお、距離画像Tzの作成においては、上記(4)式等に従って予め視差dpを距離Z等に換算し、距離Z等を基準画像Tの各画素に割り当てて作成するように構成することも可能である。   Therefore, when the distance image Tz is created by assigning (that is, associating) effectively calculated parallax dp to each pixel of the reference image T, the distance image Tz is, for example, on the reference image T as shown in FIG. Thus, an image in which the effective parallax dp is calculated for the edge portion (edge portion) of the imaging target, which is a portion having a significant feature, is obtained. In creating the distance image Tz, the parallax dp can be converted into the distance Z or the like in advance according to the above equation (4) and the like, and the distance Z or the like can be assigned to each pixel of the reference image T. It is.

本実施形態では、処理部9の統合処理手段10や距離算出手段11、マッチング処理手段12等における各処理では、必要に応じて上記(4)式等に従って距離画像Tzの各画素における視差dpが実空間上の距離Zに変換されて用いられる。   In the present embodiment, the parallax dp in each pixel of the distance image Tz is obtained according to the above equation (4) or the like in each process in the integration processing unit 10, the distance calculation unit 11, the matching processing unit 12 and the like of the processing unit 9, as necessary. It is used after being converted into a distance Z in real space.

なお、本実施形態では、上記のように、撮像手段2としてメインカメラ2aとサブカメラ2bとを備え、距離検出手段6は、それらで撮像された基準画像Tおよび比較画像Tcに対するステレオマッチング処理により基準画像Tの各画素について実空間上の距離Z(すなわち視差dp)を算出するように構成されているが、これに限定されず、撮像手段2は例えば単眼のカメラのように1枚の画像Tのみを出力するものであってもよい。   In the present embodiment, as described above, the imaging unit 2 includes the main camera 2a and the sub camera 2b, and the distance detection unit 6 performs stereo matching processing on the reference image T and the comparison image Tc captured by them. The distance Z (that is, the parallax dp) in the real space is calculated for each pixel of the reference image T. However, the present invention is not limited to this, and the imaging unit 2 is a single image such as a monocular camera. Only T may be output.

また、距離検出手段6は、実空間上の距離Zを算出又は測定して画像Tの各画素に割り当てる機能を有していればよく、例えば自車両前方にレーザ光等を照射してその反射光の情報に基づいて画像Tに撮像された撮像対象までの距離Zを測定するレーダ装置等で構成することも可能であり、検出の手法は特定の手法に限定されない。   Further, the distance detection means 6 only needs to have a function of calculating or measuring the distance Z in the real space and assigning it to each pixel of the image T. For example, the distance detection means 6 irradiates the front of the host vehicle with a laser beam or the like and reflects it. A radar apparatus that measures the distance Z to the imaging target imaged on the image T based on the light information may be used, and the detection method is not limited to a specific method.

処理部9は、本実施形態では、図示しないCPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)、入出力インターフェース等がバスに接続されたコンピュータで構成されている。処理部9は、統合処理手段10や距離算出手段11、光源検出手段12、車線検出手段13、路面検出手段14を備えて構成されている。   In this embodiment, the processing unit 9 is configured by a computer in which a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input / output interface, and the like (not shown) are connected to a bus. The processing unit 9 includes an integrated processing unit 10, a distance calculation unit 11, a light source detection unit 12, a lane detection unit 13, and a road surface detection unit 14.

また、処理部9に、車速センサやヨーレートセンサ、ステアリングホイールの舵角を測定する舵角センサ等のセンサ類Qが接続されており、それらから各測定値が入力されるようになっている。なお、処理部9において先行車両検出等の他の処理を行うように構成することも可能である。   Sensors Q such as a vehicle speed sensor, a yaw rate sensor, and a steering angle sensor for measuring the steering angle of the steering wheel are connected to the processing unit 9, and each measurement value is input from them. Note that the processing unit 9 may be configured to perform other processing such as detection of a preceding vehicle.

ここで、本実施形態の処理部9の統合処理手段10や距離算出手段11、光源検出手段12等における処理について説明する前に、車線検出手段13や路面検出手段14における処理について説明する。   Here, before describing the processing in the integrated processing means 10, the distance calculation means 11, the light source detection means 12, and the like of the processing unit 9 of the present embodiment, the processing in the lane detection means 13 and the road surface detection means 14 will be described.

なお、以下の説明において、車線とは、追越し禁止線や路側帯と車道とを区画する区画線等の道路面上に標示された連続線や破線をいう。また、本実施形態では、以下に説明するように、車線検出手段13で道路面に標示された車線を検出し、路面検出手段14でその検出結果に基づいて道路面を検出するように構成されているが、路面検出手段14は道路面を検出することができるものであれば以下に説明する形態に限定されない。   In the following description, the lane refers to a continuous line or a broken line marked on a road surface such as an overtaking prohibition line or a lane marking that divides the roadside zone and the roadway. In the present embodiment, as described below, the lane detection unit 13 detects the lane marked on the road surface, and the road surface detection unit 14 detects the road surface based on the detection result. However, the road surface detection means 14 is not limited to the form described below as long as it can detect the road surface.

車線検出手段13は、撮像手段2により撮像された基準画像T中から自車両側方の車線を検出するようになっている。具体的には、車線検出手段13は、図5に示すように、基準画像Tを用いて、その1画素幅の水平ラインj上を例えば基準画像Tの中央から左右方向に探索し、輝度が隣接する画素の輝度から設定された閾値以上に大きく変化する画素を車線候補点cl、crとして検出する。   The lane detection unit 13 detects a lane on the side of the host vehicle from the reference image T captured by the imaging unit 2. Specifically, as shown in FIG. 5, the lane detection means 13 searches the horizontal line j having a width of one pixel using the reference image T, for example, from the center of the reference image T in the left-right direction, and the luminance is Pixels that greatly change from the brightness of adjacent pixels to a set threshold value or more are detected as lane candidate points cl and cr.

そして、基準画像T上の水平ラインjを1画素分ずつ上方にシフトさせながら、同様にして各水平ラインj上に車線候補点を検出していく。その際、車線検出手段13は、検出した車線候補点の視差dp等に基づいて当該車線候補点が道路面上にないと判断した場合には当該車線候補点を車線候補点から除外する。なお、この場合の道路面は、前回のサンプリング周期で路面検出手段14が検出した道路面に基づいてその後の自車両の挙動等から今回のサンプリング周期における道路面の位置が推定される。   Then, while shifting the horizontal line j on the reference image T upward by one pixel, lane candidate points are detected on each horizontal line j in the same manner. At this time, if it is determined that the lane candidate point is not on the road surface based on the parallax dp of the detected lane candidate point, the lane detection unit 13 excludes the lane candidate point from the lane candidate point. The road surface in this case is estimated based on the road surface detected by the road surface detection means 14 in the previous sampling cycle from the subsequent behavior of the own vehicle.

そして、車線検出手段13は、残った車線候補点のうち、自車両に近い側の車線候補点に基づいて車線をハフ変換等により直線で近似して自車両側方にそれぞれ検出する。その際、ハフ変換では種々の直線が候補として算出されるが、例えば自車両の一方の側(例えば右側)に複数の車線が検出される場合には、自車両の他方(例えば左側)に検出した車線との整合性がある車線や、前回のサンプリング周期で検出した車線との整合性がある車線を選ぶ等して、自車両側方にそれぞれ直線を選別する。   The lane detecting means 13 detects the lanes by approximating them in a straight line by Hough transform or the like based on the lane candidate points on the side close to the own vehicle among the remaining lane candidate points. At that time, various straight lines are calculated as candidates in the Hough transform. For example, when a plurality of lanes are detected on one side (for example, the right side) of the own vehicle, the line is detected on the other side (for example, the left side) of the own vehicle. A straight line is selected on each side of the host vehicle, for example, by selecting a lane that is consistent with the selected lane or a lane that is consistent with the lane detected in the previous sampling cycle.

このようにして、車線検出手段13は、自車両に近い側に車線を直線状にそれぞれ検出すると、それより遠い側ではその直線に基づいて直線との位置関係等から車線候補点を選別して結ぶことで、図6に示すように自車両側方にそれぞれ車線LL、LRを検出するようになっている。なお、以上の車線検出手段13の処理構成については、本願出願人が先に提出した特開2006−331389号公報等に詳述されており、詳細な説明は同公報等を参照されたい。   In this way, when the lane detection means 13 detects the lanes in a straight line on the side closer to the own vehicle, the lane detection means 13 selects the lane candidate points from the positional relationship with the straight lines based on the straight lines on the far side. As shown in FIG. 6, the lanes LL and LR are detected on the side of the host vehicle. The processing configuration of the lane detection means 13 is described in detail in Japanese Patent Application Laid-Open No. 2006-331389 previously filed by the applicant of the present application, and the detailed description should be referred to the same publication.

車線検出手段13は、このようにして検出した車線位置LL、LRや車線候補点cl、cr等の情報を図示しないメモリに保存するようになっている。   The lane detecting means 13 stores information such as the lane positions LL and LR and lane candidate points cl and cr detected in this manner in a memory (not shown).

路面検出手段14は、車線検出手段13が検出した車線位置LL、LRや車線候補点の情報に基づいて車線モデルを三次元的に形成するようになっている。本実施形態では、路面検出手段14は、図7(A)、(B)に示すように、自車両側方の各車線を所定区間ごとに三次元の直線式で近似し、それらを折れ線状に連結して表現した車線モデルを形成するようになっている。なお、図7(A)は、Z−X平面上の車線モデルすなわち水平形状モデル、図7(B)は、Z−Y平面上の車線モデルすなわち道路高モデルを表す。   The road surface detection means 14 forms a lane model three-dimensionally based on the information on the lane positions LL, LR and lane candidate points detected by the lane detection means 13. In the present embodiment, as shown in FIGS. 7A and 7B, the road surface detection means 14 approximates each lane on the side of the host vehicle with a three-dimensional linear expression for each predetermined section, and forms them in a polygonal line shape. A lane model expressed by connecting to the lane is formed. 7A shows a lane model on the Z-X plane, that is, a horizontal shape model, and FIG. 7B shows a lane model on the Z-Y plane, that is, a road height model.

具体的には、路面検出手段14は、自車両前方の実空間を自車両の位置からの例えば距離Z7までの各区間に分け、検出した車線候補点の実空間上の位置(X,Y,Z)に基づいてそれぞれの区間内の車線候補点を最小二乗法で直線近似し、各区間ごとに下記の(5)〜(8)式のパラメータaL、bL、aR、bR、cL、dL、cR、dRを算出して車線モデルを形成するようになっている。   Specifically, the road surface detection means 14 divides the real space ahead of the host vehicle into sections such as a distance Z7 from the position of the host vehicle, and detects the positions (X, Y, Z), the lane candidate points in each section are linearly approximated by the least square method, and parameters aL, bL, aR, bR, cL, dL in the following formulas (5) to (8) for each section: A lane model is formed by calculating cR and dR.

[水平形状モデル]
左車線 X=aL・Z+bL …(5)
右車線 X=aR・Z+bR …(6)
[道路高モデル]
左車線 Y=cL・Z+dL …(7)
右車線 Y=cR・Z+dR …(8)
[Horizontal shape model]
Left lane X = aL ・ Z + bL (5)
Right lane X = aR ・ Z + bR (6)
[Road height model]
Left lane Y = cL · Z + dL (7)
Right lane Y = cR · Z + dR (8)

路面検出手段14は、このようにして車線モデルを形成して、実空間上における道路面を検出するようになっている。また、路面検出手段14は、このようにして形成した車線モデルすなわち算出した各区間のパラメータaL〜dRをそれぞれメモリに保存するようになっている。   The road surface detection means 14 forms a lane model in this way and detects a road surface in real space. Further, the road surface detection means 14 stores the lane model formed in this way, that is, the calculated parameters aL to dR of each section in the memory.

次に、統合処理手段10や距離算出手段11、光源検出手段12等における処理について説明するとともに、本実施形態に係る環境認識装置1の作用についてもあわせて説明する。   Next, processing in the integrated processing unit 10, the distance calculation unit 11, the light source detection unit 12, and the like will be described, and the operation of the environment recognition apparatus 1 according to the present embodiment will also be described.

なお、以下では、信号機の赤く点灯された信号灯(すなわち、いわゆる赤信号)を検出する場合について説明する。また、本実施形態では、処理を行う対象として、撮像手段2のメインカメラ2aで撮像された基準画像Tを用いるように構成されているが、撮像手段2のサブカメラ2bで撮像された比較画像Tcを用いるように構成することも可能であり、また、その両方を用いるように構成することも可能である。   In the following, a case will be described in which a signal lamp that is lit red (that is, a so-called red signal) is detected. In the present embodiment, the reference image T captured by the main camera 2a of the imaging unit 2 is used as an object to be processed, but the comparison image captured by the sub camera 2b of the imaging unit 2 is used. It is possible to configure to use Tc, or to use both of them.

統合処理手段10は、基準画像T中において互いに隣接する画素pについて、当該隣接する画素pの各画像データDに基づいて当該隣接する画素pを1つのグループに統合するか否かを判定し、統合すべきと判定した場合に1つのグループgに統合するようになっている。   The integration processing unit 10 determines whether or not to integrate the adjacent pixels p into one group based on the image data D of the adjacent pixels p for the adjacent pixels p in the reference image T. When it is determined that they should be integrated, they are integrated into one group g.

本実施形態では、統合処理手段10は、基準画像T中の各画素pを探索し、画像データDについての予め設定された第1の条件を満たす画像データDを有する画素p(以下、注目画素p(i,j)という。)を検出すると、注目画素p(i,j)の周囲に隣接する各画素pを探索し、第1の条件で規定される画像データDの範囲よりも広い範囲に設定された第2の条件を満たす画像データDを有する画素pを検出すると、注目画素p(i,j)と統合して1つのグループgとする。そして、さらに当該グループgの周囲に隣接する各画素pを探索し、第2の条件を満たす画像データDを有する画素pを検出すると当該グループgに統合する。   In the present embodiment, the integration processing unit 10 searches each pixel p in the reference image T, and includes a pixel p (hereinafter referred to as a pixel of interest) having image data D that satisfies a preset first condition for the image data D. When p (i, j) is detected), each pixel p adjacent to the periphery of the target pixel p (i, j) is searched, and a range wider than the range of the image data D defined by the first condition. When the pixel p having the image data D satisfying the second condition set in is detected, the pixel p is integrated with the target pixel p (i, j) to form one group g. Further, each pixel p adjacent to the periphery of the group g is searched, and when the pixel p having the image data D satisfying the second condition is detected, it is integrated into the group g.

具体的には、統合処理手段10は、撮像手段2のメインカメラ2aから画像補正部4等を介して基準画像Tの各画素pの画像データDが送信されてくると、基準画像T中の各画素pを探索し、画像データDについての予め設定された下記の第1の条件を満たす画像データDを有する画素pが探索する。   Specifically, the integration processing unit 10 receives the image data D of each pixel p of the reference image T from the main camera 2a of the image pickup unit 2 via the image correction unit 4 or the like, and the integration processing unit 10 Each pixel p is searched, and a pixel p having image data D that satisfies the following first preset condition for image data D is searched.

第1の条件としては、基準画像Tの中から特定の色(本実施形態では赤色)と特定の明るさを有する注目画素p(i,j)が検出されるように設定されており、本実施形態では、注目画素p(i,j)の画像データDのそれぞれ0〜255の輝度値で表現されるR(赤)、G(緑)、B(青)の色成分について、以下のような条件が設定されている。   The first condition is set so that a target pixel p (i, j) having a specific color (red in the present embodiment) and specific brightness is detected from the reference image T. In the embodiment, color components of R (red), G (green), and B (blue) represented by luminance values of 0 to 255 of the image data D of the target pixel p (i, j) are as follows. Conditions are set.

[第1の条件]R≧200、かつ、G、B<200 …(9)
すなわち、本実施形態では、第1の条件は、基準画像T中から赤みがかった色を有し、光源にふさわしい明るい画素pが注目画素p(i,j)として検出されるように設定されている。
[First Condition] R ≧ 200 and G, B <200 (9)
That is, in the present embodiment, the first condition is set such that a bright pixel p having a reddish color from the reference image T and suitable for the light source is detected as the target pixel p (i, j). .

信号機の赤信号のような光源が撮像手段2で撮像されると、赤い光を放つ光源が撮像されているにもかかわらず、基準画像T等では、図8に示すように、光源Sの中心部分Scが赤みがかった白色に撮像され、その部分の画素pの画像データDのR、G、Bの各色成分の輝度値が全て200を越えるほど大きな値として検出される。これは、赤信号に限った現象ではなく、例えば、信号機の青信号のような青い光を放つ光源でも、やはり基準画像Tや比較画像Tc上では光源の中心部分が青みがかった白色に撮像される。   When a light source such as a red light of a traffic light is picked up by the image pickup means 2, the center of the light source S is shown in the reference image T or the like as shown in FIG. The portion Sc is picked up in reddish white, and the luminance values of the R, G, and B color components of the image data D of the pixel p of that portion are all detected as large values as exceeding 200. This is not a phenomenon limited to a red signal. For example, even in a light source that emits blue light such as a blue signal of a traffic light, the central portion of the light source is imaged in a bluish white on the reference image T and the comparison image Tc.

そのような場合に、第1の条件として光源Sの中心部分Scを検出することを目的として、第1の条件を、例えば後述する第2の条件の[条件2b]のように、
R、G、B>200、かつ、R≧G、R≧B …(10)
と設定すると、基準画像T中に撮像された空など白っぽく明るく撮影された対象が全て検出されてしまうため、信号機の赤信号のような赤い光を放つ光源Sを効率良く検出できない。
In such a case, for the purpose of detecting the central portion Sc of the light source S as the first condition, the first condition is set to, for example, the second condition [Condition 2b] described later,
R, G, B> 200 and R ≧ G, R ≧ B (10)
If all the objects captured in the reference image T, such as the sky captured in white and bright, are detected, the light source S that emits red light such as a red signal from the traffic light cannot be detected efficiently.

そのため、本実施形態では、光源Sの中心部分Scのように白く撮像された画素pではなく、その周囲の、赤く、かつ、明るく撮像された画素領域Slの画素pを最初に検出するように構成して、検出の端緒となる画素p(注目画素p(i,j))の条件を絞り込むことで、信号機の赤信号のような赤い光を放つ光源S等を効率良く検出するようになっている。   Therefore, in the present embodiment, the pixel p of the pixel area S1 that is imaged in red and brightly around it is detected first, not the pixel p imaged white like the central portion Sc of the light source S. By configuring and narrowing down the conditions of the pixel p (attention pixel p (i, j)) that is the beginning of detection, the light source S that emits red light such as a red signal of a traffic light can be detected efficiently. ing.

統合処理手段10は、基準画像T上に上記の第1の条件を満たす画像データDを有する注目画素p(i,j)を検出すると、続いて、図9に示すように、検出した注目画素p(i,j)を含む基準画像T中で上下方向に延在する1画素幅の画素列pls上を上向きに1画素シフトさせ、注目画素p(i,j)の上側に隣接する画素p(i,j+1)の画像データDが、上記の第1の条件で規定される画像データDの範囲よりも広い範囲に設定された下記の第2の条件を満たすか否かを判定する。   When the integration processing unit 10 detects the target pixel p (i, j) having the image data D satisfying the first condition on the reference image T, subsequently, as shown in FIG. 9, the detected target pixel is detected. A pixel p adjacent to the upper side of the target pixel p (i, j) is shifted upward by one pixel on the pixel row pls having a width of one pixel extending in the vertical direction in the reference image T including p (i, j). It is determined whether or not the image data D of (i, j + 1) satisfies the following second condition set in a range wider than the range of the image data D defined by the first condition.

[第2の条件]
[条件2a]R≧165、かつ、G、B<150 …(11)
[条件2b]R、G、B>200、かつ、R≧G、R≧B …(12)
[条件2c]R≧200、かつ、G、B<200 …(13)
[Second condition]
[Condition 2a] R ≧ 165 and G, B <150 (11)
[Condition 2b] R, G, B> 200 and R ≧ G, R ≧ B (12)
[Condition 2c] R ≧ 200 and G, B <200 (13)

ここで、第2の条件の[条件2a]は、光源に特有の色(本実施形態では赤色)を有するが、その明るさが上記の第1の条件で規定されるような明るく撮像された画素領域Slの画素pではなく、画素領域Slの周囲に撮像された、より暗い画素領域Sd(図8参照)の画素pを検出するための条件である。   Here, [Condition 2a] of the second condition has a color specific to the light source (red in the present embodiment), but the brightness is captured so that the brightness is defined by the first condition. This is a condition for detecting the pixel p in the darker pixel region Sd (see FIG. 8) captured around the pixel region Sl, not the pixel p in the pixel region S1.

このように、光源Sとして、より暗い画素領域Sdまで検出することで、中央の明るい部分から離れるに従って暗くなっていくという光源の明るさの特性を的確に捉えて、光源Sを的確に検出することが可能となる。   In this way, by detecting even the darker pixel region Sd as the light source S, the light source S is accurately detected by accurately grasping the brightness characteristic of the light source that becomes darker as it goes away from the central bright part. It becomes possible.

また、第2の条件の[条件2b]は、前述したように、光源特定の色(本実施形態では赤色)を有し、その明るさが第1の条件で規定される明るさよりもさらに明るく、白く撮像された光源Sの中心部分の画素領域Scを検出するための条件である。   In addition, as described above, [Condition 2b] of the second condition has a light source specific color (red in the present embodiment), and the brightness is even brighter than the brightness defined by the first condition. This is a condition for detecting the pixel region Sc at the center of the light source S imaged in white.

このように、光源Sとして、より明るい画素領域Scまで検出することで、前述したように中央の明るい部分ではその光源Sの特有の色味をもって白っぽく撮像されるという光源の明るさの特性を的確に捉えて、光源Sを的確に検出することが可能となる。   As described above, by detecting up to the brighter pixel region Sc as the light source S, the brightness characteristic of the light source can be accurately obtained such that the bright portion at the center is imaged whitish with the specific color of the light source S as described above. Thus, the light source S can be accurately detected.

さらに、第2の条件の[条件2c]は上記の第1の条件と同じ条件であり、注目画素p(i,j)に隣接する画素が、注目画素p(i,j)と同じく、光源Sの中心部分Scの周囲の、赤く、かつ、明るく撮像された画素領域Slの画素pである場合に、それを検出するための条件である。   Furthermore, [condition 2c] of the second condition is the same as the first condition described above, and the pixel adjacent to the target pixel p (i, j) is the same as the target pixel p (i, j). This is a condition for detecting a pixel p of the pixel region S1 that is imaged red and bright around the central portion Sc of S.

統合処理手段10は、注目画素p(i,j)の上側に隣接する各画素p(i,j+1)の画像データDが上記の第2の条件を満たすと判定すると、当該画素p(i,j+1)を注目画素p(i,j)と統合して1つのグループgとする。統合処理手段10は、続いて、当該画素p(i,j+1)の上側に隣接する画素p(i,j+2)についても同様に第2の条件に基づいて判定を行い、第2の条件を満たすと判定すると、その画素p(i,j+2)をグループgに統合する。   When the integration processing unit 10 determines that the image data D of each pixel p (i, j + 1) adjacent to the upper side of the target pixel p (i, j) satisfies the above second condition, the integration p (i, j, j + 1) and the target pixel p (i, j) are integrated into one group g. Subsequently, the integration processing unit 10 similarly determines the pixel p (i, j + 2) adjacent to the upper side of the pixel p (i, j + 1) based on the second condition, and satisfies the second condition. Is determined, the pixel p (i, j + 2) is integrated into the group g.

統合処理手段10は、この作業を第2の条件のいずれの条件も満たさない画素pが出現するまで行い、第2の条件を満たさない画素pの直前の画素pまでをグループgに統合する。また、注目画素p(i,j)の下側の各画素pについても同様に統合処理を行う。   The integration processing means 10 performs this operation until a pixel p that does not satisfy any of the second conditions appears, and integrates up to the pixel p immediately before the pixel p that does not satisfy the second condition into the group g. Similarly, the integration process is performed for each pixel p below the pixel of interest p (i, j).

そして、統合処理手段10は、図10に示すように、画素列pls上で統合したグループgの上端の画素の座標(i,jmax)と下端の画素の座標(i,jmin)をそれぞれ図示しないメモリに記憶させ、続いて、探索するを画素列を画素列plsから基準画像T上の右方向および左方向に画素列をシフトさせて各画素列で同様にして画素の探索を行う。   Then, as shown in FIG. 10, the integration processing unit 10 does not illustrate the coordinates (i, jmax) of the uppermost pixel and the coordinates (i, jmin) of the lowermost pixel of the group g integrated on the pixel column pls. Then, the pixel row is shifted from the pixel row pls to the right and left directions on the reference image T, and the pixel search is performed in the same manner for each pixel row.

具体的には、画素列plsでのグループgの上端と下端の各画素のj座標jmax、jminの中点のj座標jmidを算出する。そして、図10に示すように、画素列を例えば右隣の画素列plに移行し、その画素列plで座標(i+1,jmid)の画素を開始点として上記と同様に上下方向に探索して画素列plでのグループgの上端と下端の各画素を検出して、それらの座標(i+1,jmax)、(i+1,jmin)をそれぞれメモリに記憶する。   Specifically, the j-coordinate jmid of the middle point of the j-coordinates jmax and jmin of the upper and lower pixels of the group g in the pixel row pls is calculated. Then, as shown in FIG. 10, the pixel column is shifted to, for example, the pixel column pl adjacent to the right, and the pixel at the coordinate (i + 1, jmid) in the pixel column pl is searched in the vertical direction in the same manner as described above. The upper and lower pixels of the group g in the pixel column pl are detected, and their coordinates (i + 1, jmax) and (i + 1, jmin) are stored in the memory.

統合処理手段10は、画素列plをさらに右方向にシフトさせながら探索を繰り返し、各画素列plのグループgの上端、下端の各画素の座標をそれぞれメモリに記憶していく。また、最初の画素列plsの左方向についても同様に探索して、各画素列plのグループgの上端、下端の各画素の座標をそれぞれメモリに記憶していく。   The integration processing means 10 repeats the search while further shifting the pixel column pl to the right, and stores the coordinates of the upper and lower pixels of the group g in each pixel column pl in the memory. Similarly, the left direction of the first pixel column pls is searched in the same manner, and the coordinates of the upper and lower pixels of the group g in each pixel column pl are stored in the memory.

なお、前述したように、距離検出手段6で基準画像Tの各画素p(正確には前述したフィルタリング処理で視差dpの値として0ではない有意な値が割り当てられている各画素p)には視差dpが算出されて割り当てられている。そのため、その視差dp或いは視差dpから算出された実空間上の距離Zを利用して、上記の画素pのグループgへの統合処理において、画素pが上記の第2の条件を満たしていても、当該画素pの実空間上の距離Zpと、隣接する画素や、グループgの実空間上の距離Zとの差異が、予め設定された閾値を上回る場合には、当該画素pをグループgに非統合とするように、すなわち統合しないように構成することが可能である。   As described above, each pixel p of the reference image T by the distance detection unit 6 (precisely, each pixel p to which a significant value other than 0 is assigned as the value of the parallax dp in the filtering process described above). The parallax dp is calculated and assigned. Therefore, using the parallax dp or the distance Z in the real space calculated from the parallax dp, even if the pixel p satisfies the second condition in the integration process of the pixel p into the group g, When the difference between the distance Zp of the pixel p in the real space and the distance Z of the adjacent pixel or the group g in the real space exceeds a preset threshold, the pixel p is assigned to the group g. It is possible to configure to be non-integrated, that is, not integrated.

隣接する画素やグループgの実空間上の距離Zと大きくかけ離れた実空間上の距離Zpを有する画素pは、たとえ第2の条件を満たすとしても、隣接する画素やグループgに対応する撮像対象とは異なる撮像対象に対応する画素であると考えられる。そのため、上記のように構成することで、異なる撮像対象に対応する画素を1つのグループgに統合することが回避され、基準画像T上に撮像された異なる撮像対象をそれぞれ別のグループに分割して検出することが可能となる。   A pixel p having a distance Zp in the real space that is significantly different from the distance Z in the real space of the adjacent pixel or group g is an imaging target corresponding to the adjacent pixel or group g even if the second condition is satisfied. It is considered that the pixel corresponds to a different imaging target. Therefore, by configuring as described above, it is possible to avoid integrating pixels corresponding to different imaging targets into one group g, and to divide different imaging targets imaged on the reference image T into different groups. Can be detected.

なお、グループgの実空間上の距離Zを求める手法としては、グループgに統合されている各画素pに対応する実空間上の各距離Zpの平均値や中央値として算出することが可能であり、また、画素pをグループgに統合するごとにその画素pに対応する実空間上の距離Zpを図示しないヒストグラムに投票していき、そのピーク値をグループgの実空間上の距離Zとすることも可能である。   As a method for obtaining the distance Z in the real space of the group g, it is possible to calculate the average value or the median value of the distances Zp in the real space corresponding to the pixels p integrated in the group g. Yes, every time the pixel p is integrated into the group g, the distance Zp in the real space corresponding to the pixel p is voted on a histogram (not shown), and the peak value is expressed as the distance Z in the real space of the group g. It is also possible to do.

一方、本実施形態では、統合処理手段10は、ある画素pをグループgに統合するか否かの判定において、仮に画素pをグループgに統合した場合に、基準画像T上でのグループgの全体の形状が円形状でなくなる場合には、当該画素pをグループgに非統合として統合処理を終了するようになっている。   On the other hand, in this embodiment, the integration processing unit 10 determines whether to integrate a pixel p into the group g in the determination of whether or not to integrate a certain pixel p into the group g. If the overall shape is not a circle, the pixel p is not integrated into the group g and the integration process is terminated.

具体的には、統合処理手段10は、各画素列pls、plにおけるグループgの上端の画素から下端の画素までの画素数r(以下、上下方向の長さrという。)を監視しており、図11(A)に示すように各画素列pls、plにおけるグループgの上下方向の長さrが一旦最大値rmaxとなり、図11(B)に示すように画素列plにおけるグループgの上下方向の長さrが最大値rmaxを下回り、図11(C)に示すように画素列plにおけるグループgの上下方向の長さrの減少傾向が続いて、画素列plにグループgが発見できなくなれば、すなわち第2の条件も満たす画素pが見出されなくなれば、その時点で右方向や左方向の画素列での探索を停止する。   Specifically, the integration processing unit 10 monitors the number r of pixels from the uppermost pixel to the lowermost pixel of the group g in each pixel column pls, pl (hereinafter referred to as the vertical length r). As shown in FIG. 11A, the vertical length r of the group g in each pixel column pls, pl once becomes the maximum value rmax, and as shown in FIG. The length r in the direction is less than the maximum value rmax, and the downward trend of the length r in the vertical direction of the group g in the pixel column pl continues as shown in FIG. 11C, and the group g can be found in the pixel column pl. If no pixel is found, that is, if no pixel p that satisfies the second condition is found, the search in the right and left pixel columns is stopped at that time.

また、図12に示すように画素列plにおけるグループgの上下方向の長さrが減少して一旦最小値rminとなった後、再び最小値rminより大きな値になった場合には、基準画像T上でのグループgの全体の形状が円形状でなくなるため、画素列plで右方向や左方向の画素列での探索を停止し、その直前の最小値rminを与えた画素列までをグループgが検出された範囲とする。信号機の点灯された信号灯のような光源に対応するグループgは、通常、上下方向の長さrが減少した後、再び増加することはないからである。   In addition, as shown in FIG. 12, when the vertical length r of the group g in the pixel row pl decreases to once reach the minimum value rmin, and then becomes a value larger than the minimum value rmin again, the reference image Since the entire shape of the group g on T is no longer circular, the search for the right and left pixel columns in the pixel column pl is stopped, and the pixel column having the minimum value rmin immediately before it is grouped. Let g be the detected range. This is because the group g corresponding to a light source such as a signal lamp with a traffic light normally does not increase again after the vertical length r decreases.

ここで、グループgの全体の形状が円形状という場合、完全な円形を意味するものではなく、例えば基準画像T上で画素列plを左右方向に移動させながらグループgの上下方向の長さrを見た場合に、一旦増加傾向にあった上下方向の長さrが減少傾向に転じて減少傾向が続くような形状であることを意味する。   Here, when the entire shape of the group g is a circular shape, it does not mean a complete circle. For example, the vertical length r of the group g while moving the pixel row pl in the left-right direction on the reference image T. Means that the vertical length r once once increased tends to decrease and continues to decrease.

また、上記のように、信号機の点灯された信号灯のような光源に対応するグループgは、通常、上下方向の長さrが減少した後、再び増加することはないから、図12に示したように、画素列plにおけるグループgの上下方向の長さrが減少して一旦最小値rminとなった後、再び最小値rminより大きな値になり、基準画像T上でのグループgの全体の形状が円形状でなくなった場合には、当該グループgを棄却して、後述する距離算出手段11や光源検出手段12における処理の対象から除外するように構成することも可能である。   In addition, as described above, the group g corresponding to the light source such as the signal lamp with the traffic light normally does not increase again after the length r in the vertical direction is decreased. As described above, after the vertical length r of the group g in the pixel row pl decreases to once reach the minimum value rmin, the value again becomes larger than the minimum value rmin, and the entire group g on the reference image T becomes larger. When the shape is no longer circular, the group g can be rejected and excluded from the processing target in the distance calculation means 11 and the light source detection means 12 described later.

統合処理手段10は、上記のようにして各画素pをグループgに統合する統合処理を終了すると、基準画像T上で探索していない画素pがなくなるまで上記の統合処理を繰り返して、基準画像T上に各グループgを統合して形成するようになっている。   When the integration processing unit 10 ends the integration processing for integrating the pixels p into the group g as described above, the integration processing means 10 repeats the integration processing until there is no pixel p that is not searched on the reference image T, and the reference image Each group g is integrated and formed on T.

なお、図8に示したように、光源Sが中央に画素領域Scを有するように撮像されるという特性を利用して、基準画像T上で統合された各グループgにおいて、上記の第2の条件の[条件2b]を満たす画素pがグループg内に存在しないグループgを、光源Sが撮像されたものではないと判定し、当該グループgを棄却して、後述する距離算出手段11や光源検出手段12における処理の対象から除外するように構成することも可能である。   As shown in FIG. 8, in each group g integrated on the reference image T using the characteristic that the light source S is imaged so as to have the pixel region Sc in the center, The group g in which the pixel p satisfying the condition [Condition 2b] does not exist in the group g is determined not to be the image of the light source S, the group g is rejected, and the distance calculation unit 11 and the light source described later are rejected. It is also possible to configure such that the detection unit 12 is excluded from processing targets.

距離算出手段11は、統合処理手段10により統合された各グループgについて、実空間上の距離Zgを算出するようになっている。   The distance calculation means 11 calculates the distance Zg in real space for each group g integrated by the integration processing means 10.

前述したように、統合処理手段10で、画素pをグループgに統合するか否かを判定する際に、グループgの実空間上の距離Zとして、グループgに統合されている各画素pに対応する実空間上の各距離Zpの平均値や中央値が算出されたり、画素pをグループgに統合するごとにその画素pに対応する実空間上の距離Zpをヒストグラムに投票していった場合のピーク値が算出されているため、距離算出手段11を、それらの値をグループgの実空間上の距離Zgとして活用するように構成することが可能である。   As described above, when the integration processing unit 10 determines whether or not to integrate the pixel p into the group g, the distance Z in the real space of the group g is set to each pixel p integrated into the group g. The average value or median value of each distance Zp in the corresponding real space is calculated, or each time the pixel p is integrated into the group g, the distance Zp in the real space corresponding to the pixel p is voted on the histogram. Since the peak value in the case is calculated, the distance calculation means 11 can be configured to utilize these values as the distance Zg in the real space of the group g.

しかし、前述したように、統合処理手段10では、基本的には上記の第1の条件と第2の条件に基づいて各画素pの画像データDのR、G、Bの各色成の値に応じてグループgへの統合の可否が判定されて各画素pがグループgに統合される。そのため、グループgが、前述した距離検出手段6におけるフィルタリング処理で視差dpの値として0が割り当てられている各画素pのみで形成される場合もある。このような場合には、上記の手法ではグループgの実空間上の距離Zgを算出することができない。   However, as described above, the integration processing means 10 basically sets the R, G, and B color values of the image data D of each pixel p based on the first condition and the second condition. Accordingly, the possibility of integration into group g is determined and each pixel p is integrated into group g. For this reason, the group g may be formed by only the pixels p to which 0 is assigned as the value of the parallax dp in the filtering process in the distance detection unit 6 described above. In such a case, the distance Zg in the real space of the group g cannot be calculated by the above method.

そこで、本実施形態では、距離算出手段11は、グループgに属する各画素pの実空間上の距離Zpだけでなく、基準画像T上でグループgの周囲に存在する各画素pに対応する実空間上の距離Zpをも用いて、各グループgの実空間上の距離Zgを算出するようになっている。   Therefore, in the present embodiment, the distance calculation unit 11 not only includes the distance Zp in the real space of each pixel p belonging to the group g but also the actual pixels corresponding to each pixel p existing around the group g on the reference image T. The distance Zg in the real space of each group g is also calculated using the distance Zp in space.

具体的には、上記のように、統合処理手段10で、基準画像Tで各グループgが統合され、各グループgの基準画像T上での範囲が確定すると、距離算出手段11は、各グループgの基準画像T上での範囲に属する上下方向に延在する1画素幅の各画素列plごとに、各グループgの範囲を越えて上方向および下方向に探索し、図13に示すように、実空間上の距離Zpが検出されている画素pのうち、グループgの範囲に最も近接する位置に存在する画素pに対応する実空間上の距離Zpをも用いて、各グループgの実空間上の距離Zgを算出するようになっている。 Specifically, as described above, when each group g is integrated by the reference image T in the integration processing unit 10 and the range on the reference image T of each group g is determined, the distance calculation unit 11 For each pixel column pl having a width of 1 pixel belonging to the range of g on the reference image T and extending in the vertical direction, search is performed upward and downward beyond the range of each group g, as shown in FIG. In addition, among the pixels p in which the distance Zp in the real space is detected, each group is also used by using the distance Zp * in the real space corresponding to the pixel p * existing closest to the range of the group g. The distance Zg in the real space of g is calculated.

グループgの範囲に最も近接する位置に存在する画素pに対応する実空間上の距離Zpをも用いてグループgの実空間上の距離Zgを求める手法としては、グループgに属する各画素pに対応する実空間上の距離Zpおよび近接する位置に存在する画素pに対応する実空間上の各距離Zpの平均値や中央値として算出することが可能である。 As a method for obtaining the distance Zg in the real space of the group g using the distance Zp * in the real space corresponding to the pixel p * present at the position closest to the range of the group g, each pixel belonging to the group g can be obtained. It is possible to calculate the average value or the median value of the distance Zp in the real space corresponding to p and each distance Zp * in the real space corresponding to the pixel p * existing at a close position.

また、統合処理手段10で作成され、グループgに属する各画素pに対応する実空間上の距離Zpが投票されているヒストグラムに、さらにグループgの範囲に最も近接する位置に存在する画素pに対応する実空間上の距離Zpを投票して、そのピーク値をグループgの実空間上の距離Zgとすることも可能である。 Further, the pixel p * present in the position closest to the range of the group g in the histogram created by the integrated processing means 10 and voted for the distance Zp in the real space corresponding to each pixel p belonging to the group g . It is also possible to vote the distance Zp * in the real space corresponding to, and make the peak value the distance Zg in the real space of the group g.

さらに、基準画像T上でグループgの周囲に存在する各画素pに対応する実空間上の距離Zpをも含めるように構成した結果、グループgに属する各画素pや周囲の各画素pに対応する実空間上の距離Zp、Zpの分布が複数の群にまとめられる状態となる場合がある。 Furthermore, as a result of including the distance Zp * in the real space corresponding to each pixel p * existing around the group g on the reference image T, each pixel p belonging to the group g and each surrounding pixel p In some cases, the distributions of the distances Zp and Zp * in the real space corresponding to * are put into a plurality of groups.

そのような場合には、グループgに属する各画素pに対応する実空間上の距離Zpや、グループgの基準画像T上での範囲の上下や左右に最も近接する位置に存在する画素pに対応する実空間上の距離Zpのうち、似通った距離Zp、Zp同士をまとめ、まとめられた距離の群のうち、データ数が最も多い群に属する実空間上の距離Zp、Zpの平均値や中央値を、各グループgの実空間上の距離Zgとして算出するように構成することも可能である。 In such a case, the distance Zp in the real space corresponding to each pixel p belonging to the group g, or the pixel p * present at the closest position in the vertical and horizontal directions of the range on the reference image T of the group g . Among the distances Zp * in the real space corresponding to, the similar distances Zp, Zp * are grouped together, and the distance Zp, Zp * in the real space belonging to the group having the largest number of data among the group of distances collected . It is also possible to calculate the average value and the median value of each as the distance Zg in the real space of each group g.

なお、グループgの範囲に最も近接する位置に存在する画素p自体は、当該グループgには統合されない。また、グループgに最も近接するといっても、画素pが基準画像T上でグループgからあまりに遠く離れている場合には、最も近接する位置に存在する画素pに対応する実空間上の距離Zpをグループgの実空間上の距離Zgの算出に用いるべきではないため、各グループgの範囲を越えて探索する範囲に制限を加えるように構成してもよい。 Note that the pixel p * itself present at the position closest to the range of the group g is not integrated into the group g. Further, even if the pixel p * is closest to the group g, when the pixel p * is too far from the group g on the reference image T, it is in the real space corresponding to the pixel p * present at the closest position. Since the distance Zp * should not be used for calculating the distance Zg in the real space of the group g, it may be configured to limit the search range beyond the range of each group g.

また、各グループgの範囲を越える探索を常時行うように構成してもよく、また、例えばグループgに属する各画素pについて対応する実空間上の距離Zpがデータ数が十分に得られている場合には行わないように構成することも可能である。   Further, it may be configured to always perform a search exceeding the range of each group g, and for example, the corresponding distance Zp in the real space for each pixel p belonging to the group g has a sufficient number of data. In some cases, it may be configured not to be performed.

さらに、本実施形態では、前述した距離検出手段6のイメージプロセッサ7におけるステレオマッチング処理で比較画像Tcの左右方向に延在するエピポーララインEPL上で(図3参照)基準画素ブロックPBに対応する比較画素ブロックPBcの探索が行われるため、基準画像T上で統合されたグループgの左右の辺縁部分(エッジ部分)では比較的有効に視差dpが得られている可能性が高い。   Further, in the present embodiment, the comparison corresponding to the reference pixel block PB is performed on the epipolar line EPL extending in the left-right direction of the comparison image Tc by the stereo matching process in the image processor 7 of the distance detection unit 6 described above (see FIG. 3). Since the search for the pixel block PBc is performed, there is a high possibility that the parallax dp is relatively effectively obtained in the left and right edge portions (edge portions) of the group g integrated on the reference image T.

そのため、本実施形態では、上記のように、距離算出手段11では、各グループgの基準画像T上での範囲に属する上下方向に延在する1画素幅の各画素列plごとに各グループgの範囲を越えて上方向および下方向に探索が行われるようになっており、左右方向の探索は行われないが、例えば、各グループgの基準画像T上での範囲に属する左右方向に延在する1画素幅の各画素行ごとに各グループgの範囲を越えて左方向および右方向に探索が行うように構成することも可能である。   Therefore, in the present embodiment, as described above, in the distance calculation unit 11, each group g for each pixel column pl having a one-pixel width that extends in the vertical direction belonging to the range on the reference image T of each group g. The search is performed in the upward and downward directions beyond the range, and the search in the horizontal direction is not performed. However, for example, the search is performed in the horizontal direction belonging to the range on the reference image T of each group g. It is also possible to perform a search in the left direction and the right direction beyond the range of each group g for each existing pixel row of one pixel width.

次に、光源検出手段12は、統合処理手段10により統合された各グループgの基準画像T上での座標(i,j)や、距離算出手段11により算出された各グループgの実空間上の距離Zg、路面検出手段14により検出された道路面の情報に基づいて、(a)グループgの実空間上の大きさや、(b)道路面からの実空間上の高さ、(c)グループgの道路面上での自車両の進行路に対する実空間上の位置を算出し、これらの大きさや高さ、位置がそれぞれ所定の条件を満たす場合に、当該グループgを道路上に存在する光源として検出するようになっている。   Next, the light source detection unit 12 includes the coordinates (i, j) on the reference image T of each group g integrated by the integration processing unit 10 and the real space of each group g calculated by the distance calculation unit 11. (A) the size in the real space of the group g, (b) the height in the real space from the road surface, (c) The position in the real space with respect to the traveling path of the own vehicle on the road surface of the group g is calculated, and the group g exists on the road when the size, the height, and the position satisfy predetermined conditions, respectively. It detects as a light source.

[(a)グループgの実空間上の大きさについて]
具体的には、光源検出手段12は、まず、各グループgについて、図14に示すように、グループgの左端の画素のi座標Iminと右端の画素のi座標Imax、および上端の画素のj座標Jmaxと下端の画素のj座標Jminを検出する。
[(A) Size of group g in real space]
Specifically, for each group g, the light source detection unit 12 first, as shown in FIG. 14, the i coordinate Imin of the leftmost pixel of the group g, the i coordinate Imax of the rightmost pixel, and the j of the uppermost pixel. The coordinate Jmax and the j coordinate Jmin of the bottom pixel are detected.

そして、グループgの左右端の画素のi座標Imin、Imaxと当該グループgの実空間上の距離Zgとを上記(2)式に代入すると、
Xmin=CD/2+Zg×PW×(Imin−IV) …(14)
Xmax=CD/2+Zg×PW×(Imax−IV) …(15)
が得られるから、グループgの左右端間の実空間上の大きさを、
Xmax−Xmin=Zg×PW×(Imax−Imin) …(16)
と算出し、グループgの左右方向の実空間上の大きさとする。
Then, by substituting the i-coordinates Imin and Imax of the pixels at the left and right ends of the group g and the distance Zg in the real space of the group g into the above equation (2),
Xmin = CD / 2 + Zg × PW × (Imin−IV) (14)
Xmax = CD / 2 + Zg * PW * (Imax-IV) (15)
Therefore, the size in the real space between the left and right ends of the group g is
Xmax−Xmin = Zg × PW × (Imax−Imin) (16)
And the size in the real space of the group g in the left-right direction.

また、グループgの上下端の画素のi座標Jmax、Jminと当該グループgの実空間上の距離Zgとを上記(3)式に代入すると、
Ymin=CH+Zg×PW×(Jmin−JV) …(17)
Ymax=CH+Zg×PW×(Jmax−JV) …(18)
が得られるから、グループgの上下端間の実空間上の大きさを、
Ymax−Ymin=Zg×PW×(Jmax−Jmin) …(19)
と算出し、グループgの上下方向の実空間上の大きさとする。
When the i coordinates Jmax and Jmin of the upper and lower pixels of the group g and the distance Zg in the real space of the group g are substituted into the above equation (3),
Ymin = CH + Zg × PW × (Jmin−JV) (17)
Ymax = CH + Zg × PW × (Jmax−JV) (18)
Therefore, the size in the real space between the upper and lower ends of the group g is
Ymax−Ymin = Zg × PW × (Jmax−Jmin) (19)
And the size in the real space in the vertical direction of the group g.

そして、通常の場合、信号機の信号灯は直径が25cmや30cmの円形に形成されるため、信号灯からの光の漏れ出しも含めて、本実施形態では、光源検出手段12は、各グループgの左右方向および上下方向の実空間上の大きさXmax−Xmin、Ymax−Yminが例えば40cm以内の範囲内にあるか否かをチェックするようになっている。   In a normal case, the signal lamp of the traffic light is formed in a circular shape having a diameter of 25 cm or 30 cm. Therefore, in this embodiment, including the leakage of light from the signal lamp, the light source detection means 12 includes the right and left of each group g. It is checked whether the sizes Xmax-Xmin and Ymax-Ymin in the real space in the direction and the vertical direction are within a range of, for example, 40 cm.

なお、グループgの実空間上の大きさを、上記のように、グループgの左右方向の実空間上の大きさXmax−Xminおよび上下方向の実空間上の大きさYmax−Yminの両者について算出してチェックするように構成してもよく、また、それらのいずれかを算出してチェックするように構成してもよい。   As described above, the size of the group g in the real space is calculated for both the size Xmax−Xmin in the horizontal space of the group g and the size Ymax−Ymin in the vertical space of the vertical direction. It may be configured to check, or any one of them may be calculated and checked.

また、それらの大きさとともに、或いはそれらの大きさを算出する代わりに、例えば、各グループgにおける斜め方向(例えば基準画像T上における斜め45°の方向)等の所定の方向の実空間上の大きさを算出するように構成することも可能である。また、例えば、各グループgの上下、左右の全辺縁部分(エッジ部分)の各画素pの座標(i,j)とグループgの実空間上の距離Zgを用いて上記(2)式、(3)式に従って各画素pに対応する実空間上の点の位置を算出し、グループgの実空間上での面積や、グループgの実空間上での周囲の長さを算出し、それぞれについて予め所定の範囲を設定して、その範囲内にあるか否かをチェックするように構成することも可能である。   In addition to those sizes or instead of calculating those sizes, for example, in real space in a predetermined direction such as an oblique direction in each group g (for example, an oblique 45 ° direction on the reference image T). It is also possible to configure to calculate the size. Further, for example, using the coordinates (i, j) of each pixel p of the upper and lower sides of each group g and all the left and right edge portions (edge portions) and the distance Zg in the real space of the group g, According to the equation (3), the position of a point on the real space corresponding to each pixel p is calculated, and the area of the group g on the real space and the perimeter of the group g on the real space are calculated, A predetermined range may be set in advance, and it may be configured to check whether it is within the range.

[(b)グループgの道路面からの実空間上の高さについて]
また、光源検出手段12は、各グループgについて、前述したグループgの左端の画素のi座標Iminと右端の画素のi座標Imaxとの中間点Ic、および上端の画素のj座標Jmaxと下端の画素のj座標Jminとの中間点Jc、すなわち、
Ic=(Imin+Imax)/2 …(20)
Jc=(Jmin+Jmax)/2 …(21)
をそれぞれi座標、j座標とするグループgの中心点Gcを算出する。そして、このJcとグループgの実空間上の距離Zgとを上記(3)式に代入して、グループgの中心点Gcの実空間上の高さYcを算出する。すなわち、
Yc=CH+Zg×PW×(Jc−JV) …(22)
[(B) Height in real space from the road surface of group g]
For each group g, the light source detection unit 12 also includes an intermediate point Ic between the i-coordinate Imin of the leftmost pixel and the i-coordinate Imax of the rightmost pixel and the j-coordinate Jmax of the uppermost pixel and the lower end of each group g. An intermediate point Jc with the j coordinate Jmin of the pixel, that is,
Ic = (Imin + Imax) / 2 (20)
Jc = (Jmin + Jmax) / 2 (21)
The center point Gc of the group g, where i is the i coordinate and j coordinate is calculated. Then, the height Yc of the center point Gc of the group g in the real space is calculated by substituting Jc and the distance Zg of the group g in the real space into the above equation (3). That is,
Yc = CH + Zg × PW × (Jc−JV) (22)

そして、光源検出手段12は、路面検出手段14が検出した実空間上の道路面の道路高モデル(図7(B)参照)をメモリから読み出して、グループgの実空間上の距離Zgにおける道路面の高さYを算出する。そして、グループgの道路面からの実空間上の高さを、グループgの中心点Gcの実空間上の高さYcと道路面の高さYとの差分Yc−Yとして算出するようになっている。 Then, the light source detection means 12 reads the road height model (see FIG. 7B) of the road surface in the real space detected by the road surface detection means 14 from the memory, and the road at the distance Zg in the real space of the group g. The surface height Y * is calculated. Then, the height in the real space from the road surface of the group g is calculated as a difference Yc−Y * between the height Yc in the real space of the center point Gc of the group g and the height Y * of the road surface. It has become.

そして、通常の場合、信号機の信号灯は道路面からの高さが5m以上の高さに設置されるため、本実施形態では、多少幅を持たせて、光源検出手段12は、上記のようにして算出したグループgの道路面からの実空間上の高さYc−Yが例えば4.5m以上の範囲内にあるか否かをチェックするようになっている。 In a normal case, the signal light of the traffic light is installed at a height of 5 m or more from the road surface. In this embodiment, the light source detection means 12 is set as described above with a slight width. It is checked whether the height Yc-Y * in the real space from the road surface of the group g calculated in the above is within a range of, for example, 4.5 m or more.

なお、グループgの道路面からの実空間上の高さを、道路面からグループgの中心点Gcまでの高さとする代わりに、グループgの下端(画素のj座標はJmin)までの高さとすることも可能であり、或いは、予め設定された決定手法でグループg内に決定された他の点までの高さとすることも可能である。   Note that the height in real space from the road surface of group g is not the height from the road surface to the center point Gc of group g, but the height to the lower end of group g (the j coordinate of the pixel is Jmin) It is also possible to set the height to another point determined in the group g by a predetermined determination method.

また、グループgの実空間上の距離Zgにおける道路面の高さYは、各区間ごとに上記(7)式および(8)式で与えられる道路高モデルから線形補間する等して求めることができる。さらに、道路高モデルを含む車線モデルは、路面検出手段14によって今回のサンプリング周期における車線モデルが検出されていればそれを用い、今回のサンプリング周期での車線モデルが検出されていなければ、前回のサンプリング周期で検出した車線モデルに基づいてその後の自車両の挙動等から今回のサンプリング周期における車線モデルが推定されて用いられる。 Further, the height Y * of the road surface at the distance Zg in the real space of the group g is obtained by linear interpolation from the road height model given by the above equations (7) and (8) for each section. Can do. Furthermore, the lane model including the road height model is used if the lane model in the current sampling cycle is detected by the road surface detection means 14, and if the lane model in the current sampling cycle is not detected, the previous lane model is used. Based on the lane model detected at the sampling period, the lane model at the current sampling period is estimated and used from the behavior of the host vehicle thereafter.

[(c)グループgの道路面上での自車両の進行路に対する実空間上の位置について]
また、本実施形態のように、信号機の赤く点灯された信号灯(すなわち赤信号)を検出する場合には、道路面上での自車両の進行路上に存在する信号機の信号灯が検出されるべきである。すなわち、例えば図15に示すように、基準画像Tに複数の信号機A、B、Cが撮像されている場合、検出すべき信号機は、基準画像Tの中央付近に撮像されている信号機Aでも対向車線上の信号機Cでもなく、道路面上での自車両の進行路上に存在する信号機Bである。
[(C) Position in real space with respect to traveling path of own vehicle on road surface of group g]
In addition, as in the present embodiment, when detecting a signal lamp that is lit red (that is, a red signal), the signal lamp of the traffic signal that exists on the road of the host vehicle on the road surface should be detected. is there. That is, for example, as shown in FIG. 15, when a plurality of traffic signals A, B, and C are captured in the reference image T, the traffic signal to be detected is also opposite to the traffic signal A captured near the center of the reference image T. It is not the traffic light C on the lane but the traffic light B present on the traveling path of the host vehicle on the road surface.

そこで、本実施形態では、前述した車線検出手段13で図16に示すように自車両側方に検出した各車線LL、LR等の情報に基づいて路面検出手段14で検出した実空間上の道路面の水平形状モデル(図7(A)参照)に基づいて、道路面上での自車両の進行路を把握するようになっている。なお、この場合も、今回のサンプリング周期での水平形状モデルが検出されていなければ、前回のサンプリング周期で検出した水平形状モデルに基づいてその後の自車両の挙動等から今回のサンプリング周期における水平形状モデルが推定されて用いられる。   Therefore, in the present embodiment, the road in the real space detected by the road surface detection means 14 based on the information of each lane LL, LR, etc. detected to the side of the host vehicle as shown in FIG. Based on the horizontal shape model of the surface (see FIG. 7A), the traveling path of the host vehicle on the road surface is grasped. In this case as well, if the horizontal shape model at the current sampling cycle is not detected, the horizontal shape at the current sampling cycle is determined based on the behavior of the host vehicle thereafter based on the horizontal shape model detected at the previous sampling cycle. A model is estimated and used.

そして、光源検出手段12は、道路面の水平形状モデルをメモリから読み出して、グループgの実空間上の距離Zgにおける自車両の進行路のX軸方向(左右方向)の左右端の位置を線形補間等の方法で算出する。すなわち、グループgの実空間上の距離Zgにおける自車両側方の各車線LL、LRの水平方向の位置を算出する。   Then, the light source detection means 12 reads the horizontal shape model of the road surface from the memory, and linearly positions the left and right ends in the X-axis direction (left-right direction) of the traveling path of the host vehicle at the distance Zg in the real space of the group g. It is calculated by a method such as interpolation. That is, the horizontal position of each lane LL, LR on the side of the host vehicle at the distance Zg in the real space of the group g is calculated.

そして、通常の場合、信号機の信号灯は自車両の進行路の上方に設置され、信号灯の水平方向の位置が自車両側方の各車線LL、LRの間に存在するように設置される。そのため、本実施形態では、光源検出手段12は、まず、グループgの中心点Gcのi座標Ic(上記(20)式参照)とグループgの実空間上の距離Zgとを上記(2)式に代入して、グループgの中心点Gcの実空間上の水平位置Xcを算出する。すなわち、
Xc=CD/2+Zg×PW×(Ic−IV) …(23)
In a normal case, the signal lamp of the traffic light is installed above the traveling path of the host vehicle, and the signal lamp is installed so that the horizontal position of the signal lamp exists between the lanes LL and LR on the side of the host vehicle. Therefore, in the present embodiment, the light source detection unit 12 first calculates the i coordinate Ic (see the above equation (20)) of the center point Gc of the group g and the distance Zg in the real space of the group g from the above equation (2). And the horizontal position Xc in the real space of the center point Gc of the group g is calculated. That is,
Xc = CD / 2 + Zg × PW × (Ic−IV) (23)

そして、光源検出手段12は、このXcと、上記のようにして算出したグループgの実空間上の距離Zgにおける自車両側方の各車線LL、LRの水平方向の位置と比較して、グループgの中心点Gcの実空間上の水平位置Xcが自車両側方の各車線LL、LRの水平方向の位置の範囲内にあるか否かをチェックするようになっている。   Then, the light source detection means 12 compares the Xc with the horizontal position of each lane LL, LR on the side of the host vehicle at the distance Zg in the real space of the group g calculated as described above. It is checked whether the horizontal position Xc in the real space of the center point Gc of g is within the range of the horizontal position of each lane LL, LR on the side of the host vehicle.

なお、自車両側方の車線LL、LRの検出誤差や、水平形状モデルの誤差等を加味して、グループgの中心点Gcの実空間上の水平位置Xcが存在し得る範囲を、自車両側方の各車線LL、LRの水平方向の位置から外側にそれぞれ例えば1mまでの範囲とすることも可能である。   The range in which the horizontal position Xc in the real space of the center point Gc of the group g can exist in consideration of the detection error of the lanes LL, LR on the side of the host vehicle, the error of the horizontal shape model, etc. The lateral lanes LL and LR can be set to a range of, for example, 1 m outward from the horizontal position.

本実施形態では、光源検出手段12は、上記の(a)〜(c)の各チェック項目をクリアしたグループgを道路上に存在する光源、すなわち本実施形態の場合は信号機の赤く点灯された信号灯(すなわち赤信号)として検出するようになっている。   In the present embodiment, the light source detection unit 12 turns on the group g that cleared the check items (a) to (c) above as a light source existing on the road, that is, in the case of this embodiment, the traffic light is lit red. Detection is made as a signal lamp (that is, a red signal).

以上のように、本実施形態に係る環境認識装置1によれば、撮像手段2で撮像された一対の画像(基準画像Tおよび比較画像Tc)に基づいて少なくとも一方の画像T(基準画像T)の各画素pについて実空間上の距離Zを算出し、それに基づいて、一方の画像T上で画像データDに基づいて統合した各グループgの実空間上の距離Zgを算出する。そして、それに基づいて算出した各グループgの実空間上の大きさ、道路面からの実空間上の高さ、およびグループgの道路面上での自車両の進行路に対する実空間上の位置から、グループgを自車両の進行路上に存在する光源であるか否かを判定して検出する。   As described above, according to the environment recognition device 1 according to the present embodiment, at least one image T (reference image T) based on the pair of images (reference image T and comparison image Tc) captured by the imaging unit 2. A distance Z in the real space is calculated for each of the pixels p, and based on this, the distance Zg in the real space of each group g integrated on the one image T based on the image data D is calculated. Then, based on the size in the real space of each group g calculated based on the height, the height in the real space from the road surface, and the position in the real space with respect to the traveling path of the own vehicle on the road surface of the group g. The group g is detected by determining whether or not it is a light source existing on the traveling path of the host vehicle.

このように、各グループgに属する各画素pの実空間上の距離Zpに基づいて各グループgの実空間上の大きさ、道路面からの実空間上の高さ、およびグループgの道路面上での自車両の進行路に対する実空間上の位置が判定されるため、それらに基づいて、検出した光源が信号機の点灯された信号灯(例えば赤信号)等であるか否かを的確に判定して認識することが可能となり、光源を精度良く検出することが可能となるとともに、認識の信頼性を飛躍的に向上させることが可能となる。   Thus, based on the distance Zp in the real space of each pixel p belonging to each group g, the size in the real space of each group g, the height in the real space from the road surface, and the road surface of the group g Since the position in the real space with respect to the traveling path of the host vehicle is determined, it is accurately determined whether or not the detected light source is a signal light (for example, a red signal) with a traffic light turned on. Thus, the light source can be detected with high accuracy and the reliability of the recognition can be greatly improved.

また、光源が自車両から遠い距離にある場合でも、実空間上の大きさや道路面からの実空間上の高さ、道路面上での自車両の進行路に対する実空間上の位置に基づいて光源を判定するため、例えば、道路脇の広告塔やネオンサイン等の赤い表示を赤信号であると誤認識することを的確に防止することが可能となる。   Even when the light source is at a distance from the host vehicle, it is based on the size in the real space, the height in the real space from the road surface, and the position in the real space with respect to the traveling path of the host vehicle on the road surface. Since the light source is determined, it is possible to accurately prevent, for example, erroneous recognition of a red display such as an advertising tower beside a road or a neon sign as a red signal.

なお、本実施形態では、道路面上での自車両の進行路を、路面検出手段14で検出した実空間上の道路面の水平形状モデル(図7(A)参照)に基づいて算出する場合について説明したが、これに限定されない。例えば、自車両の車速等から算出される自車両の旋回曲率に基づいて自車両が今後進行すると推定される走行軌跡を算出し、その走行軌跡を中心として左右に所定幅の広がりを持つ面として自車両の進行路を算出するように構成することも可能である。   In the present embodiment, the traveling path of the host vehicle on the road surface is calculated based on the horizontal shape model of the road surface in the real space detected by the road surface detection means 14 (see FIG. 7A). However, the present invention is not limited to this. For example, based on the turning curvature of the host vehicle calculated from the vehicle speed or the like of the host vehicle, a travel trajectory that the host vehicle is estimated to travel in the future is calculated, and a plane having a predetermined width on the left and right is centered on the travel trajectory. It is also possible to configure so as to calculate the traveling path of the host vehicle.

その際、自車両の旋回曲率Cuaは、センサ類Q(図1参照)から送信されてくる自車両の車速Vやヨーレートγ、ステアリングホイールの舵角δ等の情報に基づいて下記(24)式または下記(25)、(26)式に従って算出することができる。なお、下記の各式において、Reは旋回半径、Asfは車両のスタビリティファクタ、Lwbはホイールベースである。
Cua=γ/V …(24)
Re=(1+Asf・V)・(Lwb/δ) …(25)
Cua=1/Re …(26)
At that time, the turning curvature Cua of the host vehicle is expressed by the following equation (24) based on information such as the vehicle speed V, yaw rate γ, steering angle δ of the steering wheel, etc. transmitted from the sensors Q (see FIG. 1). Alternatively, it can be calculated according to the following formulas (25) and (26). In the following equations, Re is a turning radius, Asf is a vehicle stability factor, and Lwb is a wheelbase.
Cua = γ / V (24)
Re = (1 + Asf · V 2 ) · (Lwb / δ) (25)
Cua = 1 / Re (26)

また、本実施形態では、信号機の赤く点灯された信号灯、すなわち赤信号を検出する場合について説明したが、この他にも、例えば、上記の第1の条件や第2の条件におけるR(赤)をG(緑)に読み替えて適用することで、信号機の青信号を検出するように構成することができる。   Further, in the present embodiment, the signal lamp that is lit red, that is, the case where a red signal is detected has been described, but in addition to this, for example, R (red) in the first condition and the second condition described above Can be configured to detect a blue signal of a traffic light.

さらに、よく知られているように、各画素pの画像データDのR(赤)、G(緑)、B(青)の各色成分のうち、RとGを加法混色すると黄色の色成分を得ることができる。そこで、例えば、撮像手段2で撮像して得られた基準画像Tの各画素pの画像データDに対して、RとG、GとB、BとRをそれぞれ加法混色して黄色、水色、桃色の各色成分を算出し、上記の第1の条件や第2の条件におけるR(赤)を黄色に読み替え、G(緑)やB(青)を水色や桃色に読み替えて適用することで、信号機の黄信号を検出するように構成することができる。   Furthermore, as is well known, among the R (red), G (green), and B (blue) color components of the image data D of each pixel p, when R and G are additively mixed, a yellow color component is obtained. Can be obtained. Therefore, for example, R and G, G and B, and B and R are additively mixed to the image data D of each pixel p of the reference image T obtained by imaging with the imaging unit 2 to yellow, light blue, By calculating each color component of pink, replacing R (red) in the above first condition and second condition with yellow, G (green) and B (blue) with light blue and pink, and applying, It can be configured to detect a yellow signal of a traffic light.

このように、撮像手段2で撮像して得られた基準画像Tの各画素pの画像データDのR、G、Bの各色成分に対して所定の重み付け加算することで、例えば先行車両のオレンジ色のテールランプやウインカや、オレンジがかった赤色のブレーキランプ等の光源を検出することが可能となる。   In this way, predetermined weighted addition is performed on each of the R, G, and B color components of the image data D of each pixel p of the reference image T obtained by imaging with the imaging unit 2, for example, the orange of the preceding vehicle It is possible to detect light sources such as colored tail lamps, turn signals, and orange-red brake lamps.

その際、光源検出手段12における前述した(a)グループgの実空間上の大きさや(b)道路面からの実空間上の高さ等の各チェック項目における予め設定される範囲は、適宜変更されて用いられることは言うまでもない。また、上記のように構成することで、光源として、信号機の点灯された信号灯のほかにも、先行車両のテールランプやブレーキランプ、ウインカ等のように、誤認識すると甚大な事故を生じかねない光源についても、それらの光源を確実に検出し、的確に認識することが可能となる。   At that time, the preset ranges in the check items such as (a) the size of the group g in the real space and (b) the height in the real space from the road surface in the light source detection unit 12 are changed as appropriate. Needless to say, it is used. In addition to the signal light with the traffic light turned on, the light source that may cause a serious accident if it is misrecognized, such as the tail lamp, brake lamp, blinker, etc. of the preceding vehicle. For these, those light sources can be reliably detected and accurately recognized.

また、本実施形態では、上記のように、グループgに属する各画素pについて実空間上の距離Zp(視差dp)が算出されているため、各グループgの実空間上の傾きを算出することができる。   In the present embodiment, as described above, since the distance Zp (parallax dp) in the real space is calculated for each pixel p belonging to the group g, the inclination of each group g in the real space is calculated. Can do.

具体的には、グループgに属する各画素pに対応する実空間上の距離Zpや各画素pの基準画像T上の座標(i,j)に基づいて上記(2)式〜(4)式から各画素pに対応する実空間上の各点(Xp,Yp,Zp)を算出することができる。それをX−Z平面にプロットすると、例えば図17に示すようにプロットすることができ、この各点の分布を直線近似する等して、各点の分布の水平方向(X軸方向)に対する距離方向(Z軸方向)の傾きθを算出することができる。   Specifically, the equations (2) to (4) are based on the distance Zp in the real space corresponding to each pixel p belonging to the group g and the coordinates (i, j) on the reference image T of each pixel p. Thus, each point (Xp, Yp, Zp) in the real space corresponding to each pixel p can be calculated. If it is plotted on the XZ plane, it can be plotted, for example, as shown in FIG. 17, and the distribution of each point is linearly approximated, for example, the distance to the horizontal direction (X-axis direction) of the distribution of each point. The inclination θ in the direction (Z-axis direction) can be calculated.

また、グループgに属する各画素に対応する実空間上の各点をY−Z平面にプロットすると、例えば図18に示すようにプロットすることができ、各点の分布を直線近似する等して、各点の分布の高さ方向(Y軸方向)に対する距離方向(Z軸方向)の傾きφを算出することができる。   Further, when each point on the real space corresponding to each pixel belonging to the group g is plotted on the YZ plane, it can be plotted as shown in FIG. 18, for example, by linearly approximating the distribution of each point. The slope φ in the distance direction (Z-axis direction) with respect to the height direction (Y-axis direction) of the distribution of each point can be calculated.

そこで、例えば、このようにして算出した実空間上の傾きθ、φに予め閾値を設定しておき、自車両に対向する光源、すなわち傾きθやφが0°に近い値である光源のみを検出するように構成することも可能である。このように構成すれば、例えば自車両の進行路以外の走行路に設置された信号機の点灯された信号灯等を誤検出することをより的確に回避することが可能となる。   Therefore, for example, threshold values are set in advance for the inclinations θ and φ in the real space calculated in this way, and only light sources that face the host vehicle, that is, light sources having inclinations θ and φ close to 0 ° are used. It can also be configured to detect. If comprised in this way, it will become possible to avoid more correctly detecting erroneously the signal light etc. which the lighting of the traffic light installed in the travel path other than the advancing path of the own vehicle, for example.

また、本実施形態に係る環境認識装置1で、光源として、信号機の点灯された信号灯を検出する場合には、さらに、検出したグループgの基準画像T上の位置から下方の所定距離内に、物体に相当する実空間上の距離Zpを有する画素pが存在しないことを確認し、そのような画素pが存在しない場合に信号機の点灯された信号灯を検出するように構成することが可能である。   In the environment recognition apparatus 1 according to the present embodiment, when detecting a signal light with a traffic light turned on as a light source, the detected light is further within a predetermined distance from the position on the reference image T of the detected group g. It is possible to confirm that there is no pixel p having a distance Zp in the real space corresponding to the object, and to detect a signal light that is turned on when the pixel p does not exist. .

グループgとして検出された光源が信号機の点灯された信号灯であれば、通常、その下側には物体が存在しない空間があるが、グループgとして検出された光源が例えば先行車両のテールランプ等であれば、通常、その下側には先行車両の車体が存在し、物体が存在するため、検出したグループgの下方に物体が存在するか否かで光源が信号機の点灯された信号灯であるか否かを的確に判定することが可能となる。   If the light source detected as the group g is a signal light with the traffic light turned on, there is usually a space below which no object is present, but the light source detected as the group g is, for example, a tail lamp of a preceding vehicle. For example, since the vehicle body of the preceding vehicle is usually present below the object and there is an object, whether or not the light source is a signal light with a traffic light turned on depending on whether or not an object exists below the detected group g. It is possible to accurately determine whether or not.

この場合、グループgから下方の所定距離は、例えば実空間上の距離として1mの距離に設定される。   In this case, the predetermined distance below the group g is set to a distance of 1 m as a distance in the real space, for example.

また、基準画像T上では、検出されたグループgの下方に存在する画素pに対して、距離検出手段6で実空間上の距離Zpが検出される場合がある。そして、下方の複数の画素pについて同様の距離Zpが検出される場合には、それらの画素pは物体が撮像された画素に相当すると考えられる。その場合、その物体とグループgとして検出された信号機の点灯された信号灯との高さ方向の距離が1mより大きければ、グループgは信号機の点灯された信号灯であると認定される。   On the reference image T, the distance Zp in the real space may be detected by the distance detection means 6 for the pixel p existing below the detected group g. And when the same distance Zp is detected about several pixel p below, those pixels p are considered to correspond to the pixel by which the object was imaged. In this case, if the distance in the height direction between the object and the signal light that has been detected as the group g is greater than 1 m, the group g is recognized as a signal light that has been lighted.

また、その物体とグループgとして検出された信号機の点灯された信号灯との高さ方向の距離が1m以内であれば、グループgを信号機の点灯された信号灯であるとは認定されない。さらに、検出されたグループgの下方に存在し、実空間上の距離Zpが検出された画素pが散在しているような場合や、実空間上の距離Zpが同一の物体を撮像したものとは見なせないほど離れているような場合には、それらの画素pは物体が撮像された画素に相当するとは考えられず、グループgを信号機の点灯された信号灯と認定することができる。   In addition, if the distance in the height direction between the object and the signal light with the traffic light detected as the group g is within 1 m, the group g is not recognized as the signal light with the traffic light lit. Furthermore, when the pixels p that exist below the detected group g and the distance Zp in the real space is detected are scattered, or an object having the same distance Zp in the real space is captured. In such a case, the pixels p are not considered to correspond to the pixels on which the object is imaged, and the group g can be recognized as a signal light with a traffic light turned on.

1 環境認識装置
2 撮像手段
6 距離検出手段
10 統合処理手段
11 距離算出手段
12 光源検出手段
13 車線検出手段
14 路面検出手段
A、B、C 信号機
D 画像データ
g グループ
Gc グループの中心点
(i,j) 座標
LL、LR 自車両側方の車線
p 画素
最も近接する位置に存在する画素
S 光源
T 基準画像(画像)
Xmax−Xmin グループの左右方向の実空間上の大きさ
Yc グループの実空間上の高さ
Yc−Y グループの道路面からの実空間上の高さ(差分)
Ymax−Ymin グループの上下方向の実空間上の大きさ
Z、Zp 実空間上の距離
Zg グループの実空間上の距離
Zp 最も近接する位置に存在する画素に対応する実空間上の距離
DESCRIPTION OF SYMBOLS 1 Environment recognition apparatus 2 Imaging means 6 Distance detection means 10 Integrated processing means 11 Distance calculation means 12 Light source detection means 13 Lane detection means 14 Road surface detection means A, B, C Traffic light D Image data g Group Gc Group center point (i, j) Coordinates LL, LR Side lane p of own vehicle Pixel p * Pixel present at closest position S Light source T
Xmax-Xmin Group real space size Yc Group real space height Yc-Y * Group height from the road surface (difference)
Ymax-Ymin Group vertical size Z, Zp Real space distance Zg Group real space distance Zp * Distance in real space corresponding to the closest pixel

Claims (14)

画素ごとに画像データを有する画像を撮像する撮像手段と、
前記画像の各画素について実空間上の距離を検出する距離検出手段と、
前記画像から道路面を検出する路面検出手段と、
前記画像において互いに隣接する画素の各画像データに基づいて当該隣接する画素を1つのグループに統合する統合処理手段と、
前記グループに属する前記画素および前記グループの周囲に存在する前記画素に対応する前記実空間上の距離の少なくともいずれかに基づいて、前記グループの実空間上の距離を算出する距離算出手段と、
前記グループの実空間上の距離および前記グループの前記画像中での座標に基づいて、当該グループの実空間上の大きさ、前記道路面からの実空間上の高さ、および当該グループの自車両の進行路に対する実空間上の位置を算出し、前記大きさ、高さおよび位置がそれぞれ所定の条件を満たす場合に当該グループを道路上に存在する光源として検出する光源検出手段と、
を備えることを特徴とする環境認識装置。
Imaging means for imaging an image having image data for each pixel;
Distance detecting means for detecting a distance in real space for each pixel of the image;
Road surface detection means for detecting a road surface from the image;
Integration processing means for integrating adjacent pixels into one group based on image data of adjacent pixels in the image;
Distance calculating means for calculating a distance in the real space of the group based on at least one of the distance in the real space corresponding to the pixels belonging to the group and the pixels existing around the group;
Based on the distance of the group in the real space and the coordinates of the group in the image, the size of the group in the real space, the height in the real space from the road surface, and the host vehicle of the group A light source detection means for calculating a position in real space with respect to the traveling path of the light source, and detecting the group as a light source existing on the road when the size, height, and position respectively satisfy predetermined conditions;
An environment recognition apparatus comprising:
前記画像中から自車両側方の車線を検出する車線検出手段を備え、
前記光源検出手段は、前記車線の実空間上の位置に基づいて前記自車両の進行路およびそれに対する前記グループの実空間上の位置を算出することを特徴とする請求項1に記載の環境認識装置。
Lane detection means for detecting a lane on the side of the host vehicle from the image,
2. The environment recognition according to claim 1, wherein the light source detection unit calculates a travel path of the host vehicle and a position of the group in real space relative to the traveling path based on a position of the lane in real space. apparatus.
前記統合処理手段は、予め設定された第1の条件を満たす前記画像データを有する画素を検出するととともに、前記第1の条件で規定される前記画像データの範囲よりも広い範囲に設定された第2の条件を満たす前記画像データを有する画素を検出する場合、前記第1の条件を満たす前記画像データを有する画素と統合して1つのグループとすることを特徴とする請求項1または請求項2に記載の環境認識装置。   The integration processing means detects a pixel having the image data satisfying a first condition set in advance, and sets a first range set wider than the range of the image data defined by the first condition. 3. When detecting a pixel having the image data satisfying the condition of 2, the pixel is integrated with the pixel having the image data satisfying the first condition to form one group. The environment recognition device described in 1. 前記画像データはカラーの画像データであり、
前記第1の条件は、前記画像の中から特定の色と特定の明るさを有する前記画素が検出されるように設定されており、
前記第2の条件は、前記特定の色を有するが、その明るさが前記第1の条件で規定される前記特定の明るさよりも暗い前記画素が検出されるように設定されていることを特徴とする請求項3に記載の環境認識装置。
The image data is color image data,
The first condition is set so that the pixel having a specific color and a specific brightness is detected from the image,
The second condition is set so that the pixel having the specific color but whose brightness is darker than the specific brightness defined by the first condition is detected. The environment recognition device according to claim 3.
前記第2の条件は、前記特定の色を有し、その明るさが前記第1の条件で規定される前記特定の明るさよりも明るい前記画素も検出されるように設定されていることを特徴とする請求項4に記載の環境認識装置。   The second condition is set such that the pixel having the specific color and the brightness of which is brighter than the specific brightness defined by the first condition is also detected. The environment recognition device according to claim 4. 前記統合処理手段は、前記画素と隣接する画素の前記実空間上の距離の差異と、前記画素の前記実空間上の距離と前記グループの前記実空間上の距離との差異のいずれかの差異が所定の閾値を上回る場合には、前記画素をグループに非統合とすることを特徴とする請求項1から請求項5のいずれか一項に記載の環境認識装置。   The integration processing means may be any one of a difference in a distance in the real space between a pixel adjacent to the pixel and a difference in a distance in the real space between the pixel and a distance in the real space of the group. 6. The environment recognition apparatus according to claim 1, wherein when the pixel exceeds a predetermined threshold, the pixels are not integrated into a group. 前記統合処理手段は、前記画素を前記グループに統合した場合に、当該グループの形状が円形状でなくなる場合には、前記画素を前記グループに非統合とすることを特徴とする請求項1から請求項6のいずれか一項に記載の環境認識装置。   2. The integration unit according to claim 1, wherein when the pixels are integrated into the group and the shape of the group is not circular, the pixels are not integrated into the group. Item 7. The environment recognition device according to any one of items 6 to 6. 前記統合処理手段は、前記画素を前記グループに統合した場合に、当該グループの形状が円形状でなくなる場合には、前記グループを棄却して、前記光源検出手段における処理の対象から除外することを特徴とする請求項1から請求項6のいずれか一項に記載の環境認識装置。   The integration processing means rejects the group and excludes it from the processing target in the light source detection means when the shape of the group is not circular when the pixels are integrated into the group. The environment recognition apparatus according to claim 1, wherein the environment recognition apparatus is characterized. 前記距離算出手段は、前記グループに属する前記各画素に対応する前記実空間上の距離と、前記グループの画像上での範囲から左右または上下に探索して、前記実空間上の距離が検出されており前記画像上で前記範囲に最も近接する位置に存在する前記画素に対応する前記実空間上の距離の少なくともいずれかに基づいて、前記グループの実空間上の距離を算出することを特徴とする請求項1から請求項8のいずれか一項に記載の環境認識装置。   The distance calculating means searches the distance in the real space corresponding to each pixel belonging to the group and the range on the image of the group to the left or right or up and down to detect the distance in the real space. A distance in the real space of the group is calculated based on at least one of the distances in the real space corresponding to the pixels present at a position closest to the range on the image. The environment recognition device according to any one of claims 1 to 8. 前記距離算出手段は、前記グループに属する前記各画素に対応する前記実空間上の距離、および/または、前記グループの前記画像上での範囲の左右または上下に最も近接する位置に存在する前記画素に対応する前記実空間上の距離の、平均値または中央値を、前記各グループの実空間上の距離として算出することを特徴とする請求項9に記載の環境認識装置。   The distance calculation means includes the pixel that is present at a position closest to the distance in the real space corresponding to each pixel belonging to the group and / or the range on the image in the group. The environment recognition device according to claim 9, wherein an average value or a median value of the distances in the real space corresponding to is calculated as a distance in the real space of each group. 前記距離算出手段は、前記グループに属する前記各画素に対応する前記実空間上の距離、および/または、前記グループの前記画像上での範囲の左右または上下に最も近接する位置に存在する前記画素に対応する前記実空間上の距離を、前記グループごとにヒストグラムに投票し、そのピーク値を前記各グループの実空間上の距離として算出することを特徴とする請求項9に記載の環境認識装置。   The distance calculation means includes the pixel that is present at a position closest to the distance in the real space corresponding to each pixel belonging to the group and / or the range on the image in the group. 10. The environment recognition apparatus according to claim 9, wherein a distance in the real space corresponding to the above is voted on a histogram for each group, and a peak value thereof is calculated as a distance in the real space of each group. . 前記距離算出手段は、前記グループに属する前記各画素に対応する前記実空間上の距離、および/または、前記グループの前記画像上での範囲の左右または上下に最も近接する位置に存在する前記画素に対応する前記実空間上の距離のうち、近接した値の前記距離同士をまとめ、まとめられた前記距離の群のうち、データ数が最も多い群に属する前記実空間上の距離の平均値または中央値を前記各グループの実空間上の距離として算出することを特徴とする請求項9に記載の環境認識装置。   The distance calculation means includes the pixel that is present at a position closest to the distance in the real space corresponding to each pixel belonging to the group and / or the range on the image in the group. Among the distances in the real space corresponding to the above, the distances close to each other are collected, and the average value of the distances in the real space belonging to the group having the largest number of data among the group of the distances collected or The environment recognition apparatus according to claim 9, wherein a median value is calculated as a distance in the real space of each group. 前記光源検出手段は、前記光源として、信号機の点灯された信号灯、先行車両のテールランプ、ブレーキランプ、ウインカのいずれかを検出することを特徴とする請求項1から請求項12のいずれか一項に記載の環境認識装置。   13. The light source detection unit according to claim 1, wherein the light source detection unit detects any one of a signal light with a traffic light turned on, a tail lamp of a preceding vehicle, a brake lamp, and a winker as the light source. The environment recognition device described. 前記光源検出手段は、前記光源として信号機の点灯された信号灯を検出する場合、検出した前記グループの前記画像上の位置から下方の所定距離内に、物体が存在しない場合に、前記信号機の点灯された信号灯を検出することを特徴とする請求項1から請求項13のいずれか一項に記載の環境認識装置。   The light source detection means detects the signal light with the traffic light turned on as the light source, and when the object is not present within a predetermined distance below the detected position of the group on the image, the signal light is turned on. The environment recognition device according to claim 1, wherein a signal light is detected.
JP2009072165A 2009-03-24 2009-03-24 Environment recognition device Active JP5254102B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009072165A JP5254102B2 (en) 2009-03-24 2009-03-24 Environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009072165A JP5254102B2 (en) 2009-03-24 2009-03-24 Environment recognition device

Publications (2)

Publication Number Publication Date
JP2010224925A JP2010224925A (en) 2010-10-07
JP5254102B2 true JP5254102B2 (en) 2013-08-07

Family

ID=43042039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009072165A Active JP5254102B2 (en) 2009-03-24 2009-03-24 Environment recognition device

Country Status (1)

Country Link
JP (1) JP5254102B2 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5591730B2 (en) * 2011-02-10 2014-09-17 富士重工業株式会社 Environment recognition device
JP5472163B2 (en) * 2011-03-07 2014-04-16 株式会社デンソー Speed regulation value notification device and speed regulation value notification system
JP2012226689A (en) * 2011-04-22 2012-11-15 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
JP5272041B2 (en) * 2011-05-12 2013-08-28 富士重工業株式会社 Environment recognition apparatus and environment recognition method
JP5537492B2 (en) * 2011-05-12 2014-07-02 富士重工業株式会社 Environment recognition device
JP5537491B2 (en) * 2011-05-12 2014-07-02 富士重工業株式会社 Environment recognition device
JP5386539B2 (en) * 2011-05-12 2014-01-15 富士重工業株式会社 Environment recognition device
JP5386537B2 (en) * 2011-05-12 2014-01-15 富士重工業株式会社 Environment recognition device
JP5386538B2 (en) * 2011-05-12 2014-01-15 富士重工業株式会社 Environment recognition device
JP5272042B2 (en) * 2011-05-12 2013-08-28 富士重工業株式会社 Environment recognition apparatus and environment recognition method
JP5798011B2 (en) * 2011-11-18 2015-10-21 富士重工業株式会社 Outside environment recognition device
KR101361663B1 (en) * 2012-03-21 2014-02-12 주식회사 코아로직 Image processing apparatus and metnod of vehicle
JP5397714B1 (en) * 2012-08-01 2014-01-22 株式会社ジェイエイアイコーポレーション Surveillance camera device
JP5666538B2 (en) 2012-11-09 2015-02-12 富士重工業株式会社 Outside environment recognition device
JP5883833B2 (en) * 2013-08-05 2016-03-15 富士重工業株式会社 Outside environment recognition device
JP5886799B2 (en) * 2013-08-05 2016-03-16 富士重工業株式会社 Outside environment recognition device
JP5906224B2 (en) 2013-09-27 2016-04-20 富士重工業株式会社 Outside environment recognition device
JP5666726B2 (en) * 2014-02-07 2015-02-12 富士重工業株式会社 Vehicle detection device
JP6270624B2 (en) * 2014-05-22 2018-01-31 株式会社Subaru Outside environment recognition device
JP6365103B2 (en) * 2014-08-14 2018-08-01 日産自動車株式会社 Signal detection device and signal detection method
JP6530685B2 (en) * 2015-09-15 2019-06-12 株式会社デンソーアイティーラボラトリ Object detection apparatus, object detection system, object detection method and object detection program
CN105667387B (en) * 2016-01-13 2017-12-26 京东方科技集团股份有限公司 Vehicle communications device and method, vehicle
US11056005B2 (en) 2018-10-24 2021-07-06 Waymo Llc Traffic light detection and lane state recognition for autonomous vehicles
JP7298407B2 (en) * 2019-09-18 2023-06-27 トヨタ自動車株式会社 Vehicle driving support device
JP2023021834A (en) * 2021-08-02 2023-02-14 株式会社デンソー vehicle controller

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3671460B2 (en) * 1995-06-07 2005-07-13 スズキ株式会社 Lamp lighting detection method and stop lamp lighting detection device
JP5127182B2 (en) * 2006-08-14 2013-01-23 富士重工業株式会社 Object detection device
JP4832227B2 (en) * 2006-09-07 2011-12-07 富士重工業株式会社 Object detection apparatus and object detection method
JP4914233B2 (en) * 2007-01-31 2012-04-11 富士重工業株式会社 Outside monitoring device
JP4914234B2 (en) * 2007-01-31 2012-04-11 富士重工業株式会社 Leading vehicle detection device

Also Published As

Publication number Publication date
JP2010224925A (en) 2010-10-07

Similar Documents

Publication Publication Date Title
JP5254102B2 (en) Environment recognition device
JP5591730B2 (en) Environment recognition device
US9886773B2 (en) Object detection apparatus and object detection method
US9591274B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
US9721460B2 (en) In-vehicle surrounding environment recognition device
CN108027976B (en) Travel assist device and travel assist method based on travel assist device
US8976999B2 (en) Vehicle detection apparatus
JP6254084B2 (en) Image processing device
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
US9754172B2 (en) Three-dimenisional object detection device
US9099005B2 (en) Environment recognition device and environment recognition method
US9740943B2 (en) Three-dimensional object detection device
US9135511B2 (en) Three-dimensional object detection device
JP6236039B2 (en) Outside environment recognition device
JP5180126B2 (en) Road recognition device
US9589193B2 (en) Three-dimensional object detection device and three-dimensional object detection method
JP6034923B1 (en) Outside environment recognition device
US9832444B2 (en) Three-dimensional object detection device
US20120288146A1 (en) Environment recognition device and environment recognition method
JP5188429B2 (en) Environment recognition device
US20150125031A1 (en) Three-dimensional object detection device
JP2009298344A (en) Apparatus and program for determining lights of vehicle
JP5073700B2 (en) Object detection device
US20150091714A1 (en) Filtering device and environment recognition system
JP2008077154A (en) Vehicle periphery supervision unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130417

R150 Certificate of patent or registration of utility model

Ref document number: 5254102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250