JP2012168592A - Environment recognition device - Google Patents

Environment recognition device Download PDF

Info

Publication number
JP2012168592A
JP2012168592A JP2011026633A JP2011026633A JP2012168592A JP 2012168592 A JP2012168592 A JP 2012168592A JP 2011026633 A JP2011026633 A JP 2011026633A JP 2011026633 A JP2011026633 A JP 2011026633A JP 2012168592 A JP2012168592 A JP 2012168592A
Authority
JP
Japan
Prior art keywords
signal
arrow
image
arrow signal
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011026633A
Other languages
Japanese (ja)
Other versions
JP5591730B2 (en
Inventor
Tatsunosuke Kido
辰之輔 木戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2011026633A priority Critical patent/JP5591730B2/en
Publication of JP2012168592A publication Critical patent/JP2012168592A/en
Application granted granted Critical
Publication of JP5591730B2 publication Critical patent/JP5591730B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an environment recognition device which can accurately recognize an arrow signal of a traffic light, and recognize the arrow signal on a local vehicle at a position far away from the traffic light.SOLUTION: An environment recognition device 1 includes detection means 12 for red signal which detects a red signal Lr etc., of a traffic light S based upon an image T picked up by imaging means 2; and arrow signal extraction means 13 of extracting an arrow signal A imaged in a search region Rs set based upon a position of the detected red signal Lr etc., in the image T. The arrow signal extraction means 13 switches a method of recognizing a direction that the arrow signal A indicates according to a distance Z from a local vehicle MC to the red signal Lr etc., in the actual space, and recognizes the direction that the arrow signal A indicates based upon mutual position relation between the arrow signal A and red signal Lr etc., in the image T within a first predetermined section Sec1 far from the local vehicle MC.

Description

本発明は、環境認識装置に係り、特に、道路上に設置された信号機を認識する環境認識装置に関する。   The present invention relates to an environment recognition device, and more particularly to an environment recognition device for recognizing a traffic light installed on a road.

従来から、自車両に例えばCCDカメラやCMOSカメラ等を搭載し、カメラで撮像した撮像画像中から、信号機の点灯されている信号灯等を検出する装置が知られている。   2. Description of the Related Art Conventionally, there has been known a device that mounts a CCD camera, a CMOS camera, or the like on a host vehicle and detects a signal lamp or the like in which a traffic light is lit from a captured image captured by the camera.

例えば、特許文献1に記載された装置では、カメラで撮像された撮像画像から赤色の発光部を抽出し、抽出した赤色発光部の撮像画像上での輝度や大きさ、撮像画像上での高さ、形状、楕円度等に基づいて信号機の赤色発光体の発光状態であるか否か、すなわち赤信号であるか否かを判定する。   For example, in the apparatus described in Patent Document 1, a red light emitting unit is extracted from a captured image captured by a camera, the luminance and size of the extracted red light emitting unit on the captured image, and the high on the captured image. Then, based on the shape, ellipticity, etc., it is determined whether or not the red light emitter of the traffic light is in a light emission state, that is, whether or not it is a red signal.

しかし、信号機の中には、図28(A)〜(C)に示すように、青、黄、赤の各信号灯Lb、Ly、Lrの他に、右折可や直進可、左折可を示す矢印信号Al、As、Arを備える信号機Sもある。このような信号機Sに対して上記のように赤信号Lrのみを抽出してしまうと、例えばその情報に基づいて自車両の自動走行制御等を行うような場合、信号機Sの直進可の矢印信号Asが点灯しているにも関わらず、自車両が停止線の手前で停止してしまう虞れがある。   However, in the traffic lights, as shown in FIGS. 28 (A) to (C), in addition to the blue, yellow, and red signal lights Lb, Ly, and Lr, arrows indicating right turn, straight travel, and left turn are possible. There is also a traffic light S with signals Al, As, Ar. If only the red signal Lr is extracted as described above with respect to such a traffic light S, for example, in the case where automatic traveling control of the host vehicle is performed based on the information, an arrow signal indicating that the traffic light S can go straight. Although As is lit, the host vehicle may stop before the stop line.

このように、直進可の矢印信号Asが点灯しているにも関わらず、自車両を停止線の手前で停止させてしまうと、直進可の矢印信号Asが点灯しているために制動操作を行わない後続車両に追突される等の危険が生じる。そこで、例えば特許文献2では、信号機Sの赤信号Lrや黄信号Lyを検出し、赤信号Lrや黄信号Lyに対する所定の位置に探索領域を設定し、この探索領域内でテンプレートとの比較(すなわちテンプレートマッチング)により矢印信号Al、As、Arを検出する信号機認識装置が開示されている。   In this way, if the vehicle is stopped before the stop line even though the straight-ahead arrow signal As is lit, the braking operation is performed because the straight-ahead arrow signal As is lit. There is a risk that the vehicle will be bumped into a subsequent vehicle that will not be used. Therefore, for example, in Patent Document 2, the red signal Lr and the yellow signal Ly of the traffic light S are detected, a search area is set at a predetermined position with respect to the red signal Lr and the yellow signal Ly, and comparison with a template is performed within this search area ( That is, a traffic signal recognition device that detects arrow signals Al, As, and Ar by template matching) is disclosed.

特開2007−34693号公報JP 2007-34693 A 特開2009−43068号公報JP 2009-43068 A

ところで、信号機SをCCDカメラ等で撮像した場合、信号機Sが自車両に近い位置にあれば、例えば図29に示すように、撮像された画像T中に矢印信号(図29の場合は矢印信号As)が比較的明瞭に撮像されるため、テンプレートマッチングにより矢印信号を検出し易い。   By the way, when the traffic light S is imaged by a CCD camera or the like, if the traffic light S is at a position close to the own vehicle, for example, as shown in FIG. 29, an arrow signal (in the case of FIG. 29, an arrow signal in the captured image T). As) is captured relatively clearly, and it is easy to detect an arrow signal by template matching.

しかしながら、信号機Sが自車両からやや遠くなると、例えば図30に示すように、画像T中に撮像された矢印信号Asがぼやけてしまい、テンプレートマッチングによる矢印信号の検出は困難になる。そして、信号機Sが自車両からさらに遠くなると、例えば図31に示すように、画像T中に撮像された矢印信号Asがさらにぼやけてしまい、テンプレートマッチングによる矢印信号の検出はもはや不可能になる。   However, when the traffic light S is slightly far from the host vehicle, for example, as shown in FIG. 30, the arrow signal As captured in the image T is blurred, and it is difficult to detect the arrow signal by template matching. When the traffic light S is further away from the host vehicle, for example, as shown in FIG. 31, the arrow signal As captured in the image T becomes further blurred, and the detection of the arrow signal by template matching is no longer possible.

なお、図29〜図31における画像Tにおける各画素の大きさは同じであり、図30や図31は拡大した写真が示されている。すなわち、図29に示した信号機Sのサイズから見た場合、図30の画像Tには信号機Sはより小さいサイズで撮像され、図31の画像Tには信号機Sはさらに小さいサイズで撮像される。   Note that the size of each pixel in the image T in FIGS. 29 to 31 is the same, and FIGS. 30 and 31 show enlarged photographs. That is, when viewed from the size of the traffic light S shown in FIG. 29, the traffic light S is captured in a smaller size in the image T in FIG. 30, and the traffic light S is captured in a smaller size in the image T in FIG. .

上記のように、テンプレートマッチングにより矢印信号を検出する手法を採用すると、信号機Sが自車両から遠い位置にあるうちは、矢印信号を検出することができず、矢印信号がテンプレートマッチングにより認識可能となる画像T中でのサイズで撮像されるまで信号機Sが自車両に接近した距離にならないと、矢印信号を認識することができないといった問題があった。   As described above, when the method of detecting the arrow signal by template matching is employed, the arrow signal cannot be detected while the traffic light S is far from the host vehicle, and the arrow signal can be recognized by template matching. There is a problem that the arrow signal cannot be recognized unless the traffic light S is close to the host vehicle until it is captured in the size of the image T.

そのため、信号機Sがまだ自車両から遠い位置にある段階から、信号機Sの矢印信号を的確に認識して、その情報を自車両の自動走行制御等に用いたり、ドライバに対して適切に警告する等の制御を行うことが困難であった。   Therefore, from the stage where the traffic light S is still far from the host vehicle, the arrow signal of the traffic signal S is accurately recognized, and the information is used for automatic traveling control of the host vehicle or the driver is appropriately warned. It was difficult to perform control such as.

本発明は、このような事情に鑑みてなされたものであり、信号機の矢印信号を的確に認識することが可能で、しかも、信号機が自車両から遠い位置にある段階から矢印信号を認識することが可能な環境認識装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and can accurately recognize an arrow signal of a traffic light, and recognize an arrow signal from a stage where the traffic signal is far from the host vehicle. An object of the present invention is to provide an environment recognition device capable of performing the above.

前記の問題を解決するために、第1の発明は、環境認識装置において、
画素ごとに画像データを有する画像を撮像する撮像手段と、
前記画像の各画素について実空間上の距離を検出する距離検出手段と、
前記画像において互いに隣接する画素の各画像データに基づいて当該隣接する画素を1つのグループに統合する統合処理手段と、
前記グループに属する前記各画素および前記グループの周囲に存在する前記各画素に対応する前記実空間上の各距離に基づいて、前記グループの実空間上の距離を算出する距離算出手段と、
前記グループの実空間上の距離および前記グループの前記画像中での座標に基づいて算出した当該グループの実空間上の大きさおよび道路面からの実空間上の高さに基づいて、信号機の赤または黄の信号灯を検出する赤信号等検出手段と、
検出された前記赤または黄の信号灯の前記画像中の位置に基づいて矢印信号が撮像されている可能性がある画像領域を探索領域として設定し、前記探索領域内に撮像されている前記矢印信号を抽出する矢印信号抽出手段と、
を備え、
前記矢印信号抽出手段は、
自車両から前記赤または黄の信号灯までの前記実空間上の距離に応じて前記矢印信号が指し示す方向を認識する手法を変えるように構成されており、
少なくとも前記赤または黄の信号灯までの前記実空間上の距離が前記自車両から遠い第一の所定区間内にある場合には、前記画像中における前記矢印信号と前記赤または黄の信号灯との相互の位置関係に基づいて、前記矢印信号が指し示す方向を認識することを特徴とする。
In order to solve the above problem, the first invention is an environment recognition apparatus,
Imaging means for imaging an image having image data for each pixel;
Distance detecting means for detecting a distance in real space for each pixel of the image;
Integration processing means for integrating adjacent pixels into one group based on image data of adjacent pixels in the image;
Distance calculating means for calculating a distance in the real space of the group based on the distance in the real space corresponding to the pixels belonging to the group and the pixels existing around the group;
Based on the distance of the group in the real space and the size of the group in the real space and the height in the real space from the road surface calculated based on the coordinates in the image of the group, Or a detection means such as a red signal for detecting a yellow signal light;
Based on the detected position of the red or yellow signal lamp in the image, an image area in which an arrow signal may be captured is set as a search area, and the arrow signal captured in the search area Arrow signal extraction means for extracting
With
The arrow signal extraction means includes
It is configured to change the method of recognizing the direction indicated by the arrow signal according to the distance in the real space from the own vehicle to the red or yellow signal light,
When the distance in the real space to at least the red or yellow signal light is within a first predetermined section far from the host vehicle, the arrow signal and the red or yellow signal light in the image Based on the positional relationship, the direction indicated by the arrow signal is recognized.

第2の発明は、第1の発明の環境認識装置において、前記矢印信号抽出手段は、少なくとも前記赤または黄の信号灯までの前記実空間上の距離が前記第一の所定区間より自車両に近い第二の所定区間内にある場合には、前記矢印信号が指し示す方向を認識する手法として、前記画像中における前記矢印信号の左右または上下の対称性に基づいて、前記矢印信号が指し示す方向を認識することを特徴とする。   According to a second aspect of the present invention, in the environment recognition device according to the first aspect, the arrow signal extraction means has at least a distance in the real space to the red or yellow signal light that is closer to the host vehicle than the first predetermined section. As a method for recognizing the direction indicated by the arrow signal when within the second predetermined interval, the direction indicated by the arrow signal is recognized based on left-right or vertical symmetry of the arrow signal in the image. It is characterized by doing.

第3の発明は、第2の発明の環境認識装置において、前記矢印信号抽出手段は、前記画像中に、前記矢印信号に対応する画素領域に外接する画像領域を設定し、当該画像領域の中心を通る上下方向または左右方向に延在する直線で当該画像領域を分割し、分割された各画像領域にそれぞれ含まれる前記矢印信号に対応する画素領域に属する画素数を比較することで、前記左右または上下の対称性を判定することを特徴とする。   According to a third aspect of the present invention, in the environment recognition apparatus according to the second aspect, the arrow signal extraction means sets an image area circumscribing a pixel area corresponding to the arrow signal in the image, and the center of the image area The image region is divided by a straight line extending in the up-down direction or the left-right direction passing through and the number of pixels belonging to the pixel region corresponding to the arrow signal included in each of the divided image regions is compared. Alternatively, the upper and lower symmetry is determined.

第4の発明は、第2または第3の発明の環境認識装置において、前記矢印信号抽出手段は、少なくとも前記赤または黄の信号灯までの前記実空間上の距離が前記第二の所定区間より自車両に近い第三の所定区間内にある場合には、前記矢印信号が指し示す方向を認識する手法として、前記矢印信号を形成するアローヘッド部とアローシャフト部に対応する前記画像中の各画素領域の相互の位置関係に基づいて、前記矢印信号が指し示す方向を認識することを特徴とする。   According to a fourth aspect of the present invention, in the environment recognition device of the second or third aspect, the arrow signal extraction means is configured such that at least the distance in the real space to the red or yellow signal lamp is smaller than the second predetermined section. Each pixel region in the image corresponding to the arrow head portion and the arrow shaft portion that forms the arrow signal as a method of recognizing the direction indicated by the arrow signal when in the third predetermined section close to the vehicle The direction indicated by the arrow signal is recognized based on the mutual positional relationship.

第5の発明は、第4の発明の環境認識装置において、前記矢印信号抽出手段は、前記矢印信号を形成するアローヘッド部とアローシャフト部に対応する前記画像中の前記各画素領域を、前記各画素領域にそれぞれ属する各画素数を比較することで識別することを特徴とする。   According to a fifth aspect of the present invention, in the environment recognition device according to the fourth aspect, the arrow signal extraction means is configured to select the pixel regions in the image corresponding to the arrow head portion and the arrow shaft portion that form the arrow signal, It is characterized by identifying by comparing the number of pixels belonging to each pixel region.

第6の発明は、第4または第5の発明の環境認識装置において、前記矢印信号抽出手段は、前記アローヘッド部と前記アローシャフト部とにそれぞれ対応する前記各画素領域の各中心点をそれぞれ算出し、前記各中心点を結ぶベクトルの方向性に基づいて、前記矢印信号が指し示す方向を認識することを特徴とする。   According to a sixth aspect of the present invention, in the environment recognition device according to the fourth or fifth aspect, the arrow signal extraction means determines each center point of each pixel area corresponding to the arrow head portion and the arrow shaft portion, respectively. The direction indicated by the arrow signal is recognized based on the calculated directionality of the vector connecting the center points.

第7の発明は、第1から第6のいずれかの発明の環境認識装置において、
さらに、前記画像から道路面を検出する路面検出手段を備え、
前記赤信号等検出手段は、前記グループの実空間上の距離および前記グループの前記画像中での座標に基づいて算出した当該グループの実空間上の大きさと、前記路面検出手段が検出した前記道路面の実空間上の高さに基づいて、信号機の赤または黄の信号灯を検出することを特徴とする。
A seventh invention is the environment recognition device according to any one of the first to sixth inventions,
Furthermore, a road surface detection means for detecting a road surface from the image,
The detection means such as a red signal is calculated based on the distance of the group in the real space and the coordinates of the group in the image, and the size of the group in the real space, and the road detected by the road surface detection means. A red or yellow signal light of a traffic light is detected based on the height of the surface in real space.

第8の発明は、環境認識装置において、
画素ごとに画像データを有する画像を撮像する撮像手段と、
前記画像の各画素について実空間上の距離を検出する距離検出手段と、
前記画像において互いに隣接する画素の各画像データに基づいて当該隣接する画素を1つのグループに統合する統合処理手段と、
前記グループに属する前記各画素および前記グループの周囲に存在する前記各画素に対応する前記実空間上の各距離に基づいて、前記グループの実空間上の距離を算出する距離算出手段と、
前記グループの実空間上の距離および前記グループの前記画像中での座標に基づいて算出した当該グループの実空間上の大きさおよび道路面からの実空間上の高さに基づいて、信号機の赤または黄の信号灯を検出する赤信号等検出手段と、
検出された前記赤または黄の信号灯の前記画像中の位置に基づいて矢印信号が撮像されている可能性がある画像領域を探索領域として設定し、前記探索領域内に撮像されている前記矢印信号を抽出する矢印信号抽出手段と、
を備え、
前記矢印信号抽出手段は、前記矢印信号が指し示す方向を認識する手法として互いに異なる手法で前記矢印信号が指し示す方向を認識する認識手段を複数備え、自車両から前記赤または黄の信号灯までの前記実空間上の距離に応じて前記複数の認識手段のうちのいずれかの前記認識手段が認識した前記方向を選択して出力することを特徴とする。
The eighth invention is an environment recognition apparatus,
Imaging means for imaging an image having image data for each pixel;
Distance detecting means for detecting a distance in real space for each pixel of the image;
Integration processing means for integrating adjacent pixels into one group based on image data of adjacent pixels in the image;
Distance calculating means for calculating a distance in the real space of the group based on the distance in the real space corresponding to the pixels belonging to the group and the pixels existing around the group;
Based on the distance of the group in the real space and the size of the group in the real space and the height in the real space from the road surface calculated based on the coordinates in the image of the group, Or a detection means such as a red signal for detecting a yellow signal light;
Based on the detected position of the red or yellow signal lamp in the image, an image area in which an arrow signal may be captured is set as a search area, and the arrow signal captured in the search area Arrow signal extraction means for extracting
With
The arrow signal extraction means includes a plurality of recognition means for recognizing the direction indicated by the arrow signal by different methods as a method for recognizing the direction indicated by the arrow signal, and the actual signal from the own vehicle to the red or yellow signal lamp is provided. According to a distance in space, the direction recognized by any one of the plurality of recognition means is selected and output.

第1の発明によれば、少なくとも信号機Sの赤信号や黄信号までの実空間上の距離が自車両から遠い第一の所定区間内にある場合には、画像中における矢印信号と赤信号等との相互の位置関係に基づいて矢印信号が指し示す方向を認識するため、従来のテンプレートマッチングにより矢印信号が指し示す方向を検出する手法ではその方向を検出することができなかった自車両から非常に遠い位置にある信号機(例えば図31参照)についても、矢印信号が指し示す方向を的確に認識して検出することが可能となる。   According to the first invention, at least when the distance in the real space to the red signal and the yellow signal of the traffic light S is within the first predetermined section far from the host vehicle, the arrow signal and the red signal in the image, etc. Since the direction indicated by the arrow signal is recognized based on the mutual positional relationship with the vehicle, the conventional method of detecting the direction indicated by the arrow signal by template matching is very far from the host vehicle where the direction could not be detected. For the traffic light at the position (see, for example, FIG. 31), the direction indicated by the arrow signal can be accurately recognized and detected.

そのため、信号機がまだ自車両から遠い位置にある段階から、信号機の矢印信号を的確に認識して、その情報を自車両の自動走行制御等に用いたり、ドライバに対して適切に警告する等の制御を行うことが可能となる。   Therefore, from the stage where the traffic light is still far from the host vehicle, the arrow signal of the traffic signal is accurately recognized, and the information is used for automatic driving control of the host vehicle, or the driver is appropriately warned. Control can be performed.

第2の発明によれば、自車両から赤信号等までの実空間上の距離が第一の所定区間より自車両に近い第二の所定区間にある場合(例えば図30参照)も、やはり従来のテンプレートマッチングによる手法では矢印信号が指し示す方向を検出することが困難であったが、画像中における矢印信号の左右の対称性や上下の対称性に基づいて矢印信号の方向を的確に認識することが可能となる。   According to the second invention, when the distance in the real space from the host vehicle to the red signal or the like is in the second predetermined section closer to the host vehicle than the first predetermined section (see, for example, FIG. 30), it is also conventional. Although it was difficult to detect the direction indicated by the arrow signal using the template matching method of, the direction of the arrow signal can be accurately recognized based on the left and right symmetry and the vertical symmetry of the arrow signal in the image. Is possible.

そのため、前記発明の効果に加え、自車両から比較的遠い位置にある信号機についても、矢印信号が指し示す方向を的確に認識して検出することが可能となる。そのため、信号機がまだ自車両から比較的遠い位置にある段階から、信号機の矢印信号を的確に認識して、その情報を自車両の自動走行制御等に用いたり、ドライバに対して適切に警告する等の制御を行うことが可能となる。   Therefore, in addition to the effects of the present invention, it is possible to accurately recognize and detect the direction indicated by the arrow signal even for a traffic light that is relatively far from the host vehicle. Therefore, from the stage where the traffic light is still relatively far from the host vehicle, the arrow signal of the traffic signal is accurately recognized, and the information is used for automatic driving control of the host vehicle, or the driver is warned appropriately. Etc. can be controlled.

第3の発明によれば、画像中に設定した矢印信号に対応する画素領域に外接する画像領域を、その中心を通る上下方向や左右方向に延在する直線で各画像領域を分割し、分割された各画像領域にそれぞれ含まれる矢印信号に対応する画素領域に属する画素数を比較して左右の対称性や上下の対称性を判定することで、上記の矢印信号の左右の対称性や上下の対称性を的確に判定することが可能となる。   According to the third invention, the image area circumscribing the pixel area corresponding to the arrow signal set in the image is divided by the straight line extending in the vertical direction and the horizontal direction passing through the center of the image area. By comparing the number of pixels belonging to the pixel area corresponding to the arrow signal included in each image area, and determining the left / right symmetry and the vertical symmetry, the left / right symmetry and the upper / lower symmetry of the arrow signal are determined. It is possible to accurately determine the symmetry of.

そして、的確に判定された左右の対称性や上下の対称性に基づいて、矢印信号が指し示す方向を的確に認識することが可能となり、前記第2の発明の効果がより的確に発揮させることが可能となる。   Then, based on the right and left symmetry and the vertical symmetry determined accurately, it becomes possible to accurately recognize the direction indicated by the arrow signal, and the effect of the second invention can be exhibited more accurately. It becomes possible.

第4の発明によれば、前記各発明の効果に加え、信号機の赤信号等までの実空間上の距離が第二の所定区間より自車両に近い第三の所定区間内にある場合に、矢印信号を形成するアローヘッド部とアローシャフト部に対応する画像中の各画素領域の相互の位置関係に基づいて矢印信号が指し示す方向を認識するため、自車両に近い位置にある信号機(例えば図29参照)について、矢印信号が指し示す方向を的確に認識して検出することが可能となる。   According to the fourth invention, in addition to the effects of the respective inventions described above, when the distance in real space to the red signal of the traffic light is within the third predetermined section closer to the host vehicle than the second predetermined section, In order to recognize the direction indicated by the arrow signal based on the mutual positional relationship between the pixel regions in the image corresponding to the arrow head portion and the arrow shaft portion that form the arrow signal, a traffic signal (for example, FIG. 29)), the direction indicated by the arrow signal can be accurately recognized and detected.

そのため、前記各発明の効果に加え、信号機の赤信号等までの実空間上の距離が自車両に近い第三の所定区間内にある場合にも、的確に認識された矢印信号が指し示す方向の情報を自車両の自動走行制御等に用いたり、ドライバに対して適切に警告する等の制御を行うことが可能となる。   Therefore, in addition to the effects of the inventions described above, even when the distance in the real space to the red light of the traffic light is within the third predetermined section close to the host vehicle, the direction of the direction indicated by the accurately recognized arrow signal It is possible to perform control such as using the information for automatic traveling control of the own vehicle or appropriately warning the driver.

また、それとともに、従来のテンプレートマッチングを用いる手法では処理が重くなり、処理に時間がかかってリアルタイム性が損なわれる可能性があり、また、変則的な矢印信号に対応するテンプレートが用意されていない場合には矢印信号の方向を認識することができなくなるといった問題が生じ得るが、上記のように構成することで、処理はさほど重くならず、リアルタイム性が確保されるとともに、変則的な矢印信号が標示される場合であっても矢印信号の方向を的確に認識することが可能となる。   At the same time, the conventional method using template matching makes processing heavy, and processing may take time and real-time characteristics may be impaired. Also, a template corresponding to an irregular arrow signal is not prepared. In some cases, there may be a problem that the direction of the arrow signal cannot be recognized. However, by configuring as described above, the processing does not become very heavy, real-time characteristics are ensured, and an irregular arrow signal is obtained. It is possible to accurately recognize the direction of the arrow signal even when is displayed.

第5の発明によれば、矢印信号を形成するアローヘッド部とアローシャフト部に対応する画像中の各画素領域を、各画素領域にそれぞれ属する各画素数を比較して識別することで、各画素領域を、アローヘッド部とアローシャフト部とに的確に対応付けることが可能となり、前記第4の発明の効果をより的確に発揮させることが可能となる。   According to the fifth invention, each pixel area in the image corresponding to the arrow head part and the arrow shaft part forming the arrow signal is identified by comparing the number of pixels belonging to each pixel area, The pixel region can be accurately associated with the arrow head portion and the arrow shaft portion, and the effect of the fourth invention can be more accurately exhibited.

第6の発明によれば、アローヘッド部とアローシャフト部とにそれぞれ対応する各画素領域の各中心点を結ぶベクトルの方向性に基づいて矢印信号が指し示す方向を認識することで、変則的な矢印信号も含めて矢印信号が指し示す方向をベクトルの方向性として認識することが可能となり、矢印信号の方向をより的確に認識することが可能となる。そのため、前記各発明の効果をより的確に発揮させることが可能となる。   According to the sixth aspect of the invention, by recognizing the direction indicated by the arrow signal based on the directionality of the vector connecting the center points of the respective pixel regions respectively corresponding to the arrow head portion and the arrow shaft portion, The direction indicated by the arrow signal including the arrow signal can be recognized as the vector directionality, and the direction of the arrow signal can be recognized more accurately. Therefore, the effects of the above inventions can be more accurately exhibited.

第7の発明によれば、路面検出手段が検出した路面自体の実空間上での高さと、画像中に抽出された赤信号等に対応するグループの実空間上の高さとに基づいて、赤信号等の実際の路面からの高さを算出することが可能となり、それに基づいて信号機の赤信号等を検出することが可能となる。   According to the seventh aspect of the invention, based on the height in the real space of the road surface itself detected by the road surface detection means and the height in the real space of the group corresponding to the red signal or the like extracted in the image, It becomes possible to calculate the height of the signal from the actual road surface, and based on this, it is possible to detect the red signal of the traffic light.

そのため、前記各発明の効果に加え、画像中に抽出された赤信号等に対応する可能性があるグループを、赤信号等に対応するグループであると的確に認識した上で、それ以降の各処理を行うことが可能となり、赤信号等の検出精度や、矢印信号の検出精度、矢印信号が指し示す方向の認識精度等を確実に向上させることが可能となる。   Therefore, in addition to the effects of each of the above inventions, a group that may correspond to a red signal or the like extracted in an image is accurately recognized as a group that corresponds to a red signal or the like, and thereafter Processing can be performed, and the detection accuracy of a red signal, the detection accuracy of an arrow signal, the recognition accuracy of the direction indicated by the arrow signal, and the like can be reliably improved.

第8の発明によれば、矢印信号抽出手段に、矢印信号が指し示す方向を認識する手法として互いに異なる手法を採用する認識手段を複数設け、自車両から赤信号等までの実空間上の距離に応じて上記の複数の認識手段のうちのどの認識手段が認識した矢印信号が指し示す方向を選択して出力するように構成しても、前記各発明の効果と同等の有益な効果を発揮させることが可能となる。   According to the eighth aspect of the present invention, the arrow signal extraction means is provided with a plurality of recognition means that adopt different methods as methods for recognizing the direction indicated by the arrow signal, so that the distance in the real space from the own vehicle to the red signal, etc. Accordingly, even if it is configured to select and output the direction indicated by the arrow signal recognized by any of the plurality of recognition means, the same beneficial effects as those of the above inventions can be exhibited. Is possible.

本実施形態に係る環境認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the environment recognition apparatus which concerns on this embodiment. 撮像手段で撮像される基準画像の例を示す図である。It is a figure which shows the example of the reference | standard image imaged with an imaging means. 距離検出手段のイメージプロセッサによるステレオマッチング処理を説明する図である。It is a figure explaining the stereo matching process by the image processor of a distance detection means. 作成された距離画像の例を示す図である。It is a figure which shows the example of the produced distance image. 基準画像の水平ライン上を探索して検出された車線候補点の例を説明する図である。It is a figure explaining the example of the lane candidate point detected by searching on the horizontal line of a reference image. 自車両の左右に検出された車線の例を説明する図である。It is a figure explaining the example of the lane detected on either side of the own vehicle. 形成された車線モデルの例を説明する図であり、(A)はZ−X平面上の水平形状モデル、(B)はZ−Y平面上の道路高モデルを表す。It is a figure explaining the example of the formed lane model, (A) represents the horizontal shape model on a ZX plane, (B) represents the road height model on a ZY plane. 基準画像上に撮像された赤信号の例を示す図である。It is a figure which shows the example of the red signal imaged on the reference | standard image. 検出した画素の上下方向に探索して検出された第2の条件を満たす画素およびグループを示す図である。It is a figure which shows the pixel and group which satisfy | fill the 2nd condition detected by searching in the up-down direction of the detected pixel. 図9の画素列の右隣の画素列におけるグループの検出の手法を説明する図である。FIG. 10 is a diagram illustrating a method for detecting a group in a pixel column on the right side of the pixel column in FIG. 9. グループの縦方向の長さの変化を説明する図であり、(A)は最大値になった場合、(B)は最大値より短い場合、(C)は(B)よりさらに短い場合を表す。It is a figure explaining the change of the length of the vertical direction of a group, when (A) becomes the maximum value, (B) is shorter than a maximum value, (C) represents the case where it is still shorter than (B). . グループの縦方向の長さが最小値より増加した場合を説明する図である。It is a figure explaining the case where the length of the vertical direction of a group has increased from the minimum value. グループの範囲の上下に近接し実空間上の距離が検出されている各画素を表す図である。It is a figure showing each pixel which adjoined the upper and lower sides of the range of the group, and the distance in real space is detected. グループの左右端の各画素および上下端の各画素を説明する図である。It is a figure explaining each pixel of the right-and-left end of a group, and each pixel of an upper-lower end. 矢印信号抽出手段における矢印信号の抽出処理および矢印信号が指し示す方向の認識処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the recognition process of the direction which the arrow signal extraction process in the arrow signal extraction means and the arrow signal points. 縦型の信号機およびその側方に設けられた矢印信号を表す図である。It is a figure showing the vertical signal apparatus and the arrow signal provided in the side. 基準画像の赤信号に対応するグループの下方および左右の側方に設定された探索領域を表す図である。It is a figure showing the search area | region set below the group corresponding to the red signal of a reference | standard image, and the left and right sides. 自車両から赤信号までの実空間上の距離を区分する第一の所定区間Sec1、第二の所定区間Sec2、第三の所定区間Sec3を説明する図である。It is a figure explaining the 1st predetermined section Sec1, the 2nd predetermined section Sec2, and the 3rd predetermined section Sec3 which section the distance in the real space from the own vehicle to a red signal. 矢印信号抽出手段での認識手法1における矢印信号が指し示す方向の認識処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the recognition process of the direction which the arrow signal points out in the recognition method 1 in the arrow signal extraction means. 抽出した矢印信号に対応する画素領域と赤信号に対応するグループとの位置関係を説明する図である。It is a figure explaining the positional relationship of the pixel area | region corresponding to the extracted arrow signal, and the group corresponding to a red signal. 信号機が縦型の信号機である場合の抽出した矢印信号に対応する画素領域と赤信号に対応するグループとの位置関係を説明する図である。It is a figure explaining the positional relationship of the pixel area | region corresponding to the extracted arrow signal and the group corresponding to a red signal in case a traffic light is a vertical traffic light. 矢印信号抽出手段での認識手法2における矢印信号が指し示す方向の認識処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the recognition process of the direction which the arrow signal points in the recognition method 2 in the arrow signal extraction means. 矢印信号に対応する画素領域に外接する画像領域やその中心を通る直線等を説明する図である。It is a figure explaining the image area | region circumscribed to the pixel area | region corresponding to an arrow signal, the straight line passing through the center, etc. 矢印信号が右折可を示す矢印信号である場合の矢印信号に対応する画素領域に外接する画像領域やその中心を通る直線等を説明する図である。It is a figure explaining the image area | region circumscribed to the pixel area corresponding to the arrow signal in case an arrow signal is an arrow signal which shows the right turn possible, the straight line which passes along the center, etc. 矢印信号抽出手段での認識手法3における矢印信号が指し示す方向の認識処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the recognition process of the direction which the arrow signal points in the recognition method 3 in the arrow signal extraction means. 矢印信号のアローヘッド部やアローシャフト部に対応する各画素領域や各中心点、中心点同士を結ぶベクトル等を説明する図である。It is a figure explaining each pixel area | region corresponding to the arrow head part of an arrow signal, an arrow shaft part, each center point, the vector which connects center points, etc. FIG. 矢印信号が変則的である場合のアローヘッド部やアローシャフト部、各中心点、中心点同士を結ぶベクトル等を説明する図である。It is a figure explaining the arrow head part in case an arrow signal is irregular, an arrow shaft part, each center point, the vector which connects center points, etc. (A)〜(C)は赤信号等の他に矢印信号が設けられた一般的な信号機の例を示す図である。(A)-(C) is a figure which shows the example of the general signal apparatus provided with the arrow signal other than the red signal. 自車両から信号機までの距離が近い場合に撮像される赤信号や矢印信号の画像の例を示す写真である。It is a photograph which shows the example of the image of the red signal and arrow signal imaged when the distance from the own vehicle to a traffic signal is near. 自車両から信号機までの距離がやや遠い場合に撮像される赤信号や矢印信号の画像の例を示す写真である。It is a photograph which shows the example of the image of the red signal and arrow signal imaged when the distance from the own vehicle to a traffic signal is a little far. 自車両から信号機までの距離がさらに遠い場合に撮像される赤信号や矢印信号の画像の例を示す写真である。It is a photograph which shows the example of the image of the red signal and arrow signal imaged when the distance from the own vehicle to a traffic signal is further far.

以下、本発明に係る環境認識装置の実施の形態について、図面を参照して説明する。   Hereinafter, an embodiment of an environment recognition apparatus according to the present invention will be described with reference to the drawings.

本実施形態に係る環境認識装置1は、図1に示すように、撮像手段2や距離検出手段6、統合処理手段10等を有する処理部9等を備えて構成されている。   As shown in FIG. 1, the environment recognition apparatus 1 according to the present embodiment includes a processing unit 9 including an imaging unit 2, a distance detection unit 6, an integrated processing unit 10, and the like.

なお、距離検出手段6等を含む処理部9の上流側の構成については、本願出願人により先に提出された特開2006−72495号公報等に詳述されており、構成の詳細な説明はそれらの公報に委ねる。以下、簡単に説明する。   The upstream configuration of the processing unit 9 including the distance detecting means 6 and the like is described in detail in Japanese Patent Application Laid-Open No. 2006-72495 previously filed by the applicant of the present application. Leave them to the gazette. A brief description is given below.

本実施形態では、撮像手段2は、互いに同期が取られたCCDやCMOSセンサ等のイメージセンサがそれぞれ内蔵され、例えば車両のルームミラー近傍に車幅方向に所定の間隔をあけて取り付けられた一対のメインカメラ2aおよびサブカメラ2bからなるステレオカメラであり、所定のサンプリング周期で撮像して、一対の画像を出力するように構成されている。   In the present embodiment, the image pickup means 2 includes a built-in image sensor such as a CCD or a CMOS sensor that is synchronized with each other. For example, a pair of image sensors 2 attached in the vicinity of a vehicle rearview mirror with a predetermined interval in the vehicle width direction. The stereo camera is composed of a main camera 2a and a sub camera 2b, and is configured to capture a predetermined sampling period and output a pair of images.

一対のカメラのうち、メインカメラ2aは運転者に近い側のカメラであり、例えば図2に示すような画像Tを撮像するようになっている。サブカメラ2bで撮像された画像と区別するために、以下、メインカメラ2aで撮像された画像Tを基準画像T、サブカメラ2bで撮像された画像(図示省略)を比較画像Tcという。   Of the pair of cameras, the main camera 2a is a camera on the side close to the driver, and takes an image T as shown in FIG. 2, for example. In order to distinguish from the image captured by the sub camera 2b, hereinafter, the image T captured by the main camera 2a is referred to as a reference image T, and the image (not shown) captured by the sub camera 2b is referred to as a comparative image Tc.

なお、本実施形態では、撮像手段2のメインカメラ2aおよびサブカメラ2bでは、それぞれRGB値等で表されるカラーの画像データDが取得されるようになっているが、モノクロの画像データを撮像する撮像手段を用いることも可能であり、その場合についても本発明が適用される。   In the present embodiment, the main camera 2a and the sub camera 2b of the image pickup unit 2 acquire color image data D represented by RGB values or the like, but pick up monochrome image data. It is also possible to use an imaging means that performs this, and the present invention is also applied to such a case.

また、以下、カラーの画像データDが、RGB値、すなわちRGB表色系におけるR(赤)、G(緑)、B(青)の色成分の各輝度(R,G,B)として出力される場合について説明するが、RGB値を例えばL表色系やHLS(HSL、HSIともいう。)等で記述される各データ値に変換して処理を行うように構成することも可能である。さらに、上記のようにモノクロの画像データが取得される場合には、画像データは各画素の輝度で表される。 Hereinafter, color image data D is output as RGB values, that is, luminances (R, G, B) of R (red), G (green), and B (blue) color components in the RGB color system. However, the RGB values are converted into data values described in, for example, the L * a * b * color system, HLS (also referred to as HSL, HSI), etc., and the process is performed. Is also possible. Furthermore, when monochrome image data is acquired as described above, the image data is represented by the luminance of each pixel.

変換手段3は、一対のA/Dコンバータ3a、3bで構成されており、撮像手段2のメインカメラ2aおよびサブカメラ2bで各画素ごとに撮像された基準画像Tと比較画像Tcの各画像データDがそれぞれ順次送信されてくると、各画像データDのRGB値をそれぞれ例えば0〜255の輝度のデジタル値に変換して画像補正部4に出力するようになっている。   The conversion unit 3 includes a pair of A / D converters 3a and 3b, and each image data of the reference image T and the comparison image Tc captured for each pixel by the main camera 2a and the sub camera 2b of the imaging unit 2. When D is sequentially transmitted, the RGB value of each image data D is converted into a digital value having a luminance of, for example, 0 to 255 and output to the image correction unit 4.

画像補正部4は、送信されてきた基準画像Tと比較画像Tcの各画像データDに対してずれやノイズの除去、輝度の補正等の画像補正をそれぞれ順次行い、画像補正した基準画像Tと比較画像Tcの各画像データDを画像データメモリ5に順次格納するとともに、処理部9に順次送信するようになっている。また、画像補正部4は、画像補正した基準画像Tと比較画像Tcの各画像データDを距離検出手段6にも順次送信するようになっている。   The image correction unit 4 sequentially performs image corrections such as displacement, noise removal, luminance correction, and the like on the transmitted reference image T and comparison image Tc for each image data D, and the corrected image of the reference image T Each image data D of the comparison image Tc is sequentially stored in the image data memory 5 and is sequentially transmitted to the processing unit 9. Further, the image correction unit 4 sequentially transmits the image data D of the reference image T and the comparison image Tc subjected to the image correction to the distance detection unit 6.

距離検出手段6のイメージプロセッサ7では、基準画像Tと比較画像Tcの各画像データに対して順次ステレオマッチング処理やフィルタリング処理を施して、実空間上の距離に対応する視差dpを基準画像Tの各画素ごとに順次算出するようになっている。   In the image processor 7 of the distance detection means 6, stereo matching processing and filtering processing are sequentially performed on the image data of the reference image T and the comparison image Tc, and the parallax dp corresponding to the distance in the real space is obtained from the reference image T. Calculation is sequentially performed for each pixel.

イメージプロセッサ7におけるステレオマッチング処理では、基準画像Tと比較画像Tcの各画像データDが送信されてくると、図3に示すように、基準画像T上に例えば3×3画素や4×4画素等の所定の画素数の基準画素ブロックPBを設定し、基準画素ブロックPBに対応する比較画像Tc中のエピポーララインEPL上の基準画素ブロックPBと同形の各比較画素ブロックPBcについて、下記(1)式に従って当該基準画素ブロックPBとの輝度パターンの差異であるSAD値を算出し、SAD値が最小の比較画素ブロックPBcを特定するようになっている。
SAD=Σ|D1s,t−D2s,t|
=Σ{|R1s,t−R2s,t|+|G1s,t−G2s,t|
+|B1s,t−B2s,t|} …(1)
In the stereo matching process in the image processor 7, when each image data D of the reference image T and the comparison image Tc is transmitted, for example, 3 × 3 pixels or 4 × 4 pixels on the reference image T as shown in FIG. For each comparison pixel block PBc having the same shape as the reference pixel block PB on the epipolar line EPL in the comparison image Tc corresponding to the reference pixel block PB, a reference pixel block PB having a predetermined number of pixels is set. An SAD value, which is a difference in luminance pattern from the reference pixel block PB, is calculated according to the equation, and a comparison pixel block PBc having the smallest SAD value is specified.
SAD = Σ | D1s, t−D2s, t |
= Σ {| R1s, t-R2s, t | + | G1s, t-G2s, t |
+ | B1s, t-B2s, t |} (1)

なお、上記(1)式において、D1s,t等は基準画素ブロックPB中の各画素の画像データD等を表し、D2s,t等は比較画素ブロックPBc中の各画素の画像データD等を表す。また、上記の総和は、基準画素ブロックPBや比較画素ブロックPBcが例えば3×3画素の領域として設定される場合には1≦s≦3、1≦t≦3の範囲、4×4画素の領域として設定される場合には1≦s≦4、1≦t≦4の範囲の全画素について計算される。   In the above equation (1), D1s, t, etc. represent the image data D, etc. of each pixel in the reference pixel block PB, and D2s, t, etc., represent the image data D, etc., of each pixel in the comparison pixel block PBc. . Further, the above sum is obtained when the reference pixel block PB and the comparison pixel block PBc are set as a 3 × 3 pixel region, for example, a range of 1 ≦ s ≦ 3, 1 ≦ t ≦ 3, and 4 × 4 pixels. When set as a region, calculation is performed for all pixels in the range of 1 ≦ s ≦ 4 and 1 ≦ t ≦ 4.

イメージプロセッサ7は、このようにして基準画像Tの各基準画素ブロックPBについて、特定した比較画素ブロックPBcの比較画像Tc上の位置と当該基準画素ブロックPBの基準画像T上の位置から視差dpを順次算出するようになっている。以下、基準画像Tの各画素に視差dpを割り当てた画像を距離画像Tzという。また、このようにして各画素ごとに算出された視差dpの情報すなわち距離画像Tzは、距離検出手段6の距離データメモリ8に順次格納されるとともに、処理部9に順次送信されるようになっている。   For each reference pixel block PB of the reference image T in this way, the image processor 7 calculates the parallax dp from the position on the comparison image Tc of the identified comparison pixel block PBc and the position on the reference image T of the reference pixel block PB. It is calculated sequentially. Hereinafter, an image in which the parallax dp is assigned to each pixel of the reference image T is referred to as a distance image Tz. In addition, information on the parallax dp calculated for each pixel in this way, that is, the distance image Tz is sequentially stored in the distance data memory 8 of the distance detecting unit 6 and is sequentially transmitted to the processing unit 9. ing.

なお、実空間上で、前記一対のカメラ2a、2bの中央真下の道路面上の点を原点とし、自車両の車幅方向(すなわち左右方向)をX軸方向、車高方向(すなわち上下方向)をY軸方向、車長方向(すなわち距離方向)をZ軸方向とした場合、実空間上の点(X,Y,Z)と、距離画像Tz上の画素の座標(i,j)および視差dpすなわち(i,j,dp)とは、下記(2)〜(4)式で表される三角測量の原理に基づく座標変換により1対1に対応付けることができる。
X=CD/2+Z×PW×(i−IV) …(2)
Y=CH+Z×PW×(j−JV) …(3)
Z=CD/(PW×(dp−DP)) …(4)
In real space, the point on the road surface directly below the center of the pair of cameras 2a, 2b is the origin, the vehicle width direction (that is, the left-right direction) of the host vehicle is the X-axis direction, and the vehicle height direction (that is, the vertical direction). ) In the Y-axis direction and the vehicle length direction (that is, the distance direction) as the Z-axis direction, the point (X, Y, Z) in the real space, the coordinates (i, j) of the pixel on the distance image Tz, and The parallax dp, that is, (i, j, dp) can be associated one-to-one by coordinate transformation based on the principle of triangulation expressed by the following equations (2) to (4).
X = CD / 2 + Z * PW * (i-IV) (2)
Y = CH + Z × PW × (j−JV) (3)
Z = CD / (PW × (dp−DP)) (4)

上記各式において、CDは一対のカメラの間隔、PWは1画素当たりの視野角、CHは一対のカメラの取り付け高さ、IVおよびJVは自車両正面の無限遠点の距離画像Tz上のi座標およびj座標、DPは消失点視差を表す。   In the above equations, CD is the distance between the pair of cameras, PW is the viewing angle per pixel, CH is the mounting height of the pair of cameras, and IV and JV are i on the distance image Tz at the infinity point in front of the host vehicle. The coordinates, j-coordinate, and DP represent vanishing point parallax.

また、イメージプロセッサ7は、視差dpの信頼性を向上させる目的から、上記のようなステレオマッチング処理で得られた視差dpに対してフィルタリング処理を施し、有効とされた視差dpのみを出力するようになっている。   Further, for the purpose of improving the reliability of the parallax dp, the image processor 7 performs a filtering process on the parallax dp obtained by the stereo matching process as described above, and outputs only the valid parallax dp. It has become.

例えば、道路面の映像のみからなる特徴に乏しい4×4画素の基準画素ブロックPBに対して、比較画像Tc上でステレオマッチング処理を行っても、比較画像Tcの道路面が撮像されている部分ではすべて相関が高くなるため、対応する比較画素ブロックPBcが特定されて視差dpが算出されてもその視差dpの信頼性は低い。   For example, even if a stereo matching process is performed on the reference image block PB of 4 × 4 pixels having poor features consisting only of a road surface image, the road surface of the comparison image Tc is captured. Since all the correlations are high, the reliability of the parallax dp is low even if the corresponding comparison pixel block PBc is specified and the parallax dp is calculated.

そのため、そのような視差dpはフィルタリング処理を施して無効とし、視差dpの値として0を出力するようになっている。そして、0が割り当てられた視差dpは、上記(4)式等に従った実空間上の座標(Z,Y,Z)への変換は行われない。すなわち、視差dpは、少なくとも実空間上の距離Zが不明であることを意味する。   Therefore, the parallax dp is invalidated by performing a filtering process, and 0 is output as the value of the parallax dp. The parallax dp to which 0 is assigned is not converted into the coordinates (Z, Y, Z) in the real space according to the above equation (4). That is, the parallax dp means that at least the distance Z in real space is unknown.

そして、基準画像Tの各画素に、有効に算出された視差dpを割り当てて(すなわち対応付けて)距離画像Tzを作成すると、距離画像Tzは、例えば図4に示すように、基準画像T上で有意な特徴を有する部分である撮像対象の辺縁部分(エッジ部分)等に有効な視差dpが算出された画像となる。なお、距離画像Tzの作成においては、上記(4)式等に従って予め視差dpを距離Z等に換算し、距離Z等を基準画像Tの各画素に割り当てて作成するように構成することも可能である。   Then, when the distance image Tz is created by assigning (ie, associating) effectively calculated parallax dp to each pixel of the reference image T, the distance image Tz is displayed on the reference image T as shown in FIG. Thus, an image in which the effective parallax dp is calculated for the edge portion (edge portion) of the imaging target, which is a portion having a significant feature, is obtained. In creating the distance image Tz, the parallax dp can be converted into the distance Z or the like in advance according to the above equation (4) and the like, and the distance Z or the like can be assigned to each pixel of the reference image T. It is.

本実施形態では、処理部9の統合処理手段10や距離算出手段11、マッチング処理手段12等における各処理では、必要に応じて、上記(2)〜(4)式に従って距離画像Tzの各画素のi座標やj座標、視差dpが、実空間上のX座標(すなわち左右方向の位置)やY座標(すなわち上下方向の位置)、距離Zに変換されて用いられる。   In the present embodiment, in each process in the integration processing unit 10, the distance calculation unit 11, the matching processing unit 12 and the like of the processing unit 9, each pixel of the distance image Tz according to the expressions (2) to (4) as necessary. The i-coordinate, j-coordinate, and parallax dp are converted into an X coordinate (that is, a position in the horizontal direction), a Y coordinate (that is, a position in the vertical direction), and a distance Z in the real space.

なお、本実施形態では、上記のように、撮像手段2としてメインカメラ2aとサブカメラ2bとを備え、距離検出手段6は、それらで撮像された基準画像Tおよび比較画像Tcに対するステレオマッチング処理により基準画像Tの各画素について実空間上の距離Z(すなわち視差dp)を算出するように構成されているが、これに限定されず、撮像手段2は例えば単眼のカメラのように1枚の画像Tのみを出力するものであってもよい。   In the present embodiment, as described above, the imaging unit 2 includes the main camera 2a and the sub camera 2b, and the distance detection unit 6 performs stereo matching processing on the reference image T and the comparison image Tc captured by them. The distance Z (that is, the parallax dp) in the real space is calculated for each pixel of the reference image T. However, the present invention is not limited to this, and the imaging unit 2 is a single image such as a monocular camera. Only T may be output.

また、距離検出手段6は、実空間上の距離Zを算出又は測定して画像Tの各画素に割り当てる機能を有していればよく、例えば自車両前方にレーザ光等を照射してその反射光の情報に基づいて画像Tに撮像された撮像対象までの距離Zを測定するレーダ装置等で構成することも可能であり、検出の手法は特定の手法に限定されない。   Further, the distance detection means 6 only needs to have a function of calculating or measuring the distance Z in the real space and assigning it to each pixel of the image T. For example, the distance detection means 6 irradiates the front of the host vehicle with a laser beam or the like and reflects it. A radar apparatus that measures the distance Z to the imaging target imaged on the image T based on the light information may be used, and the detection method is not limited to a specific method.

処理部9は、本実施形態では、図示しないCPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)、入出力インターフェース等がバスに接続されたコンピュータや、専用回路で構成されている。処理部9は、統合処理手段10や距離算出手段11、赤信号等検出手段12、矢印信号抽出手段13を備えて構成されている。また、本実施形態では、処理部9には、さらに車線検出手段14と路面検出手段15も設けられている。   In this embodiment, the processing unit 9 is configured by a computer (not shown), a ROM (Read Only Memory), a RAM (Random Access Memory), a RAM (Random Access Memory), an input / output interface or the like connected to the bus, or a dedicated circuit. Has been. The processing unit 9 includes an integrated processing unit 10, a distance calculation unit 11, a red signal detection unit 12, and an arrow signal extraction unit 13. In the present embodiment, the processing unit 9 is further provided with a lane detection unit 14 and a road surface detection unit 15.

また、処理部9に、車速センサやヨーレートセンサ、ステアリングホイールの舵角を測定する舵角センサ等のセンサ類Qが接続されており、それらから各測定値が入力されるようになっている。なお、処理部9において先行車両検出等の他の処理を行うように構成することも可能である。   Sensors Q such as a vehicle speed sensor, a yaw rate sensor, and a steering angle sensor for measuring the steering angle of the steering wheel are connected to the processing unit 9, and each measurement value is input from them. Note that the processing unit 9 may be configured to perform other processing such as detection of a preceding vehicle.

ここで、本実施形態の処理部9の統合処理手段10等における処理について説明する前に、車線検出手段14や路面検出手段15における処理について説明する。   Here, before describing the processing in the integrated processing means 10 and the like of the processing unit 9 of the present embodiment, the processing in the lane detection means 14 and the road surface detection means 15 will be described.

なお、以下の説明において、車線とは、追越し禁止線や路側帯と車道とを区画する区画線等の道路面上に標示された連続線や破線をいう。また、本実施形態では、以下に説明するように、車線検出手段14で道路面に標示された車線を検出し、路面検出手段15でその検出結果に基づいて道路面を検出するように構成されているが、路面検出手段15は道路面を検出することができるものであれば以下に説明する形態に限定されない。   In the following description, the lane refers to a continuous line or a broken line marked on a road surface such as an overtaking prohibition line or a lane marking that divides the roadside zone and the roadway. In the present embodiment, as described below, the lane detection unit 14 detects a lane marked on the road surface, and the road surface detection unit 15 detects the road surface based on the detection result. However, the road surface detection means 15 is not limited to the form described below as long as it can detect the road surface.

車線検出手段14は、撮像手段2により撮像された基準画像T中から自車両側方の車線を検出するようになっている。具体的には、車線検出手段14は、図5に示すように、基準画像Tを用いて、その1画素幅の水平ラインj上を例えば基準画像Tの中央から左右方向に探索し、輝度が隣接する画素の輝度から設定された閾値以上に大きく変化する画素を車線候補点cl、crとして検出する。   The lane detection unit 14 detects a lane on the side of the host vehicle from the reference image T captured by the imaging unit 2. Specifically, as shown in FIG. 5, the lane detection unit 14 searches the horizontal line j having a width of one pixel using the reference image T in the horizontal direction from the center of the reference image T, for example. Pixels that greatly change from the brightness of adjacent pixels to a set threshold value or more are detected as lane candidate points cl and cr.

なお、この場合、画素の輝度として、例えば上記のように撮像手段2で撮像される画像がモノクロ画像である場合には、撮像された画像の各画素の画像データである画素ごとの輝度が用いられ、また、本実施形態のように撮像手段2で撮像される画像がカラー画像である場合には、例えば各画素ごとの輝度(R,G,B)の各色成分R、G、Bの和が画素ごとの輝度として用いられる。或いは、各色成分の値を参照して画素ごとの輝度を決めるように構成することも可能である。   In this case, as the luminance of the pixel, for example, when the image captured by the imaging unit 2 is a monochrome image as described above, the luminance for each pixel that is image data of each pixel of the captured image is used. In addition, when the image picked up by the image pickup means 2 is a color image as in the present embodiment, for example, the sum of the color components R, G, B of the luminance (R, G, B) for each pixel. Is used as the luminance for each pixel. Alternatively, it may be configured to determine the luminance for each pixel with reference to the value of each color component.

そして、車線検出手段14は、基準画像T上の水平ラインjを1画素分ずつ上方にシフトさせながら、同様にして各水平ラインj上に車線候補点cl、crを検出していく。その際、車線検出手段14は、検出した車線候補点の視差dp等に基づいて当該車線候補点cl、crが道路面上にないと判断した場合には当該車線候補点cl、crを車線候補点から除外する。   Then, the lane detection means 14 detects the lane candidate points cl and cr on each horizontal line j in the same manner while shifting the horizontal line j on the reference image T upward by one pixel. At this time, if the lane detection unit 14 determines that the lane candidate points cl and cr are not on the road surface based on the parallax dp of the detected lane candidate points, the lane candidate points cl and cr are determined as lane candidates. Exclude from points.

なお、この場合、今回のサンプリング周期での道路面は、後述するように、車線検出手段14が検出した車線LL、LR(後述する図6参照)に基づいて検出されるため、車線検出手段14での車線検出処理の際には、今回のサンプリング周期での道路面はまだ検出されていない。そこで、今回のサンプリング周期では、例えば、前回のサンプリング周期で路面検出手段15が検出した道路面の位置の情報と、前回のサンプリング周期から今回のサンプリング周期までの自車両の挙動等に基づいて道路面の位置が推定される。   In this case, the road surface at the current sampling period is detected based on the lanes LL and LR (see FIG. 6 described later) detected by the lane detection unit 14 as will be described later. At the time of the lane detection process in, the road surface in the current sampling cycle has not been detected yet. Therefore, in the current sampling cycle, for example, based on the information on the position of the road surface detected by the road surface detection means 15 in the previous sampling cycle, the behavior of the host vehicle from the previous sampling cycle to the current sampling cycle, etc. The position of the surface is estimated.

そして、車線検出手段14は、残った車線候補点cl、crのうち、距離方向において自車両に近い側の車線候補点cl、crに基づいて、自車両の左右に、各車線を、ハフ変換等により直線で近似してそれぞれ検出する。そして、それより遠い側では、その直線に基づいて直線との位置関係等から車線候補点cl、crを選別して結んでいくことで、図6に示すように、自車両の左右にそれぞれ車線LL、LRを検出するようになっている。   The lane detecting means 14 performs Hough transform on each lane to the left and right of the host vehicle based on the lane candidate points cl and cr closer to the host vehicle in the distance direction among the remaining lane candidate points cl and cr. Each of them is detected by approximating it with a straight line. Then, on the far side, lane candidate points cl and cr are selected and connected based on the straight line based on the positional relationship with the straight line, and as shown in FIG. LL and LR are detected.

なお、以上の車線検出手段14の処理構成については、本願出願人が先に提出した特開2006−331389号公報等に詳述されており、詳しくは同公報等を参照されたい。また、車線検出手段14は、このようにして検出した車線位置LL、LRや車線候補点cl、cr等の情報を図示しないメモリに保存するようになっている。   The processing configuration of the lane detection means 14 described above is described in detail in Japanese Patent Application Laid-Open No. 2006-331389 previously filed by the applicant of the present application. Further, the lane detection means 14 stores information such as the lane positions LL and LR and the lane candidate points cl and cr detected in this manner in a memory (not shown).

路面検出手段15は、車線検出手段14が検出した車線位置LL、LRや車線候補点cl、crの情報に基づいて車線モデルを三次元的に形成するようになっている。   The road surface detection means 15 is configured to form a lane model three-dimensionally based on the information of the lane positions LL and LR and the lane candidate points cl and cr detected by the lane detection means 14.

本実施形態では、路面検出手段15は、図7(A)、(B)に示すように、自車両の左右の各車線を所定区間ごとに三次元の直線式で近似し、それらを折れ線状に連結して表現した車線モデルを形成するようになっている。なお、図7(A)は、Z−X平面上の車線モデルすなわち水平形状モデル、図7(B)は、Z−Y平面上の車線モデルすなわち道路高モデルを表す。   In the present embodiment, as shown in FIGS. 7A and 7B, the road surface detection means 15 approximates the left and right lanes of the host vehicle with a three-dimensional linear expression for each predetermined section, and forms them in a polygonal line shape. A lane model expressed by connecting to the lane is formed. 7A shows a lane model on the Z-X plane, that is, a horizontal shape model, and FIG. 7B shows a lane model on the Z-Y plane, that is, a road height model.

具体的には、路面検出手段15は、自車両の前方の実空間を自車両の位置(すなわち図7(A)、(B)におけるZ=0の位置)からの例えば距離Z7までの各区間に分け、検出した車線候補点cl、crの実空間上の位置(X,Y,Z)に基づいてそれぞれの区間内の車線候補点cl、crを最小二乗法で直線近似し、各区間ごとに下記の(5)〜(8)式のパラメータaL、bL、aR、bR、cL、dL、cR、dRを算出して車線モデルを形成するようになっている。   Specifically, the road surface detection means 15 is a section of the real space ahead of the host vehicle from the position of the host vehicle (that is, the position of Z = 0 in FIGS. 7A and 7B) to, for example, a distance Z7. The lane candidate points cl and cr in each section are linearly approximated by the least square method based on the positions (X, Y, Z) of the detected lane candidate points cl and cr in the real space. The lane model is formed by calculating parameters aL, bL, aR, bR, cL, dL, cR, dR in the following equations (5) to (8).

[水平形状モデル]
左車線 X=aL・Z+bL …(5)
右車線 X=aR・Z+bR …(6)
[道路高モデル]
左車線 Y=cL・Z+dL …(7)
右車線 Y=cR・Z+dR …(8)
[Horizontal shape model]
Left lane X = aL ・ Z + bL (5)
Right lane X = aR ・ Z + bR (6)
[Road height model]
Left lane Y = cL · Z + dL (7)
Right lane Y = cR · Z + dR (8)

路面検出手段15は、このようにして車線モデルを形成して、実空間上における道路面を検出するようになっている。また、路面検出手段15は、このようにして形成した車線モデルすなわち算出した各区間のパラメータaL〜dRをそれぞれメモリに保存するようになっている。   The road surface detection means 15 forms a lane model in this way and detects a road surface in real space. Further, the road surface detecting means 15 stores the lane model formed in this way, that is, the calculated parameters aL to dR of each section in the memory.

次に、処理部9(図1参照)の統合処理手段10や距離算出手段11、赤信号等検出手段12、矢印信号抽出手段13における各処理について説明するとともに、本実施形態に係る環境認識装置1の作用についてもあわせて説明する。   Next, each processing in the integrated processing means 10, the distance calculation means 11, the red signal detection means 12, and the arrow signal extraction means 13 of the processing unit 9 (see FIG. 1) will be described, and the environment recognition apparatus according to the present embodiment. The operation of 1 will also be described.

なお、以下では、信号機Sの赤信号Lr(すなわち赤の信号灯Lr。図28(A)〜(C)参照)を検出する場合について説明するが、各処理における色成分の輝度に関する条件等を変更すれば、黄信号Ly(すなわち黄の信号灯Ly)を検出するように構成することができる。そこで、赤信号Lrと黄信号Lyの検出処理を同時並行で行うように構成することも可能である。   In the following, the case of detecting the red signal Lr of the traffic light S (that is, the red signal lamp Lr; see FIGS. 28A to 28C) will be described, but the conditions relating to the luminance of the color component in each process are changed. Then, it can be configured to detect the yellow signal Ly (that is, the yellow signal lamp Ly). Therefore, it is possible to configure so that the detection processing of the red signal Lr and the yellow signal Ly is performed in parallel.

また、本実施形態では、処理を行う対象として、撮像手段2のメインカメラ2aで撮像された基準画像Tを用いるように構成されているが、撮像手段2のサブカメラ2bで撮像された比較画像Tcを用いるように構成することも可能であり、また、それらの両方を用いるように構成することも可能である。   In the present embodiment, the reference image T captured by the main camera 2a of the imaging unit 2 is used as an object to be processed, but the comparison image captured by the sub camera 2b of the imaging unit 2 is used. It is possible to configure to use Tc, or to use both of them.

なお、本実施形態における統合処理手段10や距離算出手段11、赤信号等検出手段12での各処理構成については、本願出願人が先に提出した特開2010−224925号公報に詳述されており、詳しくは同公報等を参照されたい。以下、統合処理手段10や距離算出手段11、赤信号等検出手段12での各処理について、その要点を説明する。   Note that each processing configuration in the integrated processing means 10, distance calculation means 11, and red signal detection means 12 in this embodiment is described in detail in Japanese Patent Laid-Open No. 2010-224925 previously filed by the applicant of the present application. For details, see the same publication. Hereinafter, the main points of each processing in the integrated processing unit 10, the distance calculation unit 11, and the red signal detection unit 12 will be described.

統合処理手段10は、基準画像T中において互いに隣接する画素pについて、当該隣接する画素pの各画像データDに基づいて当該隣接する画素pを1つのグループに統合するか否かを判定し、統合すべきと判定した場合に1つのグループgに統合するようになっている。   The integration processing unit 10 determines whether or not to integrate the adjacent pixels p into one group based on the image data D of the adjacent pixels p for the adjacent pixels p in the reference image T. When it is determined that they should be integrated, they are integrated into one group g.

本実施形態では、統合処理手段10は、基準画像T中の各画素pを探索し、画像データDについての予め設定された第1の条件を満たす画像データDを有する画素p(以下、注目画素p(i,j)という。)を検出すると、注目画素p(i,j)の周囲に隣接する各画素pを探索する。   In the present embodiment, the integration processing unit 10 searches each pixel p in the reference image T, and includes a pixel p (hereinafter referred to as a pixel of interest) having image data D that satisfies a preset first condition for the image data D. When p (i, j) is detected, each pixel p adjacent to the periphery of the target pixel p (i, j) is searched.

そして、第1の条件よりも広い範囲に設定された第2の条件を満たす画像データDを有する画素pを検出すると、注目画素p(i,j)と統合して1つのグループgとする。そして、さらに当該グループgの周囲に隣接する各画素pを探索し、第2の条件を満たす画像データDを有する画素pを検出すると当該グループgに統合するようになっている。   When a pixel p having image data D satisfying the second condition set in a wider range than the first condition is detected, the pixel p is integrated with the target pixel p (i, j) to form one group g. Further, each pixel p adjacent to the periphery of the group g is searched, and when the pixel p having the image data D satisfying the second condition is detected, it is integrated into the group g.

具体的には、統合処理手段10は、撮像手段2のメインカメラ2aから基準画像Tの各画素pの画像データDが送信されてくると、基準画像T中の各画素pを探索し、画像データDについての予め設定された下記の第1の条件を満たす画像データDを有する画素pが探索する。   Specifically, when the image data D of each pixel p of the reference image T is transmitted from the main camera 2a of the imaging unit 2, the integration processing unit 10 searches for each pixel p in the reference image T, and the image A pixel p having image data D satisfying the following first condition set in advance for data D is searched.

[第1の条件]
第1の条件としては、例えば、画素pの画像データDの赤、緑、青の各色成分の輝度R、G、Bがそれぞれ例えば0〜255の輝度で表現される場合、
R≧200、かつ、G、B<200 …(9)
を満たす画素pがあれば、その画素pを注目画素p(i,j)として検出するように設定されている。
[First condition]
As the first condition, for example, when the luminance R, G, B of each color component of the image data D of the pixel p is expressed by a luminance of 0-255, for example,
R ≧ 200 and G, B <200 (9)
If there is a pixel p that satisfies this condition, the pixel p is set to be detected as the target pixel p (i, j).

信号機Sの赤信号Lrが撮像手段2で撮像されると、基準画像T上では、図8に示すように、赤信号Lrの中心部分Lcが赤みがかった白色に撮像され、その部分の画素pの画像データDのR、G、Bの各色成分の輝度が全て200を越えるほど大きな値として検出される。これは、赤信号Lrに限った現象ではなく、例えば、信号機の青信号Lbのような緑色の光を放つ信号灯でも、やはり基準画像T上では光源の中心部分が緑色っぽい白色に撮像される。   When the red signal Lr of the traffic light S is picked up by the image pickup means 2, the center portion Lc of the red signal Lr is picked up in reddish white on the reference image T as shown in FIG. As the brightness of each of the R, G, and B color components of the image data D exceeds 200, it is detected as a larger value. This is not a phenomenon limited to the red signal Lr. For example, even with a signal lamp that emits green light such as a blue signal Lb of a traffic light, the central portion of the light source is imaged in greenish white on the reference image T.

そのような場合に、第1の条件として赤信号Lrの中心部分Lcを検出することを目的として、第1の条件を、例えば後述する第2の条件の[条件2b]のように、
R、G、B>200、かつ、R≧G、R≧B …(10)
と設定すると、基準画像T中に撮像された空など白っぽく明るく撮影された対象が全て検出されてしまうため、信号機Sの赤信号Lrのような赤い光を放つ光源を効率良く検出できない。
In such a case, for the purpose of detecting the central portion Lc of the red signal Lr as the first condition, the first condition is set as, for example, [Condition 2b] of the second condition described later.
R, G, B> 200 and R ≧ G, R ≧ B (10)
If all of the objects captured in the reference image T, such as the sky captured in white and bright, are detected, a light source that emits red light such as the red signal Lr of the traffic light S cannot be detected efficiently.

そのため、本実施形態では、赤信号Lrの中心部分Lcのように白く撮像された画素pではなく、その周囲の、赤く、かつ、明るく撮像された画素領域Llの画素pを最初に検出するように構成されている。   Therefore, in the present embodiment, the pixel p of the pixel region Ll picked up in the surrounding area that is red and bright is detected first, not the pixel p picked up white like the central portion Lc of the red signal Lr. It is configured.

統合処理手段10は、基準画像T上に上記の第1の条件を満たす画像データDを有する注目画素p(i,j)を検出すると、続いて、図9に示すように、検出した注目画素p(i,j)を含む基準画像T中で上下方向に延在する1画素幅の画素列pls上を上下方向に1画素シフトさせながら、各画素pの画像データDが、上記の第1の条件よりも広い範囲に設定された下記の第2の条件を満たすか否かを判定する。   When the integration processing unit 10 detects the target pixel p (i, j) having the image data D satisfying the first condition on the reference image T, subsequently, as shown in FIG. 9, the detected target pixel is detected. The image data D of each pixel p is converted into the first data while shifting one pixel in the vertical direction on the pixel column pls extending in the vertical direction in the reference image T including p (i, j). It is determined whether or not the following second condition set in a wider range than the above condition is satisfied.

[第2の条件]
[条件2a]R≧165、かつ、G、B<150 …(11)
[条件2b]R、G、B>200、かつ、R≧G、R≧B …(12)
[条件2c]R≧200、かつ、G、B<200 …(13)
[Second condition]
[Condition 2a] R ≧ 165 and G, B <150 (11)
[Condition 2b] R, G, B> 200 and R ≧ G, R ≧ B (12)
[Condition 2c] R ≧ 200 and G, B <200 (13)

ここで、第2の条件の[条件2a]は、赤信号Lrに特有の赤色を有するが、その明るさが上記の第1の条件で規定されるような明るく撮像された画素領域Llの画素pではなく、画素領域Llの周囲に撮像された、より暗い画素領域Ld(図8参照)の画素pを検出するための条件である。   Here, [Condition 2a] of the second condition has a red color peculiar to the red signal Lr, but the pixel in the pixel region Ll that is brightly imaged so that the brightness is defined by the first condition described above. This is a condition for detecting the pixel p in the darker pixel region Ld (see FIG. 8) imaged around the pixel region Ll instead of p.

また、第2の条件の[条件2b]は、前述したように、赤信号Lrに特定の赤色を有し、かつ、その明るさが第1の条件で規定される明るさよりもさらに明るく、白っぽく撮像された赤信号Lrの中心部分の画素領域Lcを検出するための条件である。   In addition, as described above, [Condition 2b] of the second condition has a specific red color in the red signal Lr, and the brightness is brighter and whitish than the brightness defined by the first condition. This is a condition for detecting the pixel region Lc at the center of the captured red signal Lr.

さらに、第2の条件の[条件2c]は上記の第1の条件と同じ条件であり、注目画素p(i,j)と同じく画素領域Llにある画素pを検出するための条件である。   Furthermore, [Condition 2c] of the second condition is the same condition as the first condition described above, and is a condition for detecting the pixel p in the pixel region Ll as with the target pixel p (i, j).

統合処理手段10は、例えば、注目画素p(i,j)の上側に隣接する各画素p(i,j+1)の画像データDが上記の第2の条件を満たすと判定すると、画素p(i,j+1)を注目画素p(i,j)と統合して1つのグループgとするようにして、画素列pls上を上下方向に1画素シフトさせながら各画素pの画像データDが上記の第2の条件を満たすか否かを判定して、第2の条件のいずれの条件も満たさない画素pが出現するまで、第2の条件を満たす画素pをグループgに統合していく。   For example, when the integration processing unit 10 determines that the image data D of each pixel p (i, j + 1) adjacent to the upper side of the target pixel p (i, j) satisfies the second condition, the pixel p (i , J + 1) are integrated with the pixel of interest p (i, j) to form one group g, and the image data D of each pixel p is shifted by one pixel in the vertical direction on the pixel column pls. Whether or not condition 2 is satisfied is determined, and pixels p that satisfy the second condition are integrated into group g until a pixel p that does not satisfy any of the second conditions appears.

そして、統合処理手段10は、図10に示すように、画素列pls上で統合したグループgの上端の画素pの座標(i,jmax)と下端の画素pの座標(i,jmin)をそれぞれメモリに保存し、続いて、探索するを画素列plを画素列plsから基準画像T上の右方向および左方向にシフトさせながら、同様にして画素pの探索およびグループgへの統合処理を行う。   Then, as shown in FIG. 10, the integration processing unit 10 determines the coordinates (i, jmax) of the uppermost pixel p and the coordinates (i, jmin) of the lowermost pixel p of the group g integrated on the pixel column pls. In the same manner, the search for the pixel p and the integration process into the group g are performed while shifting the pixel column pl from the pixel column pls to the right and left directions on the reference image T. .

なお、前述したように、距離検出手段6で基準画像Tの各画素pに算出された視差dpが割り当てられて距離画像Tzが作成されている。そこで、その視差dpを利用して、上記の画素pのグループgへの統合処理において、例えば、画素pが上記の第2の条件を満たしていても、当該画素pに対応する視差dpと隣接する画素pに対応する視差dpとの差異が閾値を越えて大きい場合には、当該画素pをグループgに統合しないように構成することも可能である。   As described above, the distance image Tz is created by assigning the parallax dp calculated by the distance detection unit 6 to each pixel p of the reference image T. Therefore, in the integration process of the pixel p into the group g using the parallax dp, for example, even if the pixel p satisfies the second condition, the parallax dp corresponding to the pixel p is adjacent. When the difference from the parallax dp corresponding to the pixel p to be processed is larger than the threshold value, the pixel p can be configured not to be integrated into the group g.

一方、本実施形態では、統合処理手段10は、ある画素pをグループgに統合するか否かの判定において、仮に画素pをグループgに統合した場合に、基準画像T上でのグループgの全体の形状が赤信号Lrの形状である円形状でなくなる場合には、当該画素pをグループgに統合せず、また、その時点で統合処理を終了するようになっている。   On the other hand, in this embodiment, the integration processing unit 10 determines whether to integrate a pixel p into the group g in the determination of whether or not to integrate a certain pixel p into the group g. When the overall shape is not the circular shape that is the shape of the red signal Lr, the pixel p is not integrated into the group g, and the integration process is terminated at that time.

具体的には、統合処理手段10で、各画素列pls、plにおけるグループgの上端の画素pから下端の画素pまでの画素数rを監視するように構成し、例えば図11(A)に示すように各画素列pls、plにおけるグループgの上下方向の画素数rが一旦最大値rmaxとなり、図11(B)に示すように画素列plにおけるグループgの上下方向の画素数rが最大値rmaxを下回り、図11(C)に示すように画素列plにおけるグループgの上下方向の画素数rの減少傾向が続いて、画素列plにグループgが発見できなくなれば、すなわち第2の条件も満たす画素pが見出されなくなれば、その時点で右方向や左方向の画素列での探索を停止する。   Specifically, the integration processing means 10 is configured to monitor the number r of pixels from the uppermost pixel p to the lowermost pixel p of the group g in each pixel column pls, pl, for example, as shown in FIG. As shown in FIG. 11B, the number r of pixels in the vertical direction of the group g in each pixel column pls, pl once reaches the maximum value rmax, and the number of pixels r in the vertical direction of the group g in the pixel column pl is maximum as shown in FIG. If the value rmax falls below the value rmax, and the downward trend of the number of pixels r in the vertical direction of the group g in the pixel column pl continues as shown in FIG. 11C, the group g cannot be found in the pixel column pl. If no pixel p satisfying the condition is found, the search in the right and left pixel columns is stopped at that time.

また、図12に示すように画素列plにおけるグループgの上下方向の画素数rが減少して一旦最小値rminとなった後、再び最小値rminより大きな値になった場合には、基準画像T上でのグループgの全体の形状が円形状でなくなるため、画素列plで右方向や左方向の画素列での探索をそこで停止し、その直前の最小値rminを与えた画素列までをグループgが検出された範囲とするようになっている。   In addition, as shown in FIG. 12, when the number r of pixels in the vertical direction of the group g in the pixel row pl decreases to once reach the minimum value rmin, and then becomes a value larger than the minimum value rmin again, the reference image Since the entire shape of the group g on T is no longer circular, the search in the right and left pixel columns in the pixel column pl is stopped there, and the pixel column having the minimum value rmin immediately before is stopped. The range in which the group g is detected is set.

統合処理手段10は、上記のようにして各画素pをグループgに統合する統合処理を終了すると、基準画像T上で探索していない画素pがなくなるまで上記の統合処理を繰り返して、基準画像T上に各グループgを統合して形成するようになっている。   When the integration processing unit 10 ends the integration processing for integrating the pixels p into the group g as described above, the integration processing means 10 repeats the integration processing until there is no pixel p that is not searched on the reference image T, and the reference image Each group g is integrated and formed on T.

距離算出手段11は、統合処理手段10により統合された各グループgについて、実空間上の距離Zgを算出するようになっている。   The distance calculation means 11 calculates the distance Zg in real space for each group g integrated by the integration processing means 10.

距離算出手段11は、統合処理手段10により統合された各グループgについて、当該グループgに属する各画素pに割り当てられた各視差dpに基づいて、上記(4)式に従って算出した実空間上の各距離Zの平均値や中央値等を、当該グループgの実空間上の距離Zgとして算出するように構成することが可能である。   The distance calculation unit 11 calculates, in the real space, for each group g integrated by the integration processing unit 10 based on each parallax dp assigned to each pixel p belonging to the group g. The average value or median value of each distance Z can be calculated as the distance Zg in the real space of the group g.

しかし、前述した距離検出手段6(図1参照)におけるフィルタリング処理で、当該グループgに属する各画素pに0の視差dpが割り当てられている可能性があり、このような場合には、上記の手法ではグループgの実空間上の距離Zgを算出することができない。   However, there is a possibility that a parallax dp of 0 is assigned to each pixel p belonging to the group g in the filtering process in the distance detection means 6 (see FIG. 1) described above. In the method, the distance Zg in the real space of the group g cannot be calculated.

そこで、本実施形態では、距離算出手段11は、グループgに属する各画素pに対応する実空間上の各距離Zだけでなく、図13に示すように、基準画像T上でグループgの周囲に存在する各画素pに対応する実空間上の各距離Zをも用い、それらの各画素p、pの実空間上の各距離Zの平均値や中央値等を、当該グループgの実空間上の距離Zgとして算出するようになっている。 Therefore, in the present embodiment, the distance calculation unit 11 not only includes each distance Z in the real space corresponding to each pixel p belonging to the group g, but also around the group g on the reference image T as shown in FIG. Also, the distance Z in the real space corresponding to each pixel p * existing in is used, and the average value and median value of the distances Z in the real space of the pixels p and p * The distance Zg is calculated as a real space distance Zg.

なお、これらの各画素p、pの実空間上の各距離Zを、例えばヒストグラムに投票し、その最頻値が属する階級の階級値を、当該グループgの実空間上の距離Zgとするように構成することも可能である。 Each distance Z in the real space of these pixels p and p * is voted on, for example, a histogram, and the class value of the class to which the mode belongs belongs to the distance Zg in the real space of the group g. It is also possible to configure as described above.

次に、赤信号等検出手段12は、各グループgの実空間上の距離Zgおよびグループgの画像中での座標(i,j)に基づいて当該グループgの実空間上の大きさや道路面からの実空間上の高さを算出し、算出した実空間上の大きさや道路面からの高さに基づいて、信号機Sの赤信号Lr(或いは黄信号Ly)を検出するようになっている。   Next, the red light detection means 12 determines the size of the group g in the real space and the road surface based on the distance Zg in the real space of each group g and the coordinates (i, j) in the image of the group g. The height in real space from the vehicle is calculated, and the red signal Lr (or yellow signal Ly) of the traffic light S is detected based on the calculated size in real space and the height from the road surface. .

具体的には、まず、グループgの実空間上の大きさについては、図14に示すように、グループgの左端の画素pのi座標Iminと右端の画素pのi座標Imax、および上端の画素pのj座標Jmaxと下端の画素pのj座標Jminを検出し、上記(2)〜(4)式に従って各画素pに対応する実空間上の位置(X,Y)を算出する。そして、右端と左端のX座標の差を算出してグループgの左右方向の実空間上の大きさとし、上端と下端のY座標の差を算出してグループgの上下方向の実空間上の大きさとする。   Specifically, as for the size of the group g in the real space, as shown in FIG. 14, the i coordinate Imin of the leftmost pixel p of the group g, the i coordinate Imax of the rightmost pixel p, and the upper end of the group g The j coordinate Jmax of the pixel p and the j coordinate Jmin of the pixel p at the lower end are detected, and the position (X, Y) in the real space corresponding to each pixel p is calculated according to the above equations (2) to (4). Then, the difference between the right end and the left end X coordinate is calculated to obtain the size of the group g in the horizontal direction, and the difference between the upper end and the lower end Y coordinate is calculated to calculate the size of the group g in the vertical direction in the real space. Say it.

そして、通常の場合、信号機Sの信号灯Lは直径が30cmや35cm程度の円形に形成されるため、信号灯からの光の漏れ出しも含めて、本実施形態では、赤信号等検出手段12は、各グループgの左右方向および上下方向の実空間上の大きさが例えば40cm以内の範囲内にあるか否かをチェックするようになっている。   In a normal case, the signal lamp L of the traffic light S is formed in a circular shape having a diameter of about 30 cm or 35 cm. Therefore, in the present embodiment, including the leakage of light from the signal lamp, It is checked whether or not the size of each group g in the left-right direction and the up-down direction in real space is within a range of, for example, 40 cm.

また、道路面からの実空間上の高さについては、赤信号等検出手段12は、グループgの左端の画素pと右端の画素pの各i座標Imin、Imax中間点のi座標Ic、および上端の画素pと下端の画素pのj座標Jmax、Jminとの中間点Jcをそれぞれi座標、j座標とするグループgの中心点Gcを算出する。そして、このJcとグループgの実空間上の距離Zgとを上記(3)式に代入して、グループgの中心点Gcの実空間上の高さYcを算出する。   For the height in the real space from the road surface, the red signal detection means 12 uses the i-coordinate Imin of the leftmost pixel p and the rightmost pixel p of the group g, the i-coordinate Ic of the intermediate point Imax, A center point Gc of the group g is calculated with the intermediate points Jc between the j coordinates Jmax and Jmin of the upper end pixel p and the lower end pixel p as i coordinates and j coordinates, respectively. Then, the height Yc of the center point Gc of the group g in the real space is calculated by substituting Jc and the distance Zg of the group g in the real space into the above equation (3).

また、赤信号等検出手段12は、路面検出手段15が検出した実空間上の道路面の道路高モデル(図7(B)参照)をメモリから読み出して、前述したグループgの実空間上の距離Zgにおける道路面の高さYを算出する。そして、グループgの道路面からの実空間上の高さを、グループgの中心点Gcの実空間上の高さYcと道路面の高さYとの差分Yc−Yとして算出するようになっている。 Further, the red signal detection means 12 reads the road height model (see FIG. 7B) of the road surface in the real space detected by the road surface detection means 15 from the memory, and in the real space of the group g described above. The height Y * of the road surface at the distance Zg is calculated. Then, the height in the real space from the road surface of the group g is calculated as a difference Yc−Y * between the height Yc in the real space of the center point Gc of the group g and the height Y * of the road surface. It has become.

そして、通常の場合、信号機の信号灯は道路面からの高さが5m以上の高さに設置されるため、本実施形態では、多少幅を持たせて、赤信号等検出手段12は、上記のようにして算出したグループgの道路面からの実空間上の高さYc−Yが例えば4m以上の範囲内にあるか否かをチェックするようになっている。 In a normal case, the signal light of the traffic light is installed at a height of 5 m or more from the road surface. Therefore, in the present embodiment, the detection means 12 for detecting a red signal or the like is given a little width. In this way, it is checked whether or not the height Yc-Y * in the real space from the road surface of the group g calculated in this way is within a range of, for example, 4 m or more.

なお、グループgの実空間上の距離Zgにおける道路面の高さYは、各区間ごとに上記(7)式および(8)式で与えられる道路高モデルから線形補間する等して求めることができる。さらに、道路高モデルを含む車線モデルは、路面検出手段15によって今回のサンプリング周期における車線モデルが検出されていればそれを用い、今回のサンプリング周期での車線モデルがまだ検出されていなければ、前述したように、前回のサンプリング周期で検出した車線モデルに基づいてその後の自車両の挙動等から今回のサンプリング周期における車線モデルが推定されて用いられる。 Note that the height Y * of the road surface at the distance Zg in the real space of the group g is obtained by linear interpolation from the road height model given by the above equations (7) and (8) for each section. Can do. Further, the lane model including the road height model is used if the lane model in the current sampling cycle is detected by the road surface detection means 15, and if the lane model in the current sampling cycle has not been detected yet, As described above, based on the lane model detected in the previous sampling cycle, the lane model in the current sampling cycle is estimated and used from the behavior of the host vehicle thereafter.

また、基準画像T中に、複数の信号機Sが撮像されており、赤信号Lrが複数撮像されている場合がある。そのため、本実施形態では、赤信号等検出手段12は、上記のようにして算出したグループgの中心点Gcの実空間上の位置(Xc,Yc,Zg)と、路面検出手段15が検出した実空間上の道路面の水平形状モデル(図7(A)参照)とを対比して、自車両が走行する進行路上やその近傍に存在し、最も自車両に近い位置にある信号機Sを選択するようになっている。   Further, in the reference image T, a plurality of traffic lights S may be captured, and a plurality of red signals Lr may be captured. Therefore, in the present embodiment, the red signal detection unit 12 detects the position (Xc, Yc, Zg) of the center point Gc of the group g calculated as described above and the road surface detection unit 15. Compared with the horizontal shape model of the road surface in real space (refer to FIG. 7A), the traffic light S that is present on or near the traveling path on which the host vehicle travels and is closest to the host vehicle is selected. It is supposed to be.

本実施形態では、赤信号等検出手段12は、上記の各チェック項目をクリアしたグループgを、道路上に存在する信号機Sの赤信号Lr(或いは黄信号Ly)として検出するようになっている。   In the present embodiment, the red signal detection means 12 detects the group g that has cleared the above check items as the red signal Lr (or yellow signal Ly) of the traffic light S present on the road. .

次に、矢印信号抽出手段13は、上記のようにして検出された赤信号Lr(或いは黄信号Ly)の近傍に、矢印信号Alや矢印信号As、矢印信号Ar(図28(A)〜(C)参照)が撮像されているか否かを探索して抽出するようになっている。以下、この矢印信号抽出手段13における処理について、図15等に示すフローチャート等を用いて具体的に説明する。   Next, the arrow signal extraction means 13 has an arrow signal Al, an arrow signal As, an arrow signal Ar (FIG. 28 (A) to (A)) in the vicinity of the red signal Lr (or yellow signal Ly) detected as described above. C) see) is searched for and extracted. Hereinafter, the processing in the arrow signal extraction means 13 will be specifically described with reference to the flowchart shown in FIG.

矢印信号抽出手段13は、まず、上記のようにして検出された赤信号Lr(或いは黄信号Ly。以下同じ)の基準画像T中の位置に基づいて矢印信号Al、As、Arが撮像されている可能性がある画像領域を探索領域Rsとして設定するようになっている(ステップS1)。   The arrow signal extraction means 13 first picks up the arrow signals Al, As, Ar based on the position in the reference image T of the red signal Lr (or yellow signal Ly, the same applies hereinafter) detected as described above. An image area that may be present is set as the search area Rs (step S1).

その際、矢印信号Al、As、Ar(以下、一般的に言う場合には矢印信号Aという。)は、図28(A)〜(C)に示したように赤信号Lrの下方に設けられている場合だけでなく、図16に示すようないわば縦型の信号機Sの側方に矢印信号Aが設けられているものも存在する。   At that time, the arrow signals Al, As, Ar (hereinafter generally referred to as arrow signal A) are provided below the red signal Lr as shown in FIGS. As shown in FIG. 16, there is a case where an arrow signal A is provided on the side of a vertical traffic light S as shown in FIG.

そこで、本実施形態では、矢印信号抽出手段13は、例えば図17に示すように、基準画像Tの、赤信号Lrに対応するグループgの下方および左右の側方に、探索領域Rsを設定するようになっている。   Therefore, in the present embodiment, the arrow signal extraction unit 13 sets the search areas Rs below and to the left and right sides of the group g corresponding to the red signal Lr in the reference image T as shown in FIG. It is like that.

そして、矢印信号抽出手段13は、探索領域Rs内を探索して探索領域Rs内に撮像されている矢印信号Aを抽出する矢印信号抽出処理を行う(ステップS2)。   Then, the arrow signal extraction unit 13 performs an arrow signal extraction process for searching the search area Rs and extracting the arrow signal A imaged in the search area Rs (step S2).

本実施形態では、矢印信号抽出処理(ステップS2)では、以下のように処理が行われるようになっている。なお、以下では、上記のように、基準画像Tの各画素pの画像データDにおける各色成分の輝度R、G、Bがそれぞれ0〜255の値を有するものとして説明する。   In this embodiment, the arrow signal extraction process (step S2) is performed as follows. In the following description, it is assumed that the luminance R, G, B of each color component in the image data D of each pixel p of the reference image T has a value of 0-255 as described above.

具体的には、矢印信号Aは、通常、緑色に標示されるため、矢印信号抽出手段13は、探索領域Rsの各画素pを探索し、その画像データDにおける各輝度R、G、Bが、例えば、
G>150 …(14)
B>G×0.6 …(15)
R<G×0.5 …(16)
の条件を満たす場合に、当該画素pを抽出するようにして、各画素pを抽出していく。
Specifically, since the arrow signal A is usually marked in green, the arrow signal extraction unit 13 searches each pixel p in the search region Rs, and each luminance R, G, B in the image data D is determined. For example,
G> 150 (14)
B> G × 0.6 (15)
R <G × 0.5 (16)
When this condition is satisfied, each pixel p is extracted by extracting the pixel p.

そして、抽出した画素pの上下や左右に隣接する画素pも抽出されている場合には、それらの画素pを1つの画素領域Raとしていくことで、探索領域Rs内に、矢印信号Aに対応する画素領域Raを抽出するようになっている。   When pixels p that are adjacent to the extracted pixel p in the vertical and horizontal directions are also extracted, the pixel p is set as one pixel region Ra, so that the search signal R corresponds to the arrow signal A. The pixel region Ra to be extracted is extracted.

なお、例えば図28(A)に示した信号機Sにおいて、左折可を示す矢印信号Alと直進可を示す矢印信号Asが同時に点灯する場合もあるため、探索領域Rs内に抽出される矢印信号Aに対応する画素領域Raは1つだけとは限らない。また、図31に示したように信号機Sが自車両から遠い位置にある場合には、矢印信号Aに対応する画素領域Raとして、例えば1つの画素pしか抽出されないこともあり得る。   For example, in the traffic light S shown in FIG. 28A, since the arrow signal Al indicating that the vehicle can turn left and the arrow signal As indicating that the vehicle can go straight may be lit simultaneously, the arrow signal A extracted within the search region Rs. The pixel area Ra corresponding to is not limited to one. Further, as shown in FIG. 31, when the traffic light S is at a position far from the host vehicle, for example, only one pixel p may be extracted as the pixel region Ra corresponding to the arrow signal A.

矢印信号抽出手段13は、矢印信号抽出処理(ステップS2)で探索領域Rs内に矢印信号Aを抽出しない場合には(ステップS3;NO)、今回のサンプリング周期における処理を終了し、次回のサンプリング周期で赤信号等検出手段12等から信号機Sの赤信号Lrに対応するグループg等の情報が送られてくるまで待機する。   If the arrow signal extraction means 13 does not extract the arrow signal A in the search region Rs in the arrow signal extraction process (step S2) (step S3; NO), the arrow signal extraction means 13 ends the process in the current sampling cycle and performs the next sampling. The system waits until information such as the group g corresponding to the red signal Lr of the traffic light S is sent from the red signal detection means 12 or the like in a cycle.

また、矢印信号抽出手段13は、矢印信号抽出処理(ステップS2)で探索領域Rs内に矢印信号Aを抽出した場合には(ステップS3;YES)、続いて、抽出した矢印信号Aが指し示す方向(以下、単に矢印信号Aの方向という。)を認識する処理を行うようになっている。   Further, when the arrow signal extraction unit 13 extracts the arrow signal A in the search region Rs by the arrow signal extraction process (step S2) (step S3; YES), the direction indicated by the extracted arrow signal A is subsequently indicated. A process for recognizing (hereinafter simply referred to as the direction of the arrow signal A) is performed.

その際、本発明では、矢印信号抽出手段13は、図18に示すように、自車両MC(正確には自車両に搭載された撮像手段2)から赤信号Lrまでの実空間上の距離Zを、自車両MCから遠い第一の所定区間Sec1、第一の所定区間より自車両に近い第二の所定区間Sec2、および第二の所定区間より自車両に近い第三の所定区間Sec3に区分し、各区間Sec1〜Sec3において、それぞれ矢印信号Aの方向を認識する手法を変えるようになっている。   In this case, in the present invention, as shown in FIG. 18, the arrow signal extraction means 13 is a distance Z in the real space from the host vehicle MC (more precisely, the imaging means 2 mounted on the host vehicle) to the red signal Lr. Are divided into a first predetermined section Sec1 far from the host vehicle MC, a second predetermined section Sec2 closer to the host vehicle than the first predetermined section, and a third predetermined section Sec3 closer to the host vehicle than the second predetermined section. In each of the sections Sec1 to Sec3, the method for recognizing the direction of the arrow signal A is changed.

逆の言い方をすれば、以下で説明する認識手法2、3では矢印信号Aの方向を認識することが困難であるが、認識手法1を用いれば矢印信号Aの方向を認識することが可能な区間が第一の所定区間Sec1に設定され、認識手法3では矢印信号Aの方向を認識することが困難であるが、認識手法2を用いれば矢印信号Aの方向を認識することが可能な区間が第二の所定区間Sec2に設定され、認識手法3を用いて矢印信号Aの方向を認識することが可能な区間が第三の所定区間Sec3に設定される。   In other words, it is difficult to recognize the direction of the arrow signal A in the recognition methods 2 and 3 described below, but the direction of the arrow signal A can be recognized using the recognition method 1. The section is set to the first predetermined section Sec1, and it is difficult to recognize the direction of the arrow signal A by the recognition method 3, but the section in which the direction of the arrow signal A can be recognized by using the recognition method 2. Is set as the second predetermined section Sec2, and a section in which the direction of the arrow signal A can be recognized using the recognition method 3 is set as the third predetermined section Sec3.

そして、矢印信号抽出手段13は、図15のフローチャートに示すように、前述した距離算出手段11が算出した赤信号Lr対応するグループg(図17参照)までの実空間上の距離Zgを各所定区間Sec1〜Sec3に場合分けして、それぞれの所定区間Sec1〜Sec3に対応する認識手法1〜3を用いて、抽出した矢印信号Aの方向を認識するようになっている。   Then, as shown in the flowchart of FIG. 15, the arrow signal extraction unit 13 sets the distance Zg in the real space to the group g (see FIG. 17) corresponding to the red signal Lr calculated by the distance calculation unit 11 described above. By dividing into sections Sec1 to Sec3, the direction of the extracted arrow signal A is recognized using recognition methods 1 to 3 corresponding to the respective predetermined sections Sec1 to Sec3.

まず、自車両MCから赤信号Lrまでの実空間上の距離Zgが自車両MCに近い第三の所定区間Sec3内になく(ステップS4;NO)、第二の所定区間Sec2内にもない場合(ステップS5;NO)、すなわち自車両MCから赤信号Lrまでの実空間上の距離Zgが自車両MCから遠い第一の所定区間Sec1にある場合に適用される認識手法1(ステップS6)について説明する。   First, when the distance Zg in the real space from the host vehicle MC to the red signal Lr is not in the third predetermined section Sec3 close to the host vehicle MC (step S4; NO) and not in the second predetermined section Sec2. (Step S5; NO), that is, recognition method 1 (Step S6) applied when the distance Zg in real space from the host vehicle MC to the red signal Lr is in the first predetermined section Sec1 far from the host vehicle MC. explain.

自車両MCから赤信号Lrまでの実空間上の距離Zgが自車両MCから遠い第一の所定区間Sec1にある場合、赤信号Lrや矢印信号Aは、例えば図31に示したように、それらに対応するグループgや画素領域Raに属する画素数が非常に少なく、いずれもぼやけていて輪郭等が不明瞭な状態で撮像される。特に、矢印信号Aは、撮像された基準画像Tからでは矢印信号Aの方向を認識することができない状態で撮像される。   When the distance Zg in real space from the host vehicle MC to the red signal Lr is in the first predetermined section Sec1 far from the host vehicle MC, the red signal Lr and the arrow signal A are, for example, as shown in FIG. The number of pixels belonging to the group g and the pixel area Ra corresponding to is very small, and all of them are imaged in a state where the outline and the like are unclear. In particular, the arrow signal A is captured in a state where the direction of the arrow signal A cannot be recognized from the captured reference image T.

認識手法1(ステップS6)では、図19のフローチャートに示すように、矢印信号抽出手段13は、まず、上記のように距離算出手段11が算出した赤信号Lrに対応するグループgの実空間上の距離Zgに基づいて、赤信号Lrの例えば35cmの直径の信号灯がその距離Zgに存在する場合に、その直径が基準画像T上で何画素に対応するかを算出して、赤信号Lrの信号灯の直径に対応する画素数rを算出する(ステップS61)。   In the recognition method 1 (step S6), as shown in the flowchart of FIG. 19, first, the arrow signal extraction unit 13 performs the above processing on the real space of the group g corresponding to the red signal Lr calculated by the distance calculation unit 11 as described above. Based on the distance Zg of the red signal Lr, when a signal lamp having a diameter of, for example, 35 cm exists in the distance Zg, the number of pixels corresponding to the diameter on the reference image T is calculated. The number of pixels r corresponding to the diameter of the signal lamp is calculated (step S61).

なお、このステップS61の処理において、赤信号Lrに対応するグループgの実空間上の距離Zgに基づいて赤信号Lrの直径に対応する画素数rを算出するように構成する代わりに、実際に検出した赤信号Lrに対応するグループgの基準画像T上での縦方向(すなわちj軸方向)や横方向(すなわちi軸方向)の幅を、赤信号Lrの直径に対応する画素数rとして算出するように構成することも可能である。   In the process of step S61, instead of configuring to calculate the number r of pixels corresponding to the diameter of the red signal Lr based on the distance Zg in the real space of the group g corresponding to the red signal Lr, the processing is actually performed. The width in the vertical direction (that is, the j-axis direction) or the horizontal direction (that is, the i-axis direction) on the reference image T of the group g corresponding to the detected red signal Lr is defined as the number of pixels r corresponding to the diameter of the red signal Lr. It can also be configured to calculate.

続いて、矢印信号抽出手段13は、基準画像T中における矢印信号Aに対応する画素領域Raと赤信号Lrに対応するグループgとの相互の位置関係に基づいて、矢印信号Aの方向を認識するようになっている(ステップS62)。   Subsequently, the arrow signal extraction unit 13 recognizes the direction of the arrow signal A based on the mutual positional relationship between the pixel region Ra corresponding to the arrow signal A in the reference image T and the group g corresponding to the red signal Lr. (Step S62).

その際、実際の信号機Sにおいて、赤信号Lrと右折可や直進可、左折可を示す矢印信号Al、As、Arの位置関係が図28(A)〜(C)に示したような位置関係にあることに基づいて、本実施形態では、矢印信号抽出手段13は、図20に示すように、
(1)抽出した矢印信号Aに対応する画素領域Raが、赤信号Lrに対応するグループgの信号灯1個分程度下方の位置にある場合には右折可を示す矢印信号Ar、
(2)抽出した矢印信号Aに対応する画素領域Raが、赤信号Lrに対応するグループgの信号灯1個分程度下方の位置から信号灯1個分程度左側の位置にある場合には直進可を示す矢印信号As、
(3)抽出した矢印信号Aに対応する画素領域Raが、赤信号Lrに対応するグループgの信号灯1個分程度下方の位置から信号灯2個分程度左側の位置にある場合には左折可を示す矢印信号Al、
であるとして、抽出した矢印信号Aの方向を認識するようになっている。
At that time, in the actual traffic light S, the positional relationship between the red signal Lr and the arrow signals Al, As, Ar indicating whether the vehicle can turn right, go straight, or turn left is as shown in FIGS. 28 (A) to (C). In this embodiment, as shown in FIG.
(1) When the pixel area Ra corresponding to the extracted arrow signal A is at a position about one signal light of the group g corresponding to the red signal Lr, the arrow signal Ar indicating that the right turn is possible,
(2) If the pixel area Ra corresponding to the extracted arrow signal A is at a position about one signal lamp on the left side from the position about one signal lamp of the group g corresponding to the red signal Lr, it is possible to go straight ahead. Arrow signal As shown,
(3) When the pixel area Ra corresponding to the extracted arrow signal A is located at the left side of about two signal lamps from the position below about one signal lamp of the group g corresponding to the red signal Lr, the left turn is allowed. Arrow signal Al,
As a result, the direction of the extracted arrow signal A is recognized.

また、図16に示したような縦型の信号機Sでは、赤信号Lrの右側に矢印信号Aがある場合には矢印信号Aは右折可を示す矢印信号Arであり、赤信号Lrの左側に矢印信号Aがある場合(図示省略)には矢印信号Aは左折可を示す矢印信号Alである場合が多いことから、本実施形態では、矢印信号抽出手段13は、さらに、図21に示すように、
(4)抽出した矢印信号Aに対応する画素領域Raが、赤信号Lrに対応するグループgの信号灯1個分程度右側の位置にある場合には右折可を示す矢印信号Ar、
(5)抽出した矢印信号Aに対応する画素領域Raが、赤信号Lrに対応するグループgの信号灯1個分程度左側の位置にある場合には左折可を示す矢印信号Al、
であるとして、抽出した矢印信号Aの方向を認識するようになっている。
Further, in the vertical traffic light S as shown in FIG. 16, when the arrow signal A is on the right side of the red signal Lr, the arrow signal A is the arrow signal Ar indicating that the right turn is possible, and on the left side of the red signal Lr. When there is an arrow signal A (not shown), the arrow signal A is often an arrow signal Al indicating that it is possible to turn left. Therefore, in this embodiment, the arrow signal extraction means 13 is further configured as shown in FIG. In addition,
(4) When the pixel area Ra corresponding to the extracted arrow signal A is on the right side of about one signal lamp of the group g corresponding to the red signal Lr, the arrow signal Ar indicating right turn is possible.
(5) When the pixel area Ra corresponding to the extracted arrow signal A is at a position on the left side of about one signal lamp of the group g corresponding to the red signal Lr, the arrow signal Al indicating that the left turn is possible,
As a result, the direction of the extracted arrow signal A is recognized.

前述したように、自車両MCから赤信号Lrまでの実空間上の距離Zgが自車両MCから遠い第一の所定区間Sec1にある場合、例えば図31に示したように、矢印信号Aに対応する画素領域Raに属する画素数が少なく、その形状を解析しても、矢印信号Aの方向を認識することが困難である場合が多い。   As described above, when the distance Zg in the real space from the host vehicle MC to the red signal Lr is in the first predetermined section Sec1 far from the host vehicle MC, for example, as shown in FIG. In many cases, it is difficult to recognize the direction of the arrow signal A even when analyzing the shape of the pixel region Ra.

しかし、上記の本実施形態における認識手法1(ステップS6)によれば、上記のように基準画像T上に撮像された矢印信号Aの形状自体に基づいて矢印信号Aの方向を認識することができない場合であっても、検出した赤信号Lrの基準画像T上の位置を基準として、基準画像T中における赤信号Lrに対応するグループgと矢印信号Aに対応する画素領域Raとの相互の位置関係から矢印信号Aの方向を認識する。   However, according to the recognition method 1 (step S6) in the present embodiment, the direction of the arrow signal A is recognized based on the shape of the arrow signal A captured on the reference image T as described above. Even if this is not possible, the group g corresponding to the red signal Lr in the reference image T and the pixel region Ra corresponding to the arrow signal A in the reference image T are determined based on the position of the detected red signal Lr on the reference image T. The direction of the arrow signal A is recognized from the positional relationship.

そのため、基準画像T中に撮像された信号機Sや赤信号Lrが、少なくとも図28(A)〜(C)や図16に示したような一般的な信号機Sであればという前提付きではあるが、信号機Sにおける矢印信号Aの方向を的確に認識することが可能となる。   Therefore, although there is a premise that the traffic light S or red signal Lr captured in the reference image T is at least a general traffic light S as shown in FIGS. 28 (A) to (C) or FIG. The direction of the arrow signal A in the traffic light S can be accurately recognized.

次に、自車両MCから赤信号Lrまでの実空間上の距離Zgが自車両MCに近い第二の所定区間Sec3内にないが(図15のステップS4;NO)、第一の所定区間Sec1よりも自車両に近い第二の所定区間Sec2内にある場合(ステップS5;YES)に適用される認識手法2(ステップS7)について説明する。   Next, although the distance Zg in real space from the host vehicle MC to the red signal Lr is not within the second predetermined section Sec3 close to the host vehicle MC (step S4 in FIG. 15; NO), the first predetermined section Sec1 The recognition method 2 (step S7) applied when it is in the second predetermined section Sec2 closer to the host vehicle (step S5; YES) will be described.

自車両MCから赤信号Lrまでの実空間上の距離Zgが第二の所定区間Sec2(図18参照)にある場合、赤信号Lrや矢印信号Aは、例えば図30に示したようにぼやけた状態で撮像される。そして、矢印信号Aは、後述するアローヘッド部Aheadやアローシャフト部Ashaft(後述する図26等参照)が明瞭には区別できないが、撮像された基準画像Tから、矢印信号Aの方向を辛うじて認識することが可能な状態で撮像される。   When the distance Zg in real space from the host vehicle MC to the red signal Lr is in the second predetermined section Sec2 (see FIG. 18), the red signal Lr and the arrow signal A are blurred as shown in FIG. 30, for example. Images are taken in a state. The arrow signal A cannot be clearly distinguished from an arrow head portion Ahead and an arrow shaft portion Ashaft (see FIG. 26 and the like to be described later), but barely recognizes the direction of the arrow signal A from the captured reference image T. The image is captured in a state where it can be performed.

認識手法2(ステップS7)では、図22に示すフローチャートに従って処理が行われる。ここでは、矢印信号Aの方向を認識する手法として、基準画像T中における矢印信号Aの左右の対称性や上下の対称性に基づいて、矢印信号Aの方向を認識するようになっている。   In the recognition method 2 (step S7), processing is performed according to the flowchart shown in FIG. Here, as a method for recognizing the direction of the arrow signal A, the direction of the arrow signal A is recognized based on the left-right symmetry and the vertical symmetry of the arrow signal A in the reference image T.

矢印信号抽出手段13は、図23に示すように、まず、基準画像T中に、矢印信号Aに対応する画素領域Raに外接する例えば矩形状の画像領域Aeを設定し(ステップS71)、当該画像領域Aeの中心Ceを通る上下方向に延在する直線l1で当該画像領域Aeを左右に分割する(ステップS72)。   As shown in FIG. 23, the arrow signal extraction means 13 first sets, for example, a rectangular image area Ae circumscribing the pixel area Ra corresponding to the arrow signal A in the reference image T (step S71). The image area Ae is divided into left and right by a straight line l1 extending in the vertical direction passing through the center Ce of the image area Ae (step S72).

そして、分割された各画像領域Ae1、Ae2にそれぞれ含まれる矢印信号Aに対応する画素領域Aaに属する画素数を比較することで、矢印信号Aに対応する画素領域Aaの左右の対称性を判定するようになっている。   The left and right symmetry of the pixel area Aa corresponding to the arrow signal A is determined by comparing the number of pixels belonging to the pixel area Aa corresponding to the arrow signal A included in each of the divided image areas Ae1 and Ae2. It is supposed to be.

具体的には、矢印信号抽出手段13は、左の画像領域Ae1に含まれる矢印信号Aに対応する画素領域Aaに属する画素数r(Ae1)と、右の画像領域Ae2に含まれる矢印信号Aに対応する画素領域Aaに属する画素数r(Ae2)との差の絶対値|r(Ae1)−r(Ae2)|を算出する。   Specifically, the arrow signal extraction unit 13 determines the number of pixels r (Ae1) belonging to the pixel area Aa corresponding to the arrow signal A included in the left image area Ae1 and the arrow signal A included in the right image area Ae2. The absolute value | r (Ae1) −r (Ae2) | of the difference from the number of pixels r (Ae2) belonging to the pixel area Aa corresponding to is calculated.

そして、その差の絶対値|r(Ae1)−r(Ae2)|が閾値未満であれば(ステップS73;YES)、矢印信号Aの方向は直進方向であると認識する(ステップS74)。すなわち、今回の判定の対象となった矢印信号Aは、直進可を示す矢印信号Asであると認識する。この場合、閾値は、例えば、矢印信号Aに対応する画素領域Aaの総画素数の10%等として設定される。   If the absolute value | r (Ae1) −r (Ae2) | of the difference is less than the threshold value (step S73; YES), it is recognized that the direction of the arrow signal A is the straight direction (step S74). That is, it is recognized that the arrow signal A that is the object of the current determination is the arrow signal As that indicates that the vehicle can go straight. In this case, the threshold value is set, for example, as 10% of the total number of pixels in the pixel area Aa corresponding to the arrow signal A.

図23に示した例では、各画像領域Ae1、Ae2に含まれる矢印信号Aに対応する画素領域Aaに属する各画素数r(Ae1)、r(Ae2)の差の絶対値|r(Ae1)−r(Ae2)|が1画素である。また、矢印信号Aに対応する画素領域Aaの総画素数は29画素であり、その10%は2.9画素であるから、ステップS73の判定基準を満たす。そのため、この場合は、矢印信号Aの方向は直進方向であると認識される(ステップS74)。   In the example shown in FIG. 23, the absolute value | r (Ae1) of the difference between the number of pixels r (Ae1) and r (Ae2) belonging to the pixel area Aa corresponding to the arrow signal A included in each of the image areas Ae1 and Ae2. -R (Ae2) | is one pixel. Further, since the total number of pixels in the pixel area Aa corresponding to the arrow signal A is 29 pixels, 10% of which is 2.9 pixels, the determination criterion of Step S73 is satisfied. Therefore, in this case, it is recognized that the direction of the arrow signal A is the straight direction (step S74).

一方、例えば図24に示す例では、各画像領域Ae1、Ae2に含まれる矢印信号Aに対応する画素領域Aaに属する各画素数r(Ae1)、r(Ae2)の差の絶対値|r(Ae1)−r(Ae2)|が、矢印信号Aに対応する画素領域Aaの総画素数の10%を越えるため、ステップS73の判定基準を満たさない(ステップS73;NO)。   On the other hand, for example, in the example shown in FIG. 24, the absolute value | r () of the difference between the number of pixels r (Ae1) and r (Ae2) belonging to the pixel area Aa corresponding to the arrow signal A included in the image areas Ae1 and Ae2 Since Ae1) −r (Ae2) | exceeds 10% of the total number of pixels in the pixel area Aa corresponding to the arrow signal A, the determination criterion of step S73 is not satisfied (step S73; NO).

そこで、矢印信号抽出手段13は、続いて、左の画像領域Ae1に含まれる矢印信号Aに対応する画素領域Aaに属する各画素数r(Ae1)が、右の画像領域Ae2に含まれる矢印信号Aに対応する画素領域Aaに属する各画素数r(Ae2)よりも上記の閾値以上に大きいか否かを判定する(ステップS75)。そして、ステップS75の判定基準が満たされれば(ステップS75;YES)、矢印信号Aの方向は左折方向であると認識する(ステップS76)。すなわち、矢印信号Aは左折可を示す矢印信号Alであると認識する。   Therefore, the arrow signal extraction unit 13 subsequently determines that the number of pixels r (Ae1) belonging to the pixel area Aa corresponding to the arrow signal A included in the left image area Ae1 is the arrow signal included in the right image area Ae2. It is determined whether or not the number of pixels r (Ae2) belonging to the pixel area Aa corresponding to A is larger than the above threshold value (step S75). If the determination criterion of step S75 is satisfied (step S75; YES), it is recognized that the direction of the arrow signal A is the left turn direction (step S76). That is, the arrow signal A is recognized as an arrow signal Al indicating that a left turn is possible.

しかし、図24に示した例では、逆に、右の画像領域Ae2に含まれる矢印信号Aに対応する画素領域Aaに属する各画素数r(Ae2)の方が、左の画像領域Ae1に含まれる矢印信号Aに対応する画素領域Aaに属する各画素数r(Ae1)よりも上記の閾値以上に大きいため(ステップS75;NO)、矢印信号抽出手段13は、矢印信号Aの方向は右折方向であると認識する(ステップS77)。すなわち、矢印信号Aは右折可を示す矢印信号Arであると認識するようになっている。   However, in the example shown in FIG. 24, conversely, the number r (Ae2) of pixels belonging to the pixel area Aa corresponding to the arrow signal A included in the right image area Ae2 is included in the left image area Ae1. Since the number r (Ae1) of pixels belonging to the pixel area Aa corresponding to the arrow signal A is larger than the above threshold (step S75; NO), the arrow signal extraction means 13 determines that the direction of the arrow signal A is the right turn direction. (Step S77). That is, the arrow signal A is recognized as an arrow signal Ar indicating that a right turn is possible.

なお、図22に示したフローチャートや図23、図24に示した各図では、基準画像T中に設定した、矢印信号Aに対応する画素領域Raに外接する画像領域Aeを、当該画像領域Aeの中心Ceを通る上下方向に延在する直線l1で左右に分割して、矢印信号Aに対応する画素領域Aaの左右の対称性を判定するように構成した場合について説明した。   In the flowchart shown in FIG. 22 and each figure shown in FIGS. 23 and 24, the image area Ae circumscribing the pixel area Ra corresponding to the arrow signal A set in the reference image T is represented by the image area Ae. A case has been described in which the left-right symmetry of the pixel area Aa corresponding to the arrow signal A is determined by dividing the line area left and right by a straight line 11 extending in the up-down direction passing through the center Ce.

しかし、図示を省略するが、矢印信号Aに対応する画素領域Raに外接する画像領域Aeを、当該画像領域Aeの中心Ceを通る左右方向に延在する直線l2で上下に分割して、矢印信号Aに対応する画素領域Aaの上下の対称性を判定するように構成しても、上記と同様に矢印信号Aの方向を認識することが可能である。   However, although not shown, the image area Ae circumscribing the pixel area Ra corresponding to the arrow signal A is divided vertically by a straight line 12 extending in the left-right direction passing through the center Ce of the image area Ae. Even when the vertical symmetry of the pixel area Aa corresponding to the signal A is determined, the direction of the arrow signal A can be recognized as described above.

前述したように、自車両MCから赤信号Lrまでの実空間上の距離Zgが第二の所定区間Sec2にある場合、例えば図30に示したように、矢印信号Aはぼやけた状態で撮像され、後述する認識手法3(ステップS8)で説明するように、矢印信号Aに対応する画素領域AaをAheadとアローシャフト部Ashaft(後述する図26参照)とに明瞭に区別して解析して矢印信号Aの方向を認識することはできない。   As described above, when the distance Zg in real space from the host vehicle MC to the red signal Lr is in the second predetermined section Sec2, for example, as shown in FIG. 30, the arrow signal A is imaged in a blurred state. As will be described later in recognition method 3 (step S8), the pixel area Aa corresponding to the arrow signal A is clearly distinguished and analyzed into Ahead and an arrow shaft portion Ashaft (see FIG. 26 described later). The direction of A cannot be recognized.

しかし、上記の本実施形態における認識手法2(ステップS7)によれば、上記のように基準画像T上に撮像された矢印信号Aに対応する画素領域Aaの左右の対称性や上下の対称性に基づいて、矢印信号Aの方向を的確に認識することが可能となる。   However, according to the recognition method 2 (step S7) in the present embodiment, the left and right symmetry and the vertical symmetry of the pixel area Aa corresponding to the arrow signal A imaged on the reference image T as described above. Based on the above, the direction of the arrow signal A can be accurately recognized.

次に、自車両MCから赤信号Lrまでの実空間上の距離Zgが自車両MCに近い第三の所定区間Sec3内にある場合(図15のステップS4;YES)に適用される認識手法3(ステップS8)について説明する。   Next, the recognition method 3 applied when the distance Zg in real space from the host vehicle MC to the red signal Lr is within the third predetermined section Sec3 close to the host vehicle MC (step S4 in FIG. 15; YES). (Step S8) will be described.

自車両MCから赤信号Lrまでの実空間上の距離Zgが自車両MCに近い第三の所定区間Sec3(図18参照)にある場合、赤信号Lrや矢印信号Aは、例えば図29に示したように比較的明瞭に撮像され、矢印信号Aは、後述する図26に示すように、アローヘッド部Aheadとアローシャフト部Ashaftとが明瞭には区別された状態で撮像される。   When the distance Zg in real space from the host vehicle MC to the red signal Lr is in the third predetermined section Sec3 (see FIG. 18) close to the host vehicle MC, the red signal Lr and the arrow signal A are shown in FIG. 29, for example. As shown in FIG. 26 to be described later, the arrow signal A is imaged in a state where the arrow head portion Ahead and the arrow shaft portion Ashaft are clearly distinguished.

そこで、認識手法3(ステップS8)では、矢印信号Aの方向を認識する手法として、矢印信号Aを形成するアローヘッド部Aheadとアローシャフト部Ashaftに対応する基準画像T中の各画素領域Rahead、Rashafの相互の位置関係に基づいて、矢印信号Aの方向を認識するようになっている。   Therefore, in the recognition method 3 (step S8), as a method of recognizing the direction of the arrow signal A, each of the pixel regions Rahead in the reference image T corresponding to the arrow head portion Ahead and the arrow shaft portion Ashaft that form the arrow signal A, The direction of the arrow signal A is recognized based on the mutual positional relationship of Rashaf.

認識手法3(ステップS8)では、図25に示すフローチャートに従って処理が行われる。   In recognition method 3 (step S8), processing is performed according to the flowchart shown in FIG.

矢印信号抽出手段13は、図26に示すように、基準画像T中に抽出した矢印信号Aに対応する一組の画素領域Raの、各画素領域にそれぞれ属する各画素数を比較して、大きい方の画素領域(すなわち属する画素数が多い画素領域)を矢印信号Aのアローヘッド部Aheadに対応する画素領域Raheadとし、小さい方の画素領域(すなわち属する画素数が少ない画素領域)を矢印信号Aのアローシャフト部Ashaftに対応する画素領域Rashaftとして識別する(ステップS81)。   As shown in FIG. 26, the arrow signal extraction means 13 compares the number of pixels belonging to each pixel area in a set of pixel areas Ra corresponding to the arrow signal A extracted in the reference image T, and is larger. The pixel region Rahead corresponding to the arrow head Ahead of the arrow signal A (that is, the pixel region having a large number of pixels belonging) is defined as the pixel region Rahead, and the smaller pixel region (that is, the pixel region having a small number of pixels belonging to) Is identified as a pixel region Rashaft corresponding to the arrow shaft portion Ashaft (step S81).

なお、基準画像T中に抽出した矢印信号Aに対応する2つの画素領域Raが、同一の矢印信号Aに属するアローヘッド部Aheadとアローシャフト部Ashaftに対応する一組の画素領域Raであるか、或いは、別々の各矢印信号Aにそれぞれ対応する各画素領域Raであるかの判定を行うことが必要になる。   Whether the two pixel regions Ra corresponding to the arrow signal A extracted in the reference image T are a set of pixel regions Ra corresponding to the arrow head portion Ahead and the arrow shaft portion Ashaft belonging to the same arrow signal A. Alternatively, it is necessary to determine whether each pixel area Ra corresponds to each separate arrow signal A.

その場合、2つの画素領域Raが同一の矢印信号Aに属するものであれば、それらの画素領域Raは、前述した赤信号Lrの場合と同様に、実空間上で、直径が例えば35cmの円内に収まるはずである。そこで、例えば、前述した距離画像Tzを参照して、2つの画素領域Raにそれぞれ属する画素に割り当てられた視差dpを割り出し、2つの画素領域Raの実空間上の距離Zを算出する。   In this case, if the two pixel regions Ra belong to the same arrow signal A, the pixel regions Ra are in real space, for example, a circle having a diameter of 35 cm, as in the case of the red signal Lr described above. Should fit within. Therefore, for example, referring to the distance image Tz described above, the parallax dp assigned to the pixels belonging to the two pixel regions Ra is calculated, and the distance Z in the real space between the two pixel regions Ra is calculated.

そして、算出した距離Zに基づいて、2つの画素領域Raが実空間上で直径が例えば35cmの円内に収まるか否かを判定することにより、2つの画素領域Raが同一の矢印信号Aに属するものであるか否かを判定することができる。なお、2つの画素領域Raがそれぞれ別の矢印信号Aに属するものであると判定した場合には、それぞれ別個に処理される。   Then, based on the calculated distance Z, it is determined whether or not the two pixel regions Ra are within a circle having a diameter of, for example, 35 cm in real space, so that the two pixel regions Ra have the same arrow signal A. It can be determined whether it belongs or not. When it is determined that the two pixel regions Ra belong to different arrow signals A, they are processed separately.

矢印信号抽出手段13は、基準画像T上に、矢印信号Aのアローヘッド部Aheadに対応する画素領域Raheadとアローシャフト部Ashaftに対応する画素領域Rashaftとを割り出すと、続いて、図26に示すように、各画素領域Rahead、Rashaftの各中心点Chead、Cshaftの座標(i,j)をそれぞれ算出する(ステップS82)。   When the arrow signal extraction unit 13 determines on the reference image T the pixel region Rahead corresponding to the arrow head portion Ahead of the arrow signal A and the pixel region Rashaft corresponding to the arrow shaft portion Ashaft, then, as shown in FIG. As described above, the coordinates (i, j) of the center points Chead and Cshaft of the pixel regions Rahead and Rashaft are calculated (step S82).

中心点は、例えば、そのi座標を、画素領域の左端の座標と右端の座標の平均値(すなわち左右端の中間の座標)とし、j座標を、画素領域の上端の座標と下端の座標の平均値(すなわち上下端の中間の座標)として算出することができる。   For the center point, for example, the i coordinate is the average value of the left end coordinate and the right end coordinate of the pixel area (that is, the coordinate between the left and right ends), and the j coordinate is the upper end coordinate and the lower end coordinate of the pixel area. It can be calculated as an average value (that is, coordinates between the upper and lower ends).

そして、中心点Chead、Cshaft同士を結ぶベクトルvの方向性に基づいて、矢印信号Aの方向を認識するようになっている(ステップS83)。   The direction of the arrow signal A is recognized based on the directionality of the vector v connecting the center points Chead and Cshaft (step S83).

すなわち、例えば、ベクトルvとして中心点Cshaftから中心点Cheadに向かうベクトルを算出し、それと基準画像Tのi軸がなす角度を算出する。そして、算出した角度が約90°であれば(すなわち図26の場合)、矢印信号Aの方向は直進方向であると認識する(すなわち矢印信号Aは直進可を示す矢印信号Asであると認識する)。   That is, for example, a vector from the center point Cshaft to the center point Chead is calculated as the vector v, and an angle formed by the i-axis of the reference image T is calculated. If the calculated angle is about 90 ° (that is, in the case of FIG. 26), the direction of the arrow signal A is recognized as the straight direction (that is, the arrow signal A is recognized as the arrow signal As indicating that the straight travel is possible). To do).

また、算出した角度が約0°であれば、矢印信号Aの方向は右折方向であると認識し、算出した角度が約180°であれば、矢印信号Aの方向は左折方向であると認識するように構成される。   If the calculated angle is about 0 °, the direction of the arrow signal A is recognized as a right turn direction, and if the calculated angle is about 180 °, the direction of the arrow signal A is recognized as a left turn direction. Configured to do.

なお、この検出手法3を用いると、図27に示すように、矢印信号Aとして、例えば左斜め前に進行可を示す矢印信号が標示されるようなやや変則的な場合でも、中心点Chead、Cshaft同士を結ぶベクトルvの方向性に基づいて、矢印信号Aの方向を的確に認識することができる。すなわち、この場合は、ベクトルvと基準画像Tのi軸とがなす角度が約135°になるため、矢印信号抽出手段13は、矢印信号Aの方向が左斜め前の方向であると的確に認識することが可能となる。   If this detection method 3 is used, as shown in FIG. 27, the center point Chead, even if the arrow signal A is somewhat irregular, for example, an arrow signal indicating that the vehicle is allowed to travel diagonally to the left is displayed. Based on the directionality of the vector v connecting the Cshafts, the direction of the arrow signal A can be accurately recognized. In other words, in this case, since the angle formed by the vector v and the i-axis of the reference image T is about 135 °, the arrow signal extraction means 13 accurately determines that the direction of the arrow signal A is the diagonally left front direction. It becomes possible to recognize.

前述したように、自車両MCから赤信号Lrまでの実空間上の距離Zgが自車両MCに近い第三の所定区間Sec3にある場合、例えば図29に示したように、矢印信号Aは、アローヘッド部Aheadとアローシャフト部Ashaft(図26等参照)とに区別して撮像される。   As described above, when the distance Zg in the real space from the host vehicle MC to the red signal Lr is in the third predetermined section Sec3 close to the host vehicle MC, for example, as shown in FIG. Imaging is performed by distinguishing between an arrow head portion Ahead and an arrow shaft portion Ashaft (see FIG. 26 and the like).

そこで、上記の認識手法3(ステップS8)を採用して矢印信号Aの方向を認識することで、矢印信号Aを形成するアローヘッド部Aheadとアローシャフト部Ashaftに対応する基準画像T中の各画素領域Rahead、Rashaftの相互の位置関係に基づいて、矢印信号Aの方向を的確に認識することが可能となる。   Therefore, the recognition method 3 (step S8) is used to recognize the direction of the arrow signal A, whereby each of the arrows in the reference image T corresponding to the arrow head portion Ahead and the arrow shaft portion Ashaft that forms the arrow signal A. Based on the mutual positional relationship between the pixel regions Rahead and Rashaft, the direction of the arrow signal A can be accurately recognized.

なお、自車両MCから赤信号Lrまでの実空間上の距離Zgが自車両MCに近い第三の所定区間Sec3(図18参照)にある場合には、例えば図29に示したように、矢印信号Aが明瞭に撮像されるため、前述した特許文献2に記載されているように、テンプレートマッチングにより矢印信号Aの方向を認識するように構成することも可能である。   If the distance Zg in real space from the host vehicle MC to the red signal Lr is in the third predetermined section Sec3 (see FIG. 18) close to the host vehicle MC, for example, as shown in FIG. Since the signal A is clearly imaged, as described in Patent Document 2 described above, the direction of the arrow signal A can be recognized by template matching.

しかし、テンプレートマッチングを用いる手法は処理に時間がかかる場合が少なくなく、矢印信号抽出手段13が認識した矢印信号Aの方向の情報を用いて例えば自車両の自動走行制御等を行うような場合には、リアルタイム性が損なわれる可能性がある。   However, the method using template matching often takes a long time to process. For example, when the direction information of the arrow signal A recognized by the arrow signal extraction unit 13 is used to perform automatic traveling control of the own vehicle, for example. May impair real-time performance.

また、右折可や直進可、左折可を示す矢印信号Al、As、Ar(図28参照)のそれぞれについてテンプレートを用意してそれぞれ適用すると処理が重くなるうえ、例えば、図27に示したような変則的な矢印信号Aに対応するテンプレートが用意されていない場合には、矢印信号Aの方向を認識することができなくなるといった問題が生じ得る。   Further, if a template is prepared for each of the arrow signals Al, As, and Ar (see FIG. 28) indicating whether the vehicle can turn right, go straight, or turn left, the processing becomes heavy. For example, as shown in FIG. If a template corresponding to the irregular arrow signal A is not prepared, there may be a problem that the direction of the arrow signal A cannot be recognized.

その点、上記の認識手法3を採用して、矢印信号Aを形成するアローヘッド部Aheadとアローシャフト部Ashaftに対応する基準画像T中の各画素領域Rahead、Rashaftの相互の位置関係に基づいて矢印信号Aの方向を的確に認識するように構成すれば、処理はさほど重くならず、リアルタイム性が確保されるとともに、図27に示したような変則的な矢印信号Aが標示される場合であっても、矢印信号Aの方向を的確に認識することが可能となる。   On the other hand, the above recognition method 3 is adopted, and based on the mutual positional relationship between the pixel areas Rahead and Rashaft in the reference image T corresponding to the arrow head part Ahead and the arrow shaft part Ashaft forming the arrow signal A. If the configuration is such that the direction of the arrow signal A is accurately recognized, the processing does not become very heavy, real-time characteristics are secured, and an irregular arrow signal A as shown in FIG. 27 is displayed. Even if it exists, it becomes possible to recognize the direction of the arrow signal A exactly.

矢印信号抽出手段13は、以上のようにして、認識手法1(図15のステップS6)、認識手法2(ステップS7)、または認識手法3(ステップS8)を適用して、基準画像T中に抽出した矢印信号Aの方向(すなわち矢印信号Aが指し示す方向)を認識すると、認識した方向をメモリに保存するとともに、外部に出力するようになっている(ステップS9)。   As described above, the arrow signal extraction unit 13 applies the recognition method 1 (step S6 in FIG. 15), the recognition method 2 (step S7), or the recognition method 3 (step S8) to the reference image T. When the direction of the extracted arrow signal A (that is, the direction indicated by the arrow signal A) is recognized, the recognized direction is stored in the memory and output to the outside (step S9).

そして、矢印信号抽出手段13は、今回のサンプリング周期における処理を終了し、次回のサンプリング周期で赤信号等検出手段12等から信号機Sの赤信号Lrに対応するグループg等の情報が送られてくるまで待機するようになっている。   Then, the arrow signal extraction unit 13 ends the processing in the current sampling cycle, and information such as the group g corresponding to the red signal Lr of the traffic light S is transmitted from the red signal detection unit 12 or the like in the next sampling cycle. Wait until it comes.

以上のように、本実施形態に係る環境認識装置1によれば、少なくとも信号機Sの赤信号Lrや黄信号Lyまでの実空間上の距離Zgが自車両MCから遠い第一の所定区間Sec1(図18参照)内にある場合には、上記の認識手法1(ステップS6)を適用して、画像T中における矢印信号Aと赤信号Lrや黄信号Lyとの相互の位置関係に基づいて矢印信号Aが指し示す方向を認識する。   As described above, according to the environment recognition device 1 according to the present embodiment, the first predetermined section Sec1 (at least the distance Zg in the real space to the red signal Lr and the yellow signal Ly of the traffic light S is far from the host vehicle MC. 18), the above recognition method 1 (step S6) is applied, and the arrows based on the mutual positional relationship between the arrow signal A and the red signal Lr and the yellow signal Ly in the image T are applied. The direction indicated by the signal A is recognized.

そのため、従来のテンプレートマッチングにより矢印信号Aが指し示す方向を検出する手法ではその方向を検出することができなかった自車両MCから非常に遠い位置にある信号機S(例えば図31参照)についても、矢印信号Aが指し示す方向を的確に認識して検出することが可能となる。   For this reason, the traffic light S (for example, see FIG. 31) located at a very far position from the host vehicle MC that could not detect the direction indicated by the arrow signal A by the conventional template matching cannot be detected. It becomes possible to accurately recognize and detect the direction indicated by the signal A.

そのため、信号機Sがまだ自車両MCから遠い位置にある段階から、信号機Sの矢印信号を的確に認識して、その情報を自車両の自動走行制御等に用いたり、ドライバに対して適切に警告する等の制御を行うことが可能となる。   Therefore, from the stage where the traffic light S is still far from the host vehicle MC, the arrow signal of the traffic signal S is accurately recognized, and the information is used for automatic travel control of the host vehicle, or the driver is appropriately warned. It is possible to perform control such as

なお、自車両MCから赤信号Lrや黄信号Lyまでの実空間上の距離Zgが第二の所定区間Sec2(図18参照)にある場合、矢印信号Aは、例えば図30に示したようにぼやけた状態で撮像されるため、やはり従来のテンプレートマッチングにより矢印信号Aが指し示す方向を検出する手法では、その方向を検出することが困難であった。   When the distance Zg in real space from the host vehicle MC to the red signal Lr and the yellow signal Ly is in the second predetermined section Sec2 (see FIG. 18), the arrow signal A is, for example, as shown in FIG. Since the image is taken in a blurred state, it is difficult to detect the direction by the conventional method of detecting the direction indicated by the arrow signal A by template matching.

しかし、本実施形態に係る環境認識装置1によれば、このように信号機Sの赤信号Lrや黄信号Lyまでの実空間上の距離Zgが第二の所定区間Sec2内にある場合には、上記の認識手法2(ステップS7)を適用して、画像T中における矢印信号Aの左右の対称性や上下の対称性に基づいて矢印信号Aの方向を認識する。   However, according to the environment recognition apparatus 1 according to the present embodiment, when the distance Zg in real space to the red signal Lr and the yellow signal Ly of the traffic light S is within the second predetermined section Sec2, By applying the recognition method 2 (step S7), the direction of the arrow signal A is recognized based on the left-right symmetry and the vertical symmetry of the arrow signal A in the image T.

そのため、従来のテンプレートマッチングにより矢印信号Aが指し示す方向を検出する手法ではその方向を検出することが困難であった自車両MCから比較的遠い位置にある信号機S(例えば図30参照)についても、矢印信号Aが指し示す方向を的確に認識して検出することが可能となる。   Therefore, for the traffic light S (see FIG. 30 for example) located relatively far from the host vehicle MC, which is difficult to detect the direction indicated by the arrow signal A by conventional template matching. It becomes possible to accurately recognize and detect the direction indicated by the arrow signal A.

そのため、信号機Sがまだ自車両MCから比較的遠い位置にある段階から、信号機Sの矢印信号を的確に認識して、その情報を自車両の自動走行制御等に用いたり、ドライバに対して適切に警告する等の制御を行うことが可能となる。   Therefore, from the stage where the traffic light S is still relatively far from the host vehicle MC, the arrow signal of the traffic signal S is accurately recognized and the information is used for automatic driving control of the host vehicle, etc. It is possible to perform control such as warning.

また、本実施形態に係る環境認識装置1によれば、信号機Sの赤信号Lrや黄信号Lyまでの実空間上の距離Zgが自車両MCに近い第三の所定区間Sec3(図18参照)内にある場合には、上記の認識手法3(ステップS8)を適用して、矢印信号Aを形成するアローヘッド部Aheadとアローシャフト部Ashaftに対応する基準画像T中の各画素領域Rahead、Rashafの相互の位置関係に基づいて矢印信号Aの方向を認識する。   Moreover, according to the environment recognition apparatus 1 which concerns on this embodiment, the distance Zg in real space to the red signal Lr of the traffic light S and the yellow signal Ly is the 3rd predetermined area Sec3 (refer FIG. 18) near the own vehicle MC. If it is within, the above-described recognition method 3 (step S8) is applied to each of the pixel regions Rahead and Rashaf in the reference image T corresponding to the arrow head portion Ahead and the arrow shaft portion Ashaft that form the arrow signal A. The direction of the arrow signal A is recognized based on the mutual positional relationship.

そのため、自車両MCに近い位置にある信号機S(例えば図29参照)について、矢印信号Aが指し示す方向を的確に認識して検出することが可能となり、信号機Sが自車両MCに近い位置にある場合に、信号機Sの矢印信号を的確に認識して、その情報を自車両の自動走行制御等に用いたり、ドライバに対して適切に警告する等の制御を行うことが可能となる。   Therefore, it is possible to accurately recognize and detect the direction indicated by the arrow signal A for the traffic light S (for example, see FIG. 29) located near the host vehicle MC, and the traffic signal S is located near the host vehicle MC. In this case, it is possible to accurately recognize the arrow signal of the traffic light S and use the information for automatic traveling control of the host vehicle or to control the driver appropriately.

また、それとともに、従来のテンプレートマッチングを用いる手法では処理が重くなり、処理に時間がかかってリアルタイム性が損なわれる可能性があり、また、変則的な矢印信号Aに対応するテンプレートが用意されていない場合には矢印信号Aの方向を認識することができなくなるといった問題が生じ得るが、上記の認識手法3を採用すれば、処理はさほど重くならず、リアルタイム性が確保されるとともに、変則的な矢印信号Aが標示される場合であっても矢印信号Aの方向を的確に認識することが可能となる。   At the same time, the conventional method using template matching makes processing heavy, and processing may take time and real-time performance may be impaired. Also, a template corresponding to an irregular arrow signal A is prepared. If not, there may be a problem that the direction of the arrow signal A cannot be recognized. However, if the above-described recognition method 3 is adopted, the processing does not become very heavy, real-time properties are ensured, and irregularities are obtained. Even when a simple arrow signal A is displayed, the direction of the arrow signal A can be accurately recognized.

なお、上記の実施形態では、図15のフローチャートに示したように、矢印信号抽出手段13が、自車両MCから赤信号Lrや黄信号Lyまでの実空間上の距離Zgに応じて認識手法1〜3のいずれかの手法を適用するように構成されている場合について説明した。   In the above embodiment, as shown in the flowchart of FIG. 15, the arrow signal extraction unit 13 recognizes according to the distance Zg in real space from the host vehicle MC to the red signal Lr and the yellow signal Ly. The case where it is comprised so that any one of methods of ~ 3 may be applied was explained.

しかし、図示を省略するが、例えば、矢印信号抽出手段13に、認識手法1を用いて矢印信号Aが指し示す方向を認識する第1の認識手段と、認識手法2を用いて矢印信号Aが指し示す方向を認識する第2の認識手段と、認識手法3を用いて矢印信号Aが指し示す方向を認識する第3の認識手段とを設け、赤信号等検出手段12等から信号機Sの赤信号Lrに対応するグループg等の情報が送られてきた時点で、3つの認識手段で同時並行的に処理を行う。   However, although not shown, for example, the arrow signal extraction unit 13 uses the recognition method 1 to recognize the direction indicated by the arrow signal A and the recognition method 2 uses the recognition method 2 to indicate the arrow signal A. A second recognizing unit for recognizing the direction and a third recognizing unit for recognizing the direction indicated by the arrow signal A using the recognizing method 3 are provided. When information on the corresponding group g or the like is sent, processing is performed in parallel by the three recognition means.

そして、矢印信号抽出手段13に、3つの認識手段のうちのいずれかの認識手段が認識した矢印信号Aが指し示す方向を選択して出力する選択手段を設け、選択手段では、赤信号Lrや黄信号Lyまでの実空間上の距離Zgが自車両MCから遠い第一の所定区間Sec1、第一の所定区間Sec1よりも自車両MCに近い第二の所定区間Sec2、または第一の所定区間Sec1よりも自車両MCに近い第三の所定区間Sec3のいずれの所定区間内にあるかに応じて、どの認識手段が認識した上記の方向を選択して出力するかを切り替えるように構成することも可能である。   The arrow signal extraction unit 13 is provided with a selection unit that selects and outputs the direction indicated by the arrow signal A recognized by any one of the three recognition units. The selection unit includes a red signal Lr and a yellow signal. The first predetermined section Sec1 in which the distance Zg in real space to the signal Ly is far from the host vehicle MC, the second predetermined section Sec2 closer to the host vehicle MC than the first predetermined section Sec1, or the first predetermined section Sec1. Depending on which predetermined section of the third predetermined section Sec3 that is closer to the host vehicle MC than which of the recognition means recognizes, the direction to be selected and output may be switched. Is possible.

このように構成しても、上記の本実施形態の場合と全く同様の有益な作用効果を得ることが可能となる。   Even if comprised in this way, it becomes possible to obtain the same beneficial effect as the case of this embodiment mentioned above.

また、例えば、前述した路面検出手段15が形成した車線モデル(上記(5)〜(8)式参照)上或いはその近傍に複数の信号機Sが存在する場合、画像T中にそれらの各信号機Sが撮像される場合がある。   Further, for example, when there are a plurality of traffic lights S on or in the vicinity of the lane model formed by the road surface detection means 15 described above (see the above formulas (5) to (8)), each of the traffic lights S in the image T is displayed. May be imaged.

そのような場合に、最も手前側すなわち自車両MCに近い側の信号機Sにおける矢印信号Aが指し示す方向が認識されるのは当然であるが、それ以外の、自車両MCからより遠い側の信号機Sにおける矢印信号Aが指し示す方向を同時に認識するように構成することも可能である。   In such a case, it is natural that the direction indicated by the arrow signal A in the traffic light S closest to the host vehicle MC is recognized, but other traffic signals farther from the host vehicle MC are recognized. It is also possible to configure so as to simultaneously recognize the direction indicated by the arrow signal A in S.

その場合、最も手前側の信号機S以外の信号機Sの矢印信号Aが指し示す方向を出力するか否かは、その出力情報を用いて自車両の自動走行制御等を行ったりドライバに警告を発したりする外部装置側でその情報を必要とするか否か等に基づいて、適宜決められる。   In that case, whether or not to output the direction indicated by the arrow signal A of the traffic light S other than the traffic light S closest to the front side is performed by using the output information to perform automatic traveling control of the host vehicle or issue a warning to the driver. This is appropriately determined based on whether or not the information is required on the external device side.

1 環境認識装置
2 撮像手段
6 距離検出手段
10 統合処理手段
11 距離算出手段
12 赤信号等検出手段
13 矢印信号抽出手段
15 路面検出手段
A、Al、As、Ar 矢印信号
Ae1、Ae2 分割された画像領域
Ahead アローヘッド部
Ashaft アローシャフト部
Ce 中心
Chead、Cshaft 中心点
D 画像データ
g グループ
(i,j) 座標
l1、l2 直線
Lr 赤信号(赤の信号灯)
Ly 黄信号(黄の信号灯)
MC 自車両
p 画素
グループの周囲に存在する画素
r(Ae1)、r(Ae2) 画素数
Ra 矢印信号に対応する画素領域
Rahead アローヘッド部に対応する画素領域
Rashaft アローシャフト部に対応する画素領域
Re 外接する画像領域
Rs 探索領域
S 信号機
Sec1 第一の所定区間
Sec2 第二の所定区間
Sec3 第三の所定区間
T 基準画像(画像)
v 各中心点を結ぶベクトル
Y 実空間上の高さ
道路面の実空間上の高さ
Yc グループの実空間上の高さ
Yc−Y グループの道路面からの実空間上の高さ
Z 実空間上の距離
Zg グループの実空間上の距離
DESCRIPTION OF SYMBOLS 1 Environment recognition apparatus 2 Imaging means 6 Distance detection means 10 Integration processing means 11 Distance calculation means 12 Red signal etc. detection means 13 Arrow signal extraction means 15 Road surface detection means A, Al, As, Ar Arrow signals Ae1, Ae2 Divided images Area Ahead Arrow head part Ashaft Arrow shaft part Ce Center Chead, Cshaft center point D Image data g Group (i, j) Coordinates l1, l2 Straight line Lr Red signal (red signal light)
Ly yellow signal (yellow signal light)
MC own vehicle p pixel p * pixels r (Ae1), r (Ae2) existing around the group Ra pixel area corresponding to the arrow signal Rahead pixel area corresponding to the arrow head part pixel corresponding to the Rashaft arrow shaft part Area Re circumscribed image area Rs search area S traffic light
Sec1 First predetermined section
Sec2 Second predetermined section
Sec3 Third predetermined section T Reference image (image)
v Vector Y connecting each center point Height in real space Y * Height in road real space Yc Height in group real space Yc-Y * Group height in road from road Z Distance in real space Zg Distance in group real space

Claims (8)

画素ごとに画像データを有する画像を撮像する撮像手段と、
前記画像の各画素について実空間上の距離を検出する距離検出手段と、
前記画像において互いに隣接する画素の各画像データに基づいて当該隣接する画素を1つのグループに統合する統合処理手段と、
前記グループに属する前記各画素および前記グループの周囲に存在する前記各画素に対応する前記実空間上の各距離に基づいて、前記グループの実空間上の距離を算出する距離算出手段と、
前記グループの実空間上の距離および前記グループの前記画像中での座標に基づいて算出した当該グループの実空間上の大きさおよび道路面からの実空間上の高さに基づいて、信号機の赤または黄の信号灯を検出する赤信号等検出手段と、
検出された前記赤または黄の信号灯の前記画像中の位置に基づいて矢印信号が撮像されている可能性がある画像領域を探索領域として設定し、前記探索領域内に撮像されている前記矢印信号を抽出する矢印信号抽出手段と、
を備え、
前記矢印信号抽出手段は、
自車両から前記赤または黄の信号灯までの前記実空間上の距離に応じて前記矢印信号が指し示す方向を認識する手法を変えるように構成されており、
少なくとも前記赤または黄の信号灯までの前記実空間上の距離が前記自車両から遠い第一の所定区間内にある場合には、前記画像中における前記矢印信号と前記赤または黄の信号灯との相互の位置関係に基づいて、前記矢印信号が指し示す方向を認識することを特徴とする環境認識装置。
Imaging means for imaging an image having image data for each pixel;
Distance detecting means for detecting a distance in real space for each pixel of the image;
Integration processing means for integrating adjacent pixels into one group based on image data of adjacent pixels in the image;
Distance calculating means for calculating a distance in the real space of the group based on the distance in the real space corresponding to the pixels belonging to the group and the pixels existing around the group;
Based on the distance of the group in the real space and the size of the group in the real space and the height in the real space from the road surface calculated based on the coordinates in the image of the group, Or a detection means such as a red signal for detecting a yellow signal light;
Based on the detected position of the red or yellow signal lamp in the image, an image area in which an arrow signal may be captured is set as a search area, and the arrow signal captured in the search area Arrow signal extraction means for extracting
With
The arrow signal extraction means includes
It is configured to change the method of recognizing the direction indicated by the arrow signal according to the distance in the real space from the own vehicle to the red or yellow signal light,
When the distance in the real space to at least the red or yellow signal light is within a first predetermined section far from the host vehicle, the arrow signal and the red or yellow signal light in the image An environment recognition apparatus that recognizes the direction indicated by the arrow signal based on the positional relationship of
前記矢印信号抽出手段は、少なくとも前記赤または黄の信号灯までの前記実空間上の距離が前記第一の所定区間より自車両に近い第二の所定区間内にある場合には、前記矢印信号が指し示す方向を認識する手法として、前記画像中における前記矢印信号の左右または上下の対称性に基づいて、前記矢印信号が指し示す方向を認識することを特徴とする請求項1に記載の環境認識装置。   The arrow signal extraction means is configured such that when the distance in the real space to at least the red or yellow signal lamp is within a second predetermined section closer to the host vehicle than the first predetermined section, the arrow signal is The environment recognition apparatus according to claim 1, wherein, as a method for recognizing a pointing direction, the direction indicated by the arrow signal is recognized based on left-right or vertical symmetry of the arrow signal in the image. 前記矢印信号抽出手段は、前記画像中に、前記矢印信号に対応する画素領域に外接する画像領域を設定し、当該画像領域の中心を通る上下方向または左右方向に延在する直線で当該画像領域を分割し、分割された各画像領域にそれぞれ含まれる前記矢印信号に対応する画素領域に属する画素数を比較することで、前記左右または上下の対称性を判定することを特徴とする請求項2に記載の環境認識装置。   The arrow signal extraction means sets an image region circumscribing a pixel region corresponding to the arrow signal in the image, and the image region is a straight line extending in the vertical direction or the horizontal direction passing through the center of the image region. The left-right or up-down symmetry is determined by comparing the number of pixels belonging to a pixel area corresponding to the arrow signal included in each of the divided image areas. The environment recognition device described in 1. 前記矢印信号抽出手段は、少なくとも前記赤または黄の信号灯までの前記実空間上の距離が前記第二の所定区間より自車両に近い第三の所定区間内にある場合には、前記矢印信号が指し示す方向を認識する手法として、前記矢印信号を形成するアローヘッド部とアローシャフト部に対応する前記画像中の各画素領域の相互の位置関係に基づいて、前記矢印信号が指し示す方向を認識することを特徴とする請求項2または請求項3に記載の環境認識装置。   The arrow signal extraction means is configured such that when the distance in the real space to at least the red or yellow signal light is within a third predetermined section closer to the host vehicle than the second predetermined section, the arrow signal is As a method for recognizing the pointing direction, the direction indicated by the arrow signal is recognized based on the mutual positional relationship between the pixel regions in the image corresponding to the arrow head portion and the arrow shaft portion that form the arrow signal. The environment recognition device according to claim 2 or claim 3, wherein 前記矢印信号抽出手段は、前記矢印信号を形成するアローヘッド部とアローシャフト部に対応する前記画像中の前記各画素領域を、前記各画素領域にそれぞれ属する各画素数を比較することで識別することを特徴とする請求項4に記載の環境認識装置。   The arrow signal extraction means identifies each pixel area in the image corresponding to the arrow head part and the arrow shaft part forming the arrow signal by comparing the number of pixels belonging to each pixel area. The environment recognition apparatus according to claim 4. 前記矢印信号抽出手段は、前記アローヘッド部と前記アローシャフト部とにそれぞれ対応する前記各画素領域の各中心点をそれぞれ算出し、前記各中心点を結ぶベクトルの方向性に基づいて、前記矢印信号が指し示す方向を認識することを特徴とする請求項4または請求項5に記載の環境認識装置。   The arrow signal extraction means calculates each center point of each pixel region corresponding to each of the arrow head part and the arrow shaft part, and based on the directionality of the vector connecting the center points, 6. The environment recognition apparatus according to claim 4, wherein the direction indicated by the signal is recognized. さらに、前記画像から道路面を検出する路面検出手段を備え、
前記赤信号等検出手段は、前記グループの実空間上の距離および前記グループの前記画像中での座標に基づいて算出した当該グループの実空間上の大きさと、前記路面検出手段が検出した前記道路面の実空間上の高さに基づいて、信号機の赤または黄の信号灯を検出することを特徴とする請求項1から請求項6のいずれか一項に記載の環境認識装置。
Furthermore, a road surface detection means for detecting a road surface from the image,
The detection means such as a red signal is calculated based on the distance of the group in the real space and the coordinates of the group in the image, and the size of the group in the real space, and the road detected by the road surface detection means. The environment recognition device according to any one of claims 1 to 6, wherein a red or yellow signal light of a traffic light is detected based on a height of the surface in real space.
画素ごとに画像データを有する画像を撮像する撮像手段と、
前記画像の各画素について実空間上の距離を検出する距離検出手段と、
前記画像において互いに隣接する画素の各画像データに基づいて当該隣接する画素を1つのグループに統合する統合処理手段と、
前記グループに属する前記各画素および前記グループの周囲に存在する前記各画素に対応する前記実空間上の各距離に基づいて、前記グループの実空間上の距離を算出する距離算出手段と、
前記グループの実空間上の距離および前記グループの前記画像中での座標に基づいて算出した当該グループの実空間上の大きさおよび道路面からの実空間上の高さに基づいて、信号機の赤または黄の信号灯を検出する赤信号等検出手段と、
検出された前記赤または黄の信号灯の前記画像中の位置に基づいて矢印信号が撮像されている可能性がある画像領域を探索領域として設定し、前記探索領域内に撮像されている前記矢印信号を抽出する矢印信号抽出手段と、
を備え、
前記矢印信号抽出手段は、前記矢印信号が指し示す方向を認識する手法として互いに異なる手法で前記矢印信号が指し示す方向を認識する認識手段を複数備え、自車両から前記赤または黄の信号灯までの前記実空間上の距離に応じて前記複数の認識手段のうちのいずれかの前記認識手段が認識した前記方向を選択して出力することを特徴とする環境認識装置。
Imaging means for imaging an image having image data for each pixel;
Distance detecting means for detecting a distance in real space for each pixel of the image;
Integration processing means for integrating adjacent pixels into one group based on image data of adjacent pixels in the image;
Distance calculating means for calculating a distance in the real space of the group based on the distance in the real space corresponding to the pixels belonging to the group and the pixels existing around the group;
Based on the distance of the group in the real space and the size of the group in the real space and the height in the real space from the road surface calculated based on the coordinates in the image of the group, Or a detection means such as a red signal for detecting a yellow signal light;
Based on the detected position of the red or yellow signal lamp in the image, an image area in which an arrow signal may be captured is set as a search area, and the arrow signal captured in the search area Arrow signal extraction means for extracting
With
The arrow signal extraction means includes a plurality of recognition means for recognizing the direction indicated by the arrow signal by different methods as a method for recognizing the direction indicated by the arrow signal, and the actual signal from the own vehicle to the red or yellow signal lamp is provided. An environment recognition apparatus characterized by selecting and outputting the direction recognized by any of the plurality of recognition means according to a distance in space.
JP2011026633A 2011-02-10 2011-02-10 Environment recognition device Active JP5591730B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011026633A JP5591730B2 (en) 2011-02-10 2011-02-10 Environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011026633A JP5591730B2 (en) 2011-02-10 2011-02-10 Environment recognition device

Publications (2)

Publication Number Publication Date
JP2012168592A true JP2012168592A (en) 2012-09-06
JP5591730B2 JP5591730B2 (en) 2014-09-17

Family

ID=46972725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011026633A Active JP5591730B2 (en) 2011-02-10 2011-02-10 Environment recognition device

Country Status (1)

Country Link
JP (1) JP5591730B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014115239A1 (en) * 2013-01-22 2014-07-31 パイオニア株式会社 Traffic light recognition device, control method, program, and memory medium
JP2015097018A (en) * 2013-11-15 2015-05-21 富士重工業株式会社 Arrow signal light detection device
CN104751116A (en) * 2013-12-27 2015-07-01 富士重工业株式会社 Arrow signal recognition device
CN104851288A (en) * 2015-04-16 2015-08-19 宁波中国科学院信息技术应用研究院 Traffic light positioning method
WO2015136594A1 (en) * 2014-03-10 2015-09-17 日産自動車株式会社 Traffic light detection device and traffic light detection method
WO2016162975A1 (en) * 2015-04-08 2016-10-13 日産自動車株式会社 Traffic light detection device and traffic light detection method
JP2016219024A (en) * 2016-07-06 2016-12-22 パイオニア株式会社 Recognition device, control method, program and recording medium for traffic signal
JP2017091017A (en) * 2015-11-04 2017-05-25 株式会社リコー Detection device, detection method, and program
KR101743389B1 (en) * 2016-01-04 2017-06-07 주식회사 에프에스솔루션 Apparatus and method for traffic signal recognition
US9747508B2 (en) 2015-07-24 2017-08-29 Honda Motor Co., Ltd. Surrounding environment recognition device
JP2018120600A (en) * 2018-02-16 2018-08-02 パイオニア株式会社 Traffic light recognition device, control method, program and storage medium
EP3470780A4 (en) * 2016-06-08 2020-02-26 Hitachi Automotive Systems, Ltd. Object distance detection device
CN111731304A (en) * 2019-03-25 2020-10-02 本田技研工业株式会社 Vehicle control device, vehicle control method, and storage medium
JP2020187396A (en) * 2019-05-10 2020-11-19 株式会社Soken Arrow direction identification device and arrow direction identification method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353292A (en) * 1999-06-11 2000-12-19 Toshiba Corp Signal identifying device and its method
JP2004126947A (en) * 2002-10-02 2004-04-22 Toyota Motor Corp Image processor and image processing method
JP2006318059A (en) * 2005-05-10 2006-11-24 Olympus Corp Apparatus, method, and program for image processing
JP2007257303A (en) * 2006-03-23 2007-10-04 Honda Motor Co Ltd Traffic light recognition system
JP2008009915A (en) * 2006-06-30 2008-01-17 Pioneer Electronic Corp Road sign determination device, method and program therefor
JP2008242987A (en) * 2007-03-28 2008-10-09 Aisin Aw Co Ltd Operation support method and operation support device
JP2009043068A (en) * 2007-08-09 2009-02-26 Honda Motor Co Ltd Traffic light recognition system
JP2010086267A (en) * 2008-09-30 2010-04-15 Mazda Motor Corp Image processing apparatus for vehicle
JP2010224925A (en) * 2009-03-24 2010-10-07 Fuji Heavy Ind Ltd Environment recognition device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353292A (en) * 1999-06-11 2000-12-19 Toshiba Corp Signal identifying device and its method
JP2004126947A (en) * 2002-10-02 2004-04-22 Toyota Motor Corp Image processor and image processing method
JP2006318059A (en) * 2005-05-10 2006-11-24 Olympus Corp Apparatus, method, and program for image processing
JP2007257303A (en) * 2006-03-23 2007-10-04 Honda Motor Co Ltd Traffic light recognition system
JP2008009915A (en) * 2006-06-30 2008-01-17 Pioneer Electronic Corp Road sign determination device, method and program therefor
JP2008242987A (en) * 2007-03-28 2008-10-09 Aisin Aw Co Ltd Operation support method and operation support device
JP2009043068A (en) * 2007-08-09 2009-02-26 Honda Motor Co Ltd Traffic light recognition system
JP2010086267A (en) * 2008-09-30 2010-04-15 Mazda Motor Corp Image processing apparatus for vehicle
JP2010224925A (en) * 2009-03-24 2010-10-07 Fuji Heavy Ind Ltd Environment recognition device

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014115239A1 (en) * 2013-01-22 2014-07-31 パイオニア株式会社 Traffic light recognition device, control method, program, and memory medium
JPWO2014115239A1 (en) * 2013-01-22 2017-01-19 パイオニア株式会社 Signal recognition device, control method, program, and storage medium
JP2015097018A (en) * 2013-11-15 2015-05-21 富士重工業株式会社 Arrow signal light detection device
CN104751116A (en) * 2013-12-27 2015-07-01 富士重工业株式会社 Arrow signal recognition device
DE102014118779A1 (en) 2013-12-27 2015-07-02 Fuji Jukogyo Kabushiki Kaisha Arrow signal detection device
JP2015125709A (en) * 2013-12-27 2015-07-06 富士重工業株式会社 Arrow signal recognition device
US9405980B2 (en) 2013-12-27 2016-08-02 Fuji Jukogyo Kabushiki Kaisha Arrow signal recognition device
CN104751116B (en) * 2013-12-27 2017-04-26 富士重工业株式会社 arrow signal recognition device
JPWO2015136594A1 (en) * 2014-03-10 2017-04-06 日産自動車株式会社 Signal detection device and signal detection method
WO2015136594A1 (en) * 2014-03-10 2015-09-17 日産自動車株式会社 Traffic light detection device and traffic light detection method
US9679207B2 (en) 2014-03-10 2017-06-13 Nissan Motor Co., Ltd. Traffic light detecting device and traffic light detecting method
CN107430818B (en) * 2015-04-08 2018-10-12 日产自动车株式会社 Signal machine detecting device and semaphore detection method
CN107430818A (en) * 2015-04-08 2017-12-01 日产自动车株式会社 Signal machine detecting device and semaphore detection method
US10055655B2 (en) * 2015-04-08 2018-08-21 Nissan Motor Co., Ltd. Traffic light detection device and traffic light detection method
WO2016162975A1 (en) * 2015-04-08 2016-10-13 日産自動車株式会社 Traffic light detection device and traffic light detection method
JPWO2016162975A1 (en) * 2015-04-08 2018-02-08 日産自動車株式会社 Signal detection device and signal detection method
CN104851288A (en) * 2015-04-16 2015-08-19 宁波中国科学院信息技术应用研究院 Traffic light positioning method
US9747508B2 (en) 2015-07-24 2017-08-29 Honda Motor Co., Ltd. Surrounding environment recognition device
JP2017091017A (en) * 2015-11-04 2017-05-25 株式会社リコー Detection device, detection method, and program
KR101743389B1 (en) * 2016-01-04 2017-06-07 주식회사 에프에스솔루션 Apparatus and method for traffic signal recognition
EP3470780A4 (en) * 2016-06-08 2020-02-26 Hitachi Automotive Systems, Ltd. Object distance detection device
US11029150B2 (en) 2016-06-08 2021-06-08 Hitachi Automotive Systems, Ltd. Object distance detection device
JP2016219024A (en) * 2016-07-06 2016-12-22 パイオニア株式会社 Recognition device, control method, program and recording medium for traffic signal
JP2018120600A (en) * 2018-02-16 2018-08-02 パイオニア株式会社 Traffic light recognition device, control method, program and storage medium
CN111731304A (en) * 2019-03-25 2020-10-02 本田技研工业株式会社 Vehicle control device, vehicle control method, and storage medium
CN111731304B (en) * 2019-03-25 2023-04-18 本田技研工业株式会社 Vehicle control device, vehicle control method, and storage medium
JP2020187396A (en) * 2019-05-10 2020-11-19 株式会社Soken Arrow direction identification device and arrow direction identification method
JP7184705B2 (en) 2019-05-10 2022-12-06 株式会社Soken ARROW DIRECTION DETERMINATION DEVICE AND ARROW DIRECTION DETERMINATION METHOD

Also Published As

Publication number Publication date
JP5591730B2 (en) 2014-09-17

Similar Documents

Publication Publication Date Title
JP5591730B2 (en) Environment recognition device
JP5254102B2 (en) Environment recognition device
JP6344638B2 (en) Object detection apparatus, mobile device control system, and object detection program
US8976999B2 (en) Vehicle detection apparatus
JP5188430B2 (en) Image processing device
US8923560B2 (en) Exterior environment recognition device
US8305431B2 (en) Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images
US9886773B2 (en) Object detection apparatus and object detection method
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
US9099005B2 (en) Environment recognition device and environment recognition method
JP5371725B2 (en) Object detection device
US8855367B2 (en) Environment recognition device and environment recognition method
CN104834889A (en) Marking line detection system and marking line detection method
JP5180126B2 (en) Road recognition device
JP2009176087A (en) Vehicle environment recognizing system
JP5188429B2 (en) Environment recognition device
JP2008033750A (en) Object inclination detector
US20120288149A1 (en) Environment recognition device and environment recognition method
JP2011118509A (en) Road recognition device
US20150379334A1 (en) Object recognition apparatus
US20150379372A1 (en) Object recognition apparatus
JP2007264717A (en) Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device
JP5073700B2 (en) Object detection device
JP2010224926A (en) Stop line detection device
JP5727639B2 (en) Vehicle detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140730

R150 Certificate of patent or registration of utility model

Ref document number: 5591730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250