JP4813304B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP4813304B2
JP4813304B2 JP2006252444A JP2006252444A JP4813304B2 JP 4813304 B2 JP4813304 B2 JP 4813304B2 JP 2006252444 A JP2006252444 A JP 2006252444A JP 2006252444 A JP2006252444 A JP 2006252444A JP 4813304 B2 JP4813304 B2 JP 4813304B2
Authority
JP
Japan
Prior art keywords
image
artificial structure
road area
extracted
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006252444A
Other languages
Japanese (ja)
Other versions
JP2008077154A (en
JP2008077154A5 (en
Inventor
雅和 坂
弘之 小池
文則 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006252444A priority Critical patent/JP4813304B2/en
Publication of JP2008077154A publication Critical patent/JP2008077154A/en
Publication of JP2008077154A5 publication Critical patent/JP2008077154A5/ja
Application granted granted Critical
Publication of JP4813304B2 publication Critical patent/JP4813304B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車両の走行に影響を与える対象物を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that monitors an object that affects driving of a vehicle.

従来、この種の車両周辺監視装置としては、赤外線カメラにより捉えられた車両周辺の画像から、車両との接触の可能性がある歩行者等の対象物を抽出し、その情報を車両の運転者に視覚的に提供する表示処理装置が提案されている(例えば特許文献1参照)。この装置は、赤外線画像を2値化処理して高輝度領域を探し、該領域の赤外線画像内の重心位置、面積比、実面積などの頭部判定条件から、該領域が歩行者の頭部であるか否かを判定する。そして、歩行者の頭部の領域であると判定したときは、歩行者の身体を包含する領域を他の領域と区分して表示する。これにより、歩行者情報が車両の運転者に対して表示され、運転者の視覚を補助している。   Conventionally, as this kind of vehicle periphery monitoring device, an object such as a pedestrian who may be in contact with a vehicle is extracted from an image around the vehicle captured by an infrared camera, and the information is obtained from the driver of the vehicle. There has been proposed a display processing device that is visually provided (see, for example, Patent Document 1). This device binarizes an infrared image to search for a high brightness area, and the area is determined based on head determination conditions such as the center of gravity position, area ratio, and actual area in the infrared image of the area. It is determined whether or not. And when it determines with it being the area | region of a pedestrian's head, the area | region which includes a pedestrian's body is displayed separately from another area | region. Thereby, pedestrian information is displayed to the driver of the vehicle, and assists the driver's vision.

また、かかる車両周辺監視装置において、車両の運転者に対して不要な注意喚起がなされることを抑制するため、歩行者である可能性の高い対象物を視覚的に表示する車両周辺装置が提案されている(例えば特許文献2参照)。この装置は、2つの赤外線カメラにより得られる画像から歩行者の可能性がある対象物を抽出し、(1)該対象物が歩行者にはあり得ない特徴を有するか否か、および(2)所定の人工構造物の外形的特徴を有するか否かを判定条件として、該対象物が該判定条件を満たす場合に人工構造物と判定して、注意喚起の対象から除外する処理を行っている。   In addition, in such a vehicle periphery monitoring device, a vehicle peripheral device that visually displays an object that is likely to be a pedestrian is proposed in order to suppress unnecessary alerts to the driver of the vehicle. (See, for example, Patent Document 2). This apparatus extracts an object that may be a pedestrian from images obtained by two infrared cameras, and (1) whether the object has a characteristic that a pedestrian cannot have, and (2 ) As a determination condition whether or not it has an external feature of a predetermined artificial structure, if the object satisfies the determination condition, determine that it is an artificial structure, and perform a process of excluding it from the target of alerting Yes.

しかしながら、上記判定条件によって、対象物が人工構造物であるか否かを判定した場合、判定精度は高くなるが、上記(2)の判定は複雑な演算処理を伴うため、人工構造物か否かの判定時間が長くなるという不都合がある。そこで、上記(1)だけを行うことも考えられるが、上記(1)だけを行う場合には、人工構造物か否かの判定時間は短くなるが、判定精度が低くなるという不都合がある。
特開平11−328364号公報 特開2003−230134号公報
However, when it is determined whether or not the object is an artificial structure according to the above determination condition, the determination accuracy is high, but the determination of (2) involves complicated calculation processing, so There is an inconvenience that the determination time becomes longer. Therefore, it is conceivable to perform only the above (1). However, when only the above (1) is performed, the determination time as to whether or not it is an artificial structure is shortened, but there is a disadvantage that the determination accuracy is lowered.
Japanese Patent Laid-Open No. 11-328364 JP 2003-230134 A

本発明は、以上の不都合な点に鑑み、画像から抽出された対象物が人工構造物であるか否かを、効率的かつ精度良く判定することができる車両周辺監視装置を提供することをその課題としている。   In view of the above disadvantages, the present invention provides a vehicle periphery monitoring device that can efficiently and accurately determine whether or not an object extracted from an image is an artificial structure. It is an issue.

上記課題を解決するための本発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる画像から対象物を抽出する対象物抽出手段と、該対象物が人工構造物であるか否かを判定する人工構造物判定手段とを備えて、車両の周辺に存在する物体を監視する車両周辺監視装置であって、
前記画像から道路領域を識別する道路領域識別手段と、
前記画像から、前記道路領域に含まれレーンマークの位置に基づいて規定される領域である車道領域を識別する車道領域識別手段と
を備え、
前記人工構造物判定手段は、
前記対象物抽出手段によって、前記道路領域識別手段により識別された道路領域内で対象物が抽出された場合には第1の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、該道路領域外で対象物が抽出された場合には、該第1の人工構造物判定条件と異なる第2の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、
前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、人工構造物として少なくとも車両を含む第3の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、該車道領域外で対象物が抽出された場合には、人工構造物として少なくとも車両、自動販売機、街灯トランス、ブリンカーライトのいずれか1つを含む第4の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定することを特徴とする
Whether the vehicle periphery monitoring equipment of the present invention to solve the above problems, and the object extracting means for extracting an object from an image obtained by the onboard imaging unit in the vehicle, the object is an artificial structure A vehicle periphery monitoring device that includes an artificial structure determination means for determining whether or not, and monitors an object existing around the vehicle,
Road area identifying means for identifying a road area from the image;
Road area identification means for identifying a road area that is an area included in the road area and defined based on a position of a lane mark from the image ,
The artificial structure determination means includes
When the object is extracted in the road area identified by the road area identification means by the object extraction means, the object is an artificial structure based on the first artificial structure determination condition. If the object is extracted outside the road area, the object is artificially determined based on a second artificial structure determination condition different from the first artificial structure determination condition. Determine whether it is a structure ,
When an object is extracted in the road area identified by the road area identification means by the object extraction means, based on a third artificial structure determination condition including at least a vehicle as an artificial structure, When it is determined whether or not the object is an artificial structure and the object is extracted outside the roadway area, at least one of a vehicle, a vending machine, a streetlight transformer, and a blinker light is used as the artificial structure. It is characterized in that it is determined whether or not the object is an artificial structure based on a fourth artificial structure determination condition including one .

かかる本発明の車両周辺監視装置によれば、道路領域を識別する道路領域識別手段を備え、人工構造物判定手段は、画像から抽出された対象物が、該道路領域識別手段によって識別された道路領域内又は道路領域外において抽出されたか否かによって、第1の人工構造物判定条件と第2の人工構造物判定条件という相異なる判定条件に基づいて、該対象物が人工構造物であるか否かの判定を行う。ここで、道路領域内において存在する可能性のある人工構造物は限られることから、比較的簡易な判定条件に基づいて、対象物が人工構造物であるか否かを判定することができる。一方、道路領域外においては、様々な人工構造物が存在することから、ある程度複雑な条件で、対象物が人工構造物であるか否かを判定する必要があると考えられる。そのため、対象物が道路領域内で抽出されたか否かによって、第1の人工構造物判定条件と第2の人工構造物判定条件とを変えることで、画像から抽出された対象物が人工構造物であるか否かを、効率的かつ精度良く判定することができる。
また、かかる本発明の車両周辺監視装置によれば、車道領域を識別する車道領域識別手段を備え、人工構造物判定手段は、画像から抽出された対象物が、該車道領域識別手段によって識別された車道領域内で抽出された場合には、第3の人工構造物判定条件という新たな判定条件に基づいて、該対象物が人工構造物であるか否かの判定を行う。ここで、車道領域内においては、人工構造物が存在する可能性が低いことから、第3の人工構造物判定条件は簡易なものとすることができる。そのため、第3の人工構造物判定条件に基づいて、車道領域内で抽出された対象物が人工構造物であるか否かを効率的かつ精度良く判定することができる。
さらに、かかる本発明の車両周辺監視装置によれば、人工構造物判定手段は、画像から抽出された対象物が、前記道路領域内の前記車道領域識別手段により識別された車道領域外で抽出された場合には、第4の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かの判定を行う。ここで、道路領域内の車道領域外においては、存在する可能性のある人工構造物が限られることから、第4の人工構造物判定条件は比較的簡易なものとすることができる。そのため、第4の人工構造物判定条件に基づいて、道路領域内の車道領域外で抽出された対象物が人工構造物であるか否かをより効率的に判定することができる。
According to the vehicle periphery monitoring device of the present invention, the road area identifying means for identifying the road area is provided, and the artificial structure determining means is a road in which the object extracted from the image is identified by the road area identifying means. Whether the target object is an artificial structure based on different determination conditions of the first artificial structure determination condition and the second artificial structure determination condition, depending on whether or not it is extracted within the area or outside the road area Determine whether or not. Here, since the artificial structures that may exist in the road region are limited, it can be determined whether or not the object is an artificial structure based on relatively simple determination conditions. On the other hand, since various artificial structures exist outside the road region, it is considered necessary to determine whether or not the target object is an artificial structure under somewhat complicated conditions. Therefore, the object extracted from the image is changed to the artificial structure by changing the first artificial structure determination condition and the second artificial structure determination condition depending on whether or not the object is extracted in the road region. It can be determined efficiently and accurately.
Further, according to the vehicle periphery monitoring device of the present invention, the vehicle road area identifying means for identifying the road area is provided, and the artificial structure determining means is configured to identify the object extracted from the image by the road area identifying means. If it is extracted within the roadway region, it is determined whether or not the object is an artificial structure based on a new determination condition called a third artificial structure determination condition. Here, since there is a low possibility that an artificial structure exists in the roadway region, the third artificial structure determination condition can be simplified. Therefore, based on the third artificial structure determination condition, it can be determined efficiently and accurately whether or not the object extracted in the roadway region is an artificial structure.
Further, according to the vehicle periphery monitoring device of the present invention, the artificial structure determination means extracts the object extracted from the image outside the road area identified by the road area identification means in the road area. In the case where the target object is an artificial structure, it is determined based on the fourth artificial structure determination condition. Here, since the artificial structures that may exist outside the road area in the road area are limited, the fourth artificial structure determination condition can be made relatively simple. Therefore, based on the fourth artificial structure determination condition, it can be more efficiently determined whether or not the object extracted outside the road area in the road area is an artificial structure.

さらに、本発明の車両周辺監視装置において、前記撮像手段として、赤外画像を取得する赤外画像撮像手段を有し、前記道路領域識別手段は、前記赤外画像撮像手段によって取得された赤外画像のエッジ部を抽出するエッジ抽出処理を行い、該エッジ抽出処理によって抽出されたエッジ部により道路領域を識別することを特徴とする。   Furthermore, in the vehicle periphery monitoring device of the present invention, the imaging unit includes an infrared image imaging unit that acquires an infrared image, and the road region identification unit is an infrared image acquired by the infrared image imaging unit. An edge extraction process for extracting an edge part of an image is performed, and a road region is identified by the edge part extracted by the edge extraction process.

かかる本発明の車両周辺監視装置によれば、撮像手段として赤外画像撮像手段を備え、道路領域識別手段が、赤外画像撮像手段によって得られる赤外画像のエッジ部を抽出し、該エッジ部に基づいて道路領域の内外を区別して識別することで、道路領域を一定の確実性をもって識別することができる。   According to the vehicle periphery monitoring device of the present invention, the infrared image capturing unit is provided as the image capturing unit, and the road area identifying unit extracts an edge portion of the infrared image obtained by the infrared image capturing unit, and the edge unit The road area can be identified with certain certainty by distinguishing and identifying the inside and outside of the road area based on the above.

また、本発明の車両周辺監視装置において、前記人工構造物判定手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が前記道路領域内に位置するときに該対象物が該道路領域内で抽出されたと判定することを特徴とする。   In the vehicle periphery monitoring device of the present invention, the artificial structure determination unit detects a lower end portion of the object extracted from the image, and the object is detected when the lower end portion is located in the road area. Is extracted in the road area.

かかる本発明の車両周辺監視装置によれば、画像から抽出された対象物の下端部を検出し、該下端部が道路領域内に位置しているか否かによって、該対象物が道路領域内から抽出されたか否かを判定する。ここで、対象物の下端部は、例えば、該対象物の同一距離部分を抽出した領域のうち、画像上で下端に位置する画素部分として検出することができる。そして、対象物の下端部を基準に該対象物の位置を判定することにより、該対象物が道路領域の境界部分の近くに位置する場合にも、該対象物が道路領域内で抽出されたか否かを容易かつ確実に判定することができる。   According to the vehicle periphery monitoring device of the present invention, the lower end portion of the object extracted from the image is detected, and the object is detected from the road region depending on whether the lower end portion is located in the road region. It is determined whether or not it has been extracted. Here, the lower end portion of the target object can be detected as, for example, a pixel portion positioned at the lower end on the image in the region where the same distance portion of the target object is extracted. Whether or not the object is extracted in the road area even if the object is located near the boundary of the road area by determining the position of the object with reference to the lower end of the object. Whether or not can be determined easily and reliably.

さらに、本発明の車両周辺監視装置において、前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、前記人工構造物判定手段は、前記画像から抽出された対象物の実空間上の位置が、実空間上の前記道路領域の上方にあるときに該対象物が該道路領域内で抽出されたと判定することを特徴とする。   Furthermore, in the vehicle periphery monitoring device of the present invention, the vehicle periphery monitoring device further includes a position calculation unit that calculates a position in real space corresponding to the image portion included in the image, and the artificial structure determination unit is a target extracted from the image When the position of the object in the real space is above the road area in the real space, it is determined that the object has been extracted in the road area.

かかる本発明の車両周辺監視装置によれば、位置算出手段が、画像から抽出された対象物の実空間上の位置と道路領域の実空間上の領域範囲とを算出し、対象物の実空間上の位置が該実空間上の領域範囲上に位置しているか否かによって、該対象物が道路領域内から抽出されたか否かを判定する。これにより、例えば、画像から抽出された対象物の形状が、実空間における実際の形状に対して、その一部を欠いたものとなっている場合でも、該対象物が前記領域内で抽出されたか否かを正確に判定することができる。   According to the vehicle periphery monitoring apparatus of the present invention, the position calculating means calculates the position of the object extracted from the image in the real space and the area range of the road area in the real space, and the real space of the object. It is determined whether or not the object is extracted from the road area depending on whether or not the upper position is located on the area range in the real space. Thereby, for example, even when the shape of the object extracted from the image is a part lacking a part of the actual shape in the real space, the object is extracted in the region. It can be accurately determined whether or not.

本発明の車両周辺監視装置は、前記撮像手段として、可視画像を取得する可視画像撮像手段を備え、前記車道領域識別手段は、前記可視画像撮像手段によって取得された可視画像から車道のレーンマークを検出し、該レーンマークにより車道領域を識別することを特徴とする。   The vehicle periphery monitoring device according to the present invention includes, as the imaging unit, a visible image imaging unit that acquires a visible image, and the roadway area identifying unit adds a lane mark of a roadway from the visible image acquired by the visible image imaging unit. Detecting and identifying the road area by the lane mark.

かかる本発明の車両周辺監視装置によれば、撮像手段として可視画像撮像手段を備え、車道領域識別手段は、可視画像撮像手段によって得られる可視画像から車道領域の識別精度の高いレーンマークを検出し、該レーンマークに基づいて車道領域を識別する。このように、車道領域の識別精度の高いレーンマークにより、車道領域を精度良く識別することができる。   According to such a vehicle periphery monitoring device of the present invention, the visible image capturing unit is provided as the image capturing unit, and the road area identifying unit detects a lane mark with high identification accuracy of the road area from the visible image obtained by the visible image capturing unit. The road area is identified based on the lane mark. As described above, the road area can be identified with high accuracy by the lane mark having high identification accuracy of the road area.

本発明の車両周辺監視装置において、前記人工構造物判定手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が前記車道領域内に位置するときに該対象物が該車道領域内で抽出されたと判定することを特徴とする。   In the vehicle periphery monitoring device of the present invention, the artificial structure determination unit detects a lower end portion of the object extracted from the image, and the object is detected when the lower end portion is located in the roadway region. It is characterized by determining that it has been extracted within the roadway area.

かかる本発明の車両周辺監視装置によれば、画像から抽出された対象物の下端部を検出し、該下端部が車道領域内に位置しているか否かによって、該対象物が車道領域内から抽出されたか否かを判定する。ここで、対象物の下端部は、例えば、該対象物の同一距離部分を抽出した領域のうち、画像上で下端に位置する画素部分として検出することができる。そして、対象物の下端部を基準に該対象物の位置を判定することにより、該対象物が車道領域の境界部分の近くに位置する場合にも、該対象物が車道領域内で抽出されたか否かを容易かつ確実に判定することができる。   According to the vehicle periphery monitoring device of the present invention, the lower end of the object extracted from the image is detected, and the object is detected from the road area by determining whether the lower end is located in the road area. It is determined whether or not it has been extracted. Here, the lower end portion of the target object can be detected as, for example, a pixel portion positioned at the lower end on the image in the region where the same distance portion of the target object is extracted. Then, by determining the position of the object with reference to the lower end of the object, whether or not the object has been extracted in the road area even when the object is located near the boundary of the road area Whether or not can be determined easily and reliably.

本発明の車両周辺監視装置は、前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、前記人工構造物判定手段は、前記画像から抽出された対象物の実空間上の位置が、実空間上の前記車道領域の上方にあるときに該対象物が該車道領域内で抽出されたと判定することを特徴とする。   The vehicle periphery monitoring device of the present invention includes a position calculation unit that calculates a position in real space corresponding to an image portion included in the image, and the artificial structure determination unit is configured to detect an object extracted from the image. It is determined that the object is extracted in the road area when the position in the real space is above the road area in the real space.

かかる本発明の車両周辺監視装置によれば、位置算出手段が、画像から抽出された対象物の実空間上の位置と車道領域の実空間上の領域範囲とを算出し、対象物の実空間上の位置が該実空間上の領域範囲上に位置しているか否かによって、該対象物が車道領域内から抽出されたか否かを判定する。これにより、例えば、画像から抽出された対象物の形状が、実空間における実際の形状に対して、その一部を欠いたものとなっている場合でも、該対象物が前記領域内で抽出されたか否かを正確に判定することができる。   According to the vehicle periphery monitoring device of the present invention, the position calculating means calculates the position of the object extracted from the image in the real space and the area range of the roadway area in the real space, and the real space of the object. It is determined whether or not the object has been extracted from the roadway area depending on whether or not the upper position is located on the area range in the real space. Thereby, for example, even when the shape of the object extracted from the image is a part lacking a part of the actual shape in the real space, the object is extracted in the region. It can be accurately determined whether or not.

本発明の車両周辺監視装置において、
前記第1の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域内に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記第2の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域外に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記第3の人工構造物判定条件として、前記対象物の画像の特徴量と、前記車道領域内に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記第4の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域内の前記車道領域外に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記特定の人工構造物の特徴量として、車両、自動販売機、電柱、街灯トランス、ブリンカーライト、壁、樹木のうちの少なくともいずれか1つの特徴量が登録されていることを特徴とする。
In the vehicle periphery monitoring device of the present invention,
As the first artificial structure determination condition, the approximate level between the feature amount of the image of the object and the feature amount of a specific artificial structure that may exist in the road region is equal to or higher than a predetermined level. Is set,
As the second artificial structure determination condition, the approximate level between the feature amount of the image of the object and the feature amount of a specific artificial structure that may exist outside the road region is equal to or higher than a predetermined level. Is set,
As the third artificial structure determination condition, the approximate level between the feature amount of the image of the object and the feature amount of a specific artificial structure that may exist in the roadway region is equal to or higher than a predetermined level. Is set,
As the fourth artificial structure determination condition, there is an approximate level between the feature amount of the image of the object and the feature amount of a specific artificial structure that may exist outside the road area in the road area. Set to be above a certain level,
As the feature amount of the specific artificial structure, at least one feature amount of a vehicle, a vending machine, a utility pole, a streetlight transformer, a blinker light, a wall, and a tree is registered.

かかる本発明の車両周辺監視装置によれば、前記車道領域外から抽出される典型的な人工構造物であって、歩行者との区別がし難い自動販売機、電柱、街灯トランス、ブリンカーライト、壁、樹木を、前記特定の人工構造物の画像として登録しておくことで、前記第1〜第4の人工構造物判定条件に基づく人工構造物判定の判定精度を向上させることができる。 According to the vehicle periphery monitoring device of the present invention, a typical artificial structure extracted from the outside of the roadway region, which is difficult to distinguish from a pedestrian, a telephone pole, a streetlight transformer, a blinker light, By registering walls and trees as images of the specific artificial structure, it is possible to improve the determination accuracy of the artificial structure determination based on the first to fourth artificial structure determination conditions.

本発明の一実施形態を以下に図1〜図12を参照して説明する。   An embodiment of the present invention will be described below with reference to FIGS.

まず、図1および図2を参照して、本実施形態の車両の周辺監視装置のシステム構成を説明する。図1は該周辺監視装置の全体構成を示すブロック図、図2は該周辺監視装置を搭載した車両(自車両)の外観を示す斜視図である。なお、図2では、周辺監視装置の一部の構成要素の図示を省略している。   First, with reference to FIG. 1 and FIG. 2, the system configuration | structure of the vehicle periphery monitoring apparatus of this embodiment is demonstrated. FIG. 1 is a block diagram showing the overall configuration of the periphery monitoring device, and FIG. 2 is a perspective view showing the appearance of a vehicle (own vehicle) equipped with the periphery monitoring device. In FIG. 2, illustration of some components of the periphery monitoring device is omitted.

図1および図2を参照して、本実施形態の周辺監視装置は、画像処理ユニット1を備える。この画像処理ユニット1には、自車両10の前方の画像を撮像する撮像手段としての2つの赤外線カメラ2R,2Lと1つの可視カメラ2´とが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを検出するヨーレートセンサ3と、自車両10の走行速度(車速)を検出する車速センサ4と、自車両10のブレーキ操作の有無を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な注意喚起情報を出力するためのスピーカ6と、赤外線カメラ2R,2Lにより撮像された画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。   With reference to FIGS. 1 and 2, the periphery monitoring device of the present embodiment includes an image processing unit 1. The image processing unit 1 is connected with two infrared cameras 2R, 2L and one visible camera 2 'as imaging means for capturing an image in front of the host vehicle 10, and the traveling state of the host vehicle 10 is also monitored. As sensors to detect, a yaw rate sensor 3 that detects the yaw rate of the host vehicle 10, a vehicle speed sensor 4 that detects the traveling speed (vehicle speed) of the host vehicle 10, and a brake sensor 5 that detects whether or not the host vehicle 10 is braked. Is connected. Further, the image processing unit 1 has a speaker 6 for outputting auditory alert information such as sound, and a display for displaying images taken by the infrared cameras 2R and 2L and visual alert information. Device 7 is connected.

なお、赤外線カメラ2R,2Lが本発明における赤外画像撮像手段に相当し、可視カメラ2´が本発明における可視画像撮像手段に相当する。また、赤外線カメラ2R,2Lと可視カメラ2´とは、本発明の撮像手段に相当する。   The infrared cameras 2R and 2L correspond to the infrared image capturing unit in the present invention, and the visible camera 2 'corresponds to the visible image capturing unit in the present invention. Further, the infrared cameras 2R and 2L and the visible camera 2 ′ correspond to the imaging means of the present invention.

画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM等を有する)、画像メモリなどを含む電子回路により構成され、赤外線カメラ2R,2L、可視カメラ2´、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化されて、マイクロコンピュータに入力される。そして、マイクロコンピュータは、入力されたデータを基に、人(歩行者、自転車に乗っている者)などの対象物を検出し、検出した対象物が所定の注意喚起要件を満す場合にスピーカ6や表示装置7により運転者に注意喚起を発する処理を実行する。   Although not shown in detail, the image processing unit 1 includes electronic circuits including an A / D conversion circuit, a microcomputer (having a CPU, a RAM, a ROM, and the like), an image memory, and the like. The infrared cameras 2R, 2L, Analog signals output from the visible camera 2 ′, the yaw rate sensor 3, the vehicle speed sensor 4, and the brake sensor 5 are converted into digital data by the A / D conversion circuit and input to the microcomputer. The microcomputer detects an object such as a person (pedestrian or person riding a bicycle) based on the input data, and the speaker detects when the detected object satisfies a predetermined alerting requirement. 6 or a display device 7 is used to execute a process for alerting the driver.

なお、画像処理ユニット1は、本発明における道路領域識別手段、対象物抽出手段、人工構造物判定手段、車道領域識別手段、位置算出手段としての機能を備えている。そして、前記マイクロコンピュータに、車両周辺監視用プログラムを実行させることにより、該コンピュータは、本発明の道路領域識別手段、対象物抽出手段、人工構造物判定手段として機能する The image processing unit 1 has functions as road area identification means, object extraction means, artificial structure determination means, roadway area identification means, and position calculation means in the present invention. Then, the microcomputer, by executing the car both periphery monitoring program, the computer is a road area identifying means of the present invention, the object extraction unit, functions as artificial structure determination unit.

図2に示すように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、自車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それらの位置は、自車両10の車幅方向の中心に対して左右対称である。そして、赤外線カメラ2R,2Lは、それらの光軸が互いに平行に自車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。なお、赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。   As shown in FIG. 2, the infrared cameras 2 </ b> R and 2 </ b> L are attached to the front portion (the front grill portion in the figure) of the host vehicle 10 in order to image the front of the host vehicle 10. In this case, the infrared cameras 2R and 2L are respectively disposed at a position on the right side and a position on the left side of the center of the host vehicle 10 in the vehicle width direction. These positions are symmetrical with respect to the center of the host vehicle 10 in the vehicle width direction. The infrared cameras 2R and 2L are fixed so that their optical axes extend in parallel in the front-rear direction of the host vehicle 10 and the heights of the optical axes from the road surface are equal to each other. . The infrared cameras 2R and 2L have sensitivity in the far-infrared region, and the higher the temperature of the object to be imaged, the higher the level of the output video signal (the luminance of the video signal increases). have.

また、可視カメラ2´は、自車両10のルームミラー(図示せず)の前方に、撮像方向を自車両10の前方に向けて取り付けられている。可視カメラ2´は、可視光領域で撮像可能なCCDカメラ等によって構成され、それにより撮像される物体の照度が高いほど、出力される映像信号のレベルが高くなる(映像信号の画像の輝度が高くなる)特性を有している。   Further, the visible camera 2 ′ is attached in front of a room mirror (not shown) of the host vehicle 10 with the imaging direction facing the front of the host vehicle 10. The visible camera 2 ′ is configured by a CCD camera or the like that can capture an image in the visible light region, and the higher the illuminance of the object to be imaged, the higher the level of the output video signal (the brightness of the image of the video signal is (Becomes higher).

さらに、本実施形態では、表示装置7として、自車両10のフロントウィンドウに画像情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7として、HUD7aの代わりに、もしくは、HUD7aと共に、自車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを用いてもよい。   Further, in the present embodiment, the display device 7 includes a head-up display 7a (hereinafter referred to as HUD 7a) that displays image information on the front window of the host vehicle 10. In addition, as a display device 7, instead of the HUD 7a, or together with the HUD 7a, a display provided integrally with a meter for displaying a traveling state such as the vehicle speed of the host vehicle 10 or a display provided in an in-vehicle navigation device is provided. It may be used.

次に、本実施形態の周辺監視装置の全体的動作を図3のフローチャートを参照して説明する。   Next, the overall operation of the periphery monitoring device of this embodiment will be described with reference to the flowchart of FIG.

本実施形態の画像処理ユニット1は、図3を参照して、先ず、STEP100で可視画像または赤外線画像から車道領域および道路領域を識別して設定する「車道・道路領域識別処理」を行う。そして、道路領域を設定できたときには、フラグ(j)をセット(j=1)し、道路領域を設定できなかったときには、フラグ(j)をリセット(j=0)する。   With reference to FIG. 3, the image processing unit 1 according to the present embodiment first performs “roadway / road area identification processing” that identifies and sets a roadway area and a road area from a visible image or an infrared image in STEP 100. When the road area can be set, the flag (j) is set (j = 1), and when the road area cannot be set, the flag (j) is reset (j = 0).

次いで、STEP200で赤外線画像から対象物を抽出する「対象物抽出処理」を行う。   Next, in STEP 200, “object extraction processing” for extracting the object from the infrared image is performed.

そして、STEP300では、「対象物抽出処理」で対象物が抽出されたか否かを判断し、抽出されたときはSTEP400に進んで、フラグ(j)の値に基づいて、道路領域が設定されているか否かを判断する。   Then, in STEP 300, it is determined whether or not the object has been extracted in the “object extraction process”. When the object has been extracted, the process proceeds to STEP 400, where the road area is set based on the value of the flag (j). Determine whether or not.

一方、STEP300において、対象物が抽出されなかったときは、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。   On the other hand, if no object is extracted in STEP 300, the process returns to STEP 100, and the processes after the “roadway / road area identification process” are executed again.

STEP400において、道路領域が設定されているとき(j=1のとき)には、STEP500に進んで、対象物が道路領域内から抽出されたか否かによって、相異なる判定条件に基づいて人工構造物判定を行う「人工構造物判定処理(I)」を実行し、STEP700に進む。   In STEP 400, when the road area is set (when j = 1), the process proceeds to STEP 500, and the artificial structure is based on different judgment conditions depending on whether or not the object is extracted from the road area. The “artificial structure determination process (I)” for performing the determination is executed, and the process proceeds to STEP 700.

一方、STEP400において、道路領域が設定されていないとき(j=0のとき)には、STEP600に分岐して、道路領域の内外を区別せずに人工構造物判定を行う「人工構造物判定処理(II)」を実行し、STEP700に進む。   On the other hand, in STEP 400, when the road area is not set (when j = 0), the process branches to STEP 600 to perform the artificial structure determination without distinguishing the inside and outside of the road area. (II) "is executed, and the process proceeds to STEP700.

なお、「人工構造物判定処理(I)」および「人工構造物判定処理(II)」で、対象物が人工構造物であると判定された場合には、フラグ(k)をセット(k=1)し、対象物が人工構造物でないと判定された場合には、フラグ(k)をリセット(k=0)する。   In addition, when it is determined in the “artificial structure determination process (I)” and the “artificial structure determination process (II)” that the object is an artificial structure, the flag (k) is set (k = 1) If it is determined that the object is not an artificial structure, the flag (k) is reset (k = 0).

STEP700では、STEP500又はSTEP600の人工構造物判定の結果を示すフラグ(k)の値に基づいて、対象物が人工構造物であるか否かを判断する。   In STEP 700, based on the value of the flag (k) indicating the result of the artificial structure determination in STEP 500 or STEP 600, it is determined whether or not the object is an artificial structure.

そして、STEP700において、対象物が人工構造物でないと判断された場合(k=0のとき)には、STEP800に進んで、対象物が歩行者であるか否かが判定される。なお、STEP800の歩行者判定の処理は、前記特許文献2の図5のSTEP34の処理と同じであるので詳細な説明を省略するが、対象物の形状や大きさ、輝度分散等の特徴から、該対象物が歩行者的特徴を有している否かを判断して、歩行者であるか否かを判定する。   In STEP 700, when it is determined that the object is not an artificial structure (when k = 0), the process proceeds to STEP 800, where it is determined whether the object is a pedestrian. Note that the pedestrian determination process of STEP 800 is the same as the process of STEP 34 of FIG. 5 of Patent Document 2 and will not be described in detail. However, from the characteristics such as the shape and size of the target object and luminance dispersion, It is determined whether or not the object has a pedestrian characteristic, and it is determined whether or not the object is a pedestrian.

一方、STEP700において、対象物が人工構造物であると判断された場合(k=1のとき)には、該対象物は注意喚起の対象ではないと判断し、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。   On the other hand, when it is determined in STEP 700 that the target object is an artificial structure (when k = 1), it is determined that the target object is not a target for alerting, and the process returns to STEP 100 to “Waveway / Road”. The processing following the “region identification processing” is executed again.

さらに、STEP800において、対象物が歩行者的特徴を有していると判定された場合には、STEP900に進んで、該対象物と自車両10との接触の可能性が判断される。なお、STEP900の接触の可能性判断は、特許文献2の図5(STEP31〜33)に記載されている処理と同じであるので、本明細書での詳細な説明は省略するが、対象物が自車両10の前方の接近判定領域に存在するとき、および、所定の移動ベクトルを有して対象物が接近判定領域に進入するときに、接触の可能性があると判定される。   Furthermore, when it is determined in STEP 800 that the object has pedestrian characteristics, the process proceeds to STEP 900, and the possibility of contact between the object and the host vehicle 10 is determined. Note that the determination of the possibility of contact in STEP 900 is the same as the processing described in FIG. 5 (STEPs 31 to 33) of Patent Document 2, and thus detailed description in this specification is omitted. When it exists in the approach determination area ahead of the host vehicle 10 and when the object enters the approach determination area with a predetermined movement vector, it is determined that there is a possibility of contact.

一方、STEP800において、対象物が歩行者的特徴を有していないと判定された場合には、該対象物は注意喚起の対象ではないと判断し、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。   On the other hand, if it is determined in STEP 800 that the object does not have a pedestrian feature, it is determined that the object is not a target for alerting, and the process returns to STEP 100 to execute “roadway / road area identification processing”. The following processing is executed again.

そして、STEP900において、対象物と自車両10との接触の可能性があると判定された場合には、STEP1000に進んで、実際の注意喚起を行なうべきか否かを判定する。なお、STEP1000の実際の注意喚起を行なうべきか否かの判定は、前記特許文献2の図3(STEP18)に記載されている処理と同じであるので、本明細書での詳細な説明は省略するが、自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、注意喚起の出力を行うか否かが判定される。   If it is determined in STEP 900 that there is a possibility of contact between the target object and the host vehicle 10, the process proceeds to STEP 1000 to determine whether or not actual alerting should be performed. Note that the determination as to whether or not the actual alerting in STEP 1000 should be performed is the same as the processing described in FIG. 3 (STEP 18) of Patent Document 2, and therefore detailed description in this specification is omitted. However, by determining whether or not the driver of the host vehicle 10 is performing a brake operation, it is determined whether or not a warning output is to be performed.

一方、STEP900において、対象物と自車両10との接触の可能性が低いと判定された場合には、該対象物は注意喚起の対象ではないと判断し、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。   On the other hand, if it is determined in STEP 900 that the possibility of contact between the target object and the host vehicle 10 is low, it is determined that the target object is not a target for alerting, and the process returns to STEP 100 and the “roadway / road area” The process following the “identification process” is executed again.

さらに、STEP1000において、注意喚起を行う必要があると判定された場合には、STP1100に進んで、注意喚起を出力する。具体的には、スピーカ6を介して音声による注意喚起を出力するとともに、画像表示装置7の基準画像の中に対象物の画像を強調的に表示し、該対象物に対する運転者の注意を喚起する。そして、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。   Furthermore, if it is determined in STEP 1000 that it is necessary to call attention, the process proceeds to STP 1100 and outputs a warning. Specifically, a voice alert is output via the speaker 6 and an image of the object is highlighted in the reference image of the image display device 7 to alert the driver to the object. To do. Then, the process returns to STEP 100 and the processes after the “roadway / road area identification process” are executed again.

一方、STEP1000において、実際の注意喚起を行う必要がないと判定された場合には、注意喚起出力を行うことなく、STEP100に戻って「車道・道路領域識別処理」以下の処理を再び実行する。   On the other hand, if it is determined in STEP 1000 that there is no need to perform actual alerting, the process returns to STEP 100 without executing the alerting output, and the processing below the “roadway / road area identification process” is executed again.

以上が、本実施形態の周辺監視装置の全体的動作である。   The above is the overall operation of the periphery monitoring device of the present embodiment.

次に、図4に示したフローチャートに従って、「車道・道路領域識別処理」の具体的な内容について説明する。   Next, specific contents of the “roadway / road area identification process” will be described with reference to the flowchart shown in FIG.

まず、画像処理ユニット1は、可視カメラ2´により可視画像を取得する(STEP101)。ここで、取得される可視画像は、可視カメラ2´の出力信号をA/D変換して得られるグレースケール画像であり、画像メモリに格納される。   First, the image processing unit 1 acquires a visible image by the visible camera 2 ′ (STEP 101). Here, the acquired visible image is a grayscale image obtained by A / D converting the output signal of the visible camera 2 ′, and is stored in the image memory.

続けて、可視画像上で白線等の走行区分線(レーンマーク)を検出するレーンマーク検出を行う(STEP102)。具体的には、可視画像におけるエッジ点を微分フィルタ等により抽出し、該エッジ点から白線等の走行区分線に相当する直線成分をレーンマークとして検出する。   Subsequently, lane mark detection is performed to detect a travel line (lane mark) such as a white line on the visible image (STEP 102). Specifically, an edge point in the visible image is extracted by a differential filter or the like, and a straight line component corresponding to a traveling division line such as a white line is detected as a lane mark from the edge point.

例えば、STEP101で、図5(a)に示した可視画像が取得された場合、該可視画像に、微分処理を施してエッジ画像を生成し、該エッジ画像から周知のHough(ハフ)変換により、走行区分線に相当する直線成分を抽出する。そして、白線等の走行区分線に相当する直線成分が抽出されたときは、該直線成分をレーンマークとして検出することにより、図5(b)に丸印で示したように、レーンマークを検出することができる。   For example, in STEP 101, when the visible image shown in FIG. 5A is acquired, the visible image is subjected to a differentiation process to generate an edge image, and the edge image is subjected to a well-known Hough transformation. A straight line component corresponding to the travel line is extracted. When a straight line component corresponding to a travel line such as a white line is extracted, the lane mark is detected as indicated by a circle in FIG. 5B by detecting the straight line component as a lane mark. can do.

次いで、画像処理ユニット1は、STEP102で、レーンマークが検出されたか否かを判定する(STEP103)。   Next, the image processing unit 1 determines whether or not a lane mark is detected in STEP 102 (STEP 103).

そして、レーンマークが検出されたとき(STEP103の判断結果がYESとなる場合)は、STEP104に進み、STEP102で検出されたレーンマークの位置に基づいて、車道領域を設定する。そして、STEP105に進んで、フラグiをセット(i=1)する。   When a lane mark is detected (when the determination result in STEP 103 is YES), the process proceeds to STEP 104, and a road area is set based on the position of the lane mark detected in STEP 102. Then, proceeding to STEP 105, the flag i is set (i = 1).

一方、STEP103で、レーンマークが検出されなかったと判定された場合(STEP103の判断結果がNOとなる場合)には、STEP106に分岐し、フラグiをリセット(i=0)する。   On the other hand, when it is determined in STEP 103 that no lane mark has been detected (when the determination result in STEP 103 is NO), the process branches to STEP 106 and the flag i is reset (i = 0).

フラグiがセットまたはリセットされると(STEP105,106)、画像処理ユニット1は、赤外線カメラ2R、2Lにより赤外線画像を取得する(STEP107)。赤外線画像は、赤外線カメラ2R,2Lのそれぞれの出力信号である赤外線画像をA/D変換して得られるグレースケール画像であり、画像メモリに格納される。なお、以降、赤外線カメラ2Rから得られた画像を右画像、赤外線カメラ2Lから得られた画像を左画像といい、特に、右画像を基準画像という。また、基準画像は、本実施形態では右画像であるが、左画像としてもよい。   When the flag i is set or reset (STEPs 105 and 106), the image processing unit 1 acquires an infrared image by the infrared cameras 2R and 2L (STEP 107). The infrared image is a grayscale image obtained by A / D converting the infrared image that is the output signal of each of the infrared cameras 2R and 2L, and is stored in the image memory. Hereinafter, an image obtained from the infrared camera 2R is referred to as a right image, an image obtained from the infrared camera 2L is referred to as a left image, and in particular, the right image is referred to as a reference image. In addition, the reference image is a right image in the present embodiment, but may be a left image.

続けて、画像処理ユニット1は、該赤外線画像から道路領域を検出する(STEP108)。具体的には、前記基準画像におけるエッジ点を微分フィルタ等により抽出し、該エッジ点から自車両10の前方領域において道路領域を検出する。   Subsequently, the image processing unit 1 detects a road area from the infrared image (STEP 108). Specifically, an edge point in the reference image is extracted by a differential filter or the like, and a road area is detected in a front area of the host vehicle 10 from the edge point.

例えば、STEP107で、図6(a)に示した赤外線画像が基準画像として取得された場合、前述のSTEP102におけるレーンマークの検出と同様、基準画像に微分処理を施してエッジ画像を生成し、該エッジ画像から周知のHough(ハフ)変換により、道路領域の端部に相当する直線成分を抽出する。そして、道路領域の端部に相当する直線成分が抽出されたときは、該直線成分を道路領域の端部として検出することにより、図6(b)に丸印で示したように、道路領域を検出することができる。   For example, when the infrared image shown in FIG. 6A is acquired as a reference image in STEP 107, as in the lane mark detection in STEP 102 described above, the reference image is subjected to a differentiation process to generate an edge image. A straight line component corresponding to the end of the road region is extracted from the edge image by a well-known Hough transform. Then, when a straight line component corresponding to the end of the road area is extracted, the road area is detected as indicated by a circle in FIG. 6B by detecting the straight line component as the end of the road area. Can be detected.

次いで、画像処理ユニット1は、STEP108で道路領域が検出されたか否かを判定する(STEP109)。   Next, the image processing unit 1 determines whether or not a road area is detected in STEP 108 (STEP 109).

そして、道路領域が検出されたとき(STEP109の判断結果がYESとなる場合)は、STEP108によって検出された道路領域の端部位置の内側を道路領域として設定する(STEP110)。そして、STEP111に進んで、フラグjをセット(j=1)して、「車道・道路領域識別処理」を終了する。   When the road area is detected (when the determination result in STEP 109 is YES), the inside of the end position of the road area detected in STEP 108 is set as the road area (STEP 110). Then, the process proceeds to STEP 111, the flag j is set (j = 1), and the “roadway / road area identification process” is terminated.

一方、道路領域が検出されなかったとき(STEP109の判断結果がNOとなる場合)は、STEP112に分岐して、フラグjをリセット(j=0)して、「車道・道路領域識別処理」を終了する。   On the other hand, when the road area is not detected (when the determination result in STEP 109 is NO), the process branches to STEP 112, the flag j is reset (j = 0), and the “roadway / road area identification process” is performed. finish.

なお、画像処理ユニット1によりSTEP101〜106の処理を実行する構成が、本発明の車道領域識別手段に相当し、STEP107〜112の処理を実行する構成が、本発明の道路領域識別手段に相当する In addition, the structure which performs the process of STEP101-106 by the image processing unit 1 corresponds to the road area identification means of this invention, and the structure which performs the process of STEP107-112 corresponds to the road area identification means of this invention. .

次に、図7に示したフローチャートに従って、「対象物抽出処理」(図3のSTEP200)の具体的な内容について説明する。   Next, the specific contents of the “object extraction process” (STEP 200 in FIG. 3) will be described according to the flowchart shown in FIG.

まず、画像処理ユニット1は、赤外線カメラ2R、2Lにより赤外線画像を取得する(STEP201)。   First, the image processing unit 1 acquires an infrared image by the infrared cameras 2R and 2L (STEP 201).

次いで、画像処理ユニット1は、前記基準画像(右画像)を2値化する(STEP202)。この2値化処理は、基準画像の各画素の輝度値を所定の輝度閾値と比較し、基準画像のうちの、該所定の輝度閾値よりも高い輝度値を有する領域(比較的明るい領域)を「1」(白)とし、該輝度閾値よりも低い輝度値を有する領域(比較的暗い領域)を「0」(黒)とする処理である。以降、この2値化処理により得られる画像(白黒画像)を2値化画像という。そして、この2値化画像のうちの、「1」とされる領域を高輝度領域という。なお、この2値化画像は、グレースケール画像(右画像および左画像)とは別に画像メモリに記憶される。   Next, the image processing unit 1 binarizes the reference image (right image) (STEP 202). In this binarization process, the luminance value of each pixel of the reference image is compared with a predetermined luminance threshold value, and an area (relatively bright area) having a luminance value higher than the predetermined luminance threshold value in the reference image. This is a process of setting “1” (white) and setting an area having a luminance value lower than the luminance threshold (a relatively dark area) to “0” (black). Hereinafter, an image (monochrome image) obtained by the binarization process is referred to as a binarized image. In the binarized image, an area “1” is referred to as a high luminance area. The binarized image is stored in the image memory separately from the grayscale image (right image and left image).

次に、画像処理ユニット1は、前記2値化画像に対してSTEP203〜205の処理を実行し、該2値化画像から対象物(より正確には対象物に対応する画像部分)を抽出する。すなわち、前記2値化画像の高輝度領域を構成する画素群を、基準画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)に延在するラインに分類し、その各ラインを、その位置(基準画像上での2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換する(STEP203)。そして、このランレングスデータにより表されるラインのうちの、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)を付し(STEP204)、そのライン群のそれぞれを対象物として抽出する(STEP205)。   Next, the image processing unit 1 performs the processing of STEPs 203 to 205 on the binarized image, and extracts an object (more precisely, an image portion corresponding to the object) from the binarized image. . That is, the pixel group constituting the high luminance region of the binarized image is classified into lines having a width of one pixel in the vertical direction (y direction) of the reference image and extending in the horizontal direction (x direction). Then, each line is converted into run-length data composed of coordinates and length (number of pixels) of the position (two-dimensional position on the reference image) (STEP 203). Of the lines represented by the run length data, labels (identifiers) are attached to each of the line groups that overlap in the vertical direction of the reference image (STEP 204), and each of the line groups is extracted as an object. (STEP 205).

なお、STEP203〜205の処理により抽出される対象物には、人(歩行者)だけでなく、他車両などの人工構造物なども含まれる。また、同一の物体の複数の局所部分が対象物として抽出される場合もある。   Note that the objects extracted by the processing of STEPs 203 to 205 include not only people (pedestrians) but also artificial structures such as other vehicles. In addition, a plurality of local parts of the same object may be extracted as the target object.

次いで、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)と面積と外接四角形の縦横比とを求める(STEP206)。面積は、ランレングスデータの長さを同一対象物について積算することにより算出し、重心の座標は、面積をx方向に2等分する線のx座標及びy方向に2等分する線のy座標として算出し、縦横比は、ランレングスデータ化したラインの外接四角形の縦横比として算出する。なお、重心Gの位置は、外接四角形の重心位置で代用してもよい。   Next, the image processing unit 1 obtains the position of the center of gravity of each object extracted as described above (position on the reference image), the area, and the aspect ratio of the circumscribed rectangle (STEP 206). The area is calculated by accumulating the length of the run length data for the same object, and the coordinates of the center of gravity are the x coordinate of the line that bisects the area in the x direction and the y of the line that bisects the y direction. Calculated as coordinates, the aspect ratio is calculated as the aspect ratio of the circumscribed rectangle of the line converted to run length data. Note that the position of the center of gravity G may be substituted by the position of the center of gravity of the circumscribed rectangle.

次に、画像処理ユニット1は、前記STEP205で抽出した対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の同一対象物の認識を行なう(STEP207)。この処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP205の処理により対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP205の処理により対象物Bが抽出されたとしたとき、それらの対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの対象物A,Bの2値化画像上での形状やサイズ、基準画像(グレースケール画像)上での輝度分布の相関性などに基づいて行なえばよい。そして、それらの対象物A,Bが同一であると判定された場合に、時刻k+1で抽出した対象物Bのラベル(STEP204で付したラベル)が対象物Aのラベルと同じラベルに変更される。   Next, the image processing unit 1 tracks the target object extracted in STEP 205, that is, recognizes the same target object every calculation processing period of the image processing unit 1 (STEP 207). In this process, when the object A is extracted by the processing of STEP 205 at a time (discrete system time) k in a certain arithmetic processing cycle, and the object B is extracted by the processing of STEP 205 at time k + 1 of the next arithmetic processing cycle. The identity of these objects A and B is determined. This identity determination may be performed based on, for example, the shape and size of the objects A and B on the binarized image, the correlation of the luminance distribution on the reference image (grayscale image), and the like. . When it is determined that the objects A and B are the same, the label of the object B extracted at time k + 1 (the label attached in STEP 204) is changed to the same label as the label of the object A. .

次いで、画像処理ユニット1は、前記車速センサ4およびヨーレートセンサ5の出力(車速の検出値およびヨーレートの検出値)を読込む(STEP208)。なお、このSTEP208では、読込んだヨーレートの検出値を積分することにより、自車両10の回頭角(方位角)の算出も行なわれる。   Next, the image processing unit 1 reads the outputs (vehicle speed detection value and yaw rate detection value) of the vehicle speed sensor 4 and the yaw rate sensor 5 (STEP 208). In STEP 208, the turning angle (azimuth angle) of the host vehicle 10 is also calculated by integrating the read detection value of the yaw rate.

一方、画像処理ユニット1は、STEP207,208の処理と並行して、STEP210の処理を実行する。このSTEP210〜212の処理は、STEP205で抽出した各対象物の自車両10からの距離を求める処理である。その処理を概略的に説明すると、まず、前記基準画像のうち、各対象物に対応する領域(例えば該対象物の外接四角形の領域)を探索画像R1として抽出する(STEP210)。   On the other hand, the image processing unit 1 executes the processing of STEP 210 in parallel with the processing of STEPs 207 and 208. The processing in STEPs 210 to 212 is processing for obtaining the distance from the subject vehicle 10 of each object extracted in STEP 205. The process is schematically described. First, an area corresponding to each object (for example, a circumscribed square area of the object) is extracted as a search image R1 from the reference image (STEP 210).

次いで、左画像中で、右画像の探索画像R1に含まれる対象物と同じ対象物を探索するための領域である探索領域R2が左画像に設定され、その探索領域R2内で、探索画像R1との相関性が最も高い領域が、探索画像R1に対応する画像(探索画像R1と同等の画像)である対応画像R3として抽出される(STEP211)。この場合、左画像の探索領域R2のうち、右画像の探索画像R1の輝度分布に最も一致する輝度分布を有する領域が対応画像R3として抽出される。なお、STEP211の処理は、2値化画像ではなく、グレースケール画像を使用して行なわれる。   Next, in the left image, a search area R2 that is an area for searching for the same object as the object included in the search image R1 of the right image is set as the left image, and the search image R1 is set in the search area R2. Is extracted as a corresponding image R3 that is an image corresponding to the search image R1 (an image equivalent to the search image R1) (STEP 211). In this case, an area having a luminance distribution that most closely matches the luminance distribution of the search image R1 of the right image is extracted as the corresponding image R3 from the search area R2 of the left image. Note that the processing of STEP 211 is performed using a grayscale image, not a binarized image.

次いで、右画像における前記探索画像R1の重心の横方向位置(x方向位置)と、左画像における前記対応画像R3の重心の横方向位置(x方向位置)との差分の画素数を視差Δdとして算出し、その視差Δdを用いて、対象物の自車両10からの距離z(自車両10の前後方向における距離)が算出される(STEP212)。距離zは、次式(1)により算出される。   Next, the number of pixels of the difference between the lateral position (x-direction position) of the center of gravity of the search image R1 in the right image and the lateral position (x-direction position) of the center of gravity of the corresponding image R3 in the left image is defined as parallax Δd. The distance z of the object from the host vehicle 10 (the distance in the front-rear direction of the host vehicle 10) is calculated using the parallax Δd (STEP 212). The distance z is calculated by the following equation (1).


z=(f×D)/(Δd×p) ……(1)

なお、fは赤外線カメラ2R,2Lの焦点距離、Dは赤外線カメラ2R,2Lの基線長(光軸の間隔)、pは画素ピッチ(1画素分の長さ)である。

z = (f × D) / (Δd × p) (1)

Note that f is the focal length of the infrared cameras 2R and 2L, D is the base length (interval of the optical axis) of the infrared cameras 2R and 2L, and p is the pixel pitch (length of one pixel).

以上がSTEP210〜212の処理の概要である。なお、STEP210〜212の処理は、STEP205で抽出された各対象物に対して実行される。   The above is the outline of the processing of STEPs 210 to 212. Note that the processing in STEPs 210 to 212 is executed for each object extracted in STEP 205.

STEP208およびSTEP212の処理の終了後、画像処理ユニット1は、次に、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP213)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向およびY方向は、それぞれ自車両10の車幅方向、上下方向であり、これらのX方向およびY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、対象物の実空間位置(X,Y,Z)は次式(2)、(3)、(4)により算出される。   After the processing of STEP 208 and STEP 212 is completed, the image processing unit 1 next calculates a real space position that is a position (relative position with respect to the host vehicle 10) of each object in the real space (STEP 213). Here, as shown in FIG. 2, the real space position is a position (X, Y, Z) in the real space coordinate system (XYZ coordinate system) set with the midpoint of the attachment position of the infrared cameras 2R, 2L as the origin. ). The X direction and the Y direction of the real space coordinate system are the vehicle width direction and the vertical direction of the host vehicle 10, respectively. These X direction and Y direction are the x direction (lateral direction) and y of the right image and the left image, respectively. It is the same direction as the direction (vertical direction). The Z direction in the real space coordinate system is the front-rear direction of the host vehicle 10. Then, the real space position (X, Y, Z) of the object is calculated by the following equations (2), (3), (4).


X=x×z×p/f ……(2)
Y=y×z×p/f ……(3)
Z=z ……(4)

なお、x、yは基準画像上での対象物のx座標、y座標である。

X = x × z × p / f (2)
Y = y × z × p / f (3)
Z = z (4)

Note that x and y are the x-coordinate and y-coordinate of the object on the reference image.

次いで、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを上記式(2)により求めた値から、前記STEP208で求めた回頭角の時系列データに応じて補正する(STEP214)。これにより、最終的に対象物の実空間位置が求められる。以降の説明では、「対象物の実空間位置」は、この補正を施した対象物の実空間位置を意味する。   Next, the image processing unit 1 compensates for the influence of the change in the turning angle of the host vehicle 10 and increases the accuracy of the real space position of the target object, so that the real space position (X, Y, Z) of the target object is increased. The position X in the X direction is corrected according to the time-series data of the turning angle obtained in STEP 208 from the value obtained by the above formula (2) (STEP 214). Thereby, the real space position of the object is finally obtained. In the following description, “the real space position of the object” means the real space position of the object subjected to this correction.

次に、画像処理ユニット1は、対象物の自車両10に対する移動ベクトルを求める(STEP215)。具体的には、同一対象物についての実空間位置の、所定期間(現在時刻から所定時間前までの期間)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(点)から、現在時刻における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。この移動ベクトルは、対象物の自車両10に対する相対速度ベクトルに比例する。   Next, the image processing unit 1 obtains a movement vector of the object relative to the host vehicle 10 (STEP 215). Specifically, a straight line that approximates time-series data in a predetermined period (a period from the current time to a predetermined time) of the real space position of the same object is obtained, and the straight line at the time before the predetermined time is obtained. A vector from the position (point) of the object toward the position (point) of the object on the straight line at the current time is obtained as a movement vector of the object. This movement vector is proportional to the relative velocity vector of the object with respect to the host vehicle 10.

以上が、STEP200の「対象物抽出処理」の詳細である。なお、画像処理ユニット1によりSTEP200の処理を実行する構成が、本発明の対象物抽出手段に相当する The above is the details of the “object extraction process” in STEP 200. In addition, the structure which performs the process of STEP200 by the image processing unit 1 is equivalent to the target object extraction means of this invention .

また、画像処理ユニット1により、STEP213の処理を実行する構成が、本発明の位置算出手段に相当する。   Moreover, the structure which performs the process of STEP213 by the image processing unit 1 is equivalent to the position calculation means of this invention.

次に、図8に示したフローチャートに従って、「人工構造物判定処理(I)」(図3のSTEP500)の具体的な内容について説明する。   Next, specific contents of the “artificial structure determination process (I)” (STEP 500 in FIG. 3) will be described with reference to the flowchart shown in FIG.

まず、画像処理ユニット1は、対象物が、「車道・道路領域識別処理」によって設定された道路領域から抽出されたか否かを判定する(STEP501)。   First, the image processing unit 1 determines whether or not the object has been extracted from the road area set by the “roadway / road area identification process” (STEP 501).

具体的には、例えば、前記赤外線画像として図9に示す画像が取得された場合、対象物Qにおける、ある一定の輝度値が連続する部分又は同一距離部分を同一対象物の範囲として、対象物Qの下端部qを決定する。そして、下端部qが道路領域AREに位置しているか否かより、対象物Qが道路領域ARE内から抽出されたものであるか否かを判定する。例えば、図9に示す場合には、対象物Qの下端部qが、道路領域ARE内に位置しているため、対象物Qは、道路領域AREから抽出されたものと判定される。   Specifically, for example, when the image shown in FIG. 9 is acquired as the infrared image, a part of the object Q where a certain luminance value continues or a part of the same distance is set as the range of the same object. The lower end q of Q is determined. Then, it is determined whether or not the object Q is extracted from the road area ARE based on whether or not the lower end q is located in the road area ARE. For example, in the case shown in FIG. 9, since the lower end q of the object Q is located in the road area ARE, it is determined that the object Q is extracted from the road area ARE.

なお、本実施形態においては、画像処理ユニット1は、前記基準画像上の対象物の下端部を検出し、該下端部が道路領域に位置しているか否かより、対象物が道路領域内から抽出されたものであるか否かを判定しているが、上述の(2)、(3)、(4)式から、対象物の実空間位置(X,Y,Z)が、道路領域に対応する実空間上の領域(X−Z座標軸上)の上方に位置しているかにより、対象物が道路領域内から抽出されたものであるか否かを判定してもよい。   In the present embodiment, the image processing unit 1 detects the lower end portion of the object on the reference image, and determines whether the object is within the road area based on whether the lower end part is located in the road area. Although it is determined whether or not it is an extracted one, the real space position (X, Y, Z) of the target object in the road region is calculated from the above equations (2), (3), (4). It may be determined whether or not the object is extracted from the road area depending on whether it is located above the corresponding area in real space (on the XZ coordinate axis).

次に、STEP501において、対象物が道路領域内から抽出されたと判定された場合には(STEP501の判断結果がYESの場合)、STEP502に進んで、フラグ(i)の値(i=1又は0)に基づいて、車道領域が設定されているか否かを判断する。   Next, when it is determined in STEP 501 that the object has been extracted from the road area (when the determination result in STEP 501 is YES), the flow proceeds to STEP 502 and the value of the flag (i) (i = 1 or 0) ) To determine whether or not a road area is set.

STEP502において、車道領域が設定されていないとき(i=0のとき)には、STEP503に進んで、第1の人工構造物判定条件に基づく人工構造物判定が行われる。   In STEP502, when the roadway area is not set (when i = 0), the process proceeds to STEP503, and the artificial structure determination based on the first artificial structure determination condition is performed.

第1の人工構造物判定条件は、予めメモリ(図示しない)に登録された特定の人工構造物の画像(テンプレート)と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。ここで、予めメモリに登録しておく特定の人工構造物の画像は、道路領域内に存在する可能性のある人工構造物の画像であり、例えば、自動販売機、電柱、街灯トランス、ブリンカーライト、車両の画像などである。   The first artificial structure determination condition is that the approximation level indicating the correlation between the image (template) of a specific artificial structure registered in a memory (not shown) and the image of the target is equal to or higher than a predetermined level. It is set to be determined as an artificial structure. Here, the image of the specific artificial structure that is registered in the memory in advance is an image of the artificial structure that may exist in the road area. For example, a vending machine, a utility pole, a streetlight transformer, and a blinker light And images of vehicles.

具体的に、予め登録された特定の人工構造物の画像と対象物の画像との相関性は、テンプレートマッチングによって判断される。テンプレートマッチングは、2つの画像が与えられるとき、両者を重ね合わせてその相関性(又は差異)を検出することで、両者の近似レベルを判断するものであり、2つの画像間における相関性を様々な尺度で表すものである。例えば、相関性を表す尺度としては、輝度値の残差絶対値和(SAD)を用いる方法を用いることができる。   Specifically, the correlation between the image of the specific artificial structure registered in advance and the image of the object is determined by template matching. In template matching, when two images are given, they are overlapped and their correlation (or difference) is detected to determine the approximate level of the two images, and the correlation between the two images varies. It is expressed with a simple scale. For example, a method using a residual absolute value sum (SAD) of luminance values can be used as a measure representing correlation.

輝度値の残差絶対値和(SAD)を用いて、図10に示す自動販売機の画像をテンプレートとして対象物の画像との近似レベルを算出する場合には、予め、自動販売機の画像をA/D変換したグレースケール画像上で、図11(a)及び(b)に示すように、該自動販売機の重心位置を通るx軸方向及びy軸方向の輝度スペクトルを登録しておく。その上で、前記対象物抽出処理(STEP200)において抽出された対象物に対して、前記STEP206で算出した対象物の重心位置を通るx軸方向及びy軸方向の輝度スペクトルを求め、テンプレートの輝度スペクトルと該対象物の輝度スペクトルとの残差の絶対値の和を、前記近似レベルとして算出することができる。この場合の近似レベルは、残差を基にしているため、残差の絶対値和が小さいほど近似レベルが高くなる。   When calculating the approximate level with the image of the object using the vending machine image shown in FIG. 10 as a template using the sum of absolute values of residuals of luminance values (SAD), the vending machine image is obtained in advance. As shown in FIGS. 11A and 11B, luminance spectra in the x-axis direction and the y-axis direction passing through the center of gravity of the vending machine are registered on the A / D converted grayscale image. Then, for the object extracted in the object extraction process (STEP 200), luminance spectra in the x-axis direction and the y-axis direction passing through the gravity center position of the object calculated in STEP 206 are obtained, and the brightness of the template is obtained. The sum of absolute values of residuals between the spectrum and the luminance spectrum of the object can be calculated as the approximate level. Since the approximation level in this case is based on the residual, the approximation level increases as the absolute value sum of the residuals decreases.

このようにして算出された近似レベルが所定の値以上の場合(残差の絶対値和が所定の値以下のとき)に、対象物は人工構造物(自動販売機)であると判定される。   When the approximate level calculated in this way is equal to or greater than a predetermined value (when the sum of absolute values of residuals is equal to or less than a predetermined value), the target is determined to be an artificial structure (vending machine). .

また、電柱、街灯トランス等についても、上述の自動販売機の場合と同様にして、第1の人工構造物判定条件に基づく人工構造物判定を行うことができる。   In addition, for utility poles, streetlight transformers, and the like, artificial structure determination based on the first artificial structure determination condition can be performed in the same manner as in the above-described vending machine.

なお、パターンマッチングの手法は、前述の輝度値の残差絶対値和(SAD)に基づくものに限られるものではなく、例えば、テンプレートと対象物の画像との各画素位置での正規化相互相関値を近似レベルとして算出する正規化相互相関法などを用いてもよい。   Note that the method of pattern matching is not limited to the above-described method based on the sum of residual absolute values of luminance values (SAD) .For example, the normalized cross-correlation at each pixel position between the template and the image of the target object. You may use the normalization cross correlation method etc. which calculate a value as an approximation level.

また、人工構造物抽出処理は、パターンマッチング以外の手法にて人工構造物の判定を行ってもよい。   In the artificial structure extraction process, the artificial structure may be determined by a method other than pattern matching.

さらに、本実施形態では、予めメモリ登録された特定の人工構造物の特徴量として該人工構造物の画像を用いて人工構造物判定を行っているが、特徴量として用いられるものは、これに限られるものではなく、例えば、特定の人工構造物の実際の寸法を測定した値を特徴量として用いてもよい。この場合、画像処理ユニット1を介して算出される実空間における対象物の大きさと、予めメモリに登録された特定の人工構造物の寸法とを比較することで、近似レベルを算出することができる。   Furthermore, in this embodiment, the artificial structure determination is performed using the image of the artificial structure as the characteristic amount of the specific artificial structure registered in the memory in advance. For example, a value obtained by measuring an actual dimension of a specific artificial structure may be used as the feature amount. In this case, the approximate level can be calculated by comparing the size of the object in the real space calculated via the image processing unit 1 with the size of the specific artificial structure registered in advance in the memory. .

そして、STEP503において、第1の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP503の判断結果がYESの場合)には、STEP511に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(I)」を終了する。   If it is determined in STEP 503 that the object is an artificial structure based on the first artificial structure determination condition (when the determination result in STEP 503 is YES), the process proceeds to STEP 511 and the flag k is set. Set (k = 1) and end the “artificial structure determination process (I)”.

一方、STEP503において、第1の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP503の判断結果がNOの場合)には、STEP512に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(I)」を終了する。   On the other hand, if it is determined in STEP 503 that the object is not an artificial structure based on the first artificial structure determination condition (when the determination result in STEP 503 is NO), the process branches to STEP 512, and the flag k is set. Reset (k = 0) and end the “artificial structure determination process (I)”.

また、STEP502において、車道領域が設定されているとき(i=1のとき)には、STEP504に進んで、対象物が、「車道・道路領域識別処理」によって設定された車道領域から抽出されたか否かを判定する(STEP504)。対象物が車道領域から抽出されたか否かは、図9に示した赤外線画像に対応する可視画像を用いて、STEP501と同様の手法により判定される。   In STEP 502, when the road area is set (when i = 1), the process proceeds to STEP 504, where the object is extracted from the road area set by the “road / road area identification process”. It is determined whether or not (STEP 504). Whether or not the object has been extracted from the road area is determined by the same method as STEP 501 using a visible image corresponding to the infrared image shown in FIG.

次に、STEP504において、対象物が車道領域内から抽出されたと判定された場合には(STEP504の判断結果がYESの場合)、STEP505に進んで、第3の人工構造物判定条件に基づく人工構造物判定が行われる。   Next, when it is determined in STEP 504 that the object has been extracted from the roadway region (when the determination result in STEP 504 is YES), the process proceeds to STEP 505 and the artificial structure based on the third artificial structure determination condition Object judgment is performed.

第3の人工構造物判定条件は、予め、車道領域内に存在する可能性のある車両などの人工構造物の画像をメモリ(図示しない)に登録しておき、その人工構造物の画像と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。   The third artificial structure determination condition is that an image of an artificial structure such as a vehicle that may exist in the roadway area is registered in advance in a memory (not shown), and the image of the artificial structure and the target It is set so that it is determined as an artificial structure when the approximation level indicating the correlation with the image of the object is equal to or higher than a predetermined level.

なお、予め登録された特定の人工構造物の画像と対象物の画像との相関性は、テンプレートマッチングによって判断されてもよいが、特に、車両を対象とする人工構造物判定処理を行う場合には、前記特許文献2の図8(STEP41〜54)に記載されている処理を行なうようにしてもよい。すなわち、対象物が車両であるか否かを判定する場合には、まず、テールライトに相当する、対称な位置に存在する2値化対象物を探索し、次に、2つの2値化対象物の間の上部に、ウィンドウシールドの有無を探索する探索領域を設定する。そして、2値化対象物と探索領域の物体とが同一距離である場合に、探索領域の平均輝度値が規定値より小さいか否かを判定し、探索領域の平均輝度値が規定値より小さい場合に、対象物は車両であると判定する。   Note that the correlation between the image of the specific artificial structure registered in advance and the image of the target object may be determined by template matching, but in particular, when performing an artificial structure determination process for a vehicle. May perform the processing described in FIG. 8 (STEPs 41 to 54) of Patent Document 2. That is, when determining whether or not the object is a vehicle, first, a binarized object corresponding to the taillight and existing at a symmetric position is searched, and then two binarized objects. A search area for searching for the presence or absence of the window shield is set in the upper part between the objects. Then, when the binarized object and the object in the search area have the same distance, it is determined whether or not the average luminance value in the search area is smaller than the specified value, and the average luminance value in the search area is smaller than the specified value. In this case, it is determined that the object is a vehicle.

そして、STEP505において、第3の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP505の判断結果がYESの場合)には、STEP511に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(I)」を終了する。   In STEP 505, when it is determined that the target object is an artificial structure based on the third artificial structure determination condition (when the determination result in STEP 505 is YES), the process proceeds to STEP 511 and the flag k is set. Set (k = 1) and end the “artificial structure determination process (I)”.

一方、STEP505において、第1の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP505の判断結果がNOの場合)には、STEP512に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(I)」を終了する。   On the other hand, when it is determined in STEP 505 that the object is not an artificial structure based on the first artificial structure determination condition (when the determination result in STEP 505 is NO), the process branches to STEP 512, and the flag k is set. Reset (k = 0) and end the “artificial structure determination process (I)”.

また、STEP504において、対象物が車道領域内から抽出されたものではないと判定された場合(STEP504の判断結果がNOの場合)は、STEP506に分岐して、第4の人工構造物判定条件に基づく人工構造物判定が行われる。   If it is determined in STEP 504 that the object is not extracted from the roadway region (when the determination result in STEP 504 is NO), the process branches to STEP 506 and the fourth artificial structure determination condition is satisfied. Based on the artificial structure determination is performed.

第4の人工構造物判定条件は、予め、道路領域内の車道領域外に存在する可能性のある自動販売機、電柱、街灯トランス、ブリンカーライト、車両などの画像をメモリに登録しておき、その人工構造物の画像と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。予め登録された特定の人工構造物の画像と対象物の画像との相関性は、前述のように、テンプレートマッチング等によって判断される。   In the fourth artificial structure determination condition, images of vending machines, utility poles, streetlight transformers, blinker lights, vehicles, etc. that may exist outside the roadway area in the road area are registered in the memory in advance. When the approximate level indicating the correlation between the image of the artificial structure and the image of the object is equal to or higher than a predetermined level, the artificial structure is determined to be determined. As described above, the correlation between the image of the specific artificial structure registered in advance and the image of the object is determined by template matching or the like.

そして、STEP506において、第4の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP506の判断結果がYESの場合)には、STEP511に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(I)」を終了する。   If it is determined in STEP 506 that the object is an artificial structure based on the fourth artificial structure determination condition (when the determination result in STEP 506 is YES), the process proceeds to STEP 511 and the flag k is set. Set (k = 1) and end the “artificial structure determination process (I)”.

一方、STEP506において、第4の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP506の判断結果がNOの場合)には、STEP512に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(I)」を終了する。   On the other hand, if it is determined in STEP 506 that the object is not an artificial structure based on the fourth artificial structure determination condition (when the determination result in STEP 506 is NO), the process branches to STEP 512 and flag k is set. Reset (k = 0) and end the “artificial structure determination process (I)”.

また、STEP501において、対象物が道路領域内から抽出されたものではないと判定された場合(STEP501の判断結果がNOの場合)は、STEP507に分岐して、第2の人工構造物判定条件に基づく人工構造物判定が行われる。   Further, when it is determined in STEP 501 that the object is not extracted from the road area (when the determination result in STEP 501 is NO), the process branches to STEP 507 and the second artificial structure determination condition is satisfied. Based on the artificial structure determination is performed.

第2の人工構造物判定条件は、予め、道路領域外に存在する可能性のある自動販売機、電柱、街灯トランス、ブリンカーライト、壁、樹木、車両などの人工構造物の画像を、メモリ(図示しない)に登録しておき、その特定の人工構造物の画像と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。予め登録された特定の人工構造物の画像と対象物の画像との相関性は、前述のように、テンプレートマッチング等によって判断される。   The second artificial structure determination condition is an image of an artificial structure such as a vending machine, a power pole, a streetlight transformer, a blinker light, a wall, a tree, or a vehicle that may exist outside the road area in advance. (Not shown), and is set to be determined as an artificial structure when the approximate level indicating the correlation between the image of the specific artificial structure and the image of the target is equal to or higher than a predetermined level. Yes. As described above, the correlation between the image of the specific artificial structure registered in advance and the image of the object is determined by template matching or the like.

そして、STEP507において、第2の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP507の判断結果がYESの場合)には、STEP511に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(I)」を終了する。   In STEP 507, when it is determined that the target object is an artificial structure based on the second artificial structure determination condition (when the determination result in STEP 507 is YES), the process proceeds to STEP 511 and the flag k is set. Set (k = 1) and end the “artificial structure determination process (I)”.

一方、STEP507において、第2の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP507の判断結果がNOの場合)には、STEP512に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(I)」を終了する。   On the other hand, if it is determined in STEP 507 that the object is not an artificial structure based on the second artificial structure determination condition (when the determination result in STEP 507 is NO), the process branches to STEP 512, and the flag k is set. Reset (k = 0) and end the “artificial structure determination process (I)”.

以上が「人工構造物判定処理(I)」の詳細である。これにより、対象物が道路領域内から抽出された否かによって、第1の人工構造物判定条件〜第4の人工構造物判定条件を設定することにより、画像から抽出された対象物が人工構造物であるか否かを、効率的かつ精度良く判定することができる。   The above is the details of the “artificial structure determination process (I)”. Thus, by setting the first artificial structure determination condition to the fourth artificial structure determination condition depending on whether or not the object is extracted from within the road region, the object extracted from the image becomes the artificial structure. It is possible to determine whether or not the object is efficient and accurate.

次に、図12に示したフローチャートに従って、「人工構造物判定処理(II)」(図3のSTEP600)について概要を説明する。   Next, an outline of the “artificial structure determination process (II)” (STEP 600 in FIG. 3) will be described according to the flowchart shown in FIG.

「人工構造物判定処理(II)」において、画像処理ユニット1は、まず、フラグ(i)の値に基づいて、車道領域が設定されているか否かを判断する(STEP601)。   In the “artificial structure determination process (II)”, the image processing unit 1 first determines whether or not a roadway area is set based on the value of the flag (i) (STEP 601).

STEP601において、車道領域が設定されているとき(i=1のとき)には、STE602に進んで、対象物が、「車道・道路領域識別処理」によって設定された車道領域から抽出されたか否かを判定する(STEP602)。尚、対象物が車道領域から抽出されたか否かは、前述のSTEP504と同様にして判定される。   In STEP601, when the roadway area is set (when i = 1), the process proceeds to STE602 and whether or not the object is extracted from the roadway area set by the “roadway / road area identification process”. Is determined (STEP 602). Note that whether or not the object has been extracted from the road area is determined in the same manner as in STEP 504 described above.

次に、STEP602において、対象物が車道領域内から抽出されたと判定された場合には(STEP602の判断結果がYESの場合)、STEP603に進んで、第3の人工構造物判定条件に基づく人工構造物判定が行われる。第3の人工構造物判定条件は、前述のSTEP505と同様の処理であり、第3の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP603の判断結果がYESの場合)には、STEP611に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(II)」を終了する。   Next, when it is determined in STEP 602 that the object has been extracted from the roadway region (when the determination result in STEP 602 is YES), the process proceeds to STEP 603 and the artificial structure based on the third artificial structure determination condition Object judgment is performed. The third artificial structure determination condition is the same processing as in STEP 505 described above, and when it is determined that the target object is an artificial structure based on the third artificial structure determination condition (the determination result of STEP 603 is In the case of YES), the process proceeds to STEP 611, the flag k is set (k = 1), and the “artificial structure determination process (II)” is ended.

一方、STEP603において、第1の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP603の判断結果がNOの場合)には、STEP612に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(II」を終了する。   On the other hand, when it is determined in STEP 603 that the object is not an artificial structure based on the first artificial structure determination condition (when the determination result in STEP 603 is NO), the process branches to STEP 612 and flag k is set. Reset (k = 0) to end the “artificial structure determination process (II)”.

また、STEP602において、対象物が車道領域内から抽出されたものではないと判定された場合(STEP602の判断結果がNOの場合)は、STEP604に分岐して、第5の人工構造物判定条件に基づく人工構造物判定が行われる。   If it is determined in STEP 602 that the object is not extracted from the roadway area (when the determination result in STEP 602 is NO), the process branches to STEP 604 and the fifth artificial structure determination condition is satisfied. Based on the artificial structure determination is performed.

第5の人工構造物判定条件は、予め、車道領域外に存在する可能性のある自動販売機、電柱、街灯トランス、ブリンカーライト、壁、樹木、車両などの人工構造物の画像を、メモリ(図示しない)に登録しておき、その特定の人工構造物の画像と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。予め登録された特定の人工構造物の画像と対象物の画像との相関性は、前述のように、テンプレートマッチング等によって判断される。   The fifth artificial structure determination condition is an image of an artificial structure such as a vending machine, a power pole, a streetlight transformer, a blinker light, a wall, a tree, or a vehicle that may exist outside the roadway area in advance. (Not shown), and is set to be determined as an artificial structure when the approximate level indicating the correlation between the image of the specific artificial structure and the image of the target is equal to or higher than a predetermined level. Yes. As described above, the correlation between the image of the specific artificial structure registered in advance and the image of the object is determined by template matching or the like.

そして、STEP604において、第5の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP604の判断結果がYESの場合)には、STEP611に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(II)」を終了する。   If it is determined in STEP 604 that the object is an artificial structure based on the fifth artificial structure determination condition (when the determination result in STEP 604 is YES), the process proceeds to STEP 611 and the flag k is set. Set (k = 1) and end the “artificial structure determination process (II)”.

一方、STEP604において、第5の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP604の判断結果がNOの場合)には、STEP612に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(II)」を終了する。   On the other hand, if it is determined in STEP 604 that the object is not an artificial structure based on the fifth artificial structure determination condition (when the determination result in STEP 604 is NO), the process branches to STEP 612 and flag k is set. Reset (k = 0) to end the “artificial structure determination process (II)”.

また、STEP605において、車道領域が設定されていないとき(i=0のとき)には、STEP605に進んで、第6の人工構造物判定条件に基づく人工構造物判定が行われる。   In STEP 605, when the road area is not set (when i = 0), the process proceeds to STEP 605, and the artificial structure determination based on the sixth artificial structure determination condition is performed.

第6の人工構造物判定条件は、道路領域の内外および車道領域の内外に関わらず、一般的に道路周辺に存在する人工構造物の画像をメモリに登録しておき、その特定の画像と対象物の画像との相関性を示す近似レベルが所定レベル以上である場合に人工構造物と判定されるように設定されている。予め登録された特定の人工構造物の画像と対象物の画像との相関性は、前述のように、テンプレートマッチング等によって判断される。尚、第6の人工構造物の判定条件は、前記第2又は第5の人工構造物判定条件と同一の判定条件としてもよい。   The sixth artificial structure determination condition is that an image of an artificial structure generally existing around the road is registered in the memory regardless of the inside or outside of the road area and the inside or outside of the road area. It is set so that it is determined as an artificial structure when the approximation level indicating the correlation with the image of the object is equal to or higher than a predetermined level. As described above, the correlation between the image of the specific artificial structure registered in advance and the image of the object is determined by template matching or the like. The determination condition for the sixth artificial structure may be the same as the determination condition for the second or fifth artificial structure.

そして、STEP605において、第6の人工構造物判定条件に基づいて対象物が人工構造物であると判定された場合(STEP605の判断結果がYESの場合)には、STEP611に進んで、フラグkをセット(k=1)して、「人工構造物判定処理(II)」を終了する。   If it is determined in STEP 605 that the target object is an artificial structure based on the sixth artificial structure determination condition (when the determination result in STEP 605 is YES), the process proceeds to STEP 611 and flag k is set. Set (k = 1) and end the “artificial structure determination process (II)”.

一方、STEP605において、第6の人工構造物判定条件に基づいて対象物が人工構造物でないと判定された場合(STEP605の判断結果がNOの場合)には、STEP612に分岐して、フラグkをリセット(k=0)して、「人工構造物判定処理(II)」を終了する。   On the other hand, if it is determined in STEP 605 that the object is not an artificial structure based on the sixth artificial structure determination condition (when the determination result in STEP 605 is NO), the process branches to STEP 612 and flag k is set. Reset (k = 0) to end the “artificial structure determination process (II)”.

以上が、STEP600における「人工構造物判定処理(II)」の概要である。なお、画像処理ユニット1によりSTEP501〜512,601〜612の処理を実行する構成が、本発明の人工構造物判定手段に相当する。

The above is the outline of the “artificial structure determination process (II)” in STEP600. The configuration by the image processing unit 1 executes the processing of STEP501~512,601~612 corresponds to an artificial structure determination means of the present invention.

尚、本実施形態においては、可視画像にてレーンマーク検出を行い(STEP101〜105)、その後、赤外線画像から道路領域を検出している(STEP107〜112)が、STEP101〜105の可視画像に基づく処理を省略して、赤外線画像から道路領域を検出する構成(STEP107〜112)のみとしてもよい。この場合、人工構造物判定処理(I)および人工構造物判定処理(II)では、車道領域の設定の有無に基づく処理(STEP502,504〜506,601〜604)が省略される。   In this embodiment, the lane mark is detected from the visible image (STEPs 101 to 105), and then the road region is detected from the infrared image (STEPs 107 to 112), based on the visible images of STEPs 101 to 105. It is good also as a structure (STEP107-112) which abbreviate | omits a process and detects a road area | region from an infrared image. In this case, in the artificial structure determination process (I) and the artificial structure determination process (II), the processes (STEP 502, 504 to 506, 601 to 604) based on the presence or absence of setting of the roadway region are omitted.

また、逆に、STEP107〜112の赤外線画像に基づく処理を省略して、可視画像から車道領域を検出する構成(STEP101〜105)のみとしてもよい。この場合、道路領域の設定の有無に基づく処理(STEP400、500)が省略されて、第2の人工構造物判定処理(II)のみが実行される。   Conversely, the processing based on the infrared images in STEPs 107 to 112 may be omitted and only the configuration (STEPs 101 to 105) for detecting the road area from the visible image may be employed. In this case, the process (STEP 400, 500) based on the presence / absence of setting of the road region is omitted, and only the second artificial structure determination process (II) is executed.

また、本実施形態では、可視カメラ2´の可視画像から車道領域を検出し、赤外線カメラ2R,2Lの赤外線画像から道路領域を検出しているが、これに限定されるものではなく、他の撮像手段による撮像画像から車道領域や道路領域を検出するようにしてもよい。   In this embodiment, the road area is detected from the visible image of the visible camera 2 ′ and the road area is detected from the infrared images of the infrared cameras 2R and 2L. However, the present invention is not limited to this. A road area or a road area may be detected from an image captured by the imaging means.

なお、本実施形態においては、画像処理ユニット1の処理結果に基づき、所定の注意喚起を行うように構成されているが、該処理結果に基づき車両挙動が制御されてもよい。   Note that, in the present embodiment, it is configured to perform a predetermined alert based on the processing result of the image processing unit 1, but the vehicle behavior may be controlled based on the processing result.

また、前記実施形態では、2台の赤外線カメラ2R,2Lを備えたが、対象物との距離をレーダーなどにより検出するようにした場合には、1台の赤外線カメラ2Rもしくは2Lを自車両10に搭載するようにしてもよい。   In the above embodiment, the two infrared cameras 2R and 2L are provided. However, when the distance to the object is detected by a radar or the like, one infrared camera 2R or 2L is connected to the host vehicle 10. You may make it mount in.

本発明の車両の周辺監視装置の一実施形態の全体構成を示す図。The figure which shows the whole structure of one Embodiment of the periphery monitoring apparatus of the vehicle of this invention. 図1の周辺監視装置を備えた車両の斜視図。The perspective view of the vehicle provided with the periphery monitoring apparatus of FIG. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 本実施形態における撮像画像を例示的に示す図。The figure which shows the captured image in this embodiment exemplarily. 本実施形態における撮像画像を例示的に示す図。The figure which shows the captured image in this embodiment exemplarily. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 本実施形態における撮像画像を例示的に示す図。The figure which shows the captured image in this embodiment exemplarily. 画像処理ユニットの処理を説明するための図。The figure for demonstrating the process of an image processing unit. 画像処理ユニットの処理を説明するための図。The figure for demonstrating the process of an image processing unit. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1.

符号の説明Explanation of symbols

1…画像処理ユニット(道路領域識別手段、対象物抽出手段、人工構造物判定手段、車道領域識別手段、位置算出手段)、2R,2L…赤外線カメラ(撮像手段)、2´…可視カメラ(可視画像撮像手段)、STEP101〜106…車道領域識別手段による処理、STEP107〜112…道路領域識別手段による処理、STEP200…対象物抽出手段による処理、STEP213…位置算出手段による処理、STEP500,600…人工構造物判定手段による処理。   DESCRIPTION OF SYMBOLS 1 ... Image processing unit (Road area identification means, object extraction means, artificial structure determination means, roadway area identification means, position calculation means), 2R, 2L ... Infrared camera (imaging means), 2 '... Visible camera (visible) (Image capturing means), STEP 101-106 ... Processing by roadway area identifying means, STEP107-112 ... Processing by road area identifying means, STEP200 ... Processing by object extracting means, STEP213 ... Processing by position calculating means, STEP500, 600 ... Artificial structure Processing by the object judgment means.

Claims (8)

車両に搭載された撮像手段によって得られる画像から対象物を抽出する対象物抽出手段と、該対象物が人工構造物であるか否かを判定する人工構造物判定手段とを備えて、車両の周辺に存在する物体を監視する車両周辺監視装置であって、
前記画像から道路領域を識別する道路領域識別手段と、
前記画像から、前記道路領域に含まれレーンマークの位置に基づいて規定される領域である車道領域を識別する車道領域識別手段と
を備え、
前記人工構造物判定手段は、
前記対象物抽出手段によって、前記道路領域識別手段により識別された道路領域内で対象物が抽出された場合には第1の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、該道路領域外で対象物が抽出された場合には、該第1の人工構造物判定条件と異なる第2の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、
前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、人工構造物として少なくとも車両を含む第3の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定し、該車道領域外で対象物が抽出された場合には、人工構造物として少なくとも車両、自動販売機、街灯トランス、ブリンカーライトのいずれか1つを含む第4の人工構造物判定条件に基づいて、該対象物が人工構造物であるか否かを判定することを特徴とする車両周辺監視装置。
An object extraction means for extracting an object from an image obtained by an imaging means mounted on the vehicle, and an artificial structure determination means for determining whether or not the object is an artificial structure, A vehicle periphery monitoring device for monitoring objects existing in the vicinity,
Road area identifying means for identifying a road area from the image;
Road area identification means for identifying a road area that is an area included in the road area and defined based on a position of a lane mark from the image ,
The artificial structure determination means includes
When the object is extracted in the road area identified by the road area identification means by the object extraction means, the object is an artificial structure based on the first artificial structure determination condition. If the object is extracted outside the road area, the object is artificially determined based on a second artificial structure determination condition different from the first artificial structure determination condition. Determine whether it is a structure ,
When an object is extracted in the road area identified by the road area identification means by the object extraction means, based on a third artificial structure determination condition including at least a vehicle as an artificial structure, When it is determined whether or not the object is an artificial structure and the object is extracted outside the roadway area, at least one of a vehicle, a vending machine, a streetlight transformer, and a blinker light is used as the artificial structure. A vehicle periphery monitoring device that determines whether or not the object is an artificial structure based on a fourth artificial structure determination condition including one .
請求項1記載の車両周辺監視装置において、
前記撮像手段として、赤外画像を取得する赤外画像撮像手段を有し、
前記道路領域識別手段は、前記赤外画像撮像手段によって取得された赤外画像のエッジ部を抽出するエッジ抽出処理を行い、該エッジ抽出処理によって抽出されたエッジ部により道路領域を識別することを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1 ,
As the imaging means, an infrared image imaging means for acquiring an infrared image,
The road area identifying means performs an edge extraction process for extracting an edge part of an infrared image acquired by the infrared image capturing means, and identifies a road area by the edge part extracted by the edge extraction process. A vehicle periphery monitoring device.
請求項1または2記載の車両周辺監視装置において、
前記人工構造物判定手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が前記道路領域内に位置するときに該対象物が該道路領域内で抽出されたと判定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1 or 2 ,
The artificial structure determination unit detects a lower end portion of the object extracted from the image, and determines that the object is extracted in the road region when the lower end portion is located in the road region. The vehicle periphery monitoring apparatus characterized by the above-mentioned.
請求項1または2記載の車両周辺監視装置において、
前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、
前記人工構造物判定手段は、前記画像から抽出された対象物の実空間上の位置が、実空間上の前記道路領域の上方にあるときに該対象物が該道路領域内で抽出されたと判定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1 or 2 ,
A position calculating means for calculating a position in real space corresponding to an image portion included in the image;
The artificial structure determination means determines that the object is extracted in the road area when the position of the object extracted from the image is above the road area in the real space. A vehicle periphery monitoring device.
請求項1乃至請求項4のうちいずれか1項記載の車両周辺監視装置において、
前記撮像手段として、可視画像を取得する可視画像撮像手段を備え、
前記車道領域識別手段は、前記可視画像撮像手段によって取得された可視画像から車道のレーンマークを検出し、該レーンマークにより車道領域を識別することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 4 ,
As the imaging means, provided with a visible image imaging means for obtaining a visible image
The vehicle roadway area identifying unit detects a roadway lane mark from the visible image acquired by the visible image capturing unit, and identifies the roadway area by the lane mark.
請求項1乃至請求項5のうちいずれか1項記載の車両周辺監視装置において、
前記人工構造物判定手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が前記車道領域内に位置するときに該対象物が該車道領域内で抽出されたと判定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 5 ,
The artificial structure determination means detects a lower end portion of the object extracted from the image, and determines that the object is extracted in the road area when the lower end portion is located in the road area. The vehicle periphery monitoring apparatus characterized by the above-mentioned.
請求項1乃至請求項5のうちいずれか1項記載の車両周辺監視装置において、
前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、
前記人工構造物判定手段は、前記画像から抽出された対象物の実空間上の位置が、実空間上の前記車道領域の上方にあるときに該対象物が該車道領域内で抽出されたと判定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 5 ,
A position calculating means for calculating a position in real space corresponding to an image portion included in the image;
The artificial structure determination means determines that the object is extracted in the road area when the position of the object extracted from the image is above the road area in the real space. A vehicle periphery monitoring device.
請求項1乃至7のうちいずれか1項記載の車両周辺監視装置において、
前記第1の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域内に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記第2の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域外に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記第3の人工構造物判定条件として、前記対象物の画像の特徴量と、前記車道領域内に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記第4の人工構造物判定条件として、前記対象物の画像の特徴量と、前記道路領域内の前記車道領域外に存在する可能性のある特定の人工構造物の特徴量との近似レベルが所定レベル以上であることが設定され、
前記特定の人工構造物の特徴量として、車両、自動販売機、電柱、街灯トランス、ブリンカーライト、壁、樹木のうちの少なくともいずれか1つの特徴量が登録されていることを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 7,
As the first artificial structure determination condition, the approximate level between the feature amount of the image of the object and the feature amount of a specific artificial structure that may exist in the road region is equal to or higher than a predetermined level. Is set,
As the second artificial structure determination condition, the approximate level between the feature amount of the image of the object and the feature amount of a specific artificial structure that may exist outside the road region is equal to or higher than a predetermined level. Is set,
As the third artificial structure determination condition, the approximate level between the feature amount of the image of the object and the feature amount of a specific artificial structure that may exist in the roadway region is equal to or higher than a predetermined level. Is set,
As the fourth artificial structure determination condition, there is an approximate level between the feature amount of the image of the object and the feature amount of a specific artificial structure that may exist outside the road area in the road area. Set to be above a certain level,
As a feature amount of the specific artificial structure, at least one feature amount of a vehicle, a vending machine, a utility pole, a streetlight transformer, a blinker light, a wall, and a tree is registered. Monitoring device.
JP2006252444A 2006-09-19 2006-09-19 Vehicle periphery monitoring device Expired - Fee Related JP4813304B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006252444A JP4813304B2 (en) 2006-09-19 2006-09-19 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006252444A JP4813304B2 (en) 2006-09-19 2006-09-19 Vehicle periphery monitoring device

Publications (3)

Publication Number Publication Date
JP2008077154A JP2008077154A (en) 2008-04-03
JP2008077154A5 JP2008077154A5 (en) 2008-10-23
JP4813304B2 true JP4813304B2 (en) 2011-11-09

Family

ID=39349178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006252444A Expired - Fee Related JP4813304B2 (en) 2006-09-19 2006-09-19 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4813304B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5200861B2 (en) * 2007-12-10 2013-06-05 富士通株式会社 Sign judging device and sign judging method
EP2481012A2 (en) * 2009-12-02 2012-08-01 Tata Consultancy Services Limited Cost-effective system and method for detecting, classifying and tracking the pedestrian using near infrared camera
JP5395716B2 (en) * 2010-03-25 2014-01-22 株式会社デンソーアイティーラボラトリ Outside sound providing device, outside sound providing method and program
JP5479438B2 (en) * 2011-11-16 2014-04-23 本田技研工業株式会社 Vehicle periphery monitoring device
IN2014MU01297A (en) * 2014-04-07 2015-10-09 Tata Consultancy Services Ltd
WO2019069581A1 (en) * 2017-10-02 2019-04-11 ソニー株式会社 Image processing device and image processing method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3881048B2 (en) * 1995-11-06 2007-02-14 富士重工業株式会社 Narrow path guide device
JP4135123B2 (en) * 1998-05-13 2008-08-20 日産自動車株式会社 Display processing device
JP2000057355A (en) * 1998-08-06 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> Area extracting device and image processor
JP2000318513A (en) * 1999-05-17 2000-11-21 Mitsubishi Electric Corp Obstacle detection device for vehicle
JP2001134769A (en) * 1999-11-04 2001-05-18 Honda Motor Co Ltd Object recognizing device
JP2002099997A (en) * 2000-09-26 2002-04-05 Mitsubishi Motors Corp Detection device for moving object
JP2002362302A (en) * 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detecting device
JP2003016429A (en) * 2001-06-28 2003-01-17 Honda Motor Co Ltd Vehicle periphery monitor device
JP4016735B2 (en) * 2001-11-30 2007-12-05 株式会社日立製作所 Lane mark recognition method
JP3839329B2 (en) * 2002-02-04 2006-11-01 本田技研工業株式会社 Night vision system
JP3879740B2 (en) * 2004-02-13 2007-02-14 日産自動車株式会社 Road area detection device
JP2006126000A (en) * 2004-10-28 2006-05-18 Nissan Motor Co Ltd Object detection device and object detection method

Also Published As

Publication number Publication date
JP2008077154A (en) 2008-04-03

Similar Documents

Publication Publication Date Title
JP4456086B2 (en) Vehicle periphery monitoring device
US7233233B2 (en) Vehicle surroundings monitoring apparatus
JP4173901B2 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP4410292B1 (en) Vehicle periphery monitoring device
US8766816B2 (en) System for monitoring the area around a vehicle
JP4173902B2 (en) Vehicle periphery monitoring device
JP4171501B2 (en) Vehicle periphery monitoring device
JP2007193445A (en) Periphery monitoring device for vehicle
WO2012004938A1 (en) Device for monitoring vicinity of vehicle
JP2007334751A (en) Vehicle periphery monitoring device
JP2008027309A (en) Collision determination system and collision determination method
JP2007241898A (en) Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
US9160986B2 (en) Device for monitoring surroundings of a vehicle
JP4813304B2 (en) Vehicle periphery monitoring device
WO2010007718A1 (en) Vehicle vicinity monitoring device
JP4823753B2 (en) Vehicle periphery monitoring device
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP3844750B2 (en) Infrared image recognition device and alarm device using infrared image recognition device
JP4629638B2 (en) Vehicle periphery monitoring device
JP2004362265A (en) Infrared image recognition device
JP2010092437A (en) Vehicle periphery monitoring device
JP2013092863A (en) Vehicle periphery monitoring device
JP2007168547A (en) Obstacle collision determining system, obstacle collision determining method, and computer program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080909

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110824

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees