JP2013205410A - Outside recognition device for vehicle, and vehicle system using the same - Google Patents

Outside recognition device for vehicle, and vehicle system using the same Download PDF

Info

Publication number
JP2013205410A
JP2013205410A JP2012078454A JP2012078454A JP2013205410A JP 2013205410 A JP2013205410 A JP 2013205410A JP 2012078454 A JP2012078454 A JP 2012078454A JP 2012078454 A JP2012078454 A JP 2012078454A JP 2013205410 A JP2013205410 A JP 2013205410A
Authority
JP
Japan
Prior art keywords
vehicle
unit
feature amount
feature
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012078454A
Other languages
Japanese (ja)
Inventor
Taketo Ogata
健人 緒方
Kazuma Ishigaki
和真 石垣
Takayuki Moriya
貴行 森谷
Yasushi Otsuka
裕史 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Hitachi Astemo Ltd
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Mazda Motor Corp
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Mazda Motor Corp, Hitachi Automotive Systems Ltd filed Critical Clarion Co Ltd
Priority to JP2012078454A priority Critical patent/JP2013205410A/en
Publication of JP2013205410A publication Critical patent/JP2013205410A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Abstract

PROBLEM TO BE SOLVED: To stably identify a vehicle regardless of a state of a captured image.SOLUTION: An HOG (Histogram of Oriented Gradients) (first) feature amount calculation unit 310 calculates a first feature amount from an image captured by a camera 100 (an imaging unit) on the basis of a concentration gradient. An HOF (Histogram of Optical Flow) (second) feature amount calculation unit 320 calculates a second feature amount on the basis of an optical flow. A reliability calculation unit 410 calculates first reliability Rthat is higher as the concentration gradient is greater, and calculates second reliability Rthat is higher as the optical flow is greater. A first vehicle identification unit 420 identifies the vehicle on the basis of the first feature amount, and a second vehicle identification unit 430 identifies the vehicle on the basis of the second feature amount. A vehicle determination unit 400 determines presence/absence of the vehicle on the basis of the identification result of the first vehicle identification unit 420, the identification result of the second vehicle identification unit 430, the first reliability R, and the second reliability R.

Description

本発明は、自車両の周辺に存在する車両を識別する車両用外界認識装置およびそれを用いた車両システムに関する。   The present invention relates to a vehicle external recognition device for identifying a vehicle existing around a host vehicle and a vehicle system using the same.

近年、交通事故による死傷者数の低減を目指し、自車前方を監視して、衝突の危険性があるときに報知する衝突警報システムや、設定した速度の範囲内で車間距離を維持した走行を行うACC(Adaptive Cruise Control:車間距離制御システム)が開発されている。   In recent years, aiming to reduce the number of casualties due to traffic accidents, a collision warning system that monitors the front of the vehicle and notifies when there is a danger of a collision, and driving that maintains a distance between vehicles within a set speed range An ACC (Adaptive Cruise Control) is being developed.

こうしたシステムには、自車両の周囲に存在する車両を識別して、その位置を特定する機能が必要である。その一例として、例えば、自車両に搭載した単眼カメラで撮影した自車両前方の画像の中から、車両の左右端を表す可能性が高い、画像の縦方向に沿って延びる縦エッジを検出して、その後、縦エッジ同士の間隔wと縦エッジ間の中心の位置xとをxw空間に投票することによって、車両の候補領域を抽出する技術が提案されている(特許文献1)。   Such a system requires a function of identifying a vehicle existing around the host vehicle and specifying its position. As an example, for example, a vertical edge extending along the vertical direction of the image, which is highly likely to represent the left and right ends of the vehicle, is detected from an image in front of the own vehicle taken by a monocular camera mounted on the own vehicle. Thereafter, a technique for extracting a candidate area of a vehicle by voting an interval w between vertical edges and a center position x between the vertical edges in an xw space has been proposed (Patent Document 1).

特開2005−156199号公報JP 2005-156199 A

しかしながら、この特許文献1に記載された車両検知装置によると、様々な条件下で安定して車両を識別することは困難であった。これは、カメラで撮像した画像には、天候、時間帯、日射状態、車両の色等、様々な条件の組み合わせがあるため、条件によっては縦エッジが検出できない場合があるためである。なお、識別対象は、車両に限定されることはなく、自車両の走行に影響を及ぼす恐れのある歩行者や路上の障害物も識別対象となり得るが、その場合にも上記したのと同様の課題がある。   However, according to the vehicle detection device described in Patent Document 1, it is difficult to stably identify the vehicle under various conditions. This is because the image captured by the camera has a combination of various conditions such as the weather, time zone, solar radiation state, vehicle color, and the like, so that the vertical edge may not be detected depending on the conditions. Note that the identification target is not limited to the vehicle, and pedestrians and obstacles on the road that may affect the traveling of the host vehicle may also be the identification target. There are challenges.

本発明は上記事情に鑑みなされたもので、撮像される画像の状態によらずに、安定して車両の識別を行うことができる車両用外界認識装置およびそれを用いた車両システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an external environment recognition device for a vehicle that can stably identify a vehicle regardless of the state of a captured image, and a vehicle system using the same. With the goal.

本発明に係る車両用外界認識装置およびそれを用いた車両システムは、撮像した車両周辺の画像の中から、複数の特徴量と識別器の組み合わせによって車両を識別するものである。   The vehicle external environment recognition apparatus and the vehicle system using the same according to the present invention identify a vehicle by combining a plurality of feature amounts and a discriminator from captured images around the vehicle.

すなわち、本発明の請求項1に係る車両用外界認識装置は、自車両に搭載され、前記自車両の周辺を撮像する撮像部と、前記撮像部で撮像された画像の中から、濃度勾配に基づく第1特徴量を算出する第1特徴量算出部と、前記撮像部で異なる時刻に撮像された複数の画像の中から、オプティカルフローに基づく第2特徴量を算出する第2特徴量算出部と、前記濃度勾配が大きいほど高い第1信頼度を算出し、前記オプティカルフローが大きいほど高い第2信頼度を算出する信頼度算出部と、前記第1特徴量に基づいて車両の識別を行う第1車両識別部と、前記第2特徴量に基づいて車両の識別を行う第2車両識別部と、前記第1車両識別部における識別結果と、前記第2車両識別部における識別結果と、前記第1信頼度と、前記第2信頼度と、に基づいて車両の有無を判定する車両判定部と、
を有することを特徴とする。
That is, the external environment recognition device for a vehicle according to claim 1 of the present invention is mounted on the own vehicle and has an imaging unit that images the periphery of the own vehicle and an image obtained by the imaging unit with a concentration gradient. A first feature amount calculation unit that calculates a first feature amount based on the second feature amount calculation unit that calculates a second feature amount based on an optical flow from a plurality of images captured at different times by the imaging unit. And a first reliability that is higher as the concentration gradient is larger, and a second reliability that is higher as the optical flow is larger, and a vehicle is identified based on the first feature amount. A first vehicle identification unit; a second vehicle identification unit that identifies a vehicle based on the second feature value; an identification result in the first vehicle identification unit; an identification result in the second vehicle identification unit; 1st reliability and said 2nd reliability A vehicle determination unit determines the presence of the vehicle on the basis of,
It is characterized by having.

このように構成された本発明の請求項1に係る車両用外界認識装置によれば、撮像部で撮像された自車両の周辺の画像の中から、第1特徴量算出部が濃度勾配に基づく第1特徴量を算出して、第2特徴量算出部が撮像部で異なる時刻に撮像された複数の画像の中から、オプティカルフローに基づく第2特徴量を算出して、信頼度算出部が、濃度勾配が大きいほど高い第1信頼度を算出し、さらに、オプティカルフローが大きいほど高い第2信頼度を算出して、第1車両識別部が第1特徴量に基づいて車両の識別を行って、第2車両識別部が第2特徴量に基づいて車両の識別を行って、車両判定部が第1車両識別部における識別結果と、第2車両識別部における識別結果と、第1信頼度と、第2信頼度と、に基づいて車両の有無を判定するので、撮像された画像の中の濃度勾配が大きい、すなわちエッジがはっきりした画像に対しては、第1車両識別部が濃度勾配に基づく第1特徴量に基づいて車両の識別を行い、また、撮像された画像の中のオプティカルフローが大きい、すなわち動きがはっきりした画像に対しては、第2車両識別部がオプティカルフローに基づく第2特徴量に基づいて車両の識別を行うため、単一の識別器で車両の識別を行うよりも、幅広いシーンで車両の識別を行うことができる車両用外界認識装置を提供することができる。   According to the vehicle external environment recognizing device according to claim 1 of the present invention configured as described above, the first feature amount calculation unit is based on the density gradient from the surrounding images of the host vehicle captured by the imaging unit. The first feature amount is calculated, the second feature amount calculation unit calculates a second feature amount based on the optical flow from a plurality of images captured at different times by the imaging unit, and the reliability calculation unit The higher the concentration gradient, the higher the first reliability, and the higher the optical flow, the higher the second reliability, and the first vehicle identification unit identifies the vehicle based on the first feature amount. The second vehicle identifying unit identifies the vehicle based on the second feature amount, and the vehicle determining unit identifies the identification result in the first vehicle identifying unit, the identification result in the second vehicle identifying unit, and the first reliability. And the presence / absence of the vehicle is determined based on the second reliability. For an image having a large density gradient in the captured image, that is, an image with a clear edge, the first vehicle identification unit identifies the vehicle based on the first feature amount based on the density gradient, and is also captured. Since the second vehicle discriminating unit identifies the vehicle based on the second feature quantity based on the optical flow for an image having a large optical flow, that is, a clear movement in the image, a single classifier Therefore, it is possible to provide a vehicle external environment recognition device that can identify a vehicle in a wide range of scenes rather than identifying the vehicle.

さらに、本発明の請求項3に係る車両用外界認識装置は、自車両に搭載され、前記自車両の周辺を撮像する撮像部と、前記撮像部で撮像された画像の中から、濃度勾配に基づく第1特徴量を算出する第1特徴量算出部と、前記撮像部で異なる時刻に撮像された複数の画像の中から、オプティカルフローに基づく第2特徴量を算出する第2特徴量算出部と、前記第1特徴量に基づいて車両の識別を行う第1車両識別部と、前記第2特徴量に基づいて車両の識別を行う第2車両識別部と、を有し、前記第1特徴量が所定値よりも大きいときは、前記第1車両識別部における識別結果に基づいて車両の有無を判定し、前記第1特徴量が所定値よりも小さいときは、前記第2車両識別部における識別結果に基づいて車両の有無を判定することを特徴とする。   Furthermore, the vehicle external environment recognition device according to claim 3 of the present invention is mounted on the host vehicle, and an image capturing unit that captures an image of the periphery of the host vehicle, and a density gradient from among images captured by the image capturing unit. A first feature amount calculation unit that calculates a first feature amount based on the second feature amount calculation unit that calculates a second feature amount based on an optical flow from a plurality of images captured at different times by the imaging unit. And a first vehicle identification unit that identifies a vehicle based on the first feature amount, and a second vehicle identification unit that identifies a vehicle based on the second feature amount, the first feature When the amount is larger than a predetermined value, the presence / absence of a vehicle is determined based on the identification result in the first vehicle identification unit, and when the first feature amount is smaller than the predetermined value, the second vehicle identification unit It is characterized by determining the presence or absence of a vehicle based on the identification result That.

このように構成された本発明の請求項3に係る車両用外界認識装置によれば、撮像部で撮像された自車両の周辺の画像の中から、第1特徴量算出部が濃度勾配に基づく第1特徴量を算出して、算出された第1特徴量が所定値よりも大きいときには、第1車両識別部において、第1特徴量に基づいて車両の識別を行い、その識別結果に基づいて車両の有無が判定され、一方、算出された第1特徴量が所定値よりも小さいときには、第2特徴量算出部がオプティカルフローに基づく第2特徴量を算出して、算出された第2特徴量が所定値よりも大きいときには、第2車両識別部において、第2特徴量に基づいて車両の識別を行い、その識別結果に基づいて車両の有無が判定されるため、第1特徴量、もしくは第2特徴量の少なくとも一方の特徴量のみを算出することによって、車両の有無を判定することができるため、処理の負荷が小さい車両用外界認識装置を提供することができる。   According to the vehicle external environment recognizing device according to claim 3 of the present invention configured as described above, the first feature amount calculation unit is based on the density gradient from the surrounding images of the host vehicle captured by the imaging unit. When the first feature amount is calculated and the calculated first feature amount is larger than a predetermined value, the first vehicle identification unit identifies the vehicle based on the first feature amount, and based on the identification result When the presence or absence of the vehicle is determined and the calculated first feature value is smaller than a predetermined value, the second feature value calculation unit calculates the second feature value based on the optical flow and calculates the calculated second feature value. When the amount is larger than the predetermined value, the second vehicle identification unit identifies the vehicle based on the second feature amount, and the presence or absence of the vehicle is determined based on the identification result. At least one feature amount of the second feature amount By calculating only, since it is possible to determine the presence or absence of a vehicle, it is possible to provide the environment recognizing apparatus for a vehicle processing load is small.

また、本発明の請求項4に係る車両用外界認識装置は、自車両に搭載され、前記自車両の周辺を撮像する撮像部と、前記撮像部で撮像された画像の中から、濃度勾配に基づく第1特徴量を算出する第1特徴量算出部と、前記撮像部で異なる時刻に撮像された複数の画像の中から、オプティカルフローに基づく第2特徴量を算出する第2特徴量算出部と、前記第1特徴量に基づいて車両の識別を行う第1車両識別部と、前記第2特徴量に基づいて車両の識別を行う第2車両識別部と、を有し、前記第2特徴量が所定値よりも大きいときは、前記第2車両識別部における識別結果に基づいて車両の有無を判定し、前記第2特徴量が所定値よりも小さいときは、前記第1車両識別部における識別結果に基づいて車両の有無を判定することを特徴とする。   According to a fourth aspect of the present invention, there is provided an external environment recognition device for a vehicle, which is mounted on the host vehicle and has an imaging unit that captures an image of the periphery of the host vehicle and a density gradient among images captured by the imaging unit. A first feature amount calculation unit that calculates a first feature amount based on the second feature amount calculation unit that calculates a second feature amount based on an optical flow from a plurality of images captured at different times by the imaging unit. A first vehicle identification unit that identifies a vehicle based on the first feature amount, and a second vehicle identification unit that identifies a vehicle based on the second feature amount, and the second feature When the amount is larger than a predetermined value, the presence / absence of a vehicle is determined based on the identification result in the second vehicle identification unit, and when the second feature amount is smaller than the predetermined value, the first vehicle identification unit It is characterized by determining the presence or absence of a vehicle based on the identification result .

このように構成された本発明の請求項4に係る車両用外界認識装置によれば、撮像部で撮像された自車両の周辺の画像の中から、第2特徴量算出部がオプティカルフローに基づく第2特徴量を算出して、算出された第2特徴量が所定値よりも大きいときには、第2車両識別部において、第2特徴量に基づいて車両の識別を行い、その識別結果に基づいて車両の有無が判定され、一方、算出された第2特徴量が所定値よりも小さいときには、第1特徴量算出部が濃度勾配に基づく第1特徴量を算出して、算出された第1特徴量が所定値よりも大きいときには、第1車両識別部において、第1特徴量に基づいて車両の識別を行い、その識別結果に基づいて車両の有無が判定されるため、第1特徴量、もしくは第2特徴量の少なくとも一方の特徴量のみを算出することによって、車両の有無の判定を行うことができるため、処理の負荷が小さい車両用外界認識装置を提供することができる。   According to the vehicle external environment recognizing device according to the fourth aspect of the present invention configured as described above, the second feature amount calculation unit is based on the optical flow from the surrounding images of the host vehicle captured by the imaging unit. When the second feature value is calculated and the calculated second feature value is larger than a predetermined value, the second vehicle identification unit identifies the vehicle based on the second feature value, and based on the identification result When the presence or absence of the vehicle is determined and the calculated second feature value is smaller than a predetermined value, the first feature value calculation unit calculates the first feature value based on the density gradient, and the calculated first feature value When the amount is larger than the predetermined value, the first vehicle identification unit identifies the vehicle based on the first feature amount, and the presence or absence of the vehicle is determined based on the identification result. At least one feature amount of the second feature amount By calculating only, since it is possible to judge the presence or absence of a vehicle, it is possible to provide the environment recognizing apparatus for a vehicle processing load is small.

さらに、本発明の請求項5に係る車両用外界認識装置は、自車両に搭載され、前記自車両の周辺を撮像する撮像部と、前記撮像部で撮像された画像の中から、濃度勾配に基づく第1特徴量を算出する第1特徴量算出部と、前記撮像部で異なる時刻に撮像された複数の画像の中から、オプティカルフローに基づく第2特徴量を算出する第2特徴量算出部と、前記濃度勾配が大きいほど高い第1信頼度を算出し、前記オプティカルフローが大きいほど高い第2信頼度を算出する信頼度算出部と、前記第1特徴量に基づいて車両の識別を行う第1車両識別部と、前記第2特徴量に基づいて車両の識別を行う第2車両識別部と、前記第1車両識別部における識別結果と、前記第2車両識別部における識別結果と、前記第1信頼度と、前記第2信頼度と、に基づいて車両の有無を判定する車両判定部と、自車両の挙動を検出する車両挙動検出部と、を有する車両用外界認識装置において、前記車両挙動検出部で検出された前記自車両の挙動に応じて、前記第1特徴量算出部において前記第1特徴量を算出して、前記第1特徴量が所定値よりも大きいときは、前記第1車両識別部において車両の識別を行って車両の有無を判定し、前記第1特徴量が所定値よりも小さいときは、前記第2特徴量算出部において前記第2特徴量を算出して、前記第2車両識別部において車両の識別を行って車両の有無を判定する処理と、前記第2特徴量算出部において前記第2特徴量を算出して、前記第2特徴量が所定値よりも大きいときは、前記第2車両識別部において車両の識別を行って車両の有無を判定し、前記第2特徴量が所定値よりも小さいときは、前記第1特徴量算出部において前記第1特徴量を算出して、前記第1車両識別部において車両の識別を行って車両の有無を判定する処理と、を切り換えて行うことを特徴とする。   Furthermore, the vehicle external environment recognition apparatus according to claim 5 of the present invention is mounted on the host vehicle, and has an imaging unit that captures an image of the periphery of the host vehicle, and a density gradient among images captured by the imaging unit. A first feature amount calculation unit that calculates a first feature amount based on the second feature amount calculation unit that calculates a second feature amount based on an optical flow from a plurality of images captured at different times by the imaging unit. And a first reliability that is higher as the concentration gradient is larger, and a second reliability that is higher as the optical flow is larger, and a vehicle is identified based on the first feature amount. A first vehicle identification unit; a second vehicle identification unit that identifies a vehicle based on the second feature value; an identification result in the first vehicle identification unit; an identification result in the second vehicle identification unit; The first reliability and the second reliability In the vehicle external environment recognition device having a vehicle determination unit that determines the presence or absence of a vehicle based on the vehicle and a vehicle behavior detection unit that detects the behavior of the host vehicle, the behavior of the host vehicle detected by the vehicle behavior detection unit Accordingly, when the first feature value is calculated by the first feature value calculation unit and the first feature value is larger than a predetermined value, the vehicle is identified by the first vehicle identification unit. When the first feature amount is smaller than a predetermined value, the second feature amount calculation unit calculates the second feature amount, and the second vehicle identification unit performs vehicle identification. When the second feature value is calculated by the second feature value calculation unit and the second feature value is greater than a predetermined value, the vehicle is determined by the second vehicle identification unit. To identify the presence of a vehicle, When the second feature value is smaller than a predetermined value, the first feature value calculation unit calculates the first feature value, and the first vehicle identification unit identifies the vehicle to determine the presence or absence of the vehicle. It is characterized in that the processing to be performed is switched.

このように構成された本発明の請求項5に係る車両用外界認識装置によれば、撮像部で撮像された自車両の周辺の画像の中から、車両挙動算出部の算出結果に応じて、第1特徴量算出部が濃度勾配に基づく第1特徴量を算出して、算出された第1特徴量が所定値よりも大きいときには、第1車両識別部において、第1特徴量に基づいて車両の識別を行い、その識別結果に基づいて車両の有無を判定し、一方、算出された第1特徴量が所定値よりも小さいときには、第2特徴量算出部がオプティカルフローに基づく第2特徴量を算出して、算出された第2特徴量が所定値よりも大きいときには、第2車両識別部において、第2特徴量に基づいて車両の識別を行い、その識別結果に基づいて車両の有無を判定する処理と、第2特徴量算出部がオプティカルフローに基づく第2特徴量を算出して、算出された第2特徴量が所定値よりも大きいときには、第2車両識別部において、第2特徴量に基づいて車両の識別を行い、その識別結果に基づいて車両の有無を判定し、一方、算出された第2特徴量が所定値よりも小さいときには、第1特徴量算出部が濃度勾配に基づく第1特徴量を算出して、算出された第1特徴量が所定値よりも大きいときには、第1車両識別部において、第1特徴量に基づいて車両の識別を行い、その識別結果に基づいて車両の有無を判定する処理と、を切り換えるため、第1特徴量、もしくは第2特徴量の少なくとも一方の特徴量のみを算出して車両の有無の判定を行うことができるため、処理の負荷が小さい車両用外界認識装置を提供することができる。特に、車両挙動算出部の算出結果に応じて、算出する特徴量を切り換えることによって、処理の負荷をより一層低減することができる。   According to the vehicle external environment recognizing device according to claim 5 of the present invention configured as described above, according to the calculation result of the vehicle behavior calculating unit, from the surrounding images of the host vehicle imaged by the imaging unit, When the first feature value calculation unit calculates the first feature value based on the density gradient and the calculated first feature value is larger than a predetermined value, the first vehicle identification unit determines the vehicle based on the first feature value. And the presence / absence of a vehicle is determined based on the identification result. On the other hand, when the calculated first feature value is smaller than a predetermined value, the second feature value calculation unit calculates the second feature value based on the optical flow. When the calculated second feature value is larger than the predetermined value, the second vehicle identification unit identifies the vehicle based on the second feature value, and determines whether the vehicle is present based on the identification result. The process of determining and the second feature quantity calculation unit When the second feature value based on the optical flow is calculated and the calculated second feature value is larger than the predetermined value, the second vehicle identification unit identifies the vehicle based on the second feature value, and the identification result On the other hand, when the calculated second feature value is smaller than a predetermined value, the first feature value calculation unit calculates the first feature value based on the density gradient and is calculated When the first feature amount is larger than a predetermined value, the first vehicle identification unit switches between the process of identifying the vehicle based on the first feature amount and determining the presence or absence of the vehicle based on the identification result. In addition, since it is possible to determine whether or not there is a vehicle by calculating at least one of the first feature amount and the second feature amount, it is possible to provide a vehicle external environment recognition device with a small processing load. . In particular, the processing load can be further reduced by switching the feature amount to be calculated according to the calculation result of the vehicle behavior calculation unit.

さらに、本発明の請求項7に係る車両用外界認識装置を用いた車両システムは、請求項1から6のいずれか1項に記載の車両用外界認識装置を用いた車両システムであって、前記車両用外界認識装置によって識別された車両と前記自車両との位置関係を算出する車両相対位置算出部と、前記車両相対位置算出部の算出結果に基づいて、警報を出力する必要性を判断する警報出力判断部と、前記警報出力判断部において警報の出力が必要であると判断されたときに警報を出力する警報出力部と、を有することを特徴とする。   Furthermore, the vehicle system using the vehicle external environment recognition device according to claim 7 of the present invention is a vehicle system using the vehicle external environment recognition device according to any one of claims 1 to 6, wherein Based on the calculation result of the vehicle relative position calculation unit and the vehicle relative position calculation unit that calculates the positional relationship between the vehicle identified by the vehicle external environment recognition device and the host vehicle, the necessity of outputting an alarm is determined. An alarm output determination unit and an alarm output unit that outputs an alarm when it is determined that the alarm output determination unit needs to output an alarm.

このように構成された本発明の請求項7に係る車両用外界認識装置を用いた車両システムによれば、車両用外界認識装置によって精度高く識別された車両の位置に基づいて、車両相対位置算出部が、自車両と、識別された車両との相対位置関係を算出して、こうして算出された相対位置関係に基づいて、警報出力判断部が警報出力の必要性を判断し、警報出力判断部が、警報出力が必要であると判断したときに警報出力部が警報を出力するため、精度の高い警報出力が可能な車両用外界認識装置を用いた車両システムを提供することができる。   According to the vehicle system using the vehicle external environment recognition device according to the seventh aspect of the present invention configured as described above, the vehicle relative position calculation is performed based on the position of the vehicle identified with high accuracy by the vehicle external environment recognition device. The unit calculates the relative positional relationship between the host vehicle and the identified vehicle, and based on the relative positional relationship thus calculated, the warning output determination unit determines the necessity of the warning output, and the warning output determination unit However, since the alarm output unit outputs an alarm when it is determined that the alarm output is necessary, it is possible to provide a vehicle system using the vehicle external environment recognition device capable of outputting an alarm with high accuracy.

また、本発明の請求項8に係る車両用外界認識装置を用いた車両システムは、請求項1から6のいずれか1項に記載の車両用外界認識装置を用いた車両システムであって、前記車両用外界認識装置によって識別された車両と前記自車両との位置関係を算出する車両相対位置算出部と、前記車両相対位置算出部の算出結果に基づいて、前記自車両の挙動を制御する車両挙動制御部と、を有することを特徴とする。   A vehicle system using the vehicle external environment recognition device according to claim 8 of the present invention is the vehicle system using the vehicle external environment recognition device according to any one of claims 1 to 6, wherein A vehicle relative position calculation unit that calculates a positional relationship between the vehicle identified by the vehicle external environment recognition device and the host vehicle, and a vehicle that controls the behavior of the host vehicle based on the calculation result of the vehicle relative position calculation unit And a behavior control unit.

このように構成された本発明の請求項8に係る車両用外界認識装置を用いた車両システムによれば、車両用外界認識装置によって精度高く識別された車両の位置に基づいて、車両相対位置算出部が、自車両と、識別された車両との相対位置関係を算出して、こうして算出された相対位置関係に基づいて、車両挙動制御部が自車両の挙動を制御するため、精度の高い車両の挙動制御が可能な車両用外界認識装置を用いた車両システムを提供することができる。   According to the vehicle system using the vehicle external environment recognition device according to the eighth aspect of the present invention configured as described above, the vehicle relative position calculation is performed based on the position of the vehicle identified with high accuracy by the vehicle external environment recognition device. Since the vehicle calculates the relative positional relationship between the host vehicle and the identified vehicle, and the vehicle behavior control unit controls the behavior of the host vehicle based on the relative positional relationship thus calculated, a highly accurate vehicle It is possible to provide a vehicle system using a vehicle external environment recognition device capable of controlling the behavior of the vehicle.

本発明に係る車両用外界認識装置によれば、2種類の異なる特徴に基づいて識別を行う2種類の識別器を用いて、車両の識別を行うため、単一の識別器で識別を行うよりも幅広いシーンで車両の識別を行うことができ、これによって撮像される画像の状態によらずに安定して車両の識別を行うことができる車両用外界認識装置を提供することができる。   According to the vehicle external recognition apparatus according to the present invention, since the vehicle is identified using two types of classifiers that perform identification based on two different types of features, the identification is performed using a single classifier. In addition, it is possible to provide a vehicle external environment recognition device that can identify a vehicle in a wide range of scenes and can stably identify the vehicle regardless of the state of an image captured.

さらに、本発明に係る車両用外界認識装置を用いた車両システムによれば、精度の高い警報出力や自車両の挙動制御が可能な、車両用外界認識装置を用いた車両システムを提供することができる。   Furthermore, according to the vehicle system using the vehicle external environment recognition device according to the present invention, it is possible to provide a vehicle system using the vehicle external environment recognition device capable of highly accurate alarm output and behavior control of the host vehicle. it can.

本発明の実施例1に係る車両用外界認識装置を用いた衝突警報装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the collision warning apparatus using the external field recognition apparatus for vehicles which concerns on Example 1 of this invention. 図1の特徴抽出部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the feature extraction part of FIG. 本発明の実施例1における処理の流れを示す概略フローチャートである。It is a schematic flowchart which shows the flow of the process in Example 1 of this invention. 本発明の実施例1における車両候補領域抽出処理の流れを示す概略フローチャートである。It is a schematic flowchart which shows the flow of the vehicle candidate area | region extraction process in Example 1 of this invention. 本発明の実施例1における特徴算出処理の流れを示す概略フローチャートである。It is a schematic flowchart which shows the flow of the feature calculation process in Example 1 of this invention. 本発明の実施例1における車両識別処理の流れを示す概略フローチャートである。It is a schematic flowchart which shows the flow of the vehicle identification process in Example 1 of this invention. 縦エッジを検出するオペレータを説明する図である。It is a figure explaining the operator which detects a vertical edge. (a)は本発明の実施例1において取得される画像の第1例を示す。(b)は本発明の実施例1において取得される画像の第2例を示す。(c)は図8(a)の画像から検出されたエッジ情報の例を示す。(d)は図8(b)の画像から検出されたエッジ情報の例を示す。(A) shows the 1st example of the image acquired in Example 1 of this invention. (B) shows the 2nd example of the image acquired in Example 1 of this invention. FIG. 8C shows an example of edge information detected from the image of FIG. FIG. 8D shows an example of edge information detected from the image of FIG. 本発明の実施例2に係る車両用外界認識装置を用いた衝突警報装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the collision warning apparatus using the external field recognition apparatus for vehicles which concerns on Example 2 of this invention. 図9の特徴抽出部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the feature extraction part of FIG. 本発明の実施例2における処理の流れを示す概略フローチャートである。It is a schematic flowchart which shows the flow of the process in Example 2 of this invention. 本発明の実施例3に係る車両用外界認識装置を用いた衝突警報装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the collision warning apparatus using the external field recognition apparatus for vehicles which concerns on Example 3 of this invention. 図12の特徴抽出部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the feature extraction part of FIG. 本発明の実施例3における処理の流れを示す概略フローチャートである。It is a schematic flowchart which shows the flow of the process in Example 3 of this invention.

以下、本発明に係る車両用外界認識装置を用いた車両システムの実施形態について、図面を参照して説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment of a vehicle system using a vehicle external environment recognition device according to the present invention will be described with reference to the drawings.

本実施例1は、車載されたカメラで車両前方を監視して、自車両に接触する可能性のある車両が識別されたときに警報を出力する車両用外界認識装置を用いた衝突警報装置に関するものである。   The first embodiment relates to a collision warning device using a vehicle external environment recognition device that monitors the front of a vehicle with a vehicle-mounted camera and outputs a warning when a vehicle that may come into contact with the host vehicle is identified. Is.

まず、図1、図2を用いて装置の構成を説明する。本実施例1に係る衝突警報装置50は、図示しない自車両10に設置され、自車両10前方の画像を撮像するカメラ100(撮像部)と、自車両10以外の車両を識別する車両用外界認識装置60と、車両が識別されたときに、自車両10から、識別された車両までの方向と距離を算出する車両相対位置算出部70と、衝突の可能性を判断する警報出力判断部80と、衝突の可能性が所定値以上であるときに警報を出力する警報出力部90と、を備えている。   First, the configuration of the apparatus will be described with reference to FIGS. The collision warning device 50 according to the first embodiment is installed in a host vehicle 10 (not shown), and a camera 100 (imaging unit) that captures an image ahead of the host vehicle 10 and a vehicle external environment that identifies vehicles other than the host vehicle 10. When the vehicle is identified, the recognition device 60, a vehicle relative position calculation unit 70 that calculates the direction and distance from the host vehicle 10 to the identified vehicle, and an alarm output determination unit 80 that determines the possibility of a collision. And an alarm output unit 90 that outputs an alarm when the possibility of collision is a predetermined value or more.

ここで、車両用外界認識装置60は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、具体的には、一定周期で、カメラ100(撮像部)で撮像された画像を取り込む画像取得部150と、撮像した画像の中から車両の候補領域を検出する車両候補領域抽出部200と、車両候補領域の中から車両らしさを表す特徴量を算出する特徴量算出部300と、車両候補領域が車両を表すか否かを判定する車両判定部400を備えている。なお、車両用外界認識装置60には、所定の処理がプログラミングされて、予め定められた周期で繰り返し処理を実行するようになっている。   Here, the vehicle external environment recognition device 60 is configured by a computer having a CPU, a memory, an I / O, and the like. Specifically, the vehicle external environment recognition device 60 captures an image captured by the camera 100 (imaging unit) at a constant period. An image acquisition unit 150; a vehicle candidate region extraction unit 200 that detects a candidate region of the vehicle from the captured image; a feature amount calculation unit 300 that calculates a feature amount that represents a vehicle from the vehicle candidate region; A vehicle determination unit 400 that determines whether the candidate area represents a vehicle is provided. In addition, a predetermined process is programmed in the vehicle external environment recognition device 60, and the process is repeatedly executed at a predetermined cycle.

そして、車両候補領域抽出部200は、さらに、縦エッジを構成する画素の位置を検出する縦エッジ検出部210と、縦エッジ検出部210で検出された縦エッジを構成する画素の左右方向の間隔を算出する縦エッジ間隔算出部220と、縦エッジ間隔算出部220で算出された縦エッジの左右方向の間隔(w)と、左右の縦エッジの中央の位置(x)をxw空間に投票して、この投票の結果、ピークを有する点(x,w)を検出して車両候補領域とするxw空間生成部230と、車両候補領域を設定する車両候補領域設定部240からなる。   The vehicle candidate region extraction unit 200 further includes a vertical edge detection unit 210 that detects the positions of the pixels that constitute the vertical edge, and a horizontal interval between the pixels that constitute the vertical edge detected by the vertical edge detection unit 210. The vertical edge interval calculation unit 220 for calculating the vertical edge interval, the vertical edge interval (w) calculated by the vertical edge interval calculation unit 220, and the center position (x) of the left and right vertical edges are voted in the xw space. As a result of the voting, an xw space generation unit 230 that detects a point (x, w) having a peak and sets it as a vehicle candidate region, and a vehicle candidate region setting unit 240 that sets the vehicle candidate region.

また、特徴量算出部300は、さらに、ヒストグラムに基づいた濃度勾配に関するHOG(Histogram of Oriented Gradients)特徴量(第1特徴量)を算出するHOG特徴量算出部310(第1特徴量算出部)と、ヒストグラムに基づいたオプティカルフローに関するHOF(Histogram of Optical Flow)特徴量(第2特徴量)を算出するHOF特徴量算出部320(第2特徴量算出部)からなる。   In addition, the feature amount calculation unit 300 further includes a HOG feature amount calculation unit 310 (first feature amount calculation unit) that calculates a HOG (Histogram of Oriented Gradients) feature amount (first feature amount) related to the density gradient based on the histogram. And a HOF feature quantity calculation unit 320 (second feature quantity calculation unit) that calculates a HOF (Histogram of Optical Flow) feature quantity (second feature quantity) related to the optical flow based on the histogram.

なお、HOG特徴量算出部310は、さらに、図2に示すように、車両候補領域設定部240によって設定された車両候補領域の中に、お互いに重ならないように敷き詰められた複数の部分領域を設定して、こうして設定された部分領域の中の濃度勾配の大きさと方向を算出する勾配情報算出部312と、勾配情報算出部312で算出された濃度勾配の大きさと方向を用いて濃度勾配の方向のヒストグラムを作成する勾配ヒストグラム作成部314と、勾配ヒストグラム作成部314で作成された勾配ヒストグラムから、画像の中の濃度勾配(エッジ特徴)に基づくHOG特徴量(第1特徴量)を算出する濃度勾配特徴量算出部316からなる。   In addition, as shown in FIG. 2, the HOG feature value calculation unit 310 further includes a plurality of partial areas that are laid out so as not to overlap each other in the vehicle candidate areas set by the vehicle candidate area setting unit 240. A gradient information calculation unit 312 that calculates the magnitude and direction of the concentration gradient in the partial region thus set, and the concentration gradient using the concentration gradient magnitude and direction calculated by the gradient information calculation unit 312. A gradient histogram creation unit 314 that creates a direction histogram, and a gradient histogram created by the gradient histogram creation unit 314 calculates a HOG feature amount (first feature amount) based on a density gradient (edge feature) in the image. A density gradient feature amount calculation unit 316 is included.

また、HOF特徴量算出部320は、さらに、図2に示すように、異なる時間に撮像した画像間で、対応する領域を探索してオプティカルフローを算出するオプティカルフロー算出部322と、算出したオプティカルフローのヒストグラムを作成するオプティカルフローヒストグラム作成部324と、算出されたオプティカルフローの大きさと方向によって、画像の中の動きの特徴を表すオプティカルフローに基づくHOF特徴量(第2特徴量)を算出するオプティカルフロー特徴量算出部326からなる。   Further, as shown in FIG. 2, the HOF feature value calculation unit 320 further includes an optical flow calculation unit 322 that searches for a corresponding region between images taken at different times and calculates an optical flow, and the calculated optical flow. An optical flow histogram creating unit 324 that creates a flow histogram and a HOF feature amount (second feature amount) based on an optical flow representing a feature of motion in an image are calculated based on the magnitude and direction of the calculated optical flow. An optical flow feature quantity calculation unit 326 is included.

そして、車両判定部400は、さらに、HOG特徴量とHOF特徴量に基づいて信頼度を算出する信頼度算出部410と、HOG特徴量に基づいて車両の識別を行う第1車両識別部420と、HOF特徴量に基づいて車両の識別を行う第2車両識別部430と、算出された信頼度と、第1車両識別部420における識別結果と、第2車両識別部430における識別結果に基づいて車両有無を判定する判定部440からなる。ここで、第1車両識別部420は、予め収集された様々な条件下で撮像された識別対象(車両)とそれ以外(背景など)の画像の中から、画像の中の濃度勾配に基づくHOG特徴量(第1特徴量)を算出して、算出されたHOG特徴量を学習アルゴリズムによって学習し、この学習に基づいて設計された識別器によって構成される。また、第2車両識別部430は、予め収集された様々な条件下で撮像された識別対象(車両)とそれ以外(背景など)の画像の中から、画像の中のオプティカルフローに基づくHOF特徴量(第2特徴量)を算出して、算出されたHOF特徴量を学習アルゴリズムによって学習し、この学習に基づいて設計された識別器によって構成される。   The vehicle determination unit 400 further includes a reliability calculation unit 410 that calculates the reliability based on the HOG feature value and the HOF feature value, and a first vehicle identification unit 420 that identifies the vehicle based on the HOG feature value. Based on the second vehicle identification unit 430 that identifies the vehicle based on the HOF feature amount, the calculated reliability, the identification result in the first vehicle identification unit 420, and the identification result in the second vehicle identification unit 430 It consists of the determination part 440 which determines the presence or absence of a vehicle. Here, the first vehicle identification unit 420 selects an HOG based on a density gradient in the image from among the images of the identification target (vehicle) and other images (background, etc.) captured under various conditions collected in advance. A feature amount (first feature amount) is calculated, the calculated HOG feature amount is learned by a learning algorithm, and the discriminator is designed based on this learning. In addition, the second vehicle identification unit 430 selects an HOF feature based on the optical flow in the image from among the images of the identification target (vehicle) and other images (background, etc.) captured under various conditions collected in advance. An amount (second feature amount) is calculated, the calculated HOF feature amount is learned by a learning algorithm, and the discriminator is designed based on this learning.

以下、本実施形態に係る衝突警報装置50の作用について、図3〜図6のフローチャート、および図7、図8を用いて説明する。   Hereinafter, the operation of the collision warning device 50 according to the present embodiment will be described with reference to the flowcharts of FIGS. 3 to 6 and FIGS. 7 and 8.

まず、図3のフローチャートに基づいて、衝突警報装置50の作用を説明する。ステップS100において、カメラ100(撮像部)によって、自車両10前方の画像を撮像する。撮像された画像をI(x,y)とし、0≦x≦m−1、0≦y≦n−1とする。撮像された画像I(x,y)は、画像取得部150によって、車両用外界認識装置60に取り込まれる。   First, the operation of the collision warning device 50 will be described based on the flowchart of FIG. In step S100, an image in front of the host vehicle 10 is captured by the camera 100 (imaging unit). The captured image is I (x, y), and 0 ≦ x ≦ m−1 and 0 ≦ y ≦ n−1. The captured image I (x, y) is captured by the vehicle external environment recognition device 60 by the image acquisition unit 150.

ステップS100によって、例えば、図8(a)や図8(b)に示す画像が取得されて、車両用外界認識装置60に取り込まれる。ここで、図8(a)は、適切な光線状態の下で撮像された画像の例であり、車両の最外部および車両の内部は、高いコントラストで画像化されており、良好なエッジ情報が得られている。一方、図8(b)は、逆光の環境や、薄暗い環境で撮像された画像の例であり、車両のコントラストが低く、車両の最外部の輪郭は確認できるが、車両内部の細かいエッジ情報は欠落している。このように、ステップS100では、外部の環境に応じて、様々な品質の画像が取得される。   By step S100, for example, the images shown in FIG. 8A and FIG. 8B are acquired and taken into the vehicle external environment recognition device 60. Here, FIG. 8A is an example of an image captured under an appropriate light beam state. The outermost part of the vehicle and the interior of the vehicle are imaged with high contrast, and good edge information is obtained. Has been obtained. On the other hand, FIG. 8B is an example of an image captured in a backlight environment or a dim environment, and the contrast of the vehicle is low and the outermost contour of the vehicle can be confirmed. It is missing. As described above, in step S100, images of various qualities are acquired according to the external environment.

次に、ステップS120において、車両候補領域抽出部200の作用によって、画像I(x,y)の中から、車両候補領域が抽出される。なお、ステップS120の中で行われる処理の詳細を図4に示すが、その内容については後述する。   Next, in step S120, a vehicle candidate region is extracted from the image I (x, y) by the action of the vehicle candidate region extraction unit 200. Details of the processing performed in step S120 are shown in FIG. 4, and the details will be described later.

さらに、ステップS140において、特徴量算出部300の作用によって、ステップS120で抽出された車両候補領域の内部において、車両らしさを表す特徴量が算出される。なお、ステップS140の中で行われる処理の詳細を図5に示すが、その内容については後述する。   Further, in step S140, a feature amount representing the likelihood of a vehicle is calculated within the candidate vehicle region extracted in step S120 by the operation of the feature amount calculation unit 300. Details of the processing performed in step S140 are shown in FIG.

その後、ステップS150において、車両判定部400の作用によって、ステップS140で算出された特徴量を利用して、車両候補領域が車両を表すか否かが判定される。なお、ステップS150の中で行われる処理の詳細を図6に示すが、その内容については後述する。   Thereafter, in step S150, it is determined by the action of the vehicle determination unit 400 whether or not the vehicle candidate region represents a vehicle using the feature amount calculated in step S140. Details of the processing performed in step S150 are shown in FIG. 6, and the contents will be described later.

次に、ステップS160において、車両相対位置算出部70の作用によって、自車両10と、ステップS150で識別された車両の相対位置関係が算出される。具体的には、まず、画像I(x,y)の中の識別された車両の下端の位置yと、カメラ100(撮像部)の取り付け位置、取り付け方向に基づいて、自車両10から、識別された車両までのおおよその距離を求める。次に、画像I(x,y)の中の識別された車両の左右方向の位置xと、カメラ100(撮像部)の取り付け位置、取り付け方向に基づいて、識別された車両のおおよその方向を求める。そして、警報出力判断部80の作用によって、識別された車両までの距離と方向、および、自車両10の速度と進行方向に基づいて、警報出力が必要か否かが判断される。   Next, in step S160, the relative position relationship between the host vehicle 10 and the vehicle identified in step S150 is calculated by the operation of the vehicle relative position calculation unit 70. Specifically, first, identification is made from the own vehicle 10 based on the position y of the lower end of the identified vehicle in the image I (x, y), the attachment position and the attachment direction of the camera 100 (imaging unit). Find the approximate distance to the vehicle that was released. Next, the approximate direction of the identified vehicle is determined based on the position x in the left-right direction of the identified vehicle in the image I (x, y), the mounting position and the mounting direction of the camera 100 (imaging unit). Ask. Based on the distance and direction to the identified vehicle and the speed and traveling direction of the host vehicle 10, it is determined whether or not alarm output is necessary by the operation of the alarm output determination unit 80.

そして、警報出力が必要であると判定されると、ステップS170において、警報出力部90から警報が出力される。   If it is determined that alarm output is required, an alarm is output from the alarm output unit 90 in step S170.

次に、図3のステップS120で行われる車両候補領域を抽出する処理の詳細について、図4を用いて説明する。   Next, details of the process of extracting the vehicle candidate area performed in step S120 of FIG. 3 will be described with reference to FIG.

まず、ステップS121において、画像I(x,y)の中から、縦方向に延びたエッジ(縦エッジ)の検出を行う。この処理は、縦エッジ検出部210において行われる。縦エッジの検出は、一般には、画像に対して所定のオペレータを重ね合わせて、対応する画素同士の積和演算を行い、その結果をオペレータの中心に対応する画素の位置におけるエッジ強度とすることによって実行される。本実施例の場合、図7に示す3×3のオペレータを作用させるものとする。このようにして得られた縦エッジの強度が格納された画像を、エッジ画像J(x,y)とする。なお、縦エッジを検出するオペレータは、図7に示したものに限定されるわけではなく、その他の係数を有するオペレータを用いてもよいし、図7と異なるサイズのオペレータを用いてもよい。   First, in step S121, an edge (vertical edge) extending in the vertical direction is detected from the image I (x, y). This process is performed in the vertical edge detection unit 210. In general, vertical edges are detected by superimposing a predetermined operator on the image, performing a product-sum operation on the corresponding pixels, and setting the result as the edge strength at the position of the pixel corresponding to the center of the operator. Executed by. In this embodiment, it is assumed that a 3 × 3 operator shown in FIG. The image in which the vertical edge intensity obtained in this way is stored is referred to as an edge image J (x, y). Note that the operator for detecting the vertical edge is not limited to that shown in FIG. 7, and an operator having another coefficient may be used, or an operator having a different size from that in FIG.

次に、ステップS122において、エッジ画像J(x,y)の中から縦エッジを構成する点を探すために、画像の中の位置を指し示すアドレスの値をx=0、y=0にセットする。   Next, in step S122, in order to search for a point constituting a vertical edge from the edge image J (x, y), the value of the address indicating the position in the image is set to x = 0 and y = 0. .

そして、ステップS123において、エッジ画像J(x,y)の中から、水平方向に並んだ縦エッジのペアを探す処理を行う。この処理は、縦エッジ間隔算出部220において行われる。これは、車両の候補領域を抽出するために行う処理であり、水平方向に並んだ縦エッジのペアは、車両の左右端を構成する可能性が高いことを利用して行うものである。   In step S123, a process of searching for a pair of vertical edges arranged in the horizontal direction from the edge image J (x, y) is performed. This process is performed in the vertical edge interval calculation unit 220. This is a process performed to extract a candidate area of the vehicle, and is performed by utilizing the fact that a pair of vertical edges arranged in the horizontal direction is likely to constitute the left and right ends of the vehicle.

なお、具体的には、エッジ画像J(x,y)の中を、左から右、上から下の順に走査して、まず、縦エッジ強度が所定値以上である画素を探索する。そして、条件に該当する画素Eが見つかったら、その画素E(xE1,yE1)を基準として、画素E(xE1,yE1)の右方向で、予め設定された所定の幅wthの内部で、次に出現する縦エッジ強度が所定値以上である画素Eを探索する。なお、このとき、ペアになる縦エッジ同士は、エッジの方向が約180°ずれたものになるような条件で探索される。これは、車両の左右端では約180°ずれた方向を有する縦エッジが検出されるため、車両の左右端に該当しない縦エッジペアを極力探索しないようにして、これによって、縦エッジペア探索の効率を向上させるためである。 Specifically, the edge image J (x, y) is scanned from left to right and from top to bottom, and first, a pixel having a vertical edge intensity equal to or greater than a predetermined value is searched. Then, when found pixel E 1 corresponding to the condition, the pixel E 1 (x E1, y E1 ) as a reference, in the right direction of the pixel E 1 (x E1, y E1 ) , preset predetermined width Within w th , search is made for a pixel E 2 in which the vertical edge intensity that appears next is greater than or equal to a predetermined value. At this time, the paired vertical edges are searched under such a condition that the edge directions are shifted by about 180 °. This is because a vertical edge having a direction shifted by about 180 ° is detected at the left and right ends of the vehicle. Therefore, the vertical edge pair that does not correspond to the left and right ends of the vehicle is not searched as much as possible. It is for improving.

ステップS123において、画素E(xE2,yE1)が見つかったら、画素Eと画素Eの左右方向の間隔wを算出する。本実施例の場合、左右方向の間隔wは、w=xE2−xE1となる。 In step S123, when the pixel E 2 (x E2 , y E1 ) is found, the horizontal interval w between the pixel E 1 and the pixel E 2 is calculated. In the case of the present embodiment, the interval w in the left-right direction is w = x E2 −x E1 .

次に、ステップS124において、抽出された縦エッジペアの左右方向の間隔wが、予め設定された所定の幅wthの内部にあるか否かが判定される。そして、画素E(xE1,yE1)に対して、1つ目の縦エッジペアとなる画素E(xE2,yE1)が見つかった後も、所定の幅wthの内部で、更にx軸方向に縦エッジペアの探索が続行される。 Next, in step S124, it is determined whether the horizontal interval w of the extracted vertical edge pair is within a predetermined width w th set in advance. Then, after the pixel E 2 (x E2 , y E1 ) as the first vertical edge pair is found for the pixel E 1 (x E1 , y E1 ), further within the predetermined width w th The search for vertical edge pairs continues in the x-axis direction.

そして、ステップS125において、算出された縦エッジの左右方向の間隔wと、左右の縦エッジ構成点の中央の位置x=(xE1+xE2)/2が、xw空間生成部230において作成されるxw空間の中の対応する点に対して投票(該当する画素の濃淡値を1インクリメントする)される。 In step S 125, the calculated horizontal edge w of the vertical edges and the center position x = (x E1 + x E2 ) / 2 of the left and right vertical edge composing points are created in the xw space generation unit 230. The corresponding point in the xw space is voted (the gray value of the corresponding pixel is incremented by 1).

ステップS123からステップS125の処理を、エッジ画像J(x,y)の左右方向の位置xをインクリメントしながら(ステップS126)、かつエッジ画像J(x,y)の上下方向の位置yをインクリメントしながら(ステップS127)繰り返す。   The processing from step S123 to step S125 is performed while incrementing the horizontal position x of the edge image J (x, y) (step S126) and incrementing the vertical position y of the edge image J (x, y). (Step S127) and repeat.

次に、ステップS128において、生成されたxw空間の中から縦エッジペアを構成する縦エッジ構成点が多く存在することによって生じた、ピークを有する画素の抽出を行う。こうして抽出されたxw空間の中の画素(x,w)が、車両候補領域を表す。   Next, in step S128, a pixel having a peak, which is generated when there are many vertical edge composing points constituting the vertical edge pair in the generated xw space, is extracted. The pixel (x, w) in the xw space extracted in this way represents a vehicle candidate area.

そして、ステップS129において、車両候補領域設定部240の作用によって、車両候補領域の左右端が設定される。具体的には、xw空間の中から抽出されたピークを有する画素(x,w)の位置に基づいて、その画素(x,w)に対応する領域の左右端の位置を逆算して、こうして逆算された領域の左右端の位置が、車両候補領域の左右端として、画像I(x,y)上に設定される。   In step S129, the left and right ends of the vehicle candidate area are set by the action of the vehicle candidate area setting unit 240. Specifically, based on the position of the pixel (x, w) having a peak extracted from the xw space, the positions of the left and right ends of the region corresponding to the pixel (x, w) are calculated backward, thus The positions of the left and right ends of the reversely calculated area are set on the image I (x, y) as the left and right ends of the vehicle candidate area.

次に、ステップS130において、車両候補領域設定部240の作用によって、車両候補領域の上下端が設定される。具体的には、車両の下部には、水平方向に延びるエッジ成分が多く含まれているため、ステップS129において車両候補領域の左右端として設定された領域の中について、水平方向に延びる水平エッジを検出する処理を行い、検出された水平エッジ点を水平方向に投影して、投影された頻度が所定値を超える位置を車両候補の下端位置として設定する。そして、設定された、車両候補領域の下端位置と左右端の間隔から、車両候補領域の上端位置を推定して、矩形で囲まれた車両候補領域Rが設定される。   Next, in step S130, the upper and lower ends of the vehicle candidate area are set by the action of the vehicle candidate area setting unit 240. Specifically, since a lot of edge components extending in the horizontal direction are included in the lower part of the vehicle, the horizontal edge extending in the horizontal direction is set in the region set as the left and right ends of the vehicle candidate region in step S129. A detection process is performed, the detected horizontal edge point is projected in the horizontal direction, and a position where the projected frequency exceeds a predetermined value is set as the lower end position of the vehicle candidate. And the upper end position of a vehicle candidate area | region is estimated from the set lower end position of a vehicle candidate area | region, and the space | interval of a right-and-left end, and the vehicle candidate area | region R enclosed by the rectangle is set.

次に、図3のステップS140で行われる特徴量を算出する処理の詳細について、図5、図8を用いて説明する。   Next, details of the process of calculating the feature amount performed in step S140 of FIG. 3 will be described with reference to FIGS.

まず、ステップS141において、勾配情報算出部312の作用によって、画像I(x,y)の中の車両候補領域に対して、お互いに重ならないように敷き詰められた複数の部分領域が設定されて、設定された部分領域内部の画像の濃度勾配の大きさと濃度勾配の方向が算出される。   First, in step S141, a plurality of partial areas laid out so as not to overlap each other are set for the vehicle candidate areas in the image I (x, y) by the action of the gradient information calculation unit 312. The magnitude and the direction of the density gradient of the image inside the set partial area are calculated.

ここで、画像I(x,y)の画素(x,y)における濃度勾配の大きさG(x,y)と濃度勾配の方向d(x,y)は、それぞれ、以下のように算出する。   Here, the density gradient magnitude G (x, y) and density gradient direction d (x, y) in the pixel (x, y) of the image I (x, y) are calculated as follows. .

G(x,y)=(f(x,y)+f(x,y)1/2 (式1) G (x, y) = (f x (x, y) 2 + f y (x, y) 2 ) 1/2 (Formula 1)

d(x,y)= tan-1(f(x,y)/f(x,y)) (式2)
ただし、f(x,y)=I(x+1,y)−I(x−1,y) (式3)
d (x, y) = tan −1 (f y (x, y) / f x (x, y)) (Formula 2)
However, f x (x, y) = I (x + 1, y) -I (x-1, y) ( Equation 3)

(x,y)=I(x,y+1)−I(x,y−1) (式4) f y (x, y) = I (x, y + 1) −I (x, y−1) (Formula 4)

次に、ステップS142において、勾配ヒストグラム作成部314の作用によって、勾配情報算出部312で設定された各々の部分領域に対して、(式2)で算出した濃度勾配の方向d(x,y)のヒストグラムを作成する。これによって、部分領域の数だけのヒストグラムが作成される。具体的には、濃度勾配の方向d(x,y)は−180〜180度の範囲で算出されるが、これを0〜180度の範囲に調整し、さらに、これを20度ずつに分割して、9方向のヒストグラムを作成する。なお、ヒストグラムの投票時には、各画素の濃度勾配の方向d(x,y)に対応したヒストグラムの横軸の位置に、その画素の濃度勾配の大きさG(x,y)の値を投票することによって、ヒストグラムの縦軸に、濃度勾配の大きさG(x,y)に対応する値が格納された勾配ヒストグラムH(d)が作成される。   Next, in step S142, the density gradient direction d (x, y) calculated by (Equation 2) for each partial region set by the gradient information calculation unit 312 by the action of the gradient histogram creation unit 314. Create a histogram for. As a result, as many histograms as the number of partial areas are created. Specifically, the concentration gradient direction d (x, y) is calculated in a range of −180 to 180 degrees, and is adjusted to a range of 0 to 180 degrees, and further divided into 20 degrees. Then, a histogram in nine directions is created. At the time of voting the histogram, the value of the density gradient magnitude G (x, y) of the pixel is voted at the position on the horizontal axis of the histogram corresponding to the density gradient direction d (x, y) of each pixel. As a result, a gradient histogram H (d) in which a value corresponding to the density gradient magnitude G (x, y) is stored on the vertical axis of the histogram is created.

次に、ステップS143において、濃度勾配特徴量算出部316の作用によって、ステップS142で作成された勾配ヒストグラムH(d)から、濃度勾配の大きさを表すノルムNを算出して、さらに、作成された勾配ヒストグラムH(d)に対して、勾配ヒストグラムH(d)の中に格納された濃度勾配の方向の乱雑さを表すエントロピーEを算出する。 Next, in step S143, a norm NG representing the magnitude of the density gradient is calculated from the gradient histogram H (d) created in step S142 by the action of the density gradient feature quantity calculation unit 316, and further created. relative gradients histogram H (d), to calculate the entropy E G representing the direction of the randomness of the gradient stored in the gradient histogram H (d).

ノルム(ユークリッドノルム)Nは、(式5)によって算出される。 The norm (Euclidean norm) NG is calculated by (Equation 5).

=ΣH(d) (式5) N G = Σ d H (d) (Formula 5)

ノルムNは、濃度勾配が大きいほど、すなわち、エッジの量が多いほど大きい値をとる。 The norm NG takes a larger value as the density gradient is larger, that is, as the amount of edges is larger.

また、エントロピーEは、(式6)で算出される。 Further, the entropy E G is calculated by (Equation 6).

= Σ(−p(d)log2(p(d))) (式6) E G = Σ d (−p (d) log 2 (p (d))) (Formula 6)

ここで、p(d)は、勾配ヒストグラムH(d)から算出される、濃度勾配の方向がdになる確率(ヒストグラムの面積に占める、濃度勾配の方向がdである濃度勾配の大きさの割合)である。そして、勾配ヒストグラムH(d)の中に格納された濃度勾配の方向が、様々な方向を向いているほど、すなわち、部分領域の中に様々な方向のエッジが含まれて、乱雑さが高いときほど、エントロピーEは大きい値をとる。 Here, p (d) is the probability calculated from the gradient histogram H (d) that the concentration gradient direction is d (the concentration gradient size occupies the area of the histogram and the concentration gradient direction is d). Ratio). Then, as the direction of the density gradient stored in the gradient histogram H (d) is in various directions, that is, edges in various directions are included in the partial region, and the randomness is high. Tokihodo, entropy E G takes a large value.

このように、(式5)で算出されたノルムNと、(式6)で算出されたエントロピーEによって、部分領域の中のエッジの見え方が数値化される。 Thus, the norm N G calculated by the equation (5), by the entropy E G calculated by the equation (6), the appearance of the edges in the partial area is quantified.

例えば、図8(a)に示す画像が取得されたときには、図8(c)に示すエッジ情報が得られる。一方、図8(b)に示す画像が取得されたときには、図8(d)に示すエッジ情報が得られる。図8(c)のように、多くのエッジ構成点が検出されるときには、上述したノルムNとエントロピーEは大きい値をとる。一方、図8(d)のように、エッジ構成点が少ないときには、ノルムNとエントロピーEの値は小さくなる。 For example, when the image shown in FIG. 8A is acquired, the edge information shown in FIG. 8C is obtained. On the other hand, when the image shown in FIG. 8B is acquired, the edge information shown in FIG. 8D is obtained. As shown in FIG. 8 (c), the when the number of edges constituting point is detected, the norm N G entropy E G described above takes a large value. On the other hand, as shown in FIG. 8 (d), when the edge constituting point is small, the value of the norm N G entropy E G becomes small.

次に、ステップS144において、オプティカルフロー算出部322の作用によって、連続した異なる時刻に撮影された複数の画像I(x,y)の中から、時間的に隣り合った2枚の画像I(x,y)、It+Δt(x,y)を選択して、画像It+Δt(x,y)の中から、画像I(x,y)の中の各画素が移動したと考えられる画素(対応する画素)の位置が探索される。 Next, in step S144, by the action of the optical flow calculation unit 322, two images I t (adjacent to each other in time) among a plurality of images I (x, y) photographed at consecutive different times. x, y), I t + Δt (x, y) is selected, and each pixel in the image I t (x, y) is considered to have moved from the image I t + Δt (x, y) ( The position of the corresponding pixel) is searched.

対応する画素の探索方法について、以下に説明する。まず、画像I(x,y)の中から、輝度勾配の大きな点を特徴点として検出する。具体的には、画像I(x,y)に対して、着目する画素の近傍に小領域を設定して、濃度勾配を表す量として、設定した小領域の内部における濃度勾配を求めるオペレータを作用させて、求めた濃度勾配の大きさが所定値よりも大きい画素を特徴点とする。このとき、併せて、同じ画素における濃度勾配の方向も算出しておく。 A corresponding pixel search method will be described below. First, a point with a large luminance gradient is detected as a feature point from the image I t (x, y). Specifically, for the image I t (x, y), an operator who sets a small area in the vicinity of the pixel of interest and obtains the density gradient inside the set small area as an amount representing the density gradient. As a result of the action, a pixel whose magnitude of the obtained density gradient is larger than a predetermined value is set as a feature point. At this time, the direction of the density gradient in the same pixel is also calculated.

次に、画像I(x,y)の中から検出した特徴点と同じ濃度勾配の大きさと濃度勾配の方向を有する画素を、画像It+Δt(x,y)の中から探索する。この処理は、画像It+Δt(x,y)の中に所定の大きさの探索範囲を設定して、設定した探索範囲の中で、画像I(x,y)の中から検出した特徴点と同じ濃度勾配(大きさと方向)を有する画素を探索することによって行われる。 Next, the image I t (x, y) of the pixel having the direction size and concentration gradient of the same gradient as the feature points detected from the searches from the image I t + Δt (x, y ). In this process, a search range having a predetermined size is set in the image I t + Δt (x, y), and the feature point detected from the image I t (x, y) in the set search range. Is performed by searching for pixels having the same density gradient (size and direction).

濃度勾配の大きさと方向の近似度に、それぞれしきい値を設けて、濃度勾配の大きさの差異と、濃度勾配の方向の差異が、ともに、それぞれ設定されたしきい値以内であるときに、対応点が見つかったと判定する。一方、対応点が探索されないときは、画像I(x,y)上で、別の特徴点の検出を行う。 Threshold values are set for the density gradient magnitude and direction approximation, respectively, and the difference in density gradient magnitude and the difference in density gradient direction are both within the set threshold values. It is determined that a corresponding point has been found. On the other hand, when a corresponding point is not searched, another feature point is detected on the image I t (x, y).

このようにして、画像I(x,y)の中から検出した特徴点を始点とし、画像It+Δt(x,y)の中から見つけた対応点を終点とするオプティカルフローが決定する。なお、オプティカルフローは、ベクトル量であり、大きさと方向を有する。以後、画像I(x,y)の画素(x,y)において検出されたオプティカルフローをF(x,y)=(g,g)で表すものとする。このとき、オプティカルフローの大きさF(x,y)は(式7)で表され、オプティカルフローの方向F(x,y)は(式8)で表される。
(x,y)=g +g (式7)
(x,y)=tan-1(g/g) (式8)
In this way, the optical flow having the feature point detected from the image I t (x, y) as the start point and the corresponding point found from the image I t + Δt (x, y) as the end point is determined. The optical flow is a vector quantity and has a size and a direction. Hereinafter, the optical flow detected in the pixel (x, y) of the image I t (x, y ) is represented by F t (x, y) = (g x , g y ). At this time, the magnitude F G (x, y) of the optical flow is expressed by (Expression 7), and the direction F d (x, y) of the optical flow is expressed by (Expression 8).
F G (x, y) = g x 2 + g y 2 (Formula 7)
F d (x, y) = tan −1 (g y / g x ) (Formula 8)

次に、ステップS145において、オプティカルフローヒストグラム作成部324の作用によって、勾配情報算出部312が画像I(x,y)の中に設定した複数の部分領域の各々に対して、オプティカルフローの方向F(x,y)のヒストグラムが作成される。これによって、部分領域の数だけのヒストグラムが作成される。具体的には、オプティカルフローの方向F(x,y)は、−180〜180度の範囲で算出されるが、これを0〜180度の範囲に調整し、さらに、これを20度ずつに分割して、9方向のヒストグラムを作成する。なお、ヒストグラムの投票時には、各画素のオプティカルフローの方向F(x,y)に対応したヒストグラムの横軸の位置に、その画素のオプティカルフローの大きさF(x,y)の値を投票することによって、ヒストグラムの縦軸に、オプティカルフローの大きさに対応する値が格納されたオプティカルフローのヒストグラムH(F)が作成される。 Next, in step S145, the direction of the optical flow is applied to each of the plurality of partial regions set in the image I t (x, y) by the gradient information calculation unit 312 by the action of the optical flow histogram generation unit 324. A histogram of F d (x, y) is created. As a result, as many histograms as the number of partial areas are created. Specifically, the optical flow direction F d (x, y) is calculated in a range of −180 to 180 degrees, and is adjusted to a range of 0 to 180 degrees, and further, this is adjusted by 20 degrees. To create a histogram in 9 directions. At the time of voting the histogram, the value of the optical flow magnitude F G (x, y) of the pixel is set at the position of the horizontal axis of the histogram corresponding to the optical flow direction F d (x, y) of each pixel. By voting, an optical flow histogram H (F d ) in which a value corresponding to the magnitude of the optical flow is stored on the vertical axis of the histogram is created.

次に、ステップS146において、オプティカルフロー特徴量算出部326の作用によって、作成されたオプティカルフローのヒストグラムH(F)から、オプティカルフローの大きさを表すノルムNを算出し、さらに、作成されたオプティカルフローのヒストグラムH(F)に対して、オプティカルフローのヒストグラムH(F)の中に格納されたオプティカルフローの方向F(x,y)の乱雑さを表すエントロピーEを算出する。 Next, in step S146, a norm N d representing the magnitude of the optical flow is calculated from the created optical flow histogram H (F d ) by the action of the optical flow feature quantity calculation unit 326, and further created. calculated for optical flow histogram H (F d), the direction F d (x, y) of the stored optical flows into the optical flow of the histogram H (F d) entropy E d representing the clutter of To do.

ノルム(ユークリッドノルム)Nは、(式9)によって算出される。 The norm (Euclidean norm) N d is calculated by (Equation 9).

=ΣH(F) (式9) N d = Σ d H (F d ) (Formula 9)

ノルムNは、オプティカルフローが大きいほど、すなわち、画像の動きが多いほど大きい値をとる。 The norm N d takes a larger value as the optical flow is larger, that is, as the motion of the image is larger.

また、エントロピーEは、(式10)で算出される。 The entropy Ed is calculated by (Equation 10).

= Σ(−p(F)log2(p(F))) (式10) E d = Σ d (−p (F d ) log 2 (p (F d ))) (Formula 10)

ここで、p(F)は、オプティカルフローのヒストグラムH(F)から算出される、オプティカルフローの方向がFになる確率(ヒストグラムの面積に占める、オプティカルフローの方向がFであるオプティカルフローの大きさの割合)である。そして、オプティカルフローのヒストグラムH(F)の中に格納されたオプティカルフローの方向が、様々な方向を向いているほど、すなわち、部分領域の中に様々な方向のオプティカルフローが含まれて、乱雑さが高いときほど、エントロピーEは大きい値をとる。 Here, p (F d ) is the probability that the optical flow direction is F d calculated from the optical flow histogram H (F d ) (the optical flow direction occupying the area of the histogram is F d ). The ratio of the magnitude of the optical flow). Then, as the direction of the optical flow stored in the optical flow histogram H (F d ) is in various directions, that is, the optical flows in various directions are included in the partial region, higher at higher randomness, entropy E d takes a large value.

このように、(式9)で算出されたノルムNと、(式10)で算出されたエントロピーEによって、部分領域の中のオプティカルフローの出現状態が数値化される。 As described above, the appearance state of the optical flow in the partial region is quantified by the norm N d calculated by (Equation 9) and the entropy E d calculated by (Equation 10).

例えば、図8(b)に示す画像が取得されたときには、図8(d)に示すエッジ情報が得られ、この場合エッジ構成点が少ないため、上述したようにノルムNとエントロピーEは小さい値をとる。しかし、車両の最外部の輪郭は確認できるため、車両の動きによって生じるオプティカルフローを数多く検出することができ、これによって、ノルムNとエントロピーEは大きい値をとる。 For example, when the image is acquired as shown in FIG. 8 (b), obtained edge information shown in FIG. 8 (d), since there is less in this case edge constituting point, the norm N G entropy E G as described above Take a small value. However, since the outermost contour of the vehicle can be confirmed, many optical flows generated by the movement of the vehicle can be detected. As a result, the norm N d and the entropy E d take large values.

なお、ステップS141からS146までの処理は、画像I(x,y)の中から抽出された、車両候補領域の全てに対して順に行われる。   Note that the processing from step S141 to S146 is sequentially performed on all the candidate vehicle regions extracted from the image I (x, y).

次に、図3のステップS150において行われる車両を判定する処理の詳細について、図6、図8を用いて説明する。   Next, details of the vehicle determination process performed in step S150 of FIG. 3 will be described with reference to FIGS.

まず、ステップS151において、信頼度算出部410の作用によって、濃度勾配特徴量算出部316で算出されたノルムNとエントロピーEに基づいて、ノルムNが大きいほど高い値をとり、エントロピーEが大きいほど高い値をとる第1信頼度Rと、オプティカルフロー特徴量算出部326で算出されたノルムNとエントロピーEに基づいて、ノルムNが大きいほど高い値をとり、エントロピーEが大きいほど高い値をとる第2信頼度Rが算出される。すなわち、濃度勾配が大きいほど、また、濃度勾配が様々な方向を向いているほど、第1信頼度Rは高い値を持つ。そして、画像の動きが多いほど、また、様々な方向のオプティカルフローが含まれているほど、第2信頼度Rは高い値を持つ。 First, in step S151, the by the action of the reliability calculation unit 410, based on the norm N G entropy E G calculated by the gradient feature amount calculation unit 316 takes a higher value as the norm N G is large, the entropy E Based on the first reliability R 1 that takes a higher value as G increases and the norm N d and entropy E d calculated by the optical flow feature quantity calculation unit 326, the larger the norm N d, the higher the value, and the entropy A second reliability R 2 that is higher as E d is larger is calculated. That is, the higher the concentration gradient is, and the higher the concentration gradient is in various directions, the higher the first reliability R 1 is. Then, as the motion of the image is large and the higher contains various directions of the optical flow, the second reliability R 2 has a high value.

例えば、図8(a)に示す画像が取得されたときには、ノルムNとエントロピーEが大きい値となるため、第1信頼度Rは高い値となる。また、ノルムNとエントロピーEが大きい値となるため、第2信頼度Rは高い値となる。 For example, when the image shown in FIG. 8 (a) is acquired, because the norm N G entropy E G becomes a large value, first reliability R 1 is a high value. Further, since the norm N d and the entropy E d are large values, the second reliability R 2 is a high value.

一方、図8(b)に示す画像が取得されたときには、ノルムNとエントロピーEが小さい値となるため、第1信頼度Rは低い値となる。また、ノルムNとエントロピーEが大きい値となるため、第2信頼度Rは高い値となる。 On the other hand, when the image shown in FIG. 8 (b) are acquired, since the norm N G entropy E G becomes smaller, the first reliability R 1 is a low value. Further, since the norm N d and the entropy E d are large values, the second reliability R 2 is a high value.

濃度勾配特徴量算出部316では、1つの車両候補領域に対して、複数の部分領域の各々から、それぞれノルムNとエントロピーEが算出されるが、第1信頼度Rは、こうして算出された複数のノルムNの最大値と、複数のエントロピーEの最大値に基づいて算出してもよいし、もしくは、これら複数のノルムNの平均値と、複数のエントロピーEの平均値に基づいて算出してもよい。すなわち、第1信頼度Rは、車両候補領域の濃度勾配の特徴を表す数値として算出される。 The density gradient feature quantity calculation unit 316, for one vehicle candidate region from each of a plurality of partial areas, although the norm N G entropy E G are respectively calculated, first reliability R 1 is thus calculated the maximum value of the plurality of the norm N G that is, may be calculated based on the maximum value of a plurality of entropy E G, or an average value of the plurality of norms N G, the average of a plurality of entropy E G You may calculate based on a value. That is, the first reliability R 1 is calculated as a numerical value representing the characteristic of the concentration gradient of the vehicle candidate region.

また、オプティカルフロー特徴量算出部326では、1つの車両候補領域に対して、複数の部分領域の各々から、それぞれノルムNとエントロピーEが算出されるが、第2信頼度Rは、これら複数のノルムNの最大値と、複数のエントロピーEの最大値に基づいて算出してもよいし、もしくは、これら複数のノルムNの平均値と、複数のエントロピーEの平均値に基づいて算出してもよい。すなわち、第2信頼度Rは、車両候補領域のオプティカルフローの状態を表す数値として算出される。 The optical flow feature quantity calculation unit 326 calculates the norm N d and the entropy E d from each of the plurality of partial areas for one vehicle candidate area, but the second reliability R 2 is the maximum value of the plurality of norms N d, may be calculated based on the maximum value of a plurality of entropy E d, or an average value of the plurality of norms N d, the average value of a plurality of entropy E d You may calculate based on. That is, the second reliability R 2 is calculated as a numerical value representing the state of the optical flow of the vehicle candidate region.

次に、ステップS152において、第1車両識別部420で車両の識別が行われる。この識別処理は、HOG特徴量算出部310(第1特徴量算出部)において、部分領域の位置を1画素ずつずらしながら、その都度、勾配ヒストグラムH(d)を作成して、こうして作成された複数の勾配ヒストグラムH(d)を正規化して、こうして正規化された複数の勾配ヒストグラムH(d)に基づいて、車両候補領域のサイズと部分領域のサイズに応じた次元数を有するHOG特徴量を算出し、こうして算出されたHOG特徴量を第1車両識別部420に入力することによって行われる。   Next, in step S152, the first vehicle identification unit 420 identifies the vehicle. This identification process is created in this way by creating a gradient histogram H (d) each time the position of the partial area is shifted by one pixel in the HOG feature quantity calculator 310 (first feature quantity calculator). A plurality of gradient histograms H (d) are normalized, and a HOG feature amount having a number of dimensions corresponding to the size of the vehicle candidate region and the size of the partial region based on the plurality of gradient histograms H (d) thus normalized This is performed by inputting the HOG feature amount thus calculated to the first vehicle identification unit 420.

さらに、ステップS153において、第2車両識別部430で車両の識別が行われる。この識別処理は、HOF特徴量算出部320(第2特徴量算出部)において、部分領域の位置を1画素ずつずらしながら、その都度オプティカルフローのヒストグラムH(F)を作成して、こうして作成された複数のオプティカルフローのヒストグラムH(F)を正規化して、こうして正規化された複数のオプティカルフローのヒストグラムH(F)に基づいて、車両候補領域のサイズと部分領域のサイズに応じた次元数を有するHOF特徴量を算出し、こうして算出されたHOF特徴量を第2車両識別部430に入力することによって行われる。 Further, in step S153, the second vehicle identification unit 430 identifies the vehicle. In this identification processing, the HOF feature value calculation unit 320 (second feature value calculation unit) creates the optical flow histogram H (F d ) each time while shifting the position of the partial region by one pixel, and thus created. The histograms H (F d ) of the plurality of optical flows thus obtained are normalized, and based on the histograms H (F d ) of the plurality of optical flows thus normalized, depending on the size of the vehicle candidate region and the size of the partial region This is done by calculating the HOF feature value having the number of dimensions and inputting the HOF feature value thus calculated to the second vehicle identification unit 430.

そして、ステップS154において、判定部440の作用によって、第1信頼度Rがあらかじめ設定された第1所定値Rth1よりも高いか否かが判定される。 Then, in step S154, by the action of the determination unit 440, whether or not high is determined than the first predetermined value R th1 first reliability R 1 is preset.

第1信頼度Rがあらかじめ設定された第1所定値Rth1よりも高いと判定されると、ステップS155において、第1車両識別部420における識別結果が、最終的な識別結果として採用され、第1車両識別部420における識別結果に基づいて、車両の有無が判定される。 When the first reliability R 1 is determined to be higher than the first predetermined value R th1 set in advance, in step S155, the discrimination result in the first vehicle identification unit 420, is employed as the final identification result, Based on the identification result in first vehicle identification section 420, the presence or absence of a vehicle is determined.

例えば、図8(a)に示す画像が取得されたときには、ノルムNとエントロピーEが大きい値となるため、第1信頼度Rは高い値となり、第1信頼度Rがあらかじめ設定された第1所定値Rth1よりも高いと判定されることによって、第1車両識別部420における識別結果が、最終的な識別結果として採用される。 For example, when the image shown in FIG. 8 (a) is acquired, because the norm N G entropy E G becomes a large value, first reliability R 1 becomes a high value, setting the first reliability R 1 in advance When it is determined that the value is higher than the first predetermined value Rth1 , the identification result in the first vehicle identification unit 420 is adopted as the final identification result.

そして、ステップS156において、判定部440の作用によって、第2信頼度Rがあらかじめ設定された第2所定値Rth2よりも高いか否かが判定される。 Then, in step S156, by the action of the determination unit 440, whether or not high is determined than the second predetermined value R th2 second reliability R 2 is preset.

第1信頼度Rがあらかじめ設定された第1所定値Rth1よりも低く、かつ第2信頼度Rがあらかじめ設定された第2所定値Rth2よりも高いと判定されると、ステップS157において、第2車両識別部430における識別結果が、最終的な識別結果として採用され、第2車両識別部430における識別結果に基づいて、車両の有無が判定される。 If it is determined that the first reliability R 1 is lower than the preset first predetermined value R th1 and the second reliability R 2 is higher than the preset second predetermined value R th2 , step S157 is performed. Then, the identification result in the second vehicle identification unit 430 is adopted as the final identification result, and the presence or absence of the vehicle is determined based on the identification result in the second vehicle identification unit 430.

例えば、図8(b)に示す画像が取得されたときには、ノルムNとエントロピーEが大きい値となるため、第2信頼度Rは高い値となり、第2信頼度Rがあらかじめ設定された第1所定値Rth2よりも高いと判定されることによって、第2車両識別部430における識別結果が、最終的な識別結果として採用される。 For example, when the image shown in FIG. 8B is acquired, the norm N d and the entropy E d are large values. Therefore, the second reliability R 2 is a high value, and the second reliability R 2 is set in advance. When it is determined that the value is higher than the first predetermined value R th2 , the identification result in the second vehicle identification unit 430 is adopted as the final identification result.

さらに、ステップS154、ステップS156のいずれの条件も満たさないとき、すなわち、第1信頼度Rがあらかじめ設定された第1所定値Rth1よりも低く、かつ第2信頼度Rがあらかじめ設定された第2所定値Rth2よりも低いときには、ステップS158において、着目している車両候補領域は車両ではないと判定される。 Furthermore, step S154, when it is not satisfied any of the conditions in step S156, i.e., the first predetermined value lower than R th1 of first reliability R 1 is preset, and the second reliability R 2 is preset and when the second lower than the predetermined value R th2 in step S158, the vehicle candidate region of interest is determined not to be a vehicle.

そして、ステップS159において、抽出した全ての車両候補領域に対して識別が終了したか否かが判断されて、全ての車両候補領域に対して識別が終了したと判断されると、図3のステップS160に進む。そして、全ての車両候補領域に対して識別が終了していないときは、識別処理を継続する。   Then, in step S159, it is determined whether or not the identification has been completed for all the extracted vehicle candidate areas, and if it is determined that the identification has been completed for all the vehicle candidate areas, the step of FIG. The process proceeds to S160. And when identification is not complete | finished with respect to all the vehicle candidate area | regions, an identification process is continued.

なお、図6では、第1車両識別部420と第2車両識別部430でともに識別処理を行った後で、第1信頼度Rと第2信頼度Rの大きさに基づいて、車両の識別結果を選択する構成としたが、その限りではなく、先に第1信頼度Rと第2信頼度Rの大きさを評価して、その評価結果に基づいて、第1車両識別部420、もしくは第2車両識別部430において識別処理を行う構成としてもよい。このような処理構成にすることによって、第1車両識別部420と第2車両識別部430の両方で識別処理を行う必要がなく、信頼度算出部410で算出された第1信頼度Rと第2信頼度Rの大きさに基づいて、第1車両識別部420と第2車両識別部430のいずれか一方の識別器が選択されて識別処理を行うため、識別処理を効率的に実行することができる。 In FIG. 6, after both the first vehicle identification unit 420 and the second vehicle identification unit 430 perform the identification process, the vehicle is determined based on the magnitudes of the first reliability R 1 and the second reliability R 2. However, the present invention is not limited to this. The first reliability R 1 and the second reliability R 2 are first evaluated, and the first vehicle identification is performed based on the evaluation results. It is good also as a structure which performs an identification process in the part 420 or the 2nd vehicle identification part 430. FIG. By adopting such a processing configuration, it is not necessary to perform identification processing in both the first vehicle identification unit 420 and the second vehicle identification unit 430, and the first reliability R 1 calculated by the reliability calculation unit 410 and based on the magnitude of the second reliability R 2, for performing a first vehicle identification unit 420 either discriminator identification process is selection of the second vehicle identification unit 430, executes the identification process efficiently can do.

また、本実施例では、ソフトウェア処理の効率を上げるために、車両候補領域抽出部200によって抽出された車両候補領域のみに対して、特徴量算出部300でHOG特徴量とHOF特徴量を算出し、車両判定部400で車両の識別、および判定を行ったが、特に車両候補領域を抽出する必要はなく、撮像された画像全体に亘って、特徴量算出部300でHOG特徴量とHOF特徴量を算出し、車両判定部400で車両の識別、および判定を行う構成としてもよい。特に、車両用外界認識装置60が複数のCPUを搭載して、複数の画像処理を並列に実行できる環境であれば、画像全体に亘って同じ処理を一気に実行した方が効率がよい場合もある。   In the present embodiment, in order to increase the efficiency of software processing, the feature amount calculation unit 300 calculates the HOG feature amount and the HOF feature amount only for the vehicle candidate region extracted by the vehicle candidate region extraction unit 200. The vehicle determination unit 400 identifies and determines the vehicle, but it is not particularly necessary to extract the vehicle candidate area. The feature amount calculation unit 300 performs the HOG feature amount and the HOF feature amount over the entire captured image. The vehicle determination unit 400 may be configured to identify and determine the vehicle. In particular, if the vehicle external environment recognition device 60 is equipped with a plurality of CPUs and can execute a plurality of image processings in parallel, it may be more efficient to execute the same processing all at once on the entire image. .

以上説明したように、このように構成された本発明の車両用外界認識装置60を用いた衝突警報装置50によれば、撮像部100で撮像された自車両10前方の画像の中から、HOG特徴量算出部310(第1特徴量算出部)が濃度勾配に基づくHOG特徴量(第1特徴量)を算出して、HOF特徴量算出部320(第2特徴量算出部)が撮像部100で異なる時刻に撮像された複数の画像の中から、オプティカルフローに基づくHOF特徴量(第2特徴量)を算出して、信頼度算出部410が、濃度勾配が大きいほど高い第1信頼度Rを算出し、さらに、オプティカルフローが大きいほど高い第2信頼度Rを算出して、第1車両識別部420がHOG特徴量(第1特徴量)に基づいて車両の識別を行って、第2車両識別部430がHOF特徴量(第2特徴量)に基づいて車両の識別を行って、車両判定部400が第1車両識別部420における識別結果と、第2車両識別部430における識別結果と、第1信頼度Rと、第2信頼度Rに基づいて車両の有無を判定するので、撮像された画像の中の濃度勾配が大きい、すなわちエッジがはっきりした画像に対しては、第1車両識別部420が濃度勾配に基づくHOG特徴量(第1特徴量)に基づいて車両の識別を行い、また、撮像された画像の中のオプティカルフローが大きい、すなわち動きがはっきりした画像に対しては、第2車両識別部430がオプティカルフローに基づくHOF特徴量(第2特徴量)に基づいて車両の識別を行うため、単一の識別器で車両の識別を行うよりも、幅広いシーンで車両の識別を行うことができる車両用外界認識装置60を提供することができる。 As described above, according to the collision alarm device 50 using the vehicle external environment recognition device 60 of the present invention configured as described above, the HOG is selected from the images in front of the host vehicle 10 captured by the imaging unit 100. The feature amount calculator 310 (first feature amount calculator) calculates the HOG feature amount (first feature amount) based on the density gradient, and the HOF feature amount calculator 320 (second feature amount calculator) is the imaging unit 100. The HOF feature quantity (second feature quantity) based on the optical flow is calculated from a plurality of images taken at different times in the above, and the reliability calculation unit 410 increases the first reliability R as the density gradient increases. 1 and further, the higher the optical flow, the higher the second reliability R 2 is calculated, and the first vehicle identification unit 420 identifies the vehicle based on the HOG feature (first feature), Second vehicle identification unit 430 is H The vehicle is identified based on the F feature quantity (second feature quantity), and the vehicle determination unit 400 identifies the identification result in the first vehicle identification unit 420, the identification result in the second vehicle identification unit 430, and the first reliability. Since the presence or absence of the vehicle is determined based on R 1 and the second reliability R 2 , the first vehicle identification unit 420 is used for an image having a large density gradient in the captured image, that is, an image with a clear edge. Identifies the vehicle based on the HOG feature value (first feature value) based on the density gradient, and the second is applied to an image having a large optical flow, that is, a clear movement in the captured image. Since the vehicle identification unit 430 identifies the vehicle based on the HOF feature value (second feature value) based on the optical flow, the vehicle identification is performed in a wider range of scenes than when the vehicle is identified by a single classifier. This It is possible to provide the environment recognizing apparatus 60 for a vehicle that can.

また、このように構成された本発明の車両用外界認識装置60を用いた衝突警報装置50によれば、車両判定部400は、第1信頼度Rが第1所定値よりも高いときには、第1車両識別部420の識別結果に基づいて車両の有無の判定を行い、第1信頼度Rが第1所定値Rth1よりも低く、かつ第2信頼度Rが第2所定値Rth2よりも高いときには、第2車両識別部430の識別結果に基づいて車両の有無の判定を行い、第1信頼度Rが第1所定値Rth1よりも低く、かつ第2信頼度Rが第2所定値Rth2よりも低いときには、車両なしと判定するため、準備された複数の識別器の全てを用いることなく、そのときに撮像された画像の特徴に合った識別器を1つだけ用いて車両の識別を行うことができるため、識別処理を効率的に行うことができる。 Further, according to the collision warning device 50 using the environment recognizing apparatus 60 for a vehicle of the present invention configured in this manner, the vehicle determining unit 400, when the first reliability R 1 is higher than the first predetermined value, perform the determination of the presence or absence of the vehicle based on the identification result of the first vehicle identification unit 420, first reliability R 1 is lower than the first predetermined value R th1, and the second reliability R 2 is a second predetermined value R when higher than th2, based on the identification result of the second vehicle identification unit 430 performs the determination of the presence or absence of the vehicle, first reliability R 1 is lower than the first predetermined value R th1, and the second reliability R 2 Is lower than the second predetermined value R th2 , it is determined that there is no vehicle, so that one classifier that matches the characteristics of the image captured at that time is used without using all of the plurality of prepared classifiers. The vehicle can be identified using only the identification It is possible to carry out the management efficiently.

さらに、このように構成された本発明に係る車両用外界認識装置60を用いた衝突警報装置50によれば、車両用外界認識装置60によって精度高く識別された車両の位置に基づいて、車両相対位置算出部70が、自車両10と、識別された車両との相対位置関係を算出して、こうして算出された相対位置関係に基づいて、警報出力判断部80が警報出力の必要性を判断し、警報出力判断部80が、警報出力が必要であると判断したときに警報出力部90が警報を出力するため、精度の高い警報出力が可能な、車両用外界認識装置を用いた車両システムを提供することができる。   Furthermore, according to the collision alarm device 50 using the vehicle external environment recognition device 60 according to the present invention configured as described above, the vehicle relative position is determined based on the position of the vehicle identified with high accuracy by the vehicle external environment recognition device 60. The position calculation unit 70 calculates the relative positional relationship between the host vehicle 10 and the identified vehicle, and the warning output determination unit 80 determines the necessity of the warning output based on the relative positional relationship thus calculated. Since the alarm output unit 90 outputs an alarm when the alarm output determination unit 80 determines that the alarm output is necessary, a vehicle system using a vehicle external recognition device capable of outputting an alarm with high accuracy is provided. Can be provided.

なお、本実施例では、識別された車両の位置に基づいて、識別された車両に衝突する可能性があるときに警報を出力する衝突警報装置を例にあげて説明したが、これは、衝突警報装置に限らず、より積極的に自車両10の挙動を制御するシステムにも適用することができる。   In the present embodiment, the collision alarm device that outputs an alarm when there is a possibility of collision with the identified vehicle based on the position of the identified vehicle has been described as an example. The present invention can be applied not only to the alarm device but also to a system that more actively controls the behavior of the host vehicle 10.

すなわち、図1の構成に、さらに、自車両10と先行車両の車間距離を測定する車間距離計測部(車両挙動制御部)を付加して、この車間距離計測部によって計測された自車両10と先行車両の車間距離を維持するように自車両10の車速を制御するACCシステムを実現することもできる。また、識別された車両の位置に基づいて、衝突の可能性がある場合に、自車両10に制動をかける制動アクチュエータを作動させて、自車両10を減速させる自動ブレーキシステムを実現することもできる。   That is, an inter-vehicle distance measuring unit (vehicle behavior control unit) that measures the inter-vehicle distance between the host vehicle 10 and the preceding vehicle is added to the configuration of FIG. 1, and the own vehicle 10 measured by the inter-vehicle distance measuring unit It is also possible to realize an ACC system that controls the vehicle speed of the host vehicle 10 so as to maintain the inter-vehicle distance of the preceding vehicle. In addition, an automatic brake system that decelerates the host vehicle 10 by operating a braking actuator that brakes the host vehicle 10 when there is a possibility of a collision based on the identified vehicle position can be realized. .

また、本実施例では、カメラ100(撮像部)は自車両10前方の画像を撮像して車両の識別を行ったが、これは、自車両10前方の画像に限定されるものではない。すなわち、カメラ100(撮像部)で自車両10の後方の画像を撮像して、自車両10が後退する際に、自車両10の後方にある車両を識別して、識別された車両と衝突する可能性があるときに警報を出力する構成とすることも可能である。さらに、カメラ100(撮像部)で自車両10の後側方の画像を撮像して、撮像された画像の中から車両を識別して、自車両10が車線変更を行う際に、識別された車両と衝突する可能性があるときに、警報を出力する構成とすることも可能である。   In this embodiment, the camera 100 (imaging unit) captures an image in front of the host vehicle 10 and identifies the vehicle, but this is not limited to the image in front of the host vehicle 10. That is, an image behind the host vehicle 10 is captured by the camera 100 (imaging unit), and when the host vehicle 10 moves backward, the vehicle behind the host vehicle 10 is identified and collides with the identified vehicle. It may be configured to output an alarm when there is a possibility. Furthermore, the rear image of the host vehicle 10 is captured by the camera 100 (imaging unit), the vehicle is identified from the captured image, and the vehicle 10 is identified when the lane change is performed. When there is a possibility of collision with the vehicle, it is also possible to output a warning.

さらに、本実施例では、学習アルゴリズムに基づいて予め設計された識別器によって構成される第1車両識別部420と第2車両識別部430によって、車両の識別を行うと説明したが、その具体的な構成例は、特に限定されるものではなく、例えばニューラルネットワークを用いて実現してもよいし、サポートベクターマシン(SVM)識別器、NN(ニアレストネイバー)識別器、ベイズ識別器などを用いて実現してもよい。   Further, in the present embodiment, it has been described that the vehicle is identified by the first vehicle identification unit 420 and the second vehicle identification unit 430 configured by a classifier designed in advance based on a learning algorithm. Such a configuration example is not particularly limited, and may be realized by using, for example, a neural network, a support vector machine (SVM) classifier, an NN (nearest neighbor) classifier, a Bayes classifier, or the like. May be realized.

また、本実施例では、第1特徴量としてHOG特徴量を利用したが、これは、HOG特徴量に限定されるものではない。すなわち、撮像された画像I(x,y)の中の濃度勾配に基づく特徴量であれば、HOG特徴量に代えて使用することができる。例えば、隣接する矩形領域間の輝度差を求めて、それを特徴量として用いるHaar like特徴量や、近傍領域の輝度分布を濃度勾配として捉え、大きさや回転に不変な特徴を得ることができるSIFT特徴量などを用いてもよい。   In this embodiment, the HOG feature value is used as the first feature value. However, this is not limited to the HOG feature value. That is, any feature quantity based on the density gradient in the captured image I (x, y) can be used instead of the HOG feature quantity. For example, SIFT can obtain a feature that is invariant in size and rotation by obtaining a brightness difference between adjacent rectangular areas and using a Haar like feature quantity that uses the difference as a feature quantity or a brightness distribution in a neighboring area as a density gradient. A feature amount or the like may be used.

次に、本発明に係る車両用外界認識装置を用いた車両システムの第2の実施例について、車載されたカメラで車両前方を監視して、自車両に接触する可能性のある車両が識別されたときに警報を出力する車両用外界認識装置を用いた衝突警報装置を例にあげて説明する。   Next, regarding the second embodiment of the vehicle system using the vehicle external environment recognition apparatus according to the present invention, the vehicle front is monitored by a camera mounted on the vehicle, and a vehicle that may contact the host vehicle is identified. A collision warning device using a vehicle external environment recognition device that outputs a warning when an accident occurs will be described as an example.

まず、図9を用いて装置の構成を説明する。本実施例2に係る衝突警報装置52は、図示しない自車両10に設置され、自車両10前方の画像を撮像するカメラ100(撮像部)と、自車両10以外の車両を識別する車両用外界認識装置62と、車両が識別されたときに、自車両10から、識別された車両までの方向と距離を算出する車両相対位置算出部70と、衝突の可能性を判断する警報出力判断部80と、衝突の可能性が所定値以上であるときに警報を出力する警報出力部90を備えている。   First, the configuration of the apparatus will be described with reference to FIG. The collision warning device 52 according to the second embodiment is installed in a host vehicle 10 (not shown), and a camera 100 (imaging unit) that captures an image ahead of the host vehicle 10 and a vehicle external environment that identifies vehicles other than the host vehicle 10. When the vehicle is identified, the recognition device 62, a vehicle relative position calculation unit 70 that calculates the direction and distance from the host vehicle 10 to the identified vehicle, and an alarm output determination unit 80 that determines the possibility of a collision. And an alarm output unit 90 that outputs an alarm when the possibility of collision is a predetermined value or more.

ここで、車両用外界認識装置62は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、具体的には、一定周期で、カメラ100(撮像部)で撮像された画像を取り込む画像取得部150と、撮像した画像の中から車両の候補領域を検出する車両候補領域抽出部200と、車両候補領域の中から車両らしさを表す特徴量を算出する特徴量算出部350と、車両候補領域が車両を表すか否かを判定する車両判定部450を備えている。なお、車両用外界認識装置62には、所定の処理がプログラミングされて、予め定められた周期で繰り返し処理を実行するようになっている。   Here, the vehicle external environment recognition device 62 is configured by a computer having a CPU, a memory, an I / O, and the like, and specifically captures an image captured by the camera 100 (imaging unit) at a constant period. An image acquisition unit 150; a vehicle candidate region extraction unit 200 that detects a candidate region of a vehicle from the captured image; a feature amount calculation unit 350 that calculates a feature amount that represents the vehicle likeness from the vehicle candidate region; A vehicle determination unit 450 that determines whether the candidate area represents a vehicle is provided. The vehicle external environment recognition device 62 is programmed with a predetermined process and repeatedly executes the process at a predetermined cycle.

車両候補領域抽出部200は、さらに、縦エッジを構成する画素の位置を検出する縦エッジ検出部210と、縦エッジ検出部210で検出された縦エッジを構成する画素の左右方向の間隔を算出する縦エッジ間隔算出部220と、縦エッジ間隔算出部220で算出された縦エッジの左右方向の間隔(w)と、左右の縦エッジの中央の位置(x)をxw空間に投票して、この投票の結果、ピークを有する点(x,w)を検出して車両候補領域とするxw空間生成部230と、車両候補領域を設定する車両候補領域設定部240からなる。   The vehicle candidate area extraction unit 200 further calculates a vertical edge detection unit 210 that detects the position of the pixel that forms the vertical edge, and a horizontal interval between the pixels that form the vertical edge detected by the vertical edge detection unit 210. The vertical edge interval calculator 220, the horizontal edge interval (w) of the vertical edge calculated by the vertical edge interval calculator 220, and the center position (x) of the left and right vertical edges are voted in the xw space, As a result of this voting, an xw space generation unit 230 that detects a point (x, w) having a peak and sets it as a vehicle candidate region, and a vehicle candidate region setting unit 240 that sets the vehicle candidate region.

特徴量算出部350は、さらに、ヒストグラムに基づいた勾配情報に関するHOG(Histogram of Oriented Gradients)特徴量(第1特徴量)を算出するHOG特徴量算出部310(第1特徴量算出部)と、ヒストグラムに基づいたオプティカルフローに関するHOF(Histogram of Optical Flow)特徴量(第2特徴量)を算出するHOF特徴量算出部320(第2特徴量算出部)と、HOG特徴量算出部310で算出されたHOG特徴量を取得して、その大きさを判定し、HOG特徴量の大きさが所定の値に満たないときには、HOF特徴量算出部320に対してHOF特徴量の算出を指示し、算出されたHOF特徴量を取得して、その大きさを判定する特徴量判定部330からなる。   The feature amount calculation unit 350 further includes a HOG feature amount calculation unit 310 (first feature amount calculation unit) that calculates a HOG (Histogram of Oriented Gradients) feature amount (first feature amount) related to gradient information based on the histogram, Calculated by a HOF feature quantity calculation unit 320 (second feature quantity calculation unit) that calculates a HOF (Histogram of Optical Flow) feature quantity (second feature quantity) relating to the optical flow based on the histogram, and a HOG feature quantity calculation unit 310. The HOG feature value is obtained and determined, and when the HOG feature value is less than a predetermined value, the HOF feature value calculation unit 320 is instructed to calculate the HOF feature value. The feature amount determination unit 330 is configured to acquire the obtained HOF feature amount and determine the size thereof.

なお、特徴量算出部350の詳細な構成を、図10に示す。このうち、HOG特徴量算出部310とHOF特徴量算出部320の詳細構成は、図2に示した通りであるため、説明は省略する。そして、特徴量判定部330は、さらに、HOG特徴量算出部310で算出されたHOG特徴量の大きさを判定するHOG特徴量判定部332と、HOF特徴量算出部320に対して、HOF特徴量の算出を指示するHOF特徴量算出指示部334と、HOF特徴量算出部320で算出されたHOF特徴量の大きさを判定するHOF特徴量判定部336からなる。   The detailed configuration of the feature amount calculation unit 350 is shown in FIG. Among these, the detailed configurations of the HOG feature value calculation unit 310 and the HOF feature value calculation unit 320 are as shown in FIG. The feature amount determination unit 330 further performs the HOF feature on the HOG feature amount determination unit 332 that determines the size of the HOG feature amount calculated by the HOG feature amount calculation unit 310 and the HOF feature amount calculation unit 320. An HOF feature value calculation instruction unit 334 for instructing the amount calculation, and a HOF feature value determination unit 336 for determining the magnitude of the HOF feature value calculated by the HOF feature value calculation unit 320.

そして、車両判定部450は、さらに、HOG特徴量に基づいて車両の識別を行う第1車両識別部420と、HOF特徴量に基づいて車両の識別を行う第2車両識別部430からなる。ここで、第1車両識別部420と第2車両識別部430は、実施例1で説明した通り、学習アルゴリズムに基づいて設計された識別器によって構成されている。   The vehicle determination unit 450 further includes a first vehicle identification unit 420 that identifies the vehicle based on the HOG feature value, and a second vehicle identification unit 430 that identifies the vehicle based on the HOF feature value. Here, the 1st vehicle identification part 420 and the 2nd vehicle identification part 430 are comprised by the discriminator designed based on the learning algorithm as demonstrated in Example 1. FIG.

以下、本実施形態に係る衝突警報装置52の作用について、図11のフローチャートに基づいて説明する。なお、実施例1で説明した処理と同様の処理を行う箇所については、再説明を省略する。したがって、本実施例2の作用説明が省略されている箇所は、実施例1で説明した内容に従うものとする。   Hereinafter, the operation of the collision warning device 52 according to the present embodiment will be described based on the flowchart of FIG. In addition, about the location which performs the process similar to the process demonstrated in Example 1, description is abbreviate | omitted. Therefore, the portions where the description of the operation of the second embodiment is omitted follow the contents described in the first embodiment.

図11のフローチャートに基づいて、衝突警報装置52の作用を説明する。ステップS200において、カメラ100(撮像部)によって、自車両10前方の画像を撮像する。撮像された画像をI(x,y)とし、0≦x≦m−1、0≦y≦n−1とする。撮像された画像I(x,y)は、画像取得部150によって、車両用外界認識装置62に取り込まれる。   Based on the flowchart of FIG. 11, the operation of the collision warning device 52 will be described. In step S200, an image in front of the host vehicle 10 is captured by the camera 100 (imaging unit). The captured image is I (x, y), and 0 ≦ x ≦ m−1 and 0 ≦ y ≦ n−1. The captured image I (x, y) is taken into the vehicle external environment recognition device 62 by the image acquisition unit 150.

次に、ステップS210において、車両候補領域抽出部200の作用によって、画像I(x,y)の中から、車両候補領域が抽出される。なお、ステップS210の中で行われる処理の詳細は、実施例1で説明した内容と同様であるため、説明は省略する。   Next, in step S210, a vehicle candidate region is extracted from the image I (x, y) by the action of the vehicle candidate region extraction unit 200. Note that the details of the process performed in step S210 are the same as the contents described in the first embodiment, and thus the description thereof is omitted.

さらに、ステップS220において、特徴量算出部350の作用によって、ステップS210で抽出された車両候補領域の内部において、画像の濃度勾配に基づくHOG特徴量(第1特徴量)が算出される。なお、ステップS220の中で行われる処理の詳細は、実施例1の中で、図5に基づいて説明したステップS141からステップS143と同様であるため、説明は省略する。そして、このステップS220の処理によって、HOG特徴量として、勾配ヒストグラムH(d)が作成されて、ノルムNとエントロピーEが算出される。 Further, in step S220, the HOG feature amount (first feature amount) based on the density gradient of the image is calculated inside the vehicle candidate region extracted in step S210 by the action of the feature amount calculation unit 350. The details of the processing performed in step S220 are the same as those in steps S141 to S143 described in the first embodiment based on FIG. Then, this through the process of step S220, as HOG features and gradient histogram H (d) is created, the norm N G entropy E G is calculated.

その後、ステップS230において、特徴量判定部330の作用によって、ステップS220で算出されたHOG特徴量である、ノルムNとエントロピーEの大きさが判定される。具体的には、HOG特徴量判定部332において、ノルムNの大きさが、予め設定された所定値NGthよりも大きく、かつエントロピーEの大きさが、予め設定された所定値EGthよりも大きいときには、ステップS240に進む。 Thereafter, in step S230, the by the action of the characteristic amount determination unit 330, an HOG feature amount calculated in the step S220, the size of the norm N G entropy E G is determined. Specifically, in the HOG features determining unit 332, the size of the norm N G is larger than a predetermined value N Gth, and the size of the entropy E G is a predetermined value E Gth If greater than, the process proceeds to step S240.

一方、ノルムNの大きさとエントロピーEの大きさが、前記条件を満たさないときは、HOF特徴量算出指示部334からHOF特徴量算出部320に対してHOF特徴量の算出が指示され、HOF特徴量算出部320において、ステップS210で抽出された車両候補領域の内部において、画像の動きに基づくHOF特徴量(第2特徴量)が算出される。なお、HOF特徴量の算出処理は、実施例1の中で図5に基づいて説明したステップS144からステップS146と同様であるため、説明は省略する。そして、この処理によって、HOF特徴量として、オプティカルフローのヒストグラムH(F)が作成されて、ノルムNとエントロピーEが算出される。 On the other hand, the size and magnitude of the entropy E G norm N G is, when does not satisfy the condition, HOF feature value calculation is instructed by the HOF feature quantity calculation instruction unit 334 with respect HOF feature calculation section 320, The HOF feature value calculation unit 320 calculates a HOF feature value (second feature value) based on the motion of the image inside the vehicle candidate area extracted in step S210. Note that the HOF feature amount calculation process is the same as steps S144 to S146 described with reference to FIG. By this processing, an optical flow histogram H (F d ) is created as the HOF feature value, and the norm N d and the entropy E d are calculated.

次に、ステップS234において、特徴量判定部330の作用によって、HOF特徴量である、ノルムNとエントロピーEの大きさが判定される。具体的には、HOF特徴量判定部336において、ノルムNの大きさが、予め設定された所定値Ndthよりも大きく、かつ エントロピーEの大きさが、予め設定された所定値Edthよりも大きいときには、ステップS250に進む。 Next, in step S234, the magnitude of the norm N d and the entropy E d that are HOF feature amounts are determined by the action of the feature amount determination unit 330. Specifically, in the HOF feature amount determination unit 336, the magnitude of the norm N d is greater than a preset predetermined value N dth and the magnitude of the entropy E d is a preset predetermined value E dth. If greater than, the process proceeds to step S250.

一方、ノルムNの大きさとエントロピーEの大きさが、前記条件を満たさないときは、車両候補領域に車両はないと判定されて、図10の処理を終了する。 On the other hand, when the norm N d and the entropy E d do not satisfy the above condition, it is determined that there is no vehicle in the vehicle candidate region, and the process of FIG. 10 is terminated.

ステップS230において、HOG特徴量である、ノルムNとエントロピーEの大きさが、ともに所定値よりも大きいと判定されたときは、ステップS240において、第1車両識別部420の作用によって車両の識別が行われる。この識別処理は、HOG特徴量算出部310(第1特徴量算出部)において作成された複数の勾配ヒストグラムH(d)を正規化して算出した、車両候補領域のサイズと部分領域のサイズに応じた次元数を有するHOG特徴量を第1車両識別部420に入力することによって行われる。そして、車両候補領域が車両を表すか否かが判定されて、ステップS260に進む。 In step S230, the an HOG features, the size of the norm N G entropy E G is, if it is determined that both greater than the predetermined value, in step S240, the vehicle by the action of the first vehicle identification unit 420 Identification is performed. This identification processing is performed according to the size of the vehicle candidate area and the size of the partial area calculated by normalizing the plurality of gradient histograms H (d) created by the HOG feature quantity calculation section 310 (first feature quantity calculation section). This is done by inputting a HOG feature amount having a different number of dimensions to the first vehicle identification unit 420. And it is determined whether a vehicle candidate area | region represents a vehicle, and it progresses to step S260.

さらに、ステップS234において、HOF特徴量である、ノルムNとエントロピーEの大きさが、ともに所定値よりも大きいと判定されたときは、ステップS250において、第2車両識別部430の作用によって車両の識別が行われる。この識別処理は、HOF特徴量算出部320(第2特徴量算出部)において作成された複数のオプティカルフローのヒストグラムH(F)を正規化して算出した、車両候補領域のサイズと部分領域のサイズに応じた次元数を有するHOF特徴量を第2車両識別部430に入力することによって行われる。そして、車両候補領域が車両を表すか否かが判定されて、ステップS260に進む。 Furthermore, when it is determined in step S234 that both the norm N d and the entropy E d , which are HOF feature quantities, are larger than a predetermined value, in step S250, the second vehicle identification unit 430 operates. Vehicle identification is performed. In this identification process, the size of the vehicle candidate region and the size of the partial region calculated by normalizing the histograms H (F d ) of the plurality of optical flows created by the HOF feature amount calculation unit 320 (second feature amount calculation unit) are used. This is performed by inputting a HOF feature amount having a dimension number corresponding to the size to the second vehicle identification unit 430. And it is determined whether a vehicle candidate area | region represents a vehicle, and it progresses to step S260.

次に、ステップS260において、車両相対位置算出部70の作用によって、自車両10と、ステップS240またはステップS250で識別された車両の相対位置関係が算出される。具体的には、まず、画像I(x,y)の中の識別された車両の下端の位置yと、カメラ100(撮像部)の取り付け位置、取り付け方向に基づいて、自車両10から、識別された車両までのおおよその距離を求める。次に、画像I(x,y)の中の識別された車両の左右方向の位置xと、カメラ100(撮像部)の取り付け位置、取り付け方向に基づいて、識別された車両のおおよその方向を求める。そして、警報出力判断部80の作用によって、識別された車両までの距離と方向、および、自車両10の速度と進行方向に基づいて、警報出力が必要か否かが判断される。   Next, in step S260, the relative position relationship between the host vehicle 10 and the vehicle identified in step S240 or step S250 is calculated by the operation of the vehicle relative position calculation unit 70. Specifically, first, identification is made from the own vehicle 10 based on the position y of the lower end of the identified vehicle in the image I (x, y), the attachment position and the attachment direction of the camera 100 (imaging unit). Find the approximate distance to the vehicle that was released. Next, the approximate direction of the identified vehicle is determined based on the position x in the left-right direction of the identified vehicle in the image I (x, y), the mounting position and the mounting direction of the camera 100 (imaging unit). Ask. Based on the distance and direction to the identified vehicle and the speed and traveling direction of the host vehicle 10, it is determined whether or not alarm output is necessary by the operation of the alarm output determination unit 80.

そして、警報出力が必要であると判断されると、ステップS262において、警報出力部90から警報が出力される。   If it is determined that alarm output is necessary, an alarm is output from the alarm output unit 90 in step S262.

以上説明したように、このように構成された本発明の車両用外界認識装置62を用いた衝突警報装置52によれば、カメラ100(撮像部)で撮像された自車両10前方の画像の中から、第1特徴量算出部310が濃度勾配に基づく第1特徴量である勾配ヒストグラムH(d)とノルムN、エントロピーEを算出して、算出された第1特徴量であるN、Eが所定値よりも大きいときには、第1車両識別部420において、第1特徴量であるH(d)に基づいて算出したHOG特徴量を用いて車両の識別を行い、その識別結果に基づいて車両の有無が判定されて、一方、算出された第1特徴量であるN、Eが所定値よりも小さいときには、第2特徴量算出部320がオプティカルフローに基づく第2特徴量であるオプティカルフローのヒストグラムH(F)とノルムN、エントロピーEを算出して、算出された第2特徴量であるN、Eが所定値よりも大きいときには、第2車両識別部430において、第2特徴量であるH(F)に基づいて算出したHOF特徴量を用いて車両の識別を行い、その識別結果に基づいて車両の有無が判定されるため、第1特徴量であるH(d)、N、E、および第2特徴量であるH(F)、N、Eを、必ずしも全て算出しなくても車両の有無を判定することができるため、処理の負荷が小さい車両用外界認識装置を提供することができる。 As described above, according to the collision alarm device 52 using the vehicle external environment recognition device 62 of the present invention configured as described above, the image in front of the host vehicle 10 captured by the camera 100 (imaging unit). from the first feature quantity calculating unit 310 calculates the gradient histogram H (d) a first feature based on the concentration gradient norm N G, entropy E G, a first feature quantity calculated N G when E G is greater than the predetermined value, the first vehicle identification unit 420 performs identification of the vehicle using the HOG features calculated based on H (d) a first feature quantity, the result of the identification On the other hand, if the presence or absence of the vehicle is determined and the calculated first feature values N G and E G are smaller than a predetermined value, the second feature value calculation unit 320 uses the second feature value based on the optical flow. Optica being Flow histograms H (F d) and norm N d, to calculate the entropy E d, which is the second feature amount calculated N d, when E d is greater than the predetermined value, the second vehicle identification unit 430 Since the vehicle is identified using the HOF feature value calculated based on the second feature value H (F d ), and the presence or absence of the vehicle is determined based on the identification result, the first feature value is obtained. Since H (d), N G , E G and the second feature quantity H (F d ), N d , E d can be determined without necessarily calculating all, It is possible to provide a vehicle external environment recognition device with a small load.

なお、図6では、第1車両識別部420と第2車両識別部430でともに識別処理を行った後で、第1信頼度Rと第2信頼度Rの大きさに基づいて、車両の識別結果を選択する構成としたが、その限りではなく、先に第1信頼度Rと第2信頼度Rの大きさを評価して、その評価結果に基づいて、第1車両識別部420、もしくは第2車両識別部430において識別処理を行う構成としてもよい。このような処理構成にすることによって、第1車両識別部420と第2車両識別部430の両方で識別処理を行う必要がなく、信頼度算出部410で算出された第1信頼度Rと第2信頼度Rの大きさに基づいて、第1車両識別部420と第2車両識別部430のいずれか一方の識別器が選択されて識別処理を行うため、識別処理を効率的に実行することができる。 In FIG. 6, after both the first vehicle identification unit 420 and the second vehicle identification unit 430 perform the identification process, the vehicle is determined based on the magnitudes of the first reliability R 1 and the second reliability R 2. However, the present invention is not limited to this. The first reliability R 1 and the second reliability R 2 are first evaluated, and the first vehicle identification is performed based on the evaluation results. It is good also as a structure which performs an identification process in the part 420 or the 2nd vehicle identification part 430. FIG. By adopting such a processing configuration, it is not necessary to perform identification processing in both the first vehicle identification unit 420 and the second vehicle identification unit 430, and the first reliability R 1 calculated by the reliability calculation unit 410 and based on the magnitude of the second reliability R 2, for performing a first vehicle identification unit 420 either discriminator identification process is selection of the second vehicle identification unit 430, executes the identification process efficiently can do.

次に、本発明に係る車両用外界認識装置を用いた車両システムの第3の実施例について、車載されたカメラで車両前方を監視して、自車両に接触する可能性のある車両が識別されたときに警報を出力する車両用外界認識装置を用いた衝突警報装置を例にあげて説明する。   Next, regarding a third embodiment of the vehicle system using the vehicle external environment recognizing device according to the present invention, the vehicle front is monitored by a camera mounted on the vehicle, and a vehicle that may contact the host vehicle is identified. A collision warning device using a vehicle external environment recognition device that outputs a warning when an accident occurs will be described as an example.

まず、図12を用いて装置の構成を説明する。本実施例2に係る衝突警報装置54は、図示しない自車両10に設置され、自車両10前方の画像を撮像するカメラ100(撮像部)と、自車両10以外の車両を識別する車両用外界認識装置64と、車両が識別されたときに、自車両10から識別された車両までの方向と距離を算出する車両相対位置算出部70と、衝突の可能性を判断する警報出力判断部80と、衝突の可能性が所定値以上であるときに警報を出力する警報出力部90を備えている。   First, the configuration of the apparatus will be described with reference to FIG. The collision warning device 54 according to the second embodiment is installed in the host vehicle 10 (not shown), and a camera 100 (imaging unit) that captures an image ahead of the host vehicle 10 and a vehicle external environment that identifies vehicles other than the host vehicle 10. A recognition device 64; a vehicle relative position calculation unit 70 that calculates a direction and a distance from the host vehicle 10 to the identified vehicle when the vehicle is identified; and an alarm output determination unit 80 that determines the possibility of a collision. An alarm output unit 90 is provided that outputs an alarm when the possibility of collision is equal to or greater than a predetermined value.

ここで、車両用外界認識装置64は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、具体的には、一定周期で、カメラ100(撮像部)で撮像された画像を取り込む画像取得部150と、撮像した画像の中から車両の候補領域を検出する車両候補領域抽出部200と、車両候補領域の中から車両らしさを表す特徴量を算出する特徴量算出部370と、車両候補領域が車両を表すか否かを判定する車両判定部450を備えている。なお、車両用外界認識装置64には、所定の処理がプログラミングされて、予め定められた周期で繰り返し処理を実行するようになっている。   Here, the vehicle external environment recognition device 64 is configured by a computer having a CPU, a memory, an I / O, and the like, and specifically captures an image captured by the camera 100 (imaging unit) at a constant period. An image acquisition unit 150; a vehicle candidate region extraction unit 200 that detects a candidate region of a vehicle from the captured image; a feature amount calculation unit 370 that calculates a feature amount that represents the vehicle likeness from the vehicle candidate region; A vehicle determination unit 450 that determines whether the candidate area represents a vehicle is provided. The vehicle external environment recognition device 64 is programmed with a predetermined process and repeatedly executes the process at a predetermined cycle.

車両候補領域抽出部200は、さらに、縦エッジを構成する画素の位置を検出する縦エッジ検出部210と、縦エッジ検出部210で検出された縦エッジを構成する画素の左右方向の間隔を算出する縦エッジ間隔算出部220と、縦エッジ間隔算出部220で算出された縦エッジの左右方向の間隔(w)と、左右の縦エッジの中央の位置(x)をxw空間に投票して、この投票の結果、ピークを有する点(x,w)を検出して車両候補領域とするxw空間生成部230と、車両候補領域を設定する車両候補領域設定部240からなる。   The vehicle candidate area extraction unit 200 further calculates a vertical edge detection unit 210 that detects the position of the pixel that forms the vertical edge, and a horizontal interval between the pixels that form the vertical edge detected by the vertical edge detection unit 210. The vertical edge interval calculator 220, the horizontal edge interval (w) of the vertical edge calculated by the vertical edge interval calculator 220, and the center position (x) of the left and right vertical edges are voted in the xw space, As a result of this voting, an xw space generation unit 230 that detects a point (x, w) having a peak and sets it as a vehicle candidate region, and a vehicle candidate region setting unit 240 that sets the vehicle candidate region.

特徴量算出部370は、さらに、自車両10の車速を計測して、所定値以上の車速が出ているか否かを判定する車速判定部305(車両挙動検出部)と、ヒストグラムに基づいた勾配情報に関するHOG(Histogram of Oriented Gradients)特徴量(第1特徴量)を算出するHOG特徴量算出部310(第1特徴量算出部)と、ヒストグラムに基づいたオプティカルフローに関するHOF(Histogram of Optical Flow)特徴量(第2特徴量)を算出するHOF特徴量算出部320(第2特徴量算出部)と、HOG特徴量算出部310で算出されたHOG特徴量、もしくはHOF特徴量算出部320で算出されたHOF特徴量の大きさを判定する特徴量判定部340からなる。   The feature amount calculation unit 370 further measures the vehicle speed of the host vehicle 10 and determines whether or not a vehicle speed equal to or higher than a predetermined value is output, and a gradient based on the histogram. HOG feature quantity calculation unit 310 (first feature quantity calculation unit) that calculates HOG (Histogram of Oriented Gradients) feature quantity (first feature quantity) related to information, and HOF (Histogram of Optical Flow) related to optical flow based on a histogram Calculated by the HOF feature value calculation unit 320 (second feature value calculation unit) that calculates the feature value (second feature value), the HOG feature value calculated by the HOG feature value calculation unit 310, or the HOF feature value calculation unit 320 The feature amount determination unit 340 determines the size of the HOF feature amount.

なお、特徴量算出部370の詳細な構成を、図13に示す。このうち、HOG特徴量算出部310とHOF特徴量算出部320の詳細構成は、図2に示した通りであるため、説明は省略する。そして、特徴量判定部340は、さらに、HOG特徴量算出部310で算出されたHOG特徴量の大きさを判定するHOG特徴量判定部342と、HOF特徴量算出部320で算出されたHOF特徴量の大きさを判定するHOF特徴量判定部344からなる。   The detailed configuration of the feature amount calculation unit 370 is shown in FIG. Among these, the detailed configurations of the HOG feature value calculation unit 310 and the HOF feature value calculation unit 320 are as shown in FIG. Then, the feature amount determination unit 340 further includes a HOG feature amount determination unit 342 that determines the size of the HOG feature amount calculated by the HOG feature amount calculation unit 310 and an HOF feature calculated by the HOF feature amount calculation unit 320. A HOF feature amount determination unit 344 that determines the magnitude of the amount is included.

そして、車両判定部450は、さらに、HOG特徴量に基づいて車両の識別を行う第1車両識別部420と、HOF特徴量に基づいて車両の識別を行う第2車両識別部430からなる。ここで、第1車両識別部420と第2車両識別部430は、実施例1で説明した通り、学習アルゴリズムに基づいて予め設計された識別器によって構成されている。   The vehicle determination unit 450 further includes a first vehicle identification unit 420 that identifies the vehicle based on the HOG feature value, and a second vehicle identification unit 430 that identifies the vehicle based on the HOF feature value. Here, as described in the first embodiment, the first vehicle identification unit 420 and the second vehicle identification unit 430 are configured by classifiers designed in advance based on a learning algorithm.

以下、本実施形態に係る衝突警報装置54の作用について、図14のフローチャートに基づいて説明する。なお、実施例1で説明した処理と同様の処理を行う箇所については、再説明を省略する。したがって、本実施例3の作用説明が省略されている箇所は、実施例1で説明した内容に従うものとする。   Hereinafter, the operation of the collision warning device 54 according to the present embodiment will be described based on the flowchart of FIG. In addition, about the location which performs the process similar to the process demonstrated in Example 1, description is abbreviate | omitted. Therefore, the portions where the description of the operation of the third embodiment is omitted shall follow the contents described in the first embodiment.

図14のフローチャートに基づいて、衝突警報装置54の作用を説明する。ステップS300において、カメラ100(撮像部)によって、自車両10前方の画像を撮像する。撮像された画像をI(x,y)とし、0≦x≦m−1、0≦y≦n−1とする。撮像された画像I(x,y)は、画像取得部150によって、車両用外界認識装置64に取り込まれる。   The operation of the collision warning device 54 will be described based on the flowchart of FIG. In step S300, an image in front of the host vehicle 10 is captured by the camera 100 (imaging unit). The captured image is I (x, y), and 0 ≦ x ≦ m−1 and 0 ≦ y ≦ n−1. The captured image I (x, y) is captured by the vehicle external environment recognition device 64 by the image acquisition unit 150.

次に、ステップS310において、車両候補領域抽出部200の作用によって、画像I(x,y)の中から、車両候補領域が抽出される。なお、ステップS310の中で行われる処理の詳細は、実施例1で説明した内容と同様であるため、説明は省略する。   Next, in step S310, a vehicle candidate region is extracted from the image I (x, y) by the action of the vehicle candidate region extraction unit 200. Note that the details of the processing performed in step S310 are the same as the contents described in the first embodiment, and thus the description thereof is omitted.

そして、ステップS320において、一連の処理の流れを制御するために設定した定数kに0をセットした後、ステップS330において、車速判定部305(車両挙動検出部)の作用によって、自車両10の車速vが計測されて、計測された車速vが所定値vth以上であるか否かが判定される。車速vが所定値vth以上であるときは、ステップS340に進み、一方、車速vが所定値vthよりも小さいときは、ステップS390に進む。 In step S320, the constant k set to control the flow of a series of processes is set to 0. Then, in step S330, the vehicle speed of the host vehicle 10 is determined by the action of the vehicle speed determination unit 305 (vehicle behavior detection unit). v is measured, and it is determined whether or not the measured vehicle speed v is equal to or greater than a predetermined value vth . When the vehicle speed v is greater than or equal to the predetermined value v th , the process proceeds to step S340, and when the vehicle speed v is smaller than the predetermined value v th , the process proceeds to step S390.

ステップS340において、特徴量算出部370の作用によって、ステップS310で抽出された車両候補領域の内部に対して、HOF特徴量算出部320において、画像のオプティカルフローに基づくHOF特徴量(第2特徴量)が算出される。ここでHOF特徴量の算出を行うのは、自車両10の車速vが所定値vthよりも大きいときは、撮像された画像の中の動きの特徴が大きくなることが予想されるためである。なお、HOF特徴量の算出処理は、実施例1の中で、図5に基づいて説明したステップS144からステップS146と同様であるため、説明は省略する。そして、このステップS340の処理によって、オプティカルフローのヒストグラムH(F)が作成され、ノルムNとエントロピーEが算出されて、ステップS350に進む。 In step S340, the HOF feature quantity calculation unit 320 applies the HOF feature quantity (second feature quantity) based on the optical flow of the image to the inside of the vehicle candidate area extracted in step S310 by the action of the feature quantity calculation unit 370. ) Is calculated. Here, the reason for calculating the HOF feature value is that when the vehicle speed v of the host vehicle 10 is larger than the predetermined value v th , it is expected that the feature of motion in the captured image will increase. . The HOF feature amount calculation process is the same as that in steps S144 to S146 described with reference to FIG. In step S340, an optical flow histogram H (F d ) is created, a norm N d and entropy E d are calculated, and the process proceeds to step S350.

一方、ステップS330において、計測された車速vが所定値vthよりも小さいときは、ステップS390に進み、特徴量算出部370の作用によって、ステップS310で抽出された車両候補領域の内部に対して、HOG特徴量算出部310において、画像の濃度勾配に基づくHOG特徴量(第1特徴量)が算出される。ここでHOG特徴量の算出を行うのは、自車両10の車速vが所定値vthよりも小さいときは、撮像された画像の中の動きの特徴が小さくなることが予想されるためである。なお、HOG特徴量の算出処理は、実施例1の中で、図5に基づいて説明したステップS141からステップS143と同様であるため、説明は省略する。そして、この処理によって、勾配ヒストグラムH(d)が作成され、ノルムNとエントロピーEが算出されて、ステップS400に進む。 On the other hand, in step S330, when the measured vehicle speed v is less than the predetermined value v th, the process proceeds to step S390, by the action of the characteristic amount calculation unit 370, with respect to the interior of the vehicle candidate region extracted in step S310 The HOG feature value calculation unit 310 calculates a HOG feature value (first feature value) based on the density gradient of the image. The reason for calculating the HOG feature amount is that, when the vehicle speed v of the host vehicle 10 is smaller than the predetermined value vth , it is expected that the feature of motion in the captured image is reduced. . The HOG feature amount calculation process is the same as that in steps S141 to S143 described with reference to FIG. Then, by this process, gradient histogram H (d) is created, it is calculated norm N G entropy E G is, the process proceeds to step S400.

ステップS340の処理の後、ステップS350において、特徴量判定部340の作用によって、ステップS340で算出されたHOF特徴量であるノルムNとエントロピーEの大きさが判定される。具体的には、HOF特徴量判定部344において、ノルムNの大きさが、予め設定された所定値Ndthよりも大きく、かつエントロピーEの大きさが、予め設定された所定値Edthよりも大きいときには、ステップS360に進む。 After the process of step S340, in step S350, the magnitude of the norm N d and the entropy E d that are the HOF feature amounts calculated in step S340 are determined by the action of the feature amount determination unit 340. Specifically, in the HOF feature amount determination unit 344, the magnitude of the norm N d is larger than a preset predetermined value N dth and the magnitude of the entropy E d is a preset predetermined value E dth. If greater than, the process proceeds to step S360.

一方、ステップS350において、ノルムNの大きさとエントロピーEの大きさが、前記条件を満たさないときは、ステップS370において、定数kの値が1であるか否かが確認される。もしk=1であるときは、HOG特徴量であるノルムNとエントロピーEの大きさ、およびHOF特徴量であるノルムNとエントロピーEの大きさがともに小さい値であるため、車両候補領域には車両がないと判定されて、図14のAに進んで、処理を終了する。 On the other hand, when the norm N d and the entropy E d do not satisfy the above condition in step S350, it is confirmed in step S370 whether the value of the constant k is 1. If because when it is k = 1, the size of the norm N G entropy E G is HOG features, and the size of the norm N d and the entropy E d is HOF feature amount are both small values, the vehicle It is determined that there is no vehicle in the candidate area, and the process proceeds to A of FIG.

もし、ステップS370において、定数kの値が1でないときは、ステップS380において定数kが1に設定され、図14のB(ステップS390)に進む。これは、自車両10が所定値vth以上の車速で走行しているときであっても、撮像された画像の中に写っている車両が自車両10とほぼ等しい車速で走行しているときは、必ずしも車両の動きが大きくならないためである。このようなときは、ノルムNの大きさとエントロピーEの大きさが大きくならないため、ステップS390に進んで、取得した画像の濃度勾配に基づくHOG特徴量(第1特徴量)を算出する。 If the value of the constant k is not 1 in step S370, the constant k is set to 1 in step S380, and the process proceeds to B (step S390) in FIG. This is because even when the host vehicle 10 is traveling at a vehicle speed equal to or higher than the predetermined value vth , the vehicle shown in the captured image is traveling at a vehicle speed substantially equal to the host vehicle 10. This is because the movement of the vehicle does not necessarily increase. In such a case, since the norm N d and the entropy E d do not increase, the process proceeds to step S390 to calculate the HOG feature (first feature) based on the density gradient of the acquired image.

ステップS350からステップS360に進んだときは、第2車両識別部430の作用によって車両の識別が行われる。この識別処理は、HOF特徴量算出部320(第2特徴量算出部)において作成された複数のオプティカルフローのヒストグラムH(F)を正規化して算出した、車両候補領域のサイズと部分領域のサイズに応じた次元数を有するHOF特徴量を第2車両識別部430に入力することによって行われる。そして、車両候補領域が車両を表すか否かが判定されて、ステップS440に進む。 When the process proceeds from step S350 to step S360, the vehicle is identified by the action of the second vehicle identification unit 430. In this identification process, the size of the vehicle candidate region and the size of the partial region calculated by normalizing the histograms H (F d ) of the plurality of optical flows created by the HOF feature amount calculation unit 320 (second feature amount calculation unit) are used. This is performed by inputting a HOF feature amount having a dimension number corresponding to the size to the second vehicle identification unit 430. And it is determined whether a vehicle candidate area | region represents a vehicle, and it progresses to step S440.

ステップS390の処理の後、ステップS400において、特徴量判定部340の作用によって、ステップS390で算出されたHOG特徴量である、ノルムNとエントロピーEの大きさが判定される。具体的には、HOG特徴量判定部342において、ノルムNの大きさが、予め設定された所定値NGthよりも大きく、かつエントロピーEの大きさが、予め設定された所定値EGthよりも大きいときには、ステップS410に進む。 After step S390, in step S400, by the action of the characteristic amount determination unit 340, an HOG feature amount calculated in the step S390, the size of the norm N G entropy E G is determined. Specifically, in the HOG features determining unit 342, the size of the norm N G is larger than a predetermined value N Gth, and the size of the entropy E G is a predetermined value E Gth If greater than, the process proceeds to step S410.

一方、ステップS400において、ノルムNの大きさとエントロピーEの大きさが、前記条件を満たさないときは、ステップS420において、定数kの値が1であるか否かが確認される。もしk=1であるときは、HOG特徴量であるノルムNとエントロピーEの大きさ、およびHOF特徴量であるノルムNとエントロピーEの大きさがともに小さい値であるため、車両候補領域には車両がないと判定されて、図14のAに進んで、処理を終了する。 On the other hand, in step S400, the size and magnitude of the entropy E G norm N G is, when does not satisfy the condition in step S420, the value of the constant k is verified whether or not 1. If because when it is k = 1, the size of the norm N G entropy E G is HOG features, and the size of the norm N d and the entropy E d is HOF feature amount are both small values, the vehicle It is determined that there is no vehicle in the candidate area, and the process proceeds to A of FIG.

もし、ステップS420において、定数kの値が1でないときは、ステップS430において定数kが1に設定され、図14のC(ステップS340)に進む。これは、自車両10が所定値vthよりも低い車速で走行しているときであっても、逆光や薄暮の状態であるときには、撮像した画像のコントラストが低く、HOG特徴量であるノルムNとエントロピーEが小さくなるためである。このようなときは、ステップS340に進んで、撮像した画像のオプティカルフローに基づくHOF特徴量(第2特徴量)を算出する。 If the value of the constant k is not 1 in step S420, the constant k is set to 1 in step S430, and the process proceeds to C (step S340) in FIG. This is because, even when the host vehicle 10 is traveling at a vehicle speed lower than the predetermined value v th , the contrast of the captured image is low and the norm N, which is the HOG feature amount, is in a backlight or dusk state. G and entropy E G is because decreases. In such a case, the process proceeds to step S340, and the HOF feature value (second feature value) based on the optical flow of the captured image is calculated.

ステップS400からステップS410に進んだときは、第1車両識別部420の作用によって車両の識別が行われる。この識別処理は、HOG特徴量算出部310(第1特徴量算出部)において作成された複数の勾配ヒストグラムH(d)を正規化して算出した、車両候補領域のサイズと部分領域のサイズに応じた次元数を有するHOG特徴量を第1車両識別部420に入力することによって行われる。そして、車両候補領域が車両を表すか否かが判定されて、ステップS440に進む。   When the process proceeds from step S400 to step S410, the vehicle is identified by the action of the first vehicle identification unit 420. This identification processing is performed according to the size of the vehicle candidate area and the size of the partial area calculated by normalizing the plurality of gradient histograms H (d) created by the HOG feature quantity calculation section 310 (first feature quantity calculation section). This is done by inputting a HOG feature amount having a different number of dimensions to the first vehicle identification unit 420. And it is determined whether a vehicle candidate area | region represents a vehicle, and it progresses to step S440.

次に、ステップS440において、車両相対位置算出部70の作用によって、自車両10と、ステップS360またはステップS410で識別された車両との相対位置関係が算出される。具体的には、まず、画像I(x,y)の中の識別された車両の下端の位置yと、自車両10に取り付けられたカメラ100(撮像部)の取り付け位置、取り付け方向に基づいて、自車両10から、識別された車両までのおおよその距離を求める。次に、画像I(x,y)の中の識別された車両の左右方向の位置xと、カメラ100(撮像部)の取り付け位置、取り付け方向に基づいて、識別された車両のおおよその方向を求める。そして、警報出力判断部80の作用によって、識別された車両までの距離と方向、および、自車両10の速度と進行方向に基づいて、警報出力が必要か否かが判断される。   Next, in step S440, the relative positional relationship between the host vehicle 10 and the vehicle identified in step S360 or step S410 is calculated by the operation of the vehicle relative position calculation unit 70. Specifically, first, based on the position y of the lower end of the identified vehicle in the image I (x, y), the attachment position and the attachment direction of the camera 100 (imaging unit) attached to the host vehicle 10. Then, an approximate distance from the own vehicle 10 to the identified vehicle is obtained. Next, the approximate direction of the identified vehicle is determined based on the position x in the left-right direction of the identified vehicle in the image I (x, y), the mounting position and the mounting direction of the camera 100 (imaging unit). Ask. Based on the distance and direction to the identified vehicle and the speed and traveling direction of the host vehicle 10, it is determined whether or not alarm output is necessary by the operation of the alarm output determination unit 80.

そして、警報出力が必要であると判定されると、ステップS450において、警報出力部90から警報が出力される。   If it is determined that alarm output is required, an alarm is output from the alarm output unit 90 in step S450.

以上説明したように、このように構成された本発明の車両用外界認識装置64を用いた衝突警報装置54によれば、カメラ100(撮像部)で撮像された自車両10の前方の画像の中から、車速判定部305(車両挙動算出部)の算出結果に応じて、HOG特徴量算出部310(第1特徴量算出部)が濃度勾配に基づく第1特徴量である勾配ヒストグラムH(d)とノルムN、エントロピーEを算出して、算出された第1特徴量であるN、Eが所定値よりも大きいときには、第1車両識別部420において、第1特徴量であるH(d)に基づいて算出したHOG特徴量を用いて車両の識別を行い、その識別結果に基づいて車両の有無を判定し、一方、算出された第1特徴量であるN、Eが所定値よりも小さいときには、HOF特徴量算出部320(第2特徴量算出部)がオプティカルフローに基づく第2特徴量であるオプティカルフローのヒストグラムH(F)とノルムN、エントロピーEを算出して、算出された第2特徴量であるN、Eが所定値よりも大きいときには、第2車両識別部430において、第2特徴量であるH(F)に基づいて算出したHOF特徴量を用いて車両の識別を行い、その識別結果に基づいて車両の有無を判定する処理と、HOF特徴量算出部320(第2特徴量算出部)がオプティカルフローに基づく第2特徴量であるH(F)とN、Eを算出して、算出された第2特徴量であるN、Eが所定値よりも大きいときには、第2車両識別部430において、第2特徴量であるH(F)に基づいて算出したHOF特徴量を用いて車両の識別を行い、その識別結果に基づいて車両の有無を判定し、一方、算出された第2特徴量であるN、Eが所定値よりも小さいときには、HOG特徴量算出部310(第1特徴量算出部)が濃度勾配に基づく第1特徴量であるH(d)とN、Eを算出して、算出された第1特徴量であるN、Eが所定値よりも大きいときには、第1車両識別部420において、第1特徴量であるH(d)に基づいて算出したHOG特徴量を用いて車両の識別を行い、その識別結果に基づいて車両の有無を判定する処理と、を切り換えるため、第1特徴量であるH(d)、N、E、および第2特徴量であるH(F)、N、Eを、必ずしも全て算出しなくても車両の有無を判定することができるため、処理の負荷が小さい車両用外界認識装置を提供することができる。特に、車両挙動算出部の算出結果に応じて、算出する特徴量を切り換えることによって、処理の負荷をより一層低減することができる。 As described above, according to the collision alarm device 54 using the vehicle external environment recognition device 64 of the present invention configured as described above, an image of the front of the host vehicle 10 captured by the camera 100 (imaging unit) is displayed. Among them, the HOG feature quantity calculation unit 310 (first feature quantity calculation unit) has a gradient histogram H (d) that is a first feature quantity based on the density gradient, according to the calculation result of the vehicle speed determination unit 305 (vehicle behavior calculation unit). ) and calculates the norm N G, entropy E G, N G is the first feature amount calculated, when E G is greater than the predetermined value, the first vehicle identification unit 420, is the first feature amount The vehicle is identified using the HOG feature amount calculated based on H (d), and the presence or absence of the vehicle is determined based on the identification result. On the other hand, the calculated first feature amounts N G and E G When H is smaller than a predetermined value, H F characteristic amount calculating section 320 (second feature quantity calculating section) is calculated histogram H of the optical flow is a second feature based on optical flow and (F d) norm N d, entropy E d, it was calculated When the second feature amounts N d and E d are larger than the predetermined values, the second vehicle identification unit 430 uses the HOF feature amount calculated based on the second feature amount H (F d ). The process of determining the presence or absence of a vehicle based on the identification result, and the HOF feature quantity calculation unit 320 (second feature quantity calculation unit) is H (F d ), which is the second feature quantity based on the optical flow. And N d and E d are calculated, and when the calculated second feature amounts N d and E d are larger than a predetermined value, the second vehicle identification unit 430 uses the second feature amount H (F d ) Based on The vehicle is identified using the HOF feature value that has been issued, and the presence or absence of the vehicle is determined based on the identification result. On the other hand, when the calculated second feature values N d and E d are smaller than a predetermined value , HOG feature amount calculation unit 310 (first feature quantity calculating section) is calculated as H (d) a first feature based on the concentration gradient N G, the E G, is the first feature quantity calculated N G, when E G is greater than the predetermined value, the first vehicle identification unit 420 performs identification of the vehicle using the HOG features calculated based on H (d) a first feature amount, the identification In order to switch between the process of determining the presence / absence of a vehicle based on the result, H (d), N G , E G as the first feature quantity, and H (F d ), N d , as the second feature quantity, the E d, can also determine the presence or absence of a vehicle without calculating necessarily all Therefore, it is possible to provide a environment recognizing apparatus for a vehicle processing load is small. In particular, the processing load can be further reduced by switching the feature amount to be calculated according to the calculation result of the vehicle behavior calculation unit.

以上、本発明の実施例1、実施例2、実施例3を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。   As mentioned above, although Example 1, Example 2, and Example 3 of this invention were explained in full detail with drawing, since an Example is only an illustration of this invention, this invention is limited only to the structure of an Example. Of course, design changes and the like within a range not departing from the gist of the present invention are included in the present invention.

50 衝突警報装置
60 車両用外界認識装置
70 車両相対位置算出部
80 警報出力判断部
90 警報出力部
100 カメラ(撮像部)
150 画像取得部
200 車両候補領域抽出部
210 縦エッジ検出部
220 縦エッジ間隔算出部
230 xw空間生成部
240 車両候補領域設定部
300 特徴量算出部
310 HOG特徴量算出部(第1特徴量算出部)
320 HOF特徴量算出部(第2特徴量算出部)
400 車両判定部
410 信頼度算出部
420 第1車両識別部
430 第2車両識別部
440 判定部
50 Collision warning device 60 External recognition device for vehicle 70 Vehicle relative position calculation unit 80 Alarm output determination unit 90 Alarm output unit 100 Camera (imaging unit)
150 image acquisition unit 200 vehicle candidate region extraction unit 210 vertical edge detection unit 220 vertical edge interval calculation unit 230 xw space generation unit 240 vehicle candidate region setting unit 300 feature amount calculation unit 310 HOG feature amount calculation unit (first feature amount calculation unit) )
320 HOF feature value calculation unit (second feature value calculation unit)
400 vehicle determination unit 410 reliability calculation unit 420 first vehicle identification unit 430 second vehicle identification unit 440 determination unit

Claims (8)

自車両に搭載され、前記自車両の周辺を撮像する撮像部と、
前記撮像部で撮像された画像の中から、濃度勾配に基づく第1特徴量を算出する第1特徴量算出部と、
前記撮像部で異なる時刻に撮像された複数の画像の中から、オプティカルフローに基づく第2特徴量を算出する第2特徴量算出部と、
前記濃度勾配が大きいほど高い第1信頼度を算出し、前記オプティカルフローが大きいほど高い第2信頼度を算出する信頼度算出部と、
前記第1特徴量に基づいて車両の識別を行う第1車両識別部と、
前記第2特徴量に基づいて車両の識別を行う第2車両識別部と、
前記第1車両識別部における識別結果と、前記第2車両識別部における識別結果と、前記第1信頼度と、前記第2信頼度と、に基づいて車両の有無を判定する車両判定部と、
を有することを特徴とする車両用外界認識装置。
An imaging unit that is mounted on the host vehicle and images the periphery of the host vehicle;
A first feature amount calculation unit that calculates a first feature amount based on a density gradient from images captured by the imaging unit;
A second feature amount calculation unit that calculates a second feature amount based on an optical flow from a plurality of images captured at different times by the imaging unit;
A reliability calculation unit that calculates a higher first reliability as the concentration gradient is larger, and calculates a higher second reliability as the optical flow is larger;
A first vehicle identification unit for identifying a vehicle based on the first feature amount;
A second vehicle identification unit for identifying a vehicle based on the second feature amount;
A vehicle determination unit that determines the presence or absence of a vehicle based on the identification result in the first vehicle identification unit, the identification result in the second vehicle identification unit, the first reliability, and the second reliability;
A vehicle external environment recognition device characterized by comprising:
前記車両判定部は、
前記第1信頼度が第1所定値よりも高いときは、前記第1車両識別部の識別結果に基づいて車両の有無の判定を行い、
前記第1信頼度が第1所定値よりも低く、かつ前記第2信頼度が第2所定値よりも高いときは、前記第2車両識別部の識別結果に基づいて車両の有無の判定を行い、
前記第1信頼度が第1所定値よりも低く、かつ前記第2信頼度が第2所定値よりも低いときは、車両なしと判定することを特徴とする請求項1に記載の車両用外界認識装置。
The vehicle determination unit
When the first reliability is higher than a first predetermined value, the presence or absence of a vehicle is determined based on the identification result of the first vehicle identification unit,
When the first reliability is lower than a first predetermined value and the second reliability is higher than a second predetermined value, the presence / absence of a vehicle is determined based on the identification result of the second vehicle identification unit. ,
2. The vehicle external environment according to claim 1, wherein when the first reliability is lower than a first predetermined value and the second reliability is lower than a second predetermined value, it is determined that there is no vehicle. Recognition device.
自車両に搭載され、前記自車両の周辺を撮像する撮像部と、
前記撮像部で撮像された画像の中から、濃度勾配に基づく第1特徴量を算出する第1特徴量算出部と、
前記撮像部で異なる時刻に撮像された複数の画像の中から、オプティカルフローに基づく第2特徴量を算出する第2特徴量算出部と、
前記第1特徴量に基づいて車両の識別を行う第1車両識別部と、
前記第2特徴量に基づいて車両の識別を行う第2車両識別部と、を有し、前記第1特徴量が所定値よりも大きいときは、前記第1車両識別部における識別結果に基づいて車両の有無を判定し、前記第1特徴量が所定値よりも小さいときは、前記第2車両識別部における識別結果に基づいて車両の有無を判定することを特徴とする車両用外界認識装置。
An imaging unit that is mounted on the host vehicle and images the periphery of the host vehicle;
A first feature amount calculation unit that calculates a first feature amount based on a density gradient from images captured by the imaging unit;
A second feature amount calculation unit that calculates a second feature amount based on an optical flow from a plurality of images captured at different times by the imaging unit;
A first vehicle identification unit for identifying a vehicle based on the first feature amount;
A second vehicle identification unit that identifies a vehicle based on the second feature amount, and when the first feature amount is greater than a predetermined value, based on the identification result in the first vehicle identification unit An external environment recognition device for vehicles, wherein the presence / absence of a vehicle is determined, and when the first feature value is smaller than a predetermined value, the presence / absence of the vehicle is determined based on an identification result in the second vehicle identification unit.
自車両に搭載され、前記自車両の周辺を撮像する撮像部と、
前記撮像部で撮像された画像の中から、濃度勾配に基づく第1特徴量を算出する第1特徴量算出部と、
前記撮像部で異なる時刻に撮像された複数の画像の中から、オプティカルフローに基づく第2特徴量を算出する第2特徴量算出部と、
前記第1特徴量に基づいて車両の識別を行う第1車両識別部と、
前記第2特徴量に基づいて車両の識別を行う第2車両識別部と、を有し、前記第2特徴量が所定値よりも大きいときは、前記第2車両識別部における識別結果に基づいて車両の有無を判定し、前記第2特徴量が所定値よりも小さいときは、前記第1車両識別部における識別結果に基づいて車両の有無を判定することを特徴とする車両用外界認識装置。
An imaging unit that is mounted on the host vehicle and images the periphery of the host vehicle;
A first feature amount calculation unit that calculates a first feature amount based on a density gradient from images captured by the imaging unit;
A second feature amount calculation unit that calculates a second feature amount based on an optical flow from a plurality of images captured at different times by the imaging unit;
A first vehicle identification unit for identifying a vehicle based on the first feature amount;
A second vehicle identification unit that identifies a vehicle based on the second feature amount, and when the second feature amount is greater than a predetermined value, based on the identification result in the second vehicle identification unit An external environment recognition device for vehicles, wherein the presence / absence of a vehicle is determined, and when the second feature amount is smaller than a predetermined value, the presence / absence of the vehicle is determined based on an identification result in the first vehicle identification unit.
自車両に搭載され、前記自車両の周辺を撮像する撮像部と、
前記撮像部で撮像された画像の中から、濃度勾配に基づく第1特徴量を算出する第1特徴量算出部と、
前記撮像部で異なる時刻に撮像された複数の画像の中から、オプティカルフローに基づく第2特徴量を算出する第2特徴量算出部と、
前記濃度勾配が大きいほど高い第1信頼度を算出し、前記オプティカルフローが大きいほど高い第2信頼度を算出する信頼度算出部と、
前記第1特徴量に基づいて車両の識別を行う第1車両識別部と、
前記第2特徴量に基づいて車両の識別を行う第2車両識別部と、
前記第1車両識別部における識別結果と、前記第2車両識別部における識別結果と、前記第1信頼度と、前記第2信頼度と、に基づいて車両の有無を判定する車両判定部と、
自車両の挙動を検出する車両挙動検出部と、を有する車両用外界認識装置において、
前記車両挙動検出部で検出された前記自車両の挙動に応じて、
前記第1特徴量算出部において前記第1特徴量を算出して、前記第1特徴量が所定値よりも大きいときは、前記第1車両識別部において車両の識別を行って車両の有無を判定し、前記第1特徴量が所定値よりも小さいときは、前記第2特徴量算出部において前記第2特徴量を算出して、前記第2車両識別部において車両の識別を行って車両の有無を判定する処理と、
前記第2特徴量算出部において前記第2特徴量を算出して、前記第2特徴量が所定値よりも大きいときは、前記第2車両識別部において車両の識別を行って車両の有無を判定し、前記第2特徴量が所定値よりも小さいときは、前記第1特徴量算出部において前記第1特徴量を算出して、前記第1車両識別部において車両の識別を行って車両の有無を判定する処理と、を切り換えて行うことを特徴とする車両用外界認識装置。
An imaging unit that is mounted on the host vehicle and images the periphery of the host vehicle;
A first feature amount calculation unit that calculates a first feature amount based on a density gradient from images captured by the imaging unit;
A second feature amount calculation unit that calculates a second feature amount based on an optical flow from a plurality of images captured at different times by the imaging unit;
A reliability calculation unit that calculates a higher first reliability as the concentration gradient is larger, and calculates a higher second reliability as the optical flow is larger;
A first vehicle identification unit for identifying a vehicle based on the first feature amount;
A second vehicle identification unit for identifying a vehicle based on the second feature amount;
A vehicle determination unit that determines the presence or absence of a vehicle based on the identification result in the first vehicle identification unit, the identification result in the second vehicle identification unit, the first reliability, and the second reliability;
In a vehicle external environment recognition device having a vehicle behavior detection unit that detects the behavior of the host vehicle,
According to the behavior of the host vehicle detected by the vehicle behavior detection unit,
The first feature quantity calculation unit calculates the first feature quantity, and when the first feature quantity is larger than a predetermined value, the first vehicle identification unit identifies the vehicle and determines the presence or absence of the vehicle. When the first feature value is smaller than a predetermined value, the second feature value calculation unit calculates the second feature value, and the second vehicle identification unit performs vehicle identification to determine whether or not there is a vehicle. The process of determining
The second feature quantity calculation unit calculates the second feature quantity, and when the second feature quantity is larger than a predetermined value, the second vehicle identification unit identifies the vehicle and determines the presence or absence of the vehicle. When the second feature value is smaller than a predetermined value, the first feature value is calculated by the first feature value calculation unit, and the vehicle is identified by the first vehicle identification unit. And an outside recognition device for a vehicle characterized by switching the processing to determine.
前記車両挙動検出部が、前記自車両の車速を検出するものであり、
前記車速が所定値よりも大きいときは、前記第2特徴量算出部において前記第2特徴量を算出して、前記第2特徴量が所定値よりも大きいときは、前記第2車両識別部において車両の識別を行って車両の有無を判定し、前記第2特徴量が所定値よりも小さいときは、前記第1特徴量算出部において前記第1特徴量を算出して、前記第1車両識別部において車両の識別を行って車両の有無を判定し、
前記車速が所定値よりも小さいときは、前記第1特徴量算出部において前記第1特徴量を算出して、前記第1特徴量が所定値よりも大きいときは、前記第1車両識別部において車両の識別を行って車両の有無を判定し、前記第1特徴量が所定値よりも小さいときは、前記第2特徴量算出部において前記第2特徴量を算出し、前記第2車両識別部において車両の識別を行って車両の有無を判定することを特徴とする請求項5に記載の車両用外界認識装置。
The vehicle behavior detection unit detects a vehicle speed of the host vehicle,
When the vehicle speed is greater than a predetermined value, the second feature amount calculation unit calculates the second feature amount. When the second feature amount is greater than a predetermined value, the second vehicle identification unit The vehicle is identified to determine the presence or absence of the vehicle. When the second feature amount is smaller than a predetermined value, the first feature amount calculation unit calculates the first feature amount, and the first vehicle identification is performed. The vehicle is identified at the part to determine the presence or absence of the vehicle,
When the vehicle speed is smaller than a predetermined value, the first feature amount calculating unit calculates the first feature amount. When the first feature amount is larger than a predetermined value, the first vehicle identifying unit The vehicle is identified to determine the presence or absence of the vehicle, and when the first feature amount is smaller than a predetermined value, the second feature amount calculation unit calculates the second feature amount, and the second vehicle identification unit The vehicle external environment recognition device according to claim 5, wherein the presence of the vehicle is determined by identifying the vehicle.
前記車両用外界認識装置によって識別された車両と前記自車両との位置関係を算出する車両相対位置算出部と、
前記車両相対位置算出部の算出結果に基づいて、警報を出力する必要性を判断する警報出力判断部と、
前記警報出力判断部において警報の出力が必要であると判断されたときに警報を出力する警報出力部と、を有することを特徴とする請求項1から6のいずれか1項に記載の車両用外界認識装置を用いた車両システム。
A vehicle relative position calculation unit that calculates a positional relationship between the vehicle identified by the vehicle external environment recognition device and the host vehicle;
Based on the calculation result of the vehicle relative position calculation unit, an alarm output determination unit that determines the necessity of outputting an alarm;
7. The vehicle according to claim 1, further comprising: an alarm output unit that outputs an alarm when it is determined that an alarm output is necessary in the alarm output determination unit. A vehicle system using an external recognition device.
前記車両用外界認識装置によって識別された車両と前記自車両との位置関係を算出する車両相対位置算出部と、
前記車両相対位置算出部の算出結果に基づいて、前記自車両の挙動を制御する車両挙動制御部と、を有することを特徴とする請求項1から6のいずれか1項に記載の車両用外界認識装置を用いた車両システム。
A vehicle relative position calculation unit that calculates a positional relationship between the vehicle identified by the vehicle external environment recognition device and the host vehicle;
The vehicle external environment according to claim 1, further comprising: a vehicle behavior control unit that controls the behavior of the host vehicle based on a calculation result of the vehicle relative position calculation unit. A vehicle system using a recognition device.
JP2012078454A 2012-03-30 2012-03-30 Outside recognition device for vehicle, and vehicle system using the same Pending JP2013205410A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012078454A JP2013205410A (en) 2012-03-30 2012-03-30 Outside recognition device for vehicle, and vehicle system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012078454A JP2013205410A (en) 2012-03-30 2012-03-30 Outside recognition device for vehicle, and vehicle system using the same

Publications (1)

Publication Number Publication Date
JP2013205410A true JP2013205410A (en) 2013-10-07

Family

ID=49524606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012078454A Pending JP2013205410A (en) 2012-03-30 2012-03-30 Outside recognition device for vehicle, and vehicle system using the same

Country Status (1)

Country Link
JP (1) JP2013205410A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469091A (en) * 2015-12-03 2016-04-06 深圳市捷顺科技实业股份有限公司 Vehicle recognition method and device
WO2016199244A1 (en) * 2015-06-10 2016-12-15 株式会社日立製作所 Object recognition device and object recognition system
JP6230751B1 (en) * 2016-09-15 2017-11-15 三菱電機株式会社 Object detection apparatus and object detection method
CN108475471A (en) * 2016-01-26 2018-08-31 三菱电机株式会社 Vehicle decision maker, vehicle determination method and vehicle decision procedure
JP2019033397A (en) * 2017-08-08 2019-02-28 富士通株式会社 Data processor, program, and method for processing data
JP2020046706A (en) * 2018-09-14 2020-03-26 トヨタ自動車株式会社 Object detection apparatus, vehicle control system, object detection method and computer program for object detection

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199244A1 (en) * 2015-06-10 2016-12-15 株式会社日立製作所 Object recognition device and object recognition system
JPWO2016199244A1 (en) * 2015-06-10 2018-02-15 株式会社日立製作所 Object recognition device and object recognition system
US10540777B2 (en) 2015-06-10 2020-01-21 Hitachi, Ltd. Object recognition device and object recognition system
CN105469091A (en) * 2015-12-03 2016-04-06 深圳市捷顺科技实业股份有限公司 Vehicle recognition method and device
CN105469091B (en) * 2015-12-03 2019-04-09 深圳市捷顺科技实业股份有限公司 A kind of vehicle identification method and device
CN108475471B (en) * 2016-01-26 2020-12-18 三菱电机株式会社 Vehicle determination device, vehicle determination method, and computer-readable recording medium
CN108475471A (en) * 2016-01-26 2018-08-31 三菱电机株式会社 Vehicle decision maker, vehicle determination method and vehicle decision procedure
JP6230751B1 (en) * 2016-09-15 2017-11-15 三菱電機株式会社 Object detection apparatus and object detection method
WO2018051459A1 (en) * 2016-09-15 2018-03-22 三菱電機株式会社 Object detection device and object detection method
US10943141B2 (en) 2016-09-15 2021-03-09 Mitsubishi Electric Corporation Object detection device and object detection method
JP2019033397A (en) * 2017-08-08 2019-02-28 富士通株式会社 Data processor, program, and method for processing data
JP2020046706A (en) * 2018-09-14 2020-03-26 トヨタ自動車株式会社 Object detection apparatus, vehicle control system, object detection method and computer program for object detection
JP7040374B2 (en) 2018-09-14 2022-03-23 トヨタ自動車株式会社 Object detection device, vehicle control system, object detection method and computer program for object detection

Similar Documents

Publication Publication Date Title
US10152649B2 (en) Detecting visual information corresponding to an animal
JP5407898B2 (en) Object detection apparatus and program
JP4708124B2 (en) Image processing device
JP5822255B2 (en) Object identification device and program
JP5886809B2 (en) Outside environment recognition device
KR101891460B1 (en) Method and apparatus for detecting and assessing road reflections
US20130028473A1 (en) System and method for periodic lane marker identification and tracking
US20170151943A1 (en) Method, apparatus, and computer program product for obtaining object
JP6384082B2 (en) Moving object detection apparatus, moving object detection method, and program
JP2013205410A (en) Outside recognition device for vehicle, and vehicle system using the same
JP2008172441A (en) Detection device, method, and program
KR20130118116A (en) Apparatus and method avoiding collision with moving obstacles in automatic parking assistance system
US8160300B2 (en) Pedestrian detecting apparatus
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
CN110730966A (en) System and method for pedestrian detection
JP6722084B2 (en) Object detection device
US20180144499A1 (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
JP6069938B2 (en) Pop-up detection device
Yang et al. On-road collision warning based on multiple FOE segmentation using a dashboard camera
JP6564218B2 (en) Outside environment recognition device
JP2008171141A (en) Image processor, method, and program
JP2005090974A (en) Preceding car recognition device
EP4009228A1 (en) Method for determining a semantic free space
JP2010282388A (en) Vehicular pedestrian detection device