JP2007323578A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2007323578A
JP2007323578A JP2006156122A JP2006156122A JP2007323578A JP 2007323578 A JP2007323578 A JP 2007323578A JP 2006156122 A JP2006156122 A JP 2006156122A JP 2006156122 A JP2006156122 A JP 2006156122A JP 2007323578 A JP2007323578 A JP 2007323578A
Authority
JP
Japan
Prior art keywords
vehicle
image
road area
extracted
alerting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006156122A
Other languages
Japanese (ja)
Other versions
JP4528283B2 (en
Inventor
Masakazu Saka
雅和 坂
Hiroyuki Koike
弘之 小池
Fuminori Taniguchi
文則 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006156122A priority Critical patent/JP4528283B2/en
Publication of JP2007323578A publication Critical patent/JP2007323578A/en
Application granted granted Critical
Publication of JP4528283B2 publication Critical patent/JP4528283B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle periphery monitoring device reducing the unnecessary attraction of attention and the bothersome attraction of attention for performing the highly reliable attraction of attention to a driver of a vehicle. <P>SOLUTION: This vehicle periphery monitoring device which detects an object existing around the vehicle from images acquired by imaging means 2R, 2L, and 2' mounted to the vehicle 10 is provided with a road area recognition means recognizing a road area in the image (STEP 100), an target extraction means extracting a target from the image (STEP 200), attention attracting means 6 and 7 attracting attention from the driver, and an attention attracting control means outputting first attention from the attention attracting means when the target is extracted in the road area by the target extraction means and outputting second attention different from the first attention from the attention attracting means when the target is extracted outside the road area (STEP 500). <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、車両の走行に影響を与える対象物を検出する車両周辺監視装置であり、特に、対象物を検出したときに車両の運転者に注意喚起を行う車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that detects an object that affects driving of a vehicle, and more particularly to a vehicle periphery monitoring device that alerts a driver of a vehicle when the object is detected.

従来、この種の車両周辺監視装置としては、赤外線カメラにより捉えられた車両周辺の画像から、車両との接触の可能性がある歩行者等の対象物を抽出し、その情報を車両の運転者に視覚的に提供する表示処理装置が提案されている(例えば特許文献1参照)。この装置は、赤外線画像を2値化処理して高輝度領域を探し、該領域の赤外線画像内の重心位置、面積比、実面積などの頭部判定条件から、該領域が歩行者の頭部であるか否かを判定する。そして、歩行者の頭部の領域であると判定したときは、歩行者の身体を包含する領域を他の領域と区分して表示する。これにより、歩行者情報が車両の運転者に対して表示され、運転者の視覚を補助している。   Conventionally, as this kind of vehicle periphery monitoring device, an object such as a pedestrian who may be in contact with a vehicle is extracted from an image around the vehicle captured by an infrared camera, and the information is obtained from the driver of the vehicle. There has been proposed a display processing device that is visually provided (see, for example, Patent Document 1). This device binarizes an infrared image to search for a high brightness area, and the area is determined based on head determination conditions such as the center of gravity position, area ratio, and actual area in the infrared image of the area. It is determined whether or not. And when it determines with it being the area | region of a pedestrian's head, the area | region which includes a pedestrian's body is displayed separately from another area | region. Thereby, pedestrian information is displayed to the driver of the vehicle, and assists the driver's vision.

また、かかる車両周辺監視装置において、車両の運転者に対して不要な注意喚起がなされることを抑制するため、車両との接触の可能性の高い歩行者を視覚的に表示する車両周辺装置が提案されている(例えば特許文献2参照)。この装置は、2つの赤外線カメラにより得られる画像から車両周辺の対象物と車両との距離を算出し、更に、時系列に求められる対象物の位置データから該対象物の移動ベクトルを算出している。そして、車両の進行方向と対象物の移動ベクトルの関係から、車両と接触する可能性の高い対象物を抽出して表示する。すなわち、図11に示すように、車両前方に接触判定を行う接近判定領域AR1と侵入判定領域AR2,AR3とを設定し、各領域における対象物の移動ベクトルから対象物と車両との接触の可能性を判定する処理を行っている。   Further, in such a vehicle periphery monitoring device, there is provided a vehicle periphery device that visually displays a pedestrian who has a high possibility of contact with the vehicle in order to suppress unnecessary alerting to the driver of the vehicle. It has been proposed (see, for example, Patent Document 2). This device calculates the distance between an object around the vehicle and the vehicle from images obtained by two infrared cameras, and further calculates a movement vector of the object from position data of the object obtained in time series. Yes. Then, an object that is highly likely to come into contact with the vehicle is extracted and displayed from the relationship between the traveling direction of the vehicle and the movement vector of the object. That is, as shown in FIG. 11, an approach determination area AR1 for performing contact determination in front of the vehicle and an intrusion determination area AR2 and AR3 are set, and the object and the vehicle can be contacted from the movement vector of the object in each area. Processing to determine the sex.

しかし、本願発明者らは、この処理により接触の可能性を判定したときに、不要な注意喚起や煩わしい注意喚起がなされる場合があることを知見した。
特開平11−328364号公報 特開2001−6096号公報
However, the inventors of the present application have found that when the possibility of contact is determined by this processing, unnecessary alerting or troublesome alerting may be performed.
Japanese Patent Laid-Open No. 11-328364 JP 2001-6096 A

本発明は、上記背景を鑑みてなされたものであり、不要な注意喚起や煩わしい注意喚起がなされることを抑制して、車両の運転者に信頼性の高い注意喚起を行う車両周辺監視装置を提供することをその課題としている。   The present invention has been made in view of the above background, and provides a vehicle periphery monitoring device that suppresses unnecessary alerts and annoying alerts and provides highly reliable alerts to vehicle drivers. The issue is to provide.

上記課題を解決するための本発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる画像から、車両の周辺に存在する物体を監視する車両周辺監視装置であって、前記画像における車道領域を識別する車道領域識別手段と、前記画像から対象物を抽出する対象物抽出手段と、前記車両の運転者に対して注意喚起を行う注意喚起手段と、前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力する注意喚起制御手段とを備えることを特徴とする。   A vehicle periphery monitoring device according to the present invention for solving the above-described problem is a vehicle periphery monitoring device that monitors an object existing in the periphery of a vehicle from an image obtained by an imaging unit mounted on the vehicle. By the roadway area identification means for identifying the roadway area, the object extraction means for extracting the object from the image, the alerting means for alerting the driver of the vehicle, and the object extraction means, When an object is extracted within the road area identified by the road area identification means, a first alert is output by the alert means, and when the object is extracted outside the road area Is provided with a warning control means for outputting a second warning different from the first warning by the warning means.

かかる本発明の車両周辺監視装置によれば、車道領域を識別する車道領域識別手段を備え、画像から抽出された対象物が、該車道域識別手段によって識別された車道領域内又は車道領域外において抽出されたか否かによって、前記第1の注意喚起と第2の注意喚起という相異なる注意喚起を車両の運転者に行う。そのため、車両の運転者は、該対象物が車道領域内に存在し、自車両と接触する可能性が高い場合と、該対象物が車道領域外に存在し、自車両と接触する可能性が低い場合とを、相異なる注意喚起によって区別して認識することができる。これにより、自車両と接触する可能性が低いときでも、接触する可能性が高いときと同様の注意喚起がなされることによる注意喚起の煩わしさ等を抑制して、車両の運転者に信頼性の高い注意喚起を行うことができる。   According to such a vehicle periphery monitoring device of the present invention, the vehicle road area identifying means for identifying the road area is provided, and the object extracted from the image is inside or outside the road area identified by the road area identifying means. Depending on whether or not it has been extracted, different warnings of the first warning and the second warning are given to the driver of the vehicle. For this reason, the driver of the vehicle has a possibility that the object exists in the road area and is likely to come into contact with the own vehicle, and that the object exists outside the road area and may come into contact with the own vehicle. The low case can be distinguished and recognized by different alerts. As a result, even when the possibility of contact with the host vehicle is low, the inconvenience of alerting caused by the same alert as when the possibility of contact is high is suppressed, and the driver of the vehicle is thus reliable. High alerts can be made.

また、本発明の車両周辺監視装置において、前記撮像手段は、前記車両前方を撮像し、前記注意喚起制御手段は、前記車両と前記画像の車道領域内で抽出された対象物との実空間における前方の車道領域の方向に沿った距離である対象物距離を算出し、該対象物距離が予め設定された判定距離以下であるときに、注意喚起手段による前記第1の注意喚起を行うことを特徴とする。   Further, in the vehicle periphery monitoring device of the present invention, the imaging means images the front of the vehicle, and the alert control means is in real space between the vehicle and an object extracted in the road area of the image. Calculating an object distance, which is a distance along the direction of the roadway area ahead, and performing the first alerting by the alerting means when the object distance is equal to or less than a predetermined determination distance; Features.

かかる車両周辺監視装置によれば、前記注意喚起制御手段により算出される前記対象物距離は、車両の走行方向における車両と対象物との間の距離となる。そして、該対象物距離が所定距離以下の場合にのみ前記第1の注意喚起を行うことにより、自車両の走行方向に所在する対象物に限定して注意喚起がなされるため、不要な注意喚起や煩わしい注意喚起がなされることを抑制することができる。   According to such a vehicle periphery monitoring device, the object distance calculated by the alerting control unit is a distance between the vehicle and the object in the traveling direction of the vehicle. Since the first alerting is performed only when the object distance is equal to or less than the predetermined distance, the alert is limited to the object located in the traveling direction of the host vehicle, so that unnecessary alerting is performed. Or annoying annoying alerts can be suppressed.

さらに、本発明の車両周辺監視装置は、前記撮像手段によって異なるタイミングで取得された複数の画像から抽出された同一対象物の位置の変化から、該対象物の移動ベクトルを算出する移動ベクトル算出手段を備え、前記注意喚起制御手段は、前記対象物抽出手段によって前記車道領域内から抽出された対象物が、該対象物の移動ベクトルから、所定時間内に車道領域外に到達すると推定されるときと、到達しないと推定されるときとで前記第1の注意喚起の内容を変えることを特徴とする。   Furthermore, the vehicle periphery monitoring device of the present invention is a movement vector calculation unit that calculates a movement vector of the same object from a change in position of the same object extracted from a plurality of images acquired at different timings by the imaging unit. And the alerting control means is estimated that the object extracted from the road area by the object extraction means reaches the outside of the road area within a predetermined time from the movement vector of the object. The content of the first alert is changed depending on when it is estimated that it will not reach.

かかる車両周辺監視装置によれば、注意喚起制御手段は、対象物が車道領域内で抽出された場合に、該対象物の移動ベクトルによる、該対象物が所定時間内に車道領域外に到達されるか否かの推定結果に応じて、前記第1の注意喚起の内容を変更する。これにより、対象物が車道領域外に到達して自車両と接触する可能性が低いときと、車道領域内に到達せずに自車両と接触する可能性が高いときで、同様の注意喚起がなされることによる注意喚起の煩わしさ等を抑制して、車両の運転者に信頼性の高い注意喚起を行うことができる。   According to such a vehicle periphery monitoring device, the alerting control means, when the object is extracted in the road area, the object is reached outside the road area within a predetermined time by the movement vector of the object. The content of the first alert is changed according to the estimation result of whether or not. As a result, a similar alert is issued when there is a low possibility that the object will reach the outside of the road area and come into contact with the own vehicle, and when there is a high possibility that the object will not come into the road area and come into contact with the own vehicle. It is possible to suppress the troublesomeness of alerting due to being performed and perform highly reliable alerting to the driver of the vehicle.

また、本発明の車両周辺監視装置は、前記撮像手段によって異なるタイミングで取得された複数の画像から抽出された同一対象物の位置の変化から、該対象物の移動ベクトルを算出する移動ベクトル算出手段を備え、前記注意喚起制御手段は、前記対象物抽出手段によって前記車道領域外から抽出された対象物が、該対象物の移動ベクトルから、所定時間内に車道領域内に到達すると推定されるときと、到達しないと推定されるときとで前記第2の注意喚起の内容を変えることを特徴とする。   Further, the vehicle periphery monitoring device of the present invention is a movement vector calculation unit that calculates a movement vector of the target object from a change in position of the same target object extracted from a plurality of images acquired at different timings by the imaging unit. The alerting control means is estimated that the object extracted from the outside of the road area by the object extracting means reaches the road area within a predetermined time from the movement vector of the object And the content of said 2nd alerting is changed when it is estimated that it does not reach | attain.

かかる車両周辺監視装置によれば、注意喚起制御手段は、対象物が車道領域外で抽出された場合に、該対象物の移動ベクトルによる、該対象物が所定時間内に車道領域内に到達されるか否かの推定結果に応じて、前記第2の注意喚起の内容を変更する。これにより、対象物が車道領域内に入って自車両と接触する可能性が高いときと、その可能性が低いときで、同様の注意喚起がなされることによる注意喚起の煩わしさ等を抑制して、車両の運転者に信頼性の高い注意喚起を行うことができる。   According to such a vehicle periphery monitoring device, when the target is extracted outside the road area, the alert control means allows the target to reach the road area within a predetermined time based on the movement vector of the target. The content of the second alert is changed according to the estimation result of whether or not. As a result, it is possible to reduce the annoyance of alerting due to the same alerting when the object is likely to enter the roadway area and come into contact with the host vehicle and when the possibility is low. Thus, it is possible to alert the driver of the vehicle with high reliability.

さらに、本発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる画像から、車両の周辺に存在する物体を監視する車両周辺監視装置であって、前記画像における車道領域を識別する車道領域識別手段と、前記画像から対象物を抽出する対象物抽出手段と、前記車両の運転者に対して注意喚起を行う注意喚起手段と、前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、所定の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、注意喚起を出力しない注意喚起制御手段とを備えることを特徴とする。   Furthermore, the vehicle periphery monitoring device according to the present invention is a vehicle periphery monitoring device that monitors an object present in the periphery of a vehicle from an image obtained by an imaging unit mounted on the vehicle, and identifies a roadway region in the image. The roadway area identifying means, the object extracting means for extracting an object from the image, the alerting means for alerting the driver of the vehicle, and the object extracting means by the roadway area identifying means. When an object is extracted within the identified road area, a predetermined alert is output by the alert means, and when an object is extracted outside the road area, an alert is output It is provided with the alerting control means which does not do.

かかる本発明の車両周辺監視装置によれば、自車両と接触する可能性が高い車道領域内で対象物が抽出された場合にのみ注意喚起を行い、自車両と接触する可能性が低い車道領域外で対象物が抽出された場合には、注意喚起を行わない。そのため、自車両と接触する可能性が低いときにも注意喚起が行われることによる注意喚起の煩わしさを、車両の運転者に感じさせることを回避することができる。   According to such a vehicle periphery monitoring device of the present invention, a roadway area that alerts only when an object is extracted in a roadway area that is highly likely to come into contact with the host vehicle and that is less likely to come into contact with the host vehicle. If an object is extracted outside, no alert is given. Therefore, it is possible to avoid making the driver of the vehicle feel the troublesomeness of alerting by alerting even when the possibility of contact with the host vehicle is low.

また、本発明の車両周辺監視装置において、前記撮像手段は、前記車両前方を撮像し、前記注意喚起制御手段は、前記車両と前記画像の車道領域内で抽出された対象物との実空間における前方の車道領域の方向に沿った距離である対象物距離を算出し、該対象物距離が予め設定された判定距離以下であるときに、注意喚起手段による注意喚起を行うことを特徴とする。   Further, in the vehicle periphery monitoring device of the present invention, the imaging means images the front of the vehicle, and the alert control means is in real space between the vehicle and an object extracted in the road area of the image. An object distance, which is a distance along the direction of the front road area, is calculated, and when the object distance is equal to or less than a predetermined determination distance, alerting by the alerting means is performed.

かかる車両周辺監視装置によれば、前記注意喚起制御手段により算出される前記対象物距離は、車両の走行方向における車両と対象物との間の距離となる。そして、該対象物距離が所定距離以下の場合にのみ前記注意喚起を行うことにより、自車両の走行方向に所在する対象物に限定して注意喚起がなされるため、不要な注意喚起や煩わしい注意喚起がなされることを抑制することができる。   According to such a vehicle periphery monitoring device, the object distance calculated by the alerting control unit is a distance between the vehicle and the object in the traveling direction of the vehicle. Then, by performing the alert only when the object distance is equal to or less than the predetermined distance, the alert is limited to the object located in the traveling direction of the own vehicle, so unnecessary alerts and troublesome attentions are made. Arousing can be suppressed.

さらに、本発明の車両周辺監視装置は、前記撮像手段として、可視画像を取得する可視画像撮像手段と、赤外画像を取得する赤外画像撮像手段とを備え、前記車道領域識別手段は、前記可視画像撮像手段によって取得された可視画像から車道のレーンマークが検出可能な場合には、該レーンマークにより車道領域を識別し、該レーンマークが検出不可能な場合には、前記赤外画像撮像手段によって取得された赤外画像のエッジ部を抽出するエッジ抽出処理を行い、該エッジ抽出処理によって抽出されたエッジ部により車道領域を識別することを特徴とする。   Furthermore, the vehicle periphery monitoring device of the present invention includes, as the imaging unit, a visible image imaging unit that acquires a visible image, and an infrared image imaging unit that acquires an infrared image. When the lane mark of the roadway can be detected from the visible image acquired by the visible image pickup means, the roadway region is identified by the lane mark, and when the lane mark cannot be detected, the infrared image pickup An edge extraction process for extracting an edge part of an infrared image acquired by the means is performed, and a roadway area is identified by the edge part extracted by the edge extraction process.

かかる本発明の車両周辺監視装置によれば、撮像手段として可視画像撮像手段と赤外画像撮像手段とを備え、車道領域識別手段は、可視画像撮像手段によって得られる可視画像から車道領域の識別精度の高いレーンマークを検出することができるときは、該レーンマークを第1の判断要素として車道領域を識別する。また、レーンマークが検出できない場合は、赤外画像撮像手段によって得られる赤外画像のエッジ部を抽出し、該エッジ部を第2の判断要素として車道領域を識別する。このように、車道領域の識別精度の高いレーンマークを優先することにより、車道領域を精度良く識別することができるとともに、レーンマークが検出できない場合には、赤外画像のエッジ部により車道領域を識別することで、より広範囲の道路状況下で車道領域を識別することができる。なお、ここで言う可視画像とは、CCDカメラや近赤外カメラ等によって撮像された、レーンマークが検出可能な画像を意味する。   According to such a vehicle periphery monitoring device of the present invention, the imaging means includes the visible image imaging means and the infrared image imaging means, and the road area identification means identifies the road area from the visible image obtained by the visible image imaging means. When a high lane mark can be detected, the road area is identified using the lane mark as a first determination factor. When the lane mark cannot be detected, the edge portion of the infrared image obtained by the infrared image capturing means is extracted, and the road area is identified using the edge portion as the second determination element. In this way, by giving priority to the lane mark with high identification accuracy of the road area, the road area can be identified with high accuracy, and when the lane mark cannot be detected, the road area is determined by the edge portion of the infrared image. By identifying, the road area can be identified under a wider range of road conditions. Here, the visible image means an image that can be detected by a lane mark and is captured by a CCD camera, a near infrared camera, or the like.

また、本発明の車両周辺監視装置において、前記注意喚起制御手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が、前記車道領域抽出手段によって抽出された車道領域内に位置するときに、該対象物が該車道領域内で抽出されたと判定することを特徴とする。   Further, in the vehicle periphery monitoring device of the present invention, the attention control unit detects a lower end portion of the object extracted from the image, and the lower end portion is within the road area extracted by the road area extraction unit. It is determined that the object is extracted in the road area when the vehicle is located in the roadway.

かかる本発明の車両周辺監視装置によれば、画像から抽出された対象物の下端部を検出し、該下端部が車道領域内又は車道領域外に位置しているか否かによって、該対象物が車道領域内又は車道領域外から抽出されたか否かを判定する。ここで、対象物の下端部は、例えば、該対象物の同一距離部分を抽出した領域のうち、画像上で下端に位置する画素部分として検出することができる。そして、対象物の下端部を基準に該対象物の位置を判定することにより、該対象物が車道領域の境界部分の近くに位置する場合にも、該対象物が車両領域内で抽出されたか否かを容易かつ確実に判定することができる。   According to the vehicle periphery monitoring device of the present invention, the lower end of the object extracted from the image is detected, and the object is detected depending on whether the lower end is located in the road area or outside the road area. It is determined whether or not it has been extracted from inside the road area or outside the road area. Here, the lower end portion of the target object can be detected as, for example, a pixel portion positioned at the lower end on the image in the region where the same distance portion of the target object is extracted. Then, by determining the position of the object with reference to the lower end of the object, whether or not the object is extracted in the vehicle area even when the object is located near the boundary of the roadway area. Whether or not can be determined easily and reliably.

さらに、本発明の車両周辺監視装置は、前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、前記注意喚起制御手段は、前記画像から抽出された対象物の実空間上の位置が、前記車道領域抽出手段によって抽出された車道領域の実空間上の領域内にあるときに、該対象物が該車道領域内で抽出されたと判定することを特徴とする。   Furthermore, the vehicle periphery monitoring device of the present invention includes a position calculation unit that calculates a position in real space corresponding to an image portion included in the image, and the alerting control unit is an object extracted from the image. It is determined that the object has been extracted in the road area when the position in the real space is within the real space area of the road area extracted by the road area extraction means. .

かかる本発明の車両周辺監視装置によれば、位置算出手段が、画像から抽出された対象物の実空間上の位置および車道領域の実空間上の領域範囲を算出し、対象物の実空間上の位置が該領域範囲内又は領域範囲外に位置しているか否かによって、該対象物が車道領域内又は車道領域外から抽出されたか否かを判定する。これにより、例えば、画像から抽出された対象物の形状が、実空間における実際の形状に対して、その一部を欠いたものとなっている場合でも、該対象物が車両領域内で抽出されたか否かを正確に判定することができる。   According to the vehicle periphery monitoring device of the present invention, the position calculating means calculates the position of the object extracted from the image in the real space and the area range of the roadway area in the real space, and It is determined whether or not the object is extracted from the road area or outside the road area depending on whether or not the position of the object is located within the area range or outside the area range. Thereby, for example, even when the shape of the object extracted from the image is a part lacking a part of the actual shape in the real space, the object is extracted in the vehicle area. It can be accurately determined whether or not.

上記課題を解決するための本発明の車両は、前記車両周辺監視装置が搭載されたことを特徴とする。   A vehicle according to the present invention for solving the above-described problems is characterized in that the vehicle periphery monitoring device is mounted.

かかる本発明の車両によれば、車両の運転者は、対象物が車道領域内に存在し、自車両と接触する可能性が高い場合と、該対象物が車道領域外に存在し、自車両と接触する可能性が低い場合とを、所定の注意喚起(または、自車両と接触する可能性が高い場合にのみ注意喚起を行うこと)によって、区別して認識することができる。これにより、不要な注意喚起や煩わしい注意喚起がなされることを抑制して、車両の運転者に信頼性の高い注意喚起を行うことができる。   According to the vehicle of the present invention, the driver of the vehicle has a case where the object is present in the road area and is likely to come into contact with the own vehicle, and the object exists outside the road area. The case where the possibility of contact with the vehicle is low can be distinguished and recognized by a predetermined alert (or alerting only when the possibility of contact with the host vehicle is high). Thereby, it is possible to suppress unnecessary alerting and troublesome alerting and to perform highly reliable alerting to the driver of the vehicle.

上記課題を解決するための本発明の車両周辺監視用プログラムは、車両に搭載された撮像手段によって得られる画像のデータにアクセスする手段と、該車両の運転者に対して注意喚起を行う注意喚起手段の作動を制御する手段とを有する車載コンピュータに、車両の周辺に存在する物体を監視する機能を実現させるためのプログラムであって、該コンピュータを、前記画像における車道領域を識別する車道領域識別手段と、前記画像から対象物を抽出する対象物抽出手段と、前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力する注意喚起制御手段として機能させることを特徴とする。   A vehicle periphery monitoring program according to the present invention for solving the above-described problems includes a means for accessing data of an image obtained by an imaging means mounted on a vehicle, and an alert for alerting a driver of the vehicle. A vehicle-side computer having a means for controlling the operation of the means for realizing a function of monitoring an object existing in the vicinity of the vehicle, the computer using the computer to identify a road area in the image Means for extracting an object from the image, and when the object is extracted in the road area identified by the road area identification means by the object extraction means, When a warning is output by the warning means and the object is extracted outside the roadway area, a second warning different from the first warning is issued. Wherein the function as reminder control means for outputting the electromotive unit.

かかる本発明の車両周辺監視用プログラムを前記コンピュータ上で実行させて、前記車道領域識別手段により前記画像における車道領域を識別し、前記対象物抽出手段により前記画像から対象物を抽出し、前記注意喚起制御手段により、該車道領域内で該対象物が抽出された場合には第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力することで、車両の運転者は、該対象物が車道領域内に存在し、自車両と接触する可能性が高い場合と、該対象物が車道領域外に存在し、自車両と接触する可能性が低い場合とを、相異なる注意喚起によって区別して認識することができる。これにより、自車両と接触する可能性が低いときでも、接触する可能性が高いときと同様の注意喚起がなされることによる注意喚起の煩わしさ等を抑制して、車両の運転者に信頼性の高い注意喚起を行うことができる。   The vehicle periphery monitoring program according to the present invention is executed on the computer, the road area in the image is identified by the road area identification means, the object is extracted from the image by the object extraction means, and the attention When the object is extracted within the road area by the alert control means, a first alert is output by the attention means, and when the object is extracted outside the road area, When the second alerting that is different from the first alerting is output by the alerting means, the driver of the vehicle is likely to be in contact with the subject vehicle in the road area. And the case where the object exists outside the road area and the possibility of contact with the host vehicle is low can be distinguished and recognized by different alerts. As a result, even when the possibility of contact with the host vehicle is low, the inconvenience of alerting caused by the same alert as when the possibility of contact is high is suppressed, and the driver of the vehicle is thus reliable. High alerts can be made.

上記課題を解決するための本発明の車両周辺監視方法は、車両に搭載された撮像手段によって得られる画像のデータにアクセスする手段と、該車両の運転者に対して注意喚起を行う注意喚起手段の作動を制御する手段とを有する車載コンピュータにより、車両の周辺に存在する物体を監視する車両周辺監視方法であって、前記コンピュータが、前記画像における車道領域を識別する車道領域識別ステップと、前記コンピュータが、前記画像から対象物を抽出する対象物抽出ステップと、前記コンピュータが、前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力する注意喚起制御ステップとを有することを特徴とする。   The vehicle periphery monitoring method of the present invention for solving the above-described problems includes a means for accessing data of an image obtained by an imaging means mounted on a vehicle, and a warning means for calling attention to a driver of the vehicle. A vehicle periphery monitoring method for monitoring an object existing around the vehicle by an in-vehicle computer having a means for controlling the operation of the vehicle, wherein the computer identifies a roadway region in the image, and An object extraction step in which the computer extracts an object from the image; and the computer extracts an object in the road area identified by the road area identification means by the object extraction means. , When a first alert is output by the alert means and the object is extracted outside the road area, the first alert The different second alert and having a reminder control step of outputting by the attention drawing means.

かかる本発明の車両周辺監視方法によれば、前記コンピュータが車道領域識別ステップで前記画像における車道領域を識別し、対象物抽出ステップで前記画像から対象物を抽出し、注意喚起制御ステップで、該車道領域内で該対象物が抽出された場合には第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力することにより、車両の運転者は、該対象物が車道領域内に存在し、自車両と接触する可能性が高い場合と、該対象物が車道領域外に存在し、自車両と接触する可能性が低い場合とを、相異なる注意喚起によって区別して認識することができる。これにより、自車両と接触する可能性が低いときでも、接触する可能性が高いときと同様の注意喚起がなされることによる注意喚起の煩わしさ等を抑制して、車両の運転者に信頼性の高い注意喚起を行うことができる。   According to the vehicle periphery monitoring method of the present invention, the computer identifies a road area in the image at a road area identification step, extracts an object from the image at an object extraction step, and includes a warning control step. When the object is extracted within the road area, a first alert is output by the alert means, and when the object is extracted outside the road area, the first alert By outputting different second alerts by the alerting means, the driver of the vehicle has a high possibility that the object is in the roadway area and is in contact with the host vehicle, and the object is A case in which the vehicle is outside the road area and is unlikely to come into contact with the host vehicle can be distinguished and recognized by different alerts. As a result, even when the possibility of contact with the host vehicle is low, the inconvenience of alerting caused by the same alert as when the possibility of contact is high is suppressed, and the driver of the vehicle is thus reliable. High alerts can be made.

本発明の一実施形態を以下に図1〜図11を参照して説明する。   An embodiment of the present invention will be described below with reference to FIGS.

まず、図1および図2を参照して、本実施形態の車両の周辺監視装置のシステム構成を説明する。図1は該周辺監視装置の全体構成を示すブロック図、図2は該周辺監視装置を搭載した車両(自車両)の外観を示す斜視図である。なお、図2では、周辺監視装置の一部の構成要素の図示を省略している。   First, with reference to FIG. 1 and FIG. 2, the system configuration | structure of the vehicle periphery monitoring apparatus of this embodiment is demonstrated. FIG. 1 is a block diagram showing the overall configuration of the periphery monitoring device, and FIG. 2 is a perspective view showing the appearance of a vehicle (own vehicle) equipped with the periphery monitoring device. In FIG. 2, illustration of some components of the periphery monitoring device is omitted.

図1および図2を参照して、本実施形態の周辺監視装置は、画像処理ユニット1を備える。この画像処理ユニット1には、自車両10の前方の画像を撮像する撮像手段としての2つの赤外線カメラ2R,2Lと1つの可視カメラ2´とが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを検出するヨーレートセンサ3と、自車両10の走行速度(車速)を検出する車速センサ4と、自車両10のブレーキ操作の有無を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な注意喚起情報を出力するためのスピーカ6と、赤外線カメラ2R,2Lにより撮像された画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。   With reference to FIGS. 1 and 2, the periphery monitoring device of the present embodiment includes an image processing unit 1. The image processing unit 1 is connected with two infrared cameras 2R, 2L and one visible camera 2 'as imaging means for capturing an image in front of the host vehicle 10, and the traveling state of the host vehicle 10 is also monitored. As sensors to detect, a yaw rate sensor 3 that detects the yaw rate of the host vehicle 10, a vehicle speed sensor 4 that detects the traveling speed (vehicle speed) of the host vehicle 10, and a brake sensor 5 that detects whether or not the host vehicle 10 is braked. Is connected. Further, the image processing unit 1 has a speaker 6 for outputting auditory alert information such as sound, and a display for displaying images taken by the infrared cameras 2R and 2L and visual alert information. Device 7 is connected.

なお、赤外線カメラ2R,2Lが本発明における赤外画像撮像手段に相当し、可視カメラ2´が本発明における可視画像撮像手段に相当する。また、赤外線カメラ2R,2Lと可視カメラ2´とは、本発明の撮像手段に相当する。スピーカ6と表示装置7とは、本発明の注意喚起手段に相当する。   The infrared cameras 2R and 2L correspond to the infrared image capturing unit in the present invention, and the visible camera 2 'corresponds to the visible image capturing unit in the present invention. Further, the infrared cameras 2R and 2L and the visible camera 2 ′ correspond to the imaging means of the present invention. The speaker 6 and the display device 7 correspond to the alerting means of the present invention.

画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM等を有する)、画像メモリなどを含む電子回路により構成され、赤外線カメラ2R,2L、可視カメラ2´、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化されて、マイクロコンピュータに入力される。そして、マイクロコンピュータは、入力されたデータを基に、人(歩行者、自転車に乗っている者)などの対象物を検出し、検出した対象物が所定の注意喚起要件を満す場合にスピーカ6や表示装置7により運転者に注意喚起を発する処理を実行する。   Although not shown in detail, the image processing unit 1 includes electronic circuits including an A / D conversion circuit, a microcomputer (having a CPU, a RAM, a ROM, and the like), an image memory, and the like. The infrared cameras 2R, 2L, Analog signals output from the visible camera 2 ′, the yaw rate sensor 3, the vehicle speed sensor 4, and the brake sensor 5 are converted into digital data by the A / D conversion circuit and input to the microcomputer. The microcomputer detects an object such as a person (pedestrian or person riding a bicycle) based on the input data, and the speaker detects when the detected object satisfies a predetermined alerting requirement. 6 or a display device 7 is used to execute a process for alerting the driver.

なお、画像処理ユニット1は、本発明における車道領域識別手段、対象物抽出手段、注意喚起制御手段としての機能を備えている。そして、前記マイクロコンピュータに、本発明の車両周辺監視用プログラムを実行させることにより、該コンピュータは、本発明の車道領域識別手段、対象物抽出手段、注意喚起制御手段として機能する。さらに、前記マイクロコンピュータを、車道領域識別手段、対象物抽出手段及び注意喚起制御手段として機能させることにより、本発明の車両周辺監視方法における車道領域識別ステップ、対象物抽出ステップ及び注意喚起制御ステップが実行される。   The image processing unit 1 has functions as a roadway area identification unit, an object extraction unit, and an attention control unit in the present invention. Then, by causing the microcomputer to execute the vehicle periphery monitoring program of the present invention, the computer functions as a roadway area identifying unit, an object extracting unit, and an alerting control unit of the present invention. Furthermore, by causing the microcomputer to function as a roadway area identifying means, an object extracting means, and an alerting control means, the roadway area identifying step, the object extracting step, and the alerting control step in the vehicle periphery monitoring method of the present invention are performed. Executed.

図2に示すように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、自車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それらの位置は、自車両10の車幅方向の中心に対して左右対称である。そして、赤外線カメラ2R,2Lは、それらの光軸が互いに平行に自車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。なお、赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。   As shown in FIG. 2, the infrared cameras 2 </ b> R and 2 </ b> L are attached to the front portion (the front grill portion in the figure) of the host vehicle 10 in order to image the front of the host vehicle 10. In this case, the infrared cameras 2R and 2L are respectively disposed at a position on the right side and a position on the left side of the center of the host vehicle 10 in the vehicle width direction. These positions are symmetrical with respect to the center of the host vehicle 10 in the vehicle width direction. The infrared cameras 2R and 2L are fixed so that their optical axes extend in parallel in the front-rear direction of the host vehicle 10 and the heights of the optical axes from the road surface are equal to each other. . The infrared cameras 2R and 2L have sensitivity in the far-infrared region, and the higher the temperature of the object to be imaged, the higher the level of the output video signal (the luminance of the video signal increases). have.

また、可視カメラ2´は、自車両10のルームミラー(図示せず)の前方に、撮像方向を自車両10の前方に向けて取り付けられている。可視カメラ2´は、可視光領域で撮像可能なCCDカメラ等によって構成され、それにより撮像される物体の照度が高いほど、出力される映像信号のレベルが高くなる(映像信号の画像の輝度が高くなる)特性を有している。   Further, the visible camera 2 ′ is attached in front of a room mirror (not shown) of the host vehicle 10 with the imaging direction facing the front of the host vehicle 10. The visible camera 2 ′ is configured by a CCD camera or the like that can capture an image in the visible light region, and the higher the illuminance of the object to be imaged, the higher the level of the output video signal (the luminance of the image of the video signal is higher). (Becomes higher).

さらに、本実施形態では、表示装置7として、自車両10のフロントウィンドウに画像情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7として、HUD7aの代わりに、もしくは、HUD7aと共に、自車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを用いてもよい。   Further, in the present embodiment, the display device 7 includes a head-up display 7a (hereinafter referred to as HUD 7a) that displays image information on the front window of the host vehicle 10. In addition, as a display device 7, instead of the HUD 7a, or together with the HUD 7a, a display provided integrally with a meter for displaying a traveling state such as the vehicle speed of the host vehicle 10 or a display provided in an in-vehicle navigation device is provided. It may be used.

次に、本実施形態の周辺監視装置の全体的動作を図3のフローチャートを参照して説明する。   Next, the overall operation of the periphery monitoring device of this embodiment will be described with reference to the flowchart of FIG.

本実施形態の画像処理ユニット1は、図3を参照して、先ず、STEP100で可視画像又は赤外線画像から車道領域を識別して設定する「車道領域識別処理」を行い、STEP200で赤外線画像から対象物を抽出する「対象物抽出処理」を行う。   With reference to FIG. 3, the image processing unit 1 of the present embodiment first performs “roadway area identification processing” in which a roadway area is identified and set from a visible image or an infrared image in STEP 100, and the object is detected from the infrared image in STEP200. Perform “object extraction processing” to extract objects.

そして、STEP300では、「対象物抽出処理」で対象物が抽出されているか否かを判断し、抽出されたときはSTEP400に進んで、「車道領域識別処理」で車道領域が設定されているか否かを判断する。一方、STEP300において、対象物が抽出されなかったときは、STEP100に戻って「車道領域識別処理」以下の処理を再び実行する。   In STEP 300, it is determined whether or not an object has been extracted in the “object extraction process”. If extracted, the process proceeds to STEP 400, and whether or not a road area has been set in the “road area identification process”. Determine whether. On the other hand, when no object is extracted in STEP 300, the process returns to STEP 100 and the processes after the “roadway area identification process” are executed again.

STEP400において、車道領域が設定されているときは、STEP500に進んで、対象物が車道領域内の注意喚起範囲内で抽出されたときに、車道領域外で抽出されたときよりも高いレベルの注意喚起を行う「注意喚起処理(I)」を実行する。   In STEP 400, when the road area is set, the process proceeds to STEP 500, and when the object is extracted within the alert area in the road area, the level of attention is higher than when the object is extracted outside the road area. The “attention calling process (I)” for calling out is executed.

一方、STEP400において、車道領域が設定されていないときは、STEP600に分岐して、車道領域の内外を区別することなく、自車両10の前方領域で対象物が検出されたときに注意喚起を行う「注意喚起処理(II)」を実行する。   On the other hand, when the road area is not set in STEP 400, the process branches to STEP 600 and alerts when an object is detected in the front area of the host vehicle 10 without distinguishing between the inside and the outside of the road area. Execute “Attention Calling Process (II)”.

以上が、本実施形態の周辺監視装置の全体的動作である。   The above is the overall operation of the periphery monitoring device of the present embodiment.

次に、図4に示したフローチャートに従って、「車道領域識別処理」の具体的な内容について説明する。   Next, specific contents of the “roadway area identification process” will be described with reference to the flowchart shown in FIG. 4.

まず、画像処理ユニット1は、可視カメラ2´により可視画像を取得する(STEP101)。具体的に、取得される可視画像は、可視カメラ2´の出力信号をA/D変換して得られるグレースケール画像であり、画像メモリに格納される。   First, the image processing unit 1 acquires a visible image by the visible camera 2 ′ (STEP 101). Specifically, the acquired visible image is a grayscale image obtained by A / D converting the output signal of the visible camera 2 ', and is stored in the image memory.

続けて、可視画像上で白線等の走行区分線(レーンマーク)を検出するレーンマーク検出を行う(STEP102)。具体的には、可視画像におけるエッジ点を微分フィルタ等により抽出し、該エッジ点から白線等の走行区分線に相当する直線成分をレーンマークとして検出する。   Subsequently, lane mark detection is performed to detect a travel line (lane mark) such as a white line on the visible image (STEP 102). Specifically, an edge point in the visible image is extracted by a differential filter or the like, and a straight line component corresponding to a traveling division line such as a white line is detected as a lane mark from the edge point.

例えば、STEP101で、図5(a)に示した可視画像が取得された場合、該可視画像に、微分処理を施してエッジ画像を生成し、該エッジ画像から周知のHough(ハフ)変換により、走行区分線に相当する直線成分を抽出する。そして、白線等の走行区分線に相当する直線成分が抽出されたときは、該直線成分をレーンマークとして検出することにより、図5(b)に丸印で示したように、レーンマークを検出することができる。   For example, in STEP 101, when the visible image shown in FIG. 5A is acquired, the visible image is subjected to a differentiation process to generate an edge image, and the edge image is subjected to a well-known Hough transformation. A straight line component corresponding to the travel line is extracted. When a straight line component corresponding to a travel line such as a white line is extracted, the lane mark is detected as indicated by a circle in FIG. 5B by detecting the straight line component as a lane mark. can do.

次いで、画像処理ユニット1は、STEP102で、レーンマークが検出されたか否かを判定する(STEP103)。   Next, the image processing unit 1 determines whether or not a lane mark is detected in STEP 102 (STEP 103).

そして、レーンマークが検出されたとき(STEP103の判断結果がYESとなる場合)は、STEP104に進み、STEP102で検出されたレーンマークの位置に基づいて、車道領域を設定する。そして、STEP105に進んで、「車道領域識別処理」を終了する。   When a lane mark is detected (when the determination result in STEP 103 is YES), the process proceeds to STEP 104, and a road area is set based on the position of the lane mark detected in STEP 102. Then, the process proceeds to STEP 105, and the “roadway area identification process” is terminated.

一方、STEP103で、レーンマークが検出されなかったと判定された場合(STEP103の判断結果がNOとなる場合)には、STEP106に分岐し、画像処理ユニット1は、赤外線カメラ2R、2Lにより赤外線画像を取得する。赤外線画像は、赤外線カメラ2R,2Lのそれぞれの出力信号である赤外線画像をA/D変換して得られるグレースケール画像であり、画像メモリに格納される。なお、以降、赤外線カメラ2Rから得られた画像を右画像、赤外線カメラ2Lから得られた画像を左画像といい、特に、右画像を基準画像という。また、基準画像は、本実施形態では右画像であるが、左画像としてもよい。   On the other hand, if it is determined in STEP 103 that no lane mark is detected (when the determination result in STEP 103 is NO), the process branches to STEP 106, and the image processing unit 1 receives an infrared image by the infrared cameras 2R and 2L. get. The infrared image is a grayscale image obtained by A / D converting the infrared image that is the output signal of each of the infrared cameras 2R and 2L, and is stored in the image memory. Hereinafter, an image obtained from the infrared camera 2R is referred to as a right image, an image obtained from the infrared camera 2L is referred to as a left image, and in particular, the right image is referred to as a reference image. In addition, the reference image is a right image in the present embodiment, but may be a left image.

続けて、画像処理ユニット1は、該赤外線画像から道路領域を検出する(STEP107)。具体的には、前記基準画像におけるエッジ点を微分フィルタ等により抽出し、該エッジ点から自車両10の前方領域において道路領域を検出する。   Subsequently, the image processing unit 1 detects a road area from the infrared image (STEP 107). Specifically, an edge point in the reference image is extracted by a differential filter or the like, and a road area is detected in a front area of the host vehicle 10 from the edge point.

例えば、STEP106で、図6(a)に示した赤外線画像が基準画像として取得された場合、前述のSTEP102におけるレーンマークの検出と同様、基準画像に微分処理を施してエッジ画像を生成し、該エッジ画像から周知のHough(ハフ)変換により、道路領域の端部に相当する直線成分を抽出する。そして、道路領域の端部に相当する直線成分が抽出されたときは、該直線成分を道路領域の端部として検出することにより、図6(b)に丸印で示したように、道路領域を検出することができる。   For example, when the infrared image shown in FIG. 6A is acquired as the reference image in STEP 106, as in the lane mark detection in STEP 102 described above, a differential process is performed on the reference image to generate an edge image. A straight line component corresponding to the end of the road region is extracted from the edge image by a well-known Hough transform. Then, when a straight line component corresponding to the end of the road area is extracted, the road area is detected as indicated by a circle in FIG. 6B by detecting the straight line component as the end of the road area. Can be detected.

次いで、画像処理ユニット1は、STEP107で、道路領域が検出されたか否かを判定する(STEP108)。   Next, the image processing unit 1 determines whether or not a road area is detected in STEP 107 (STEP 108).

そして、道路領域が検出されたとき(STEP108の判断結果がYESとなる場合)は、STEP107によって検出された道路領域の端部位置を車道領域として設定し(STEP109)、「車道領域識別処理」を終了する。   When the road area is detected (when the determination result in STEP 108 is YES), the end position of the road area detected in STEP 107 is set as the road area (STEP 109), and the “road area identification process” is performed. finish.

一方、道路領域が検出されなかったとき(STEP108の判断結果がNOとなる場合)は、STEP105に分岐して、車道領域を設定せずに「車道領域識別処理」を終了する。   On the other hand, when the road area is not detected (when the determination result in STEP 108 is NO), the process branches to STEP 105, and the “road area identification process” is terminated without setting the road area.

なお、画像処理ユニット1によりSTEP100の処理を実行する構成が、本発明の車道領域識別手段に相当する。また、STEP100の処理は、本発明の車両周辺監視方法おける車道領域識別ステップに相当する。   In addition, the structure which performs the process of STEP100 by the image processing unit 1 corresponds to the roadway area | region identification means of this invention. Further, the processing of STEP 100 corresponds to a roadway area identification step in the vehicle periphery monitoring method of the present invention.

次に、図7に示したフローチャートに従って、「対象物抽出処理」(図3のSTEP300)の具体的な内容について説明する。   Next, the specific contents of the “object extraction process” (STEP 300 in FIG. 3) will be described with reference to the flowchart shown in FIG.

まず、画像処理ユニット1は、赤外線カメラ2R、2Lにより赤外線画像を取得する(STEP201)。   First, the image processing unit 1 acquires an infrared image by the infrared cameras 2R and 2L (STEP 201).

次いで、画像処理ユニット1は、前記基準画像(右画像)を2値化する(STEP202)。この2値化処理は、基準画像の各画素の輝度値を所定の輝度閾値と比較し、基準画像のうちの、該所定の輝度閾値よりも高い輝度値を有する領域(比較的明るい領域)を「1」(白)とし、該輝度閾値よりも低い輝度値を有する領域(比較的暗い領域)を「0」(黒)とする処理である。以降、この2値化処理により得られる画像(白黒画像)を2値化画像という。そして、この2値化画像のうちの、「1」とされる領域を高輝度領域という。なお、この2値化画像は、グレースケール画像(右画像および左画像)とは別に画像メモリに記憶される。   Next, the image processing unit 1 binarizes the reference image (right image) (STEP 202). In this binarization process, the luminance value of each pixel of the reference image is compared with a predetermined luminance threshold value, and an area (relatively bright area) having a luminance value higher than the predetermined luminance threshold value in the reference image. This is a process of setting “1” (white) and setting an area having a luminance value lower than the luminance threshold (a relatively dark area) to “0” (black). Hereinafter, an image (monochrome image) obtained by the binarization process is referred to as a binarized image. In the binarized image, an area “1” is referred to as a high luminance area. The binarized image is stored in the image memory separately from the grayscale image (right image and left image).

次いで、画像処理ユニット1は、前記2値化画像に対してSTEP203〜205の処理を実行し、該2値化画像から対象物(より正確には対象物に対応する画像部分)を抽出する。すなわち、前記2値化画像の高輝度領域を構成する画素群を、基準画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)延在するラインに分類し、その各ラインを、その位置(基準画像上での2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換する(STEP203)。そして、このランレングスデータにより表されるラインのうちの、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)を付し(STEP204)、そのライン群のそれぞれを対象物として抽出する(STEP205)。   Next, the image processing unit 1 performs the processing of STEPs 203 to 205 on the binarized image, and extracts an object (more precisely, an image portion corresponding to the object) from the binarized image. That is, the pixel group constituting the high luminance area of the binarized image is classified into lines having a width of one pixel in the vertical direction (y direction) of the reference image and extending in the horizontal direction (x direction). Each line is converted into run-length data composed of coordinates and length (number of pixels) at the position (two-dimensional position on the reference image) (STEP 203). Of the lines represented by the run length data, labels (identifiers) are attached to each of the line groups that overlap in the vertical direction of the reference image (STEP 204), and each of the line groups is extracted as an object. (STEP 205).

なお、STEP203〜205の処理により抽出される対象物には、人(歩行者)だけでなく、他車両などの人工構造物なども含まれる。また、同一の物体の複数の局所部分が対象物として抽出される場合もある。   Note that the objects extracted by the processing of STEPs 203 to 205 include not only people (pedestrians) but also artificial structures such as other vehicles. In addition, a plurality of local parts of the same object may be extracted as the target object.

次いで、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)と面積と外接四角形の縦横比とを求める(STEP206)。面積は、ランレングスデータの長さを同一対象物について積算することにより算出し、重心の座標は、面積をx方向に2等分する線のx座標及びy方向に2等分する線のy座標として算出し、縦横比は、ランレングスデータ化したラインの外接四角形の縦横比として算出する。なお、重心Gの位置は、外接四角形の重心位置で代用してもよい。   Next, the image processing unit 1 obtains the position of the center of gravity of each object extracted as described above (position on the reference image), the area, and the aspect ratio of the circumscribed rectangle (STEP 206). The area is calculated by accumulating the length of the run length data for the same object, and the coordinates of the center of gravity are the x coordinate of the line that bisects the area in the x direction and the y of the line that bisects the y direction. Calculated as coordinates, the aspect ratio is calculated as the aspect ratio of the circumscribed rectangle of the line converted to run length data. Note that the position of the center of gravity G may be substituted by the position of the center of gravity of the circumscribed rectangle.

次いで、画像処理ユニット1は、前記STEP205で抽出した対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の同一対象物の認識を行なう(STEP207)。この処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP205の処理により対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP205の処理により対象物Bが抽出されたとしたとき、それらの対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの対象物A,Bの2値化画像上での形状やサイズ、基準画像(グレースケール画像)上での輝度分布の相関性などに基づいて行なえばよい。そして、それらの対象物A,Bが同一であると判定された場合に、時刻k+1で抽出した対象物Bのラベル(STEP204で付したラベル)が対象物Aのラベルと同じラベルに変更される。   Next, the image processing unit 1 tracks the target object extracted in STEP 205, that is, recognizes the same target object every calculation processing period of the image processing unit 1 (STEP 207). In this process, when the object A is extracted by the processing of STEP 205 at a time (discrete system time) k in a certain arithmetic processing cycle, and the object B is extracted by the processing of STEP 205 at time k + 1 of the next arithmetic processing cycle. The identity of these objects A and B is determined. This identity determination may be performed based on, for example, the shape and size of the objects A and B on the binarized image, the correlation of the luminance distribution on the reference image (grayscale image), and the like. . When it is determined that the objects A and B are the same, the label of the object B extracted at time k + 1 (the label attached in STEP 204) is changed to the same label as the label of the object A. .

次いで、画像処理ユニット1は、前記車速センサ4およびヨーレートセンサ5の出力(車速の検出値およびヨーレートの検出値)を読み込む(STEP208)。なお、このSTEP208では、読込んだヨーレートの検出値を積分することにより、自車両10の回頭角(方位角)の算出も行なわれる。   Next, the image processing unit 1 reads the outputs (the detected vehicle speed value and the detected yaw rate value) of the vehicle speed sensor 4 and the yaw rate sensor 5 (STEP 208). In STEP 208, the turning angle (azimuth angle) of the host vehicle 10 is also calculated by integrating the read detection value of the yaw rate.

一方、画像処理ユニット1は、STEP207,208の処理と並行して、STEP210の処理を実行する。このSTEP210〜212の処理は、STEP205で抽出した各対象物の自車両10からの距離を求める処理である。その処理を概略的に説明すると、まず、前記基準画像のうち、各対象物に対応する領域(例えば該対象物の外接四角形の領域)を探索画像R1として抽出する(STEP210)。   On the other hand, the image processing unit 1 executes the processing of STEP 210 in parallel with the processing of STEPs 207 and 208. The processing in STEPs 210 to 212 is processing for obtaining the distance from the subject vehicle 10 of each object extracted in STEP 205. The process is schematically described. First, an area corresponding to each object (for example, a circumscribed square area of the object) is extracted as a search image R1 from the reference image (STEP 210).

次いで、左画像中で、右画像の探索画像R1に含まれる対象物と同じ対象物を探索するための領域である探索領域R2が左画像に設定され、その探索領域R2内で、探索画像R1との相関性が最も高い領域が、探索画像R1に対応する画像(探索画像R1と同等の画像)である対応画像R3として抽出される(STEP211)。この場合、左画像の探索領域R2のうち、右画像の探索画像R1の輝度分布に最も一致する輝度分布を有する領域が対応画像R3として抽出される。なお、STEP211の処理は、2値化画像ではなく、グレースケール画像を使用して行なわれる。   Next, in the left image, a search area R2 that is an area for searching for the same object as the object included in the search image R1 of the right image is set as the left image, and the search image R1 is set in the search area R2. Is extracted as a corresponding image R3 that is an image corresponding to the search image R1 (an image equivalent to the search image R1) (STEP 211). In this case, an area having a luminance distribution that most closely matches the luminance distribution of the search image R1 of the right image is extracted as the corresponding image R3 from the search area R2 of the left image. Note that the processing of STEP 211 is performed using a grayscale image, not a binarized image.

次いで、右画像における前記探索画像R1の重心の横方向位置(x方向位置)と、左画像における前記対応画像R3の重心の横方向位置(x方向位置)との差分の画素数を視差Δdとして算出し、その視差Δdを用いて、対象物の自車両10からの距離z(自車両10の前後方向における距離)が算出される(STEP212)。距離zは、次式(1)により算出される。   Next, the number of pixels of the difference between the lateral position (x-direction position) of the center of gravity of the search image R1 in the right image and the lateral position (x-direction position) of the center of gravity of the corresponding image R3 in the left image is defined as parallax Δd. The distance z of the object from the host vehicle 10 (the distance in the front-rear direction of the host vehicle 10) is calculated using the parallax Δd (STEP 212). The distance z is calculated by the following equation (1).


z=(f×D)/(Δd×p) ……(1)

なお、fは赤外線カメラ2R,2Lの焦点距離、Dは赤外線カメラ2R,2Lの基線長(光軸の間隔)、pは画素ピッチ(1画素分の長さ)である。

z = (f × D) / (Δd × p) (1)

Note that f is the focal length of the infrared cameras 2R and 2L, D is the base length (interval of the optical axis) of the infrared cameras 2R and 2L, and p is the pixel pitch (length of one pixel).

以上がSTEP210〜212の処理の概要である。なお、STEP210〜212の処理は、STEP205で抽出された各対象物に対して実行される。   The above is the outline of the processing of STEPs 210 to 212. Note that the processing in STEPs 210 to 212 is executed for each object extracted in STEP 205.

STEP208およびSTEP212の処理の終了後、画像処理ユニット1は、次に、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP213)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向およびY方向は、それぞれ自車両10の車幅方向、上下方向であり、これらのX方向およびY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、対象物の実空間位置(X,Y,Z)は次式(2)、(3)、(4)により算出される。   After the processing of STEP 208 and STEP 212 is completed, the image processing unit 1 next calculates a real space position that is a position (relative position with respect to the host vehicle 10) of each object in the real space (STEP 213). Here, as shown in FIG. 2, the real space position is a position (X, Y, Z) in the real space coordinate system (XYZ coordinate system) set with the midpoint of the attachment position of the infrared cameras 2R, 2L as the origin. ). The X direction and the Y direction of the real space coordinate system are the vehicle width direction and the vertical direction of the host vehicle 10, respectively. These X direction and Y direction are the x direction (lateral direction) and y of the right image and the left image, respectively. It is the same direction as the direction (vertical direction). The Z direction in the real space coordinate system is the front-rear direction of the host vehicle 10. Then, the real space position (X, Y, Z) of the object is calculated by the following equations (2), (3), (4).


X=x×z×p/f ……(2)
Y=y×z×p/f ……(3)
Z=z ……(4)

なお、x、yは基準画像上での対象物のx座標、y座標である。

X = x × z × p / f (2)
Y = y × z × p / f (3)
Z = z (4)

Note that x and y are the x-coordinate and y-coordinate of the object on the reference image.

次いで、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを上記式(2)により求めた値から、前記STEP208で求めた回頭角の時系列データに応じて補正する(STEP214)。これにより、最終的に対象物の実空間位置が求められる。以降の説明では、「対象物の実空間位置」は、この補正を施した対象物の実空間位置を意味する。   Next, the image processing unit 1 compensates for the influence of the change in the turning angle of the host vehicle 10 and increases the accuracy of the real space position of the target object, so that the real space position (X, Y, Z) of the target object is increased. The position X in the X direction is corrected according to the time-series data of the turning angle obtained in STEP 208 from the value obtained by the above formula (2) (STEP 214). Thereby, the real space position of the object is finally obtained. In the following description, “the real space position of the object” means the real space position of the object subjected to this correction.

次に、画像処理ユニット1は、対象物の自車両10に対する移動ベクトルを求める(STEP215)。具体的には、同一対象物についての実空間位置の、所定期間(現在時刻から所定時間前までの期間)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(点)から、現在時刻における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。この移動ベクトルは、対象物の自車両10に対する相対速度ベクトルに比例する。   Next, the image processing unit 1 obtains a movement vector of the object relative to the host vehicle 10 (STEP 215). Specifically, a straight line that approximates time-series data in a predetermined period (a period from the current time to a predetermined time) of the real space position of the same object is obtained, and the straight line at the time before the predetermined time is obtained. A vector from the position (point) of the object toward the position (point) of the object on the straight line at the current time is obtained as a movement vector of the object. This movement vector is proportional to the relative velocity vector of the object with respect to the host vehicle 10.

さらに、画像処理ユニット1は、STEP213〜215の処理に続いて、STEP216〜217の処理を実行する。このSTEP216の処理では、STEP205で抽出した各対象物が人工構造物である場合に、該対象物を注意喚起の対象から除外する人工構造物除外処理を行う(STEP216)。人工構造物除外処理は、対象物画像に歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、注意喚起の対象から除外する処理である。例えば下記(a)〜(d)に示す条件のように、歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、注意喚起の対象から除外する。
(a)対象物の画像に直線エッジを示す部分が含まれる場合。
(b)対象物の画像の角が直角である場合。
(c)対象物の画像に同じ形状のものが複数含まれている場合。
(d)対象物の画像が予め登録された人工構造物の形状と一致する場合。
Further, the image processing unit 1 executes the processes of STEPs 216 to 217 following the processes of STEPs 213 to 215. In the process of STEP 216, when each target object extracted in STEP 205 is an artificial structure, an artificial structure exclusion process for excluding the target object from the alerting target is performed (STEP 216). The artificial structure exclusion process is a process in which, when a feature that is impossible for a pedestrian is detected in a target object image, the target object is determined as an artificial structure and is excluded from an alert target. For example, when a feature that is impossible for a pedestrian is detected as in the conditions shown in the following (a) to (d), the target object is determined as an artificial structure and excluded from the target of alerting.
(A) When the image of the object includes a portion indicating a straight edge.
(B) The corner of the image of the object is a right angle.
(C) A case where a plurality of objects having the same shape are included in the image of the object.
(D) When the image of the object matches the shape of the artificial structure registered in advance.

次に、STEP216において、対象物から人工構造物を除外する処理を行った上で、さらに判定の信頼性を上げるために、対象物が歩行者の可能性があるかを認定する歩行者認定処理を行う(STEP217)。歩行者認定処理は、前記基準画像上で対象物画像の形状や大きさ、輝度分散等の特徴から、対象物が歩行者であると認定される場合を除いて、該対象物を注意喚起の対象から除外する処理である。   Next, in STEP 216, after performing the process of excluding the artificial structure from the object, in order to further increase the reliability of the determination, the pedestrian recognition process for certifying whether the object is a pedestrian or not. (STEP 217). In the pedestrian recognition process, the object is alerted unless the object is recognized as a pedestrian due to the shape and size of the object image, the luminance dispersion, etc. on the reference image. It is processing to be excluded from the target.

以上が「対象物抽出処理」の詳細である。なお、画像処理ユニット1によりSTEP200の処理を実行する構成が、本発明の対象物抽出手段に相当する。また、STEP200の処理は、本発明の車両周辺監視方法おける対象物抽出ステップに相当する。   The above is the details of the “object extraction process”. In addition, the structure which performs the process of STEP200 by the image processing unit 1 is equivalent to the target object extraction means of this invention. Further, the processing of STEP 200 corresponds to an object extraction step in the vehicle periphery monitoring method of the present invention.

また、画像処理ユニット1により、STEP213の処理を実行する構成が、本発明の位置算出手段に相当し、STEP215の処理を実行する構成が、本発明の移動ベクトル算出手段に相当する。   Further, the configuration for executing the processing of STEP 213 by the image processing unit 1 corresponds to the position calculating means of the present invention, and the configuration of executing the processing of STEP 215 corresponds to the movement vector calculating means of the present invention.

次に、図8に示したフローチャートに従って、「注意喚起処理(I)」(図3のSTEP500)の具体的な内容について説明する。   Next, the specific content of the “attention calling process (I)” (STEP 500 in FIG. 3) will be described according to the flowchart shown in FIG.

まず、画像処理ユニット1は、対象物が、「車道領域識別処理」によって設定された車道領域内の注意喚起範囲から抽出されたか否かを判定する(STEP501)。   First, the image processing unit 1 determines whether or not the object has been extracted from the alerting range in the road area set by the “road area identification process” (STEP 501).

具体的には、例えば、前記基準画像として図9に示す画像が取得された場合、対象物Qにおける、ある一定の輝度値が連続する部分又は同一距離部分を同一対象物の範囲として、対象物Qの下端部qを決定する。そして、下端部qが車道領域AREに位置しているか否かより、対象物Qが車道領域ARE内から抽出されたものであるか否かを判定する。例えば、図9に示す場合には、対象物Qの下端部qが、車道領域ARE内に位置しているため、対象物Qは、車道領域AREから抽出されたものと判定される。   Specifically, for example, when the image shown in FIG. 9 is acquired as the reference image, the part of the object Q where a certain luminance value continues or the same distance part is set as the range of the same object. The lower end q of Q is determined. Then, it is determined whether or not the object Q is extracted from the road area ARE based on whether or not the lower end q is located in the road area ARE. For example, in the case shown in FIG. 9, since the lower end q of the object Q is located in the road area ARE, it is determined that the object Q is extracted from the road area ARE.

さらに、図10(a)に示すように、自車両10から車道領域AREの右端部における所定間隔毎の位置er1,er2,…までの方向と距離dr1,dr2,…とを算出する。さらに、自車両10から車道領域AREの左端部における所定間隔毎の位置el1,el2,…までの方向と距離dl1,dl2,…とを算出する。画像処理ユニット1は、これら右端部までの方向と距離、および左端部までの方向と距離に基づいて、車道領域AREの形状と前方の車道領域AREの方向に沿った距離とを認識する。そして、図10(b)に示すように、前方の車道領域AREの方向に沿った距離が所定距離L(自車速または対象物との相対速度によって定める距離)となる範囲(図中の斜線部)を前記注意喚起範囲として、該注意喚起範囲に対象物Qが存在しているか否かを判定する。   Further, as shown in FIG. 10A, the direction from the own vehicle 10 to the positions er1, er2,... At the predetermined intervals at the right end of the road area ARE and the distances dr1, dr2,. Further, the direction and distances dl1, dl2,... From the host vehicle 10 to the positions el1, el2,... At predetermined intervals at the left end of the road area ARE are calculated. The image processing unit 1 recognizes the shape of the road area ARE and the distance along the direction of the front road area ARE based on the direction and distance to the right end and the direction and distance to the left end. Then, as shown in FIG. 10 (b), a range (a hatched portion in the figure) in which the distance along the direction of the forward road area ARE is a predetermined distance L (a distance determined by the own vehicle speed or a relative speed with the object). ) As the alerting range, it is determined whether or not the object Q exists in the alerting range.

例えば、図9に示す対象物Qは、上述のように画像上の対象物Qの下端部qの位置から、車道領域AREにおいて抽出された対象物であると判定され、さらに、図10(b)に示すように、前方の車道領域AREの方向に沿った自車両10と対象物Qとの対象物距離dqが、所定距離L以下であるため、対象物Qは車道領域内における前記注意喚起範囲から抽出された対象物であると判定される。   For example, the object Q shown in FIG. 9 is determined to be the object extracted in the road area ARE from the position of the lower end q of the object Q on the image as described above. ) Since the object distance dq between the host vehicle 10 and the object Q along the direction of the forward road area ARE is equal to or less than the predetermined distance L, the object Q is the alert in the road area. It is determined that the object is extracted from the range.

なお、本実施形態においては、画像処理ユニット1は、前記基準画像上の対象物の下端部を検出し、該下端部が車道領域に位置しているか否かより、対象物が車道領域内から抽出されたものであるか否かを判定しているが、上述の(2)、(4)式から、対象物の実空間位置(X,Z)が、車道領域に対応する実空間上(X−Z座標軸上)の領域範囲内に位置しているかにより、対象物が車道領域内から抽出されたものであるか否かを判定してもよい。   In the present embodiment, the image processing unit 1 detects the lower end portion of the object on the reference image, and whether the lower end is located in the road area or not, the object is detected from the road area. Although it is determined whether or not it is an extracted one, the real space position (X, Z) of the object is on the real space corresponding to the roadway region ((2) and (4) above) ( It may be determined whether or not the object is extracted from the roadway area depending on whether it is located within the area range (on the XZ coordinate axis).

次に、STEP501において、対象物が車道領域内における前記注意喚起範囲から抽出されたと判定された場合には(STEP501の判断結果がYESの場合)、対象物が車道領域内に存在し、自車両10との接触の可能性が高いものと推定される。そのため、危険度を示す警告レベルが最も高いレベルSの注意喚起を行う(STEP502、本発明における第1の注意喚起に相当する)。具体的には、スピーカ6を介して、歩行者の可能性がある対象物が車道領域内に存在する旨の音声による注意喚起及び所定の注意喚起音を発するとともに、画像表示装置7の基準画像の中に歩行者の可能性がある対象物の画像を強調的に表示する。これにより、自車両10と接触する可能性がある対象物に対する運転者の注意が喚起される。   Next, when it is determined in STEP 501 that the object has been extracted from the alerting range in the road area (when the determination result in STEP 501 is YES), the object exists in the road area and the host vehicle It is estimated that the possibility of contact with 10 is high. For this reason, a warning of level S having the highest warning level indicating the degree of danger is performed (STEP 502, corresponding to the first warning in the present invention). More specifically, the speaker 6 emits an audible alert and a predetermined alert sound indicating that an object that may be a pedestrian exists in the road area, and the reference image of the image display device 7. An image of an object that may be a pedestrian is highlighted in the interior. This alerts the driver to an object that may come into contact with the host vehicle 10.

一方、STEP501で、前記対象物が車道領域内における前記注意喚起範囲から抽出されたものではないと判定された場合(STEP501の判断結果がNOの場合)は、STEP503に分岐し、上述した図7の「対象物抽出処理」のSTEP215で算出した該対象物の移動ベクトルが、所定時間の間に注意喚起範囲に至る大きさを有するか否かが判定される(STEP503)。ここで、所定時間は、自車両10が現在の車速で該対象物距離dqを通過するのに要する時間である。   On the other hand, when it is determined in STEP 501 that the object is not extracted from the alerting range in the road area (when the determination result in STEP 501 is NO), the process branches to STEP 503, and the above-described FIG. It is determined whether or not the movement vector of the object calculated in STEP 215 of the “object extraction process” has a size that reaches the alerting range during a predetermined time (STEP 503). Here, the predetermined time is the time required for the host vehicle 10 to pass the object distance dq at the current vehicle speed.

例えば、図10(b)に示す移動ベクトルu1を有する対象物Q1の場合、該移動ベクトルu1が前記所定時間の間に、前記注意喚起範囲に至る大きさを有するときに、対象物Q1は注意喚起領域に至る移動ベクトルを有する対象物であると判定される。一方、移動ベクトルu2を有する対象物Q2の場合、該移動ベクトルu2は前記所定時間の間に、前記注意喚起範囲に至る大きさを有しないため、対象物Q2は注意喚起範囲に至る移動ベクトルを有する対象物ではないと判定される。   For example, in the case of the object Q1 having the movement vector u1 shown in FIG. 10B, when the movement vector u1 has a size that reaches the warning range during the predetermined time, the object Q1 It is determined that the object has a movement vector that reaches the arousal region. On the other hand, in the case of the object Q2 having the movement vector u2, since the movement vector u2 does not have a size that reaches the attention calling range during the predetermined time, the object Q2 has a movement vector that reaches the attention calling range. It is determined that the object is not included.

次に、STEP503において、対象物が所定時間内に注意喚起範囲に至る移動ベクトルを有する対象物であると判定された場合には(STEP503の判断結果がYESの場合)、対象物が注意喚起範囲に進入して、自車両10と接触する可能性があると推定される。そのため、危険度を示す警告レベルが2番目に高いレベルAの警告を行う(STEP504、本発明における第2の注意喚起に相当する)。具体的には、スピーカ6を介して、歩行者の可能性がある対象物が車道領域に進入する旨の音声による注意喚起を発するとともに、画像表示装置7の基準画像の中に歩行者の可能性がある対象物の画像を強調的に表示する。これにより、自車両10と接触する可能性がある対象物に対する運転者の注意が喚起される。   Next, when it is determined in STEP 503 that the object is an object having a movement vector that reaches the alert range within a predetermined time (when the determination result in STEP 503 is YES), the object is in the alert range. It is estimated that there is a possibility of entering the vehicle and coming into contact with the host vehicle 10. Therefore, a warning of level A having the second highest warning level is given (STEP 504, corresponding to the second alerting in the present invention). Specifically, a warning to the effect that a target object that may be a pedestrian enters the roadway area is issued via the speaker 6, and the pedestrian can be included in the reference image of the image display device 7. The image of the target object is highlighted. This alerts the driver to an object that may come into contact with the host vehicle 10.

一方、STEP503において、対象物が注意喚起範囲に至る移動ベクトルを有する対象物ではないと判定された場合には(STEP503の判断結果がNOの場合)、該対象物と自車両10との接触の可能性は低いものと推定される。そのため、この場合は、危険度を示す注意喚起レベルの低いレベルBの注意喚起を行う(STEP505、本発明における第2の注意喚起に相当する)。具体的には、接触の可能性の低い対象物が車両の周辺に存在する旨の音声による注意喚起、または、対象物画像の強調表示のいずれか一方のみを行い、運転者の車両周辺の状況への注意を喚起する。   On the other hand, when it is determined in STEP 503 that the object is not an object having a movement vector that reaches the alerting range (when the determination result in STEP 503 is NO), the contact between the object and the host vehicle 10 is determined. The possibility is estimated to be low. Therefore, in this case, attention is given to level B, which is a low alert level indicating the degree of danger (STEP 505, corresponding to the second alert in the present invention). Specifically, the driver's situation around the vehicle is either given a voice alert that there is an object with low possibility of contact around the vehicle, or highlighting the object image. Call attention to.

なお、本実施形態において、画像処理ユニット1は、STEP501において対象物が車道領域内における前記注意喚起範囲から抽出されたと判定された場合に、危険度を示す警告レベルが最も高いレベルSの注意喚起を行っているが(STEP502)、注意喚起範囲から抽出された対象物の移動ベクトルを算出し、該移動ベクトルが所定時間の間に注意喚起範囲外に到達する大きさを有するか否かに応じてレベルSの注意喚起内容を変更してもよい。具体的には、注意喚起範囲から抽出された対象物が、所定時間内に注意喚起範囲外に到達する移動ベクトルを有するときに、注意喚起レベルを下げてレベルAに相当する注意喚起を行うようにしてもよい。   In the present embodiment, the image processing unit 1 alerts the level S with the highest warning level indicating the degree of danger when it is determined in STEP 501 that the object has been extracted from the alerting range in the road area. (STEP502), the movement vector of the object extracted from the alerting range is calculated, and depending on whether or not the movement vector has a magnitude that reaches the outside of the alerting range during a predetermined time Level S alerts may be changed. Specifically, when an object extracted from the alerting range has a movement vector that reaches outside the alerting range within a predetermined time, the alerting level is lowered and alerting corresponding to level A is performed. It may be.

以上が「注意喚起処理(I)」の詳細である。なお、画像処理ユニット1によりSTEP500の処理を実行する構成が、本発明の注意喚起制御手段に相当する。また、STEP500の処理は、本発明の車両周辺監視方法おける注意喚起制御ステップに相当する。   The above is the details of the “attention calling process (I)”. In addition, the structure which performs the process of STEP500 by the image processing unit 1 corresponds to the alerting control means of the present invention. Further, the processing in STEP 500 corresponds to the alerting control step in the vehicle periphery monitoring method of the present invention.

次に、注意喚起処理(II)(STEP600)の処理について概要を説明する。なお、注意喚起処理(II)(STEP600)は、前記特許文献2の図4(STEP41〜45)に記載されている処理と同じであるので、本明細書での詳細な説明は省略する。   Next, an outline of the attention calling process (II) (STEP 600) will be described. Note that the alerting process (II) (STEP 600) is the same as the process described in FIG. 4 (STEPs 41 to 45) of Patent Document 2, and thus detailed description thereof will be omitted.

まず、画像処理ユニット1は、自車両10と対象物との距離が、相対速度Vsと余裕時間Tとを乗じた値以下の場合に、接触の可能性があるものとして判定する。   First, the image processing unit 1 determines that there is a possibility of contact when the distance between the host vehicle 10 and the object is equal to or less than the value obtained by multiplying the relative speed Vs and the margin time T.

次に、余裕時間T以内に自車両10と対象物とが接触する可能性がある場合、さらに判定の信頼性を上げるために、図11に示すように、対象物がそのまま存在し続ければ自車両10との接触の可能性がきわめて高い接近判定領域AR1内に存在するか否かを判定する。   Next, when there is a possibility that the host vehicle 10 and the target object contact within the margin time T, in order to further increase the reliability of the determination, as shown in FIG. It is determined whether or not the vehicle 10 is in the approach determination area AR1 where the possibility of contact with the vehicle 10 is extremely high.

さらに、対象物が接近判定領域AR1内に存在しない場合、画像処理ユニット1は対象物が進入判定領域AR2,AR3から接近判定領域AR1内へ進入して自車両10と接触する可能性があるか否かを判定する。   Further, when the object does not exist in the approach determination area AR1, the image processing unit 1 may enter the approach determination area AR1 from the entry determination areas AR2 and AR3 and come into contact with the host vehicle 10. Determine whether or not.

次に、対象物が接近判定領域AR1内に存在する場合、または対象物が進入判定領域AR2,AR3から接近判定領域AR1に進入して自車両10と接触する可能性があると判定された場合には、実際の注意喚起を行なうべきか否かの判定を行なう注意喚起出力判定処理を実行する。   Next, when the object is present in the approach determination area AR1, or when it is determined that the object may enter the approach determination area AR1 from the entry determination areas AR2 and AR3 and come into contact with the host vehicle 10 In this case, a warning output determination process for determining whether or not actual warning should be performed is executed.

そして、画像処理ユニット1は、注意喚起を行なうべきと判定した場合には、この場合、対象物が自車両10の前方に存在して、自車両10との接触の可能性があると推定される。そのため、スピーカ6を介して、接触の可能性のある対象物が車両前方に存在する旨の注意喚起を発するとともに、画像表示装置7の基準画像の中に該対象物の画像を強調的に表示する。これにより、自車両10と接触する可能性がある対象物に対する運転者の注意が喚起される。   If the image processing unit 1 determines that alerting should be performed, in this case, the object is estimated to be in front of the host vehicle 10 and possibly in contact with the host vehicle 10. The For this reason, a warning is issued to the effect that there is an object that can be contacted in front of the vehicle via the speaker 6, and the image of the object is highlighted in the reference image of the image display device 7. To do. This alerts the driver to an object that may come into contact with the host vehicle 10.

以上説明してきたように、本実施形態の車両周辺監視装置によれば、自車両10の運転者は、STEP200の「対象物抽出処理」において、STEP216〜217により歩行者の可能性があると判断された対象物に対して、
(1)対象物が車道領域に存在し自車両10と接触する可能性が高い場合と、
(2)対象物が車道領域外に存在するが車道領域に進入し、自車両10と接触する可能性がある場合と、
(3)接触する可能性は低いが、自車両10の周辺に歩行者の可能性がある対象物が存在する場合と
を相異なる注意喚起によって認識することができる。そのため、不要な注意喚起や煩わしい注意喚起を抑制し、車両の運転者に信頼性の高い注意喚起を行うことができる。
As described above, according to the vehicle periphery monitoring device of the present embodiment, the driver of the host vehicle 10 determines that there is a possibility of a pedestrian in STEPs 216 to 217 in the “target extraction process” of STEP 200. Against the target object
(1) When the object exists in the road area and is likely to come into contact with the host vehicle 10,
(2) When the object exists outside the road area but may enter the road area and come into contact with the host vehicle 10, and
(3) Although the possibility of contact is low, it is possible to recognize when there is an object with the possibility of a pedestrian around the host vehicle 10 by different alerting. Therefore, unnecessary alerting and troublesome alerting can be suppressed, and highly reliable alerting can be performed to the driver of the vehicle.

さらに、車道領域が検出されない場合であって、自車両10の前方に対象物が存在し自車両10と接触する可能性が高い場合であっても、上記(1)〜(3)と同様の注意喚起もしくは異なる注意喚起を行うことにより、車両の運転者に車両周辺の状況を認識させることができる。   Further, even when the roadway area is not detected, and there is a high possibility that an object is present in front of the host vehicle 10 and is in contact with the host vehicle 10, the same as the above (1) to (3) By performing alerting or alerting differently, the driver of the vehicle can be made aware of the situation around the vehicle.

なお、本実施形態においては、前記対象物が車道領域外で検出された場合(STEP503における判断結果がNOの場合)に、注意喚起レベルBまたは注意喚起レベルCの注意喚起を行っているが(STEP504または505)、前記対象物が車道領域外で検出された場合には、注意喚起出力を行わないように構成してもよい。   In the present embodiment, when the object is detected outside the road area (when the determination result in STEP 503 is NO), the alert level B or alert level C is alerted ( (STEP 504 or 505), when the object is detected outside the road area, the warning output may not be performed.

また、本実施形態においては、画像処理ユニット1の処理結果に基づき、所定の注意喚起を行うように構成されているが、該処理結果に基づき車両挙動が制御されてもよい。   Moreover, in this embodiment, although it is comprised so that predetermined alerting may be performed based on the process result of the image processing unit 1, a vehicle behavior may be controlled based on this process result.

さらに、前記実施形態では、2台の赤外線カメラ2R,2Lを備えたが、対象物との距離をレーダーなどにより検出するようにした場合には、1台の赤外線カメラ2Rもしくは2Lを自車両10に搭載するようにしてもよい。   Furthermore, in the above-described embodiment, the two infrared cameras 2R and 2L are provided. However, when the distance to the object is detected by a radar or the like, one infrared camera 2R or 2L is attached to the host vehicle 10. You may make it mount in.

本発明の車両の周辺監視装置の一実施形態の全体構成を示す図。The figure which shows the whole structure of one Embodiment of the periphery monitoring apparatus of the vehicle of this invention. 図1の周辺監視装置を備えた車両の斜視図。The perspective view of the vehicle provided with the periphery monitoring apparatus of FIG. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 本実施形態における撮像画像を例示的に示す図。The figure which shows the captured image in this embodiment exemplarily. 本実施形態における撮像画像を例示的に示す図。The figure which shows the captured image in this embodiment exemplarily. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。3 is a flowchart showing processing of an image processing unit provided in the periphery monitoring device of FIG. 1. 本実施形態における撮像画像を例示的に示す図。The figure which shows the captured image in this embodiment exemplarily. 画像処理ユニットの処理を説明するための図。The figure for demonstrating the process of an image processing unit. 従来の車両の周辺監視装置を説明するための図。The figure for demonstrating the periphery monitoring apparatus of the conventional vehicle.

符号の説明Explanation of symbols

1…画像処理ユニット(車道領域識別手段、対象物抽出手段、注意喚起制御手段)、2R,2L…赤外線カメラ(赤外画像撮像手段)、2´…可視カメラ(可視画像撮像手段)、6…スピーカ(注意喚起手段)、7…表示装置(注意喚起手段)、STEP100…車道領域識別手段による処理、STEP200…対象物抽出手段による処理、STEP213…位置算出手段による処理、STEP215…移動ベクトル算出手段による処理、STEP500…注意喚起制御手段による処理。
DESCRIPTION OF SYMBOLS 1 ... Image processing unit (Roadway area identification means, object extraction means, alerting control means), 2R, 2L ... Infrared camera (infrared image imaging means), 2 '... Visible camera (visible image imaging means), 6 ... Speaker (attention calling means), 7 ... Display device (attention calling means), STEP 100 ... Processing by roadway area identification means, STEP 200 ... Processing by object extraction means, STEP 213 ... Processing by position calculation means, STEP 215 ... By movement vector calculation means Processing, STEP500: Processing by the alerting control means.

Claims (12)

車両に搭載された撮像手段によって得られる画像から、車両の周辺に存在する物体を監視する車両周辺監視装置であって、
前記画像における車道領域を識別する車道領域識別手段と、
前記画像から対象物を抽出する対象物抽出手段と、
前記車両の運転者に対して注意喚起を行う注意喚起手段と、
前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力する注意喚起制御手段と
を備えることを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device for monitoring an object existing around a vehicle from an image obtained by an imaging means mounted on the vehicle,
Road area identification means for identifying the road area in the image;
Object extraction means for extracting an object from the image;
Alerting means for alerting the driver of the vehicle;
When the object is extracted in the road area identified by the road area identification means by the object extraction means, a first alert is output by the alert means, and the object is output from the road A vehicle periphery monitoring device, comprising: an alert control means for outputting a second alert different from the first alert by the alert means when extracted outside the area.
前記撮像手段は、前記車両前方を撮像し、
前記注意喚起制御手段は、前記車両と前記画像の車道領域内で抽出された対象物との実空間における前方の車道領域の方向に沿った距離である対象物距離を算出し、該対象物距離が予め設定された判定距離以下であるときに、注意喚起手段による前記第1の注意喚起を行うことを特徴とする請求項1記載の車両周辺監視装置。
The imaging means images the front of the vehicle,
The alerting control means calculates an object distance, which is a distance along the direction of the forward road area in the real space between the vehicle and the object extracted in the road area of the image, and the object distance 2. The vehicle periphery monitoring device according to claim 1, wherein the first alerting by the alerting means is performed when is equal to or less than a predetermined determination distance.
前記撮像手段によって異なるタイミングで取得された複数の画像から抽出された同一対象物の位置の変化から、該対象物の移動ベクトルを算出する移動ベクトル算出手段を備え、
前記注意喚起制御手段は、前記対象物抽出手段によって前記車道領域内から抽出された対象物が、該対象物の移動ベクトルから、所定時間内に車道領域外に到達すると推定されるときと、到達しないと推定されるときとで前記第1の注意喚起の内容を変えることを特徴とする請求項1又は2記載の車両周辺監視装置。
Movement vector calculation means for calculating a movement vector of the object from a change in position of the same object extracted from a plurality of images acquired at different timings by the imaging means;
The alerting control unit is configured to reach when the object extracted from the road area by the object extraction unit is estimated to reach the outside of the road area within a predetermined time from the movement vector of the object. The vehicle periphery monitoring device according to claim 1 or 2, wherein the content of the first alert is changed depending on when it is estimated not to be performed.
前記撮像手段によって異なるタイミングで取得された複数の画像から抽出された同一対象物の位置の変化から、該対象物の移動ベクトルを算出する移動ベクトル算出手段を備え、
前記注意喚起制御手段は、前記対象物抽出手段によって前記車道領域外から抽出された対象物が、該対象物の移動ベクトルから、所定時間内に車道領域内に到達すると推定されるときと、到達しないと推定されるときとで前記第2の注意喚起の内容を変えることを特徴とする請求項1又は2記載の車両周辺監視装置。
Movement vector calculation means for calculating a movement vector of the object from a change in position of the same object extracted from a plurality of images acquired at different timings by the imaging means;
The alerting control unit is configured to reach when the object extracted from outside the road area by the object extraction unit is estimated to reach the road area within a predetermined time from the movement vector of the object. The vehicle periphery monitoring device according to claim 1 or 2, wherein the content of the second alerting is changed depending on when it is estimated that it will not be performed.
車両に搭載された撮像手段によって得られる画像から、車両の周辺に存在する物体を監視する車両周辺監視装置であって、
前記画像における車道領域を識別する車道領域識別手段と、
前記画像から対象物を抽出する対象物抽出手段と、
前記車両の運転者に対して注意喚起を行う注意喚起手段と、
前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、所定の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、注意喚起を出力しない注意喚起制御手段と
を備えることを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device for monitoring an object existing around a vehicle from an image obtained by an imaging means mounted on the vehicle,
Road area identification means for identifying the road area in the image;
Object extraction means for extracting an object from the image;
Alerting means for alerting the driver of the vehicle;
When the object is extracted in the road area identified by the road area identification means by the object extraction means, a predetermined alert is output by the attention calling means, and the object is output from the road area. A vehicle periphery monitoring device, comprising: a reminder control unit that does not output a reminder when extracted outside.
前記撮像手段は、前記車両前方を撮像し、
前記注意喚起制御手段は、前記車両と前記画像の車道領域内で抽出された対象物との実空間における前方の車道領域の方向に沿った距離である対象物距離を算出し、該対象物距離が予め設定された判定距離以下であるときに、注意喚起手段による注意喚起を行うことを特徴とする請求項5記載の車両周辺監視装置。
The imaging means images the front of the vehicle,
The alerting control means calculates an object distance, which is a distance along the direction of the forward road area in the real space between the vehicle and the object extracted in the road area of the image, and the object distance 6. The vehicle periphery monitoring device according to claim 5, wherein alerting is performed by alerting means when is equal to or less than a preset determination distance.
前記撮像手段として、可視画像を取得する可視画像撮像手段と、赤外画像を取得する赤外画像撮像手段とを備え、
前記車道領域識別手段は、前記可視画像撮像手段によって取得された可視画像から車道のレーンマークが検出可能な場合には、該レーンマークにより車道領域を識別し、該レーンマークが検出不可能な場合には、前記赤外画像撮像手段によって取得された赤外画像のエッジ部を抽出するエッジ抽出処理を行い、該エッジ抽出処理によって抽出されたエッジ部により車道領域を識別することを特徴とする請求項1から請求項6のうちいずれか1項記載の車両周辺監視装置。
As the imaging means, a visible image imaging means for acquiring a visible image, and an infrared image imaging means for acquiring an infrared image,
The roadway area identifying unit identifies the roadway area by the lane mark when the lane mark of the roadway can be detected from the visible image acquired by the visible image capturing unit, and the lane mark cannot be detected. The method includes performing edge extraction processing for extracting an edge portion of an infrared image acquired by the infrared image capturing unit, and identifying a roadway region by the edge portion extracted by the edge extraction processing. The vehicle periphery monitoring device according to any one of claims 1 to 6.
前記注意喚起制御手段は、前記画像から抽出された対象物の下端部を検出し、該下端部が、前記車道領域抽出手段によって抽出された車道領域内に位置するときに、該対象物が該車道領域内で抽出されたと判定することを特徴とする請求項1から請求項7のうちいずれか1項記載の車両周辺監視装置。   The alerting control means detects a lower end portion of the object extracted from the image, and when the lower end portion is located in the road area extracted by the road area extraction means, the object is The vehicle periphery monitoring device according to any one of claims 1 to 7, wherein it is determined that the vehicle has been extracted in a roadway region. 前記画像に含まれる画像部分に対応する実空間上の位置を算出する位置算出手段を備え、
前記注意喚起制御手段は、前記画像から抽出された対象物の実空間上の位置が、前記車道領域抽出手段によって抽出された車道領域の実空間上の領域内にあるときに、該対象物が該車道領域内で抽出されたと判定することを特徴とする請求項1から請求項7のうちいずれか1項記載の車両周辺監視装置。
A position calculating means for calculating a position in real space corresponding to an image portion included in the image;
When the position of the object extracted from the image in the real space is within the area of the roadway area extracted by the roadway area extraction means, the alerting control means The vehicle periphery monitoring device according to any one of claims 1 to 7, wherein it is determined that the vehicle has been extracted within the roadway region.
請求項1から請求項9のうちいずれか1項記載の車両周辺監視装置が搭載されたことを特徴とする車両。   A vehicle comprising the vehicle periphery monitoring device according to any one of claims 1 to 9. 車両に搭載された撮像手段によって得られる画像のデータにアクセスする手段と、該車両の運転者に対して注意喚起を行う注意喚起手段の作動を制御する手段とを有する車載コンピュータに、車両の周辺に存在する物体を監視する機能を実現させるためのプログラムであって、該コンピュータを、
前記画像における車道領域を識別する車道領域識別手段と、
前記画像から対象物を抽出する対象物抽出手段と、
前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力する注意喚起制御手段と
して機能させることを特徴とする車両周辺監視用プログラム。
An on-vehicle computer having means for accessing image data obtained by imaging means mounted on a vehicle and means for controlling the operation of alert means for alerting the driver of the vehicle A program for realizing a function of monitoring an object existing in the computer,
Road area identification means for identifying the road area in the image;
Object extraction means for extracting an object from the image;
When the object is extracted in the road area identified by the road area identification means by the object extraction means, a first alert is output by the alert means, and the object is output from the road A vehicle periphery monitoring program that causes a second alert that is different from the first alert to be output by the alert means when it is extracted outside the area, as an alert control means.
車両に搭載された撮像手段によって得られる画像のデータにアクセスする手段と、該車両の運転者に対して注意喚起を行う注意喚起手段の作動を制御する手段とを有する車載コンピュータにより、車両の周辺に存在する物体を監視する車両周辺監視方法であって、
前記コンピュータが、前記画像における車道領域を識別する車道領域識別ステップと、
前記コンピュータが、前記画像から対象物を抽出する対象物抽出ステップと、
前記コンピュータが、前記対象物抽出手段によって、前記車道領域識別手段により識別された車道領域内で対象物が抽出された場合には、第1の注意喚起を前記注意喚起手段により出力し、該対象物が該車道領域外で抽出された場合には、該第1の注意喚起と異なる第2の注意喚起を該注意喚起手段により出力する注意喚起制御ステップと
を有することを特徴とする車両周辺監視方法。
An in-vehicle computer having means for accessing data of an image obtained by an image pickup means mounted on a vehicle and means for controlling the operation of the alerting means for alerting the driver of the vehicle. A vehicle periphery monitoring method for monitoring an object existing in a vehicle,
A road area identifying step for identifying a road area in the image by the computer;
An object extraction step in which the computer extracts an object from the image;
When the object is extracted in the road area identified by the road area identification means by the object extraction means, the computer outputs a first warning by the attention calling means, A vehicle surrounding monitoring, comprising: an alerting control step for outputting, by the alerting means, a second alert that is different from the first alert when an object is extracted outside the road area. Method.
JP2006156122A 2006-06-05 2006-06-05 Vehicle periphery monitoring device Expired - Fee Related JP4528283B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006156122A JP4528283B2 (en) 2006-06-05 2006-06-05 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006156122A JP4528283B2 (en) 2006-06-05 2006-06-05 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2007323578A true JP2007323578A (en) 2007-12-13
JP4528283B2 JP4528283B2 (en) 2010-08-18

Family

ID=38856309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006156122A Expired - Fee Related JP4528283B2 (en) 2006-06-05 2006-06-05 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4528283B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009143413A (en) * 2007-12-14 2009-07-02 Toyota Motor Corp Driving supporting device
JP2009301283A (en) * 2008-06-12 2009-12-24 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2010257217A (en) * 2009-04-24 2010-11-11 Honda Motor Co Ltd Vehicle circumference monitoring device
JP2011191859A (en) * 2010-03-12 2011-09-29 Honda Motor Co Ltd Apparatus for monitoring surroundings of vehicle
JP2012058999A (en) * 2010-09-08 2012-03-22 Honda Motor Co Ltd Vehicle periphery monitoring device
WO2013042767A1 (en) * 2011-09-21 2013-03-28 本田技研工業株式会社 Apparatus for monitoring surroundings of vehicle
JP2013088894A (en) * 2011-10-14 2013-05-13 Honda Motor Co Ltd Drive support device of vehicle
JP2015197828A (en) * 2014-04-01 2015-11-09 本田技研工業株式会社 Lane marker recognition device
JP2019028951A (en) * 2017-08-03 2019-02-21 トヨタ自動車株式会社 Vehicle controller
JP2019194909A (en) * 2019-07-10 2019-11-07 株式会社東芝 Detection device, detection method and detection program
CN113401055A (en) * 2020-02-28 2021-09-17 本田技研工业株式会社 Attention reminding device and attention reminding method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002362302A (en) * 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detecting device
JP2006126000A (en) * 2004-10-28 2006-05-18 Nissan Motor Co Ltd Object detection device and object detection method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002362302A (en) * 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detecting device
JP2006126000A (en) * 2004-10-28 2006-05-18 Nissan Motor Co Ltd Object detection device and object detection method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009143413A (en) * 2007-12-14 2009-07-02 Toyota Motor Corp Driving supporting device
JP2009301283A (en) * 2008-06-12 2009-12-24 Honda Motor Co Ltd Vehicle periphery monitoring device
US8189868B2 (en) 2008-06-12 2012-05-29 Honda Motor Co., Ltd. Vehicle periphery monitoring device
JP2010257217A (en) * 2009-04-24 2010-11-11 Honda Motor Co Ltd Vehicle circumference monitoring device
JP2011191859A (en) * 2010-03-12 2011-09-29 Honda Motor Co Ltd Apparatus for monitoring surroundings of vehicle
JP2012058999A (en) * 2010-09-08 2012-03-22 Honda Motor Co Ltd Vehicle periphery monitoring device
JP5616531B2 (en) * 2011-09-21 2014-10-29 本田技研工業株式会社 Vehicle periphery monitoring device
WO2013042767A1 (en) * 2011-09-21 2013-03-28 本田技研工業株式会社 Apparatus for monitoring surroundings of vehicle
JPWO2013042767A1 (en) * 2011-09-21 2015-03-26 本田技研工業株式会社 Vehicle periphery monitoring device
JP2013088894A (en) * 2011-10-14 2013-05-13 Honda Motor Co Ltd Drive support device of vehicle
JP2015197828A (en) * 2014-04-01 2015-11-09 本田技研工業株式会社 Lane marker recognition device
JP2019028951A (en) * 2017-08-03 2019-02-21 トヨタ自動車株式会社 Vehicle controller
CN109383496A (en) * 2017-08-03 2019-02-26 丰田自动车株式会社 The control device of vehicle and the control method of vehicle
US10759421B2 (en) 2017-08-03 2020-09-01 Toyota Jidosha Kabushiki Kaisha Control device for vehicle and control method for vehicle
US10960878B2 (en) 2017-08-03 2021-03-30 Toyota Jidosha Kabushiki Kaisha Control device for vehicle and control method for vehicle
CN109383496B (en) * 2017-08-03 2022-05-17 丰田自动车株式会社 Vehicle control device and vehicle control method
JP2019194909A (en) * 2019-07-10 2019-11-07 株式会社東芝 Detection device, detection method and detection program
CN113401055A (en) * 2020-02-28 2021-09-17 本田技研工业株式会社 Attention reminding device and attention reminding method
CN113401055B (en) * 2020-02-28 2024-06-11 本田技研工业株式会社 Attention reminding device and attention reminding method

Also Published As

Publication number Publication date
JP4528283B2 (en) 2010-08-18

Similar Documents

Publication Publication Date Title
JP4528283B2 (en) Vehicle periphery monitoring device
JP4456086B2 (en) Vehicle periphery monitoring device
JP4173901B2 (en) Vehicle periphery monitoring device
JP4410292B1 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP5706874B2 (en) Vehicle periphery monitoring device
JP5577398B2 (en) Vehicle periphery monitoring device
US8766816B2 (en) System for monitoring the area around a vehicle
JP4171501B2 (en) Vehicle periphery monitoring device
WO2012004938A1 (en) Device for monitoring vicinity of vehicle
JP2006338594A (en) Pedestrian recognition system
JP4644273B2 (en) Vehicle periphery monitoring device
JP4813304B2 (en) Vehicle periphery monitoring device
JP2011103058A (en) Erroneous recognition prevention device
JP5192007B2 (en) Vehicle periphery monitoring device
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4823753B2 (en) Vehicle periphery monitoring device
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP4567072B2 (en) Vehicle periphery monitoring device
JP5430633B2 (en) Vehicle periphery monitoring device
JP5383246B2 (en) Vehicle periphery monitoring device
JP2007336091A (en) Object detecting device, vehicle, object detecting method, and program for object detection

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4528283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140611

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees