JP2008027309A - Collision determination system and collision determination method - Google Patents

Collision determination system and collision determination method Download PDF

Info

Publication number
JP2008027309A
JP2008027309A JP2006201093A JP2006201093A JP2008027309A JP 2008027309 A JP2008027309 A JP 2008027309A JP 2006201093 A JP2006201093 A JP 2006201093A JP 2006201093 A JP2006201093 A JP 2006201093A JP 2008027309 A JP2008027309 A JP 2008027309A
Authority
JP
Japan
Prior art keywords
vehicle
collision
obstacle
possibility
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006201093A
Other languages
Japanese (ja)
Inventor
Masanobu Nishimura
政信 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2006201093A priority Critical patent/JP2008027309A/en
Publication of JP2008027309A publication Critical patent/JP2008027309A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a collision determination system and a collision determination method for hardly receiving the influence of the calculation error of the detection position of an obstacle, and for precisely determining collision with the obstacle whose separation from a risk level based on the point of view of a driver is small. <P>SOLUTION: Image data imaged by a plurality of imaging apparatuses which image the periphery of a vehicle are acquired, and the presence of the obstacle in an image is detected, and the relative position data of the obstacle to the vehicle are time sequentially detected, so that the possibility of collision can be determined. The peripheral region of the vehicle is divided into a plurality of regions on the basis of the relative position to the vehicle, and a parameter showing the scale of the possibility of collision is stored in each of the divided regions. The corresponding region is extracted on the basis of the detected relative position data, and the parameter corresponding to the extracted region is read, so that the possibility of collision is determined. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、車両の外部を撮像する複数の撮像装置が撮像した画像データに基づいて、検出された障害物の車両との相対位置に応じて、該障害物との衝突可能性を判定することができる衝突判定システム、及び衝突判定方法に関する。   The present invention determines the possibility of a collision with an obstacle based on image data captured by a plurality of imaging devices that capture the outside of the vehicle according to the relative position of the detected obstacle with the vehicle. The present invention relates to a collision determination system and a collision determination method.

自動車等の車両に周囲を撮像する撮像装置を搭載し、例えば車両前方の歩行者、自転車等の障害物の存在を認識し、障害物の動きを検出することにより自車両との衝突の可能性を判定する衝突判定システムが開発されている。   An imaging device that captures the surroundings is mounted on a vehicle such as an automobile, and the possibility of a collision with the host vehicle is detected by recognizing the presence of an obstacle such as a pedestrian or bicycle in front of the vehicle and detecting the movement of the obstacle. A collision determination system for determining the above has been developed.

例えば撮像装置で撮像した画像から、所定の基準パターンとパターンマッチングすることにより障害物、例えば人間が存在すると考えられる領域を抽出し、ステレオ視により該領域までの距離及び車両に対する相対移動ベクトルを算出することにより、障害物との衝突の可能性を判定している(非特許文献1参照)。   For example, from an image captured by an imaging device, an area where an obstacle, for example, a human being is present, is extracted by pattern matching with a predetermined reference pattern, and the distance to the area and a relative movement vector with respect to the vehicle are calculated by stereo vision By doing so, the possibility of collision with an obstacle is determined (see Non-Patent Document 1).

そして、衝突する可能性の算出精度を高めるため、例えば特許文献1では、撮像手段により取得した画像データに含まれる障害物との実際の相対位置を時系列的に算出し、算出した実際の相対位置を直線近似することにより、障害物の自車両との相対的な移動ベクトルを算出し、自車両と衝突する可能性の高低を判定していた。
特開2001−006096号公報 「ホンダ アールアンドディー テクニカル レビュー (Honda R&D Technical Review)」Vol.13 No.1、2001年4月
And in order to improve the calculation accuracy of the possibility of collision, for example, in Patent Document 1, the actual relative position with the obstacle included in the image data acquired by the imaging means is calculated in time series, and the calculated actual relative By approximating the position linearly, a relative movement vector of the obstacle with the host vehicle is calculated, and the possibility of collision with the host vehicle is determined.
JP 2001-006096 A "Honda R & D Technical Review" Vol.13 No.1, April 2001

上述した従来の衝突判定システムにおける移動ベクトルは、距離測定の誤差の影響を受けやすい。また、視差を算出することにより距離を測定した障害物の位置を、三次元座標に変換する場合にも、算出誤差が含まれる。したがって、自車両の進路に歩行者等の障害物の存在を検出した場合、その移動ベクトルの信頼性を高めることは困難であり、衝突判定精度を高めることが困難であるという問題点があった。   The movement vector in the above-described conventional collision determination system is easily affected by an error in distance measurement. A calculation error is also included when the position of an obstacle whose distance has been measured by calculating parallax is converted into three-dimensional coordinates. Therefore, when the presence of an obstacle such as a pedestrian is detected in the course of the host vehicle, it is difficult to increase the reliability of the movement vector, and it is difficult to increase the collision determination accuracy. .

また、歩行者等の障害物の過去の移動軌跡に基づいて移動ベクトルを算出することから、突然の飛び出し等の突発的な動きを予測することはできない。したがって、数フレームといった短時間での移動を検出することは困難であり、衝突判定の信頼度は低い。   In addition, since the movement vector is calculated based on the past movement trajectory of an obstacle such as a pedestrian, sudden movement such as sudden jump-out cannot be predicted. Therefore, it is difficult to detect movement in a short time such as several frames, and the reliability of collision determination is low.

さらに、移動ベクトルに基づいて衝突の可能性を判定した結果は、車両の運転者の視点に基づく感覚的な危険度判定結果とは相違しており、実際に運転者が感じる危険度との乖離が大きいという問題点も残されている。   Furthermore, the result of determining the possibility of a collision based on the movement vector is different from the sensory risk determination result based on the viewpoint of the driver of the vehicle. The problem that is large is also left behind.

本発明は、斯かる事情に鑑みてなされたものであり、障害物の検出位置の算出誤差の影響を受けにくく、運転者の視点に基づく危険度との乖離の少ない障害物との衝突判定を精度良く行うことができる衝突判定システム、及び衝突判定方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and is not easily affected by the calculation error of the detected position of the obstacle, and makes a collision determination with the obstacle with little deviation from the risk based on the driver's viewpoint. It is an object of the present invention to provide a collision determination system and a collision determination method that can be performed with high accuracy.

上記目的を達成するために第1発明に係る衝突判定システムは、車両の周辺を撮像する複数の撮像装置、該複数の撮像装置で撮像した画像データを取得して画像中の障害物の存在を検出する障害物検出手段、及び該障害物検出手段で障害物を検出した場合、前記複数の撮像装置により取得した画像データから前記障害物の当該車両に対する相対位置データを時系列的に検出する相対位置検出手段を有し、検出した障害物との衝突の可能性を判定する衝突判定システムにおいて、車両に対する相対位置に基づいて、車両の周辺領域を複数の領域に分割しておき、分割された領域ごとに衝突の可能性の大小を示すパラメータを記憶する手段と、検出された相対位置データに基づいて対応する領域を抽出する手段と、抽出された領域に対応するパラメータを読み出す手段とを備え、読み出されたパラメータに基づいて衝突の可能性を判定するようにしてあることを特徴とする。   In order to achieve the above object, a collision determination system according to a first aspect of the present invention provides a plurality of imaging devices that capture the periphery of a vehicle, acquires image data captured by the plurality of imaging devices, and detects the presence of an obstacle in the image. Obstacle detection means to detect, and when detecting an obstacle by the obstacle detection means, a relative position data for detecting relative position data of the obstacle with respect to the vehicle in time series from image data acquired by the plurality of imaging devices In a collision determination system that includes a position detection unit and determines the possibility of a collision with a detected obstacle, a vehicle peripheral region is divided into a plurality of regions based on a relative position with respect to the vehicle. Means for storing a parameter indicating the possibility of collision for each area; means for extracting a corresponding area based on the detected relative position data; and a parameter corresponding to the extracted area. And means for reading over data, characterized in that based on the read parameters are to be determined the possibility of a collision.

また、第2発明に係る衝突判定システムは、第1発明において、車両の速度を検出する手段と、検出された車両の速度に応じて、分割された領域の形状を変形させる手段とを備えることを特徴とする。   According to a second aspect of the present invention, the collision determination system according to the first aspect includes a means for detecting the speed of the vehicle and a means for deforming the shape of the divided area according to the detected speed of the vehicle. It is characterized by.

また、第3発明に係る衝突判定システムは、第1又は第2発明において、車両が旋回しているか否かを判断する手段と、該手段で旋回していると判断した場合、旋回方向及び旋回半径を算出する手段と、算出された旋回方向及び旋回半径に応じて、分割された領域の形状を変形させる手段とを備えることを特徴とする。   Further, the collision determination system according to the third aspect of the present invention is the first or second aspect of the invention, wherein the means for judging whether or not the vehicle is turning, and if it is judged that the means is turning, the turning direction and turning It is characterized by comprising means for calculating a radius and means for deforming the shape of the divided area in accordance with the calculated turning direction and turning radius.

また、第4発明に係る衝突判定システムは、第1乃至第3発明のいずれか1つにおいて、抽出された領域に対応するパラメータを時系列的に読み出すようにしてあり、読み出されたパラメータを時系列的に記憶する手段と、パラメータの時系列的変化に応じて、衝突の可能性を示す指標値を算出する手段とを備え、算出された指標値に基づいて、衝突の可能性を判定するようにしてあることを特徴とする。   According to a fourth aspect of the present invention, there is provided the collision determination system according to any one of the first to third aspects, wherein the parameters corresponding to the extracted area are read out in time series. A means for storing in a time series and a means for calculating an index value indicating the possibility of a collision according to a time-series change of a parameter are determined, and the possibility of a collision is determined based on the calculated index value. It is made to do so.

また、第5発明に係る衝突判定方法は、車両の周辺を撮像する複数の撮像装置で撮像した画像データを取得して画像中の障害物の存在を検出し、障害物が検出された場合、前記複数の撮像装置により取得した画像データから前記障害物の当該車両に対する相対位置データを時系列的に検出し、衝突の可能性を判定する衝突判定方法において、車両に対する相対位置に基づいて、車両の周辺領域を複数の領域に分割しておき、分割された領域ごとに衝突の可能性の大小を示すパラメータを記憶し、検出された相対位置データに基づいて対応する領域を抽出し、抽出された領域に対応するパラメータを読み出し、読み出されたパラメータに基づいて衝突の可能性を判定することを特徴とする。   Moreover, the collision determination method according to the fifth aspect of the present invention acquires image data captured by a plurality of imaging devices that capture the periphery of the vehicle, detects the presence of an obstacle in the image, and detects an obstacle. In the collision determination method for detecting the relative position data of the obstacle with respect to the vehicle in time series from the image data acquired by the plurality of imaging devices and determining the possibility of the collision, the vehicle is based on the relative position with respect to the vehicle. The surrounding area is divided into a plurality of areas, parameters indicating the possibility of collision are stored for each divided area, and the corresponding area is extracted and extracted based on the detected relative position data. It is characterized in that a parameter corresponding to the selected area is read out and the possibility of collision is determined based on the read out parameter.

第1発明、及び第5発明では、車両の周辺を撮像する複数の撮像装置で撮像した画像データを取得して画像中の障害物の存在を検出する。障害物が検出された場合、複数の撮像装置により取得した画像データから障害物の当該車両に対する相対位置データを時系列的に検出し、衝突の可能性を判定する。車両に対する相対位置に基づいて、車両の周辺領域を複数の領域に分割しておき、分割された領域ごとに衝突の可能性の大小を示すパラメータを記憶しておく。検出された相対位置データに基づいて対応する領域を抽出し、抽出された領域に対応するパラメータを読み出し、読み出されたパラメータに基づいて衝突の可能性を判定する。障害物が実際に存在する位置に該当する領域に応じて衝突の可能性、すなわち危険度を判定することができ、距離測定に誤差が存在する場合であっても危険度判定の結果は影響を受けにくい。また、歩行者等の障害物の突然の飛び出し等の突発的な動きがあった場合であっても、所定の領域に存在するか否かに応じて危険度を判定することができ、衝突判定の信頼度を高く維持することが可能となる。さらに、分割された領域ごとに衝突の可能性の大小を示すパラメータを、運転者の視点に基づく感覚的な危険度に合致させて記憶しておくことにより、実際に運転者が感じる危険度との乖離を最小限に止めることができ、運転者の感覚に合致した衝突判定を行なうことが可能となる。   In the first invention and the fifth invention, image data captured by a plurality of imaging devices that capture the periphery of the vehicle is acquired to detect the presence of an obstacle in the image. When an obstacle is detected, relative position data of the obstacle with respect to the vehicle is detected in time series from image data acquired by a plurality of imaging devices, and the possibility of a collision is determined. Based on the relative position with respect to the vehicle, the peripheral region of the vehicle is divided into a plurality of regions, and a parameter indicating the possibility of a collision is stored for each of the divided regions. A corresponding region is extracted based on the detected relative position data, a parameter corresponding to the extracted region is read, and the possibility of collision is determined based on the read parameter. The possibility of collision, that is, the degree of danger, can be determined according to the area corresponding to the position where the obstacle actually exists, and even if there is an error in the distance measurement, the result of the danger degree judgment has an effect. It is hard to receive. In addition, even if there is a sudden movement such as a sudden jump of an obstacle such as a pedestrian, the degree of danger can be determined according to whether or not it exists in a predetermined area. It is possible to maintain a high reliability. Furthermore, by storing a parameter indicating the possibility of collision for each divided area in accordance with the sensory risk level based on the driver's viewpoint, the risk level actually felt by the driver Can be kept to a minimum, and a collision determination that matches the driver's feeling can be performed.

第2発明では、車両の速度を検出し、検出された車両の速度に応じて、分割された領域の形状を変形させる。このようにすることで、車両の走行速度に応じて障害物との衝突の危険度判定を動的に変更することができ、車両の速度が低速である場合には衝突の可能性が少ない位置にて検出した障害物であっても、車両の速度が増加した場合には衝突の可能性が高いと判定することが可能となる。   In the second invention, the speed of the vehicle is detected, and the shape of the divided area is deformed according to the detected speed of the vehicle. By doing in this way, the risk determination of collision with an obstacle can be dynamically changed according to the traveling speed of the vehicle, and the position where the possibility of collision is low when the vehicle speed is low Even if the obstacle is detected at, it is possible to determine that the possibility of a collision is high when the speed of the vehicle increases.

第3発明では、車両が旋回しているか否かを判断し、旋回していると判断した場合、旋回方向及び旋回半径を算出して、分割された領域の形状を変形させる。このようにすることで、車両が旋回しているか否かに応じて障害物との衝突の危険度判定を動的に変更することができ、例えば車両が直進している場合には衝突の可能性が少ない位置にて検出した障害物であっても、車両が旋回した場合には衝突の可能性が高いと判定することが可能となる。また、第2発明と併用することにより、車両の走行状態に応じてより正確な衝突判定を行なうことが可能となる。   In the third invention, it is determined whether or not the vehicle is turning. If it is determined that the vehicle is turning, the turning direction and the turning radius are calculated, and the shape of the divided area is deformed. In this way, it is possible to dynamically change the risk determination of a collision with an obstacle depending on whether or not the vehicle is turning. For example, when the vehicle is traveling straight, a collision is possible. Even if the obstacle is detected at a position with a low probability, it is possible to determine that the possibility of a collision is high when the vehicle turns. Further, by using it together with the second invention, it becomes possible to perform a more accurate collision determination according to the traveling state of the vehicle.

第4発明では、読み出されたパラメータを時系列的に記憶しておき、パラメータの時系列的変化に応じて、衝突の可能性を示す指標値を算出する。算出された指標値に基づいて、衝突の可能性を判定する。このようにすることで、障害物までの距離の推定誤差、車両の走行状態等による誤った衝突可能性判定を未然に防止することができ、障害物の動きに応じて適切な危険度判定を行なうことが可能となる。   In the fourth invention, the read parameters are stored in time series, and an index value indicating the possibility of collision is calculated according to the time series changes of the parameters. The possibility of a collision is determined based on the calculated index value. By doing in this way, it is possible to prevent an erroneous collision possibility determination due to an estimation error of the distance to the obstacle, the traveling state of the vehicle, etc., and an appropriate risk determination according to the movement of the obstacle. Can be performed.

本発明によれば、障害物が実際に存在する位置に該当する領域に応じて衝突の可能性、すなわち危険度を判定することができ、距離測定に誤差が存在する場合であっても危険度判定の結果は影響を受けにくい。また、歩行者等の障害物の突然の飛び出し等の突発的な動きがあった場合であっても、所定の領域に存在するか否かに応じて危険度を判定することができ、衝突判定の信頼度を高く維持することが可能となる。さらに、分割された領域ごとに衝突の可能性の大小を示すパラメータを、運転者の視点に基づく感覚的な危険度に合致させて記憶しておくことにより、実際に運転者が感じる危険度との乖離を最小限に止めることができ、運転者の感覚に合致した衝突判定を行なうことが可能となる。   According to the present invention, the possibility of collision, that is, the degree of danger can be determined according to the area corresponding to the position where the obstacle is actually present, and the degree of danger even if there is an error in distance measurement. The result of the judgment is not easily affected. In addition, even if there is a sudden movement such as a sudden jump of an obstacle such as a pedestrian, the degree of danger can be determined according to whether or not it exists in a predetermined area. It is possible to maintain a high reliability. Furthermore, by storing a parameter indicating the possibility of collision for each divided area in accordance with the sensory risk level based on the driver's viewpoint, the risk level actually felt by the driver Can be kept to a minimum, and a collision determination that matches the driver's feeling can be performed.

以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、以下の実施の形態では、走行中に遠赤外線撮像装置で撮像された画像に基づいて車両の前方に存在する障害物までの距離を算出する場合を例として説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiments, an example will be described in which the distance to an obstacle existing in front of a vehicle is calculated based on an image captured by a far-infrared imaging device during traveling.

(実施の形態1)
図1は、本発明の実施の形態1に係る衝突判定システムの構成を示す模式図である。本実施の形態1では、走行中に周辺の画像を撮像する遠赤外線撮像装置1、1を、車両前方の中央近傍のフロントグリル内に並置している。なお、遠赤外線撮像装置1、1は、波長が7〜14マイクロメートルの赤外光を用いた撮像装置である。遠赤外線撮像装置1、1で撮像された画像データは、NTSC等のアナログ映像方式、又はデジタル映像方式に対応した映像ケーブル7を介して接続してある判定装置3へ送信される。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration of a collision determination system according to Embodiment 1 of the present invention. In the first embodiment, far-infrared imaging devices 1 and 1 that capture surrounding images while traveling are juxtaposed in a front grill near the center in front of the vehicle. The far-infrared imaging devices 1 and 1 are imaging devices using infrared light having a wavelength of 7 to 14 micrometers. Image data captured by the far-infrared imaging devices 1 and 1 is transmitted to a determination device 3 connected via a video cable 7 compatible with an analog video system such as NTSC or a digital video system.

判定装置3は、遠赤外線撮像装置1、1の他、操作部を備えた表示装置4とは、NTSC、VGA、DVI等の映像方式に対応したケーブル8を介して接続されており、音声、効果音等により聴覚的な警告を発する警報装置5等の出力装置とは、CANに準拠した車載LANケーブル6を介して接続されている。   The determination device 3 is connected to the far infrared imaging devices 1 and 1 and the display device 4 having an operation unit via a cable 8 corresponding to a video system such as NTSC, VGA, DVI, etc. An output device such as an alarm device 5 that emits an audible warning by a sound effect or the like is connected via an in-vehicle LAN cable 6 compliant with CAN.

図2は、本発明の実施の形態1に係る衝突判定システムの遠赤外線撮像装置1の構成を示すブロック図である。画像撮像部11は、光学信号を電気信号に変換する撮像素子をマトリックス状に備えている。赤外光用の撮像素子としては、マイクロマシニング(micromachining)技術を用いた酸化バナジウムのボロメータ型、BST(Barium−Strontium−Titanium)の焦電型等の赤外線センサを用いている。画像撮像部11は、車両の周囲の赤外光像を輝度信号として読み取り、読み取った輝度信号を信号処理部12へ送信する。   FIG. 2 is a block diagram showing the configuration of the far-infrared imaging device 1 of the collision determination system according to Embodiment 1 of the present invention. The image pickup unit 11 includes image pickup elements that convert optical signals into electric signals in a matrix. As an imaging device for infrared light, an infrared sensor such as a vanadium oxide bolometer type using a micromachining technique or a BST (Barium-Strontium-Titanium) pyroelectric type sensor is used. The image capturing unit 11 reads an infrared light image around the vehicle as a luminance signal, and transmits the read luminance signal to the signal processing unit 12.

信号処理部12は、LSIであり、画像撮像部11から受信した輝度信号をデジタル信号に変換し、撮像素子のばらつきを補正する処理、欠陥素子の補正処理、ゲイン制御処理等を行い、画像データとして画像メモリ13へ記憶する。なお、画像データを画像メモリ13へ一時記憶することは必須ではなく、映像出力部14を介して直接判定装置3へ送信しても良いことは言うまでもない。   The signal processing unit 12 is an LSI, converts the luminance signal received from the image capturing unit 11 into a digital signal, performs processing for correcting variations in the image sensor, correction processing for defective elements, gain control processing, and the like, and performs image data processing. Is stored in the image memory 13. Needless to say, it is not essential to temporarily store the image data in the image memory 13, and the image data may be transmitted directly to the determination device 3 via the video output unit 14.

映像出力部14は、LSIであり、NTSC等のアナログ映像方式、又はデジタル映像方式に対応した映像ケーブル7を介して判定装置3に映像データを出力する。   The video output unit 14 is an LSI, and outputs video data to the determination device 3 via a video cable 7 compatible with an analog video system such as NTSC or a digital video system.

図3は、本発明の実施の形態1に係る障害物位置算出システムの判定装置3の構成を示すブロック図である。映像入力部31aは、遠赤外線撮像装置1、1から映像信号の入力を行う。映像入力部31aは、遠赤外線撮像装置1、1から入力された画像データを、1フレーム単位に同期させて画像メモリ32に記憶する。また、映像出力部31bは、ケーブル8を介して液晶ディスプレイ等の表示装置4に対して画像データを出力し、通信インタフェース部31cは車載LANケーブル6を介してブザー、スピーカ等の警報装置5に対して合成音等の出力信号を送信する。   FIG. 3 is a block diagram showing a configuration of the determination device 3 of the obstacle position calculation system according to Embodiment 1 of the present invention. The video input unit 31 a inputs video signals from the far infrared imaging devices 1 and 1. The video input unit 31a stores the image data input from the far-infrared imaging devices 1 and 1 in the image memory 32 in synchronization with each frame. The video output unit 31 b outputs image data to the display device 4 such as a liquid crystal display via the cable 8, and the communication interface unit 31 c is connected to the alarm device 5 such as a buzzer and a speaker via the in-vehicle LAN cable 6. In contrast, an output signal such as a synthesized sound is transmitted.

画像メモリ32は、SRAM、フラッシュメモリ、SDRAM等であり、映像入力部31aを介して遠赤外線撮像装置1、1から入力された画像データを記憶する。RAM331は、演算処理の途上で生成したデータ及び推算した障害物の時系列的位置データを記憶する。また、RAM331は、車両の周辺の領域を複数の領域に区分けした領域情報を、衝突の危険度を示す危険度パラメータと対応付けて記憶してある。   The image memory 32 is an SRAM, flash memory, SDRAM or the like, and stores image data input from the far-infrared imaging devices 1 and 1 via the video input unit 31a. The RAM 331 stores data generated during the arithmetic processing and the estimated time-series position data of the obstacle. Further, the RAM 331 stores area information obtained by dividing an area around the vehicle into a plurality of areas in association with a risk parameter indicating the risk of collision.

画像処理を行うLSI33は、画像メモリ32に記憶された画像データをフレーム単位で読み出し、遠赤外線撮像装置1、1から取得した画像データに基づいて、視差を算出する対象となる対象領域を特定する。LSI33は、対象領域について、遠赤外線撮像装置1、1から取得した左右の画像データの視差を算出し、対象物までの距離及び方向を三角測量の原理に基づいて推算する。   The LSI 33 that performs image processing reads out the image data stored in the image memory 32 in units of frames, and specifies a target region for which parallax is calculated based on the image data acquired from the far-infrared imaging devices 1 and 1. . The LSI 33 calculates the parallax of the left and right image data acquired from the far-infrared imaging devices 1 and 1 for the target region, and estimates the distance and direction to the target based on the principle of triangulation.

LSI33は、推算された位置データに基づいて、車両の周辺の領域のうちどの領域に属するか否かを判断し、属する領域に対応付けてRAM331に記憶してある危険度パラメータを抽出する。抽出された危険度パラメータにより、外部へ送信する警告情報の内容を変更することにより、運転者へ適切な情報を通知することが可能となる。すなわち、危険度パラメータが所定値より大きい場合には危険が迫っていることを示す情報を、所定値以下である場合には単なる警告情報を、というように使い分けることができる。   Based on the estimated position data, the LSI 33 determines which of the surrounding areas of the vehicle it belongs to, and extracts the risk parameter stored in the RAM 331 in association with the belonging area. It is possible to notify the driver of appropriate information by changing the content of the warning information transmitted to the outside according to the extracted risk parameter. That is, information indicating that the danger is imminent when the risk parameter is larger than a predetermined value, and simple warning information when the risk parameter is less than the predetermined value, can be used properly.

LSI33での詳細な処理について以下に説明する。図4は、本発明の実施の形態1に係る衝突判定システムの判定装置3のLSI33の危険度抽出処理の手順を示すフローチャートである。   Detailed processing in the LSI 33 will be described below. FIG. 4 is a flowchart showing a procedure of risk extraction processing of the LSI 33 of the determination device 3 of the collision determination system according to the first embodiment of the present invention.

LSI33は、画像メモリ32に記憶してある画像データを読み出し(ステップS401)、読み出した画像データを所定の大きさの対象領域に分割する(ステップS402)。分割する対象領域の設定方法は特に限定されるものではない。例えばm×n(m、nは自然数)画素からなる方形領域として設定しても良い。本実施の形態1では、3×3画素からなる方形領域として対象領域を設定する。   The LSI 33 reads the image data stored in the image memory 32 (step S401), and divides the read image data into target areas of a predetermined size (step S402). The method for setting the target area to be divided is not particularly limited. For example, you may set as a square area | region which consists of m * n (m and n are natural numbers) pixels. In the first embodiment, the target area is set as a square area composed of 3 × 3 pixels.

LSI33は、設定された対象領域ごとに画像単位で相関値を算出する(ステップS403)。例えば左の遠赤外線撮像装置1で撮像された画像に基づいて設定された対象領域を基準として、右の遠赤外線撮像装置1で撮像された画像中の該対象領域と同一の形状、同一の大きさの領域群との間の相関値を算出する。なお、対象領域と同一の形状、同一の大きさの領域群とは、例えば視差=1、2、・・・、n(nは自然数)の場合の領域群を意味している。   The LSI 33 calculates a correlation value in units of images for each set target area (step S403). For example, with the target region set based on the image captured by the left far infrared imaging device 1 as a reference, the same shape and the same size as the target region in the image captured by the right far infrared imaging device 1 A correlation value with the region group is calculated. The region group having the same shape and the same size as the target region means a region group in the case of parallax = 1, 2,..., N (n is a natural number), for example.

LSI33が、対象領域ごとに画像単位で相関値Rを算出する場合、相関値Rは(数1)に基づいて算出される。   When the LSI 33 calculates the correlation value R for each target area in image units, the correlation value R is calculated based on (Equation 1).

Figure 2008027309
Figure 2008027309

(数1)において、Nはマッチング処理を行う領域の総画素数を、kは0≦k≦(N−1)の整数を、Fkは左の遠赤外線撮像装置1で撮像された画像に基づいて設定された対象領域内におけるk番目の画素の画素値を、Gkは右の遠赤外線撮像装置1で撮像された画像中の該対象領域と同一の形状、同一の大きさの領域群におけるk番目の画素の画素値を、それぞれ示している。   In (Expression 1), N is the total number of pixels in the region to be matched, k is an integer of 0 ≦ k ≦ (N−1), and Fk is based on an image captured by the left far-infrared imaging device 1. Gk is the pixel value of the kth pixel in the set target area, and Gk is k in the area group having the same shape and the same size as the target area in the image captured by the right far-infrared imaging device 1. The pixel values of the second pixel are shown.

LSI33は、算出した相関値が最大である視差を抽出する(ステップS404)。すなわち算出された相関値が最大である視差にて障害物が存在する可能性が高い。   The LSI 33 extracts the parallax having the maximum calculated correlation value (step S404). That is, there is a high possibility that an obstacle exists at the parallax with the maximum calculated correlation value.

LSI33は、抽出された相関値が最大である対象領域を障害物候補領域として特定する(ステップS405)。LSI33は、特定された障害物候補領域の代表点の実際の位置を推算する(ステップS406)。例えば障害物候補領域の重心を代表点とする。   The LSI 33 specifies the target area having the maximum extracted correlation value as an obstacle candidate area (step S405). The LSI 33 estimates the actual position of the representative point of the identified obstacle candidate area (step S406). For example, the center of gravity of the obstacle candidate area is set as the representative point.

具体的には、LSI33は、左右の遠赤外線撮像装置1、1で撮像された画像にて対応している障害物候補領域の視差に基づいて、車両前部中心点と検出された障害物との距離、及び障害物の方向を示す車両前部中心点からの角度を算出する。方向を示す角度は、車両の進行方向に対して左側を正の角度、右側を負の角度として算出する。   Specifically, the LSI 33 determines the vehicle front center point and the detected obstacle based on the parallax of the obstacle candidate area corresponding to the images captured by the left and right far-infrared imaging devices 1 and 1. And the angle from the vehicle front center point indicating the direction of the obstacle. The angle indicating the direction is calculated as a positive angle on the left side and a negative angle on the right side with respect to the traveling direction of the vehicle.

LSI33は、算出した障害物までの距離及び障害物が存在する方向に基づいて、障害物の車両前部からの相対位置を三次元座標値に換算する(ステップS407)。三次元座標値を算出する座標系は、車両前面中央を原点とし、前方をX軸正方向、右方向をY軸正方向、上方をZ軸正方向とする座標系である。   The LSI 33 converts the relative position of the obstacle from the front of the vehicle into a three-dimensional coordinate value based on the calculated distance to the obstacle and the direction in which the obstacle exists (step S407). The coordinate system for calculating the three-dimensional coordinate value is a coordinate system in which the center of the front surface of the vehicle is the origin, the forward direction is the X-axis positive direction, the right direction is the Y-axis positive direction, and the upper direction is the Z-axis positive direction.

LSI33は、換算された三次元座標値に基づいて、RAM331に記憶してある領域情報を照会し、衝突の危険度を示す危険度パラメータを抽出する(ステップS408)。図5は、RAM331に記憶してある領域情報の内容を模式的に示す図である。   The LSI 33 inquires of the area information stored in the RAM 331 based on the converted three-dimensional coordinate value, and extracts a risk parameter indicating the risk of collision (step S408). FIG. 5 is a diagram schematically showing the contents of the area information stored in the RAM 331.

図5に示すように、車両の前方領域を所定の領域にて複数の領域に分割している。図5の例では、前方の距離に応じてX軸方向に3分割している。すなわち、車両前端からX1(m)までの領域51、X1(m)以上X2(m)までの領域52、X2(m)以上の領域53の3領域に分割している。   As shown in FIG. 5, the front area of the vehicle is divided into a plurality of areas in a predetermined area. In the example of FIG. 5, it is divided into three in the X-axis direction according to the distance ahead. That is, it is divided into three regions: a region 51 from the front end of the vehicle to X1 (m), a region 52 from X1 (m) to X2 (m), and a region 53 from X2 (m).

車両前端からX1(m)までの領域51は、ステレオ視により距離を推算した場合であって、警告情報を通知した場合であっても回避することが困難である近い距離にある領域を示す。領域51では、状況はあまり変化せず、検出された障害物の確度も高い。   A region 51 from the front end of the vehicle to X1 (m) indicates a region at a close distance that is difficult to avoid even when the distance is estimated by stereo viewing and the warning information is notified. In the area 51, the situation does not change so much and the accuracy of the detected obstacle is high.

X1(m)以上X2(m)までの領域52は、適切な衝突判定を行うことができる領域を示す。領域52では、状況が変化するおそれが比較的少なく、検出された対象物が障害物であると確認することも比較的容易である。   A region 52 from X1 (m) to X2 (m) indicates a region where an appropriate collision determination can be performed. In the region 52, there is a relatively low possibility that the situation will change, and it is relatively easy to confirm that the detected object is an obstacle.

X2(m)以上の領域53は、検出された対象物が障害物であるか否かを判定することが困難である領域を示す。領域53では、状況が変化するおそれが高く、障害物として検出された場合であっても、検出された対象物が何であって、障害物として警告すべき対象物であるか保証することができない。   A region 53 equal to or greater than X2 (m) indicates a region in which it is difficult to determine whether or not the detected object is an obstacle. In the area 53, the situation is highly likely to change, and even if it is detected as an obstacle, it cannot be guaranteed what the detected object is and which should be warned as an obstacle. .

一方、Y軸方向には、車幅、法定の安全幅、車幅の整数倍を加算した幅等に基づいて4つの領域に分割している。すなわち車幅の範囲内の領域61、車幅に対する法定の安全幅、例えば車幅から1.5mの範囲内の領域62、領域62に車幅分を加算した領域63、領域63にさらに車幅分を加算した領域64に分割している。   On the other hand, in the Y-axis direction, the vehicle is divided into four regions based on the vehicle width, the legal safety width, the width obtained by adding an integral multiple of the vehicle width, and the like. That is, the region 61 within the vehicle width range, the legal safety width with respect to the vehicle width, for example, the region 62 within the range of 1.5 m from the vehicle width, the region 63 obtained by adding the vehicle width to the region 62, and the region 63 The area is divided into the areas 64 to which the minutes are added.

そして、X軸方向の3領域、Y軸方向の4領域が交差する領域に応じて最も危険度が高い旨を示す危険度パラメータ‘3’である領域71、以下、危険度パラメータ‘2’である領域72、危険度パラメータ‘1’である領域73、危険度パラメータ‘0’である領域74を、それぞれ設定してRAM331に記憶してある。LSI33は、換算した三次元座標値が、どの領域に存在するかを照会して、対応する領域の危険度パラメータを抽出する。   Then, an area 71 which is a risk parameter “3” indicating that the degree of risk is highest according to an area where the three areas in the X-axis direction and the four areas in the Y-axis direction intersect with each other is represented by the risk parameter “2”. A certain region 72, a region 73 having a risk parameter “1”, and a region 74 having a risk parameter “0” are set and stored in the RAM 331, respectively. The LSI 33 inquires in which area the converted three-dimensional coordinate value exists and extracts the risk parameter of the corresponding area.

なお、三次元座標値へ変換する場合に、演算誤差が発生する。したがって、画面上にRAM331に記憶されている領域を表示し、検出された障害物の位置と対応付けて領域を特定することにより、より精度良く危険度パラメータを抽出することができる。   An arithmetic error occurs when converting to a three-dimensional coordinate value. Therefore, by displaying the area stored in the RAM 331 on the screen and specifying the area in association with the position of the detected obstacle, the risk parameter can be extracted with higher accuracy.

LSI33は、抽出した危険度パラメータに基づいて、警告情報を送出する(ステップS409)。例えば図5に示す危険度パラメータが‘3’である場合には、障害物との衝突を回避する緊急度が高い旨を示す信号を表示装置4又は警報装置5へ出力する。表示装置4では、障害物との衝突を回避する緊急度が高い旨を示す表示を出力する、警告表示を点滅させる等の警告表示を出力する。警報装置5では、ブザーの鳴動等によって障害物との衝突を回避する緊急度が高い旨を運転者へ報知する。危険度パラメータに応じて、警告表示を変化させ、警報装置5での鳴動を変化させる。このようにすることで運転者は、検出された障害物と衝突する危険度を判断することが可能となる。   The LSI 33 sends out warning information based on the extracted risk parameter (step S409). For example, when the risk parameter shown in FIG. 5 is “3”, a signal indicating that the degree of urgency for avoiding a collision with an obstacle is high is output to the display device 4 or the alarm device 5. The display device 4 outputs a warning display such as outputting a display indicating that the degree of urgency for avoiding a collision with an obstacle is high or blinking the warning display. The warning device 5 notifies the driver that the degree of urgency for avoiding a collision with an obstacle is high by a buzzer sounding or the like. Depending on the risk parameter, the warning display is changed, and the sounding of the alarm device 5 is changed. By doing so, the driver can determine the risk of collision with the detected obstacle.

なお、上述した実施の形態1は、車両が一定速度で直進している場合にのみ有効であり、車両の速度が変化する場合、車両が旋回している場合等にはそのまま適用することはできない。そこで、車両の速度及び/又は車両が旋回しているか否かに応じて、RAM331に記憶してある分割された領域の形状(座標値)を変化させる。車両の速度は、車両の速度を検出する速度センサの検出値に基づいて検出する。車両が旋回しているか否かは、例えばステアリングホイールの操舵角度、操舵軸の回転角度等を検出するセンサの検出値に基づいて検出する。   The first embodiment described above is effective only when the vehicle is traveling straight at a constant speed, and cannot be applied as it is when the vehicle speed changes, the vehicle is turning, or the like. . Therefore, the shape (coordinate value) of the divided area stored in the RAM 331 is changed according to the speed of the vehicle and / or whether the vehicle is turning. The speed of the vehicle is detected based on a detection value of a speed sensor that detects the speed of the vehicle. Whether or not the vehicle is turning is detected based on detection values of sensors that detect the steering angle of the steering wheel, the rotation angle of the steering shaft, and the like.

図6は、車両の速度の変化に応じて、RAM331に記憶してある分割された領域のX軸方向の分割位置X1、X2の変化を示す図である。図6の例では、車両前端からX1(m)までの領域51、X1(m)以上X2(m)までの領域52、X2(m)以上の領域53の3領域に分割する境界値X1、X2を車両の速度に応じて変化させている。   FIG. 6 is a diagram illustrating changes in the division positions X1 and X2 in the X-axis direction of the divided area stored in the RAM 331 in accordance with changes in the vehicle speed. In the example of FIG. 6, the boundary value X1 is divided into three regions: a region 51 from the front end of the vehicle to X1 (m), a region 52 from X1 (m) to X2 (m), and a region 53 from X2 (m), X2 is changed according to the speed of the vehicle.

図6の例では、X1は、車両の速度V(km/h)が30(km/h)までは一定値15(m)である。30(km/h)を越えてからX1は漸次増加しており、40(km/h)では25(m)となるよう設定している。X2は、車両の速度V(km/h)が0(km/h)、すなわち停止時に30(m)であり、速度30(km/h)では55(m)、40(km/h)では70(m)となるよう設定している。なお、領域のX軸方向の分割位置X1、X2の変化は図6の例に限定されるものではなく、速度に応じて変化させる方法であればなんでも良い。   In the example of FIG. 6, X1 is a constant value 15 (m) until the vehicle speed V (km / h) is 30 (km / h). X1 gradually increases after exceeding 30 (km / h), and is set to be 25 (m) at 40 (km / h). X2 is the vehicle speed V (km / h) is 0 (km / h), that is, 30 (m) when the vehicle is stopped, 55 (m) at a speed of 30 (km / h), and 40 (km / h) It is set to be 70 (m). Note that the change of the division positions X1 and X2 in the X-axis direction of the region is not limited to the example of FIG. 6, and any method may be used as long as it is changed according to the speed.

図7は、車両が回転半径Rで右旋回している場合のRAM331に記憶してある領域の変化状態を示す模式図である。図7に示すように、最も危険度が高い旨を示す危険度パラメータ‘3’である領域71、危険度パラメータ‘2’である領域72、危険度パラメータ‘1’である領域73を、それぞれ変形させている。衝突危険度の判定は、変形された領域に基づいて、検出された障害物の三次元座標値が存在する領域の危険度パラメータを抽出することにより行なう。このようにすることで、車両の速度及び/又は車両が旋回しているか否かに応じて、動的に障害物との衝突の危険度を判定することが可能となる。   FIG. 7 is a schematic diagram showing a change state of the area stored in the RAM 331 when the vehicle is turning right at the turning radius R. As shown in FIG. 7, a region 71 that is a risk parameter “3” indicating that the risk is the highest, a region 72 that is a risk parameter “2”, and a region 73 that is a risk parameter “1”, respectively. It is deformed. The determination of the risk of collision is performed by extracting a risk parameter of an area where the detected three-dimensional coordinate value of the obstacle exists based on the deformed area. By doing in this way, it becomes possible to determine the danger of collision with an obstacle dynamically according to the speed of the vehicle and / or whether the vehicle is turning.

以上のように本実施の形態1によれば、障害物が実際に存在する位置に該当する領域に応じて衝突の可能性、すなわち危険度を判定することができ、距離測定に誤差が存在する場合であっても危険度判定の結果は影響を受けにくい。また、歩行者等の障害物の突然の飛び出し等の突発的な動きがあった場合であっても、所定の領域に存在するか否かに応じて危険度を判定することができ、衝突判定の信頼度を高く維持することが可能となる。さらに、分割された領域ごとに衝突の可能性の大小を示すパラメータを、運転者の視点に基づく感覚的な危険度に合致させて記憶しておくことにより、実際に運転者が感じる危険度との乖離を最小限に止めることができ、運転者の感覚に合致した衝突判定を行なうことが可能となる。   As described above, according to the first embodiment, the possibility of collision, that is, the degree of danger can be determined according to the area corresponding to the position where the obstacle actually exists, and there is an error in distance measurement. Even in such a case, the result of the risk determination is not easily affected. In addition, even if there is a sudden movement such as a sudden jump of an obstacle such as a pedestrian, the degree of danger can be determined according to whether or not it exists in a predetermined area. It is possible to maintain a high reliability. Furthermore, by storing a parameter indicating the possibility of collision for each divided area in accordance with the sensory risk level based on the driver's viewpoint, the risk level actually felt by the driver Can be kept to a minimum, and a collision determination that matches the driver's feeling can be performed.

(実施の形態2)
以下、本発明の実施の形態2に係る衝突判定システムについて図面を参照しながら詳細に説明する。実施の形態2に係る衝突判定システムの構成、遠赤外線撮像装置1の構成、判定装置3の構成は実施の形態1と同様であることから、同一の符号を付することにより詳細な説明は省略する。本実施の形態2は、検出された障害物の移動遷移に基づいて危険度パラメータを抽出する点で、実施の形態1と相違する。
(Embodiment 2)
Hereinafter, a collision determination system according to Embodiment 2 of the present invention will be described in detail with reference to the drawings. Since the configuration of the collision determination system according to the second embodiment, the configuration of the far-infrared imaging device 1, and the configuration of the determination device 3 are the same as those of the first embodiment, detailed description is omitted by attaching the same reference numerals. To do. The second embodiment is different from the first embodiment in that the risk parameter is extracted based on the detected movement transition of the obstacle.

すなわち画像処理を行うLSI33は、画像メモリ32に記憶された画像データをフレーム単位で読み出し、遠赤外線撮像装置1、1から取得した画像データに基づいて、視差を算出する対象となる対象領域を特定する。LSI33は、対象領域について、遠赤外線撮像装置1、1から取得した左右の画像データの視差を算出し、対象物までの距離及び方向を三角測量の原理に基づいて推算する。   That is, the LSI 33 that performs image processing reads out the image data stored in the image memory 32 in units of frames, and specifies a target region for which parallax is calculated based on the image data acquired from the far-infrared imaging devices 1 and 1. To do. The LSI 33 calculates the parallax of the left and right image data acquired from the far-infrared imaging devices 1 and 1 for the target region, and estimates the distance and direction to the target based on the principle of triangulation.

RAM331には、検出された障害物の過去の相対位置データ及び該相対位置が属する領域を時系列的に記憶しておく。LSI33は、推算された位置データに基づいて、車両の周辺の領域のうちどの領域に属するか否かを判断し、過去の移動遷移を特定する。LSI33は、特定された移動遷移に基づいてRAM331に記憶してある危険度パラメータを抽出する。抽出された危険度パラメータにより、外部へ送信する警告情報の内容を変更することにより、運転者へ適切な情報を通知することが可能となる。すなわち、危険度パラメータが所定値より大きい場合には危険が迫っていることを示す情報を、所定値以下である場合には単なる警告情報を、というように使い分けることができる。   The RAM 331 stores the past relative position data of the detected obstacle and the area to which the relative position belongs in time series. Based on the estimated position data, the LSI 33 determines which of the surrounding areas of the vehicle it belongs to, and identifies past movement transitions. The LSI 33 extracts the risk parameter stored in the RAM 331 based on the specified movement transition. It is possible to notify the driver of appropriate information by changing the content of the warning information transmitted to the outside according to the extracted risk parameter. That is, information indicating that the danger is imminent when the risk parameter is larger than a predetermined value, and simple warning information when the risk parameter is less than the predetermined value, can be used properly.

LSI33での詳細な処理について以下に説明する。図8は、本発明の実施の形態2に係る衝突判定システムの判定装置3のLSI33の危険度抽出処理の手順を示すフローチャートである。   Detailed processing in the LSI 33 will be described below. FIG. 8 is a flowchart showing the procedure of risk extraction processing of the LSI 33 of the determination device 3 of the collision determination system according to Embodiment 2 of the present invention.

LSI33は、画像メモリ32に記憶してある画像データを読み出し(ステップS801)、読み出した画像データを所定の大きさの対象領域に分割する(ステップS802)。分割する対象領域の設定方法は特に限定されるものではない。例えばm×n(m、nは自然数)画素からなる方形領域として設定しても良い。本実施の形態1では、3×3画素からなる方形領域として対象領域を設定する。   The LSI 33 reads the image data stored in the image memory 32 (step S801), and divides the read image data into target areas of a predetermined size (step S802). The method for setting the target area to be divided is not particularly limited. For example, you may set as a square area | region which consists of m * n (m and n are natural numbers) pixels. In the first embodiment, the target area is set as a square area composed of 3 × 3 pixels.

LSI33は、設定された対象領域ごとに画像単位で相関値を算出する(ステップS803)。例えば左の遠赤外線撮像装置1で撮像された画像に基づいて設定された対象領域を基準として、右の遠赤外線撮像装置1で撮像された画像中の該対象領域と同一の形状、同一の大きさの領域群との間の相関値を算出する。なお、対象領域と同一の形状、同一の大きさの領域群とは、例えば視差=1、2、・・・、n(nは自然数)の場合の領域群を意味している。   The LSI 33 calculates a correlation value in units of images for each set target area (step S803). For example, with the target region set based on the image captured by the left far infrared imaging device 1 as a reference, the same shape and the same size as the target region in the image captured by the right far infrared imaging device 1 A correlation value with the region group is calculated. The region group having the same shape and the same size as the target region means a region group in the case of parallax = 1, 2,..., N (n is a natural number), for example.

LSI33は、視差ごとに算出した相関値が最大である視差を抽出する(ステップS804)。すなわち算出された相関値が最大である視差で障害物が存在する可能性が高い。   The LSI 33 extracts the parallax having the maximum correlation value calculated for each parallax (step S804). That is, there is a high possibility that an obstacle exists with the parallax having the maximum calculated correlation value.

LSI33は、相関値が最大である対象領域を障害物候補領域として特定する(ステップS805)。LSI33は、特定された障害物候補領域の代表点の実際の位置を推算する(ステップS806)。例えば障害物候補領域の重心を代表点とする。   The LSI 33 specifies the target area having the maximum correlation value as an obstacle candidate area (step S805). The LSI 33 estimates the actual position of the representative point of the specified obstacle candidate area (step S806). For example, the center of gravity of the obstacle candidate area is set as the representative point.

具体的には、LSI33は、左右の遠赤外線撮像装置1、1で撮像された画像にて対応している障害物候補領域の視差に基づいて、車両前部中心点と検出された障害物との距離、及び障害物の方向を示す車両前部中心点からの角度を算出する。方向を示す角度は、車両の進行方向に対して左側を正の角度、右側を負の角度として算出する。   Specifically, the LSI 33 determines the vehicle front center point and the detected obstacle based on the parallax of the obstacle candidate area corresponding to the images captured by the left and right far-infrared imaging devices 1 and 1. And the angle from the vehicle front center point indicating the direction of the obstacle. The angle indicating the direction is calculated as a positive angle on the left side and a negative angle on the right side with respect to the traveling direction of the vehicle.

LSI33は、算出した障害物までの距離及び障害物が存在する方向に基づいて、障害物の車両前部からの相対位置を三次元座標値に換算する(ステップS807)。三次元座標値を算出する座標系は、車両前面中央を原点とし、前方をX軸正方向、右方向をY軸正方向、上方をZ軸正方向とする座標系である。   The LSI 33 converts the relative position of the obstacle from the front of the vehicle into a three-dimensional coordinate value based on the calculated distance to the obstacle and the direction in which the obstacle exists (step S807). The coordinate system for calculating the three-dimensional coordinate value is a coordinate system in which the center of the front surface of the vehicle is the origin, the forward direction is the X-axis positive direction, the right direction is the Y-axis positive direction, and the upper direction is the Z-axis positive direction.

LSI33は、検出された障害物の過去の三次元座標値をRAM331から読み出し、移動遷移を特定する(ステップS808)。図9は、図5と同様、RAM331に記憶してある領域情報の内容を模式的に示す図である。   The LSI 33 reads the past three-dimensional coordinate value of the detected obstacle from the RAM 331, and specifies the movement transition (step S808). FIG. 9 is a diagram schematically showing the contents of the area information stored in the RAM 331, as in FIG.

図9の例では、図5と同様、車両前方の距離に応じてX軸方向に3分割している。車両前端からX1(m)までの領域を領域N、X1(m)以上X2(m)までの領域を領域M、X2(m)以上の領域を領域Fとする。   In the example of FIG. 9, like FIG. 5, it is divided into three in the X-axis direction according to the distance in front of the vehicle. A region from the front end of the vehicle to X1 (m) is a region N, a region from X1 (m) to X2 (m) is a region M, and a region from X2 (m) is X.

一方、Y軸方向には、車幅、法定の安全幅、車幅の整数倍を加算した幅等に基づいて4つの領域に分割している。車幅の範囲内の領域を領域C0、車幅に対する法定の安全幅、例えば車幅から1.5mの範囲内までの領域を領域L1、R1、領域L1、R1の外側であって車幅分を加算した領域を領域L2、R2、領域L2、R2にさらに車幅分を加算した領域を領域L3、R3とする。   On the other hand, in the Y-axis direction, the vehicle is divided into four regions based on the vehicle width, the legal safety width, the width obtained by adding an integral multiple of the vehicle width, and the like. The area within the range of the vehicle width is the area C0, the legal safety width with respect to the vehicle width, for example, the area from the vehicle width to the range of 1.5 m is outside the areas L1, R1, L1, R1, and the vehicle width A region obtained by adding the vehicle width to the regions L2, R2, and the regions L2, R2 is defined as regions L3, R3.

そして、X軸方向の3領域、Y軸方向の4領域が交差する領域に応じて最も危険度が高い旨を示す危険度パラメータ‘3’である領域71、以下、危険度パラメータ‘2’である領域72、危険度パラメータ‘1’である領域73、危険度パラメータ‘0’である領域74を、それぞれ設定してある。RAM331には、検出された障害物の現在の位置、1回前に検出された位置、2回前に検出された位置のそれぞれが属する領域の遷移をX軸方向、Y軸方向の領域座標として記憶してある。RAM331には、検出された障害物の移動遷移に対応付けて危険度パラメータを記憶してある。   Then, an area 71 which is a risk parameter “3” indicating that the degree of risk is highest according to an area where the three areas in the X-axis direction and the four areas in the Y-axis direction intersect with each other is represented by the risk parameter “2”. A certain region 72, a region 73 having a risk parameter “1”, and a region 74 having a risk parameter “0” are set. In the RAM 331, the transition of the area to which the current position of the detected obstacle, the position detected once before, the position detected twice, and the position detected twice before belong as area coordinates in the X-axis direction and the Y-axis direction. I remember it. The RAM 331 stores a risk parameter in association with the detected movement transition of the obstacle.

図10は、RAM331に記憶してある移動遷移に対応付けた危険度パラメータの一例を示す図である。検出された障害物の位置は、図9の領域座標で記憶してあり、例えば(M、C0)は、X軸方向にてX1(m)以上X2(m)までの領域であり、Y軸方向にて車幅の範囲内の領域を示している。LSI33は、特定された移動遷移に対応する領域の危険度パラメータを抽出する(ステップS809)。   FIG. 10 is a diagram illustrating an example of the risk parameter associated with the movement transition stored in the RAM 331. The position of the detected obstacle is stored in the area coordinates of FIG. 9, for example, (M, C0) is an area from X1 (m) to X2 (m) in the X-axis direction, and the Y-axis An area within the range of the vehicle width is shown in the direction. The LSI 33 extracts the risk parameter of the area corresponding to the specified movement transition (step S809).

LSI33は、抽出した危険度パラメータに基づいて、警告情報を送出する(ステップS810)。例えば図10に示す危険度パラメータが‘5’である場合には、障害物との衝突を回避する緊急度が高い旨を示す信号を表示装置4又は警報装置5へ出力する。表示装置4では、障害物との衝突を回避する緊急度が高い旨を示す表示を出力する、警告表示を点滅させる等の警告表示を出力する。警報装置5では、ブザーの鳴動等によって障害物との衝突を回避する緊急度が高い旨を運転者へ報知する。危険度パラメータに応じて、警告表示を変化させ、警報装置5での鳴動を変化させる。このようにすることで運転者は、検出された障害物と衝突する危険度を判断することが可能となる。   The LSI 33 sends out warning information based on the extracted risk parameter (step S810). For example, when the risk parameter shown in FIG. 10 is “5”, a signal indicating that the degree of urgency for avoiding a collision with an obstacle is high is output to the display device 4 or the alarm device 5. The display device 4 outputs a warning display such as outputting a display indicating that the degree of urgency for avoiding a collision with an obstacle is high or blinking the warning display. The warning device 5 notifies the driver that the degree of urgency for avoiding a collision with an obstacle is high by a buzzer sounding or the like. Depending on the risk parameter, the warning display is changed, and the sounding of the alarm device 5 is changed. By doing so, the driver can determine the risk of collision with the detected obstacle.

なお、実施の形態1と同様、車両の速度及び/又は車両が旋回しているか否かに応じて、RAM331に記憶してある分割された領域の形状(座標値)を変化させることにより、動的に障害物との衝突の危険度を判定することが可能となる。   As in the first embodiment, the shape (coordinate values) of the divided areas stored in the RAM 331 is changed according to the speed of the vehicle and / or whether the vehicle is turning or not. Therefore, it is possible to determine the risk of collision with an obstacle.

以上のように本実施の形態2によれば、障害物までの距離の推定誤差、車両の走行状態等による誤った衝突可能性判定を未然に防止することができ、障害物の動きに応じて適切な危険度判定を行なうことが可能となる。   As described above, according to the second embodiment, it is possible to prevent an erroneous collision possibility determination due to the estimation error of the distance to the obstacle, the traveling state of the vehicle, and the like according to the movement of the obstacle. Appropriate risk determination can be performed.

上述した実施の形態1及び2の他、走行する周囲の環境を検出する各種のセンサを用いて、領域の設定、危険度パラメータの設定を変化させることにより、様々な状況に対応した衝突判定を行うことができる。例えばGPS等を介して地図情報を取得し、走行している道路が市街地であるのか、郊外であるのか、あるいは事故多発地点を走行しているのか等の情報に基づき、領域の設定、危険度パラメータの設定を変化させる。   In addition to the first and second embodiments described above, by using various sensors that detect the surrounding environment where the vehicle travels, by changing the setting of the area and the setting of the risk parameter, collision determination corresponding to various situations can be performed. It can be carried out. For example, map information is acquired via GPS, etc., based on information such as whether the road on which it is traveling is an urban area, a suburb, or an accident-prone area, etc. Change the parameter setting.

具体的には、車両が市街地を走行していると判断した場合には、歩行者等の飛び出しの検出感度を高めるために危険度パラメータを増大させる。また、移動遷移に基づく衝突判定を行う場合には、危険領域へ侵入するまで危険度パラメータを低く抑制することにより、頻繁な警告通知による運転者の煩わしさを緩和することも可能となる。   Specifically, when it is determined that the vehicle is traveling in an urban area, the risk parameter is increased in order to increase the detection sensitivity of a pedestrian or the like. In addition, when performing collision determination based on movement transition, it is possible to alleviate the driver's annoyance due to frequent warning notifications by suppressing the risk parameter to a low level until entering the dangerous area.

一方、車両が高速道路等を高速かつ速度変動幅が少なく走行していると判断した場合には、障害物が存在する確率が通常の道路走行時よりも低いことから、障害物を検出次第警告情報を送出するように、危険度パラメータをすべて最大値に設定する。このようにすることで、障害物を検出した時点で早期に運転者に通知することが可能となり、事故の発生を未然に回避することができる。   On the other hand, if it is determined that the vehicle is traveling on a highway at a high speed and with a small speed fluctuation range, the probability of an obstacle being present is lower than when driving on a normal road, so an alarm will be given as soon as an obstacle is detected. All risk parameters are set to their maximum values so that information is transmitted. By doing in this way, it becomes possible to notify a driver | operator early at the time of detecting an obstacle, and generation | occurrence | production of an accident can be avoided beforehand.

また、GPS等を介して取得した地図情報、あるいは白線検出処理により検出された白線位置等に基づいて道路幅を推定することにより、衝突の危険度を示す危険度パラメータと対応付けてある領域情報の区分けを変更することもできる。一般に道路幅が広い道路は、車両が高速かつ速度変動幅が少なく走行する場合が多い。したがって、高速道路等を走行していると判断した場合と同様、障害物を検出次第警告情報を送出するように、危険度パラメータをすべて最大値に設定する。このようにすることで、障害物を検出した時点で早期に運転者に通知することが可能となり、事故の発生を未然に回避することができる。   Also, region information associated with a risk parameter indicating the risk of collision by estimating the road width based on map information acquired via GPS or the like, or a white line position detected by a white line detection process, etc. You can also change the classification. In general, roads with wide roads often run with high speed and little speed fluctuation. Therefore, as in the case where it is determined that the vehicle is traveling on an expressway or the like, all the risk parameters are set to the maximum value so that warning information is transmitted as soon as an obstacle is detected. By doing in this way, it becomes possible to notify a driver | operator early at the time of detecting an obstacle, and generation | occurrence | production of an accident can be avoided beforehand.

また、フロントウインドウの雨滴センサの検出値、ワイパーの動作状況を示す情報、フォグランプの点灯状況を示す情報、携帯電話等の車外との通信システム等を介して取得した天気に関する情報等に基づいて、領域の設定、危険度パラメータの設定を変化させても良い。例えば雨天走行時、降雪走行時等は視界が狭く、停止距離も延伸する。したがって、近接領域の危険度パラメータを増大させ、車両の速度に対する領域変動幅を大きくする。このようにすることで、障害物との衝突判定をより安全側で行うことができ、安全の確保の観点からも有効である。   In addition, based on the detection value of the raindrop sensor on the front window, information indicating the operation status of the wiper, information indicating the lighting status of the fog lamp, information on the weather acquired through a communication system with the outside of the vehicle such as a mobile phone, etc. The region setting and the risk parameter setting may be changed. For example, during rainy weather, snowfall, etc., the field of view is narrow and the stopping distance is extended. Therefore, the risk parameter of the proximity region is increased, and the region fluctuation range with respect to the vehicle speed is increased. By doing in this way, the collision determination with an obstacle can be performed more safely, and it is effective also from the viewpoint of ensuring safety.

また、運転者の脈拍、顔の表面温度等の生体情報を検出するセンサを備え、運転者の覚醒状態を把握することにより、より早期に警告情報を送出するようにしても良い。もちろん、運転者ごとに車両運転の経験度合も相違していることから、上述した領域の設定、危険度パラメータの設定を運転者ごとに変動させるようにしても良いことは言うまでもない。   In addition, a sensor that detects biological information such as the driver's pulse and the surface temperature of the face may be provided, and warning information may be transmitted earlier by grasping the driver's arousal state. Of course, since the experience level of vehicle driving is different for each driver, it goes without saying that the setting of the above-described region and the setting of the risk parameter may be varied for each driver.

なお、上述した実施の形態では、判定装置3のLSI33が上述した制御を行っているが、別個に制御装置を設けても良いし、他の機器の制御装置が兼用しても良い。   In the above-described embodiment, the LSI 33 of the determination device 3 performs the above-described control. However, a separate control device may be provided, or a control device of another device may also be used.

本発明の実施の形態1に係る衝突判定システムの構成を示す模式図である。It is a schematic diagram which shows the structure of the collision determination system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る衝突判定システムの遠赤外線撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the far-infrared imaging device of the collision determination system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る障害物位置算出システムの判定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the determination apparatus of the obstacle position calculation system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る衝突判定システムの判定装置のLSIの危険度抽出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the risk extraction process of LSI of the determination apparatus of the collision determination system which concerns on Embodiment 1 of this invention. RAMに記憶してある領域情報の内容を模式的に示す図である。It is a figure which shows typically the content of the area | region information memorize | stored in RAM. 車両の速度の変化に応じて、RAMに記憶してある分割された領域のX軸方向の分割位置の変化を示す図である。It is a figure which shows the change of the division position of the X-axis direction of the divided | segmented area | region memorize | stored in RAM according to the change of the speed of a vehicle. 車両が回転半径Rで右旋回している場合のRAMに記憶してある領域の変化状態を示す模式図である。It is a schematic diagram which shows the change state of the area | region memorize | stored in RAM when the vehicle is turning right with the turning radius R. 本発明の実施の形態2に係る衝突判定システムの判定装置のLSIの危険度抽出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the risk extraction process of LSI of the determination apparatus of the collision determination system which concerns on Embodiment 2 of this invention. RAMに記憶してある領域情報の内容を模式的に示す図である。It is a figure which shows typically the content of the area | region information memorize | stored in RAM. RAMに記憶してある移動遷移に対応付けた危険度パラメータの一例を示す図である。It is a figure which shows an example of the risk parameter matched with the movement transition memorize | stored in RAM.

符号の説明Explanation of symbols

1 遠赤外線撮像装置
3 判定装置
4 表示装置
5 警報装置
31a 映像入力部
31b 映像出力部
31c 映像出力部
32 画像メモリ
33 LSI
331 RAM
DESCRIPTION OF SYMBOLS 1 Far-infrared imaging device 3 Judgment device 4 Display device 5 Alarm device 31a Image | video input part 31b Image | video output part 31c Image | video output part 32 Image memory 33 LSI
331 RAM

Claims (5)

車両の周辺を撮像する複数の撮像装置、
該複数の撮像装置で撮像した画像データを取得して画像中の障害物の存在を検出する障害物検出手段、及び
該障害物検出手段で障害物を検出した場合、前記複数の撮像装置により取得した画像データから前記障害物の当該車両に対する相対位置データを時系列的に検出する相対位置検出手段を有し、
検出した障害物との衝突の可能性を判定する衝突判定システムにおいて、
車両に対する相対位置に基づいて、車両の周辺領域を複数の領域に分割しておき、分割された領域ごとに衝突の可能性の大小を示すパラメータを記憶する手段と、
検出された相対位置データに基づいて対応する領域を抽出する手段と、
抽出された領域に対応するパラメータを読み出す手段と
を備え、
読み出されたパラメータに基づいて衝突の可能性を判定するようにしてあることを特徴とする衝突判定システム。
A plurality of imaging devices for imaging the periphery of the vehicle;
An obstacle detection unit that acquires image data captured by the plurality of imaging devices and detects the presence of an obstacle in the image, and when the obstacle detection unit detects an obstacle, the plurality of imaging devices acquire Relative position detection means for detecting relative position data of the obstacle with respect to the vehicle from the image data in time series,
In a collision determination system that determines the possibility of a collision with a detected obstacle,
Means for dividing a peripheral area of the vehicle into a plurality of areas based on a relative position with respect to the vehicle, and storing a parameter indicating a possibility of a collision for each divided area;
Means for extracting a corresponding region based on the detected relative position data;
Means for reading out the parameter corresponding to the extracted area,
A collision determination system characterized by determining the possibility of collision based on the read parameters.
車両の速度を検出する手段と、
検出された車両の速度に応じて、分割された領域の形状を変形させる手段と
を備えることを特徴とする請求項1記載の衝突判定システム。
Means for detecting the speed of the vehicle;
The collision determination system according to claim 1, further comprising: means for deforming the shape of the divided area according to the detected vehicle speed.
車両が旋回しているか否かを判断する手段と、
該手段で旋回していると判断した場合、旋回方向及び旋回半径を算出する手段と、
算出された旋回方向及び旋回半径に応じて、分割された領域の形状を変形させる手段と
を備えることを特徴とする請求項1又は2記載の衝突判定システム。
Means for determining whether the vehicle is turning,
Means for calculating a turning direction and a turning radius when it is determined that the means is turning;
3. The collision determination system according to claim 1, further comprising: a unit that deforms a shape of the divided area according to the calculated turning direction and turning radius.
抽出された領域に対応するパラメータを時系列的に読み出すようにしてあり、読み出されたパラメータを時系列的に記憶する手段と、
パラメータの時系列的変化に応じて、衝突の可能性を示す指標値を算出する手段と
を備え、
算出された指標値に基づいて、衝突の可能性を判定するようにしてあることを特徴とする請求項1乃至3のいずれか一項に記載の衝突判定システム。
Means for reading out the parameters corresponding to the extracted areas in time series, and storing the read out parameters in time series;
Means for calculating an index value indicating the possibility of a collision according to a time-series change of the parameter,
The collision determination system according to any one of claims 1 to 3, wherein the possibility of collision is determined based on the calculated index value.
車両の周辺を撮像する複数の撮像装置で撮像した画像データを取得して画像中の障害物の存在を検出し、障害物が検出された場合、前記複数の撮像装置により取得した画像データから前記障害物の当該車両に対する相対位置データを時系列的に検出し、衝突の可能性を判定する衝突判定方法において、
車両に対する相対位置に基づいて、車両の周辺領域を複数の領域に分割しておき、分割された領域ごとに衝突の可能性の大小を示すパラメータを記憶し、
検出された相対位置データに基づいて対応する領域を抽出し、
抽出された領域に対応するパラメータを読み出し、
読み出されたパラメータに基づいて衝突の可能性を判定することを特徴とする衝突判定方法。
Image data captured by a plurality of imaging devices that capture the periphery of the vehicle is acquired to detect the presence of an obstacle in the image. When an obstacle is detected, the image data acquired by the plurality of imaging devices In the collision determination method for detecting the relative position data of the obstacle with respect to the vehicle in time series and determining the possibility of the collision,
Based on the relative position with respect to the vehicle, the surrounding area of the vehicle is divided into a plurality of areas, and a parameter indicating the possibility of a collision is stored for each divided area,
Extract the corresponding region based on the detected relative position data,
Read the parameters corresponding to the extracted area,
A collision determination method, characterized by determining the possibility of a collision based on a read parameter.
JP2006201093A 2006-07-24 2006-07-24 Collision determination system and collision determination method Pending JP2008027309A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006201093A JP2008027309A (en) 2006-07-24 2006-07-24 Collision determination system and collision determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006201093A JP2008027309A (en) 2006-07-24 2006-07-24 Collision determination system and collision determination method

Publications (1)

Publication Number Publication Date
JP2008027309A true JP2008027309A (en) 2008-02-07

Family

ID=39117864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006201093A Pending JP2008027309A (en) 2006-07-24 2006-07-24 Collision determination system and collision determination method

Country Status (1)

Country Link
JP (1) JP2008027309A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009199222A (en) * 2008-02-20 2009-09-03 Hitachi Kokusai Electric Inc Navigation device, receiving device, and moving object information providing device
JP2010089661A (en) * 2008-10-08 2010-04-22 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2010136263A (en) * 2008-12-08 2010-06-17 Brother Ind Ltd Head-mounted display
JP2010176591A (en) * 2009-01-30 2010-08-12 Mazda Motor Corp Display device for vehicle
JP2010191520A (en) * 2009-02-16 2010-09-02 Toyota Motor Corp Surroundings monitor for vehicle
JP2010208583A (en) * 2009-03-12 2010-09-24 Toyota Motor Corp Traveling support device
JP2011238161A (en) * 2010-05-13 2011-11-24 Yupiteru Corp Alarm device
WO2012001896A1 (en) * 2010-06-29 2012-01-05 本田技研工業株式会社 Device for estimating vehicle travel path
US20120283895A1 (en) * 2011-05-02 2012-11-08 Denso Corporation Collision probability calculation apparatus for vehicle and collision avoidance system using the same
JP2012234408A (en) * 2011-05-02 2012-11-29 Mazda Motor Corp Driving support device for vehicle
EP2614993A3 (en) * 2012-01-11 2014-03-12 Robert Bosch Gmbh Method for the selective output of a warning signal, corresponding controlling unit and control and navigation system
JP2015024713A (en) * 2013-07-25 2015-02-05 トヨタ自動車株式会社 Collision determination device
KR101491177B1 (en) * 2009-11-25 2015-02-12 현대자동차주식회사 Night view system and control method thereof
JPWO2014073571A1 (en) * 2012-11-08 2016-09-08 日立建機株式会社 Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine
JP2018055427A (en) * 2016-09-29 2018-04-05 マツダ株式会社 Target detection system for vehicle
JP2018055426A (en) * 2016-09-29 2018-04-05 マツダ株式会社 Target detection system for vehicle
EP3474182A1 (en) * 2017-10-18 2019-04-24 Veoneer Sweden AB A vision system and method for autonomous driving and/or driver assistance in a motor vehicle
CN110083157A (en) * 2019-04-28 2019-08-02 深兰科技(上海)有限公司 A kind of barrier-avoiding method and device
US10997862B2 (en) 2016-09-05 2021-05-04 Nissan Motor Co., Ltd. Vehicle travel control method and vehicle travel control device

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009199222A (en) * 2008-02-20 2009-09-03 Hitachi Kokusai Electric Inc Navigation device, receiving device, and moving object information providing device
JP2010089661A (en) * 2008-10-08 2010-04-22 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2010136263A (en) * 2008-12-08 2010-06-17 Brother Ind Ltd Head-mounted display
JP2010176591A (en) * 2009-01-30 2010-08-12 Mazda Motor Corp Display device for vehicle
JP2010191520A (en) * 2009-02-16 2010-09-02 Toyota Motor Corp Surroundings monitor for vehicle
DE102010001954A1 (en) 2009-02-16 2010-09-02 Toyota Jidosha Kabushiki Kaisha, Toyota-shi Environmental monitoring device for a vehicle
JP2010208583A (en) * 2009-03-12 2010-09-24 Toyota Motor Corp Traveling support device
KR101491177B1 (en) * 2009-11-25 2015-02-12 현대자동차주식회사 Night view system and control method thereof
JP2011238161A (en) * 2010-05-13 2011-11-24 Yupiteru Corp Alarm device
WO2012001896A1 (en) * 2010-06-29 2012-01-05 本田技研工業株式会社 Device for estimating vehicle travel path
US9043132B2 (en) 2010-06-29 2015-05-26 Honda Motor Co., Ltd. Apparatus for estimating travel path of a vehicle
JP5746695B2 (en) * 2010-06-29 2015-07-08 本田技研工業株式会社 Vehicle traveling path estimation device
US20120283895A1 (en) * 2011-05-02 2012-11-08 Denso Corporation Collision probability calculation apparatus for vehicle and collision avoidance system using the same
JP2012234407A (en) * 2011-05-02 2012-11-29 Denso Corp Collision probability calculation device and collision probability calculation program
JP2012234408A (en) * 2011-05-02 2012-11-29 Mazda Motor Corp Driving support device for vehicle
US8838372B2 (en) 2011-05-02 2014-09-16 Denso Corporation Collision probability calculation apparatus for vehicle
EP2614993A3 (en) * 2012-01-11 2014-03-12 Robert Bosch Gmbh Method for the selective output of a warning signal, corresponding controlling unit and control and navigation system
JPWO2014073571A1 (en) * 2012-11-08 2016-09-08 日立建機株式会社 Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine
JP2015024713A (en) * 2013-07-25 2015-02-05 トヨタ自動車株式会社 Collision determination device
US10997862B2 (en) 2016-09-05 2021-05-04 Nissan Motor Co., Ltd. Vehicle travel control method and vehicle travel control device
JP2018055427A (en) * 2016-09-29 2018-04-05 マツダ株式会社 Target detection system for vehicle
JP2018055426A (en) * 2016-09-29 2018-04-05 マツダ株式会社 Target detection system for vehicle
EP3474182A1 (en) * 2017-10-18 2019-04-24 Veoneer Sweden AB A vision system and method for autonomous driving and/or driver assistance in a motor vehicle
WO2019076960A1 (en) * 2017-10-18 2019-04-25 Veoneer Sweden Ab A vision system and method for autonomous driving and/or driver assistance in a motor vehicle
CN110083157A (en) * 2019-04-28 2019-08-02 深兰科技(上海)有限公司 A kind of barrier-avoiding method and device

Similar Documents

Publication Publication Date Title
JP2008027309A (en) Collision determination system and collision determination method
JP5706874B2 (en) Vehicle periphery monitoring device
US8766816B2 (en) System for monitoring the area around a vehicle
JP4815488B2 (en) Vehicle periphery monitoring device
JP5503728B2 (en) Vehicle periphery monitoring device
JP4173901B2 (en) Vehicle periphery monitoring device
CN112349144B (en) Monocular vision-based vehicle collision early warning method and system
JP4173902B2 (en) Vehicle periphery monitoring device
JP5687702B2 (en) Vehicle periphery monitoring device
JP4988781B2 (en) Vehicle periphery monitoring device
JP2007323578A (en) Vehicle periphery monitoring device
JP2013157770A (en) On-vehicle camera exposure control device
JP2008026998A (en) Obstacle location calculation system and method
JP4813304B2 (en) Vehicle periphery monitoring device
JP5192007B2 (en) Vehicle periphery monitoring device
JP3999088B2 (en) Obstacle detection device
JP2010092353A (en) Image processing apparatus and image processing method
JP2007087203A (en) Collision determination system, collision determination method, and computer program
JP4176558B2 (en) Vehicle periphery display device
JP2010093569A (en) Vehicle periphery monitoring device
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP6087240B2 (en) Vehicle periphery monitoring device
JP2011134119A (en) Vehicle periphery monitoring device
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP4975776B2 (en) Vehicle periphery monitoring device