JP5894413B2 - Collision judgment method and collision judgment program - Google Patents

Collision judgment method and collision judgment program Download PDF

Info

Publication number
JP5894413B2
JP5894413B2 JP2011236395A JP2011236395A JP5894413B2 JP 5894413 B2 JP5894413 B2 JP 5894413B2 JP 2011236395 A JP2011236395 A JP 2011236395A JP 2011236395 A JP2011236395 A JP 2011236395A JP 5894413 B2 JP5894413 B2 JP 5894413B2
Authority
JP
Japan
Prior art keywords
vehicle
collision
movement
time
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011236395A
Other languages
Japanese (ja)
Other versions
JP2013097391A (en
Inventor
正憲 小崎
正憲 小崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2011236395A priority Critical patent/JP5894413B2/en
Publication of JP2013097391A publication Critical patent/JP2013097391A/en
Application granted granted Critical
Publication of JP5894413B2 publication Critical patent/JP5894413B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、衝突判定方法および衝突判定プログラムに関する。   Embodiments described herein relate generally to a collision determination method and a collision determination program.

最近、自動車などの車両の運転を支援するための技術として、車両と対象物との衝突可能性を判定する技術の開発が望まれている。この種の技術には、たとえば、車両に搭載されたカメラにより撮像された画像にもとづいて車両と対象物との衝突可能性を判定する技術などがある。車両に搭載されたカメラにより撮像された画像を用いる場合、レーダを用いる場合に比べてデジタル化された画像データを利用することができることから、自車がカーブを走行中であっても対象物の接近角度などの複雑な判断が可能であり、対象物の接近を容易に検出することができる。   Recently, as a technique for supporting driving of a vehicle such as an automobile, development of a technique for determining the possibility of collision between the vehicle and an object is desired. As this type of technology, for example, there is a technology for determining the possibility of collision between a vehicle and an object based on an image captured by a camera mounted on the vehicle. When using an image captured by a camera mounted on a vehicle, it is possible to use digitized image data as compared with the case of using a radar. Complex judgments such as the approach angle can be made, and the approach of the object can be easily detected.

特開2004−56763号公報Japanese Patent Laid-Open No. 2004-56763

しかし、自車が回転成分を持つ場合、自車と対象物とは、自車の並進成分で近づきつつ、回転成分で近づく場合もあれば遠ざかる場合もある。このため、自車と対象物との位置関係の時間変化を予測することは難しい。   However, when the own vehicle has a rotation component, the own vehicle and the object may approach each other by the rotation component while moving closer to the translation component of the own vehicle, or may move away from the object. For this reason, it is difficult to predict a temporal change in the positional relationship between the vehicle and the object.

したがって、自車が回転成分を持って移動している場合、車両に搭載されたカメラにより撮像された画像を用いても、対象物の接近を検出することはできるものの、衝突するか否かの判定や衝突までの時間を求めることは難しい。   Therefore, when the vehicle is moving with a rotation component, the approach of the object can be detected using the image captured by the camera mounted on the vehicle, but whether or not it collides. It is difficult to determine the time until judgment and collision.

本発明の一実施形態に係る衝突判定方法は、上述した課題を解決するために、車両に設けられたカメラが車両の周囲を撮像するステップと、カメラにより撮像された画像に含まれる対象物の動きベクトルを検出するステップと、動きベクトルにもとづいて自車の並進成分および回転成分を求めるステップと、並進成分による移動量と、現在の対象物の位置における回転成分による移動量および現在から所定の時間後の並進成分のみの移動を仮定した場合の対象物の位置における回転成分による移動量を所定の割合で合成した移動量と、を合成した合成移動量を求めるステップと、合成移動量にもとづいて所定の時間内に車両と対象物とが衝突するか否かを判定するステップと、を有する方法である。 In order to solve the above-described problem, a collision determination method according to an embodiment of the present invention includes a step in which a camera provided in a vehicle images the surroundings of the vehicle, and an object included in an image captured by the camera. A step of detecting a motion vector, a step of determining a translation component and a rotation component of the vehicle based on the motion vector, a movement amount by the translation component, a movement amount by the rotation component at the position of the current object, and a predetermined amount from the current movement and that forms if the amount of movement by the rotation component in the position of an object at a predetermined rate assuming a movement of only the translation component after hours, determining a synthesized composite moving amount of the synthetic movement amount And determining whether or not the vehicle and the object collide within a predetermined time based on the method.

本発明の一実施形態に係る衝突判定方法を実施するための衝突判定装置の一例を示すブロック図。The block diagram which shows an example of the collision determination apparatus for enforcing the collision determination method which concerns on one Embodiment of this invention. 図1に示す主制御部のCPUにより自車の回転成分を考慮して衝突判定を行う際の手順を示すフローチャート。The flowchart which shows the procedure at the time of performing a collision determination in consideration of the rotation component of the own vehicle by CPU of the main control part shown in FIG. 座標系と回転方向の関係の一例を示す説明図。Explanatory drawing which shows an example of the relationship between a coordinate system and a rotation direction. 図3のステップS5で衝突判定部により実行される衝突判定・衝突時間予測処理の手順の前半部を示すサブルーチンフローチャート。The subroutine flowchart which shows the first half part of the procedure of the collision determination and the collision time prediction process performed by the collision determination part in step S5 of FIG. 図3のステップS5で衝突判定部により実行される衝突判定・衝突時間予測処理の手順の後半部を示すサブルーチンフローチャート。The subroutine flowchart which shows the second half part of the procedure of the collision determination and the collision time prediction process performed by the collision determination part in FIG.3 S5. 平均回転移動量ABRと、この平均回転移動量ABRおよび並進成分Tとの合成移動量RTと、の関係の一例を示す説明図。Explanatory drawing which shows an example of the relationship between average rotational movement amount ABR and synthetic | combination movement amount RT of this average rotational movement amount ABR and translation component T. FIG. 側面衝突を予測する様子の一例を示す説明図。Explanatory drawing which shows an example of a mode that a side collision is estimated. 初期位置での回転成分のみの移動では衝突面に対して向かう方向に移動する場合における正しい軌道と近似計算軌道との関係の一例を示す説明図。Explanatory drawing which shows an example of the relationship between the correct track | orbit and an approximate calculation track | orbit in the case of moving to the direction which faces a collision surface in the movement of only the rotation component in an initial position. 初期位置での回転成分のみの移動では衝突面に対して離れる方向に移動する場合における正しい軌道と近似計算軌道との関係の一例を示す説明図。Explanatory drawing which shows an example of the relationship between the correct track | orbit and an approximate calculation track | orbit in the case of moving in the direction away | separated with respect to a collision surface in the movement of only the rotation component in an initial position.

本発明に係る衝突判定方法および衝突判定プログラムの実施の形態について、添付図面を参照して説明する。   Embodiments of a collision determination method and a collision determination program according to the present invention will be described with reference to the accompanying drawings.

図1は、本発明の一実施形態に係る衝突判定方法を実施するための衝突判定装置10の一例を示すブロック図である。   FIG. 1 is a block diagram illustrating an example of a collision determination apparatus 10 for carrying out a collision determination method according to an embodiment of the present invention.

衝突判定装置10は、カメラ11、主制御部12、車両情報取得部13、灯火装置16、クラクション17、スピーカ18および表示装置19を有する。   The collision determination device 10 includes a camera 11, a main control unit 12, a vehicle information acquisition unit 13, a lighting device 16, a horn 17, a speaker 18, and a display device 19.

カメラ11は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成され、自家用自動車等の車両の周囲の映像を取り込んで画像データを生成して主制御部12に与える。   The camera 11 is composed of a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The camera 11 captures a video around a vehicle such as a private car and generates image data to be supplied to the main controller 12. .

たとえば後方を監視する場合、カメラ11は車両後部のナンバープレート付近に路面と平行な線からやや下向きに配設される。カメラ11には、より広範な車両外画像が取得可能なように広角レンズや魚眼レンズが取り付けられてもよい。また、車両の側方を監視する場合、カメラ11はサイドミラー付近に配設される。また、複数のカメラ11を用いることにより広範な車外周囲画像を取り込むようにしてもよい。   For example, when monitoring the rear, the camera 11 is disposed slightly downward from a line parallel to the road surface in the vicinity of the license plate at the rear of the vehicle. A wide-angle lens or a fisheye lens may be attached to the camera 11 so that a wider range of outside-vehicle images can be acquired. When monitoring the side of the vehicle, the camera 11 is disposed near the side mirror. In addition, a wide range of vehicle surrounding images may be captured by using a plurality of cameras 11.

主制御部12は、たとえばCPU、RAM、ROMを備えたマイクロコントローラにより構成される。主制御部12のCPUは、ROMなどの記憶媒体に記憶された衝突判定プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って自車の回転成分を考慮して衝突判定を行う処理を実行する。主制御部12のRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。主制御部12のROMなどの記憶媒体は、衝突判定プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。   The main control unit 12 is configured by a microcontroller including a CPU, a RAM, and a ROM, for example. The CPU of the main control unit 12 loads a collision determination program stored in a storage medium such as a ROM and data necessary for the execution of the program into the RAM, and considers the rotation component of the vehicle according to the program. A process for performing the determination is executed. The RAM of the main control unit 12 provides a work area for temporarily storing programs and data executed by the CPU. A storage medium such as a ROM of the main control unit 12 stores a collision determination program and various types of data necessary for executing these programs.

なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は図示しないネットワーク接続部を介して電子ネットワークを介してダウンロードされるように構成してもよい。   A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Or you may comprise so that all may be downloaded via an electronic network via the network connection part which is not shown in figure.

なお、この場合、ネットワーク接続部は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装し、この各種プロトコルに従って主制御部12と他の車両のECUなどの電気機器とを電子ネットワークを介して接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、無線/有線LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。   In this case, the network connection unit implements various information communication protocols according to the network form, and the main control unit 12 and electric devices such as ECUs of other vehicles are connected via the electronic network according to the various protocols. Connect. For this connection, an electrical connection via an electronic network can be applied. Here, an electronic network means an information communication network using telecommunications technology in general, in addition to a wireless / wired LAN (Local Area Network) and the Internet network, a telephone communication line network, an optical fiber communication network, a cable communication network, Includes satellite communications networks.

車両情報取得部13は、少なくとも自車の現在の加速度の情報を取得し、主制御部12に出力する。車両情報取得部13は、たとえば加速度センサにより構成してもよいし、CAN(Controller Area Network)において一般的に用いられる車両情報取得機能を有するものであってもよい。本実施形態において、車両情報取得部13は、自車の移動パラメータを利用するために用いられるものである。このため、主制御部12がカメラ11の撮影した画像にもとづいて自車の移動パラメータを算出可能である場合、この車両情報取得13は設けられずともよい。   The vehicle information acquisition unit 13 acquires at least information on the current acceleration of the host vehicle and outputs the information to the main control unit 12. The vehicle information acquisition part 13 may be comprised, for example with an acceleration sensor, and may have a vehicle information acquisition function generally used in CAN (Controller Area Network). In this embodiment, the vehicle information acquisition part 13 is used in order to utilize the movement parameter of the own vehicle. For this reason, when the main control unit 12 can calculate the movement parameter of the own vehicle based on the image captured by the camera 11, the vehicle information acquisition 13 may not be provided.

灯火装置16は、一般的なヘッドライトにより構成され、主制御部12により制御されて点滅(いわゆるパッシング)を行うことにより、たとえば自車両の外部に対して警告を行う。   The lighting device 16 is configured by a general headlight, and is controlled by the main control unit 12 to blink (so-called passing), for example, to warn the outside of the host vehicle.

クラクション17は、主制御部12により制御されて自車両の外部に対して警告音を出力する。   The horn 17 is controlled by the main control unit 12 and outputs a warning sound to the outside of the host vehicle.

スピーカ18は、自車両の車内に設けられ、主制御部12により制御されて自車両の運転者に対してビープ音や危険が迫っていることを知らせるための情報などの各種情報に対応した音声を出力する。   The speaker 18 is provided in the host vehicle and is controlled by the main control unit 12 to respond to various information such as a beep and information for notifying the driver of the host vehicle that a danger is imminent. Is output.

表示装置19は、運転者が視認可能な位置に設けられ、車載用の一般的なディスプレイやカーナビゲーションシステム、HUD(ヘッドアップディスプレイ)などの表示出力装置を用いることができ、主制御部12の制御に従って、カメラ11の撮像画像や危険が迫っていることを知らせるための情報などの各種情報を表示する。   The display device 19 is provided at a position visible to the driver, and a display output device such as a general vehicle-mounted display, a car navigation system, or a HUD (head-up display) can be used. In accordance with the control, various information such as a captured image of the camera 11 and information for notifying that the danger is imminent are displayed.

続いて、主制御部12のCPUによる機能実現部の構成について説明する。   Next, the configuration of the function realization unit by the CPU of the main control unit 12 will be described.

図1に示すように、主制御部12のCPUは、衝突判定プログラムによって、少なくとも平面画像生成部21、動きベクトル検出部22、自車移動算出部23、静止ベクトル検出部24、衝突判定部25および警報部26として機能する。この各部21−26は、RAMの所要のワークエリアを、データの一時的な格納場所として利用する。なお、これらの機能実現部は、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。   As shown in FIG. 1, the CPU of the main control unit 12 uses at least a plane image generation unit 21, a motion vector detection unit 22, a vehicle movement calculation unit 23, a stationary vector detection unit 24, and a collision determination unit 25 according to a collision determination program. And functions as an alarm unit 26. Each unit 21-26 uses a required work area in the RAM as a temporary storage location for data. In addition, you may comprise these function implementation parts by hardware logics, such as a circuit, without using CPU.

平面画像生成部21は、カメラ11により撮像された画像にもとづいて平面画像を生成する。たとえばカメラ11に魚眼レンズが取り付けられている場合は、平面画像生成部21は、カメラ11により撮像された魚眼画像を通常の2次元画像に正規化するとともに、この正規化画像にもとづいて、あらかじめ定められた視点の平面画像を生成する。   The planar image generation unit 21 generates a planar image based on the image captured by the camera 11. For example, when a fisheye lens is attached to the camera 11, the planar image generation unit 21 normalizes the fisheye image captured by the camera 11 into a normal two-dimensional image, and based on the normalized image in advance. A plane image of a predetermined viewpoint is generated.

動きベクトル検出部22は、ブロックマッチング法や勾配法などを用いて、平面画像生成部21により生成された複数の平面画像から画素ごとに動きベクトルを検出する。   The motion vector detection unit 22 detects a motion vector for each pixel from a plurality of plane images generated by the plane image generation unit 21 using a block matching method, a gradient method, or the like.

自車移動算出部23は、動きベクトル検出部22より検出された動きベクトルにもとづいて自車の移動パラメータ(自車の並進成分および回転成分)を求める。なお、衝突判定装置10が車両情報取得部13を備える場合は、自車移動算出部23は、車両情報取得部13から自車の移動パラメータを取得してもよい。また、自車移動算出部23は、自車の移動パラメータから自車の移動ベクトルを算出する。 The own vehicle movement calculation unit 23 obtains the movement parameters of the own vehicle (the translation component T and the rotation component R 1 of the own vehicle) based on the motion vector detected by the motion vector detection unit 22. When the collision determination device 10 includes the vehicle information acquisition unit 13, the own vehicle movement calculation unit 23 may acquire the movement parameter of the own vehicle from the vehicle information acquisition unit 13. In addition, the own vehicle movement calculation unit 23 calculates a movement vector of the own vehicle from the movement parameters of the own vehicle.

静止ベクトル検出部24は、対象物の動きベクトルと自車の移動ベクトルの角度を比較し、角度の差が所定の角度差以下となり、また、動きベクトルの大きさの方が大きい対象物を静止物であるとして検出する。 Stationary vector detecting unit 24 compares the angle of the motion vector of the motion vector and the vehicle of the object, the difference in angle becomes under a predetermined angle Sa以, also, the motion vector size the larger object Is detected as a stationary object.

衝突判定部25は、並進成分による移動量と、現在の対象物の位置における回転成分による移動量および現在から所定の時間後の並進成分のみの移動を仮定した場合の対象物の位置における回転成分による移動量を平均した移動量と、を合成した合成移動量を求める。そして、衝突判定部25は、この合成移動量にもとづいて、自車と対象物とが衝突するまでの時間(以下、衝突時間という)を予測して、所定の時間内に自車と対象物とが衝突するか否かを判定する。   The collision determination unit 25 assumes the amount of movement due to the translation component, the amount of movement due to the rotation component at the current position of the object, and the rotation component at the position of the object when assuming only movement of the translation component after a predetermined time from the current time. The combined movement amount obtained by combining the movement amount obtained by averaging the movement amounts by the above is obtained. Then, the collision determination unit 25 predicts a time (hereinafter referred to as a collision time) until the own vehicle and the target object collide based on the combined movement amount, and the own vehicle and the target object within a predetermined time. To collide with each other.

警報部26は、衝突判定部25により所定の時間内に自車と対象物とが衝突すると判定されると、灯火装置16の点滅(パッシング)およびクラクション17を介した警告音出力の少なくとも一方により、車外の人間に危険を報知することができる。また、警報部26は、衝突判定部25より所定の時間内に自車と対象物とが衝突すると判定されると、自車両の運転者に対して、スピーカ18を介してビープ音や衝突の危険を知らせる音声を出力することができる。また、警報部26は、表示装置19に対して衝突の危険がある旨の情報(警告)を表示することができる。なお、警報部26は、自車両の運転者に対する危険報知として、ビープ音出力、音声出力および警告表示の少なくとも1つを行い、全てを同時に行ってもよい。また、車外の人間に対する危険報知および自車両の運転者に対する危険報知の両方を同時に行ってもよいし、いずれか一方のみを行ってもよい。   When the collision determination unit 25 determines that the host vehicle and the target object collide within a predetermined time, the alarm unit 26 performs at least one of flashing of the lighting device 16 (passing) and warning sound output via the horn 17. The danger can be notified to a person outside the vehicle. When the collision determination unit 25 determines that the host vehicle and the target object collide within a predetermined time, the alarm unit 26 notifies the driver of the host vehicle via a speaker 18 a beep sound or a collision. A sound that informs the danger can be output. Further, the alarm unit 26 can display information (warning) indicating that there is a risk of collision on the display device 19. The alarm unit 26 may perform at least one of beep sound output, sound output, and warning display as danger notifications to the driver of the host vehicle, and may perform all of them simultaneously. Moreover, both the danger notification for the person outside the vehicle and the danger notification for the driver of the host vehicle may be performed simultaneously, or only one of them may be performed.

次に、本実施形態に係る衝突判定装置10の動作の一例について説明する。   Next, an example of operation | movement of the collision determination apparatus 10 which concerns on this embodiment is demonstrated.

図2は、図1に示す主制御部12のCPUにより自車の回転成分を考慮して衝突判定を行う際の手順を示すフローチャートである。図2において、Sに数字を付した符号は、フローチャートの各ステップを示す。   FIG. 2 is a flowchart illustrating a procedure when the CPU of the main control unit 12 illustrated in FIG. 1 performs the collision determination in consideration of the rotation component of the own vehicle. In FIG. 2, a symbol with a number added to S indicates each step of the flowchart.

まず、ステップS1において、平面画像生成部21は、カメラ11により撮像された画像にもとづいて平面画像を生成する。   First, in step S <b> 1, the planar image generation unit 21 generates a planar image based on the image captured by the camera 11.

次に、ステップS2において、動きベクトル検出部22は、ブロックマッチング法や勾配法などを用いて、平面画像生成部21により生成された複数の平面画像から画素ごとに動きベクトルを検出する。   Next, in step S <b> 2, the motion vector detection unit 22 detects a motion vector for each pixel from the plurality of planar images generated by the planar image generation unit 21 using a block matching method, a gradient method, or the like.

次に、ステップS3において、自車移動算出部23は、動きベクトル検出部22より検出された動きベクトル、もしくは、車両情報取得部13からの情報にもとづいて自車の移動パラメータを求め、この自車の移動パラメータにもとづいて自車の移動ベクトルを算出する。   Next, in step S 3, the own vehicle movement calculation unit 23 obtains the movement parameter of the own vehicle based on the motion vector detected by the motion vector detection unit 22 or the information from the vehicle information acquisition unit 13. A movement vector of the own vehicle is calculated based on the movement parameter of the car.

ここで、自車移動算出部23による自車移動パラメータにもとづく自移動ベクトルの算出方法について説明する。 Here, the calculation method of the own vehicle movement vector based on the own vehicle movement parameter by the own vehicle movement calculation unit 23 will be described.

図3は、座標系と回転方向の関係の一例を示す説明図である。以下の説明では、図3に示すように、進行方向をz軸、路面法線方向をy軸、進行方向および路面法線方向に互いに直交する方向をx軸とする座標系を用いる場合の例について示す。また、図3においては、x軸、y軸、z軸周りの回転をそれぞれRx、Ry、Rzとして示した。   FIG. 3 is an explanatory diagram illustrating an example of the relationship between the coordinate system and the rotation direction. In the following description, as shown in FIG. 3, an example of using a coordinate system in which the traveling direction is the z axis, the road surface normal direction is the y axis, and the direction orthogonal to the traveling direction and the road surface normal direction is the x axis. Show about. In FIG. 3, the rotations about the x-axis, y-axis, and z-axis are shown as Rx, Ry, and Rz, respectively.

図3に示すように、カメラ11により撮像された画像は、平面画像生成部21により、理想的にはy=fで表されるカメラ投影面31に展開されることになる。ここで、fはカメラ11の焦点距離であるものとする。   As shown in FIG. 3, the image captured by the camera 11 is developed on the camera projection plane 31 ideally represented by y = f by the plane image generation unit 21. Here, f is the focal length of the camera 11.

自車移動での画面の回転方向および並進方向をそれぞれR(Rx、Ry、Rz)およびT(Tx、Ty、Tz)とする。このとき、自車移動の回転方向と並進方向は(−Rx、−Ry、−Rz)および(−Tx, −Ty, −Tz)となる。   The rotation direction and translation direction of the screen when the vehicle is moving are assumed to be R (Rx, Ry, Rz) and T (Tx, Ty, Tz), respectively. At this time, the rotation direction and translation direction of the own vehicle movement are (−Rx, −Ry, −Rz) and (−Tx, −Ty, −Tz).

カメラ投影面31上の画像の位置を(x、y、f)すると、公知の式により、自車移動ベクトル(x、y、cu、cv)=(x座標位置、y座標位置、x方向ベクトル、y方向ベクトル)は、自車移動パラメータから次のように求めることができる。
wu = -(x・y / f)・Rx + ((f・f + x・x) / f)・Ry - y・Rz
wv = -((f・f + y・y) / f)・Rx + (x・y / f )・Ry + x・Rz
tu = (f・Tx - x・Tz) / z
tv = (f・Ty - y・Tz) / z
cu = tu + wu
cv = tv + wv
When the position of the image on the camera projection surface 31 is (x, y, f), the own vehicle movement vector (x, y, cu, cv) = (x coordinate position, y coordinate position, x direction vector) according to a known formula. , Y direction vector) can be obtained from the own vehicle movement parameter as follows.
wu =-(x ・ y / f) ・ Rx + ((f ・ f + x ・ x) / f) ・ Ry-y ・ Rz
wv =-((f ・ f + y ・ y) / f) ・ Rx + (x ・ y / f) ・ Ry + x ・ Rz
tu = (f ・ Tx-x ・ Tz) / z
tv = (f ・ Ty-y ・ Tz) / z
cu = tu + wu
cv = tv + wv

wuは自車移動ベクトルの回転成分のx方向、wvは自車移動ベクトルの回転成分のy方向、tuは自車移動ベクトルの並進成分のx方向、tvは自車移動ベクトルの並進成分のy方向をそれぞれ表す。zは画面方向の奥行きであるが、ある遠い距離(例えば10m)を1として、それより必ず近い位置となる路面のみ、1より小さい値に奥行きを変えて設定すればよい。その設定した距離に比例して自車移動パラメータの並進成分(Tx、Ty、Tz)の大きさが変わることになる。   wu is the x direction of the rotation component of the own vehicle movement vector, wv is the y direction of the rotation component of the own vehicle movement vector, tu is the x direction of the translation component of the own vehicle movement vector, tv is y of the translation component of the own vehicle movement vector Represent each direction. z is the depth in the screen direction. A certain distance (for example, 10 m) may be set to 1, and only the road surface that is necessarily closer than that may be set to a value smaller than 1. The magnitude of the translation component (Tx, Ty, Tz) of the own vehicle movement parameter changes in proportion to the set distance.

次に、ステップS4において、静止ベクトル検出部24は、動きベクトル検出部22により検出された動きベクトルと自車の移動ベクトルの角度を比較し、この角度の差が所定の角度差以下となり、また、動きベクトルの大きさの方が大きい対象物を静止物であるとして検出する。たとえば、動きベクトル検出部22により検出された動きベクトルを(x、y、pu、pv)=(x座標位置、y座標位置、x方向ベクトル、y方向ベクトル)とすると、(pu − wu、pv − wv)と(tu、tv)との角度の差が所定の角度差以下であり、また、(pu − wu、pv − wv)の大きさが(tu、tv)の大きさより所定の割合以上大きいと、静止ベクトル検出部24は、この動きベクトルを静止物のベクトルであると判定する。   Next, in step S4, the static vector detection unit 24 compares the angle of the motion vector detected by the motion vector detection unit 22 and the movement vector of the host vehicle, and the difference in angle is equal to or less than a predetermined angle difference. Then, an object having a larger motion vector is detected as a stationary object. For example, if the motion vector detected by the motion vector detection unit 22 is (x, y, pu, pv) = (x coordinate position, y coordinate position, x direction vector, y direction vector), (pu−wu, pv) -The difference in angle between (wv) and (tu, tv) is less than or equal to a predetermined angle difference, and the magnitude of (pu-wu, pv-wv) is greater than or equal to a predetermined ratio from the magnitude of (tu, tv) If it is larger, the stationary vector detection unit 24 determines that this motion vector is a stationary object vector.

次に、ステップS5において、衝突判定部25は、自車と対象物とが衝突するまでの時間(以下、衝突時間という)を予測して、所定の時間内に自車と対象物とが衝突するか否かを判定する処理を行う。   Next, in step S5, the collision determination unit 25 predicts a time until the own vehicle and the object collide (hereinafter referred to as a collision time), and the own vehicle and the object collide within a predetermined time. The process which determines whether to do is performed.

以上の手順により、自車の回転成分を考慮して衝突判定を行うことができる。   According to the above procedure, the collision determination can be performed in consideration of the rotation component of the own vehicle.

図4および図5は、図3のステップS5で衝突判定部25により実行される衝突判定・衝突時間予測処理の手順を示すサブルーチンフローチャートである。図4には手順の前半部を、図5には手順の後半部を、それぞれ示した。   4 and 5 are subroutine flowcharts showing the procedure of the collision determination / collision time prediction process executed by the collision determination unit 25 in step S5 of FIG. FIG. 4 shows the first half of the procedure, and FIG. 5 shows the second half of the procedure.

ステップS11において、衝突判定部25は、衝突面の向きを特定する。   In step S11, the collision determination unit 25 specifies the direction of the collision surface.

以下、より具体的に説明する。衝突面の向きをM(Mx、My、Mz)とする。衝突面は基本的には路面に対して垂直になっているため、向きMは収束点FOE(FOEx、FOEy)を用いて次のように書ける。
Mx = FOEx
My = FOEy
Mz = f
More specific description will be given below. The direction of the collision surface is M (Mx, My, Mz). Since the collision surface is basically perpendicular to the road surface, the direction M can be written as follows using the convergence point FOE (FOEx, FOEy).
Mx = FOEx
My = FOEy
Mz = f

衝突面の向きMを用い、衝突面の式は下記のようになる。
Mx・x + My・y + Mz・z = 0
Using the direction M of the collision surface, the equation for the collision surface is as follows.
Mx ・ x + My ・ y + Mz ・ z = 0

次に、ステップS12において、衝突判定部25は、静止物の位置を特定する。   Next, in step S12, the collision determination unit 25 specifies the position of the stationary object.

以下、より具体的に説明する。まず、静止物ベクトルを用いて静止物のzを計算する。
pu - wu = tu
pv - wv = tv
More specific description will be given below. First, z of a stationary object is calculated using a stationary object vector.
pu-wu = tu
pv-wv = tv

のzを変数としてzを算出するが、zは2つ導かれるが、pu−wuとpv−wvで大きさが大きいほう、もしくはzを1としたときのtuとtvで大きさが大きいほう、もしくは平均を用いるとよい。   Z is calculated with z as a variable, but two z are derived. The larger one is in pu-wu and pv-wv, or the larger one is in tu and tv when z is 1. Or average.

得られたzと得られた動きベクトルの位置(x、y、f)より、静止物の位置A(Ax、Ay、Az)は下記のようになる。
Ax = z・x / f
Ay = z・y / f
Az = z
From the obtained z and the position (x, y, f) of the obtained motion vector, the position A (Ax, Ay, Az) of the stationary object is as follows.
Ax = z ・ x / f
Ay = z ・ y / f
Az = z

次に、ステップS13において、衝突判定部25は、並進成分のみの移動における衝突時間t1を算出する。   Next, in step S <b> 13, the collision determination unit 25 calculates a collision time t <b> 1 in the movement of only the translational component.

静止物の並進成分のみでの位置AT(ATx、ATy、ATz)は、下記のようになる(tは変数)。
ATx = Ax + t・Tx
ATy = Ay + t・Ty
ATz = Az + t・Tz
The position AT (ATx, ATy, ATz) of only the translational component of the stationary object is as follows (t is a variable).
ATx = Ax + t ・ Tx
ATy = Ay + t ・ Ty
ATz = Az + t ・ Tz

上記の位置と衝突面との交点は、面の式にATの位置を代入したときのtでの値になる。また、そのときのtはその面までの衝突の時間(フレーム数)である。そのときの時間を仮衝突時間t1とすると、
Mx・(Ax + t1・Tx) + My・(Ay + t1・Ty) + Mz・(Az + t1・Tz) = 0
→t1 = (-Mx・Ax - My・Ay - Mz・Az) / (Mx・Tx + My・Ty + Mz・Tz)
The intersection between the above position and the collision surface is the value at t when the AT position is substituted into the surface equation. Further, t at that time is a collision time (number of frames) to the surface. If the time at that time is the temporary collision time t1,
Mx ・ (Ax + t1 ・ Tx) + My ・ (Ay + t1 ・ Ty) + Mz ・ (Az + t1 ・ Tz) = 0
→ t1 = (-Mx ・ Ax-My ・ Ay-Mz ・ Az) / (Mx ・ Tx + My ・ Ty + Mz ・ Tz)

となる。警告したい時間(警告時間)をtaとすると、仮衝突時間t1が警告時間taより大きい場合、t1=taとする。また、t1がマイナスのときはt1=0とする。0≦t1≦taの場合は、t1のままとなる。   It becomes. Assuming that the warning time (warning time) is ta, if the temporary collision time t1 is longer than the warning time ta, then t1 = ta. When t1 is negative, t1 = 0. In the case of 0 ≦ t1 ≦ ta, it remains t1.

次に、ステップS14において、衝突判定部25は、並進成分のみの移動における衝突位置を算出する。   Next, in step S14, the collision determination unit 25 calculates a collision position in the movement of only the translational component.

静止物の並進成分のみでのt1後の位置B(Bx、By、Bz)は、下記のようになる。
Bx = Ax + t1・Tx
By = Ay + t1・Ty
Bz = Az + t1・Tz
A position B (Bx, By, Bz) after t1 with only the translational component of the stationary object is as follows.
Bx = Ax + t1 ・ Tx
By = Ay + t1 ・ Ty
Bz = Az + t1 ・ Tz

次に、ステップS15において、衝突判定部25は、現在の対象物の位置Aにおける回転成分による移動量ARと、静止物の並進成分のみでのt1後の位置Bにおける回転成分による移動量BRと、の平均の回転移動量ABRを算出する。   Next, in step S15, the collision determination unit 25 determines the movement amount AR due to the rotation component at the current position A of the object and the movement amount BR due to the rotation component at the position B after t1 with only the translational component of the stationary object. The average rotational movement amount ABR is calculated.

図6は、平均回転移動量ABRと、この平均回転移動量ABRおよび並進成分Tとの合成移動量RTと、の関係の一例を示す説明図である。なお、図6には、t1=ta・3/2>taでありt1がtaより大きいため、t1=taとされる場合の例について示した。   FIG. 6 is an explanatory diagram showing an example of the relationship between the average rotational movement amount ABR and the combined movement amount RT of the average rotational movement amount ABR and the translation component T. FIG. 6 shows an example in which t1 = ta · 3/2> ta and t1 is larger than ta, and therefore t1 = ta.

まず、初期位置Aにおける1フレームでの回転移動量AR(ARx、ARy、ARz)は下記のようになる。
ARx = Az・Ry - Ay・Rz
ARy = Ax・Rz - Az・Rx
ARz = Ay・Rx - Ax・Ry
First, the rotational movement amount AR (ARx, ARy, ARz) in one frame at the initial position A is as follows.
ARx = Az ・ Ry-Ay ・ Rz
ARy = Ax ・ Rz-Az ・ Rx
ARz = Ay ・ Rx-Ax ・ Ry

また、静止物42の並進成分のみでのt1後の位置Bでの1フレームでの回転移動量BR(BRx、BRy、BRz)は下記のようになる。
BRx = Bz・Ry - By・Rz
BRy = Bx・Rz - Bz・Rx
BRz = By・Rx - Bx・Ry
Further, the rotational movement amount BR (BRx, BRy, BRz) in one frame at the position B after t1 with only the translational component of the stationary object 42 is as follows.
BRx = Bz ・ Ry-By ・ Rz
BRy = Bx ・ Rz-Bz ・ Rx
BRz = By ・ Rx-Bx ・ Ry

以上のように、物体位置が近くになるにつれ、回転成分での移動量や方向は変化する。本実施形態では、物体を検出した位置A(t=0)での回転成分での移動量ARと、t1時間後の並進成分のみの移動を仮定した場合の位置Bでの回転成分での移動量BRとの平均ABRを、1フレームでの回転成分での移動量としてあつかう。衝突までの時間は短いため、平均化した回転移動量ABRを用いても誤差はほとんどない。   As described above, as the object position becomes closer, the movement amount and direction of the rotation component change. In the present embodiment, the movement amount AR in the rotation component at the position A (t = 0) where the object is detected and the movement in the rotation component at the position B when assuming the movement of only the translation component after the time t1. The average ABR with the amount BR is treated as the amount of movement in the rotational component in one frame. Since the time until the collision is short, there is almost no error even if the averaged rotational movement amount ABR is used.

なお、本実施形態においてはARとBRの平均をABRとする場合の例について説明するが、ABRは、ARとBRの平均に限られず、状況により平均ではなくどちらかよりにしてもよい。その場合、実測して決定すればよい。たとえば、ARとBRを所定の割合で重み付けして合成したものをABRとしてもよいし、所定の割合で合成した後にさらに所定の条件で加工したものをABRとしてもよい。この所定の条件で加工したものをABRとする場合としては、たとえば、次に示すように、回転成分のみでは衝突面に対して遠ざかる方向になるという条件を満たす場合の処理における加工(衝突面への成分を0にした回転成分との平均値ABR2を求める加工)をしたもの(ABR2)をABRとする場合などが挙げられる。   In this embodiment, an example in which the average of AR and BR is ABR will be described. However, the ABR is not limited to the average of AR and BR, and may be any one instead of the average depending on the situation. In that case, it may be determined by actual measurement. For example, a combination of AR and BR weighted at a predetermined ratio may be used as ABR, or a combination of a predetermined ratio and then processed under a predetermined condition may be used as ABR. As a case where an ABR is processed under this predetermined condition, for example, as shown below, the processing in the case of satisfying the condition that only the rotational component is in a direction away from the collision surface (to the collision surface) (ABR2) obtained by processing the average value ABR2 with the rotation component with the component 0 set to 0 is used as the ABR.

回転成分での移動量の平均ABR(ABRx、ABRy、ABRz)は下記のようになる。
ABRx = (ARx + BRx) / 2
ABRy = (ARy + BRy) / 2
ABRz = (ARz + BRz) / 2
The average ABR (ABRx, ABRy, ABRz) of the movement amount in the rotation component is as follows.
ABRx = (ARx + BRx) / 2
ABRy = (ARy + BRy) / 2
ABRz = (ARz + BRz) / 2

なお、回転成分のみでは、衝突面に対して遠ざかる方向になることがある。遠ざかる方向となった場合は、通常、衝突面に対して平行方向は近づき、その分回転成分は小さくなる。このため、衝突面に対して逆側となった場合は、衝突面に対しての成分を0とした回転成分との平均を用いる。そうすることによって近い衝突位置、衝突時間になる。衝突時間は多少短くなることがあるので、警告したい時間taを少し短くして時間的に衝突するかを確認してもよい。   Note that only the rotational component may be in a direction away from the collision surface. When the direction is away, the parallel direction is usually closer to the collision surface, and the rotation component is reduced accordingly. For this reason, when it becomes a reverse side with respect to a collision surface, the average with the rotation component which set the component with respect to a collision surface to 0 is used. By doing so, it becomes a near collision position and collision time. Since the collision time may be slightly shortened, the time ta to be warned may be slightly shortened to check whether the collision occurs in time.

回転成分の平均移動量ABRの衝突面に対して垂直なベクトルN(Nx,Ny,Nz)は下記のようになる。
Nx = ABRx + Mx・t
Ny = ABRy + My・t
Nz = ABRz + Mz・t
A vector N (Nx, Ny, Nz) perpendicular to the collision surface of the average movement amount ABR of the rotation component is as follows.
Nx = ABRx + Mx ・ t
Ny = ABRy + My ・ t
Nz = ABRz + Mz ・ t

上記のベクトルが衝突面の向きで(0,0,0)を通る面と交差すればよいので、交差した時のtは下記の式より導き出される。
Mx・Nx + My・Ny + Mz・Nz = 0
Since the above vector only needs to intersect the plane passing through (0, 0, 0) in the direction of the collision surface, t at the time of intersection is derived from the following equation.
Mx ・ Nx + My ・ Ny + Mz ・ Nz = 0

導き出されたtをt2とすると、衝突面への成分を0にした回転成分との平均値ABR2(ABR2x、ABR2y、ABR2z)は下記のようになる。
ABR2x = ABRx + Mx・t2 / 2
ABR2y = ABRy + My・t2 / 2
ABR2z = ABRz + Mz・t2 / 2
Assuming that the derived t is t2, the average value ABR2 (ABR2x, ABR2y, ABR2z) with the rotation component with the component to the collision surface being zero is as follows.
ABR2x = ABRx + Mx ・ t2 / 2
ABR2y = ABRy + My ・ t2 / 2
ABR2z = ABRz + Mz ・ t2 / 2

したがって、回転成分のみでは衝突面に対して遠ざかる方向に移動する場合は、このABR2をABRとして計算すればよい。また、ABRとその衝突面への成分を0にした回転成分の平均としたが、状況により平均ではなくどちらかよりにしてもよい。その場合、実測して決定すればよい。また、衝突面の平行方向位置や垂直方向位置によってその割合を変更してもよい。   Accordingly, when the rotational component alone moves in a direction away from the collision surface, this ABR2 may be calculated as ABR. Moreover, although the average of the rotation component which set the component to ABR and its collision surface to 0 was made into an average, it may be made from either instead of an average depending on the situation. In that case, it may be determined by actual measurement. The ratio may be changed according to the parallel position or the vertical position of the collision surface.

そこで、ステップS16において、衝突判定部25は、回転成分のみでは衝突面に対して遠ざかる方向か否かを判定する。近づく方向である場合は、図5のステップS21に進む。一方、遠ざかる方向である場合は、衝突面への成分を0にした回転成分との平均ABR2を算出してから(ステップS17)、図5のステップS21に進む。   Therefore, in step S16, the collision determination unit 25 determines whether or not the rotation component alone is a direction away from the collision surface. If the direction is closer, the process proceeds to step S21 in FIG. On the other hand, if the direction is away, the average ABR2 with the rotation component with the component to the collision surface being zero is calculated (step S17), and the process proceeds to step S21 in FIG.

続いて、図5のステップS21において、衝突判定部25は、並進移動量と回転成分の平均移動量ABRとを合成した合成移動量RTを算出する。   Subsequently, in step S21 in FIG. 5, the collision determination unit 25 calculates a combined movement amount RT obtained by combining the translation movement amount and the average movement amount ABR of the rotation component.

1フレームでの並進成分での移動量と回転成分の平均移動量との合成移動量を並進成分で表すとき、この合成移動量RT(RTx、RTy、RTz)は下記のようになる。
RTx = Tx + ABRx
RTy = Ty + ABRy
RTz = Tz + ABRz
When the combined movement amount of the movement amount of the translation component and the average movement amount of the rotation component in one frame is represented by the translation component, this combined movement amount RT (RTx, RTy, RTz) is as follows.
RTx = Tx + ABRx
RTy = Ty + ABRy
RTz = Tz + ABRz

次に、ステップS22において、衝突判定部25は、合成移動量RTでの衝突時間t2を算出する。   Next, in step S22, the collision determination unit 25 calculates a collision time t2 with the combined movement amount RT.

物体の回転成分を考慮した位置ART(ARTx、ARTy、ARTz)は、下記のようになる(tは変数)。
ARTx = Ax + t・RTx
ARTy = Ay + t・RTy
ARTz = Az + t・RTz
The position ART (ARTx, ARTy, ARTz) in consideration of the rotation component of the object is as follows (t is a variable).
ARTx = Ax + t ・ RTx
ARTy = Ay + t ・ RTy
ARTz = Az + t ・ RTz

この位置ARTと衝突面との交点は、面の式にARTの位置を代入したときのtでの値になる。また、そのときのtはその面までの衝突の時間(フレーム数)である。そのときの時間をt2とすると、
Mx・(Ax + t2・RTx) + My・(Ay + t2・RTy) + Mz・(Az + t2・RTz) = 0
→t2 = (-Mx・Ax - My・Ay - Mz・Az) / (Mx・RTx + My・RTy + Mz・RTz)
The intersection between the position ART and the collision surface is a value at t when the position of the ART is substituted into the surface equation. Further, t at that time is a collision time (number of frames) to the surface. If the time at that time is t2,
Mx ・ (Ax + t2 ・ RTx) + My ・ (Ay + t2 ・ RTy) + Mz ・ (Az + t2 ・ RTz) = 0
→ t2 = (-Mx ・ Ax-My ・ Ay-Mz ・ Az) / (Mx ・ RTx + My ・ RTy + Mz ・ RTz)

となる。このとき、衝突までの時間(フレーム数)t2の極性がプラスで警告したい時間taより小さい場合、衝突候補とする。   It becomes. At this time, if the polarity of the time to collision (number of frames) t2 is positive and less than the time ta to be warned, it is determined as a collision candidate.

次に、ステップS23において、衝突判定部25は、合成移動量RTでの衝突位置Cを算出する。   Next, in step S23, the collision determination unit 25 calculates the collision position C at the combined movement amount RT.

合成移動量RTで移動した場合のt=t2における静止物42の位置C(Cx、Cy、Cz)は下記のようになる。
Cx = Ax + t2・RTx
Cy = Ay + t2・RTy
Cz = Az + t2・RTz
The position C (Cx, Cy, Cz) of the stationary object 42 at t = t2 when moving with the combined movement amount RT is as follows.
Cx = Ax + t2 ・ RTx
Cy = Ay + t2 ・ RTy
Cz = Az + t2 ・ RTz

次に、ステップS24において、衝突判定部25は、静止物42が自車の正面に衝突するか否かを判定する。具体的には、たとえば衝突判定部25は、ステップS22で算出した時間t2がta以下であることから衝突候補となった静止物42について、t=t2における位置Cが指定した範囲に収まっているか否かを判定する。衝突時間は多少短くなることがあるので、警告したい時間taを少し短くして時間的に衝突するかを確認してもよい。 Next, in step S24, the collision determination unit 25 determines whether the stationary object 42 collides with the front of the host vehicle. Specifically, for example, the collision determination unit 25 determines that the position C at t = t2 is within the specified range for the stationary object 42 that is a collision candidate because the time t2 calculated in step S22 is less than ta. Determine whether or not. Since the collision time may be slightly shortened, the time ta to be warned may be slightly shortened to check whether the collision occurs in time.

たとえば、例えばカメラからの高さをH、自車の正面の衝突面の左右の衝突範囲を±Wとすると、下記の条件が満たされた場合に衝突する。
-W <= Cx <= W
Cy >= -H
For example, assuming that the height from the camera is H and the collision range on the left and right of the collision surface in front of the host vehicle is ± W, the collision occurs when the following conditions are satisfied.
-W <= Cx <= W
Cy> = -H

衝突範囲は、収束点FOEの位置や、真上方向のずれによって変更してもよい。その場合、Cx、Cy、Czをその分原点を中心に回転計算させればよい。また、衝突範囲、形状を変更してもよい。   The collision range may be changed depending on the position of the convergence point FOE or the deviation in the upward direction. In that case, Cx, Cy, and Cz may be rotated and calculated around the origin. Further, the collision range and shape may be changed.

ステップS24において正面衝突すると判定すると、ステップS25において、衝突判定部25は、警報部26にその旨の情報を与える。そして、警報部26は、たとえば表示装置19に静止物42との正面衝突の危険性がある旨の情報を表示する。また、衝突までの時間t2や衝突位置の情報を表示してもよい。 If it is determined in step S24 that a frontal collision has occurred, the collision determination unit 25 gives information to that effect to the alarm unit 26 in step S25. Then, the alarm unit 26 displays, for example, information indicating that there is a risk of a frontal collision with the stationary object 42 on the display device 19. Further, information on the time t2 until the collision and the collision position may be displayed.

他方、ステップS24において正面衝突しないと判定すると、ステップS26において、衝突判定部25は、静止物42が自車の側面に衝突するか否かを判定する。 On the other hand, if it is determined in step S24 that no frontal collision occurs, in step S26, the collision determination unit 25 determines whether or not the stationary object 42 collides with the side surface of the host vehicle.

図7は、側面衝突を予測する様子の一例を示す説明図である。   FIG. 7 is an explanatory diagram illustrating an example of how a side collision is predicted.

正面方向は基本的には前進するので、並進成分が静止物42に向かわなかったら衝突しない。しかし、側面は並進成分で静止物42に向かわなくても、回転成分で衝突する可能性がある。このため、図7に示すように、正面方向での計算(正面の衝突面までの計算、図7左側参照)と側面での計算(正面の衝突面以降の計算、図7右側参照)を分離して計算する。なお、図7には、正面の衝突面をz=0とする場合の例について示した。 Since the front direction basically moves forward, there is no collision unless the translational component is directed to the stationary object 42 . However, even if the side surface is a translational component and does not go to the stationary object 42 , it may collide with a rotational component. Therefore, as shown in FIG. 7, the calculation in the front direction (calculation up to the front collision surface, see the left side of FIG. 7) and the calculation in the side (calculation after the front collision surface, see the right side of FIG. 7) are separated. And calculate. FIG. 7 shows an example in which the front collision surface is set to z = 0.

まず、正面の衝突面までの計算(正面方向での計算)は、ここまで説明した正面衝突を計算する方法と同様の方法を用い、合成移動量RTにもとづいて衝突位置C0(C0x、C0y、C0z)と衝突時間t0を測定する。このとき、正面の衝突面がカメラから離れすぎている場合、z=0を衝突面としてもよい。   First, the calculation up to the front collision surface (calculation in the front direction) uses the same method as the method of calculating the front collision described so far, and uses the collision position C0 (C0x, C0y, C0z) and the collision time t0 are measured. At this time, if the front collision surface is too far away from the camera, z = 0 may be used as the collision surface.

側面での警告したい時間tbは、正面での衝突時間t0より、
tb = ta-t0
The time tb that you want to warn on the side is the collision time t0 on the front,
tb = ta-t0

となる。正面での計算式と同様に、側面でのt1を計算する。t1がマイナスであった場合、警告したい時間と正面での時間よりtbにする。後は同様に計算を行う。   It becomes. Similar to the calculation formula at the front, t1 at the side is calculated. When t1 is negative, it is set to tb from the time to warn and the time in front. After that, the same calculation is performed.

たとえば、左側の衝突面の式は、Mupの割合分真上に対してx方向に傾いているとして正面の面方向より−90°y軸回転させて、下記のようになる。
-Mz・(x - Wl) + Mup・f・y + Mx・z = 0
For example, the equation of the left collision surface is as follows when the axis is rotated by −90 ° y-axis from the front surface direction, assuming that it is inclined in the x direction with respect to the Mup ratio.
-Mz ・ (x-Wl) + Mup ・ f ・ y + Mx ・ z = 0

ここで、Wlはカメラからのx方向位置(左にあるのでマイナスになる)を表す。   Here, Wl represents the position in the x direction from the camera (because it is on the left, it becomes negative).

また、同様に右側の衝突面の式は、Mupの割合分真上に対してx方向に傾いているとして正面の面の方向より90°y軸回転させて、下記のようになる。
Mz・(x - Wr) - Mup・f・y - Mx・z = 0
Similarly, the expression of the collision surface on the right side is as follows when rotated by 90 ° y-axis from the direction of the front surface assuming that it is inclined in the x direction with respect to the Mup ratio.
Mz ・ (x-Wr)-Mup ・ f ・ y-Mx ・ z = 0

ここで、Wrはカメラからのx方向位置(右にあるのでプラスになる)を表す。   Here, Wr represents the position in the x direction from the camera (it is positive because it is on the right).

以上のように側面を指定して、さらに衝突位置が自車の範囲になるか確認して、自車の範囲であれば側面衝突すると判定する。たとえば、側面の衝突位置がC(Cx、Cy、Cz)として、カメラからの高さをH、カメラから手前側の長さDまでを衝突範囲とすると、下記の条件が満たされた場合に側面衝突する。
Cy >= -H
-D <= Cz <= 0
As described above, the side surface is designated, and it is further confirmed whether the collision position is within the range of the own vehicle. For example, assuming that the collision position on the side surface is C (Cx, Cy, Cz), the height from the camera is H, and the distance from the camera to the front side D is the collision range, the side surface will satisfy the following conditions: collide.
Cy> = -H
-D <= Cz <= 0

衝突範囲は、収束点FOEの位置や、真上方向のずれによって変更してもよい。その場合Cx、Cy、Czをその分原点を中心に回転計算させればよい。また、衝突範囲、形状を変更してもよい。   The collision range may be changed depending on the position of the convergence point FOE or the deviation in the upward direction. In this case, Cx, Cy, and Cz may be rotated and calculated around the origin. Further, the collision range and shape may be changed.

本実施形態に係る衝突判定装置10は、自車の回転成分を考慮して衝突判定を行うことができる。このため、回転成分を無視する場合に比べ、非常に正確な衝突判定結果を得ることができるとともに、衝突時間を予測することができる。   The collision determination apparatus 10 according to the present embodiment can perform the collision determination in consideration of the rotation component of the own vehicle. For this reason, compared with the case of ignoring the rotation component, it is possible to obtain a very accurate collision determination result and to predict the collision time.

なお、衝突判定が点ではなく領域であった場合、領域の両端の点をn個選び(最低2点。たとえば水平線上の両端の2点。または左上、右上、左下、右下の4点など)、それぞれに対して衝突判定を行う。これらのいずれかが衝突するという判定であれば、一番衝突までの時間が短いものをこの領域の衝突判定結果とする。   If the collision determination is an area instead of a point, select n points at both ends of the area (minimum 2 points, for example, 2 points at both ends on the horizontal line, or 4 points at the upper left, upper right, lower left, lower right, etc. ), Collision judgment is performed for each. If it is determined that any of these collisions, the one with the shortest time until the collision is set as the collision determination result of this region.

また、どれも衝突しないと判定された場合、正面の面での衝突時間t2がどれも衝突を警告したい時間taより大きいのであれば衝突しないとする。一方、少なくとも一点の衝突時間t2が衝突を警告したい時間taより小さい場合は、taとt2で小さい方の位置E(Ex、Ey、Ez)とtaでの位置F(Fx、Fy、Fz)をそれぞれ計算しておく。領域上の各点に対してEとFを作成すると(EとFが同じ場合はどちらかを削除)、最小の場合は領域上の点数であるn個の点、最大の場合は領域上の点の2倍の数である2・n個の点が得られる。得られた点から2点を選び線分とし、その線分が衝突領域とする自車の領域に交差していないかを判定する。すべての2点の組み合わせで試し、どれかの線分が自車の領域に交差している場合衝突すると判定する。衝突時間は、すべての自車の領域に交差した線分の中から、線分を作り出す2点の正面での衝突時間t2の中で一番短いものとすればよい。
(実施例)
If it is determined that none of the collisions occur, it is assumed that no collision occurs if any of the collision times t2 on the front surface is greater than the time ta at which it is desired to warn of the collision. On the other hand, if at least one collision time t2 is shorter than the time ta at which a collision is to be warned, the smaller position E (Ex, Ey, Ez) at ta and t2 and position F (Fx, Fy, Fz) at ta Calculate each one. If E and F are created for each point on the area (if E and F are the same, one is deleted), the minimum is n points, which is the number of points on the area, and the maximum is on the area 2.n points, which is twice the number of points, are obtained. Two points are selected from the obtained points and set as a line segment, and it is determined whether the line segment intersects with the area of the vehicle that is the collision area. It tries with the combination of all the two points, and when any line segment crosses the area of the own vehicle, it determines with it colliding. The collision time may be the shortest of the collision times t2 in front of the two points that create the line segment from among the line segments intersecting all the areas of the host vehicle.
(Example)

本実施形態に係る衝突予測計算の正しさを検証するためにシミュレーションを行った結果を以下に示す。   The result of performing a simulation to verify the correctness of the collision prediction calculation according to the present embodiment is shown below.

図8は、初期位置での回転成分のみの移動では衝突面に対して向かう方向に移動する場合における正しい軌道と近似計算軌道との関係の一例を示す説明図である。また、図9は、初期位置での回転成分のみの移動では衝突面に対して離れる方向に移動する場合における正しい軌道と近似計算軌道との関係の一例を示す説明図である。なお、図8および図9は真上視点における軌道比較結果の一例であり、図中のマーカは1フレームごとの位置を表す。   FIG. 8 is an explanatory diagram showing an example of the relationship between the correct trajectory and the approximate calculation trajectory when moving in the direction toward the collision surface when only the rotational component is moved at the initial position. FIG. 9 is an explanatory diagram showing an example of the relationship between the correct trajectory and the approximate calculation trajectory when moving in the direction away from the collision plane when only the rotational component is moved at the initial position. 8 and 9 are examples of trajectory comparison results from the viewpoint directly above, and the markers in the drawings represent positions for each frame.

まず、計算を単純化するために、路面をy=0の面、衝突面をz=0とし、自車の並進成分はTzのみ、回転成分はRyのみとする。また、物体の奥行きzを0.3に固定し、衝突まで警告したい時間taを15フレームとする。   First, in order to simplify the calculation, the road surface is y = 0, the collision surface is z = 0, the translation component of the vehicle is only Tz, and the rotation component is only Ry. In addition, the depth z of the object is fixed to 0.3, and the time ta to warn until the collision is 15 frames.

衝突までの時間が長いほど計算結果に誤差が含まれる。このため、計算誤差があらわになるよう、並進成分Tzは−0.02(/フレーム)とする。   The longer the time until the collision, the more error is included in the calculation results. For this reason, the translation component Tz is set to −0.02 (/ frame) so that a calculation error appears.

また、本実施形態に係る衝突予測計算のうち回転成分を考慮した部分の効果を見るため、回転成分が車両の挙動上許される最大付近となるように、一番舵角をもった状態をTzの3倍とする。このとき、回転成分はRy=−0.06となる。なお、車両の挙動上、並進成分を伴わない回転成分の移動は起こらない。   Further, in order to see the effect of the portion in consideration of the rotation component in the collision prediction calculation according to the present embodiment, the state having the most rudder angle is set to Tz so that the rotation component is near the maximum allowed in the behavior of the vehicle. 3 times. At this time, the rotation component is Ry = −0.06. In addition, the movement of the rotation component which does not accompany a translational component does not occur on the behavior of the vehicle.

nフレーム後の位置をX(n)、Z(n)とすると、正しい軌道の計算式は下記のようになる。
X(n) = X(n-1) - Z(n-1)・Ry
Z(n) = Z(n-1) + Tz + X(n-1)・Ry
Assuming that the position after n frames is X (n) and Z (n), the calculation formula of the correct trajectory is as follows.
X (n) = X (n-1)-Z (n-1) ・ Ry
Z (n) = Z (n-1) + Tz + X (n-1) ・ Ry

一方、近似計算の軌道の計算式は下記のようになる。
X(n) = X(n-1) +(- z・Ry+0)/2
Z(n) = Z(n-1) + Tz + (x・Ry+ x・Ry)/α
以上の条件により、xをずらして検証する。
On the other hand, the calculation formula for the approximate calculation trajectory is as follows.
X (n) = X (n-1) + (-z ・ Ry + 0) / 2
Z (n) = Z (n-1) + Tz + (x ・ Ry + x ・ Ry) / α
Based on the above conditions, verification is performed by shifting x.

変数αは、軌道比較結果から、回転成分が向かう方向では約2.0とするとよいことがわかった。図8には、α=2の場合の例について示した。一方、変数αは、軌道比較結果から、回転成分が向かう方向では約4.0とするとよいことがわかった。図9には、α=4の場合の例について示した。   From the results of the trajectory comparison, it was found that the variable α should be about 2.0 in the direction in which the rotation component is directed. FIG. 8 shows an example in which α = 2. On the other hand, it was found from the result of the trajectory comparison that the variable α should be about 4.0 in the direction in which the rotation component is directed. FIG. 9 shows an example in which α = 4.

図8および図9から明らかなように、αを適切に選ぶことにより、近似計算での軌道と正しい軌道とで衝突位置、衝突時間がほぼ同じ状態にすることができることがわかる。   As is apparent from FIGS. 8 and 9, it is understood that the collision position and the collision time can be made substantially the same between the trajectory in the approximate calculation and the correct trajectory by appropriately selecting α.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

また、本発明の実施形態では、フローチャートの各ステップは、記載された順序に沿って時系列的に行われる処理の例を示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行される処理をも含むものである。   Further, in the embodiment of the present invention, each step of the flowchart shows an example of processing that is performed in time series in the order described. The process to be executed is also included.

10 衝突判定装置
11 カメラ
12 主制御部
21 平面画像生成部
22 動きベクトル検出部
23 自車移動算出部
24 静止ベクトル検出部
25 衝突判定部
26 警報部
DESCRIPTION OF SYMBOLS 10 Collision determination apparatus 11 Camera 12 Main control part 21 Plane image generation part 22 Motion vector detection part 23 Own vehicle movement calculation part 24 Still vector detection part 25 Collision determination part 26 Alarm part

Claims (7)

車両に設けられたカメラが前記車両の周囲を撮像するステップと、
前記カメラにより撮像された画像に含まれる対象物の動きベクトルを検出するステップと、
前記動きベクトルにもとづいて自車の並進成分および回転成分を求めるステップと、
前記並進成分による移動量と、現在の対象物の位置における前記回転成分による移動量および現在から所定の時間後の前記並進成分のみの移動を仮定した場合の対象物の位置における前記回転成分による移動量を所定の割合で合成した移動量と、を合成した合成移動量を求めるステップと、
前記合成移動量にもとづいて前記所定の時間内に前記車両と前記対象物とが衝突するか否かを判定するステップと、
を有する衝突判定方法。
A camera provided in the vehicle images the surroundings of the vehicle;
Detecting a motion vector of an object included in an image captured by the camera;
Obtaining a translation component and a rotation component of the vehicle based on the motion vector ;
The amount of movement due to the translation component, the amount of movement due to the rotation component at the current position of the object, and the movement due to the rotation component at the position of the object assuming a movement of only the translation component after a predetermined time from the present time. a step of determining movement and that forms if the amount at a predetermined ratio, the synthesized synthesis amount of movement,
Determining whether the vehicle and the object collide within the predetermined time based on the combined movement amount; and
A collision determination method.
前記並進成分のみの移動を仮定した場合に前記車両と前記対象物とが衝突するまでの仮衝突時間を求めるステップと、
前記仮衝突時間があらかじめ定められた警告時間よりも小さいと、前記仮衝突時間を前記所定の時間として設定し、前記仮衝突時間が前記警告時間以上であると、前記警告時間を前記所定の時間として設定するステップと、
をさらに有する請求項1記載の衝突判定方法。
Obtaining a temporary collision time until the vehicle and the object collide when assuming the movement of only the translational component;
When the temporary collision time is smaller than a predetermined warning time, the temporary collision time is set as the predetermined time, and when the temporary collision time is equal to or longer than the warning time, the warning time is set to the predetermined time. Step to set as
The collision determination method according to claim 1, further comprising:
前記合成移動量にもとづいて前記車両と前記対象物とが衝突するか否かを判定するステップは、
前記合成移動量にもとづいて前記車両の正面と前記対象物とが衝突するか否かを判定するステップと、
前記車両の正面と前記対象物とが衝突しないと判定されると、前記車両の側面と前記対象物とが衝突するか否かを判定するステップと、
を有する、
請求項1または2に記載の衝突判定方法。
The step of determining whether or not the vehicle and the object collide based on the combined movement amount,
Determining whether the front of the vehicle and the object collide based on the combined movement amount; and
When it is determined that the front surface of the vehicle and the object do not collide, the step of determining whether or not the side surface of the vehicle and the object collide,
Having
The collision determination method according to claim 1 or 2.
前記合成移動量にもとづいて前記車両と前記対象物との衝突時刻を予測するステップ、
をさらに有する請求項1ないし3のいずれか1項に記載の衝突判定方法。
Predicting a collision time between the vehicle and the object based on the combined movement amount;
The collision determination method according to any one of claims 1 to 3, further comprising:
前記合成移動量にもとづいて前記所定の時間内に前記車両と前記対象物とが衝突するか否かを判定するステップは、
前記対象物の端点を複数選択し、これらの端点のそれぞれについて前記合成移動量にもとづいて前記所定の時間内に前記車両と衝突するか否かを判定するステップである、
請求項1ないし4のいずれか1項に記載の衝突判定方法。
The step of determining whether or not the vehicle and the object collide within the predetermined time based on the combined movement amount,
A step of selecting a plurality of end points of the object and determining whether or not each of these end points collides with the vehicle within the predetermined time based on the combined movement amount;
The collision determination method according to any one of claims 1 to 4.
前記所定の時間内に前記車両と前記対象物とが衝突すると判定されると、前記車両の運転者に対して、前記車両のスピーカを介した音声出力およびブザー出力ならびに前記車両の運転者が視認可能な位置に設けられた表示装置に対する警告表示の少なくとも1つにより危険を報知するステップ、
をさらに有する請求項1ないし5のいずれか1項に記載の衝突判定方法。
When it is determined that the vehicle and the object collide within the predetermined time, the driver of the vehicle visually recognizes the sound output and buzzer output through the speaker of the vehicle and the driver of the vehicle. Informing the danger by at least one of warning indications for a display device provided at a possible position;
The collision determination method according to any one of claims 1 to 5, further comprising:
コンピュータに、
車両に設けられたカメラが撮像した前記車両の周囲の画像を取得するステップと、
前記カメラにより撮像された画像に含まれる対象物の動きベクトルを検出するステップと、
前記動きベクトルにもとづいて自車の並進成分および回転成分を求めるステップと、
前記並進成分による移動量と、現在の対象物の位置における前記回転成分による移動量および現在から所定の時間後の前記並進成分のみの移動を仮定した場合の対象物の位置における前記回転成分による移動量を所定の割合で合成した移動量と、を合成した合成移動量を求めるステップと、
前記合成移動量にもとづいて前記所定の時間内に前記車両と前記対象物とが衝突するか否かを判定するステップと、
を実行させるための衝突判定プログラム。
On the computer,
Obtaining an image around the vehicle imaged by a camera provided in the vehicle;
Detecting a motion vector of an object included in an image captured by the camera;
Obtaining a translation component and a rotation component of the vehicle based on the motion vector ;
The amount of movement due to the translation component, the amount of movement due to the rotation component at the current position of the object, and the movement due to the rotation component at the position of the object assuming a movement of only the translation component after a predetermined time from the present time. a step of determining movement and that forms if the amount at a predetermined ratio, the synthesized synthesis amount of movement,
Determining whether the vehicle and the object collide within the predetermined time based on the combined movement amount; and
Collision determination program for executing
JP2011236395A 2011-10-27 2011-10-27 Collision judgment method and collision judgment program Expired - Fee Related JP5894413B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011236395A JP5894413B2 (en) 2011-10-27 2011-10-27 Collision judgment method and collision judgment program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011236395A JP5894413B2 (en) 2011-10-27 2011-10-27 Collision judgment method and collision judgment program

Publications (2)

Publication Number Publication Date
JP2013097391A JP2013097391A (en) 2013-05-20
JP5894413B2 true JP5894413B2 (en) 2016-03-30

Family

ID=48619316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011236395A Expired - Fee Related JP5894413B2 (en) 2011-10-27 2011-10-27 Collision judgment method and collision judgment program

Country Status (1)

Country Link
JP (1) JP5894413B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2882136B2 (en) * 1991-11-25 1999-04-12 日本電気株式会社 Video analysis method
US5559695A (en) * 1994-12-27 1996-09-24 Hughes Aircraft Company Apparatus and method for self-calibrating visual time-to-contact sensor
JPH11353565A (en) * 1998-06-09 1999-12-24 Yazaki Corp Method and device for alarm of collision for vehicle
US7113867B1 (en) * 2000-11-26 2006-09-26 Mobileye Technologies Limited System and method for detecting obstacles to vehicle motion and determining time to contact therewith using sequences of images
JP3867505B2 (en) * 2001-03-19 2007-01-10 日産自動車株式会社 Obstacle detection device
JP2008203992A (en) * 2007-02-16 2008-09-04 Omron Corp Detection device, method, and program thereof
US7659967B2 (en) * 2007-03-05 2010-02-09 Geoffrey Louis Barrows Translational optical flow sensor
JP4982353B2 (en) * 2007-12-27 2012-07-25 日立オートモティブシステムズ株式会社 External recognition device
JP5267330B2 (en) * 2009-05-27 2013-08-21 コニカミノルタ株式会社 Image processing apparatus and method

Also Published As

Publication number Publication date
JP2013097391A (en) 2013-05-20

Similar Documents

Publication Publication Date Title
JP6303090B2 (en) Image processing apparatus and image processing program
JP6473571B2 (en) TTC measuring device and TTC measuring program
EP2665037B1 (en) Onboard camera automatic calibration apparatus
JP4809019B2 (en) Obstacle detection device for vehicle
JP5503728B2 (en) Vehicle periphery monitoring device
US20110298988A1 (en) Moving object detection apparatus and moving object detection method
JP6720510B2 (en) Mobile system
JP5187292B2 (en) Vehicle periphery monitoring device
JP6253467B2 (en) Image processing apparatus and image processing program
JP2007263657A (en) Three-dimensional coordinates acquisition system
JP4622544B2 (en) Vehicle driving support device
US20170028917A1 (en) Driving assistance device and driving assistance method
JP2017220760A (en) Image processing apparatus for vehicle
JP5418661B2 (en) Vehicle periphery monitoring device
JP2012222776A (en) Image processing apparatus, image processing method, and driving support system
US20200353866A1 (en) Parking Support Device
JP6080735B2 (en) Driving assistance device
US8983196B2 (en) Vehicle periphery monitoring apparatus
JP5894413B2 (en) Collision judgment method and collision judgment program
JP2015158749A (en) Image processor, mobile body, robot, device control method and program
JP2005182305A (en) Vehicle travel support device
JP4817854B2 (en) Peripheral object tracking device and peripheral object position prediction method
JP5245471B2 (en) Imaging apparatus, and image processing apparatus and method
JP5731801B2 (en) Image processing apparatus for vehicle and image processing method for vehicle
JP5833887B2 (en) Own vehicle movement estimation method and own vehicle movement estimation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160226

R150 Certificate of patent or registration of utility model

Ref document number: 5894413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees