JP5894413B2 - Collision judgment method and collision judgment program - Google Patents
Collision judgment method and collision judgment program Download PDFInfo
- Publication number
- JP5894413B2 JP5894413B2 JP2011236395A JP2011236395A JP5894413B2 JP 5894413 B2 JP5894413 B2 JP 5894413B2 JP 2011236395 A JP2011236395 A JP 2011236395A JP 2011236395 A JP2011236395 A JP 2011236395A JP 5894413 B2 JP5894413 B2 JP 5894413B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- collision
- movement
- time
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000013519 translation Methods 0.000 claims description 26
- 230000015572 biosynthetic process Effects 0.000 claims 2
- 238000003786 synthesis reaction Methods 0.000 claims 2
- 238000004364 calculation method Methods 0.000 description 29
- 238000001514 detection method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 101150057659 Mlac1 gene Proteins 0.000 description 5
- 101100000406 Neosartorya fumigata (strain ATCC MYA-4609 / Af293 / CBS 101355 / FGSC A1100) abr2 gene Proteins 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Description
本発明の実施形態は、衝突判定方法および衝突判定プログラムに関する。 Embodiments described herein relate generally to a collision determination method and a collision determination program.
最近、自動車などの車両の運転を支援するための技術として、車両と対象物との衝突可能性を判定する技術の開発が望まれている。この種の技術には、たとえば、車両に搭載されたカメラにより撮像された画像にもとづいて車両と対象物との衝突可能性を判定する技術などがある。車両に搭載されたカメラにより撮像された画像を用いる場合、レーダを用いる場合に比べてデジタル化された画像データを利用することができることから、自車がカーブを走行中であっても対象物の接近角度などの複雑な判断が可能であり、対象物の接近を容易に検出することができる。 Recently, as a technique for supporting driving of a vehicle such as an automobile, development of a technique for determining the possibility of collision between the vehicle and an object is desired. As this type of technology, for example, there is a technology for determining the possibility of collision between a vehicle and an object based on an image captured by a camera mounted on the vehicle. When using an image captured by a camera mounted on a vehicle, it is possible to use digitized image data as compared with the case of using a radar. Complex judgments such as the approach angle can be made, and the approach of the object can be easily detected.
しかし、自車が回転成分を持つ場合、自車と対象物とは、自車の並進成分で近づきつつ、回転成分で近づく場合もあれば遠ざかる場合もある。このため、自車と対象物との位置関係の時間変化を予測することは難しい。 However, when the own vehicle has a rotation component, the own vehicle and the object may approach each other by the rotation component while moving closer to the translation component of the own vehicle, or may move away from the object. For this reason, it is difficult to predict a temporal change in the positional relationship between the vehicle and the object.
したがって、自車が回転成分を持って移動している場合、車両に搭載されたカメラにより撮像された画像を用いても、対象物の接近を検出することはできるものの、衝突するか否かの判定や衝突までの時間を求めることは難しい。 Therefore, when the vehicle is moving with a rotation component, the approach of the object can be detected using the image captured by the camera mounted on the vehicle, but whether or not it collides. It is difficult to determine the time until judgment and collision.
本発明の一実施形態に係る衝突判定方法は、上述した課題を解決するために、車両に設けられたカメラが車両の周囲を撮像するステップと、カメラにより撮像された画像に含まれる対象物の動きベクトルを検出するステップと、動きベクトルにもとづいて自車の並進成分および回転成分を求めるステップと、並進成分による移動量と、現在の対象物の位置における回転成分による移動量および現在から所定の時間後の並進成分のみの移動を仮定した場合の対象物の位置における回転成分による移動量を所定の割合で合成した移動量と、を合成した合成移動量を求めるステップと、合成移動量にもとづいて所定の時間内に車両と対象物とが衝突するか否かを判定するステップと、を有する方法である。 In order to solve the above-described problem, a collision determination method according to an embodiment of the present invention includes a step in which a camera provided in a vehicle images the surroundings of the vehicle, and an object included in an image captured by the camera. A step of detecting a motion vector, a step of determining a translation component and a rotation component of the vehicle based on the motion vector, a movement amount by the translation component, a movement amount by the rotation component at the position of the current object, and a predetermined amount from the current movement and that forms if the amount of movement by the rotation component in the position of an object at a predetermined rate assuming a movement of only the translation component after hours, determining a synthesized composite moving amount of the synthetic movement amount And determining whether or not the vehicle and the object collide within a predetermined time based on the method.
本発明に係る衝突判定方法および衝突判定プログラムの実施の形態について、添付図面を参照して説明する。 Embodiments of a collision determination method and a collision determination program according to the present invention will be described with reference to the accompanying drawings.
図1は、本発明の一実施形態に係る衝突判定方法を実施するための衝突判定装置10の一例を示すブロック図である。
FIG. 1 is a block diagram illustrating an example of a
衝突判定装置10は、カメラ11、主制御部12、車両情報取得部13、灯火装置16、クラクション17、スピーカ18および表示装置19を有する。
The
カメラ11は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成され、自家用自動車等の車両の周囲の映像を取り込んで画像データを生成して主制御部12に与える。
The camera 11 is composed of a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The camera 11 captures a video around a vehicle such as a private car and generates image data to be supplied to the
たとえば後方を監視する場合、カメラ11は車両後部のナンバープレート付近に路面と平行な線からやや下向きに配設される。カメラ11には、より広範な車両外画像が取得可能なように広角レンズや魚眼レンズが取り付けられてもよい。また、車両の側方を監視する場合、カメラ11はサイドミラー付近に配設される。また、複数のカメラ11を用いることにより広範な車外周囲画像を取り込むようにしてもよい。 For example, when monitoring the rear, the camera 11 is disposed slightly downward from a line parallel to the road surface in the vicinity of the license plate at the rear of the vehicle. A wide-angle lens or a fisheye lens may be attached to the camera 11 so that a wider range of outside-vehicle images can be acquired. When monitoring the side of the vehicle, the camera 11 is disposed near the side mirror. In addition, a wide range of vehicle surrounding images may be captured by using a plurality of cameras 11.
主制御部12は、たとえばCPU、RAM、ROMを備えたマイクロコントローラにより構成される。主制御部12のCPUは、ROMなどの記憶媒体に記憶された衝突判定プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って自車の回転成分を考慮して衝突判定を行う処理を実行する。主制御部12のRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。主制御部12のROMなどの記憶媒体は、衝突判定プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。
The
なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は図示しないネットワーク接続部を介して電子ネットワークを介してダウンロードされるように構成してもよい。 A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Or you may comprise so that all may be downloaded via an electronic network via the network connection part which is not shown in figure.
なお、この場合、ネットワーク接続部は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装し、この各種プロトコルに従って主制御部12と他の車両のECUなどの電気機器とを電子ネットワークを介して接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、無線/有線LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。
In this case, the network connection unit implements various information communication protocols according to the network form, and the
車両情報取得部13は、少なくとも自車の現在の加速度の情報を取得し、主制御部12に出力する。車両情報取得部13は、たとえば加速度センサにより構成してもよいし、CAN(Controller Area Network)において一般的に用いられる車両情報取得機能を有するものであってもよい。本実施形態において、車両情報取得部13は、自車の移動パラメータを利用するために用いられるものである。このため、主制御部12がカメラ11の撮影した画像にもとづいて自車の移動パラメータを算出可能である場合、この車両情報取得13は設けられずともよい。
The vehicle
灯火装置16は、一般的なヘッドライトにより構成され、主制御部12により制御されて点滅(いわゆるパッシング)を行うことにより、たとえば自車両の外部に対して警告を行う。
The
クラクション17は、主制御部12により制御されて自車両の外部に対して警告音を出力する。
The
スピーカ18は、自車両の車内に設けられ、主制御部12により制御されて自車両の運転者に対してビープ音や危険が迫っていることを知らせるための情報などの各種情報に対応した音声を出力する。
The
表示装置19は、運転者が視認可能な位置に設けられ、車載用の一般的なディスプレイやカーナビゲーションシステム、HUD(ヘッドアップディスプレイ)などの表示出力装置を用いることができ、主制御部12の制御に従って、カメラ11の撮像画像や危険が迫っていることを知らせるための情報などの各種情報を表示する。
The
続いて、主制御部12のCPUによる機能実現部の構成について説明する。
Next, the configuration of the function realization unit by the CPU of the
図1に示すように、主制御部12のCPUは、衝突判定プログラムによって、少なくとも平面画像生成部21、動きベクトル検出部22、自車移動算出部23、静止ベクトル検出部24、衝突判定部25および警報部26として機能する。この各部21−26は、RAMの所要のワークエリアを、データの一時的な格納場所として利用する。なお、これらの機能実現部は、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。
As shown in FIG. 1, the CPU of the
平面画像生成部21は、カメラ11により撮像された画像にもとづいて平面画像を生成する。たとえばカメラ11に魚眼レンズが取り付けられている場合は、平面画像生成部21は、カメラ11により撮像された魚眼画像を通常の2次元画像に正規化するとともに、この正規化画像にもとづいて、あらかじめ定められた視点の平面画像を生成する。
The planar
動きベクトル検出部22は、ブロックマッチング法や勾配法などを用いて、平面画像生成部21により生成された複数の平面画像から画素ごとに動きベクトルを検出する。
The motion
自車移動算出部23は、動きベクトル検出部22より検出された動きベクトルにもとづいて自車の移動パラメータ(自車の並進成分Tおよび回転成分R)を求める。なお、衝突判定装置10が車両情報取得部13を備える場合は、自車移動算出部23は、車両情報取得部13から自車の移動パラメータを取得してもよい。また、自車移動算出部23は、自車の移動パラメータから自車の移動ベクトルを算出する。
The own vehicle
静止ベクトル検出部24は、対象物の動きベクトルと自車の移動ベクトルの角度を比較し、角度の差が所定の角度差以下となり、また、動きベクトルの大きさの方が大きい対象物を静止物であるとして検出する。
Stationary
衝突判定部25は、並進成分による移動量と、現在の対象物の位置における回転成分による移動量および現在から所定の時間後の並進成分のみの移動を仮定した場合の対象物の位置における回転成分による移動量を平均した移動量と、を合成した合成移動量を求める。そして、衝突判定部25は、この合成移動量にもとづいて、自車と対象物とが衝突するまでの時間(以下、衝突時間という)を予測して、所定の時間内に自車と対象物とが衝突するか否かを判定する。
The
警報部26は、衝突判定部25により所定の時間内に自車と対象物とが衝突すると判定されると、灯火装置16の点滅(パッシング)およびクラクション17を介した警告音出力の少なくとも一方により、車外の人間に危険を報知することができる。また、警報部26は、衝突判定部25より所定の時間内に自車と対象物とが衝突すると判定されると、自車両の運転者に対して、スピーカ18を介してビープ音や衝突の危険を知らせる音声を出力することができる。また、警報部26は、表示装置19に対して衝突の危険がある旨の情報(警告)を表示することができる。なお、警報部26は、自車両の運転者に対する危険報知として、ビープ音出力、音声出力および警告表示の少なくとも1つを行い、全てを同時に行ってもよい。また、車外の人間に対する危険報知および自車両の運転者に対する危険報知の両方を同時に行ってもよいし、いずれか一方のみを行ってもよい。
When the
次に、本実施形態に係る衝突判定装置10の動作の一例について説明する。
Next, an example of operation | movement of the
図2は、図1に示す主制御部12のCPUにより自車の回転成分を考慮して衝突判定を行う際の手順を示すフローチャートである。図2において、Sに数字を付した符号は、フローチャートの各ステップを示す。
FIG. 2 is a flowchart illustrating a procedure when the CPU of the
まず、ステップS1において、平面画像生成部21は、カメラ11により撮像された画像にもとづいて平面画像を生成する。
First, in step S <b> 1, the planar
次に、ステップS2において、動きベクトル検出部22は、ブロックマッチング法や勾配法などを用いて、平面画像生成部21により生成された複数の平面画像から画素ごとに動きベクトルを検出する。
Next, in step S <b> 2, the motion
次に、ステップS3において、自車移動算出部23は、動きベクトル検出部22より検出された動きベクトル、もしくは、車両情報取得部13からの情報にもとづいて自車の移動パラメータを求め、この自車の移動パラメータにもとづいて自車の移動ベクトルを算出する。
Next, in
ここで、自車移動算出部23による自車移動パラメータにもとづく自車移動ベクトルの算出方法について説明する。
Here, the calculation method of the own vehicle movement vector based on the own vehicle movement parameter by the own vehicle
図3は、座標系と回転方向の関係の一例を示す説明図である。以下の説明では、図3に示すように、進行方向をz軸、路面法線方向をy軸、進行方向および路面法線方向に互いに直交する方向をx軸とする座標系を用いる場合の例について示す。また、図3においては、x軸、y軸、z軸周りの回転をそれぞれRx、Ry、Rzとして示した。 FIG. 3 is an explanatory diagram illustrating an example of the relationship between the coordinate system and the rotation direction. In the following description, as shown in FIG. 3, an example of using a coordinate system in which the traveling direction is the z axis, the road surface normal direction is the y axis, and the direction orthogonal to the traveling direction and the road surface normal direction is the x axis. Show about. In FIG. 3, the rotations about the x-axis, y-axis, and z-axis are shown as Rx, Ry, and Rz, respectively.
図3に示すように、カメラ11により撮像された画像は、平面画像生成部21により、理想的にはy=fで表されるカメラ投影面31に展開されることになる。ここで、fはカメラ11の焦点距離であるものとする。
As shown in FIG. 3, the image captured by the camera 11 is developed on the
自車移動での画面の回転方向および並進方向をそれぞれR(Rx、Ry、Rz)およびT(Tx、Ty、Tz)とする。このとき、自車移動の回転方向と並進方向は(−Rx、−Ry、−Rz)および(−Tx, −Ty, −Tz)となる。 The rotation direction and translation direction of the screen when the vehicle is moving are assumed to be R (Rx, Ry, Rz) and T (Tx, Ty, Tz), respectively. At this time, the rotation direction and translation direction of the own vehicle movement are (−Rx, −Ry, −Rz) and (−Tx, −Ty, −Tz).
カメラ投影面31上の画像の位置を(x、y、f)すると、公知の式により、自車移動ベクトル(x、y、cu、cv)=(x座標位置、y座標位置、x方向ベクトル、y方向ベクトル)は、自車移動パラメータから次のように求めることができる。
wu = -(x・y / f)・Rx + ((f・f + x・x) / f)・Ry - y・Rz
wv = -((f・f + y・y) / f)・Rx + (x・y / f )・Ry + x・Rz
tu = (f・Tx - x・Tz) / z
tv = (f・Ty - y・Tz) / z
cu = tu + wu
cv = tv + wv
When the position of the image on the
wu =-(x ・ y / f) ・ Rx + ((f ・ f + x ・ x) / f) ・ Ry-y ・ Rz
wv =-((f ・ f + y ・ y) / f) ・ Rx + (x ・ y / f) ・ Ry + x ・ Rz
tu = (f ・ Tx-x ・ Tz) / z
tv = (f ・ Ty-y ・ Tz) / z
cu = tu + wu
cv = tv + wv
wuは自車移動ベクトルの回転成分のx方向、wvは自車移動ベクトルの回転成分のy方向、tuは自車移動ベクトルの並進成分のx方向、tvは自車移動ベクトルの並進成分のy方向をそれぞれ表す。zは画面方向の奥行きであるが、ある遠い距離(例えば10m)を1として、それより必ず近い位置となる路面のみ、1より小さい値に奥行きを変えて設定すればよい。その設定した距離に比例して自車移動パラメータの並進成分(Tx、Ty、Tz)の大きさが変わることになる。 wu is the x direction of the rotation component of the own vehicle movement vector, wv is the y direction of the rotation component of the own vehicle movement vector, tu is the x direction of the translation component of the own vehicle movement vector, tv is y of the translation component of the own vehicle movement vector Represent each direction. z is the depth in the screen direction. A certain distance (for example, 10 m) may be set to 1, and only the road surface that is necessarily closer than that may be set to a value smaller than 1. The magnitude of the translation component (Tx, Ty, Tz) of the own vehicle movement parameter changes in proportion to the set distance.
次に、ステップS4において、静止ベクトル検出部24は、動きベクトル検出部22により検出された動きベクトルと自車の移動ベクトルの角度を比較し、この角度の差が所定の角度差以下となり、また、動きベクトルの大きさの方が大きい対象物を静止物であるとして検出する。たとえば、動きベクトル検出部22により検出された動きベクトルを(x、y、pu、pv)=(x座標位置、y座標位置、x方向ベクトル、y方向ベクトル)とすると、(pu − wu、pv − wv)と(tu、tv)との角度の差が所定の角度差以下であり、また、(pu − wu、pv − wv)の大きさが(tu、tv)の大きさより所定の割合以上大きいと、静止ベクトル検出部24は、この動きベクトルを静止物のベクトルであると判定する。
Next, in step S4, the static
次に、ステップS5において、衝突判定部25は、自車と対象物とが衝突するまでの時間(以下、衝突時間という)を予測して、所定の時間内に自車と対象物とが衝突するか否かを判定する処理を行う。
Next, in step S5, the
以上の手順により、自車の回転成分を考慮して衝突判定を行うことができる。 According to the above procedure, the collision determination can be performed in consideration of the rotation component of the own vehicle.
図4および図5は、図3のステップS5で衝突判定部25により実行される衝突判定・衝突時間予測処理の手順を示すサブルーチンフローチャートである。図4には手順の前半部を、図5には手順の後半部を、それぞれ示した。
4 and 5 are subroutine flowcharts showing the procedure of the collision determination / collision time prediction process executed by the
ステップS11において、衝突判定部25は、衝突面の向きを特定する。
In step S11, the
以下、より具体的に説明する。衝突面の向きをM(Mx、My、Mz)とする。衝突面は基本的には路面に対して垂直になっているため、向きMは収束点FOE(FOEx、FOEy)を用いて次のように書ける。
Mx = FOEx
My = FOEy
Mz = f
More specific description will be given below. The direction of the collision surface is M (Mx, My, Mz). Since the collision surface is basically perpendicular to the road surface, the direction M can be written as follows using the convergence point FOE (FOEx, FOEy).
Mx = FOEx
My = FOEy
Mz = f
衝突面の向きMを用い、衝突面の式は下記のようになる。
Mx・x + My・y + Mz・z = 0
Using the direction M of the collision surface, the equation for the collision surface is as follows.
Mx ・ x + My ・ y + Mz ・ z = 0
次に、ステップS12において、衝突判定部25は、静止物の位置を特定する。
Next, in step S12, the
以下、より具体的に説明する。まず、静止物ベクトルを用いて静止物のzを計算する。
pu - wu = tu
pv - wv = tv
More specific description will be given below. First, z of a stationary object is calculated using a stationary object vector.
pu-wu = tu
pv-wv = tv
のzを変数としてzを算出するが、zは2つ導かれるが、pu−wuとpv−wvで大きさが大きいほう、もしくはzを1としたときのtuとtvで大きさが大きいほう、もしくは平均を用いるとよい。 Z is calculated with z as a variable, but two z are derived. The larger one is in pu-wu and pv-wv, or the larger one is in tu and tv when z is 1. Or average.
得られたzと得られた動きベクトルの位置(x、y、f)より、静止物の位置A(Ax、Ay、Az)は下記のようになる。
Ax = z・x / f
Ay = z・y / f
Az = z
From the obtained z and the position (x, y, f) of the obtained motion vector, the position A (Ax, Ay, Az) of the stationary object is as follows.
Ax = z ・ x / f
Ay = z ・ y / f
Az = z
次に、ステップS13において、衝突判定部25は、並進成分のみの移動における衝突時間t1を算出する。
Next, in step S <b> 13, the
静止物の並進成分のみでの位置AT(ATx、ATy、ATz)は、下記のようになる(tは変数)。
ATx = Ax + t・Tx
ATy = Ay + t・Ty
ATz = Az + t・Tz
The position AT (ATx, ATy, ATz) of only the translational component of the stationary object is as follows (t is a variable).
ATx = Ax + t ・ Tx
ATy = Ay + t ・ Ty
ATz = Az + t ・ Tz
上記の位置と衝突面との交点は、面の式にATの位置を代入したときのtでの値になる。また、そのときのtはその面までの衝突の時間(フレーム数)である。そのときの時間を仮衝突時間t1とすると、
Mx・(Ax + t1・Tx) + My・(Ay + t1・Ty) + Mz・(Az + t1・Tz) = 0
→t1 = (-Mx・Ax - My・Ay - Mz・Az) / (Mx・Tx + My・Ty + Mz・Tz)
The intersection between the above position and the collision surface is the value at t when the AT position is substituted into the surface equation. Further, t at that time is a collision time (number of frames) to the surface. If the time at that time is the temporary collision time t1,
Mx ・ (Ax + t1 ・ Tx) + My ・ (Ay + t1 ・ Ty) + Mz ・ (Az + t1 ・ Tz) = 0
→ t1 = (-Mx ・ Ax-My ・ Ay-Mz ・ Az) / (Mx ・ Tx + My ・ Ty + Mz ・ Tz)
となる。警告したい時間(警告時間)をtaとすると、仮衝突時間t1が警告時間taより大きい場合、t1=taとする。また、t1がマイナスのときはt1=0とする。0≦t1≦taの場合は、t1のままとなる。 It becomes. Assuming that the warning time (warning time) is ta, if the temporary collision time t1 is longer than the warning time ta, then t1 = ta. When t1 is negative, t1 = 0. In the case of 0 ≦ t1 ≦ ta, it remains t1.
次に、ステップS14において、衝突判定部25は、並進成分のみの移動における衝突位置を算出する。
Next, in step S14, the
静止物の並進成分のみでのt1後の位置B(Bx、By、Bz)は、下記のようになる。
Bx = Ax + t1・Tx
By = Ay + t1・Ty
Bz = Az + t1・Tz
A position B (Bx, By, Bz) after t1 with only the translational component of the stationary object is as follows.
Bx = Ax + t1 ・ Tx
By = Ay + t1 ・ Ty
Bz = Az + t1 ・ Tz
次に、ステップS15において、衝突判定部25は、現在の対象物の位置Aにおける回転成分による移動量ARと、静止物の並進成分のみでのt1後の位置Bにおける回転成分による移動量BRと、の平均の回転移動量ABRを算出する。
Next, in step S15, the
図6は、平均回転移動量ABRと、この平均回転移動量ABRおよび並進成分Tとの合成移動量RTと、の関係の一例を示す説明図である。なお、図6には、t1=ta・3/2>taでありt1がtaより大きいため、t1=taとされる場合の例について示した。 FIG. 6 is an explanatory diagram showing an example of the relationship between the average rotational movement amount ABR and the combined movement amount RT of the average rotational movement amount ABR and the translation component T. FIG. 6 shows an example in which t1 = ta · 3/2> ta and t1 is larger than ta, and therefore t1 = ta.
まず、初期位置Aにおける1フレームでの回転移動量AR(ARx、ARy、ARz)は下記のようになる。
ARx = Az・Ry - Ay・Rz
ARy = Ax・Rz - Az・Rx
ARz = Ay・Rx - Ax・Ry
First, the rotational movement amount AR (ARx, ARy, ARz) in one frame at the initial position A is as follows.
ARx = Az ・ Ry-Ay ・ Rz
ARy = Ax ・ Rz-Az ・ Rx
ARz = Ay ・ Rx-Ax ・ Ry
また、静止物42の並進成分のみでのt1後の位置Bでの1フレームでの回転移動量BR(BRx、BRy、BRz)は下記のようになる。
BRx = Bz・Ry - By・Rz
BRy = Bx・Rz - Bz・Rx
BRz = By・Rx - Bx・Ry
Further, the rotational movement amount BR (BRx, BRy, BRz) in one frame at the position B after t1 with only the translational component of the
BRx = Bz ・ Ry-By ・ Rz
BRy = Bx ・ Rz-Bz ・ Rx
BRz = By ・ Rx-Bx ・ Ry
以上のように、物体位置が近くになるにつれ、回転成分での移動量や方向は変化する。本実施形態では、物体を検出した位置A(t=0)での回転成分での移動量ARと、t1時間後の並進成分のみの移動を仮定した場合の位置Bでの回転成分での移動量BRとの平均ABRを、1フレームでの回転成分での移動量としてあつかう。衝突までの時間は短いため、平均化した回転移動量ABRを用いても誤差はほとんどない。 As described above, as the object position becomes closer, the movement amount and direction of the rotation component change. In the present embodiment, the movement amount AR in the rotation component at the position A (t = 0) where the object is detected and the movement in the rotation component at the position B when assuming the movement of only the translation component after the time t1. The average ABR with the amount BR is treated as the amount of movement in the rotational component in one frame. Since the time until the collision is short, there is almost no error even if the averaged rotational movement amount ABR is used.
なお、本実施形態においてはARとBRの平均をABRとする場合の例について説明するが、ABRは、ARとBRの平均に限られず、状況により平均ではなくどちらかよりにしてもよい。その場合、実測して決定すればよい。たとえば、ARとBRを所定の割合で重み付けして合成したものをABRとしてもよいし、所定の割合で合成した後にさらに所定の条件で加工したものをABRとしてもよい。この所定の条件で加工したものをABRとする場合としては、たとえば、次に示すように、回転成分のみでは衝突面に対して遠ざかる方向になるという条件を満たす場合の処理における加工(衝突面への成分を0にした回転成分との平均値ABR2を求める加工)をしたもの(ABR2)をABRとする場合などが挙げられる。
In this embodiment, an example in which the average of AR and BR is ABR will be described. However, the ABR is not limited to the average of AR and BR, and may be any one instead of the average depending on the situation. In that case, it may be determined by actual measurement. For example, a combination of AR and BR weighted at a predetermined ratio may be used as ABR, or a combination of a predetermined ratio and then processed under a predetermined condition may be used as ABR. As a case where an ABR is processed under this predetermined condition, for example, as shown below, the processing in the case of satisfying the condition that only the rotational component is in a direction away from the collision surface (to the collision surface) (ABR2) obtained by processing the average value ABR2 with the rotation component with the
回転成分での移動量の平均ABR(ABRx、ABRy、ABRz)は下記のようになる。
ABRx = (ARx + BRx) / 2
ABRy = (ARy + BRy) / 2
ABRz = (ARz + BRz) / 2
The average ABR (ABRx, ABRy, ABRz) of the movement amount in the rotation component is as follows.
ABRx = (ARx + BRx) / 2
ABRy = (ARy + BRy) / 2
ABRz = (ARz + BRz) / 2
なお、回転成分のみでは、衝突面に対して遠ざかる方向になることがある。遠ざかる方向となった場合は、通常、衝突面に対して平行方向は近づき、その分回転成分は小さくなる。このため、衝突面に対して逆側となった場合は、衝突面に対しての成分を0とした回転成分との平均を用いる。そうすることによって近い衝突位置、衝突時間になる。衝突時間は多少短くなることがあるので、警告したい時間taを少し短くして時間的に衝突するかを確認してもよい。 Note that only the rotational component may be in a direction away from the collision surface. When the direction is away, the parallel direction is usually closer to the collision surface, and the rotation component is reduced accordingly. For this reason, when it becomes a reverse side with respect to a collision surface, the average with the rotation component which set the component with respect to a collision surface to 0 is used. By doing so, it becomes a near collision position and collision time. Since the collision time may be slightly shortened, the time ta to be warned may be slightly shortened to check whether the collision occurs in time.
回転成分の平均移動量ABRの衝突面に対して垂直なベクトルN(Nx,Ny,Nz)は下記のようになる。
Nx = ABRx + Mx・t
Ny = ABRy + My・t
Nz = ABRz + Mz・t
A vector N (Nx, Ny, Nz) perpendicular to the collision surface of the average movement amount ABR of the rotation component is as follows.
Nx = ABRx + Mx ・ t
Ny = ABRy + My ・ t
Nz = ABRz + Mz ・ t
上記のベクトルが衝突面の向きで(0,0,0)を通る面と交差すればよいので、交差した時のtは下記の式より導き出される。
Mx・Nx + My・Ny + Mz・Nz = 0
Since the above vector only needs to intersect the plane passing through (0, 0, 0) in the direction of the collision surface, t at the time of intersection is derived from the following equation.
Mx ・ Nx + My ・ Ny + Mz ・ Nz = 0
導き出されたtをt2とすると、衝突面への成分を0にした回転成分との平均値ABR2(ABR2x、ABR2y、ABR2z)は下記のようになる。
ABR2x = ABRx + Mx・t2 / 2
ABR2y = ABRy + My・t2 / 2
ABR2z = ABRz + Mz・t2 / 2
Assuming that the derived t is t2, the average value ABR2 (ABR2x, ABR2y, ABR2z) with the rotation component with the component to the collision surface being zero is as follows.
ABR2x = ABRx + Mx ・ t2 / 2
ABR2y = ABRy + My ・ t2 / 2
ABR2z = ABRz + Mz ・ t2 / 2
したがって、回転成分のみでは衝突面に対して遠ざかる方向に移動する場合は、このABR2をABRとして計算すればよい。また、ABRとその衝突面への成分を0にした回転成分の平均としたが、状況により平均ではなくどちらかよりにしてもよい。その場合、実測して決定すればよい。また、衝突面の平行方向位置や垂直方向位置によってその割合を変更してもよい。 Accordingly, when the rotational component alone moves in a direction away from the collision surface, this ABR2 may be calculated as ABR. Moreover, although the average of the rotation component which set the component to ABR and its collision surface to 0 was made into an average, it may be made from either instead of an average depending on the situation. In that case, it may be determined by actual measurement. The ratio may be changed according to the parallel position or the vertical position of the collision surface.
そこで、ステップS16において、衝突判定部25は、回転成分のみでは衝突面に対して遠ざかる方向か否かを判定する。近づく方向である場合は、図5のステップS21に進む。一方、遠ざかる方向である場合は、衝突面への成分を0にした回転成分との平均ABR2を算出してから(ステップS17)、図5のステップS21に進む。
Therefore, in step S16, the
続いて、図5のステップS21において、衝突判定部25は、並進移動量と回転成分の平均移動量ABRとを合成した合成移動量RTを算出する。
Subsequently, in step S21 in FIG. 5, the
1フレームでの並進成分での移動量と回転成分の平均移動量との合成移動量を並進成分で表すとき、この合成移動量RT(RTx、RTy、RTz)は下記のようになる。
RTx = Tx + ABRx
RTy = Ty + ABRy
RTz = Tz + ABRz
When the combined movement amount of the movement amount of the translation component and the average movement amount of the rotation component in one frame is represented by the translation component, this combined movement amount RT (RTx, RTy, RTz) is as follows.
RTx = Tx + ABRx
RTy = Ty + ABRy
RTz = Tz + ABRz
次に、ステップS22において、衝突判定部25は、合成移動量RTでの衝突時間t2を算出する。
Next, in step S22, the
物体の回転成分を考慮した位置ART(ARTx、ARTy、ARTz)は、下記のようになる(tは変数)。
ARTx = Ax + t・RTx
ARTy = Ay + t・RTy
ARTz = Az + t・RTz
The position ART (ARTx, ARTy, ARTz) in consideration of the rotation component of the object is as follows (t is a variable).
ARTx = Ax + t ・ RTx
ARTy = Ay + t ・ RTy
ARTz = Az + t ・ RTz
この位置ARTと衝突面との交点は、面の式にARTの位置を代入したときのtでの値になる。また、そのときのtはその面までの衝突の時間(フレーム数)である。そのときの時間をt2とすると、
Mx・(Ax + t2・RTx) + My・(Ay + t2・RTy) + Mz・(Az + t2・RTz) = 0
→t2 = (-Mx・Ax - My・Ay - Mz・Az) / (Mx・RTx + My・RTy + Mz・RTz)
The intersection between the position ART and the collision surface is a value at t when the position of the ART is substituted into the surface equation. Further, t at that time is a collision time (number of frames) to the surface. If the time at that time is t2,
Mx ・ (Ax + t2 ・ RTx) + My ・ (Ay + t2 ・ RTy) + Mz ・ (Az + t2 ・ RTz) = 0
→ t2 = (-Mx ・ Ax-My ・ Ay-Mz ・ Az) / (Mx ・ RTx + My ・ RTy + Mz ・ RTz)
となる。このとき、衝突までの時間(フレーム数)t2の極性がプラスで警告したい時間taより小さい場合、衝突候補とする。 It becomes. At this time, if the polarity of the time to collision (number of frames) t2 is positive and less than the time ta to be warned, it is determined as a collision candidate.
次に、ステップS23において、衝突判定部25は、合成移動量RTでの衝突位置Cを算出する。
Next, in step S23, the
合成移動量RTで移動した場合のt=t2における静止物42の位置C(Cx、Cy、Cz)は下記のようになる。
Cx = Ax + t2・RTx
Cy = Ay + t2・RTy
Cz = Az + t2・RTz
The position C (Cx, Cy, Cz) of the
Cx = Ax + t2 ・ RTx
Cy = Ay + t2 ・ RTy
Cz = Az + t2 ・ RTz
次に、ステップS24において、衝突判定部25は、静止物42が自車の正面に衝突するか否かを判定する。具体的には、たとえば衝突判定部25は、ステップS22で算出した時間t2がta以下であることから衝突候補となった静止物42について、t=t2における位置Cが指定した範囲に収まっているか否かを判定する。衝突時間は多少短くなることがあるので、警告したい時間taを少し短くして時間的に衝突するかを確認してもよい。
Next, in step S24, the
たとえば、例えばカメラからの高さをH、自車の正面の衝突面の左右の衝突範囲を±Wとすると、下記の条件が満たされた場合に衝突する。
-W <= Cx <= W
Cy >= -H
For example, assuming that the height from the camera is H and the collision range on the left and right of the collision surface in front of the host vehicle is ± W, the collision occurs when the following conditions are satisfied.
-W <= Cx <= W
Cy> = -H
衝突範囲は、収束点FOEの位置や、真上方向のずれによって変更してもよい。その場合、Cx、Cy、Czをその分原点を中心に回転計算させればよい。また、衝突範囲、形状を変更してもよい。 The collision range may be changed depending on the position of the convergence point FOE or the deviation in the upward direction. In that case, Cx, Cy, and Cz may be rotated and calculated around the origin. Further, the collision range and shape may be changed.
ステップS24において正面衝突すると判定すると、ステップS25において、衝突判定部25は、警報部26にその旨の情報を与える。そして、警報部26は、たとえば表示装置19に静止物42との正面衝突の危険性がある旨の情報を表示する。また、衝突までの時間t2や衝突位置の情報を表示してもよい。
If it is determined in step S24 that a frontal collision has occurred, the
他方、ステップS24において正面衝突しないと判定すると、ステップS26において、衝突判定部25は、静止物42が自車の側面に衝突するか否かを判定する。
On the other hand, if it is determined in step S24 that no frontal collision occurs, in step S26, the
図7は、側面衝突を予測する様子の一例を示す説明図である。 FIG. 7 is an explanatory diagram illustrating an example of how a side collision is predicted.
正面方向は基本的には前進するので、並進成分が静止物42に向かわなかったら衝突しない。しかし、側面は並進成分で静止物42に向かわなくても、回転成分で衝突する可能性がある。このため、図7に示すように、正面方向での計算(正面の衝突面までの計算、図7左側参照)と側面での計算(正面の衝突面以降の計算、図7右側参照)を分離して計算する。なお、図7には、正面の衝突面をz=0とする場合の例について示した。
Since the front direction basically moves forward, there is no collision unless the translational component is directed to the
まず、正面の衝突面までの計算(正面方向での計算)は、ここまで説明した正面衝突を計算する方法と同様の方法を用い、合成移動量RTにもとづいて衝突位置C0(C0x、C0y、C0z)と衝突時間t0を測定する。このとき、正面の衝突面がカメラから離れすぎている場合、z=0を衝突面としてもよい。 First, the calculation up to the front collision surface (calculation in the front direction) uses the same method as the method of calculating the front collision described so far, and uses the collision position C0 (C0x, C0y, C0z) and the collision time t0 are measured. At this time, if the front collision surface is too far away from the camera, z = 0 may be used as the collision surface.
側面での警告したい時間tbは、正面での衝突時間t0より、
tb = ta-t0
The time tb that you want to warn on the side is the collision time t0 on the front,
tb = ta-t0
となる。正面での計算式と同様に、側面でのt1を計算する。t1がマイナスであった場合、警告したい時間と正面での時間よりtbにする。後は同様に計算を行う。 It becomes. Similar to the calculation formula at the front, t1 at the side is calculated. When t1 is negative, it is set to tb from the time to warn and the time in front. After that, the same calculation is performed.
たとえば、左側の衝突面の式は、Mupの割合分真上に対してx方向に傾いているとして正面の面方向より−90°y軸回転させて、下記のようになる。
-Mz・(x - Wl) + Mup・f・y + Mx・z = 0
For example, the equation of the left collision surface is as follows when the axis is rotated by −90 ° y-axis from the front surface direction, assuming that it is inclined in the x direction with respect to the Mup ratio.
-Mz ・ (x-Wl) + Mup ・ f ・ y + Mx ・ z = 0
ここで、Wlはカメラからのx方向位置(左にあるのでマイナスになる)を表す。 Here, Wl represents the position in the x direction from the camera (because it is on the left, it becomes negative).
また、同様に右側の衝突面の式は、Mupの割合分真上に対してx方向に傾いているとして正面の面の方向より90°y軸回転させて、下記のようになる。
Mz・(x - Wr) - Mup・f・y - Mx・z = 0
Similarly, the expression of the collision surface on the right side is as follows when rotated by 90 ° y-axis from the direction of the front surface assuming that it is inclined in the x direction with respect to the Mup ratio.
Mz ・ (x-Wr)-Mup ・ f ・ y-Mx ・ z = 0
ここで、Wrはカメラからのx方向位置(右にあるのでプラスになる)を表す。 Here, Wr represents the position in the x direction from the camera (it is positive because it is on the right).
以上のように側面を指定して、さらに衝突位置が自車の範囲になるか確認して、自車の範囲であれば側面衝突すると判定する。たとえば、側面の衝突位置がC(Cx、Cy、Cz)として、カメラからの高さをH、カメラから手前側の長さDまでを衝突範囲とすると、下記の条件が満たされた場合に側面衝突する。
Cy >= -H
-D <= Cz <= 0
As described above, the side surface is designated, and it is further confirmed whether the collision position is within the range of the own vehicle. For example, assuming that the collision position on the side surface is C (Cx, Cy, Cz), the height from the camera is H, and the distance from the camera to the front side D is the collision range, the side surface will satisfy the following conditions: collide.
Cy> = -H
-D <= Cz <= 0
衝突範囲は、収束点FOEの位置や、真上方向のずれによって変更してもよい。その場合Cx、Cy、Czをその分原点を中心に回転計算させればよい。また、衝突範囲、形状を変更してもよい。 The collision range may be changed depending on the position of the convergence point FOE or the deviation in the upward direction. In this case, Cx, Cy, and Cz may be rotated and calculated around the origin. Further, the collision range and shape may be changed.
本実施形態に係る衝突判定装置10は、自車の回転成分を考慮して衝突判定を行うことができる。このため、回転成分を無視する場合に比べ、非常に正確な衝突判定結果を得ることができるとともに、衝突時間を予測することができる。
The
なお、衝突判定が点ではなく領域であった場合、領域の両端の点をn個選び(最低2点。たとえば水平線上の両端の2点。または左上、右上、左下、右下の4点など)、それぞれに対して衝突判定を行う。これらのいずれかが衝突するという判定であれば、一番衝突までの時間が短いものをこの領域の衝突判定結果とする。 If the collision determination is an area instead of a point, select n points at both ends of the area (minimum 2 points, for example, 2 points at both ends on the horizontal line, or 4 points at the upper left, upper right, lower left, lower right, etc. ), Collision judgment is performed for each. If it is determined that any of these collisions, the one with the shortest time until the collision is set as the collision determination result of this region.
また、どれも衝突しないと判定された場合、正面の面での衝突時間t2がどれも衝突を警告したい時間taより大きいのであれば衝突しないとする。一方、少なくとも一点の衝突時間t2が衝突を警告したい時間taより小さい場合は、taとt2で小さい方の位置E(Ex、Ey、Ez)とtaでの位置F(Fx、Fy、Fz)をそれぞれ計算しておく。領域上の各点に対してEとFを作成すると(EとFが同じ場合はどちらかを削除)、最小の場合は領域上の点数であるn個の点、最大の場合は領域上の点の2倍の数である2・n個の点が得られる。得られた点から2点を選び線分とし、その線分が衝突領域とする自車の領域に交差していないかを判定する。すべての2点の組み合わせで試し、どれかの線分が自車の領域に交差している場合衝突すると判定する。衝突時間は、すべての自車の領域に交差した線分の中から、線分を作り出す2点の正面での衝突時間t2の中で一番短いものとすればよい。
(実施例)
If it is determined that none of the collisions occur, it is assumed that no collision occurs if any of the collision times t2 on the front surface is greater than the time ta at which it is desired to warn of the collision. On the other hand, if at least one collision time t2 is shorter than the time ta at which a collision is to be warned, the smaller position E (Ex, Ey, Ez) at ta and t2 and position F (Fx, Fy, Fz) at ta Calculate each one. If E and F are created for each point on the area (if E and F are the same, one is deleted), the minimum is n points, which is the number of points on the area, and the maximum is on the area 2.n points, which is twice the number of points, are obtained. Two points are selected from the obtained points and set as a line segment, and it is determined whether the line segment intersects with the area of the vehicle that is the collision area. It tries with the combination of all the two points, and when any line segment crosses the area of the own vehicle, it determines with it colliding. The collision time may be the shortest of the collision times t2 in front of the two points that create the line segment from among the line segments intersecting all the areas of the host vehicle.
(Example)
本実施形態に係る衝突予測計算の正しさを検証するためにシミュレーションを行った結果を以下に示す。 The result of performing a simulation to verify the correctness of the collision prediction calculation according to the present embodiment is shown below.
図8は、初期位置での回転成分のみの移動では衝突面に対して向かう方向に移動する場合における正しい軌道と近似計算軌道との関係の一例を示す説明図である。また、図9は、初期位置での回転成分のみの移動では衝突面に対して離れる方向に移動する場合における正しい軌道と近似計算軌道との関係の一例を示す説明図である。なお、図8および図9は真上視点における軌道比較結果の一例であり、図中のマーカは1フレームごとの位置を表す。 FIG. 8 is an explanatory diagram showing an example of the relationship between the correct trajectory and the approximate calculation trajectory when moving in the direction toward the collision surface when only the rotational component is moved at the initial position. FIG. 9 is an explanatory diagram showing an example of the relationship between the correct trajectory and the approximate calculation trajectory when moving in the direction away from the collision plane when only the rotational component is moved at the initial position. 8 and 9 are examples of trajectory comparison results from the viewpoint directly above, and the markers in the drawings represent positions for each frame.
まず、計算を単純化するために、路面をy=0の面、衝突面をz=0とし、自車の並進成分はTzのみ、回転成分はRyのみとする。また、物体の奥行きzを0.3に固定し、衝突まで警告したい時間taを15フレームとする。 First, in order to simplify the calculation, the road surface is y = 0, the collision surface is z = 0, the translation component of the vehicle is only Tz, and the rotation component is only Ry. In addition, the depth z of the object is fixed to 0.3, and the time ta to warn until the collision is 15 frames.
衝突までの時間が長いほど計算結果に誤差が含まれる。このため、計算誤差があらわになるよう、並進成分Tzは−0.02(/フレーム)とする。 The longer the time until the collision, the more error is included in the calculation results. For this reason, the translation component Tz is set to −0.02 (/ frame) so that a calculation error appears.
また、本実施形態に係る衝突予測計算のうち回転成分を考慮した部分の効果を見るため、回転成分が車両の挙動上許される最大付近となるように、一番舵角をもった状態をTzの3倍とする。このとき、回転成分はRy=−0.06となる。なお、車両の挙動上、並進成分を伴わない回転成分の移動は起こらない。 Further, in order to see the effect of the portion in consideration of the rotation component in the collision prediction calculation according to the present embodiment, the state having the most rudder angle is set to Tz so that the rotation component is near the maximum allowed in the behavior of the vehicle. 3 times. At this time, the rotation component is Ry = −0.06. In addition, the movement of the rotation component which does not accompany a translational component does not occur on the behavior of the vehicle.
nフレーム後の位置をX(n)、Z(n)とすると、正しい軌道の計算式は下記のようになる。
X(n) = X(n-1) - Z(n-1)・Ry
Z(n) = Z(n-1) + Tz + X(n-1)・Ry
Assuming that the position after n frames is X (n) and Z (n), the calculation formula of the correct trajectory is as follows.
X (n) = X (n-1)-Z (n-1) ・ Ry
Z (n) = Z (n-1) + Tz + X (n-1) ・ Ry
一方、近似計算の軌道の計算式は下記のようになる。
X(n) = X(n-1) +(- z・Ry+0)/2
Z(n) = Z(n-1) + Tz + (x・Ry+ x・Ry)/α
以上の条件により、xをずらして検証する。
On the other hand, the calculation formula for the approximate calculation trajectory is as follows.
X (n) = X (n-1) + (-z ・ Ry + 0) / 2
Z (n) = Z (n-1) + Tz + (x ・ Ry + x ・ Ry) / α
Based on the above conditions, verification is performed by shifting x.
変数αは、軌道比較結果から、回転成分が向かう方向では約2.0とするとよいことがわかった。図8には、α=2の場合の例について示した。一方、変数αは、軌道比較結果から、回転成分が向かう方向では約4.0とするとよいことがわかった。図9には、α=4の場合の例について示した。 From the results of the trajectory comparison, it was found that the variable α should be about 2.0 in the direction in which the rotation component is directed. FIG. 8 shows an example in which α = 2. On the other hand, it was found from the result of the trajectory comparison that the variable α should be about 4.0 in the direction in which the rotation component is directed. FIG. 9 shows an example in which α = 4.
図8および図9から明らかなように、αを適切に選ぶことにより、近似計算での軌道と正しい軌道とで衝突位置、衝突時間がほぼ同じ状態にすることができることがわかる。 As is apparent from FIGS. 8 and 9, it is understood that the collision position and the collision time can be made substantially the same between the trajectory in the approximate calculation and the correct trajectory by appropriately selecting α.
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
また、本発明の実施形態では、フローチャートの各ステップは、記載された順序に沿って時系列的に行われる処理の例を示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行される処理をも含むものである。 Further, in the embodiment of the present invention, each step of the flowchart shows an example of processing that is performed in time series in the order described. The process to be executed is also included.
10 衝突判定装置
11 カメラ
12 主制御部
21 平面画像生成部
22 動きベクトル検出部
23 自車移動算出部
24 静止ベクトル検出部
25 衝突判定部
26 警報部
DESCRIPTION OF
Claims (7)
前記カメラにより撮像された画像に含まれる対象物の動きベクトルを検出するステップと、
前記動きベクトルにもとづいて自車の並進成分および回転成分を求めるステップと、
前記並進成分による移動量と、現在の対象物の位置における前記回転成分による移動量および現在から所定の時間後の前記並進成分のみの移動を仮定した場合の対象物の位置における前記回転成分による移動量を所定の割合で合成した移動量と、を合成した合成移動量を求めるステップと、
前記合成移動量にもとづいて前記所定の時間内に前記車両と前記対象物とが衝突するか否かを判定するステップと、
を有する衝突判定方法。 A camera provided in the vehicle images the surroundings of the vehicle;
Detecting a motion vector of an object included in an image captured by the camera;
Obtaining a translation component and a rotation component of the vehicle based on the motion vector ;
The amount of movement due to the translation component, the amount of movement due to the rotation component at the current position of the object, and the movement due to the rotation component at the position of the object assuming a movement of only the translation component after a predetermined time from the present time. a step of determining movement and that forms if the amount at a predetermined ratio, the synthesized synthesis amount of movement,
Determining whether the vehicle and the object collide within the predetermined time based on the combined movement amount; and
A collision determination method.
前記仮衝突時間があらかじめ定められた警告時間よりも小さいと、前記仮衝突時間を前記所定の時間として設定し、前記仮衝突時間が前記警告時間以上であると、前記警告時間を前記所定の時間として設定するステップと、
をさらに有する請求項1記載の衝突判定方法。 Obtaining a temporary collision time until the vehicle and the object collide when assuming the movement of only the translational component;
When the temporary collision time is smaller than a predetermined warning time, the temporary collision time is set as the predetermined time, and when the temporary collision time is equal to or longer than the warning time, the warning time is set to the predetermined time. Step to set as
The collision determination method according to claim 1, further comprising:
前記合成移動量にもとづいて前記車両の正面と前記対象物とが衝突するか否かを判定するステップと、
前記車両の正面と前記対象物とが衝突しないと判定されると、前記車両の側面と前記対象物とが衝突するか否かを判定するステップと、
を有する、
請求項1または2に記載の衝突判定方法。 The step of determining whether or not the vehicle and the object collide based on the combined movement amount,
Determining whether the front of the vehicle and the object collide based on the combined movement amount; and
When it is determined that the front surface of the vehicle and the object do not collide, the step of determining whether or not the side surface of the vehicle and the object collide,
Having
The collision determination method according to claim 1 or 2.
をさらに有する請求項1ないし3のいずれか1項に記載の衝突判定方法。 Predicting a collision time between the vehicle and the object based on the combined movement amount;
The collision determination method according to any one of claims 1 to 3, further comprising:
前記対象物の端点を複数選択し、これらの端点のそれぞれについて前記合成移動量にもとづいて前記所定の時間内に前記車両と衝突するか否かを判定するステップである、
請求項1ないし4のいずれか1項に記載の衝突判定方法。 The step of determining whether or not the vehicle and the object collide within the predetermined time based on the combined movement amount,
A step of selecting a plurality of end points of the object and determining whether or not each of these end points collides with the vehicle within the predetermined time based on the combined movement amount;
The collision determination method according to any one of claims 1 to 4.
をさらに有する請求項1ないし5のいずれか1項に記載の衝突判定方法。 When it is determined that the vehicle and the object collide within the predetermined time, the driver of the vehicle visually recognizes the sound output and buzzer output through the speaker of the vehicle and the driver of the vehicle. Informing the danger by at least one of warning indications for a display device provided at a possible position;
The collision determination method according to any one of claims 1 to 5, further comprising:
車両に設けられたカメラが撮像した前記車両の周囲の画像を取得するステップと、
前記カメラにより撮像された画像に含まれる対象物の動きベクトルを検出するステップと、
前記動きベクトルにもとづいて自車の並進成分および回転成分を求めるステップと、
前記並進成分による移動量と、現在の対象物の位置における前記回転成分による移動量および現在から所定の時間後の前記並進成分のみの移動を仮定した場合の対象物の位置における前記回転成分による移動量を所定の割合で合成した移動量と、を合成した合成移動量を求めるステップと、
前記合成移動量にもとづいて前記所定の時間内に前記車両と前記対象物とが衝突するか否かを判定するステップと、
を実行させるための衝突判定プログラム。 On the computer,
Obtaining an image around the vehicle imaged by a camera provided in the vehicle;
Detecting a motion vector of an object included in an image captured by the camera;
Obtaining a translation component and a rotation component of the vehicle based on the motion vector ;
The amount of movement due to the translation component, the amount of movement due to the rotation component at the current position of the object, and the movement due to the rotation component at the position of the object assuming a movement of only the translation component after a predetermined time from the present time. a step of determining movement and that forms if the amount at a predetermined ratio, the synthesized synthesis amount of movement,
Determining whether the vehicle and the object collide within the predetermined time based on the combined movement amount; and
Collision determination program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011236395A JP5894413B2 (en) | 2011-10-27 | 2011-10-27 | Collision judgment method and collision judgment program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011236395A JP5894413B2 (en) | 2011-10-27 | 2011-10-27 | Collision judgment method and collision judgment program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013097391A JP2013097391A (en) | 2013-05-20 |
JP5894413B2 true JP5894413B2 (en) | 2016-03-30 |
Family
ID=48619316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011236395A Expired - Fee Related JP5894413B2 (en) | 2011-10-27 | 2011-10-27 | Collision judgment method and collision judgment program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5894413B2 (en) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2882136B2 (en) * | 1991-11-25 | 1999-04-12 | 日本電気株式会社 | Video analysis method |
US5559695A (en) * | 1994-12-27 | 1996-09-24 | Hughes Aircraft Company | Apparatus and method for self-calibrating visual time-to-contact sensor |
JPH11353565A (en) * | 1998-06-09 | 1999-12-24 | Yazaki Corp | Method and device for alarm of collision for vehicle |
US7113867B1 (en) * | 2000-11-26 | 2006-09-26 | Mobileye Technologies Limited | System and method for detecting obstacles to vehicle motion and determining time to contact therewith using sequences of images |
JP3867505B2 (en) * | 2001-03-19 | 2007-01-10 | 日産自動車株式会社 | Obstacle detection device |
JP2008203992A (en) * | 2007-02-16 | 2008-09-04 | Omron Corp | Detection device, method, and program thereof |
US7659967B2 (en) * | 2007-03-05 | 2010-02-09 | Geoffrey Louis Barrows | Translational optical flow sensor |
JP4982353B2 (en) * | 2007-12-27 | 2012-07-25 | 日立オートモティブシステムズ株式会社 | External recognition device |
JP5267330B2 (en) * | 2009-05-27 | 2013-08-21 | コニカミノルタ株式会社 | Image processing apparatus and method |
-
2011
- 2011-10-27 JP JP2011236395A patent/JP5894413B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013097391A (en) | 2013-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6303090B2 (en) | Image processing apparatus and image processing program | |
JP6473571B2 (en) | TTC measuring device and TTC measuring program | |
EP2665037B1 (en) | Onboard camera automatic calibration apparatus | |
JP4809019B2 (en) | Obstacle detection device for vehicle | |
JP5503728B2 (en) | Vehicle periphery monitoring device | |
US20110298988A1 (en) | Moving object detection apparatus and moving object detection method | |
JP6720510B2 (en) | Mobile system | |
JP5187292B2 (en) | Vehicle periphery monitoring device | |
JP6253467B2 (en) | Image processing apparatus and image processing program | |
JP2007263657A (en) | Three-dimensional coordinates acquisition system | |
JP4622544B2 (en) | Vehicle driving support device | |
US20170028917A1 (en) | Driving assistance device and driving assistance method | |
JP2017220760A (en) | Image processing apparatus for vehicle | |
JP5418661B2 (en) | Vehicle periphery monitoring device | |
JP2012222776A (en) | Image processing apparatus, image processing method, and driving support system | |
US20200353866A1 (en) | Parking Support Device | |
JP6080735B2 (en) | Driving assistance device | |
US8983196B2 (en) | Vehicle periphery monitoring apparatus | |
JP5894413B2 (en) | Collision judgment method and collision judgment program | |
JP2015158749A (en) | Image processor, mobile body, robot, device control method and program | |
JP2005182305A (en) | Vehicle travel support device | |
JP4817854B2 (en) | Peripheral object tracking device and peripheral object position prediction method | |
JP5245471B2 (en) | Imaging apparatus, and image processing apparatus and method | |
JP5731801B2 (en) | Image processing apparatus for vehicle and image processing method for vehicle | |
JP5833887B2 (en) | Own vehicle movement estimation method and own vehicle movement estimation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141008 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5894413 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |