JP5731801B2 - Image processing apparatus for vehicle and image processing method for vehicle - Google Patents

Image processing apparatus for vehicle and image processing method for vehicle Download PDF

Info

Publication number
JP5731801B2
JP5731801B2 JP2010259416A JP2010259416A JP5731801B2 JP 5731801 B2 JP5731801 B2 JP 5731801B2 JP 2010259416 A JP2010259416 A JP 2010259416A JP 2010259416 A JP2010259416 A JP 2010259416A JP 5731801 B2 JP5731801 B2 JP 5731801B2
Authority
JP
Japan
Prior art keywords
vehicle
camera
collision
distance
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010259416A
Other languages
Japanese (ja)
Other versions
JP2012113358A (en
Inventor
川井 清幸
清幸 川井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2010259416A priority Critical patent/JP5731801B2/en
Publication of JP2012113358A publication Critical patent/JP2012113358A/en
Application granted granted Critical
Publication of JP5731801B2 publication Critical patent/JP5731801B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、車両用画像処理装置および車両用画像処理方法に関する。   Embodiments described herein relate generally to a vehicle image processing apparatus and a vehicle image processing method.

最近、自動車などの車両の運転を支援するための技術として、車両と対象物との衝突可能性を判定する技術の開発が望まれている。この種の技術には、たとえば、車両に搭載されたカメラにより撮像された画像にもとづいて車両と対象物との衝突可能性を判定する技術などがある。車両に搭載されたカメラにより撮像された画像を用いる場合、レーダを用いる場合に比べてデジタル化された画像データを利用することができることから、対象物の接近角度などの複雑な判断が可能である。   Recently, as a technique for supporting driving of a vehicle such as an automobile, development of a technique for determining the possibility of collision between the vehicle and an object is desired. As this type of technology, for example, there is a technology for determining the possibility of collision between a vehicle and an object based on an image captured by a camera mounted on the vehicle. When using an image captured by a camera mounted on a vehicle, it is possible to use digitized image data as compared with the case of using a radar, so that it is possible to make a complicated determination such as an approach angle of an object. .

特開平11−353565号公報JP 11-353565 A

しかし、従来の技術は、車両が振動することなく静かに直進している場合を想定したものであり、車両の3種の回転成分(ヨーイング、ローリング、ピッチング)を考慮していない。このため、従来の技術は、車両が曲進する場合や車両が振動する場合などに適用することが難しい。   However, the conventional technology assumes that the vehicle is moving straight without vibration, and does not consider the three types of rotational components (yawing, rolling, and pitching) of the vehicle. For this reason, it is difficult to apply the conventional technique when the vehicle turns or when the vehicle vibrates.

本発明の一実施形態に係る車両用画像処理装置は、上述した課題を解決するために、カメラと、動きベクトル算出部と、スケールファクタ付き並進成分算出部と、z位置取得部と、衝突判定部と、衝突危険度判定部と、を備える。カメラは、車両に設けられ車両の周辺を撮像する。動きベクトル算出部は、カメラにより撮像された複数の画像間の動きベクトルを求める。スケールファクタ付き並進成分算出部は、画像に含まれる対象物に対応する動きベクトルと車両の回転成分とにもとづいて、カメラ座標系の3軸方向それぞれのスケールファクタ付き並進成分を算出する。z位置取得部は、カメラ座標系における対象物の光軸方向座標値を取得する。衝突判定部は、カメラ座標系における対象物の光軸方向座標値を含む三次元座標値とスケールファクタ付き並進成分とを用いてカメラの中心から対象物までの距離を時間の関数としてあらわした式にもとづいて、カメラの中心から対象物までの最近接距離が所定の距離以下であるか否かを判定する。衝突危険度判定部は、最近接距離が所定の距離以下であると、車両と対象物が衝突すると判定する。 In order to solve the above-described problem, a vehicle image processing device according to an embodiment of the present invention includes a camera, a motion vector calculation unit, a translational component calculation unit with a scale factor, a z position acquisition unit, and a collision determination. And a collision risk determination unit. The camera is provided in the vehicle and images the periphery of the vehicle. The motion vector calculation unit obtains a motion vector between a plurality of images captured by the camera. The translation component with a scale factor calculation unit calculates a translation component with a scale factor in each of the three axis directions of the camera coordinate system based on the motion vector corresponding to the object included in the image and the rotation component of the vehicle. The z position acquisition unit acquires the optical axis direction coordinate value of the object in the camera coordinate system. The collision determination unit is an expression that expresses the distance from the center of the camera to the object as a function of time using a three-dimensional coordinate value including the optical axis direction coordinate value of the object in the camera coordinate system and a translation component with a scale factor. Based on this, it is determined whether or not the closest distance from the center of the camera to the object is equal to or less than a predetermined distance. The collision risk determination unit determines that the vehicle and the object collide when the closest distance is equal to or less than a predetermined distance.

本発明の一実施形態に係る車両用画像処理装置の一例を示す全体構成図。1 is an overall configuration diagram showing an example of a vehicle image processing apparatus according to an embodiment of the present invention. カメラ座標系におけるカメラ投影面と対象物との関係を示す説明図。Explanatory drawing which shows the relationship between the camera projection surface in a camera coordinate system, and a target object. (a)は、r−r0の極小値が負の場合におけるr−r0と時間tの関係の一例を示す説明図、(b)はr−r0の極小値が正の場合におけるr−r0と時間tの関係の一例を示す説明図。(A) is an explanatory diagram showing an example of the relationship between r 2 -r0 2 and the time t when the minimum value of r 2 -r0 2 is negative, (b) the minimum value positive in r 2 -r0 2 explanatory view showing an example of the relationship between r 2 -r0 2 and the time t in the case. 衝突予測ECUのCPUが、カメラにより取得された画像にもとづいて車両の曲進および車両の振動による影響を考慮して対象物との衝突可能性を判定する際の手順を示すフローチャート。7 is a flowchart showing a procedure when the CPU of the collision prediction ECU determines the possibility of collision with an object in consideration of the influence of vehicle curvature and vehicle vibration based on an image acquired by a camera.

本発明に係る車両用画像処理装置および車両用画像処理方法の実施の形態について、添付図面を参照して説明する。   Embodiments of a vehicle image processing apparatus and a vehicle image processing method according to the present invention will be described with reference to the accompanying drawings.

図1は、本発明の一実施形態に係る車両用画像処理装置10の一例を示す全体構成図である。   FIG. 1 is an overall configuration diagram showing an example of a vehicle image processing apparatus 10 according to an embodiment of the present invention.

車両用画像処理装置10は、カメラ11、衝突予測ECU(Electronic Control Unit)12、記憶部13、表示部14およびスピーカ15を有する。   The vehicle image processing device 10 includes a camera 11, a collision prediction ECU (Electronic Control Unit) 12, a storage unit 13, a display unit 14, and a speaker 15.

カメラ11は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成され、自家用自動車等の車両周囲の画像を取り込んで画像信号を生成して衝突予測ECU12に与える。   The camera 11 is constituted by a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

たとえば後方を監視する場合、カメラ11は車両後部のナンバープレート付近に路面と平行な線からやや下向きに配設される。カメラ11には、より広範な車両外画像が取得可能なように広角レンズや魚眼レンズが取り付けられてもよい。また、車両の側方を監視する場合、カメラ11はサイドミラー付近に配設される。もちろん、複数のカメラ11を用いることにより広範な車外周囲画像を取り込むようにしてもよい。   For example, when monitoring the rear, the camera 11 is disposed slightly downward from a line parallel to the road surface in the vicinity of the license plate at the rear of the vehicle. A wide-angle lens or a fisheye lens may be attached to the camera 11 so that a wider range of outside-vehicle images can be acquired. When monitoring the side of the vehicle, the camera 11 is disposed near the side mirror. Of course, a wide range of outside-vehicle surrounding images may be captured by using a plurality of cameras 11.

衝突予測ECU12は、CPU、RAMおよびROMなどの記憶媒体などにより構成される。衝突予測ECU12のCPUは、ROMなどの記憶媒体に記憶された衝突予測プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って、カメラ11により取得された画像にもとづいて、車両の曲進および車両の振動による影響を考慮して対象物との衝突可能性を判定する。   The collision prediction ECU 12 is configured by a storage medium such as a CPU, a RAM, and a ROM. The CPU of the collision prediction ECU 12 loads a collision prediction program stored in a storage medium such as a ROM and data necessary for executing the program into the RAM, and based on the image acquired by the camera 11 according to the program. The possibility of collision with the object is determined in consideration of the influence of the vehicle turning and the vehicle vibration.

衝突予測ECU12のRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。衝突予測ECU12のROMなどの記憶媒体は、衝突予測プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。   The RAM of the collision prediction ECU 12 provides a work area for temporarily storing programs and data executed by the CPU. The storage medium such as the ROM of the collision prediction ECU 12 stores a collision prediction program and various data necessary for executing these programs.

なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は図示しないネットワーク接続部を介して電子ネットワークを介してダウンロードされるように構成してもよい。   A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Or you may comprise so that all may be downloaded via an electronic network via the network connection part which is not shown in figure.

なお、この場合、ネットワーク接続部は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装し、この各種プロトコルに従って衝突予測ECU12と他の車両のECUなどの電気機器とを電子ネットワークを介して接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、無線/有線LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。   In this case, the network connection unit implements various information communication protocols according to the form of the network, and the collision prediction ECU 12 and electric devices such as ECUs of other vehicles are connected via the electronic network according to the various protocols. Connecting. For this connection, an electrical connection via an electronic network can be applied. Here, an electronic network means an information communication network using telecommunications technology in general, in addition to a wireless / wired LAN (Local Area Network) and the Internet network, a telephone communication line network, an optical fiber communication network, a cable communication network, Includes satellite communications networks.

記憶部13は、衝突予測ECU12によるデータの読み書きが可能な不揮発性のメモリであり、あらかじめ、消失点(FOE:Focus of Expansion)の情報FOE(x0、y0)、距離マージンr0、第1の時間閾値s1、第2の時間閾値s2および接近閾値d0を記憶している。これらの情報は、電子ネットワークを介してまたは光ディスクなどの可搬型記憶媒体を介して更新されてもよい。   The storage unit 13 is a non-volatile memory in which data can be read and written by the collision prediction ECU 12, and information on FOE (x0, y0) of a vanishing point (FOE), a distance margin r0, and a first time are stored in advance. A threshold value s1, a second time threshold value s2, and an approach threshold value d0 are stored. These pieces of information may be updated via an electronic network or a portable storage medium such as an optical disk.

消失点情報FOE(x0、y0)は、衝突予測ECU12により車両の回転成分を算出する際に用いられる。   The vanishing point information FOE (x0, y0) is used when the collision prediction ECU 12 calculates the rotational component of the vehicle.

距離マージンr0、第1の時間閾値s1、第2の時間閾値s2および接近閾値d0は、衝突予測ECU12により車両と対象物との衝突危険度を判定するために用いられる。   The distance margin r0, the first time threshold value s1, the second time threshold value s2, and the approach threshold value d0 are used by the collision prediction ECU 12 to determine the risk of collision between the vehicle and the object.

表示部14は、運転者が視認可能な位置に設けられ、車載用の一般的なディスプレイやカーナビゲーションシステム、HUD(ヘッドアップディスプレイ)などの表示出力装置を用いることができ、衝突予測ECU12の制御に従って衝突警告情報などの各種情報を表示する。   The display unit 14 is provided at a position where the driver can visually recognize, and a display output device such as a general vehicle-mounted display, a car navigation system, or a HUD (head-up display) can be used. Various information such as collision warning information is displayed.

スピーカ15は、衝突予測ECU12の制御に従って衝突警告情報などの各種情報に対応した音声を出力する。   The speaker 15 outputs sound corresponding to various information such as collision warning information in accordance with the control of the collision prediction ECU 12.

図1に示すように、衝突予測ECU12のCPUは、衝突プログラムによって、少なくとも動きベクトル算出部21、回転成分算出部22、スケールファクタ付き並進成分算出部23、ユークリッド距離推定部24、衝突判定部25、z位置取得部26、衝突時間推定部27、衝突危険度判定部28および警告提示部29として機能する。この各部21〜29は、RAMの所要のワークエリアを、データの一時的な格納場所として利用する。なお、これらの機能実現部は、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。   As shown in FIG. 1, the CPU of the collision prediction ECU 12 executes at least a motion vector calculation unit 21, a rotation component calculation unit 22, a translation component with scale factor 23, an Euclidean distance estimation unit 24, and a collision determination unit 25 according to a collision program. , Z position acquisition unit 26, collision time estimation unit 27, collision risk determination unit 28, and warning presentation unit 29. Each of the units 21 to 29 uses a required work area of the RAM as a temporary storage location for data. In addition, you may comprise these function implementation parts by hardware logics, such as a circuit, without using CPU.

ここで、本実施形態で用いるカメラ座標系について簡単に説明する。   Here, the camera coordinate system used in this embodiment will be briefly described.

図2は、カメラ座標系におけるカメラ投影面31と対象物32との関係を示す説明図である。   FIG. 2 is an explanatory diagram showing the relationship between the camera projection surface 31 and the object 32 in the camera coordinate system.

本実施形態に係る車両用画像処理装置は、カメラ座標系のみを用い、世界座標系を併用しないため、座標系の相互変換等の処理が不要である。   Since the vehicular image processing apparatus according to the present embodiment uses only the camera coordinate system and does not use the world coordinate system, processing such as mutual conversion of the coordinate system is unnecessary.

カメラ座標系(x、y、z)は、カメラ11の中心を原点とする左手座標系である。カメラ座標系のz軸は、カメラ11の光軸に一致するよう設定される。   The camera coordinate system (x, y, z) is a left-handed coordinate system with the center of the camera 11 as the origin. The z axis of the camera coordinate system is set to coincide with the optical axis of the camera 11.

カメラ投影面31は、カメラ座標系においてz=fの面である。fはカメラ11の焦点距離である。カメラ11は、このカメラ投影面31に投影される車両周囲を撮像する。   The camera projection plane 31 is a plane with z = f in the camera coordinate system. f is the focal length of the camera 11. The camera 11 captures an image around the vehicle projected on the camera projection plane 31.

対象物32のある点Pのカメラ座標系の三次元座標をP(X、Y、Z)とすると、点Pのカメラ投影面31に投影された点pの座標はp(x、y、f)となる。点Pのz座標(光軸方向座標)をzと定義すると(Z=z)、X=(z/f)・x、Y=(z/f)・y、Z=zと書ける。このとき、距離rはr=(z/f)(x+y+f)と書ける。ここで、x、yは投影面31上のxy座標値であり、zは対象物32のz座標値であることに注意する。投影面31上のxy座標値は、カメラ11の画素と対応するものであるため、画像から容易に取得することができる。 When the three-dimensional coordinate of the camera coordinate system of the point P with the object 32 is P (X, Y, Z), the coordinate of the point p projected onto the camera projection surface 31 of the point P is p (x, y, f ) If the z coordinate (optical axis direction coordinate) of the point P is defined as z (Z = z), X = (z / f) · x, Y = (z / f) · y, and Z = z. At this time, the distance r can be written as r 2 = (z 2 / f 2 ) (x 2 + y 2 + f 2 ). Note that x and y are xy coordinate values on the projection plane 31 and z is a z coordinate value of the object 32. Since the xy coordinate values on the projection plane 31 correspond to the pixels of the camera 11, they can be easily obtained from the image.

動きベクトル算出部21は、ブロックマッチング法や勾配法などを用いて、カメラ111により撮像された複数の画像から画素ごとに動きベクトル(u、v)を算出する。   The motion vector calculation unit 21 calculates a motion vector (u, v) for each pixel from a plurality of images captured by the camera 111 using a block matching method, a gradient method, or the like.

回転成分算出部22は、動きベクトル(u、v)および消失点情報FOE(x0、y0)にもとづいて回転成分R、R、Rを算出する。以下、より具体的に説明する。 The rotation component calculation unit 22 calculates rotation components R x , R y , R z based on the motion vector (u, v) and the vanishing point information FOE (x0, y0). More specific description will be given below.

カメラ投影面31上の動きベクトル(u、v)は、次のように書けることが知られている。
U = xy(1/f)Rx−(x2+f2)(1/f)Ry+yRz−f(Tx/z)+x(Tz/z) (1)
V = (y2+f2)(1/f) Rx−xy(1/f)Ry−xRz−f(Ty/z)+y(Tz/z) (2)
It is known that the motion vector (u, v) on the camera projection plane 31 can be written as follows.
U = xy (1 / f) R x − (x 2 + f 2 ) (1 / f) R y + yR z −f (T x / z) + x (T z / z) (1)
V = (y 2 + f 2 ) (1 / f) R x −xy (1 / f) R y −xR z −f (T y / z) + y (T z / z) (2)

ここで、x、yは投影面31上のxy座標値、zは対象物32のz座標値をあらわす。また、R、R、R、T、T、Tは運動パラメータであり、R、R、Rは車両の回転成分をあらわし、T、T、Tは自車と対象物32との相対並進成分をあらわす。 Here, x and y are xy coordinate values on the projection surface 31, and z is a z coordinate value of the object 32. Also, R x , R y , R z , T x , T y , T z are motion parameters, R x , R y , R z represent the rotational components of the vehicle, and T x , T y , T z are A relative translation component between the own vehicle and the object 32 is shown.

車両の回転成分Rはx軸中心の回転成分であり、自車のピッチング成分をあらわす。また、Rはy軸中心の回転成分であり、自車のヨーイング成分をあらわす。ヨーイングは、主に舵角時(自車の曲進時)に発生する。Rはz軸中心の回転成分であり自車のローリング成分をあらわす。 The rotation component Rx of the vehicle is a rotation component about the x-axis, and represents the pitching component of the own vehicle. R y is a rotational component about the y-axis and represents the yawing component of the host vehicle. Yawing occurs mainly at the steering angle (when the vehicle is turning). R z is a rotation component about the z axis and represents a rolling component of the vehicle.

式(1)および式(2)は、それぞれ次のように変形できる。
u−xy(1/f)Rx+(x2+f2)(1/f)Ry−yRz = −f(Tx/z)+x(Tz/z) (3)
v−(y2+f2)(1/f) Rx+xy(1/f)Ry+xRz = −f(Ty/z)+y(Tz/z) (4)
Equations (1) and (2) can be modified as follows.
u−xy (1 / f) R x + (x 2 + f 2 ) (1 / f) R y −yR z = −f (T x / z) + x (T z / z) (3)
v− (y 2 + f 2 ) (1 / f) R x + xy (1 / f) R y + xR z = −f (T y / z) + y (T z / z) (4)

式(3)および式(4)において、左辺は動きベクトル(u、v)を回転成分で補正したものである。   In Equation (3) and Equation (4), the left side is obtained by correcting the motion vector (u, v) with a rotation component.

対象物32が静止物である場合には、式(3)の式(4)に対する比は、画素(x、y)からFOE(x0、y0)に向かう傾きと等しくなることが知られている(崎本隆志ら、火の国情報シンポジウム2003講演論文集、「拡張焦点を用いた移動車両検出及び追跡に関する研究」(2003))。
このため、次の式(5)が導かれる。
[u−xy(1/f)Rx+(x2+f2)(1/f)Ry−yRz]/[ v−(y2+f2)(1/f) Rx+xy(1/f)Ry+xRz]
= [x-x0]/[y-y0] (5)
When the object 32 is a stationary object, it is known that the ratio of the expression (3) to the expression (4) is equal to the inclination from the pixel (x, y) to the FOE (x0, y0). (Takashi Sakimoto et al., Proceedings of Fire Country Information Symposium 2003, “Research on Moving Vehicle Detection and Tracking Using Extended Focus” (2003)).
For this reason, the following formula (5) is derived.
[u−xy (1 / f) R x + (x 2 + f 2 ) (1 / f) R y −yR z ] / [v− (y 2 + f 2 ) (1 / f) R x + xy (1 / f) R y + xR z ]
= [x-x0] / [y-y0] (5)

したがって、R、R、Rを3つの未知数と考えれば、静止物に対応する少なくとも3つの画素の動きベクトルを得ることができればR、R、Rを算出できる。 Accordingly, if R x , R y , and R z are considered as three unknowns, R x , R y , and R z can be calculated if motion vectors of at least three pixels corresponding to the stationary object can be obtained.

そこで、回転成分算出部22は、消失点情報FOE(x0、y0)を記憶部13から取得し、静止物に対応する3つ以上の画素の動きベクトル(u、v)についての式(5)にもとづいて回転成分R、R、Rを算出する。すなわち、回転成分算出部22は、カメラ11が取得した画像から回転成分を算出することができる。 Therefore, the rotation component calculation unit 22 acquires the vanishing point information FOE (x0, y0) from the storage unit 13, and formula (5) regarding the motion vectors (u, v) of three or more pixels corresponding to the stationary object. Based on this, rotation components R x , R y , R z are calculated. That is, the rotation component calculation unit 22 can calculate the rotation component from the image acquired by the camera 11.

なお、回転成分は、車速データや舵角データなどの車両情報やジャイロセンサなどから求めることもできる。   The rotation component can also be obtained from vehicle information such as vehicle speed data and steering angle data, a gyro sensor, and the like.

スケールファクタ付き並進成分算出部23は、画像に含まれる対象物32に対応する動きベクトル(u、v)と車両の回転成分R、R、Rとにもとづいて、対象物32のスケールファクタ付きの相対並進成分(以下、スケールファクタ付き並進成分という)T/z、T/z、T/zを算出する。 The translation component with scale factor calculation unit 23 calculates the scale of the object 32 based on the motion vector (u, v) corresponding to the object 32 included in the image and the vehicle rotation components R x , R y , R z. A relative translation component with a factor (hereinafter referred to as a translation component with a scale factor) T x / z, T y / z, and T z / z is calculated.

スケールファクタ付き並進成分T/z、T/z、T/zは、対象物32の相対並進成分T、T、Tを対象物32のz座標値で除したものである。このため、相対並進成分T、T、Tが同一であれば、遠くにある(z座標値が大きい)ものほどスケールファクタ付き並進成分が小さくなる。対象物32の点Pが静止しているか移動しているかによらず、点Pはスケールファクタ付き並進成分T/z、T/z、T/zで運動していると画像上において観測される。以下、より具体的に説明する。 The translation components T x / z, T y / z, and T z / z with scale factors are obtained by dividing the relative translation components T x , T y , T z of the object 32 by the z coordinate value of the object 32. . For this reason, if the relative translation components T x , T y , and T z are the same, the farther away (the larger the z coordinate value), the smaller the translation component with a scale factor. Regardless of whether the point P of the object 32 is stationary or moving, the point P moves on the image if it moves with the translation components T x / z, T y / z, and T z / z with scale factors. Observed. More specific description will be given below.

回転成分R、R、Rは、画面内の任意の位置で共通なパラメータである。このため、式(3)および式(4)にもとづき、任意の画素に対して次式が成り立つ。
−f(Tx/z)+x(Tz/z) = a (6)
−f(Ty/z)+y(Tz/z) = b (7)
The rotation components R x , R y , and R z are parameters that are common at arbitrary positions in the screen. For this reason, the following equation is established for an arbitrary pixel based on the equations (3) and (4).
−f (T x / z) + x (T z / z) = a (6)
−f (T y / z) + y (T z / z) = b (7)

ここで、aは式(3)の左辺をあらわす観測値であり、bは式(4)の左辺をあらわす観測値である。対象物32の複数の画素(x、y)についての観測値a、bが得られれば、式(6)および式(7)から未知数T/z、T/z、T/zを得ることができる。 Here, a is an observed value that represents the left side of Equation (3), and b is an observed value that represents the left side of Equation (4). If observation values a and b for a plurality of pixels (x, y) of the object 32 are obtained, the unknowns T x / z, T y / z, and T z / z are obtained from the equations (6) and (7). Can be obtained.

そこで、スケールファクタ付き並進成分算出部23は、車両の回転成分R、R、Rと、画像に含まれる対象物32に対応する複数の画素についての動きベクトル(u、v)と、にもとづいて式(6)および式(7)のaおよびbを算出することにより、対象物32のスケールファクタ付き並進成分T/z、T/z、T/zを算出する。 Therefore, the translation component with scale factor calculation unit 23 includes vehicle rotation components R x , R y , R z , motion vectors (u, v) for a plurality of pixels corresponding to the object 32 included in the image, Based on the above, by calculating a and b in the equations (6) and (7), the translation components T x / z, T y / z, and T z / z with the scale factor of the object 32 are calculated.

換言すれば、スケールファクタ付き並進成分算出部23は、対象物32のz座標値を用いることなく対象物32のスケールファクタ付き並進成分T/z、T/z、T/zを得ることができる。 In other words, the translation component with scale factor calculation unit 23 obtains the translation components with scale factors T x / z, T y / z, and T z / z of the object 32 without using the z coordinate value of the object 32. be able to.

ユークリッド距離推定部24は、カメラ座標系における対象物32の三次元座標値(X、Y、Z)とスケールファクタ付き並進成分T/z、T/z、T/zとを用いてカメラ11の中心から対象物32までの距離rを時間tの関数としてあらわす式を立てる。以下、より具体的に説明する。 The Euclidean distance estimation unit 24 uses the three-dimensional coordinate values (X, Y, Z) of the object 32 in the camera coordinate system and the translation components T x / z, T y / z, T z / z with scale factors. An expression expressing the distance r from the center of the camera 11 to the object 32 as a function of time t is established. More specific description will be given below.

現時刻から時刻tまで自車および対象物32は同じ運動をすると仮定すると、時刻t秒後における原点と点Pとの距離rの2乗はユークリッド距離として、時刻tの2次関数であらわすことができる。
r2 = (X−Txt)2+(Y−Tyt)2+(Z−Tzt)2 (8)
Assuming that the vehicle and the object 32 move in the same way from the current time to time t, the square of the distance r between the origin and the point P after time t seconds is expressed as a Euclidean distance as a quadratic function at time t. Can do.
r 2 = (X−T x t) 2 + (Y−T y t) 2 + (Z−T z t) 2 (8)

上述の通り、点Pのz座標(光軸方向座標)をzと定義すると(Z=z)、X=(z/f)・x、Y=(z/f)・y、Z=zと書ける。これを式(8)に代入すると、次式を得る。
r2 = (xz/f−Txt)2+(yz/f−Tyt)2+(z−Tzt)2 (9)
As described above, if the z coordinate (optical axis direction coordinate) of the point P is defined as z (Z = z), X = (z / f) · x, Y = (z / f) · y, Z = z I can write. Substituting this into equation (8) yields:
r 2 = (xz / f−T x t) 2 + (yz / f−T y t) 2 + (z−T z t) 2 (9)

式(9)は、次のように変形できる。
r2 / z2 = At2−2Bt+C (10)
ただし、A = (Tx/z)2+(Ty/z)2+(Tz/z)2
B = (1/ f)(x Tx/z+yTy/z +fTz/z)、
C = (1/ f2)( x2+y2+f2) をそれぞれあらわす。
Equation (9) can be modified as follows.
r 2 / z 2 = At 2 −2Bt + C (10)
Where A = (T x / z) 2 + (T y / z) 2 + (T z / z) 2 ,
B = (1 / f) (x T x / z + yT y / z + fT z / z),
C = (1 / f 2 ) (x 2 + y 2 + f 2 ) respectively.

式(10)のAは正であるから、rは下に凸のtの2次関数である。式(10)から、rの極小値rminおよび極小値rminをとる時間tはそれぞれ次のようにあらわせる。
r2min=(z/f)2{(x2+y2+f2)−(xTx/z+yTy/z+fTz/z)2/ (Tx 2/z2+Ty 2/z2+Tz 2/z2)} (11)
t = (1/f)(xTx/z +yTy/z +fTz/z)/ (Tx 2/z2 +Ty 2/z2 +Tz 2/z2) (12)
Since A in Expression (10) is positive, r 2 is a quadratic function of t convex downward. From equation (10), each time t the minima r 2 min and minimum value r 2 min of r 2 can be expressed as follows.
r 2 min = (z / f) 2 ((x 2 + y 2 + f 2 ) − (xT x / z + yT y / z + fT z / z) 2 / (T x 2 / z 2 + T y 2 / z 2 + T z 2 / z 2 )} (11)
t = (1 / f) (xT x / z + yT y / z + fT z / z) / (T x 2 / z 2 + T y 2 / z 2 + T z 2 / z 2 ) (12)

式(11)から明らかなように、rの極小値は、スケールファクタ付き並進成分T/z、T/z、T/zおよび対象物32のz座標値が得られれば算出することができる。また、式(12)から明らかなように、rが極小値となる時刻tは、スケールファクタ付き並進成分T/z、T/z、T/zが得られれば算出することができる。 As is clear from equation (11), the minimum value of r 2 is calculated if the translation components T x / z, T y / z, T z / z with scale factors and the z coordinate value of the object 32 are obtained. be able to. Further, as is clear from the equation (12), the time t at which r 2 becomes the minimum value can be calculated if the translation components T x / z, T y / z, and T z / z with scale factors are obtained. it can.

がゼロになるということは、点Pが原点(カメラ中心)に到達することを意味する。したがって、rの極小値は、車両と対象物32との衝突危険性を判定するための指標として用いることができる。 that r 2 is zero means that the point P reaches the origin (camera center). Therefore, the minimum value of r 2 can be used as an index for determining the risk of collision between the vehicle and the object 32.

また、車両と対象物が所定の距離(以下、距離マージンr0という)以内に近づくか否かを判定することも、衝突危険性の判定に有効であると考えられる。車両と対象物が所定の距離(以下、距離マージンr0という)以内に近づくか否かを判定するためには、まず式(9)の両辺から距離マージンr0 を減じた次式を立てる。
r2 −r0 2 = (xz/f−Txt)2+(yz/f−Tyt)2+(z−Tzt)2 −r0 2 (13)
In addition, it is considered effective to determine whether or not the vehicle and the object are within a predetermined distance (hereinafter referred to as a distance margin r0) in determining the collision risk. Distance the vehicle and the object is given (hereinafter, the distance margin r0 hereinafter) to determine whether the approaches within, first make the following equation obtained by subtracting the distance margin r0 2 from both sides of the equation (9).
r 2 −r0 2 = (xz / f−T x t) 2 + (yz / f−T y t) 2 + (z−T z t) 2 −r0 2 (13)

式(13)から、r−r0の極小値r−r0minは次のようにあらわせる。r2 −r02min =(z/f)2{(x2+y2+f2)−(xTx/z+yTy/z+fTz/z)2/ (Tx 2/z2+Ty 2/z2+Tz 2/z2)} −r0 2 (14) From equation (13), the minimum value r 2 -r0 2 min of r 2 -r0 2 is expressed as follows. r 2 −r0 2 min = (z / f) 2 ((x 2 + y 2 + f 2 ) − (xT x / z + yT y / z + fT z / z) 2 / (T x 2 / z 2 + T y 2 / z 2 + T z 2 / z 2 )} −r0 2 (14)

なお、r−r0が極小値をとる時間tは式(10)であらわせる。 Note that the time t for which r 2r 0 2 takes the minimum value is expressed by Expression (10).

以下の説明では、ユークリッド距離推定部24が、記憶部13から距離マージンr0を取得し、カメラ座標系における対象物32の三次元座標値(X、Y、Z)とスケールファクタ付き並進成分T/z、T/z、T/zとを用いた式(8)にもとづく式(14)を立て、この式を衝突判定部25に与える場合の例について示す。 In the following description, the Euclidean distance estimation unit 24 acquires the distance margin r0 from the storage unit 13, and the three-dimensional coordinate value (X, Y, Z) of the object 32 in the camera coordinate system and the translation component T x with a scale factor. Formula (14) based on Formula (8) using / z, T y / z, and T z / z is established, and an example of giving this formula to the collision determination unit 25 will be described.

衝突判定部25は、式(8)にもとづく式(14)を用いて、カメラ11の中心から対象物32までの最近接距離(rの極小値)が距離マージンr0以下であるか否か、すなわち式(14)においてr−r0の極小値がゼロ以下となるか否かを判定する。なお、衝突判定部25は、カメラ11の中心から対象物32までの最近接距離が距離マージンr0以下となる場合にはさらに、車両と対象物32とが衝突すると判定してもよい。また、衝突判定部25は、r−r0の極小値が正である場合、この極小値が記憶部13に記憶された接近閾値d1より小さいか(ただし、d1>0とする)否かを判定する。 The collision determination unit 25 uses the equation (14) based on the equation (8) to determine whether or not the closest distance (minimum value of r) from the center of the camera 11 to the object 32 is equal to or less than the distance margin r0. That is, it is determined whether or not the minimum value of r 2r 0 2 is equal to or less than zero in Expression (14). The collision determination unit 25 may further determine that the vehicle and the object 32 collide when the closest distance from the center of the camera 11 to the object 32 is equal to or less than the distance margin r0. In addition, when the minimum value of r 2r 0 2 is positive, the collision determination unit 25 determines whether or not this minimum value is smaller than the approach threshold d1 stored in the storage unit 13 (provided that d1> 0). Determine.

式(14)を解くためには、スケールファクタ付き並進成分T/z、T/z、T/zのほか、対象物32のz座標値が必要である。対象物32のz座標値は、z位置取得部26から衝突判定部25に与えられる。 In order to solve Expression (14), the z-coordinate value of the object 32 is necessary in addition to the translation components T x / z, T y / z, and T z / z with scale factors. The z coordinate value of the object 32 is given from the z position acquisition unit 26 to the collision determination unit 25.

z位置取得部26は、対象物32のz座標値を取得して衝突判定部25に与える。たとえば、対象物32が静止物である場合は、相対並進成分T、T、Tを別途求めておき、相対並進成分T、T、Tとスケールファクタ付き並進成分T/z、T/z、T/zとから求めることができる。相対並進成分T、T、Tは、画像から求めることもできるし、車両の車速データや舵角データなどの車両情報や加速度センサなどから求めることもできる。なお、対象物32のz座標値は、1台のカメラ11以外の部材を用いる場合、レーダ、レーダレーザ、光切断法、ステレオカメラなどによる距離測定法により求めることもできる。 The z position acquisition unit 26 acquires the z coordinate value of the object 32 and gives it to the collision determination unit 25. For example, when the object 32 is a stationary object, the relative translation components T x , T y , T z are separately obtained, and the relative translation components T x , T y , T z and the translation component T x / with a scale factor are obtained. z, T y / z, and T z / z. The relative translation components T x , T y , and T z can be obtained from an image, or can be obtained from vehicle information such as vehicle speed data and steering angle data of the vehicle, an acceleration sensor, and the like. Note that the z-coordinate value of the object 32 can also be obtained by a distance measurement method using a radar, a radar laser, a light cutting method, a stereo camera, or the like when a member other than one camera 11 is used.

図3(a)は、r−r0の極小値が負の場合におけるr−r0と時間tの関係の一例を示す説明図であり、(b)はr−r0の極小値が正の場合におけるr−r0と時間tの関係の一例を示す説明図である。 3 (a) is an explanatory diagram showing an example of the relationship between r 2 -r0 2 and the time t when the minimum value of r 2 -r0 2 is negative, (b) it is r 2 -r0 2 tiny value is an explanatory diagram showing an example of the relationship between r 2 -r0 2 and the time t in the case of a positive.

衝突時間推定部27は、式(8)にもとづく式(14)を用いて、カメラ11の中心から対象物32までの距離rが距離マージンr0となる時間を算出する。なお、カメラ11の中心から対象物32までの距離rが距離マージンr0となるのは、r−r0の極小値がゼロ以下の場合のみである(図3(a)参照)。 The collision time estimation unit 27 calculates the time when the distance r from the center of the camera 11 to the object 32 becomes the distance margin r0 using the equation (14) based on the equation (8). Incidentally, the distance r from the center of the camera 11 to the object 32 is the distance margin r0 is only the minimum value of r 2 -r0 2 is less than or equal to zero (see Figure 3 (a)).

具体的には、衝突時間推定部27は、式(14)の左辺をゼロとした式の実根t1およびt2を求め、小さいほうの根t1を衝突までの時間TTC(Time To Collision)とする。   Specifically, the collision time estimation unit 27 obtains the real roots t1 and t2 of the equation with the left side of the equation (14) being zero, and sets the smaller root t1 as a time TTC (Time To Collision) until the collision.

衝突危険度判定部28は、カメラ11の中心から対象物32までの最近接距離と、カメラ11の中心から対象物32までの距離rがr0となる時間TTCとに応じて車両と対象物32との衝突危険性を複数の段階に分類する。以下の説明では、衝突危険性が3段階に分類される場合の例について示す。   The collision risk determination unit 28 determines the vehicle and the object 32 according to the closest distance from the center of the camera 11 to the object 32 and the time TTC when the distance r from the center of the camera 11 to the object 32 becomes r0. The collision risk is classified into multiple stages. In the following description, an example in which the collision risk is classified into three stages will be described.

より具体的には、衝突危険度判定部28は、最近接距離がr0以下であり、かつTTCが記憶部13に記憶された第1の時間閾値s1より小さいと、危険度を「高」と判定する。また、最近接距離がr0以下であり、かつTTCが記憶部13に記憶された第1の時間閾値s1以上第2の時間閾値s2未満であると、危険度を「中」と判定し、s2以上であると危険度を「低」と判定する。   More specifically, when the closest distance is r0 or less and the TTC is smaller than the first time threshold value s1 stored in the storage unit 13, the collision risk level determination unit 28 sets the risk level to “high”. judge. If the closest distance is r0 or less and TTC is equal to or greater than the first time threshold s1 and less than the second time threshold s2 stored in the storage unit 13, the risk is determined as “medium”, and s2 If it is above, the degree of risk is determined as “low”.

また、衝突危険度判定部28は、最近接距離がr0より大きくかつ、r−r0の極小値が記憶部13に記憶された接近閾値d1より小さい場合は危険度を「中」と判定し、d1以上である場合は危険度を「低」と判定する。 Further, the collision risk judging section 28, and larger than the closest distance r0, if r 2 -r0 2 of minimum values has been less than approaching threshold d1 stored in the storage unit 13 the risk "medium" determination If it is greater than or equal to d1, the risk is determined to be “low”.

警告提示部29は、衝突危険度判定部28により分類された衝突危険性に応じて、表示部14やスピーカ15を介して運転者に対して警告を行う。たとえば、危険度「高」の場合、運転者に緊急であることが認識されるよう、表示部14を介した映像およびスピーカ15を介した音声で衝突する危険があることを通知するとよい。また、危険度「中」の場合は、運転者に注意を促す程度に、表示部14を介した映像およびスピーカ15を介した音声で衝突する危険があることを通知するとよい。危険度「低」の場合は、運転者への警告を行わなくてもよい。   The warning presenting unit 29 warns the driver via the display unit 14 and the speaker 15 according to the collision risk classified by the collision risk determination unit 28. For example, when the degree of danger is “high”, the driver may be notified that there is a danger of a collision with a video through the display unit 14 and a voice through the speaker 15 so that the driver is recognized to be urgent. If the degree of danger is “medium”, it is preferable to notify that there is a danger of collision with an image through the display unit 14 and a sound through the speaker 15 to the extent that the driver is alerted. When the degree of risk is “low”, the driver need not be warned.

次に、本実施形態に係る車両用画像処理装置および車両用画像処理方法の動作の一例について説明する。   Next, an example of the operation of the vehicle image processing apparatus and the vehicle image processing method according to the present embodiment will be described.

図4は、衝突予測ECU12のCPUが、カメラ11により取得された画像にもとづいて車両の曲進および車両の振動による影響を考慮して対象物との衝突可能性を判定する際の手順を示すフローチャートである。図4において、Sに数字を付した符号は、フローチャートの各ステップを示す。   FIG. 4 shows a procedure when the CPU of the collision prediction ECU 12 determines the possibility of collision with an object in consideration of the influence of vehicle curvature and vehicle vibration based on the image acquired by the camera 11. It is a flowchart. In FIG. 4, reference numerals with numbers added to S indicate steps in the flowchart.

まず、ステップST1において、動きベクトル算出部21は、カメラ11から撮像画像の画像データを取得する。   First, in step ST <b> 1, the motion vector calculation unit 21 acquires image data of a captured image from the camera 11.

次に、ステップST2において、動きベクトル算出部は、取得した画像データにもとづき、カメラ11により撮像された複数の画像間の動きベクトル(u、v)を画素ごとに求める。   Next, in step ST2, the motion vector calculation unit obtains a motion vector (u, v) between a plurality of images captured by the camera 11 for each pixel based on the acquired image data.

次に、ステップST3において、回転成分算出部22は、消失点情報FOE(x0、y0)を記憶部13から取得し、静止物に対応する3つ以上の動きベクトル(u、v)についての式(5)にもとづいて回転成分R、R、Rを算出する。 Next, in step ST3, the rotation component calculation unit 22 acquires vanishing point information FOE (x0, y0) from the storage unit 13, and formulas for three or more motion vectors (u, v) corresponding to the stationary object. Based on (5), rotation components R x , R y , R z are calculated.

次に、ステップST4において、スケールファクタ付き並進成分算出部23は、車両の回転成分R、R、Rと、画像に含まれる対象物32に対応する複数の画素についての動きベクトル(u、v)と、にもとづいて式(6)および式(7)のaおよびbを算出することにより、対象物32のスケールファクタ付き並進成分T/z、T/z、T/zを算出する。 Next, in step ST4, the translation component with scale factor calculation unit 23 calculates the rotational components R x , R y , R z of the vehicle and motion vectors (u) for a plurality of pixels corresponding to the object 32 included in the image. , V) and a and b in the equations (6) and (7) based on the above, the translational components T x / z, T y / z, T z / z with the scale factor of the object 32 are calculated. Is calculated.

次に、ステップST5において、ユークリッド距離推定部24は、記憶部13から距離マージンr0を取得し、カメラ座標系における対象物32の三次元座標値(X、Y、Z)とスケールファクタ付き並進成分T/z、T/z、T/zとを用いた式(8)にもとづく式(9)および式(10)を立てる。 Next, in step ST5, the Euclidean distance estimation unit 24 acquires the distance margin r0 from the storage unit 13, and the three-dimensional coordinate value (X, Y, Z) of the object 32 in the camera coordinate system and the translation component with a scale factor. Formulas (9) and (10) based on Formula (8) using T x / z, T y / z, and T z / z are established.

次に、ステップST6において、ユークリッド距離推定部24は、式(9)の両辺から距離マージンr0を減じた式(13)を立てる。また、ユークリッド距離推定部24は、式(13)にもとづきr−r0の極小値を求めるための式(14)を立て、この式(14)を衝突判定部25に与える。 Next, in step ST6, the Euclidean distance estimation unit 24 establishes Expression (13) obtained by subtracting the distance margin r0 from both sides of Expression (9). Further, the Euclidean distance estimation unit 24 sets a formula (14) for determining the on basis r 2 -r0 2 minima formula (13) gives the equation (14) to the collision determination unit 25.

次に、ステップST7において、衝突判定部25は、z位置取得部26から対象物32のz座標値を取得し、このz座標値およびスケールファクタ付き並進成分T/z、T/z、T/zを代入して式(14)を解くことにより、r−r0の極小値がゼロ以下となるか否かを判定する。r−r0の極小値がゼロ以下となる場合はステップST8に進む。一方、r−r0の極小値が正である場合は、ステップST13に進む。 Next, in step ST7, the collision determination unit 25 acquires the z coordinate value of the object 32 from the z position acquisition unit 26, and the z coordinate value and the translation components T x / z, T y / z with scale factors, By substituting T z / z and solving equation (14), it is determined whether or not the minimum value of r 2r 0 2 is less than or equal to zero. If r 2 -r0 2 minimum value is less than zero, the process proceeds to step ST8. On the other hand, if the minimum value of r 2 -r0 2 is positive, the process proceeds to step ST13.

次に、ステップST8において、衝突時間推定部27は、式(14)の左辺をゼロとした式の実根t1およびt2を求め、小さいほうの根t1を衝突までの時間TTC(Time To Collision)と推定する。   Next, in step ST8, the collision time estimation unit 27 obtains the real roots t1 and t2 of the equation with the left side of the equation (14) being zero, and uses the smaller root t1 as a time TTC (Time To Collision) until the collision. presume.

次に、ステップST9において、衝突危険度判定部28は、TTCが記憶部13に記憶された第1の時間閾値s1より小さいか否かを判定する。TTCが第1の時間閾値s1より小さい場合はステップST10に進む。一方、TTCが第1の時間閾値s1以上である場合はステップST11に進む。   Next, in step ST <b> 9, the collision risk determination unit 28 determines whether or not TTC is smaller than the first time threshold s <b> 1 stored in the storage unit 13. If TTC is smaller than the first time threshold s1, the process proceeds to step ST10. On the other hand, if the TTC is equal to or greater than the first time threshold s1, the process proceeds to step ST11.

次に、ステップS10において、衝突危険度判定部28は、衝突危険度を「高」と判定し、ステップST15に進む。   Next, in step S10, the collision risk determination unit 28 determines that the collision risk is “high”, and proceeds to step ST15.

他方、ステップST9でTTCが第1の時間閾値s1以上であると判定されると、ステップST11において、衝突危険度判定部28は、TTCが記憶部13に記憶された第2の時間閾値s2より小さいか否かを判定する。TTCが第2の時間閾値s2より小さい場合はステップST12に進む。一方、TTCが第2の時間閾値s2以上である場合はステップST14に進む。   On the other hand, if it is determined in step ST9 that TTC is equal to or greater than the first time threshold s1, the collision risk determination unit 28 determines in step ST11 that the TTC is greater than the second time threshold s2 stored in the storage unit 13. It is determined whether or not it is small. If TTC is smaller than the second time threshold s2, the process proceeds to step ST12. On the other hand, if the TTC is equal to or greater than the second time threshold s2, the process proceeds to step ST14.

次に、ステップST12において、衝突危険度判定部28は、衝突危険度を「中」と判定し、ステップST15に進む。   Next, in step ST12, the collision risk determination unit 28 determines that the collision risk is “medium”, and the process proceeds to step ST15.

また、ステップST13において、衝突危険度判定部28は、衝突危険度を「低」と判定し、ステップST15に進む。   In step ST13, the collision risk determination unit 28 determines that the collision risk is “low”, and the process proceeds to step ST15.

他方、ステップST7でr−r0の極小値が正であると判定されると、ステップST14において、衝突判定部25はr−r0の極小値が記憶部13に記憶された接近閾値d1より小さいか否かを判定する。r−r0の極小値が接近閾値d1より小さい場合は、ステップS12に進んで衝突危険度判定部28により衝突危険度が「中」であると判定される。一方、r−r0の極小値が接近閾値d1以上である場合は、ステップS14に進んで衝突危険度判定部28により衝突危険度が「低」であると判定される。 On the other hand, when the minimum value of r 2 -r0 2 is determined to be positive at step ST7, at step ST14, the collision determination unit 25 approaches threshold minimum value of r 2 -r0 2 is stored in the storage unit 13 It is determined whether it is smaller than d1. When the minimum value of r 2r 0 2 is smaller than the approach threshold value d 1, the process proceeds to step S 12 and the collision risk determination unit 28 determines that the collision risk is “medium”. On the other hand, if the minimum value of r 2r 0 2 is greater than or equal to the approach threshold value d 1, the process proceeds to step S 14 and the collision risk determination unit 28 determines that the collision risk is “low”.

そして、ステップS15において、警告提示部29は、衝突危険度判定部28により分類された衝突危険性に応じて、表示部14やスピーカ15を介して運転者に対して警告を行う。   In step S <b> 15, the warning presentation unit 29 issues a warning to the driver via the display unit 14 and the speaker 15 according to the collision risk classified by the collision risk determination unit 28.

以上の手順により、カメラ11により取得された画像にもとづいて車両の曲進および車両の振動による影響を考慮して対象物との衝突可能性を判定することができる。   According to the above procedure, the possibility of collision with an object can be determined based on the image acquired by the camera 11 in consideration of the influence of vehicle curvature and vehicle vibration.

本実施形態に係る車両用画像処理装置10は、対象物32のスケールファクタ付き並進成分T/z、T/z、T/zを算出する際に、動きベクトル(u、v)を回転成分R、R、Rで補正した式(3)および式(4)を用いる。このため、車両の曲進や振動の影響は排除される。したがって、車両用画像処理装置10によれば、自車の曲進および自車の振動による影響を考慮して対象物32との衝突可能性を的確に判定することができる。 The vehicular image processing apparatus 10 according to the present embodiment calculates the motion vector (u, v) when calculating the translation components T x / z, T y / z, and T z / z with the scale factor of the object 32. Equations (3) and (4) corrected with the rotation components R x , R y , and R z are used. For this reason, the influence of the curvature and vibration of the vehicle is eliminated. Therefore, according to the vehicular image processing apparatus 10, it is possible to accurately determine the possibility of collision with the object 32 in consideration of the influence of the curvature of the own vehicle and the vibration of the own vehicle.

また、車両用画像処理装置10は、車両と対象物32との距離rにもとづいて衝突危険性を判定する。したがって、対象物32が静止物であるか移動物であるかによらず、正確に衝突危険性を判定することができる。また、対象物32が静止物であれば、1台のカメラ11のみからz座標値を得ることができるため、車両用画像処理装置10を簡素に構成することができる。   Further, the vehicle image processing apparatus 10 determines the collision risk based on the distance r between the vehicle and the object 32. Therefore, the collision risk can be accurately determined regardless of whether the object 32 is a stationary object or a moving object. Further, if the object 32 is a stationary object, the z-coordinate value can be obtained from only one camera 11, and therefore the vehicle image processing apparatus 10 can be configured simply.

また、車両用画像処理装置10は、単一の座標系(カメラ座標系)のみを用いる。このため、カメラ座標系と世界座標系とを併用する場合に比べ、座標系のの相互変換等の処理が不要となり、衝突危険予測に必要な演算量を少なくすることができる。   The vehicle image processing apparatus 10 uses only a single coordinate system (camera coordinate system). For this reason, compared with the case where the camera coordinate system and the world coordinate system are used in combination, processing such as mutual conversion of the coordinate system becomes unnecessary, and the amount of calculation required for collision risk prediction can be reduced.

また、車両用画像処理装置10は、カメラ11の中心から対象物32までの最近接距離と、カメラ11の中心から対象物32までの距離rがr0となる時間TTCとに応じて車両と対象物32との衝突危険性を複数の段階に分類し、この分類に応じた適切な警告を運転者に与えることができる。   Further, the vehicle image processing apparatus 10 determines whether the vehicle and the object are in accordance with the closest distance from the center of the camera 11 to the object 32 and the time TTC when the distance r from the center of the camera 11 to the object 32 is r0. The risk of collision with the object 32 can be classified into a plurality of stages, and an appropriate warning corresponding to this classification can be given to the driver.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

また、本発明の実施形態では、フローチャートの各ステップは、記載された順序に沿って時系列的に行われる処理の例を示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行される処理をも含むものである。   Further, in the embodiment of the present invention, each step of the flowchart shows an example of processing that is performed in time series in the order described. The process to be executed is also included.

10 車両用画像処理装置
11 カメラ
12 衝突予測ECU
13 記憶部
21 動きベクトル算出部
22 回転成分算出部
23 スケールファクタ付き並進成分算出部
25 衝突判定部
26 z位置取得部
27 衝突時間推定部
28 衝突危険度判定部
31 カメラ投影面
32 対象物
DESCRIPTION OF SYMBOLS 10 Vehicle image processing apparatus 11 Camera 12 Collision prediction ECU
DESCRIPTION OF SYMBOLS 13 Memory | storage part 21 Motion vector calculation part 22 Rotation component calculation part 23 Translation component calculation part 25 with a scale factor Collision determination part 26 z position acquisition part 27 Collision time estimation part 28 Collision risk determination part 31 Camera projection plane 32 Target object

Claims (6)

車両に設けられ前記車両の周辺を撮像するカメラと、
前記カメラにより撮像された複数の画像間の動きベクトルを求める動きベクトル算出部と、
前記画像に含まれる対象物に対応する動きベクトルと前記車両の回転成分とにもとづいて、カメラ座標系の3軸方向それぞれのスケールファクタ付き相対並進成分を算出するスケールファクタ付き並進成分算出部と、
前記カメラ座標系における前記対象物の光軸方向座標値を取得するz位置取得部と、
前記カメラ座標系における前記対象物の前記光軸方向座標値を含む三次元座標値と前記スケールファクタ付き相対並進成分とを用いて前記カメラの中心から前記対象物までの距離を時間の関数としてあらわした式にもとづいて、前記カメラの中心から前記対象物までの最近接距離が所定の距離以下であるか否かを判定する衝突判定部と、
前記最近接距離が前記所定の距離以下であると、前記車両と前記対象物が衝突すると判定する衝突危険度判定部と、
を備えたことを特徴とする車両用画像処理装置。
A camera provided in the vehicle for imaging the periphery of the vehicle;
A motion vector calculation unit for obtaining a motion vector between a plurality of images captured by the camera;
Wherein based on the rotational component of the vehicle and the motion vector corresponding to the object included in the image, the scale factor with translational component calculation unit for calculating a three-axis directions of the scale factor with the relative translational component of camera coordinate system ,
A z-position acquisition unit that acquires optical axis direction coordinate values of the object in the camera coordinate system;
A distance from the center of the camera to the object is expressed as a function of time using a three-dimensional coordinate value including the optical axis direction coordinate value of the object in the camera coordinate system and the relative translation component with the scale factor. A collision determination unit that determines whether or not the closest distance from the center of the camera to the object is equal to or less than a predetermined distance based on the equation;
A collision risk determination unit that determines that the vehicle and the object collide when the closest distance is equal to or less than the predetermined distance;
An image processing apparatus for a vehicle, comprising:
前記対象物は静止物であり、
消失点の情報および少なくとも3つの画素の動きベクトルにもとづいて前記回転成分を算出する回転成分算出部、
をさらに備えた請求項1記載の車両用画像処理装置。
The object is a stationary object;
A rotation component calculation unit that calculates the rotation component based on vanishing point information and a motion vector of at least three pixels;
The vehicular image processing apparatus according to claim 1, further comprising:
前記z位置取得部は、
前記カメラにより撮像された画像から前記車両の並進成分を求め、前記車両の並進成分を前記スケールファクタ付き相対並進成分で除すことにより前記カメラ座標系における前記対象物の前記光軸方向座標値を取得する、
請求項1または2に記載の車両用画像処理装置。
The z position acquisition unit
The translation component of the vehicle is obtained from an image captured by the camera, and the translation component of the vehicle is divided by the relative translation component with the scale factor to obtain the coordinate value in the optical axis direction of the object in the camera coordinate system. get,
The image processing apparatus for vehicles according to claim 1 or 2.
前記カメラ座標系における前記対象物の前記光軸方向座標値を含む三次元座標値と前記スケールファクタ付き相対並進成分とを用いて前記カメラの中心から前記対象物までの距離を時間の2次関数としてあらわした式にもとづいて、前記カメラの中心から前記対象物までの距離が前記所定の距離となる時間を算出する衝突時間推定部、
をさらに備えた請求項1ないし3のいずれか1項に記載の車両用画像処理装置。
Using the three-dimensional coordinate value including the coordinate value in the optical axis direction of the object in the camera coordinate system and the relative translation component with the scale factor, the distance from the camera center to the object is a quadratic function of time. A collision time estimator that calculates a time when the distance from the center of the camera to the object is the predetermined distance, based on the expression expressed as:
The vehicle image processing apparatus according to claim 1, further comprising:
前記衝突危険度判定部は、
前記最近接距離と前記カメラの中心から前記対象物までの距離が前記所定の距離となる時間とに応じて前記車両と前記対象物との衝突危険性を複数の段階に分類する、
請求項4記載の車両用画像処理装置。
The collision risk determination unit
Classifying the risk of collision between the vehicle and the object into a plurality of stages according to the closest distance and a time when the distance from the center of the camera to the object is the predetermined distance;
The image processing apparatus for vehicles according to claim 4.
動きベクトル算出部、スケールファクタ付き並進成分算出部、z位置取得部、衝突判定部および衝突危険度判定部を備えた車両用画像処理装置を用いた車両用画像処理方法であって、
車両に設けられたカメラが前記車両の周辺を撮像するステップと、
前記動きベクトル算出部が、前記カメラにより撮像された複数の画像間の動きベクトルを画素ごとに求めるステップと、
前記スケールファクタ付き並進成分算出部が、前記車両の回転成分と前記画像に含まれる対象物に対応する動きベクトルとにもとづいて、カメラ座標系の3軸方向それぞれのスケールファクタ付き相対並進成分を算出するステップと、
前記z位置取得部が、前記カメラ座標系における前記対象物の光軸方向座標値を取得するステップと、
前記衝突判定部が、前記カメラ座標系における前記対象物の前記光軸方向座標値を含む三次元座標値と前記スケールファクタ付き相対並進成分とを用いて前記カメラの中心から前記対象物までの距離を時間の関数としてあらわした式にもとづいて、前記カメラの中心から前記対象物までの最近接距離が所定の距離以下であるか否かを判定するステップと、
前記衝突危険度判定部が、前記最近接距離が前記所定の距離以下であると、前記車両と前記対象物が衝突すると判定するステップと、
を有することを特徴とする車両用画像処理方法。
A vehicle image processing method using a vehicle image processing apparatus including a motion vector calculation unit, a translation component calculation unit with a scale factor, a z position acquisition unit, a collision determination unit, and a collision risk determination unit,
A camera provided in the vehicle images the periphery of the vehicle;
The motion vector calculating unit obtaining a motion vector between a plurality of images captured by the camera for each pixel;
Wherein with scale factor translational component calculation unit, on the basis of the motion vector corresponding to the object contained in the rotary component and the image of the vehicle, the three axis directions of the scale factor with the relative translational component of camera coordinate system A calculating step;
The z-position acquisition unit acquires an optical axis direction coordinate value of the object in the camera coordinate system;
The collision determination unit uses a three-dimensional coordinate value including the optical axis direction coordinate value of the object in the camera coordinate system and a relative translation component with the scale factor to a distance from the camera center to the object. Determining whether the closest distance from the center of the camera to the object is equal to or less than a predetermined distance based on an expression expressed as a function of time;
The collision risk determination unit determining that the vehicle and the object collide when the closest distance is equal to or less than the predetermined distance;
An image processing method for a vehicle, comprising:
JP2010259416A 2010-11-19 2010-11-19 Image processing apparatus for vehicle and image processing method for vehicle Active JP5731801B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010259416A JP5731801B2 (en) 2010-11-19 2010-11-19 Image processing apparatus for vehicle and image processing method for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010259416A JP5731801B2 (en) 2010-11-19 2010-11-19 Image processing apparatus for vehicle and image processing method for vehicle

Publications (2)

Publication Number Publication Date
JP2012113358A JP2012113358A (en) 2012-06-14
JP5731801B2 true JP5731801B2 (en) 2015-06-10

Family

ID=46497544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010259416A Active JP5731801B2 (en) 2010-11-19 2010-11-19 Image processing apparatus for vehicle and image processing method for vehicle

Country Status (1)

Country Link
JP (1) JP5731801B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9405798B2 (en) * 2013-06-03 2016-08-02 GM Global Technology Operations LLC Rapid nearest neighbor searching using KD-ferns
KR102627453B1 (en) 2018-10-17 2024-01-19 삼성전자주식회사 Method and device to estimate position

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2882136B2 (en) * 1991-11-25 1999-04-12 日本電気株式会社 Video analysis method
JPH11353565A (en) * 1998-06-09 1999-12-24 Yazaki Corp Method and device for alarm of collision for vehicle
JP2003067752A (en) * 2001-08-28 2003-03-07 Yazaki Corp Vehicle periphery monitoring device

Also Published As

Publication number Publication date
JP2012113358A (en) 2012-06-14

Similar Documents

Publication Publication Date Title
JP6141601B2 (en) In-vehicle camera automatic calibration device
JP6473571B2 (en) TTC measuring device and TTC measuring program
JP6303090B2 (en) Image processing apparatus and image processing program
JP5455124B2 (en) Camera posture parameter estimation device
JP6883215B2 (en) Measuring equipment and methods, and programs
JP6764573B2 (en) Image processing equipment, image processing methods, and programs
US20170096106A1 (en) Video synthesis system, video synthesis device, and video synthesis method
US10242272B2 (en) Method for advanced and low cost cross traffic alert, related processing system, cross traffic alert system and vehicle
JP6701532B2 (en) Image processing apparatus and image processing method
JP2010198552A (en) Driving state monitoring device
CN109196557A (en) Image processing apparatus, image processing method and vehicle
KR20170007146A (en) Semiconductor device, control system and observation method
JP2015184907A (en) Image processor and image processing program
JPWO2019142660A1 (en) Image processing device, image processing method, and program
JP6922169B2 (en) Information processing equipment and methods, vehicles, and information processing systems
JP5588332B2 (en) Image processing apparatus for vehicle and image processing method for vehicle
JP5731801B2 (en) Image processing apparatus for vehicle and image processing method for vehicle
WO2016158261A1 (en) Image processing device
CN112129313A (en) AR navigation compensation system based on inertial measurement unit
EP3404911A1 (en) Imaging system and moving body control system
JP2012123751A (en) Image processor for vehicle and image processing method for vehicle
JP7429246B2 (en) Methods and systems for identifying objects
JP2007200074A (en) Peripheral object tracking device and peripheral object position prediction method
JP2018147241A (en) Image processing device, image processing method, and image processing program
JP5827561B2 (en) Solid object judgment device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150410

R150 Certificate of patent or registration of utility model

Ref document number: 5731801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250