JP5588332B2 - Image processing apparatus for vehicle and image processing method for vehicle - Google Patents

Image processing apparatus for vehicle and image processing method for vehicle Download PDF

Info

Publication number
JP5588332B2
JP5588332B2 JP2010276270A JP2010276270A JP5588332B2 JP 5588332 B2 JP5588332 B2 JP 5588332B2 JP 2010276270 A JP2010276270 A JP 2010276270A JP 2010276270 A JP2010276270 A JP 2010276270A JP 5588332 B2 JP5588332 B2 JP 5588332B2
Authority
JP
Japan
Prior art keywords
road surface
vehicle
camera
approximate plane
coordinate value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010276270A
Other languages
Japanese (ja)
Other versions
JP2012123750A (en
Inventor
清幸 川井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2010276270A priority Critical patent/JP5588332B2/en
Publication of JP2012123750A publication Critical patent/JP2012123750A/en
Application granted granted Critical
Publication of JP5588332B2 publication Critical patent/JP5588332B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、車両用画像処理装置および車両用画像処理方法に関する。   Embodiments described herein relate generally to a vehicle image processing apparatus and a vehicle image processing method.

最近、自動車などの車両の運転を支援するための技術として、車両と対象物との衝突可能性を判定する技術の開発が望まれている。この種の技術には、たとえば、車両に搭載されたカメラにより撮像された画像にもとづいて車両と対象物との衝突可能性を判定する技術などがある。車両に搭載されたカメラにより撮像された画像を用いる場合、レーダを用いる場合に比べてデジタル化された画像データを利用することができることから、対象物の接近角度などの複雑な判断が可能である。   Recently, as a technique for supporting driving of a vehicle such as an automobile, development of a technique for determining the possibility of collision between the vehicle and an object is desired. As this type of technology, for example, there is a technology for determining the possibility of collision between a vehicle and an object based on an image captured by a camera mounted on the vehicle. When using an image captured by a camera mounted on a vehicle, it is possible to use digitized image data as compared with the case of using a radar, so that it is possible to make a complicated determination such as an approach angle of an object. .

特開2004−56763号公報Japanese Patent Laid-Open No. 2004-56763

ところで、カメラにより撮像された画像にもとづいて車両と対象物との衝突可能性を判定する従来の技術は、カメラにより撮像される路面が車両底面と平行であること(路面平面モデル)が前提となっており、カメラにより撮像される路面と車両底面とが平行でない場合を考慮していない。このため、カメラにより撮像される路面と車両底面とが平行でない場合には、画像から対象物との距離を求めることや移動体を特定することが難しい。   By the way, the conventional technique for determining the possibility of collision between the vehicle and the object based on the image captured by the camera is based on the premise that the road surface imaged by the camera is parallel to the vehicle bottom surface (road surface plane model). Therefore, the case where the road surface imaged by the camera and the vehicle bottom surface are not parallel is not considered. For this reason, when the road surface imaged by the camera and the vehicle bottom surface are not parallel, it is difficult to obtain the distance from the object and specify the moving body from the image.

カメラにより撮像される路面と車両底面とが平行でない状況としては、たとえば路面の勾配が変化しており車両直下の路面とカメラにより撮像される路面とで勾配の変化がある状況や、路面が平坦であっても車両積載荷重の多寡や乗車人員の変動による車両傾きがある状況などが挙げられる。これらの状況は、実際の車両の運転において遭遇する可能性が高いものと考えられる。   For example, the road surface imaged by the camera and the vehicle bottom surface are not parallel to each other. For example, the road surface gradient changes, and the road surface directly under the vehicle and the road surface imaged by the camera have a gradient change, or the road surface is flat. Even so, there are situations in which there is a vehicle tilt due to a large amount of vehicle load and fluctuations in the number of passengers. These situations are likely to be encountered in actual vehicle driving.

本発明の一実施形態に係る車両用画像処理装置は、上述した課題を解決するために、カメラと、スケールファクタ付き並進成分算出部と、記憶部と、路面検出部と、近似平面作成部と、路面データ更新部と、を備える。カメラは、車両に設けられ車両の周辺を撮像する。スケールファクタ付き並進成分算出部は、カメラにより撮像された画像に含まれる対象物に対応する動きベクトルと車両の回転成分とにもとづいて、スケールファクタ付き相対並進成分を算出する。記憶部は、所定の設定路面上の点についてカメラ座標系における画像上の座標値と光軸方向座標値とを関連付けたデータである路面データを記憶する。路面検出部は、スケールファクタつき相対並進成分と自車の並進成分とを用いてカメラ座標系における対象物の光軸方向座標値を算出するとともに、路面データにおいて対象物の画像上の座標値と関連付けられた光軸方向座標値を記憶部から取得し、これらの光軸方向座標値の差が所定の路面閾値以下であると対象物を路面と判定する。近似平面作成部は、路面と判定された複数の対象物のカメラ座標系における三次元座標値の共分散行列の固有ベクトルを用いて複数の対象物のなす近似平面を表す式を立てることにより、この近似平面上の点についてカメラ座標系における画像上の座標値と光軸方向座標値とを関連付けた近似平面データを求める。路面データ更新部は、所定の設定路面を近似平面とするよう、記憶部の路面データを近似平面データで更新する。   In order to solve the above-described problems, a vehicle image processing apparatus according to an embodiment of the present invention includes a camera, a translation component calculation unit with a scale factor, a storage unit, a road surface detection unit, and an approximate plane creation unit. And a road surface data updating unit. The camera is provided in the vehicle and images the periphery of the vehicle. The translation component with a scale factor calculation unit calculates a relative translation component with a scale factor based on a motion vector corresponding to an object included in an image captured by the camera and a rotation component of the vehicle. A memory | storage part memorize | stores the road surface data which are the data which linked | related the coordinate value on the image in a camera coordinate system, and the optical axis direction coordinate value about the point on a predetermined setting road surface. The road surface detection unit calculates the optical axis direction coordinate value of the object in the camera coordinate system using the relative translation component with the scale factor and the translation component of the own vehicle, and the coordinate value on the image of the object in the road surface data The associated optical axis direction coordinate values are acquired from the storage unit, and if the difference between these optical axis direction coordinate values is equal to or less than a predetermined road surface threshold, the object is determined to be a road surface. The approximate plane creation unit uses the eigenvector of the covariance matrix of the three-dimensional coordinate values in the camera coordinate system of the plurality of objects determined as the road surface to establish this expression representing the approximate plane formed by the plurality of objects. Approximate plane data in which the coordinate value on the image in the camera coordinate system and the coordinate value in the optical axis direction are associated with each other on the approximate plane is obtained. The road surface data update unit updates the road surface data in the storage unit with the approximate plane data so that the predetermined set road surface is an approximate plane.

本発明の第1実施形態に係る車両用画像処理装置の一例を示す全体構成図。1 is an overall configuration diagram illustrating an example of a vehicle image processing device according to a first embodiment of the present invention. カメラ座標系におけるカメラ投影面と路面との関係を示す説明図。Explanatory drawing which shows the relationship between the camera projection surface in a camera coordinate system, and a road surface. 第1実施形態に係る画像処理ECUのCPUが、カメラにより取得された画像からリアルタイムに路面の位置を求める際の手順を示すフローチャート。The flowchart which shows the procedure at the time of CPU of image processing ECU which concerns on 1st Embodiment calculates | requires the position of a road surface in real time from the image acquired with the camera. 本発明の第2実施形態に係る車両用画像処理装置の一例を示す全体構成図。The whole block diagram which shows an example of the image processing apparatus for vehicles which concerns on 2nd Embodiment of this invention. 第2実施形態に係る画像処理ECUのCPUが、カメラにより取得された画像からリアルタイムに路面の位置を求める際の手順を示すフローチャート。The flowchart which shows the procedure at the time of CPU of image processing ECU which concerns on 2nd Embodiment calculates | requires the position of a road surface in real time from the image acquired with the camera. 本発明の第3実施形態に係る車両用画像処理装置の一例を示す全体構成図。The whole block diagram which shows an example of the image processing apparatus for vehicles which concerns on 3rd Embodiment of this invention. 第3実施形態に係る画像処理ECUのCPUが、カメラにより取得された画像からリアルタイムに路面の位置を求める際の手順を示すフローチャート。The flowchart which shows the procedure at the time of CPU of image processing ECU which concerns on 3rd Embodiment calculates | requires the position of a road surface in real time from the image acquired with the camera.

本発明に係る車両用画像処理装置および車両用画像処理方法の実施の形態について、添付図面を参照して説明する。
(第1の実施形態)
Embodiments of a vehicle image processing apparatus and a vehicle image processing method according to the present invention will be described with reference to the accompanying drawings.
(First embodiment)

図1は、本発明の第1実施形態に係る車両用画像処理装置10の一例を示す全体構成図である。   FIG. 1 is an overall configuration diagram showing an example of a vehicle image processing apparatus 10 according to the first embodiment of the present invention.

車両用画像処理装置10は、カメラ11、画像処理ECU(Electronic Control Unit)12および記憶部13を有する。   The vehicle image processing apparatus 10 includes a camera 11, an image processing ECU (Electronic Control Unit) 12, and a storage unit 13.

カメラ11は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成され、自家用自動車等の車両周囲の画像を取り込んで画像信号を生成して画像処理ECU12に与える。   The camera 11 is constituted by a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The camera 11 captures an image around a vehicle such as a private car and generates an image signal and supplies the image signal to the image processing ECU 12.

たとえば後方を監視する場合、カメラ11は車両後部のナンバープレート付近に路面と平行な線からやや下向きに配設される。カメラ11には、より広範な車両外画像が取得可能なように広角レンズや魚眼レンズが取り付けられてもよい。また、車両の側方を監視する場合、カメラ11はサイドミラー付近に配設される。もちろん、複数のカメラ11を用いることにより広範な車外周囲画像を取り込むようにしてもよい。   For example, when monitoring the rear, the camera 11 is disposed slightly downward from a line parallel to the road surface in the vicinity of the license plate at the rear of the vehicle. A wide-angle lens or a fisheye lens may be attached to the camera 11 so that a wider range of outside-vehicle images can be acquired. When monitoring the side of the vehicle, the camera 11 is disposed near the side mirror. Of course, a wide range of outside-vehicle surrounding images may be captured by using a plurality of cameras 11.

画像処理ECU12は、CPU、RAMおよびROMなどの記憶媒体などにより構成される。画像処理ECU12のCPUは、ROMなどの記憶媒体に記憶された画像処理プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って、カメラ11により取得された画像にもとづいて、カメラ11により取得された画像からリアルタイムに路面の位置を求める。   The image processing ECU 12 includes a storage medium such as a CPU, RAM, and ROM. The CPU of the image processing ECU 12 loads an image processing program stored in a storage medium such as a ROM and data necessary for executing the program into the RAM, and based on the image acquired by the camera 11 according to the program. The position of the road surface is obtained in real time from the image acquired by the camera 11.

画像処理ECU12のRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。画像処理ECU12のROMなどの記憶媒体は、画像処理プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。   The RAM of the image processing ECU 12 provides a work area for temporarily storing programs and data executed by the CPU. The storage medium such as the ROM of the image processing ECU 12 stores an image processing program and various data necessary for executing these programs.

なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は図示しないネットワーク接続部を介して電子ネットワークを介してダウンロードされるように構成してもよい。   A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Or you may comprise so that all may be downloaded via an electronic network via the network connection part which is not shown in figure.

なお、この場合、ネットワーク接続部は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装し、この各種プロトコルに従って画像処理ECU12と他の車両のECUなどの電気機器とを電子ネットワークを介して接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、無線/有線LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。   In this case, the network connection unit implements various information communication protocols according to the form of the network, and the image processing ECU 12 and electric devices such as ECUs of other vehicles are connected via the electronic network according to the various protocols. Connecting. For this connection, an electrical connection via an electronic network can be applied. Here, an electronic network means an information communication network using telecommunications technology in general, in addition to a wireless / wired LAN (Local Area Network) and the Internet network, a telephone communication line network, an optical fiber communication network, a cable communication network, Includes satellite communications networks.

記憶部13は、画像処理ECU12によるデータの読み書きが可能な不揮発性のメモリであり、あらかじめ、消失点(FOE:Focus of Expansion)の情報FOE(x0、y0)および路面データz2=z(x、y)、路面閾値zth、第1の固有値閾値λth1、第2の固有値閾値λth2、カメラ高さHおよび角度閾値ψthを記憶している。これらの情報は、電子ネットワークを介してまたは光ディスクなどの可搬型記憶媒体を介して更新されてもよい。   The storage unit 13 is a non-volatile memory in which data can be read and written by the image processing ECU 12, and information FOE (x0, y0) of vanishing point (FOE: Focus of Expansion) and road surface data z2 = z (x, x, y), road surface threshold zth, first eigenvalue threshold λth1, second eigenvalue threshold λth2, camera height H, and angle threshold ψth are stored. These pieces of information may be updated via an electronic network or a portable storage medium such as an optical disk.

路面データz2=z(x、y)は、所定の設定路面上の点について、画像上の座標値と光軸方向座標値とを関連付けたデータをいうものとする。すなわち、画像処理ECU12は、記憶部13に記憶された路面データを参照することにより、画像上の座標値(x、y)に表示された対象物について、この対象物が所定の設定路面上にあるものと仮定した場合における光軸方向座標値z2を取得することができる。   Road surface data z2 = z (x, y) refers to data in which a coordinate value on an image and an optical axis direction coordinate value are associated with each other on a predetermined set road surface. That is, the image processing ECU 12 refers to the road surface data stored in the storage unit 13 so that the object is displayed on the predetermined set road surface for the object displayed at the coordinate values (x, y) on the image. The optical axis direction coordinate value z2 in the case where it is assumed to be present can be acquired.

図1に示すように、画像処理ECU12のCPUは、画像処理プログラムによって、少なくともスウィング角補正部21、動きベクトル算出部22、回転成分算出部23、移動体検出部24、スケールファクタ付き並進成分算出部25、自車並進成分算出部26、路面検出部27、路面上点座標算出部28、固有値・固有ベクトル算出部29、定点設定部30、近似平面作成部31、路面データ更新部32およびスウィング角算出部33として機能する。この各部21〜33は、RAMの所要のワークエリアを、データの一時的な格納場所として利用する。なお、これらの機能実現部は、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。
ここで、カメラ座標系について簡単に説明する。
As shown in FIG. 1, the CPU of the image processing ECU 12 executes at least a swing angle correction unit 21, a motion vector calculation unit 22, a rotation component calculation unit 23, a moving body detection unit 24, and a translation component with a scale factor according to an image processing program. Unit 25, own vehicle translation component calculation unit 26, road surface detection unit 27, road surface point coordinate calculation unit 28, eigenvalue / eigenvector calculation unit 29, fixed point setting unit 30, approximate plane creation unit 31, road surface data update unit 32, and swing angle It functions as the calculation unit 33. Each of the units 21 to 33 uses a required work area of the RAM as a temporary storage location for data. In addition, you may comprise these function implementation parts by hardware logics, such as a circuit, without using CPU.
Here, the camera coordinate system will be briefly described.

図2は、カメラ座標系におけるカメラ投影面41と路面42との関係を示す説明図である。   FIG. 2 is an explanatory diagram showing the relationship between the camera projection surface 41 and the road surface 42 in the camera coordinate system.

本実施形態に係る車両用画像処理装置10は、カメラ座標系のみを用い、世界座標系を併用しないため、座標系の相互変換等の処理が不要である。   Since the vehicular image processing apparatus 10 according to the present embodiment uses only the camera coordinate system and does not use the world coordinate system, processing such as mutual conversion of the coordinate system is unnecessary.

カメラ座標系(x、y、z)は、カメラ11の中心を原点とする左手座標系である。カメラ座標系のz軸は、カメラ11の光軸に一致するよう設定される。   The camera coordinate system (x, y, z) is a left-handed coordinate system with the center of the camera 11 as the origin. The z axis of the camera coordinate system is set to coincide with the optical axis of the camera 11.

カメラ投影面41は、カメラ座標系においてz=fの面である。fはカメラ11の焦点距離である。カメラ11は、このカメラ投影面41に投影される車両周囲を撮像する。   The camera projection plane 41 is a plane with z = f in the camera coordinate system. f is the focal length of the camera 11. The camera 11 captures an image around the vehicle projected on the camera projection plane 41.

対象物のある点Pのカメラ座標系の三次元座標をP(X、Y、Z)とし、点Pのカメラ投影面41に投影された点pの座標をp(x、y、f)とする。このとき点Pのz座標(光軸方向座標)をzと定義すると(Z=z)、X=(z/f)・x、Y=(z/f)・y、Z=zと書ける。ここで、x、yは投影面41上のxy座標値であり、zは対象物のz座標値であることに注意する。投影面41上のxy座標値は、カメラ11の画素と対応するものであるため、画像から容易に取得することができる。   The three-dimensional coordinate of the camera coordinate system of the point P with the object is P (X, Y, Z), and the coordinate of the point p projected onto the camera projection plane 41 of the point P is p (x, y, f). To do. If the z coordinate (optical axis direction coordinate) of the point P is defined as z (Z = z), X = (z / f) · x, Y = (z / f) · y, and Z = z. Note that x and y are xy coordinate values on the projection plane 41, and z is a z coordinate value of the object. Since the xy coordinate values on the projection surface 41 correspond to the pixels of the camera 11, they can be easily obtained from the image.

カメラ高さHは、タイヤが接地する車両直下の路面(以下、車両直下平面という)43から見たカメラ11の中心の高さをいうものとする。   The camera height H refers to the height of the center of the camera 11 when viewed from the road surface (hereinafter referred to as a plane directly below the vehicle) 43 directly below the vehicle where the tire contacts the ground.

本実施形態では、カメラ11の中心から下ろした鉛直線と車両直下平面43との交点が定点P0(α、β、γ)であるとともに、このP0から原点までの距離であるカメラ高さHが定数であるものとする。また、本実施形態では、カメラ11により撮像される路面42は定点P0を通るものとする。   In the present embodiment, the intersection of the vertical line drawn from the center of the camera 11 and the plane 43 directly below the vehicle is a fixed point P0 (α, β, γ), and the camera height H that is the distance from P0 to the origin is It is assumed to be a constant. In the present embodiment, the road surface 42 imaged by the camera 11 passes through the fixed point P0.

スウィング角補正部21は、スウィング角算出部33から受けた角度ずれψを補正するよう、カメラ11により撮像された画像をz軸を中心として回転補正する。この結果、カメラ11で撮像された画像はカメラ11のz軸回りの取り付け角誤差を補正され、たとえば地平線が水平な位置に表示されるようになる。このスウィング角補正部21による回転補正は、たとえばカメラ11の取り付け時の初期設定において使用されてもよい。   The swing angle correction unit 21 rotationally corrects the image captured by the camera 11 around the z axis so as to correct the angle deviation ψ received from the swing angle calculation unit 33. As a result, the image captured by the camera 11 is corrected for the mounting angle error around the z-axis of the camera 11 and the horizon is displayed at a horizontal position, for example. The rotation correction by the swing angle correction unit 21 may be used, for example, in an initial setting when the camera 11 is attached.

動きベクトル算出部22は、ブロックマッチング法や勾配法などを用いて、カメラ11により撮像された複数の画像から画素ごとに動きベクトル(u、v)を算出する。   The motion vector calculation unit 22 calculates a motion vector (u, v) for each pixel from a plurality of images captured by the camera 11 using a block matching method, a gradient method, or the like.

回転成分算出部23は、動きベクトル(u、v)および消失点情報FOE(x0、y0)にもとづいて回転成分R、R、Rを算出する。以下、より具体的に説明する。 The rotation component calculation unit 23 calculates rotation components R x , R y , R z based on the motion vector (u, v) and the vanishing point information FOE (x0, y0). More specific description will be given below.

カメラ投影面41上の動きベクトル(u、v)は、次のように書けることが知られている。
u = xy(1/f)Rx−(x2+f2)(1/f)Ry+yRz−f(Tx/z)+x(Tz/z) (1)
v = (y2+f2)(1/f) Rx−xy(1/f)Ry−xRz−f(Ty/z)+y(Tz/z) (2)
It is known that the motion vector (u, v) on the camera projection plane 41 can be written as follows.
u = xy (1 / f) R x − (x 2 + f 2 ) (1 / f) R y + yR z −f (T x / z) + x (T z / z) (1)
v = (y 2 + f 2 ) (1 / f) R x −xy (1 / f) R y −xR z −f (T y / z) + y (T z / z) (2)

ここで、x、yは投影面41上のxy座標値、zは対象物のz座標値をあらわす。また、R、R、R、T、T、Tは運動パラメータであり、R、R、Rは車両の回転成分をあらわし、T、T、Tは自車と対象物との相対並進成分をあらわす。 Here, x and y are xy coordinate values on the projection plane 41, and z is a z coordinate value of the object. Also, R x , R y , R z , T x , T y , T z are motion parameters, R x , R y , R z represent the rotational components of the vehicle, and T x , T y , T z are Represents the relative translation component between the vehicle and the object.

車両の回転成分Rはx軸中心の回転成分であり、自車のピッチング成分をあらわす。また、Rはy軸中心の回転成分であり、自車のヨーイング成分をあらわす。ヨーイングは、主に舵角時(自車の曲進時)に発生する。Rはz軸中心の回転成分であり自車のローリング成分をあらわす。 The rotation component Rx of the vehicle is a rotation component about the x-axis, and represents the pitching component of the own vehicle. R y is a rotational component about the y-axis and represents the yawing component of the host vehicle. Yawing occurs mainly at the steering angle (when the vehicle is turning). R z is a rotation component about the z axis and represents a rolling component of the vehicle.

対象物が静止物である場合には、回転成分で補正した対象物の動きベクトルの延長線がFOE(x0、y0)に収束することが知られている(崎本隆志ら、火の国情報シンポジウム2003講演論文集、「拡張焦点を用いた移動車両検出及び追跡に関する研究」(2003))。このため、次の式(3)が導かれる。
[u−xy(1/f)Rx+(x2+f2)(1/f)Ry−yRz]/[ v−(y2+f2)(1/f) Rx+xy(1/f)Ry+xRz]
= [x-x0]/[y-y0] (3)
When the object is a stationary object, it is known that the extension line of the motion vector of the object corrected by the rotation component converges to FOE (x0, y0) (Takashi Sakimoto et al. Symposium 2003 Proceedings, "Study on Moving Vehicle Detection and Tracking Using Extended Focus" (2003)). Therefore, the following formula (3) is derived.
[u−xy (1 / f) R x + (x 2 + f 2 ) (1 / f) R y −yR z ] / [v− (y 2 + f 2 ) (1 / f) R x + xy (1 / f) R y + xR z ]
= [x-x0] / [y-y0] (3)

したがって、R、R、Rを3つの未知数と考えれば、静止物に対応する少なくとも3つの画素の動きベクトルを得ることができればR、R、Rを算出できる。 Accordingly, if R x , R y , and R z are considered as three unknowns, R x , R y , and R z can be calculated if motion vectors of at least three pixels corresponding to the stationary object can be obtained.

そこで、回転成分算出部23は、消失点情報FOE(x0、y0)を記憶部13から取得し、静止物に対応する3つ以上の画素の動きベクトル(u、v)についての式(3)にもとづいて回転成分R、R、Rを算出する。すなわち、回転成分算出部23は、カメラ11が取得した画像から回転成分を算出することができる。 Therefore, the rotation component calculation unit 23 acquires the vanishing point information FOE (x0, y0) from the storage unit 13, and formula (3) for the motion vectors (u, v) of three or more pixels corresponding to the stationary object. Based on this, rotation components R x , R y , R z are calculated. That is, the rotation component calculation unit 23 can calculate the rotation component from the image acquired by the camera 11.

なお、回転成分は、車速データや舵角データなどの車両情報やジャイロセンサなどから求めることもできる。   The rotation component can also be obtained from vehicle information such as vehicle speed data and steering angle data, a gyro sensor, and the like.

移動体検出部24は、消失点FOEに収束しない対象物については自車と異なる移動をしている移動体と判定するとともに、消失点FOEに収束する対象物については静止物と判定する。移動体検出部24は、静止物と判定した対象物の情報を回転成分算出部23および自車並進成分算出部26に与える。このため、回転成分算出部23は、静止物と判定された対象物に対応する3つ以上の画素の動きベクトル(u、v)についての式(3)にもとづいて回転成分R、R、Rを算出することができる。 The moving object detection unit 24 determines that an object that does not converge at the vanishing point FOE is a moving object that moves differently from the own vehicle, and determines that an object that converges at the vanishing point FOE is a stationary object. The moving body detection unit 24 gives information about the object determined as a stationary object to the rotation component calculation unit 23 and the own vehicle translation component calculation unit 26. For this reason, the rotation component calculation unit 23 determines the rotation components R x and R y based on the equation (3) for the motion vectors (u, v) of three or more pixels corresponding to the object determined to be a stationary object. , R z can be calculated.

スケールファクタ付き並進成分算出部25は、画像に含まれる対象物に対応する動きベクトル(u、v)と車両の回転成分R、R、Rとにもとづいて、対象物のスケールファクタ付きの相対並進成分(以下、スケールファクタ付き並進成分という)T/z、T/z、T/zを算出する。 The translation factor calculation unit 25 with the scale factor includes the scale factor of the object based on the motion vector (u, v) corresponding to the object included in the image and the vehicle rotation components R x , R y , R z. Relative translational components (hereinafter referred to as scaled translational components) T x / z, T y / z, and T z / z are calculated.

スケールファクタ付き並進成分T/z、T/z、T/zは、対象物の相対並進成分T、T、Tを対象物のz座標値で除したものである。このため、相対並進成分T、T、Tが同一であれば、遠くにある(z座標値が大きい)ものほどスケールファクタ付き並進成分が小さくなる。対象物の点Pが静止しているか移動しているかによらず、点Pはスケールファクタ付き並進成分T/z、T/z、T/zで運動していると画像上において観測される。以下、より具体的に説明する。 The translation components T x / z, T y / z, and T z / z with scale factors are obtained by dividing the relative translation components T x , T y , and T z of the object by the z coordinate value of the object. For this reason, if the relative translation components T x , T y , and T z are the same, the farther away (the larger the z coordinate value), the smaller the translation component with a scale factor. Regardless of whether the point P of the object is stationary or moving, the point P is observed on the image as moving with the translation components T x / z, T y / z, and T z / z with scale factors. Is done. More specific description will be given below.

式(1)および式(2)は、それぞれ次のように変形できる。
u−xy(1/f)Rx+(x2+f2)(1/f)Ry−yRz = −f(Tx/z)+x(Tz/z) (4)
v−(y2+f2)(1/f) Rx+xy(1/f)Ry+xRz = −f(Ty/z)+y(Tz/z) (5)
Equations (1) and (2) can be modified as follows.
u−xy (1 / f) R x + (x 2 + f 2 ) (1 / f) R y −yR z = −f (T x / z) + x (T z / z) (4)
v− (y 2 + f 2 ) (1 / f) R x + xy (1 / f) R y + xR z = −f (T y / z) + y (T z / z) (5)

式(4)および式(5)において、左辺は動きベクトル(u、v)を回転成分で補正したものである。   In Expressions (4) and (5), the left side is obtained by correcting the motion vector (u, v) with a rotation component.

式(4)および式(5)から、画像に含まれる対象物に対応する動きベクトル(u、v)と車両の回転成分R、R、Rとにもとづいて、対象物のスケールファクタ付き並進成分T/z、T/z、T/zを算出することができる。 From the equations (4) and (5), the scale factor of the object is determined based on the motion vector (u, v) corresponding to the object included in the image and the rotation components R x , R y , R z of the vehicle. The attached translational components T x / z, T y / z, and T z / z can be calculated.

また、自車回転成分で補正した静止物(自車と平行移動する移動体を含む)の動きベクトルの傾きは、画素(x、y)からFOEへ向かうベクトルの傾きに等しくなる。この関係から、次式(6)−(9)が導かれる。
(x−x0)/(y−y0) = { −f(Tx/z)+x(Tz/z)}/{ −f(Ty/z)+y(Tz/z)}
= (x−fTx/Tz)/(y−fTy/Tz) (6)
x0/f=Tx/Tz (7)
yo/f=Ty/Tz (8)
In addition, the inclination of the motion vector of a stationary object (including a moving body that moves in parallel with the own vehicle) corrected by the own vehicle rotation component is equal to the inclination of the vector from the pixel (x, y) toward the FOE. From this relationship, the following expressions (6) to (9) are derived.
(x−x0) / (y−y0) = {−f (T x / z) + x (T z / z)} / {−f (T y / z) + y (T z / z)}
= (x−fT x / T z ) / (y−fT y / T z ) (6)
x0 / f = T x / T z (7)
yo / f = T y / T z (8)

式(7)および式(8)を用いてTおよびTをTに置換することにより、式(4)および式(5)はそれぞれ次のように変形できる。
{u−xy(1/f)Rx +(x2+f2)(1/f)Ry −yRz}=(−x0+x)(Tz/z) (9)
{v−(y2+f2)(1/f) Rx+xy(1/f)Ry+xRz} =(−y0+y)(Tz/z) (10)
By substituting T x and T y with T z using Equation (7) and Equation (8), Equation (4) and Equation (5) can be modified as follows.
{u−xy (1 / f) R x + (x 2 + f 2 ) (1 / f) R y −yR z } = (− x0 + x) (T z / z) (9)
{v− (y 2 + f 2 ) (1 / f) R x + xy (1 / f) R y + xR z } = (− y 0 + y) (T z / z) (10)

したがって、スケールファクタ付き並進成分算出部25は、式(9)および式(10)にもとづいてスケールファクタ付き並進成分T/zを算出することができる。 Therefore, the translation component with scale factor calculation unit 25 can calculate the translation component with scale factor T z / z based on the equations (9) and (10).

自車並進成分算出部26は、記憶部13に記憶された路面データから画像上の座標値(x、y)に表示された対象物n(ただし、nは対象物を識別するための添え字であるものとする)が所定の設定路面上にあるものと仮定した場合における光軸方向座標値z2nを取得し、対象物nのスケールファクタ付き並進成分(T/z)nに対してz2nを乗じることにより自車並進成分Tzを算出する。 The own vehicle translation component calculation unit 26 uses the road surface data stored in the storage unit 13 to display the object n (n is a subscript for identifying the object) displayed at the coordinate values (x, y) on the image. Is obtained on the predetermined set road surface, the coordinate value z2n in the optical axis direction is obtained, and z2n with respect to the translation component with a scale factor (T z / z) n of the object n The vehicle translation component T z is calculated by multiplying by.

対象物nが静止物である場合、(T/z)n・z2nを算出すれば、見かけ上の自車並進成分になる。m個の自車並進成分の平均をTaveとするとTaveは次の式から求めることができる。
Tzave=(1/m)Σ(Tz/z)n・z2n (n=1,2,・・・m-1,m) (11)
When the object n is a stationary object, if (T z / z) n · z2n is calculated, it becomes an apparent translation component of the own vehicle. If the average of m vehicle translation components is T z ave, T z ave can be obtained from the following equation.
T z ave = (1 / m) Σ (T z / z) n · z2n (n = 1,2, ... m-1, m) (11)

路面検出部27は、自車並進成分の平均Taveと、対象物nのスケールファクタ付き並進成分(T/z)nとから次式を用いて対象物nの光軸方向座標値z1nを算出する。
z1n= (z/Tz)n・Tzave (12)
The road surface detection unit 27 calculates the coordinate value z1n of the object n in the optical axis direction from the average T z ave of the own vehicle translation component and the translation component with a scale factor (T z / z) n of the object n using the following equation. Is calculated.
z1n = (z / T z ) n ・ T z ave (12)

また、路面検出部27は、式(12)を用いて求めた対象物nの光軸方向座標値z1nと、記憶部13に記憶された路面データにおいて対象物nの画像上の座標値(xn、yn)に関連付けられた光軸方向座標値z2n=z(xn、yn)と、を比較し、両者の差の絶対値が所定の路面閾値zth以下であると、対象物nを路面と判定し、この対象物nの情報を路面上点座標算出部28に与える。   Further, the road surface detection unit 27 uses the optical axis direction coordinate value z1n of the object n obtained using the equation (12) and the coordinate value (xn) on the image of the object n in the road surface data stored in the storage unit 13. , Yn) is compared with the optical axis direction coordinate value z2n = z (xn, yn), and if the absolute value of the difference between the two is equal to or less than a predetermined road surface threshold zth, the object n is determined to be a road surface. Then, the information on the object n is given to the road surface point coordinate calculation unit 28.

路面上点座標算出部28は、路面検出部27により路面と判定された対象物nの画像上の座標値(xn、yn)と光軸方向座標値z1nとを用いて、対象物nのカメラ座標系における三次元座標値を求める。   The road surface point coordinate calculation unit 28 uses the coordinate value (xn, yn) on the image of the object n determined as the road surface by the road surface detection unit 27 and the optical axis direction coordinate value z1n, and the camera of the object n. Find the three-dimensional coordinate value in the coordinate system.

対象物nに対応する点Pnの三次元座標値Pn(Xn、Yn、Zn)は、xn、yn、z1nと次の関係を満たす。
Xn=(z1n/f)・xn (13)
Yn=(z1n/f)・yn (14)
Z=z1n (15)
The three-dimensional coordinate value Pn (Xn, Yn, Zn) of the point Pn corresponding to the object n satisfies the following relationship with xn, yn, z1n.
Xn = (z1n / f) .xn (13)
Yn = (z1n / f) · yn (14)
Z = z1n (15)

路面上点座標算出部28は、この式(13)−(15)を用いて点Pnのカメラ座標系における三次元座標値を求める。   The point coordinate calculation unit 28 on the road surface obtains a three-dimensional coordinate value of the point Pn in the camera coordinate system using the equations (13) to (15).

ここで、z1nはスケールファクタ付き並進成分T/zと画像から推定した自車並進成分の平均Taveから求められており、Taveはスケールファクタ付き並進成分T/zと過去の路面データz2=z(x、y)から求められているため、何らかの誤差を持っている。しかしながら、この誤差は式(13)−(15)から明らかなようにXn、Yn、Znに対して同じだけ影響を及ぼす。したがって、複数の点Pが乗る面として導出される平面の傾きには影響しない。 Here, Z1n is determined from the mean T z ave of the vehicle translation component estimated from translation components T z / z and the image with the scale factor, T z ave translational component T z / z and the last with the scale factor Since it is obtained from the road surface data z2 = z (x, y), there is some error. However, this error has the same effect on Xn, Yn, and Zn as is apparent from equations (13)-(15). Therefore, it does not affect the inclination of the plane derived as a plane on which a plurality of points P are placed.

固有値・固有ベクトル算出部29は、Pn(Xn、Yn、Zn)から次の共分散行列Sを作成する。
S=(1/N)Σ(Xn,Yn,Zn)T(Xn,Yn,Zn) (16)
ただし、Nは対象物の総数を表し、Σは複数画素N個についての総和を表す。
The eigenvalue / eigenvector calculation unit 29 creates the following covariance matrix S from Pn (Xn, Yn, Zn).
S = (1 / N) Σ (Xn, Yn, Zn) T (Xn, Yn, Zn) (16)
However, N represents the total number of objects, and Σ represents the total sum for N pixels.

また、固有値・固有ベクトル算出部29は、共分散行列Sの固有値λ1、λ2、λ3、固有ベクトルη1、η2、η3を求める。ただし、固有値の大きい順にλ1、λ2、λ3とし、各固有値に対応する固有ベクトルをそれぞれη1、η2、η3とする。   Further, the eigenvalue / eigenvector calculation unit 29 obtains eigenvalues λ1, λ2, λ3, and eigenvectors η1, η2, and η3 of the covariance matrix S. However, λ1, λ2, and λ3 are set in descending order of eigenvalues, and eigenvectors corresponding to the eigenvalues are η1, η2, and η3, respectively.

複数の点の分布を平面近似した場合、η1、η2の張る平面は最小2乗最適解を与えることが知られている。また、共分散行列Sの固有値λ1、λ2が大きいほど、η1、η2の張る平面方向に多数の点が分散していると考えられる。また、λ3が小さいほど、η1、η2の張る平面に直交する方向には点の分散が小さいと考えられる。   When the distribution of a plurality of points is approximated by a plane, it is known that a plane extending by η1 and η2 gives a least square optimal solution. In addition, it is considered that as the eigenvalues λ1 and λ2 of the covariance matrix S are larger, a larger number of points are dispersed in the plane direction spanned by η1 and η2. Further, it is considered that the smaller the λ3 is, the smaller the dispersion of the points is in the direction orthogonal to the plane stretched by η1 and η2.

そこで、固有値・固有ベクトル算出部29は、固有値λ1、λ2が第1の固有値閾値λth1以上であり、かつ固有値λ3が第2の固有値閾値λth2以下である場合に、現在画像内に存在している路面42をη1、η2の張る平面で近似できると判定し、固有値λ1、λ2、λ3、固有ベクトルη1、η2、η3の情報を近似平面作成部31に与える。一方、固有値・固有ベクトル算出部29は、固有値λ1、λ2が第1の固有値閾値λth1より小さいか、固有値λ3が第2の固有値閾値λth2より大きい場合には、得られたデータが路面42を近似する平面を求めるには不十分と判定して廃棄する。   Therefore, the eigenvalue / eigenvector calculation unit 29, when the eigenvalues λ1 and λ2 are equal to or greater than the first eigenvalue threshold λth1 and the eigenvalue λ3 is equal to or less than the second eigenvalue threshold λth2, 42 is determined to be approximated by a plane spanned by η1 and η2, and information on the eigenvalues λ1, λ2, λ3 and eigenvectors η1, η2, and η3 is given to the approximate plane creating unit 31. On the other hand, the eigenvalue / eigenvector calculation unit 29 approximates the road surface 42 when the eigenvalues λ1 and λ2 are smaller than the first eigenvalue threshold λth1 or the eigenvalue λ3 is larger than the second eigenvalue threshold λth2. It is determined that it is insufficient for obtaining a flat surface and discarded.

定点設定部30は、カメラ高さHおよび消失点FOEの情報を用いて定点P0を次のように設定する。なお、本実施形態において、カメラ高さHおよび消失点FOEはあらかじめ記憶部13に記憶された既知の定数である。
α=0 (17)
β=−Hf/√(f2+y02) (18)
γ=Hy0/√(f2+y02) (19)
The fixed point setting unit 30 sets the fixed point P0 as follows using the information of the camera height H and the vanishing point FOE. In the present embodiment, the camera height H and the vanishing point FOE are known constants stored in the storage unit 13 in advance.
α = 0 (17)
β = −Hf / √ (f 2 + y0 2 ) (18)
γ = Hy0 / √ (f 2 + y0 2 ) (19)

近似平面作成部31は、共分散行列Sの固有ベクトルを用いて路面検出部27により路面と判定された対象物nのなす近似平面を表す式を立てる。   The approximate plane creation unit 31 uses the eigenvector of the covariance matrix S to establish an expression representing the approximate plane formed by the object n determined as the road surface by the road surface detection unit 27.

具体的には、近似平面を表す式は、次の2つの方法で立てることができる。なお、以下の説明では、η1=(η11、η12、η13)、η2=(η21、η22、η23)、η1=(η31、η32、η33)であるものとする。   Specifically, the expression representing the approximate plane can be established by the following two methods. In the following description, it is assumed that η1 = (η11, η12, η13), η2 = (η21, η22, η23), and η1 = (η31, η32, η33).

第1の方法は、固有ベクトルη3を用いて近似平面を表す式を作成する方法である。固有ベクトルη3は、近似平面の法線ベクトルである(近似平面は固有ベクトルη3に直交する)。この場合、近似平面が定点P0(α、β、γ)を通るとすれば、近似平面を表す式は次のように書ける。
η31(X−α)+η32(Y−β)+η33(Z−γ)=0 (20)
The first method is a method of creating an expression representing an approximate plane using the eigenvector η3. The eigenvector η3 is a normal vector of the approximate plane (the approximate plane is orthogonal to the eigenvector η3). In this case, if the approximate plane passes through the fixed point P0 (α, β, γ), an expression representing the approximate plane can be written as follows.
η31 (X−α) + η32 (Y−β) + η33 (Z−γ) = 0 (20)

式(17)−(19)を式(20)に代入することにより、次の式が得られる。
η31(xz−αf)+η32(yz−βf)+η33(fz−γf)=0 (21)
By substituting equations (17)-(19) into equation (20), the following equation is obtained.
η31 (xz−αf) + η32 (yz−βf) + η33 (fz−γf) = 0 (21)

ここで、(x、y)は近似平面上の点P(X、Y、Z)の画像上の座標値であり、zは近似平面上の点P(X、Y、Z)の光軸方向座標値である。このため、式(21)を次のように変形することにより、画像上の座標値(x、y)に表示された対象物について、この対象物が近似平面上にある場合における光軸方向座標値zと画像上の座標値(x、y)とを関連付けることができる。
z =f(η31α+η32β+η33γ)/(η31x+η32y+η33f)
= Hf(−η32f+η33y0)/{(η31x+η32y+η33f)√(f2+yo2)} (22)
Here, (x, y) is a coordinate value on the image of the point P (X, Y, Z) on the approximate plane, and z is the optical axis direction of the point P (X, Y, Z) on the approximate plane. It is a coordinate value. For this reason, by transforming Equation (21) as follows, for the object displayed at the coordinate value (x, y) on the image, the coordinates in the optical axis direction when this object is on the approximate plane The value z and the coordinate value (x, y) on the image can be associated with each other.
z = f (η31α + η32β + η33γ) / (η31x + η32y + η33f)
= Hf (−η32f + η33y0) / {(η31x + η32y + η33f) √ (f2 + yo2)} (22)

第2の方法は、固有ベクトルη1×η2を用いて近似平面を表す式を作成する方法である。この場合、近似平面が定点P0(α、β、γ)を通るとすれば、近似平面を表す式は次のように書ける。
(η13η22−η23η12)(X−α)+(η11η23−η13η21)(Y−β)
+ (η21,η12−η11,η22) (Z−γ)=0 (23)
The second method is a method of creating an expression representing an approximate plane using the eigenvector η1 × η2. In this case, if the approximate plane passes through the fixed point P0 (α, β, γ), an expression representing the approximate plane can be written as follows.
(η13η22−η23η12) (X−α) + (η11η23−η13η21) (Y−β)
+ (η21, η12−η11, η22) (Z−γ) = 0 (23)

したがって、第1の方法と同様に、式(23)を次のように変形することにより、画像上の座標値(x、y)に表示された対象物について、この対象物が近似平面上にある場合における光軸方向座標値zと画像上の座標値(x、y)とを関連付けることができる。
z=f{(η13η22−η23η12)α+(η11η23−η13η21)β+η33γ}
/{(η13η22−η23η12)x+(η11η23−η13η21)y+ (η21η12−η11η22)f} (24)
Therefore, as in the first method, the object is displayed on the approximate plane for the object displayed at the coordinate values (x, y) on the image by transforming Equation (23) as follows. The optical axis direction coordinate value z in a certain case and the coordinate value (x, y) on the image can be associated with each other.
z = f {(η13η22−η23η12) α + (η11η23−η13η21) β + η33γ}
/ {(η13η22−η23η12) x + (η11η23−η13η21) y + (η21η12−η11η22) f} (24)

式(22)や式(24)により関連付けられた光軸方向座標値zと画像上の座標値(x、y)のデータ(以下、近似平面データという)は、記憶部13に記憶された路面データにくらべ現在カメラ11が撮像する画像に含まれる路面により近いデータであるといえる。   The data of the optical axis direction coordinate value z and the coordinate value (x, y) on the image (hereinafter referred to as approximate plane data) associated by the equations (22) and (24) are the road surfaces stored in the storage unit 13. It can be said that the data is closer to the road surface included in the image captured by the camera 11 than the data.

なお、このとき、原点から近似平面上の点Pまでの距離rは次式で与えられる
r2=X2+Y2+Z2=(x2+y2+f2)(z2/f2) (25)
At this time, the distance r from the origin to the point P on the approximate plane is given by the following equation.
r 2 = X 2 + Y 2 + Z 2 = (x 2 + y 2 + f 2 ) (z 2 / f 2 ) (25)

したがって、画像上の座標値(x、y)が得られれば、この座標値(x、y)に表示された対象物が近似平面上にあるものと仮定した場合における三次元座標値を式(22)や式(24)から求めることができるとともに、距離rを式(25)から一義的に求めることができる。   Therefore, if the coordinate value (x, y) on the image is obtained, the three-dimensional coordinate value in the case where it is assumed that the object displayed at the coordinate value (x, y) is on the approximate plane is expressed by the formula ( 22) and Equation (24), and the distance r can be uniquely obtained from Equation (25).

路面データ更新部32は、近似平面作成部31から近似平面データを受け、記憶部13の路面データを近似平面データで更新する。   The road surface data update unit 32 receives the approximate plane data from the approximate plane creation unit 31 and updates the road surface data in the storage unit 13 with the approximate plane data.

スウィング角算出部33は、近似平面の法線ベクトルη3を基準として画像上(投影面41上の)xy軸との角度ずれψを求める。具体的には、スウィング角算出部33は、投影面41に投影した法線ベクトルη3の方向とx軸(またはy軸)との角度を算出し、この角度の0度(または90度)からのずれψを求める。また、スウィング角算出部33は、角度ずれψが角度閾値ψth以下であるとこの角度ずれψの情報をスウィング角補正部21に与える。   The swing angle calculation unit 33 obtains an angle shift ψ with respect to the xy axis on the image (on the projection plane 41) with reference to the normal vector η3 of the approximate plane. Specifically, the swing angle calculation unit 33 calculates an angle between the direction of the normal vector η3 projected onto the projection plane 41 and the x axis (or y axis), and from this angle 0 degree (or 90 degrees). The shift ψ is obtained. Further, the swing angle calculation unit 33 gives information of the angle shift ψ to the swing angle correction unit 21 when the angle shift ψ is equal to or less than the angle threshold ψth.

この角度ずれψは、本実施形態における立体物と路面との判定には直接影響しない。しかし、撮像画像の地平線が水平になるようにカメラ11を車両に取り付けるのは手間がかかるため、カメラ11の画像は取り付け時のz軸回りの回転誤差を含んでしまう場合がある。スウィング角算出部33によれば、容易に角度ずれψの情報を取得することができ、スウィング角補正部21によって撮像画像の回転誤差をソフトウエア的に容易に補正することができる。   This angular deviation ψ does not directly affect the determination of the three-dimensional object and the road surface in the present embodiment. However, since it takes time to attach the camera 11 to the vehicle so that the horizon of the captured image is horizontal, the image of the camera 11 may include a rotation error around the z-axis at the time of attachment. According to the swing angle calculation unit 33, information on the angle shift ψ can be easily obtained, and the rotation error of the captured image can be easily corrected by software by the swing angle correction unit 21.

次に、本実施形態に係る車両用画像処理装置10の動作の一例について説明する。   Next, an example of the operation of the vehicle image processing device 10 according to the present embodiment will be described.

図3は、第1実施形態に係る画像処理ECU12のCPUが、カメラ11により取得された画像からリアルタイムに路面の位置を求める際の手順を示すフローチャートである。図3において、Sに数字を付した符号はフローチャートの各ステップを示す。   FIG. 3 is a flowchart illustrating a procedure when the CPU of the image processing ECU 12 according to the first embodiment obtains the position of the road surface in real time from the image acquired by the camera 11. In FIG. 3, reference numerals with numbers added to S indicate steps in the flowchart.

まず、ステップST1において、スウィング角補正部21は、カメラ11から撮像画像の画像データを取得する。   First, in step ST <b> 1, the swing angle correction unit 21 acquires image data of a captured image from the camera 11.

次に、ステップST2において、スウィング角補正部21は、スウィング角算出部33から受けた角度ずれψを補正するよう、カメラ11により撮像された画像をz軸を中心として回転補正する。   Next, in step ST <b> 2, the swing angle correction unit 21 rotationally corrects the image captured by the camera 11 about the z axis so as to correct the angle shift ψ received from the swing angle calculation unit 33.

次に、ステップST3において、動きベクトル算出部22は、取得した画像データにもとづき、カメラ11により撮像された複数の画像間の動きベクトル(u、v)を画素ごとに求める。   Next, in step ST <b> 3, the motion vector calculation unit 22 obtains a motion vector (u, v) between a plurality of images captured by the camera 11 for each pixel based on the acquired image data.

次に、ステップST4において、回転成分算出部23は、消失点情報FOE(x0、y0)を記憶部13から取得し、静止物に対応する3つ以上の動きベクトル(u、v)についての式(3)にもとづいて回転成分R、R、Rを算出する。 Next, in step ST4, the rotation component calculation unit 23 acquires the vanishing point information FOE (x0, y0) from the storage unit 13, and formulas for three or more motion vectors (u, v) corresponding to the stationary object. Based on (3), rotation components R x , R y , R z are calculated.

次に、ステップST5において、移動体検出部24は、消失点FOEに収束しない対象物については自車と異なる移動をしている移動体と判定するとともに、消失点FOEに収束する対象物については静止物と判定する。なお、ステップST4およびST5は所定回数繰り返し行われてもよい。この場合、移動体検出部24により抽出された静止物の情報にもとづいて、回転成分算出部23は、ステップST4において回転成分R、R、Rを算出する。 Next, in step ST5, the moving object detection unit 24 determines that an object that does not converge to the vanishing point FOE is a moving object that moves differently from the own vehicle, and an object that converges to the vanishing point FOE. Judge as a stationary object. Note that steps ST4 and ST5 may be repeated a predetermined number of times. In this case, based on the information of the stationary object extracted by the moving object detection unit 24, the rotation component calculation unit 23 calculates the rotation components R x , R y , R z in step ST4.

次に、ステップST6において、スケールファクタ付き並進成分算出部25は、車両の回転成分R、R、Rと、対象物の動きベクトル(u、v)と、にもとづいて式(4)および式(5)から対象物のスケールファクタ付き並進成分T/z、T/z、T/zを算出する。また、スケールファクタ付き並進成分算出部25は、式(9)および式(10)にもとづいてスケールファクタ付き並進成分T/zを算出する。 Next, in step ST6, the translation component with scale factor calculation unit 25 calculates Equation (4) based on the rotation components R x , R y , R z of the vehicle and the motion vector (u, v) of the object. Then, the translation components T x / z, T y / z, and T z / z with scale factors of the object are calculated from the equation (5). Moreover, the translation component with scale factor calculation unit 25 calculates the translation component with scale factor T z / z based on the equations (9) and (10).

次に、ステップST7において、自車並進成分算出部26は、記憶部13に記憶された路面データから画像上の座標値(x、y)に表示された対象物nが所定の設定路面上にあるものと仮定した場合における光軸方向座標値z2nを取得する。   Next, in step ST <b> 7, the vehicle translation component calculation unit 26 determines that the object n displayed at the coordinate value (x, y) on the image from the road surface data stored in the storage unit 13 is on a predetermined set road surface. The optical axis direction coordinate value z2n when it is assumed to be present is acquired.

次に、ステップST8において、自車並進成分算出部26は、複数個の対象物についてスケールファクタ付き並進成分(T/z)に対してz2を乗じることにより、複数の自車並進成分Tzを算出して、これらの平均Taveを算出する。 Next, in step ST8, the host vehicle translation component calculation unit 26 multiplies the plurality of target vehicle translation components T z by multiplying z2 by the scale factor translation component (T z / z) for a plurality of objects. And the average T z ave of these is calculated.

次に、ステップST9において、路面検出部27は、自車並進成分の平均Taveと、対象物nのスケールファクタ付き並進成分(T/z)nとから、式(12)を用いて対象物nの光軸方向座標値z1nを算出する。 Next, in step ST9, the road surface detection unit 27 uses Equation (12) from the average T z ave of the own vehicle translation component and the translation component with a scale factor (T z / z) n of the object n. An optical axis direction coordinate value z1n of the object n is calculated.

次に、ステップST10において、路面検出部27は、対象物nの光軸方向座標値z1nと、記憶部13に記憶された路面データにおいて対象物nの画像上の座標値(xn、yn)に関連付けられた光軸方向座標値z2n=z(xn、yn)との差の絶対値|z1n−z2n|が所定の路面閾値zth以下であるか否かを判定する。|z1n−z2n|がzth以下である場合は、対象物nが路面であると判定し、この対象物nの情報を路面上点座標算出部28に与えてステップS11に進む。一方、|z1n−z2n|がzthより大きい場合は、対象物nは路面ではなく立体物であると判定し、他の対象物についてこのステップST10を繰り返す。   Next, in step ST10, the road surface detection unit 27 converts the optical axis direction coordinate value z1n of the object n and the coordinate value (xn, yn) on the image of the object n in the road surface data stored in the storage unit 13. It is determined whether or not the absolute value | z1n−z2n | of the difference from the associated optical axis direction coordinate value z2n = z (xn, yn) is equal to or less than a predetermined road surface threshold zth. If | z1n−z2n | is equal to or less than zth, it is determined that the object n is a road surface, and information on the object n is given to the road surface point coordinate calculation unit 28, and the process proceeds to step S11. On the other hand, when | z1n−z2n | is larger than zth, it is determined that the object n is not a road surface but a solid object, and this step ST10 is repeated for other objects.

次に、ステップST11において、路面上点座標算出部28は、路面検出部27により路面と判定された対象物nの画像上の座標値(xn、yn)と光軸方向座標値z1nとを用いて、式(13)−(15)にもとづき対象物nのカメラ座標系における三次元座標値Pn(Xn、Yn、Zn)を求める。   Next, in step ST11, the road surface point coordinate calculation unit 28 uses the coordinate value (xn, yn) on the image of the object n determined as the road surface by the road surface detection unit 27 and the optical axis direction coordinate value z1n. Thus, the three-dimensional coordinate value Pn (Xn, Yn, Zn) of the object n in the camera coordinate system is obtained based on the equations (13)-(15).

次に、ステップST12において、固有値・固有ベクトル算出部29は、Pn(Xn、Yn、Zn)から共分散行列Sを作成する(式(16)参照)。   Next, in step ST12, the eigenvalue / eigenvector calculation unit 29 creates a covariance matrix S from Pn (Xn, Yn, Zn) (see Expression (16)).

次に、ステップST13において、固有値・固有ベクトル算出部29は、共分散行列Sの固有値λ1、λ2、λ3、固有ベクトルη1、η2、η3を求める。ただし、固有値の大きい順にλ1、λ2、λ3とし、各固有値に対応する固有ベクトルをそれぞれη1、η2、η3とする。   Next, in step ST13, the eigenvalue / eigenvector calculation unit 29 obtains eigenvalues λ1, λ2, λ3, and eigenvectors η1, η2, η3 of the covariance matrix S. However, λ1, λ2, and λ3 are set in descending order of eigenvalues, and eigenvectors corresponding to the eigenvalues are η1, η2, and η3, respectively.

次に、ステップS14において、固有値・固有ベクトル算出部29は、固有値λ1、λ2が第1の固有値閾値λth1以上であり、かつ固有値λ3が第2の固有値閾値λth2以下であると、現在画像内に存在している路面42をη1、η2の張る平面で近似できると判定し、固有値λ1、λ2、λ3、固有ベクトルη1、η2、η3の情報を近似平面作成部31に与えてステップST15に進む。一方、固有値λ1、λ2が第1の固有値閾値λth1より小さいか、固有値λ3が第2の固有値閾値λth2より大きいと、固有値・固有ベクトル算出部29は、得られたデータが路面42を近似する平面を求めるには不十分と判定して廃棄し、一連の手順は終了となる。   Next, in step S14, the eigenvalue / eigenvector calculation unit 29 exists in the current image when the eigenvalues λ1 and λ2 are equal to or greater than the first eigenvalue threshold λth1 and the eigenvalue λ3 is equal to or less than the second eigenvalue threshold λth2. It is determined that the road surface 42 that can be approximated by the plane spanned by η1 and η2, and information on the eigenvalues λ1, λ2, λ3, and eigenvectors η1, η2, and η3 is provided to the approximate plane creating unit 31 and the process proceeds to step ST15. On the other hand, when the eigenvalues λ1 and λ2 are smaller than the first eigenvalue threshold λth1 or the eigenvalue λ3 is larger than the second eigenvalue threshold λth2, the eigenvalue / eigenvector calculator 29 calculates a plane on which the obtained data approximates the road surface 42. It is determined that it is insufficient for the request and discarded, and the series of procedures is completed.

次に、ステップST15において、定点設定部30は、カメラ高さHおよび消失点FOEの情報を用いて定点P0(α、β、γ)を式(17)−(19)を用いて設定する。なお、本実施形態において、カメラ高さHおよび消失点FOEはあらかじめ記憶部13に記憶された既知の定数である。   Next, in step ST15, the fixed point setting unit 30 sets the fixed point P0 (α, β, γ) using equations (17) to (19) using information on the camera height H and the vanishing point FOE. In the present embodiment, the camera height H and the vanishing point FOE are known constants stored in the storage unit 13 in advance.

次に、ステップST16において、近似平面作成部31は、共分散行列Sの固有ベクトルを用いて路面検出部27により路面と判定された対象物nのなす近似平面を表す式(21)または式(23)を立て、式(22)または式(24)を導く。   Next, in step ST16, the approximate plane creation unit 31 uses the eigenvector of the covariance matrix S to express the approximate plane formed by the object n determined by the road surface detection unit 27 as the road surface (21) or (23 ) To derive the formula (22) or the formula (24).

次に、ステップST17において、路面データ更新部32は、近似平面作成部31から式(22)または式(24)で定義される近似平面データを受け、記憶部13の路面データをこの近似平面データで更新する。   Next, in step ST17, the road surface data updating unit 32 receives the approximate plane data defined by the equation (22) or the equation (24) from the approximate plane creation unit 31, and the road surface data in the storage unit 13 is used as the approximate plane data. Update with.

次に、ステップST18において、スウィング角算出部33は、近似平面の法線ベクトルη3を基準として画像上(投影面41上の)xy軸との角度ずれψを求め、角度ずれψが角度閾値ψth以下であるとこの角度ずれψの情報をスウィング角補正部21に与える。   Next, in step ST18, the swing angle calculation unit 33 obtains an angle shift ψ with respect to the xy axis on the image (on the projection plane 41) with reference to the normal vector η3 of the approximate plane, and the angle shift ψ is the angle threshold ψth. The information of the angle deviation ψ is given to the swing angle correction unit 21 as follows.

以上の手順により、カメラ11により取得された画像からリアルタイムに路面の位置を求めることができる。   With the above procedure, the position of the road surface can be obtained from the image acquired by the camera 11 in real time.

本実施形態に係る車両用画像処理装置10は、カメラ11により取得された画像からリアルタイムに路面の位置を求めることができる。このため、カメラ11により撮像される路面と車両底面とが平行でない場合にも、容易に画像から対象物との距離を求めることができるとともに、移動体を特定することができる。   The vehicular image processing apparatus 10 according to the present embodiment can obtain the position of the road surface in real time from the image acquired by the camera 11. For this reason, even when the road surface imaged by the camera 11 and the vehicle bottom surface are not parallel, the distance from the object can be easily obtained from the image, and the moving body can be specified.

したがって、本実施形態に係る車両用画像処理装置10によれば、たとえば路面の勾配が変化しており車両直下の路面とカメラにより撮像される路面とで勾配の変化がある場合や、路面が平坦であっても車両積載荷重の多寡や乗車人員の変動による車両傾きがある場合にも、容易に画像から路面との距離を求めることができるとともに、移動体を特定することができる。   Therefore, according to the vehicular image processing apparatus 10 according to the present embodiment, for example, when the road surface gradient changes, the road surface directly under the vehicle and the road surface imaged by the camera have a change in gradient, or the road surface is flat. However, even when there is a vehicle inclination due to a large amount of vehicle load or a change in the number of passengers, the distance from the road surface can be easily obtained from the image, and the moving body can be specified.

また、本実施形態に係る車両用画像処理装置10は、リアルタイムに取得した路面の法線ベクトルの情報を用いることにより、容易にカメラ11のz軸回りの取り付け角誤差をソフトウエア的に補正することができる。   Further, the vehicle image processing apparatus 10 according to the present embodiment easily corrects the mounting angle error of the camera 11 around the z-axis in software by using information on the road surface normal vector acquired in real time. be able to.

また、本実施形態に係る車両用画像処理装置10は、カメラ11により撮像された画像データのみを用いて記憶部13の路面データを更新することができる。
(第2の実施形態)
Further, the vehicle image processing apparatus 10 according to the present embodiment can update the road surface data in the storage unit 13 using only the image data captured by the camera 11.
(Second Embodiment)

次に、本発明に係る車両用画像処理装置および車両用画像処理方法の第2実施形態について説明する。   Next, a second embodiment of the vehicle image processing device and the vehicle image processing method according to the present invention will be described.

図4は、本発明の第2実施形態に係る車両用画像処理装置10Aの一例を示す全体構成図である。   FIG. 4 is an overall configuration diagram showing an example of a vehicle image processing apparatus 10A according to the second embodiment of the present invention.

この第2実施形態に示す車両用画像処理装置10Aは、車速パルスや加速度センサの出力を取得することで自車の速度を検出する自車速度検出部51とカメラ高さHを校正するためのカメラ高さ校正部52を備え、記憶部13にカメラ高さHがあらかじめ記憶されなくてもよい点で第1実施形態に示す車両用画像処理装置10と異なる。他の構成および作用については図1に示す車両用画像処理装置10と実質的に異ならないため、同じ構成には同一符号を付して説明を省略する。   The vehicle image processing apparatus 10A shown in the second embodiment is for calibrating the vehicle speed detection unit 51 that detects the speed of the vehicle and the camera height H by acquiring the output of the vehicle speed pulse and the acceleration sensor. It differs from the vehicle image processing apparatus 10 shown in the first embodiment in that the camera height calibration unit 52 is provided and the camera height H does not have to be stored in the storage unit 13 in advance. Since other configurations and operations are not substantially different from the vehicle image processing apparatus 10 shown in FIG. 1, the same components are denoted by the same reference numerals and description thereof is omitted.

自車速度検出部51は、車速パルスや加速度センサの出力を取得することにより、自車の速度を検出し、自車並進成分Tを取得する。この自車並進速度Tは、画像とは独立して得られる情報である。自車並進成分Tは、第1実施形態における自車並進成分の平均Taveにかえて路面検出部27に用いられる。なお、自車速度検出部51は、自車速度の所定期間の平均から自車並進成分Tを算出してもよい。 The host vehicle speed detection unit 51 detects the speed of the host vehicle by acquiring the vehicle speed pulse and the output of the acceleration sensor, and acquires the host vehicle translation component T z . This own vehicle translation speed T z is information obtained independently of the image. The own vehicle translation component T z is used in the road surface detection unit 27 instead of the average T z ave of the own vehicle translation component in the first embodiment. Note that the host vehicle speed detection unit 51 may calculate the host vehicle translation component T z from the average of the host vehicle speed over a predetermined period.

カメラ高さ校正部52は、スケールファクタつき相対並進成分T/z、T/z、T/zと自車速度検出部51により検出された自車並進成分Tとを用いて路面検出部27により算出されたカメラ座標系における対象物nの光軸方向座標値z1nを取得する。また、カメラ高さ校正部52は、式(22)に対して定点P0(α、β、γ)の式(17)−(19)を代入した式を近似平面作成部31から取得する。ここで、本実施形態において、定点P0(α、β、γ)の式(17)−(19)におけるカメラ高さHは未知数として扱われる。 The camera height calibration unit 52 uses the relative translation components T x / z, T y / z, T z / z with scale factors and the own vehicle translation component T z detected by the own vehicle speed detection unit 51 to use the road surface. The optical axis direction coordinate value z1n of the object n in the camera coordinate system calculated by the detection unit 27 is acquired. In addition, the camera height calibration unit 52 obtains an expression obtained by substituting the expressions (17) to (19) of the fixed point P0 (α, β, γ) with respect to the expression (22) from the approximate plane creation unit 31. Here, in the present embodiment, the camera height H in the equations (17) to (19) of the fixed point P0 (α, β, γ) is treated as an unknown.

そして、カメラ高さ校正部52は、式(22)に対して定点P0(α、β、γ)の式(17)−(19)を代入した式に対して、複数の対象物の光軸方向座標値z1を代入することにより、複数のHの値を求め、この求めた複数のHの値の平均をカメラが取り付けられた高さHとし、記憶部13に記憶させる。   Then, the camera height calibration unit 52 substitutes the optical axes of a plurality of objects with respect to the equation obtained by substituting the equations (17) to (19) of the fixed point P0 (α, β, γ) into the equation (22). By substituting the direction coordinate value z1, a plurality of H values are obtained, and an average of the obtained plurality of H values is set as a height H at which the camera is attached, and is stored in the storage unit 13.

次に、本実施形態に係る車両用画像処理装置10Aの動作の一例について説明する。   Next, an example of the operation of the vehicle image processing device 10A according to the present embodiment will be described.

図5は、第2実施形態に係る画像処理ECU12のCPUが、カメラ11により取得された画像からリアルタイムに路面の位置を求める際の手順を示すフローチャートである。図5において、Sに数字を付した符号はフローチャートの各ステップを示す。図3と同等のステップには同一符号を付し、重複する説明を省略する。   FIG. 5 is a flowchart illustrating a procedure when the CPU of the image processing ECU 12 according to the second embodiment obtains the position of the road surface in real time from the image acquired by the camera 11. In FIG. 5, reference numerals with numbers added to S indicate steps in the flowchart. Steps equivalent to those in FIG. 3 are denoted by the same reference numerals, and redundant description is omitted.

ステップS21において、自車速度検出部51は、車速パルスや加速度センサの出力を取得することにより、自車の速度を検出し、自車並進成分Tを取得する。 In step S <b> 21, the host vehicle speed detection unit 51 detects the speed of the host vehicle by acquiring the vehicle speed pulse and the output of the acceleration sensor, and acquires the host vehicle translation component T z .

ステップS22において、カメラ高さ校正部52は、路面検出部27から対象物nの光軸方向座標値z1nを、近似平面作成部31から式(22)に対して定点P0(α、β、γ)の式(17)−(19)を代入した式を、それぞれ取得する。カメラ高さ校正部52は、式(22)に対して定点P0(α、β、γ)の式(17)−(19)を代入した式に対して、複数の対象物の光軸方向座標値z1を代入することにより、複数のHの値を求める。そして、カメラ高さ校正部52は、求めた複数のHの値の平均をカメラが取り付けられた高さHとし、記憶部13に記憶させる。   In step S22, the camera height calibration unit 52 obtains the optical axis direction coordinate value z1n of the object n from the road surface detection unit 27 and the fixed plane P0 (α, β, γ) from the approximate plane creation unit 31 with respect to Expression (22). ) Are substituted for the expressions (17) to (19). The camera height calibration unit 52 uses the coordinates of the plurality of objects in the optical axis direction for the formula obtained by assigning the formulas (17) to (19) of the fixed point P0 (α, β, γ) to the formula (22). A plurality of values of H are obtained by substituting the value z1. Then, the camera height calibration unit 52 stores the average of the obtained plurality of H values as the height H at which the camera is attached, and stores it in the storage unit 13.

本実施形態に係る車両用画像処理装置10Aもまた、カメラ11により取得された画像からリアルタイムに路面の位置を求めることができる。このため、カメラ11により撮像される路面と車両底面とが平行でない場合にも、容易に画像から対象物との距離を求めることができるとともに、移動体を特定することができる。   The vehicle image processing apparatus 10 </ b> A according to the present embodiment can also obtain the position of the road surface in real time from the image acquired by the camera 11. For this reason, even when the road surface imaged by the camera 11 and the vehicle bottom surface are not parallel, the distance from the object can be easily obtained from the image, and the moving body can be specified.

したがって、本実施形態に係る車両用画像処理装置10Aによれば、たとえば路面の勾配が変化しており車両直下の路面とカメラにより撮像される路面とで勾配の変化がある場合や、路面が平坦であっても車両積載荷重の多寡や乗車人員の変動による車両傾きがある場合にも、容易に画像から路面との距離を求めることができるとともに、移動体を特定することができる。   Therefore, according to the vehicular image processing device 10A according to the present embodiment, for example, when the road surface gradient changes and there is a change in the gradient between the road surface directly under the vehicle and the road surface imaged by the camera, or the road surface is flat. However, even when there is a vehicle inclination due to a large amount of vehicle load or a change in the number of passengers, the distance from the road surface can be easily obtained from the image, and the moving body can be specified.

また、本実施形態に係る車両用画像処理装置10Aは、リアルタイムに取得した路面の法線ベクトルの情報を用いることにより、容易にカメラ11のz軸回りの取り付け角誤差をソフトウエア的に補正することができる。   Further, the vehicle image processing apparatus 10A according to the present embodiment easily corrects the mounting angle error around the z axis of the camera 11 by software by using the information on the normal vector of the road surface acquired in real time. be able to.

また、本実施形態に係る車両用画像処理装置10Aは、自車速度検出部51を備え、自車並進速度Tとして正確な値を用いることができる。このため、この正確な自車並進速度Tを用いてカメラ11の取り付け高さHを校正することができる。
(第3の実施形態)
Further, the vehicular image processing apparatus 10A according to the present embodiment includes the own vehicle speed detection unit 51 and can use an accurate value as the own vehicle translation speed T z . For this reason, the mounting height H of the camera 11 can be calibrated using this accurate own vehicle translation speed T z .
(Third embodiment)

次に、本発明に係る車両用画像処理装置および車両用画像処理方法の第3実施形態について説明する。   Next, a third embodiment of the vehicle image processing device and the vehicle image processing method according to the present invention will be described.

図6は、本発明の第3実施形態に係る車両用画像処理装置10Bの一例を示す全体構成図である。   FIG. 6 is an overall configuration diagram illustrating an example of a vehicle image processing device 10B according to the third embodiment of the present invention.

この第2実施形態に示す車両用画像処理装置10Bは、車速パルスや加速度センサの出力を取得することで自車の速度を検出する自車速度検出部51と、路面検出部27により路面上の点と判定された点について別の条件を用いて路面上の点であるか否かを判定する路面上点信頼性評価部61を備え、記憶部13に信頼性閾値Rthがさらにあらかじめ記憶されており、近似平面が定点P0を通る必要がない点で第1実施形態に示す車両用画像処理装置10と異なる。他の構成および作用については図1に示す車両用画像処理装置10と実質的に異ならないため、同じ構成には同一符号を付して説明を省略する。また、自車速度検出部51は第2実施形態に示す車両用画像処理装置10Aと実質的に異ならないため、同一符号を付して説明を省略する。   The vehicular image processing apparatus 10B shown in the second embodiment includes a vehicle speed detection unit 51 that detects the speed of the vehicle by acquiring a vehicle speed pulse and an output of an acceleration sensor, and a road surface detection unit 27 on the road surface. A point on road surface reliability evaluation unit 61 that determines whether a point determined as a point is a point on the road surface using another condition is provided, and a reliability threshold Rth is further stored in the storage unit 13 in advance. The difference from the vehicular image processing apparatus 10 according to the first embodiment is that the approximate plane does not need to pass through the fixed point P0. Since other configurations and operations are not substantially different from the vehicle image processing apparatus 10 shown in FIG. 1, the same components are denoted by the same reference numerals and description thereof is omitted. Moreover, since the own vehicle speed detection unit 51 is not substantially different from the vehicle image processing apparatus 10A shown in the second embodiment, the same reference numerals are given and description thereof is omitted.

路面上点信頼性評価部61は、路面検出部27により路面と判定された複数の対象物間のベクトルと固有ベクトルη3との内積が所定の信頼性閾値Rth以下である対象物を抽出し、抽出した対象物の情報を近似平面作成部31に与える。   The road surface point reliability evaluation unit 61 extracts an object whose inner product of a vector between a plurality of objects determined to be a road surface by the road surface detection unit 27 and an eigenvector η3 is a predetermined reliability threshold Rth or less. Information about the target object is given to the approximate plane creation unit 31.

ここで、複数の対象物間のベクトルと固有ベクトルη3との内積を算出することは、KL変換のη3の係数算出と同様の意味を持つ。すなわち、この内積は、複数の対象物間のベクトルのη3成分の大きさを表しており、η1、η2の張る平面との差異を示しているといえる。したがって、この内積が大きな値をとるものは平面との差異が大きいと判断できる。理想的に平面上に位置すればこの内積はゼロになる。   Here, calculating the inner product of the vector between the plurality of objects and the eigenvector η3 has the same meaning as the calculation of the coefficient of η3 of the KL conversion. That is, this inner product represents the magnitude of the η3 component of the vector between a plurality of objects, and can be said to indicate a difference from the plane spanned by η1 and η2. Therefore, it can be determined that a product having a large inner product has a large difference from the plane. If it is ideally located on a plane, this inner product is zero.

近似平面作成部31は、固有値・固有ベクトル算出部29から法線ベクトルη3(またはη1×η2)を受けて、未知定数dを用いてη3に直交する次の近似平面式を定義する。
η31X+η32Y+η33Z=d (26)
The approximate plane creation unit 31 receives the normal vector η3 (or η1 × η2) from the eigenvalue / eigenvector calculation unit 29 and defines the next approximate plane equation orthogonal to η3 using the unknown constant d.
η31X + η32Y + η33Z = d (26)

また、近似平面作成部31は、路面上点信頼性評価部61から受けた対象物の三次元座標値Pn(Xn、Yn、Zn)を式(26)に代入することにより、未知定数dの値を求める。このとき、可能な限り多数の対象物を用いてdの平均値daveを算出するとよい。このdaveを用いることにより、式(26)は次のように書ける。
η31X+η32Y+η33Z=dave (27)
Further, the approximate plane creation unit 31 substitutes the three-dimensional coordinate value Pn (Xn, Yn, Zn) of the object received from the road surface point reliability evaluation unit 61 into the equation (26), thereby obtaining the unknown constant d. Find the value. At this time, the average value dave of d may be calculated using as many objects as possible. By using this dave, the equation (26) can be written as follows.
η31X + η32Y + η33Z = dave (27)

そして、近似平面作成部31は、式(13)−(15)を用いて式(27)を整理し、z=z2として、近似平面データをあらわす次の式(28)を得る。
z2=fdave/(η31x+η32y+η33f) (28)
Then, the approximate plane creation unit 31 organizes the expression (27) using the expressions (13) to (15), and obtains the following expression (28) representing the approximate plane data as z = z2.
z2 = fdave / (η31x + η32y + η33f) (28)

路面データ更新部32は、近似平面作成部31から式(28)で表される近似平面データを受け、記憶部13の路面データをこの近似平面データで更新する。   The road surface data update unit 32 receives the approximate plane data represented by the equation (28) from the approximate plane creation unit 31 and updates the road surface data in the storage unit 13 with the approximate plane data.

次に、本実施形態に係る車両用画像処理装置10Bの動作の一例について説明する。   Next, an example of the operation of the vehicle image processing device 10B according to the present embodiment will be described.

図7は、第3実施形態に係る画像処理ECU12のCPUが、カメラ11により取得された画像からリアルタイムに路面の位置を求める際の手順を示すフローチャートである。図7において、Sに数字を付した符号はフローチャートの各ステップを示す。図3および図5と同等のステップには同一符号を付し、重複する説明を省略する。   FIG. 7 is a flowchart showing a procedure when the CPU of the image processing ECU 12 according to the third embodiment obtains the position of the road surface in real time from the image acquired by the camera 11. In FIG. 7, reference numerals with numbers added to S indicate steps in the flowchart. Steps equivalent to those in FIGS. 3 and 5 are denoted by the same reference numerals, and redundant description is omitted.

ステップST31において、近似平面作成部31は、未知定数dを用いてη3に直交する近似平面を表す式(26)を立てる。   In step ST31, the approximate plane creating unit 31 uses Formula (26) representing an approximate plane orthogonal to η3 using the unknown constant d.

次に、ステップST32において、路面上点信頼性評価部61は、路面検出部27により路面と判定された複数の対象物間のベクトルと固有ベクトルη3との内積が所定の信頼性閾値Rth以下である対象物を抽出し、抽出した対象物の情報を近似平面作成部31に与える。   Next, in step ST32, the road surface point reliability evaluation unit 61 has an inner product of a vector between a plurality of objects determined as a road surface by the road surface detection unit 27 and an eigenvector η3 is equal to or less than a predetermined reliability threshold Rth. An object is extracted, and information on the extracted object is given to the approximate plane creation unit 31.

次に、ステップST33において、近似平面作成部31は、路面上点信頼性評価部61から受けた対象物の三次元座標値Pn(Xn、Yn、Zn)を式(26)に代入することにより、未知定数dの値を求める。そして、近似平面作成部31は、式(13)−(15)を用いて式(27)を整理し、近似平面データをあらわす式(28)を立てる。   Next, in step ST33, the approximate plane creating unit 31 substitutes the three-dimensional coordinate value Pn (Xn, Yn, Zn) of the object received from the road surface point reliability evaluation unit 61 into the equation (26). The value of the unknown constant d is obtained. Then, the approximate plane creation unit 31 organizes the expression (27) using the expressions (13) to (15), and establishes an expression (28) representing the approximate plane data.

次に、ステップST34において、路面データ更新部32は、近似平面作成部31から式(28)で表される近似平面データを受け、記憶部13の路面データをこの近似平面データで更新する。   Next, in step ST34, the road surface data update unit 32 receives the approximate plane data represented by the equation (28) from the approximate plane creation unit 31, and updates the road surface data in the storage unit 13 with the approximate plane data.

本実施形態に係る車両用画像処理装置10Bもまた、カメラ11により取得された画像からリアルタイムに路面の位置を求めることができる。このため、カメラ11により撮像される路面と車両底面とが平行でない場合にも、容易に画像から対象物との距離を求めることができるとともに、移動体を特定することができる。   The vehicular image processing apparatus 10B according to the present embodiment can also obtain the position of the road surface in real time from the image acquired by the camera 11. For this reason, even when the road surface imaged by the camera 11 and the vehicle bottom surface are not parallel, the distance from the object can be easily obtained from the image, and the moving body can be specified.

したがって、本実施形態に係る車両用画像処理装置10Bによれば、たとえば路面の勾配が変化しており車両直下の路面とカメラにより撮像される路面とで勾配の変化がある場合や、路面が平坦であっても車両積載荷重の多寡や乗車人員の変動による車両傾きがある場合にも、容易に画像から対象物との距離を求めることができるとともに、移動体を特定することができる。   Therefore, according to the vehicular image processing device 10B according to the present embodiment, for example, when the road surface gradient is changed and there is a change in the gradient between the road surface directly under the vehicle and the road surface imaged by the camera, or the road surface is flat. Even in the case where there is a vehicle inclination due to a large amount of vehicle load or a change in the number of passengers, the distance from the object can be easily obtained from the image, and the moving body can be specified.

また、本実施形態に係る車両用画像処理装置10Bは、リアルタイムに取得した路面の法線ベクトルの情報を用いることにより、容易にカメラ11のz軸回りの取り付け角誤差をソフトウエア的に補正することができる。   Further, the vehicle image processing apparatus 10B according to the present embodiment easily corrects the mounting angle error of the camera 11 around the z-axis in software by using information on the road surface normal vector acquired in real time. be able to.

また、本実施形態に係る車両用画像処理装置10Bは、路面上点信頼性評価部61を備え、路面検出部27により路面と判定された対象物をさらに選定する。このため、より実際の路面に近い近似平面を表す式を立てることができる。   Further, the vehicular image processing apparatus 10B according to the present embodiment includes a road surface point reliability evaluation unit 61, and further selects an object that is determined as a road surface by the road surface detection unit 27. For this reason, an expression representing an approximate plane closer to the actual road surface can be established.

また、近似平面作成部31により立てられる近似平面を表す式には、定点P0の情報が含まれていない。このため、カメラ11からみた斜面の開始位置によらず、カメラ11に撮像される路面が定点P0を通らない平面である場合にも、正確に路面を近似した平面を表す式を立てることができる。また、記憶部13に記憶された路面データをこの路面に対応する路面データ(近似平面データ)で更新することができる。したがって、第1実施形態および第2実施形態に係る車両用画像装置10および10Aに比べ、より正確に路面との距離を求めることができるとともに、より正確に移動体、立体物、路面の特定を行うことができる。   Further, the formula representing the approximate plane set up by the approximate plane creation unit 31 does not include information on the fixed point P0. For this reason, even when the road surface imaged by the camera 11 is a plane that does not pass through the fixed point P0 regardless of the starting position of the slope as viewed from the camera 11, an expression that accurately represents the plane that approximates the road surface can be established. . In addition, the road surface data stored in the storage unit 13 can be updated with road surface data (approximate plane data) corresponding to the road surface. Therefore, the distance from the road surface can be determined more accurately than in the vehicular image devices 10 and 10A according to the first embodiment and the second embodiment, and the mobile object, the three-dimensional object, and the road surface can be specified more accurately. It can be carried out.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

また、本発明の実施形態では、フローチャートの各ステップは、記載された順序に沿って時系列的に行われる処理の例を示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行される処理をも含むものである。   Further, in the embodiment of the present invention, each step of the flowchart shows an example of processing that is performed in time series in the order described. The process to be executed is also included.

10 車両用画像処理装置
11 カメラ
12 画像処理ECU
13 記憶部
21 スウィング角補正部
22 動きベクトル算出部
23 回転成分算出部
24 移動体検出部
25 スケールファクタ付き並進成分算出部
26 自車並進成分算出部
27 路面検出部
28 路面上点座標算出部
29 固有値・固有ベクトル算出部
30 定点設定部
31 近似平面作成部
32 路面データ更新部
33 スウィング角算出部
41 カメラ投影面
42 路面
43 車両直下平面
51 自車速度検出部
52 カメラ高さ校正部
61 路面上点信頼性評価部
DESCRIPTION OF SYMBOLS 10 Vehicle image processing apparatus 11 Camera 12 Image processing ECU
DESCRIPTION OF SYMBOLS 13 Memory | storage part 21 Swing angle correction | amendment part 22 Motion vector calculation part 23 Rotation component calculation part 24 Moving body detection part 25 Translation component calculation part 26 with a scale factor Own vehicle translation component calculation part 27 Road surface detection part 28 On-surface point coordinate calculation part 29 Eigenvalue / eigenvector calculation unit 30 Fixed point setting unit 31 Approximate plane creation unit 32 Road surface data update unit 33 Swing angle calculation unit 41 Camera projection plane 42 Road surface 43 Plane directly under the vehicle 51 Own vehicle speed detection unit 52 Camera height calibration unit 61 Point on road surface Reliability Evaluation Department

Claims (11)

車両に設けられ前記車両の周辺を撮像するカメラと、
前記カメラにより撮像された画像に含まれる対象物に対応する動きベクトルと前記車両の回転成分とにもとづいて、スケールファクタ付き相対並進成分を算出するスケールファクタ付き並進成分算出部と、
所定の設定路面上の点についてカメラ座標系における前記画像上の座標値と光軸方向座標値とを関連付けたデータである路面データを記憶する記憶部と、
前記スケールファクタつき相対並進成分と自車の並進成分とを用いて前記カメラ座標系における前記対象物の光軸方向座標値を算出するとともに、前記路面データにおいて前記対象物の前記画像上の座標値と関連付けられた光軸方向座標値を前記記憶部から取得し、これらの光軸方向座標値の差が所定の路面閾値以下であると前記対象物を路面と判定する路面検出部と、
を備えた車両用画像処理装置。
A camera provided in the vehicle for imaging the periphery of the vehicle;
A translation component with a scale factor that calculates a relative translation component with a scale factor based on a motion vector corresponding to an object included in an image captured by the camera and a rotation component of the vehicle;
A storage unit that stores road surface data that is data in which a coordinate value on the image in the camera coordinate system and a coordinate value in the optical axis direction are associated with each other on a predetermined set road surface;
While calculating the optical axis direction coordinate value of the object in the camera coordinate system using the relative translation component with the scale factor and the translation component of the own vehicle, the coordinate value on the image of the object in the road surface data And a road surface detection unit that determines that the object is a road surface when a difference between the optical axis direction coordinate values is equal to or less than a predetermined road surface threshold value,
A vehicle image processing apparatus comprising:
前記路面と判定された複数の前記対象物の前記カメラ座標系における三次元座標値の共分散行列の固有ベクトルを用いて前記複数の対象物のなす近似平面を表す式を立てることにより、この近似平面上の点について前記カメラ座標系における前記画像上の座標値と光軸方向座標値とを関連付けた近似平面データを求める近似平面作成部と、
前記所定の設定路面を前記近似平面とするよう、前記記憶部の前記路面データを前記近似平面データで更新する路面データ更新部と、
をさらに備えた請求項1記載の車両用画像処理装置。
This approximate plane is established by formulating an approximate plane formed by the plurality of objects using eigenvectors of a covariance matrix of three-dimensional coordinate values in the camera coordinate system of the plurality of objects determined as the road surface. An approximate plane creation unit for obtaining approximate plane data in which the coordinate value on the image in the camera coordinate system and the optical axis direction coordinate value are associated with each other on the upper point;
A road surface data update unit that updates the road surface data of the storage unit with the approximate plane data so that the predetermined set road surface is the approximate plane;
The vehicular image processing apparatus according to claim 1, further comprising:
前記共分散行列は、
値が大きい順に第1、第2および第3の固有値を有するとともに、各固有値にそれぞれ対応する第1、第2および第3の固有ベクトルを有し、
前記近似平面作成部は、
前記共分散行列の前記第1および前記第2の固有値が第1の固有値閾値以上であり、かつ前記第3の固有値が第2の固有値閾値以下であると、前記近似平面を表す式として前記第3の固有値に対応する前記第3の固有ベクトルに直交する平面を表す式を立てる、
請求項2記載の車両用画像処理装置。
The covariance matrix is
Having first, second, and third eigenvalues in descending order of values, and having first, second, and third eigenvectors corresponding to each eigenvalue,
The approximate plane creation unit
When the first and second eigenvalues of the covariance matrix are greater than or equal to a first eigenvalue threshold and the third eigenvalue is less than or equal to a second eigenvalue threshold, Formulating a plane representing a plane orthogonal to the third eigenvector corresponding to the eigenvalue of 3;
The image processing apparatus for vehicles according to claim 2.
前記近似平面作成部は、
前記近似平面を表す式と、前記車両直下の路面からみた前記カメラが取り付けられた高さと、前記カメラの中心から下ろした鉛直線と前記車両直下の路面との交点と、を用いて前記近似平面データを求める、
請求項3記載の車両用画像処理装置。
The approximate plane creation unit
The approximate plane using the expression representing the approximate plane, the height at which the camera is mounted as viewed from the road surface directly below the vehicle, and the intersection of the vertical line drawn from the center of the camera and the road surface directly below the vehicle Ask for data,
The vehicular image processing apparatus according to claim 3.
前記記憶部に記憶された前記路面データから前記対象物の前記画像上の座標値と関連付けられた光軸方向座標値を取得し、この光軸方向座標値を前記スケールファクタ付き相対並進成分に乗ずることにより、前記画像にもとづいて前記自車の並進成分を算出して前記路面検出部に与える自車並進成分算出部、
をさらに備えた請求項4に記載の車両用画像処理装置。
An optical axis direction coordinate value associated with a coordinate value on the image of the object is acquired from the road surface data stored in the storage unit, and the optical axis direction coordinate value is multiplied by the relative translation component with the scale factor. Accordingly, the vehicle translation component calculation unit that calculates the translation component of the vehicle based on the image and supplies the translation component to the road surface detection unit,
The vehicle image processing device according to claim 4, further comprising:
前記自車の並進成分を検出して前記路面検出部に与える自車速度検出部と、
前記スケールファクタつき相対並進成分と前記自車速度検出部により検出された前記自車の並進成分とを用いて算出された前記カメラ座標系における前記対象物の光軸方向座標値を前記路面検出部から取得するとともに、前記第3の固有ベクトルに直交する平面を表す式に対して前記カメラの中心から下ろした鉛直線と前記車両直下の路面との交点であって前記カメラ座標系における三次元座標値を前記車両直下の路面からみた前記カメラが取り付けられた高さを未知数として表された交点の前記三次元座標値を代入した式を前記近似平面作成部から取得し、この式に対して前記複数の対象物の前記光軸方向座標値を代入することにより複数の前記未知数の値を求め、この求めた複数の値の平均を前記カメラが取り付けられた高さとする高さ校正部と、
をさらに備え、
前記近似平面作成部は、
前記近似平面を表す式と、前記高さ校正部により算出された前記カメラが取り付けられた高さと、前記カメラの中心から下ろした鉛直線と前記車両直下の平面との交点と、を用いて前記近似平面データを求める、
請求項3記載の車両用画像処理装置。
A vehicle speed detection unit that detects the translation component of the vehicle and gives it to the road surface detection unit;
An optical axis direction coordinate value of the object in the camera coordinate system calculated using the relative translation component with the scale factor and the translation component of the host vehicle detected by the host vehicle speed detection unit is the road surface detection unit. And a three-dimensional coordinate value in the camera coordinate system that is an intersection of a vertical line drawn from the center of the camera with respect to an expression representing a plane orthogonal to the third eigenvector and the road surface directly under the vehicle. Is obtained from the approximate plane creation unit by substituting the three-dimensional coordinate value of the intersection point, which is expressed as an unknown, the height at which the camera is mounted as viewed from the road surface directly under the vehicle, A plurality of unknown values are obtained by substituting the optical axis direction coordinate values of the target object, and an average of the obtained plural values is a height at which the camera is attached And Tadashibu,
Further comprising
The approximate plane creation unit
Using the expression representing the approximate plane, the height at which the camera calculated by the height calibration unit is attached, and the intersection of the vertical line drawn from the center of the camera and the plane directly under the vehicle, Find approximate plane data,
The vehicular image processing apparatus according to claim 3.
前記自車の並進成分を検出して前記路面検出部に与える自車速度検出部と、
前記路面と判定された複数の前記対象物間のベクトルと前記第3の固有ベクトルとの内積が所定の信頼性閾値以下である前記対象物を抽出する路面上点信頼性評価部と、
をさらに備え、
前記近似平面作成部は、
前記近似平面を表す式として前記第3の固有値に対応する前記第3の固有ベクトルに直交するとともに1つの未知定数を有する平面を表す式を立て、この式に対して前記路面上点信頼性評価部により抽出された複数の前記対象物の前記三次元座標値を代入して前記未知定数の値を求めることにより前記近似平面データを求める、
請求項3記載の車両用画像処理装置。
A vehicle speed detection unit that detects the translation component of the vehicle and gives it to the road surface detection unit;
A point reliability evaluation unit on the road surface for extracting the object whose inner product of a vector between the plurality of objects determined to be the road surface and the third eigenvector is equal to or less than a predetermined reliability threshold;
Further comprising
The approximate plane creation unit
As an equation representing the approximate plane, an equation representing a plane orthogonal to the third eigenvector corresponding to the third eigenvalue and having one unknown constant is established, and the road surface point reliability evaluation unit is established for this equation The approximate plane data is obtained by substituting the three-dimensional coordinate values of the plurality of objects extracted by obtaining the unknown constant value.
The vehicular image processing apparatus according to claim 3.
前記車両の前記回転成分で補正した前記対象物に対応する前記動きベクトルが前記画像上で消失点に向かう場合、前記対象物を静止物と判定する移動体検出部、
をさらに備え、
前記スケールファクタ付き並進成分算出部は、
前記移動体検出部により前記静止物と判定された前記対象物について前記スケールファクタ付き相対並進成分を算出し、
前記路面検出部は、
前記移動体検出部により前記静止物と判定された前記対象物について前記判定を行う、
請求項1ないし7のいずれか1項に記載の車両用画像処理装置。
A moving body detection unit that determines the object as a stationary object when the motion vector corresponding to the object corrected with the rotation component of the vehicle is directed to a vanishing point on the image;
Further comprising
The translation factor calculation unit with a scale factor is
Calculating the relative translation component with the scale factor for the object that is determined as the stationary object by the moving object detection unit;
The road surface detection unit is
Performing the determination on the object determined as the stationary object by the moving object detection unit;
The vehicle image processing device according to claim 1.
前記カメラにより撮像された画像内に投影した前記第3の固有ベクトルの方向に応じて、前記カメラにより撮像された画像を回転補正するスウィング角補正部、
をさらに備えた請求項3ないし8のいずれか1項に記載の車両用画像処理装置。
A swing angle correction unit that rotationally corrects the image captured by the camera in accordance with the direction of the third eigenvector projected in the image captured by the camera;
The vehicular image processing apparatus according to claim 3, further comprising:
車両に設けられたカメラが前記車両の周辺を撮像するステップと、
前記カメラにより撮像された画像に含まれる対象物に対応する動きベクトルと前記車両の回転成分とにもとづいて、スケールファクタ付き相対並進成分を算出するステップと、
所定の設定路面上の点についてカメラ座標系における前記画像上の座標値と光軸方向座標値とを関連付けたデータである路面データを記憶部に記憶させるステップと、
前記スケールファクタつき相対並進成分と自車の並進成分とを用いて前記カメラ座標系における前記対象物の光軸方向座標値を算出するとともに、前記路面データにおいて前記対象物の前記画像上の座標値と関連付けられた光軸方向座標値を前記記憶部から取得し、これらの光軸方向座標値の差が所定の路面閾値以下であると前記対象物を路面と判定するステップと、
前記路面と判定された複数の前記対象物の前記カメラ座標系における三次元座標値の共分散行列の固有ベクトルを用いて前記複数の対象物のなす近似平面を表す式を立てることにより、この近似平面上の点について前記カメラ座標系における前記画像上の座標値と光軸方向座標値とを関連付けた近似平面データを求めるステップと、
前記所定の設定路面を前記近似平面とするよう、前記記憶部の前記路面データを前記近似平面データで更新するステップと、
を有する車両用画像処理方法。
A camera provided in the vehicle images the periphery of the vehicle;
Calculating a relative translation component with a scale factor based on a motion vector corresponding to an object included in an image captured by the camera and a rotation component of the vehicle;
Storing road surface data, which is data in which a coordinate value on the image in the camera coordinate system and a coordinate value in the optical axis direction are associated with each other on a predetermined set road surface, in a storage unit;
While calculating the optical axis direction coordinate value of the object in the camera coordinate system using the relative translation component with the scale factor and the translation component of the own vehicle, the coordinate value on the image of the object in the road surface data Obtaining the optical axis direction coordinate value associated with the storage unit from the storage unit, and determining that the object is a road surface when the difference between the optical axis direction coordinate values is equal to or less than a predetermined road surface threshold value;
This approximate plane is established by formulating an approximate plane formed by the plurality of objects using eigenvectors of a covariance matrix of three-dimensional coordinate values in the camera coordinate system of the plurality of objects determined as the road surface. Obtaining approximate plane data associating a coordinate value on the image and an optical axis direction coordinate value in the camera coordinate system for the upper point;
Updating the road surface data of the storage unit with the approximate plane data so that the predetermined set road surface is the approximate plane;
A vehicle image processing method comprising:
前記共分散行列は、
値が大きい順に第1、第2および第3の固有値を有するとともに、各固有値にそれぞれ対応する第1、第2および第3の固有ベクトルを有し、
前記近似平面データを求めるステップは、
前記共分散行列の前記第1および前記第2の固有値が第1の固有値閾値以上であり、かつ前記第3の固有値が第2の固有値閾値以下であると、前記近似平面を表す式として前記第3の固有値に対応する前記第3の固有ベクトルに直交する平面を表す式を立てるステップである、
請求項10記載の車両用画像処理方法。
The covariance matrix is
Having first, second, and third eigenvalues in descending order of values, and having first, second, and third eigenvectors corresponding to each eigenvalue,
The step of obtaining the approximate plane data includes:
When the first and second eigenvalues of the covariance matrix are greater than or equal to a first eigenvalue threshold and the third eigenvalue is less than or equal to a second eigenvalue threshold, Establishing a formula representing a plane orthogonal to the third eigenvector corresponding to the eigenvalue of 3;
The vehicle image processing method according to claim 10.
JP2010276270A 2010-12-10 2010-12-10 Image processing apparatus for vehicle and image processing method for vehicle Active JP5588332B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010276270A JP5588332B2 (en) 2010-12-10 2010-12-10 Image processing apparatus for vehicle and image processing method for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010276270A JP5588332B2 (en) 2010-12-10 2010-12-10 Image processing apparatus for vehicle and image processing method for vehicle

Publications (2)

Publication Number Publication Date
JP2012123750A JP2012123750A (en) 2012-06-28
JP5588332B2 true JP5588332B2 (en) 2014-09-10

Family

ID=46505096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010276270A Active JP5588332B2 (en) 2010-12-10 2010-12-10 Image processing apparatus for vehicle and image processing method for vehicle

Country Status (1)

Country Link
JP (1) JP5588332B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6384802B2 (en) * 2015-03-26 2018-09-05 パナソニックIpマネジメント株式会社 MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
KR101780048B1 (en) 2016-07-04 2017-09-19 포항공과대학교 산학협력단 Moving Object Detection Method in dynamic scene using monocular camera
JP7148064B2 (en) * 2018-10-25 2022-10-05 株式会社アイシン Camera parameter estimation device, camera parameter estimation method, and camera parameter estimation program
JP7211047B2 (en) * 2018-12-04 2023-01-24 株式会社アイシン Road surface detection device and road surface detection program
KR102557429B1 (en) * 2021-07-06 2023-07-20 한동대학교 산학협력단 Autonomous valet parking system and method using fisheye lens camera

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2882136B2 (en) * 1991-11-25 1999-04-12 日本電気株式会社 Video analysis method
JP3501841B2 (en) * 1994-05-11 2004-03-02 株式会社デンソー Three-dimensional object region detection device, distance measuring device to three-dimensional object region, and their detection and measurement method
TWI246665B (en) * 2001-07-12 2006-01-01 Ding-Jang Tzeng Method for aiding the driving safety of road vehicle by monocular computer vision
JP2004240480A (en) * 2003-02-03 2004-08-26 Matsushita Electric Ind Co Ltd Operation support device
US8289321B2 (en) * 2004-03-17 2012-10-16 Sony Corporation Method and apparatus for detecting plane, and robot apparatus having apparatus for detecting plane
JP2008203992A (en) * 2007-02-16 2008-09-04 Omron Corp Detection device, method, and program thereof

Also Published As

Publication number Publication date
JP2012123750A (en) 2012-06-28

Similar Documents

Publication Publication Date Title
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
JP6141601B2 (en) In-vehicle camera automatic calibration device
US10594941B2 (en) Method and device of image processing and camera
EP2437494B1 (en) Device for monitoring area around vehicle
JP6891954B2 (en) Object detection device, object detection method, and program
JP5133783B2 (en) In-vehicle device
US20110298988A1 (en) Moving object detection apparatus and moving object detection method
EP1637836A1 (en) Device and method of supporting stereo camera, device and method of detecting calibration, and stereo camera system
US10645365B2 (en) Camera parameter set calculation apparatus, camera parameter set calculation method, and recording medium
JP5588332B2 (en) Image processing apparatus for vehicle and image processing method for vehicle
US10204445B2 (en) Information processing apparatus, method, and storage medium for determining a failure of position and orientation measurement of an image capturing device
JP2019528501A (en) Camera alignment in a multi-camera system
CN109997150B (en) System and method for classifying road features
JP5612915B2 (en) Moving body detection apparatus and moving body detection method
CN110719411B (en) Panoramic all-around view image generation method of vehicle and related equipment
JP6306735B2 (en) Stereo camera device and vehicle equipped with stereo camera device
JP4735361B2 (en) Vehicle occupant face orientation detection device and vehicle occupant face orientation detection method
CN110942470A (en) Image processing apparatus
JP5695405B2 (en) Image processing apparatus for vehicle and image processing method for vehicle
JP5864984B2 (en) In-vehicle camera image correction method and in-vehicle camera image correction program
JP2020035158A (en) Attitude estimation device and calibration system
JP5731801B2 (en) Image processing apparatus for vehicle and image processing method for vehicle
JP2019129341A (en) Camera calibration apparatus, camera calibration method, and program
JP5330341B2 (en) Ranging device using in-vehicle camera
JP5827561B2 (en) Solid object judgment device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140725

R150 Certificate of patent or registration of utility model

Ref document number: 5588332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250