JP5588332B2 - Image processing apparatus for vehicle and image processing method for vehicle - Google Patents
Image processing apparatus for vehicle and image processing method for vehicle Download PDFInfo
- Publication number
- JP5588332B2 JP5588332B2 JP2010276270A JP2010276270A JP5588332B2 JP 5588332 B2 JP5588332 B2 JP 5588332B2 JP 2010276270 A JP2010276270 A JP 2010276270A JP 2010276270 A JP2010276270 A JP 2010276270A JP 5588332 B2 JP5588332 B2 JP 5588332B2
- Authority
- JP
- Japan
- Prior art keywords
- road surface
- vehicle
- camera
- approximate plane
- coordinate value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 65
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000013519 translation Methods 0.000 claims description 65
- 238000001514 detection method Methods 0.000 claims description 47
- 230000003287 optical effect Effects 0.000 claims description 42
- 239000013598 vector Substances 0.000 claims description 36
- 230000014509 gene expression Effects 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000012937 correction Methods 0.000 claims description 11
- 238000011156 evaluation Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- RVRCFVVLDHTFFA-UHFFFAOYSA-N heptasodium;tungsten;nonatriacontahydrate Chemical compound O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.O.[Na+].[Na+].[Na+].[Na+].[Na+].[Na+].[Na+].[W].[W].[W].[W].[W].[W].[W].[W].[W].[W].[W] RVRCFVVLDHTFFA-UHFFFAOYSA-N 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明の実施形態は、車両用画像処理装置および車両用画像処理方法に関する。 Embodiments described herein relate generally to a vehicle image processing apparatus and a vehicle image processing method.
最近、自動車などの車両の運転を支援するための技術として、車両と対象物との衝突可能性を判定する技術の開発が望まれている。この種の技術には、たとえば、車両に搭載されたカメラにより撮像された画像にもとづいて車両と対象物との衝突可能性を判定する技術などがある。車両に搭載されたカメラにより撮像された画像を用いる場合、レーダを用いる場合に比べてデジタル化された画像データを利用することができることから、対象物の接近角度などの複雑な判断が可能である。 Recently, as a technique for supporting driving of a vehicle such as an automobile, development of a technique for determining the possibility of collision between the vehicle and an object is desired. As this type of technology, for example, there is a technology for determining the possibility of collision between a vehicle and an object based on an image captured by a camera mounted on the vehicle. When using an image captured by a camera mounted on a vehicle, it is possible to use digitized image data as compared with the case of using a radar, so that it is possible to make a complicated determination such as an approach angle of an object. .
ところで、カメラにより撮像された画像にもとづいて車両と対象物との衝突可能性を判定する従来の技術は、カメラにより撮像される路面が車両底面と平行であること(路面平面モデル)が前提となっており、カメラにより撮像される路面と車両底面とが平行でない場合を考慮していない。このため、カメラにより撮像される路面と車両底面とが平行でない場合には、画像から対象物との距離を求めることや移動体を特定することが難しい。 By the way, the conventional technique for determining the possibility of collision between the vehicle and the object based on the image captured by the camera is based on the premise that the road surface imaged by the camera is parallel to the vehicle bottom surface (road surface plane model). Therefore, the case where the road surface imaged by the camera and the vehicle bottom surface are not parallel is not considered. For this reason, when the road surface imaged by the camera and the vehicle bottom surface are not parallel, it is difficult to obtain the distance from the object and specify the moving body from the image.
カメラにより撮像される路面と車両底面とが平行でない状況としては、たとえば路面の勾配が変化しており車両直下の路面とカメラにより撮像される路面とで勾配の変化がある状況や、路面が平坦であっても車両積載荷重の多寡や乗車人員の変動による車両傾きがある状況などが挙げられる。これらの状況は、実際の車両の運転において遭遇する可能性が高いものと考えられる。 For example, the road surface imaged by the camera and the vehicle bottom surface are not parallel to each other. For example, the road surface gradient changes, and the road surface directly under the vehicle and the road surface imaged by the camera have a gradient change, or the road surface is flat. Even so, there are situations in which there is a vehicle tilt due to a large amount of vehicle load and fluctuations in the number of passengers. These situations are likely to be encountered in actual vehicle driving.
本発明の一実施形態に係る車両用画像処理装置は、上述した課題を解決するために、カメラと、スケールファクタ付き並進成分算出部と、記憶部と、路面検出部と、近似平面作成部と、路面データ更新部と、を備える。カメラは、車両に設けられ車両の周辺を撮像する。スケールファクタ付き並進成分算出部は、カメラにより撮像された画像に含まれる対象物に対応する動きベクトルと車両の回転成分とにもとづいて、スケールファクタ付き相対並進成分を算出する。記憶部は、所定の設定路面上の点についてカメラ座標系における画像上の座標値と光軸方向座標値とを関連付けたデータである路面データを記憶する。路面検出部は、スケールファクタつき相対並進成分と自車の並進成分とを用いてカメラ座標系における対象物の光軸方向座標値を算出するとともに、路面データにおいて対象物の画像上の座標値と関連付けられた光軸方向座標値を記憶部から取得し、これらの光軸方向座標値の差が所定の路面閾値以下であると対象物を路面と判定する。近似平面作成部は、路面と判定された複数の対象物のカメラ座標系における三次元座標値の共分散行列の固有ベクトルを用いて複数の対象物のなす近似平面を表す式を立てることにより、この近似平面上の点についてカメラ座標系における画像上の座標値と光軸方向座標値とを関連付けた近似平面データを求める。路面データ更新部は、所定の設定路面を近似平面とするよう、記憶部の路面データを近似平面データで更新する。 In order to solve the above-described problems, a vehicle image processing apparatus according to an embodiment of the present invention includes a camera, a translation component calculation unit with a scale factor, a storage unit, a road surface detection unit, and an approximate plane creation unit. And a road surface data updating unit. The camera is provided in the vehicle and images the periphery of the vehicle. The translation component with a scale factor calculation unit calculates a relative translation component with a scale factor based on a motion vector corresponding to an object included in an image captured by the camera and a rotation component of the vehicle. A memory | storage part memorize | stores the road surface data which are the data which linked | related the coordinate value on the image in a camera coordinate system, and the optical axis direction coordinate value about the point on a predetermined setting road surface. The road surface detection unit calculates the optical axis direction coordinate value of the object in the camera coordinate system using the relative translation component with the scale factor and the translation component of the own vehicle, and the coordinate value on the image of the object in the road surface data The associated optical axis direction coordinate values are acquired from the storage unit, and if the difference between these optical axis direction coordinate values is equal to or less than a predetermined road surface threshold, the object is determined to be a road surface. The approximate plane creation unit uses the eigenvector of the covariance matrix of the three-dimensional coordinate values in the camera coordinate system of the plurality of objects determined as the road surface to establish this expression representing the approximate plane formed by the plurality of objects. Approximate plane data in which the coordinate value on the image in the camera coordinate system and the coordinate value in the optical axis direction are associated with each other on the approximate plane is obtained. The road surface data update unit updates the road surface data in the storage unit with the approximate plane data so that the predetermined set road surface is an approximate plane.
本発明に係る車両用画像処理装置および車両用画像処理方法の実施の形態について、添付図面を参照して説明する。
(第1の実施形態)
Embodiments of a vehicle image processing apparatus and a vehicle image processing method according to the present invention will be described with reference to the accompanying drawings.
(First embodiment)
図1は、本発明の第1実施形態に係る車両用画像処理装置10の一例を示す全体構成図である。
FIG. 1 is an overall configuration diagram showing an example of a vehicle
車両用画像処理装置10は、カメラ11、画像処理ECU(Electronic Control Unit)12および記憶部13を有する。
The vehicle
カメラ11は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成され、自家用自動車等の車両周囲の画像を取り込んで画像信号を生成して画像処理ECU12に与える。
The
たとえば後方を監視する場合、カメラ11は車両後部のナンバープレート付近に路面と平行な線からやや下向きに配設される。カメラ11には、より広範な車両外画像が取得可能なように広角レンズや魚眼レンズが取り付けられてもよい。また、車両の側方を監視する場合、カメラ11はサイドミラー付近に配設される。もちろん、複数のカメラ11を用いることにより広範な車外周囲画像を取り込むようにしてもよい。
For example, when monitoring the rear, the
画像処理ECU12は、CPU、RAMおよびROMなどの記憶媒体などにより構成される。画像処理ECU12のCPUは、ROMなどの記憶媒体に記憶された画像処理プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って、カメラ11により取得された画像にもとづいて、カメラ11により取得された画像からリアルタイムに路面の位置を求める。
The
画像処理ECU12のRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。画像処理ECU12のROMなどの記憶媒体は、画像処理プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。
The RAM of the
なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は図示しないネットワーク接続部を介して電子ネットワークを介してダウンロードされるように構成してもよい。 A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Or you may comprise so that all may be downloaded via an electronic network via the network connection part which is not shown in figure.
なお、この場合、ネットワーク接続部は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装し、この各種プロトコルに従って画像処理ECU12と他の車両のECUなどの電気機器とを電子ネットワークを介して接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、無線/有線LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。
In this case, the network connection unit implements various information communication protocols according to the form of the network, and the
記憶部13は、画像処理ECU12によるデータの読み書きが可能な不揮発性のメモリであり、あらかじめ、消失点(FOE:Focus of Expansion)の情報FOE(x0、y0)および路面データz2=z(x、y)、路面閾値zth、第1の固有値閾値λth1、第2の固有値閾値λth2、カメラ高さHおよび角度閾値ψthを記憶している。これらの情報は、電子ネットワークを介してまたは光ディスクなどの可搬型記憶媒体を介して更新されてもよい。
The
路面データz2=z(x、y)は、所定の設定路面上の点について、画像上の座標値と光軸方向座標値とを関連付けたデータをいうものとする。すなわち、画像処理ECU12は、記憶部13に記憶された路面データを参照することにより、画像上の座標値(x、y)に表示された対象物について、この対象物が所定の設定路面上にあるものと仮定した場合における光軸方向座標値z2を取得することができる。
Road surface data z2 = z (x, y) refers to data in which a coordinate value on an image and an optical axis direction coordinate value are associated with each other on a predetermined set road surface. That is, the
図1に示すように、画像処理ECU12のCPUは、画像処理プログラムによって、少なくともスウィング角補正部21、動きベクトル算出部22、回転成分算出部23、移動体検出部24、スケールファクタ付き並進成分算出部25、自車並進成分算出部26、路面検出部27、路面上点座標算出部28、固有値・固有ベクトル算出部29、定点設定部30、近似平面作成部31、路面データ更新部32およびスウィング角算出部33として機能する。この各部21〜33は、RAMの所要のワークエリアを、データの一時的な格納場所として利用する。なお、これらの機能実現部は、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。
ここで、カメラ座標系について簡単に説明する。
As shown in FIG. 1, the CPU of the
Here, the camera coordinate system will be briefly described.
図2は、カメラ座標系におけるカメラ投影面41と路面42との関係を示す説明図である。
FIG. 2 is an explanatory diagram showing the relationship between the
本実施形態に係る車両用画像処理装置10は、カメラ座標系のみを用い、世界座標系を併用しないため、座標系の相互変換等の処理が不要である。
Since the vehicular
カメラ座標系(x、y、z)は、カメラ11の中心を原点とする左手座標系である。カメラ座標系のz軸は、カメラ11の光軸に一致するよう設定される。
The camera coordinate system (x, y, z) is a left-handed coordinate system with the center of the
カメラ投影面41は、カメラ座標系においてz=fの面である。fはカメラ11の焦点距離である。カメラ11は、このカメラ投影面41に投影される車両周囲を撮像する。
The
対象物のある点Pのカメラ座標系の三次元座標をP(X、Y、Z)とし、点Pのカメラ投影面41に投影された点pの座標をp(x、y、f)とする。このとき点Pのz座標(光軸方向座標)をzと定義すると(Z=z)、X=(z/f)・x、Y=(z/f)・y、Z=zと書ける。ここで、x、yは投影面41上のxy座標値であり、zは対象物のz座標値であることに注意する。投影面41上のxy座標値は、カメラ11の画素と対応するものであるため、画像から容易に取得することができる。
The three-dimensional coordinate of the camera coordinate system of the point P with the object is P (X, Y, Z), and the coordinate of the point p projected onto the
カメラ高さHは、タイヤが接地する車両直下の路面(以下、車両直下平面という)43から見たカメラ11の中心の高さをいうものとする。
The camera height H refers to the height of the center of the
本実施形態では、カメラ11の中心から下ろした鉛直線と車両直下平面43との交点が定点P0(α、β、γ)であるとともに、このP0から原点までの距離であるカメラ高さHが定数であるものとする。また、本実施形態では、カメラ11により撮像される路面42は定点P0を通るものとする。
In the present embodiment, the intersection of the vertical line drawn from the center of the
スウィング角補正部21は、スウィング角算出部33から受けた角度ずれψを補正するよう、カメラ11により撮像された画像をz軸を中心として回転補正する。この結果、カメラ11で撮像された画像はカメラ11のz軸回りの取り付け角誤差を補正され、たとえば地平線が水平な位置に表示されるようになる。このスウィング角補正部21による回転補正は、たとえばカメラ11の取り付け時の初期設定において使用されてもよい。
The swing
動きベクトル算出部22は、ブロックマッチング法や勾配法などを用いて、カメラ11により撮像された複数の画像から画素ごとに動きベクトル(u、v)を算出する。
The motion
回転成分算出部23は、動きベクトル(u、v)および消失点情報FOE(x0、y0)にもとづいて回転成分Rx、Ry、Rzを算出する。以下、より具体的に説明する。
The rotation
カメラ投影面41上の動きベクトル(u、v)は、次のように書けることが知られている。
u = xy(1/f)Rx−(x2+f2)(1/f)Ry+yRz−f(Tx/z)+x(Tz/z) (1)
v = (y2+f2)(1/f) Rx−xy(1/f)Ry−xRz−f(Ty/z)+y(Tz/z) (2)
It is known that the motion vector (u, v) on the
u = xy (1 / f) R x − (x 2 + f 2 ) (1 / f) R y + yR z −f (T x / z) + x (T z / z) (1)
v = (y 2 + f 2 ) (1 / f) R x −xy (1 / f) R y −xR z −f (T y / z) + y (T z / z) (2)
ここで、x、yは投影面41上のxy座標値、zは対象物のz座標値をあらわす。また、Rx、Ry、Rz、Tx、Ty、Tzは運動パラメータであり、Rx、Ry、Rzは車両の回転成分をあらわし、Tx、Ty、Tzは自車と対象物との相対並進成分をあらわす。
Here, x and y are xy coordinate values on the
車両の回転成分Rxはx軸中心の回転成分であり、自車のピッチング成分をあらわす。また、Ryはy軸中心の回転成分であり、自車のヨーイング成分をあらわす。ヨーイングは、主に舵角時(自車の曲進時)に発生する。Rzはz軸中心の回転成分であり自車のローリング成分をあらわす。 The rotation component Rx of the vehicle is a rotation component about the x-axis, and represents the pitching component of the own vehicle. R y is a rotational component about the y-axis and represents the yawing component of the host vehicle. Yawing occurs mainly at the steering angle (when the vehicle is turning). R z is a rotation component about the z axis and represents a rolling component of the vehicle.
対象物が静止物である場合には、回転成分で補正した対象物の動きベクトルの延長線がFOE(x0、y0)に収束することが知られている(崎本隆志ら、火の国情報シンポジウム2003講演論文集、「拡張焦点を用いた移動車両検出及び追跡に関する研究」(2003))。このため、次の式(3)が導かれる。
[u−xy(1/f)Rx+(x2+f2)(1/f)Ry−yRz]/[ v−(y2+f2)(1/f) Rx+xy(1/f)Ry+xRz]
= [x-x0]/[y-y0] (3)
When the object is a stationary object, it is known that the extension line of the motion vector of the object corrected by the rotation component converges to FOE (x0, y0) (Takashi Sakimoto et al. Symposium 2003 Proceedings, "Study on Moving Vehicle Detection and Tracking Using Extended Focus" (2003)). Therefore, the following formula (3) is derived.
[u−xy (1 / f) R x + (x 2 + f 2 ) (1 / f) R y −yR z ] / [v− (y 2 + f 2 ) (1 / f) R x + xy (1 / f) R y + xR z ]
= [x-x0] / [y-y0] (3)
したがって、Rx、Ry、Rzを3つの未知数と考えれば、静止物に対応する少なくとも3つの画素の動きベクトルを得ることができればRx、Ry、Rzを算出できる。 Accordingly, if R x , R y , and R z are considered as three unknowns, R x , R y , and R z can be calculated if motion vectors of at least three pixels corresponding to the stationary object can be obtained.
そこで、回転成分算出部23は、消失点情報FOE(x0、y0)を記憶部13から取得し、静止物に対応する3つ以上の画素の動きベクトル(u、v)についての式(3)にもとづいて回転成分Rx、Ry、Rzを算出する。すなわち、回転成分算出部23は、カメラ11が取得した画像から回転成分を算出することができる。
Therefore, the rotation
なお、回転成分は、車速データや舵角データなどの車両情報やジャイロセンサなどから求めることもできる。 The rotation component can also be obtained from vehicle information such as vehicle speed data and steering angle data, a gyro sensor, and the like.
移動体検出部24は、消失点FOEに収束しない対象物については自車と異なる移動をしている移動体と判定するとともに、消失点FOEに収束する対象物については静止物と判定する。移動体検出部24は、静止物と判定した対象物の情報を回転成分算出部23および自車並進成分算出部26に与える。このため、回転成分算出部23は、静止物と判定された対象物に対応する3つ以上の画素の動きベクトル(u、v)についての式(3)にもとづいて回転成分Rx、Ry、Rzを算出することができる。
The moving
スケールファクタ付き並進成分算出部25は、画像に含まれる対象物に対応する動きベクトル(u、v)と車両の回転成分Rx、Ry、Rzとにもとづいて、対象物のスケールファクタ付きの相対並進成分(以下、スケールファクタ付き並進成分という)Tx/z、Ty/z、Tz/zを算出する。
The translation
スケールファクタ付き並進成分Tx/z、Ty/z、Tz/zは、対象物の相対並進成分Tx、Ty、Tzを対象物のz座標値で除したものである。このため、相対並進成分Tx、Ty、Tzが同一であれば、遠くにある(z座標値が大きい)ものほどスケールファクタ付き並進成分が小さくなる。対象物の点Pが静止しているか移動しているかによらず、点Pはスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zで運動していると画像上において観測される。以下、より具体的に説明する。 The translation components T x / z, T y / z, and T z / z with scale factors are obtained by dividing the relative translation components T x , T y , and T z of the object by the z coordinate value of the object. For this reason, if the relative translation components T x , T y , and T z are the same, the farther away (the larger the z coordinate value), the smaller the translation component with a scale factor. Regardless of whether the point P of the object is stationary or moving, the point P is observed on the image as moving with the translation components T x / z, T y / z, and T z / z with scale factors. Is done. More specific description will be given below.
式(1)および式(2)は、それぞれ次のように変形できる。
u−xy(1/f)Rx+(x2+f2)(1/f)Ry−yRz = −f(Tx/z)+x(Tz/z) (4)
v−(y2+f2)(1/f) Rx+xy(1/f)Ry+xRz = −f(Ty/z)+y(Tz/z) (5)
Equations (1) and (2) can be modified as follows.
u−xy (1 / f) R x + (x 2 + f 2 ) (1 / f) R y −yR z = −f (T x / z) + x (T z / z) (4)
v− (y 2 + f 2 ) (1 / f) R x + xy (1 / f) R y + xR z = −f (T y / z) + y (T z / z) (5)
式(4)および式(5)において、左辺は動きベクトル(u、v)を回転成分で補正したものである。 In Expressions (4) and (5), the left side is obtained by correcting the motion vector (u, v) with a rotation component.
式(4)および式(5)から、画像に含まれる対象物に対応する動きベクトル(u、v)と車両の回転成分Rx、Ry、Rzとにもとづいて、対象物のスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zを算出することができる。 From the equations (4) and (5), the scale factor of the object is determined based on the motion vector (u, v) corresponding to the object included in the image and the rotation components R x , R y , R z of the vehicle. The attached translational components T x / z, T y / z, and T z / z can be calculated.
また、自車回転成分で補正した静止物(自車と平行移動する移動体を含む)の動きベクトルの傾きは、画素(x、y)からFOEへ向かうベクトルの傾きに等しくなる。この関係から、次式(6)−(9)が導かれる。
(x−x0)/(y−y0) = { −f(Tx/z)+x(Tz/z)}/{ −f(Ty/z)+y(Tz/z)}
= (x−fTx/Tz)/(y−fTy/Tz) (6)
x0/f=Tx/Tz (7)
yo/f=Ty/Tz (8)
In addition, the inclination of the motion vector of a stationary object (including a moving body that moves in parallel with the own vehicle) corrected by the own vehicle rotation component is equal to the inclination of the vector from the pixel (x, y) toward the FOE. From this relationship, the following expressions (6) to (9) are derived.
(x−x0) / (y−y0) = {−f (T x / z) + x (T z / z)} / {−f (T y / z) + y (T z / z)}
= (x−fT x / T z ) / (y−fT y / T z ) (6)
x0 / f = T x / T z (7)
yo / f = T y / T z (8)
式(7)および式(8)を用いてTxおよびTyをTzに置換することにより、式(4)および式(5)はそれぞれ次のように変形できる。
{u−xy(1/f)Rx +(x2+f2)(1/f)Ry −yRz}=(−x0+x)(Tz/z) (9)
{v−(y2+f2)(1/f) Rx+xy(1/f)Ry+xRz} =(−y0+y)(Tz/z) (10)
By substituting T x and T y with T z using Equation (7) and Equation (8), Equation (4) and Equation (5) can be modified as follows.
{u−xy (1 / f) R x + (x 2 + f 2 ) (1 / f) R y −yR z } = (− x0 + x) (T z / z) (9)
{v− (y 2 + f 2 ) (1 / f) R x + xy (1 / f) R y + xR z } = (− y 0 + y) (T z / z) (10)
したがって、スケールファクタ付き並進成分算出部25は、式(9)および式(10)にもとづいてスケールファクタ付き並進成分Tz/zを算出することができる。
Therefore, the translation component with scale
自車並進成分算出部26は、記憶部13に記憶された路面データから画像上の座標値(x、y)に表示された対象物n(ただし、nは対象物を識別するための添え字であるものとする)が所定の設定路面上にあるものと仮定した場合における光軸方向座標値z2nを取得し、対象物nのスケールファクタ付き並進成分(Tz/z)nに対してz2nを乗じることにより自車並進成分Tzを算出する。
The own vehicle translation
対象物nが静止物である場合、(Tz/z)n・z2nを算出すれば、見かけ上の自車並進成分になる。m個の自車並進成分の平均をTzaveとするとTzaveは次の式から求めることができる。
Tzave=(1/m)Σ(Tz/z)n・z2n (n=1,2,・・・m-1,m) (11)
When the object n is a stationary object, if (T z / z) n · z2n is calculated, it becomes an apparent translation component of the own vehicle. If the average of m vehicle translation components is T z ave, T z ave can be obtained from the following equation.
T z ave = (1 / m) Σ (T z / z) n · z2n (n = 1,2, ... m-1, m) (11)
路面検出部27は、自車並進成分の平均Tzaveと、対象物nのスケールファクタ付き並進成分(Tz/z)nとから次式を用いて対象物nの光軸方向座標値z1nを算出する。
z1n= (z/Tz)n・Tzave (12)
The road
z1n = (z / T z ) n ・ T z ave (12)
また、路面検出部27は、式(12)を用いて求めた対象物nの光軸方向座標値z1nと、記憶部13に記憶された路面データにおいて対象物nの画像上の座標値(xn、yn)に関連付けられた光軸方向座標値z2n=z(xn、yn)と、を比較し、両者の差の絶対値が所定の路面閾値zth以下であると、対象物nを路面と判定し、この対象物nの情報を路面上点座標算出部28に与える。
Further, the road
路面上点座標算出部28は、路面検出部27により路面と判定された対象物nの画像上の座標値(xn、yn)と光軸方向座標値z1nとを用いて、対象物nのカメラ座標系における三次元座標値を求める。
The road surface point coordinate
対象物nに対応する点Pnの三次元座標値Pn(Xn、Yn、Zn)は、xn、yn、z1nと次の関係を満たす。
Xn=(z1n/f)・xn (13)
Yn=(z1n/f)・yn (14)
Z=z1n (15)
The three-dimensional coordinate value Pn (Xn, Yn, Zn) of the point Pn corresponding to the object n satisfies the following relationship with xn, yn, z1n.
Xn = (z1n / f) .xn (13)
Yn = (z1n / f) · yn (14)
Z = z1n (15)
路面上点座標算出部28は、この式(13)−(15)を用いて点Pnのカメラ座標系における三次元座標値を求める。
The point coordinate
ここで、z1nはスケールファクタ付き並進成分Tz/zと画像から推定した自車並進成分の平均Tzaveから求められており、Tzaveはスケールファクタ付き並進成分Tz/zと過去の路面データz2=z(x、y)から求められているため、何らかの誤差を持っている。しかしながら、この誤差は式(13)−(15)から明らかなようにXn、Yn、Znに対して同じだけ影響を及ぼす。したがって、複数の点Pが乗る面として導出される平面の傾きには影響しない。 Here, Z1n is determined from the mean T z ave of the vehicle translation component estimated from translation components T z / z and the image with the scale factor, T z ave translational component T z / z and the last with the scale factor Since it is obtained from the road surface data z2 = z (x, y), there is some error. However, this error has the same effect on Xn, Yn, and Zn as is apparent from equations (13)-(15). Therefore, it does not affect the inclination of the plane derived as a plane on which a plurality of points P are placed.
固有値・固有ベクトル算出部29は、Pn(Xn、Yn、Zn)から次の共分散行列Sを作成する。
S=(1/N)Σ(Xn,Yn,Zn)T(Xn,Yn,Zn) (16)
ただし、Nは対象物の総数を表し、Σは複数画素N個についての総和を表す。
The eigenvalue /
S = (1 / N) Σ (Xn, Yn, Zn) T (Xn, Yn, Zn) (16)
However, N represents the total number of objects, and Σ represents the total sum for N pixels.
また、固有値・固有ベクトル算出部29は、共分散行列Sの固有値λ1、λ2、λ3、固有ベクトルη1、η2、η3を求める。ただし、固有値の大きい順にλ1、λ2、λ3とし、各固有値に対応する固有ベクトルをそれぞれη1、η2、η3とする。
Further, the eigenvalue /
複数の点の分布を平面近似した場合、η1、η2の張る平面は最小2乗最適解を与えることが知られている。また、共分散行列Sの固有値λ1、λ2が大きいほど、η1、η2の張る平面方向に多数の点が分散していると考えられる。また、λ3が小さいほど、η1、η2の張る平面に直交する方向には点の分散が小さいと考えられる。 When the distribution of a plurality of points is approximated by a plane, it is known that a plane extending by η1 and η2 gives a least square optimal solution. In addition, it is considered that as the eigenvalues λ1 and λ2 of the covariance matrix S are larger, a larger number of points are dispersed in the plane direction spanned by η1 and η2. Further, it is considered that the smaller the λ3 is, the smaller the dispersion of the points is in the direction orthogonal to the plane stretched by η1 and η2.
そこで、固有値・固有ベクトル算出部29は、固有値λ1、λ2が第1の固有値閾値λth1以上であり、かつ固有値λ3が第2の固有値閾値λth2以下である場合に、現在画像内に存在している路面42をη1、η2の張る平面で近似できると判定し、固有値λ1、λ2、λ3、固有ベクトルη1、η2、η3の情報を近似平面作成部31に与える。一方、固有値・固有ベクトル算出部29は、固有値λ1、λ2が第1の固有値閾値λth1より小さいか、固有値λ3が第2の固有値閾値λth2より大きい場合には、得られたデータが路面42を近似する平面を求めるには不十分と判定して廃棄する。
Therefore, the eigenvalue /
定点設定部30は、カメラ高さHおよび消失点FOEの情報を用いて定点P0を次のように設定する。なお、本実施形態において、カメラ高さHおよび消失点FOEはあらかじめ記憶部13に記憶された既知の定数である。
α=0 (17)
β=−Hf/√(f2+y02) (18)
γ=Hy0/√(f2+y02) (19)
The fixed
α = 0 (17)
β = −Hf / √ (f 2 + y0 2 ) (18)
γ = Hy0 / √ (f 2 + y0 2 ) (19)
近似平面作成部31は、共分散行列Sの固有ベクトルを用いて路面検出部27により路面と判定された対象物nのなす近似平面を表す式を立てる。
The approximate
具体的には、近似平面を表す式は、次の2つの方法で立てることができる。なお、以下の説明では、η1=(η11、η12、η13)、η2=(η21、η22、η23)、η1=(η31、η32、η33)であるものとする。 Specifically, the expression representing the approximate plane can be established by the following two methods. In the following description, it is assumed that η1 = (η11, η12, η13), η2 = (η21, η22, η23), and η1 = (η31, η32, η33).
第1の方法は、固有ベクトルη3を用いて近似平面を表す式を作成する方法である。固有ベクトルη3は、近似平面の法線ベクトルである(近似平面は固有ベクトルη3に直交する)。この場合、近似平面が定点P0(α、β、γ)を通るとすれば、近似平面を表す式は次のように書ける。
η31(X−α)+η32(Y−β)+η33(Z−γ)=0 (20)
The first method is a method of creating an expression representing an approximate plane using the eigenvector η3. The eigenvector η3 is a normal vector of the approximate plane (the approximate plane is orthogonal to the eigenvector η3). In this case, if the approximate plane passes through the fixed point P0 (α, β, γ), an expression representing the approximate plane can be written as follows.
η31 (X−α) + η32 (Y−β) + η33 (Z−γ) = 0 (20)
式(17)−(19)を式(20)に代入することにより、次の式が得られる。
η31(xz−αf)+η32(yz−βf)+η33(fz−γf)=0 (21)
By substituting equations (17)-(19) into equation (20), the following equation is obtained.
η31 (xz−αf) + η32 (yz−βf) + η33 (fz−γf) = 0 (21)
ここで、(x、y)は近似平面上の点P(X、Y、Z)の画像上の座標値であり、zは近似平面上の点P(X、Y、Z)の光軸方向座標値である。このため、式(21)を次のように変形することにより、画像上の座標値(x、y)に表示された対象物について、この対象物が近似平面上にある場合における光軸方向座標値zと画像上の座標値(x、y)とを関連付けることができる。
z =f(η31α+η32β+η33γ)/(η31x+η32y+η33f)
= Hf(−η32f+η33y0)/{(η31x+η32y+η33f)√(f2+yo2)} (22)
Here, (x, y) is a coordinate value on the image of the point P (X, Y, Z) on the approximate plane, and z is the optical axis direction of the point P (X, Y, Z) on the approximate plane. It is a coordinate value. For this reason, by transforming Equation (21) as follows, for the object displayed at the coordinate value (x, y) on the image, the coordinates in the optical axis direction when this object is on the approximate plane The value z and the coordinate value (x, y) on the image can be associated with each other.
z = f (η31α + η32β + η33γ) / (η31x + η32y + η33f)
= Hf (−η32f + η33y0) / {(η31x + η32y + η33f) √ (f2 + yo2)} (22)
第2の方法は、固有ベクトルη1×η2を用いて近似平面を表す式を作成する方法である。この場合、近似平面が定点P0(α、β、γ)を通るとすれば、近似平面を表す式は次のように書ける。
(η13η22−η23η12)(X−α)+(η11η23−η13η21)(Y−β)
+ (η21,η12−η11,η22) (Z−γ)=0 (23)
The second method is a method of creating an expression representing an approximate plane using the eigenvector η1 × η2. In this case, if the approximate plane passes through the fixed point P0 (α, β, γ), an expression representing the approximate plane can be written as follows.
(η13η22−η23η12) (X−α) + (η11η23−η13η21) (Y−β)
+ (η21, η12−η11, η22) (Z−γ) = 0 (23)
したがって、第1の方法と同様に、式(23)を次のように変形することにより、画像上の座標値(x、y)に表示された対象物について、この対象物が近似平面上にある場合における光軸方向座標値zと画像上の座標値(x、y)とを関連付けることができる。
z=f{(η13η22−η23η12)α+(η11η23−η13η21)β+η33γ}
/{(η13η22−η23η12)x+(η11η23−η13η21)y+ (η21η12−η11η22)f} (24)
Therefore, as in the first method, the object is displayed on the approximate plane for the object displayed at the coordinate values (x, y) on the image by transforming Equation (23) as follows. The optical axis direction coordinate value z in a certain case and the coordinate value (x, y) on the image can be associated with each other.
z = f {(η13η22−η23η12) α + (η11η23−η13η21) β + η33γ}
/ {(η13η22−η23η12) x + (η11η23−η13η21) y + (η21η12−η11η22) f} (24)
式(22)や式(24)により関連付けられた光軸方向座標値zと画像上の座標値(x、y)のデータ(以下、近似平面データという)は、記憶部13に記憶された路面データにくらべ現在カメラ11が撮像する画像に含まれる路面により近いデータであるといえる。
The data of the optical axis direction coordinate value z and the coordinate value (x, y) on the image (hereinafter referred to as approximate plane data) associated by the equations (22) and (24) are the road surfaces stored in the
なお、このとき、原点から近似平面上の点Pまでの距離rは次式で与えられる
r2=X2+Y2+Z2=(x2+y2+f2)(z2/f2) (25)
At this time, the distance r from the origin to the point P on the approximate plane is given by the following equation.
r 2 = X 2 + Y 2 + Z 2 = (x 2 + y 2 + f 2 ) (z 2 / f 2 ) (25)
したがって、画像上の座標値(x、y)が得られれば、この座標値(x、y)に表示された対象物が近似平面上にあるものと仮定した場合における三次元座標値を式(22)や式(24)から求めることができるとともに、距離rを式(25)から一義的に求めることができる。 Therefore, if the coordinate value (x, y) on the image is obtained, the three-dimensional coordinate value in the case where it is assumed that the object displayed at the coordinate value (x, y) is on the approximate plane is expressed by the formula ( 22) and Equation (24), and the distance r can be uniquely obtained from Equation (25).
路面データ更新部32は、近似平面作成部31から近似平面データを受け、記憶部13の路面データを近似平面データで更新する。
The road surface
スウィング角算出部33は、近似平面の法線ベクトルη3を基準として画像上(投影面41上の)xy軸との角度ずれψを求める。具体的には、スウィング角算出部33は、投影面41に投影した法線ベクトルη3の方向とx軸(またはy軸)との角度を算出し、この角度の0度(または90度)からのずれψを求める。また、スウィング角算出部33は、角度ずれψが角度閾値ψth以下であるとこの角度ずれψの情報をスウィング角補正部21に与える。
The swing angle calculation unit 33 obtains an angle shift ψ with respect to the xy axis on the image (on the projection plane 41) with reference to the normal vector η3 of the approximate plane. Specifically, the swing angle calculation unit 33 calculates an angle between the direction of the normal vector η3 projected onto the
この角度ずれψは、本実施形態における立体物と路面との判定には直接影響しない。しかし、撮像画像の地平線が水平になるようにカメラ11を車両に取り付けるのは手間がかかるため、カメラ11の画像は取り付け時のz軸回りの回転誤差を含んでしまう場合がある。スウィング角算出部33によれば、容易に角度ずれψの情報を取得することができ、スウィング角補正部21によって撮像画像の回転誤差をソフトウエア的に容易に補正することができる。
This angular deviation ψ does not directly affect the determination of the three-dimensional object and the road surface in the present embodiment. However, since it takes time to attach the
次に、本実施形態に係る車両用画像処理装置10の動作の一例について説明する。
Next, an example of the operation of the vehicle
図3は、第1実施形態に係る画像処理ECU12のCPUが、カメラ11により取得された画像からリアルタイムに路面の位置を求める際の手順を示すフローチャートである。図3において、Sに数字を付した符号はフローチャートの各ステップを示す。
FIG. 3 is a flowchart illustrating a procedure when the CPU of the
まず、ステップST1において、スウィング角補正部21は、カメラ11から撮像画像の画像データを取得する。
First, in step ST <b> 1, the swing
次に、ステップST2において、スウィング角補正部21は、スウィング角算出部33から受けた角度ずれψを補正するよう、カメラ11により撮像された画像をz軸を中心として回転補正する。
Next, in step ST <b> 2, the swing
次に、ステップST3において、動きベクトル算出部22は、取得した画像データにもとづき、カメラ11により撮像された複数の画像間の動きベクトル(u、v)を画素ごとに求める。
Next, in step ST <b> 3, the motion
次に、ステップST4において、回転成分算出部23は、消失点情報FOE(x0、y0)を記憶部13から取得し、静止物に対応する3つ以上の動きベクトル(u、v)についての式(3)にもとづいて回転成分Rx、Ry、Rzを算出する。
Next, in step ST4, the rotation
次に、ステップST5において、移動体検出部24は、消失点FOEに収束しない対象物については自車と異なる移動をしている移動体と判定するとともに、消失点FOEに収束する対象物については静止物と判定する。なお、ステップST4およびST5は所定回数繰り返し行われてもよい。この場合、移動体検出部24により抽出された静止物の情報にもとづいて、回転成分算出部23は、ステップST4において回転成分Rx、Ry、Rzを算出する。
Next, in step ST5, the moving
次に、ステップST6において、スケールファクタ付き並進成分算出部25は、車両の回転成分Rx、Ry、Rzと、対象物の動きベクトル(u、v)と、にもとづいて式(4)および式(5)から対象物のスケールファクタ付き並進成分Tx/z、Ty/z、Tz/zを算出する。また、スケールファクタ付き並進成分算出部25は、式(9)および式(10)にもとづいてスケールファクタ付き並進成分Tz/zを算出する。
Next, in step ST6, the translation component with scale
次に、ステップST7において、自車並進成分算出部26は、記憶部13に記憶された路面データから画像上の座標値(x、y)に表示された対象物nが所定の設定路面上にあるものと仮定した場合における光軸方向座標値z2nを取得する。
Next, in step ST <b> 7, the vehicle translation
次に、ステップST8において、自車並進成分算出部26は、複数個の対象物についてスケールファクタ付き並進成分(Tz/z)に対してz2を乗じることにより、複数の自車並進成分Tzを算出して、これらの平均Tzaveを算出する。
Next, in step ST8, the host vehicle translation
次に、ステップST9において、路面検出部27は、自車並進成分の平均Tzaveと、対象物nのスケールファクタ付き並進成分(Tz/z)nとから、式(12)を用いて対象物nの光軸方向座標値z1nを算出する。
Next, in step ST9, the road
次に、ステップST10において、路面検出部27は、対象物nの光軸方向座標値z1nと、記憶部13に記憶された路面データにおいて対象物nの画像上の座標値(xn、yn)に関連付けられた光軸方向座標値z2n=z(xn、yn)との差の絶対値|z1n−z2n|が所定の路面閾値zth以下であるか否かを判定する。|z1n−z2n|がzth以下である場合は、対象物nが路面であると判定し、この対象物nの情報を路面上点座標算出部28に与えてステップS11に進む。一方、|z1n−z2n|がzthより大きい場合は、対象物nは路面ではなく立体物であると判定し、他の対象物についてこのステップST10を繰り返す。
Next, in step ST10, the road
次に、ステップST11において、路面上点座標算出部28は、路面検出部27により路面と判定された対象物nの画像上の座標値(xn、yn)と光軸方向座標値z1nとを用いて、式(13)−(15)にもとづき対象物nのカメラ座標系における三次元座標値Pn(Xn、Yn、Zn)を求める。
Next, in step ST11, the road surface point coordinate
次に、ステップST12において、固有値・固有ベクトル算出部29は、Pn(Xn、Yn、Zn)から共分散行列Sを作成する(式(16)参照)。
Next, in step ST12, the eigenvalue /
次に、ステップST13において、固有値・固有ベクトル算出部29は、共分散行列Sの固有値λ1、λ2、λ3、固有ベクトルη1、η2、η3を求める。ただし、固有値の大きい順にλ1、λ2、λ3とし、各固有値に対応する固有ベクトルをそれぞれη1、η2、η3とする。
Next, in step ST13, the eigenvalue /
次に、ステップS14において、固有値・固有ベクトル算出部29は、固有値λ1、λ2が第1の固有値閾値λth1以上であり、かつ固有値λ3が第2の固有値閾値λth2以下であると、現在画像内に存在している路面42をη1、η2の張る平面で近似できると判定し、固有値λ1、λ2、λ3、固有ベクトルη1、η2、η3の情報を近似平面作成部31に与えてステップST15に進む。一方、固有値λ1、λ2が第1の固有値閾値λth1より小さいか、固有値λ3が第2の固有値閾値λth2より大きいと、固有値・固有ベクトル算出部29は、得られたデータが路面42を近似する平面を求めるには不十分と判定して廃棄し、一連の手順は終了となる。
Next, in step S14, the eigenvalue /
次に、ステップST15において、定点設定部30は、カメラ高さHおよび消失点FOEの情報を用いて定点P0(α、β、γ)を式(17)−(19)を用いて設定する。なお、本実施形態において、カメラ高さHおよび消失点FOEはあらかじめ記憶部13に記憶された既知の定数である。
Next, in step ST15, the fixed
次に、ステップST16において、近似平面作成部31は、共分散行列Sの固有ベクトルを用いて路面検出部27により路面と判定された対象物nのなす近似平面を表す式(21)または式(23)を立て、式(22)または式(24)を導く。
Next, in step ST16, the approximate
次に、ステップST17において、路面データ更新部32は、近似平面作成部31から式(22)または式(24)で定義される近似平面データを受け、記憶部13の路面データをこの近似平面データで更新する。
Next, in step ST17, the road surface
次に、ステップST18において、スウィング角算出部33は、近似平面の法線ベクトルη3を基準として画像上(投影面41上の)xy軸との角度ずれψを求め、角度ずれψが角度閾値ψth以下であるとこの角度ずれψの情報をスウィング角補正部21に与える。
Next, in step ST18, the swing angle calculation unit 33 obtains an angle shift ψ with respect to the xy axis on the image (on the projection plane 41) with reference to the normal vector η3 of the approximate plane, and the angle shift ψ is the angle threshold ψth. The information of the angle deviation ψ is given to the swing
以上の手順により、カメラ11により取得された画像からリアルタイムに路面の位置を求めることができる。
With the above procedure, the position of the road surface can be obtained from the image acquired by the
本実施形態に係る車両用画像処理装置10は、カメラ11により取得された画像からリアルタイムに路面の位置を求めることができる。このため、カメラ11により撮像される路面と車両底面とが平行でない場合にも、容易に画像から対象物との距離を求めることができるとともに、移動体を特定することができる。
The vehicular
したがって、本実施形態に係る車両用画像処理装置10によれば、たとえば路面の勾配が変化しており車両直下の路面とカメラにより撮像される路面とで勾配の変化がある場合や、路面が平坦であっても車両積載荷重の多寡や乗車人員の変動による車両傾きがある場合にも、容易に画像から路面との距離を求めることができるとともに、移動体を特定することができる。
Therefore, according to the vehicular
また、本実施形態に係る車両用画像処理装置10は、リアルタイムに取得した路面の法線ベクトルの情報を用いることにより、容易にカメラ11のz軸回りの取り付け角誤差をソフトウエア的に補正することができる。
Further, the vehicle
また、本実施形態に係る車両用画像処理装置10は、カメラ11により撮像された画像データのみを用いて記憶部13の路面データを更新することができる。
(第2の実施形態)
Further, the vehicle
(Second Embodiment)
次に、本発明に係る車両用画像処理装置および車両用画像処理方法の第2実施形態について説明する。 Next, a second embodiment of the vehicle image processing device and the vehicle image processing method according to the present invention will be described.
図4は、本発明の第2実施形態に係る車両用画像処理装置10Aの一例を示す全体構成図である。
FIG. 4 is an overall configuration diagram showing an example of a vehicle
この第2実施形態に示す車両用画像処理装置10Aは、車速パルスや加速度センサの出力を取得することで自車の速度を検出する自車速度検出部51とカメラ高さHを校正するためのカメラ高さ校正部52を備え、記憶部13にカメラ高さHがあらかじめ記憶されなくてもよい点で第1実施形態に示す車両用画像処理装置10と異なる。他の構成および作用については図1に示す車両用画像処理装置10と実質的に異ならないため、同じ構成には同一符号を付して説明を省略する。
The vehicle
自車速度検出部51は、車速パルスや加速度センサの出力を取得することにより、自車の速度を検出し、自車並進成分Tzを取得する。この自車並進速度Tzは、画像とは独立して得られる情報である。自車並進成分Tzは、第1実施形態における自車並進成分の平均Tzaveにかえて路面検出部27に用いられる。なお、自車速度検出部51は、自車速度の所定期間の平均から自車並進成分Tzを算出してもよい。
The host vehicle
カメラ高さ校正部52は、スケールファクタつき相対並進成分Tx/z、Ty/z、Tz/zと自車速度検出部51により検出された自車並進成分Tzとを用いて路面検出部27により算出されたカメラ座標系における対象物nの光軸方向座標値z1nを取得する。また、カメラ高さ校正部52は、式(22)に対して定点P0(α、β、γ)の式(17)−(19)を代入した式を近似平面作成部31から取得する。ここで、本実施形態において、定点P0(α、β、γ)の式(17)−(19)におけるカメラ高さHは未知数として扱われる。
The camera
そして、カメラ高さ校正部52は、式(22)に対して定点P0(α、β、γ)の式(17)−(19)を代入した式に対して、複数の対象物の光軸方向座標値z1を代入することにより、複数のHの値を求め、この求めた複数のHの値の平均をカメラが取り付けられた高さHとし、記憶部13に記憶させる。
Then, the camera
次に、本実施形態に係る車両用画像処理装置10Aの動作の一例について説明する。
Next, an example of the operation of the vehicle
図5は、第2実施形態に係る画像処理ECU12のCPUが、カメラ11により取得された画像からリアルタイムに路面の位置を求める際の手順を示すフローチャートである。図5において、Sに数字を付した符号はフローチャートの各ステップを示す。図3と同等のステップには同一符号を付し、重複する説明を省略する。
FIG. 5 is a flowchart illustrating a procedure when the CPU of the
ステップS21において、自車速度検出部51は、車速パルスや加速度センサの出力を取得することにより、自車の速度を検出し、自車並進成分Tzを取得する。
In step S <b> 21, the host vehicle
ステップS22において、カメラ高さ校正部52は、路面検出部27から対象物nの光軸方向座標値z1nを、近似平面作成部31から式(22)に対して定点P0(α、β、γ)の式(17)−(19)を代入した式を、それぞれ取得する。カメラ高さ校正部52は、式(22)に対して定点P0(α、β、γ)の式(17)−(19)を代入した式に対して、複数の対象物の光軸方向座標値z1を代入することにより、複数のHの値を求める。そして、カメラ高さ校正部52は、求めた複数のHの値の平均をカメラが取り付けられた高さHとし、記憶部13に記憶させる。
In step S22, the camera
本実施形態に係る車両用画像処理装置10Aもまた、カメラ11により取得された画像からリアルタイムに路面の位置を求めることができる。このため、カメラ11により撮像される路面と車両底面とが平行でない場合にも、容易に画像から対象物との距離を求めることができるとともに、移動体を特定することができる。
The vehicle
したがって、本実施形態に係る車両用画像処理装置10Aによれば、たとえば路面の勾配が変化しており車両直下の路面とカメラにより撮像される路面とで勾配の変化がある場合や、路面が平坦であっても車両積載荷重の多寡や乗車人員の変動による車両傾きがある場合にも、容易に画像から路面との距離を求めることができるとともに、移動体を特定することができる。
Therefore, according to the vehicular
また、本実施形態に係る車両用画像処理装置10Aは、リアルタイムに取得した路面の法線ベクトルの情報を用いることにより、容易にカメラ11のz軸回りの取り付け角誤差をソフトウエア的に補正することができる。
Further, the vehicle
また、本実施形態に係る車両用画像処理装置10Aは、自車速度検出部51を備え、自車並進速度Tzとして正確な値を用いることができる。このため、この正確な自車並進速度Tzを用いてカメラ11の取り付け高さHを校正することができる。
(第3の実施形態)
Further, the vehicular
(Third embodiment)
次に、本発明に係る車両用画像処理装置および車両用画像処理方法の第3実施形態について説明する。 Next, a third embodiment of the vehicle image processing device and the vehicle image processing method according to the present invention will be described.
図6は、本発明の第3実施形態に係る車両用画像処理装置10Bの一例を示す全体構成図である。
FIG. 6 is an overall configuration diagram illustrating an example of a vehicle
この第2実施形態に示す車両用画像処理装置10Bは、車速パルスや加速度センサの出力を取得することで自車の速度を検出する自車速度検出部51と、路面検出部27により路面上の点と判定された点について別の条件を用いて路面上の点であるか否かを判定する路面上点信頼性評価部61を備え、記憶部13に信頼性閾値Rthがさらにあらかじめ記憶されており、近似平面が定点P0を通る必要がない点で第1実施形態に示す車両用画像処理装置10と異なる。他の構成および作用については図1に示す車両用画像処理装置10と実質的に異ならないため、同じ構成には同一符号を付して説明を省略する。また、自車速度検出部51は第2実施形態に示す車両用画像処理装置10Aと実質的に異ならないため、同一符号を付して説明を省略する。
The vehicular
路面上点信頼性評価部61は、路面検出部27により路面と判定された複数の対象物間のベクトルと固有ベクトルη3との内積が所定の信頼性閾値Rth以下である対象物を抽出し、抽出した対象物の情報を近似平面作成部31に与える。
The road surface point
ここで、複数の対象物間のベクトルと固有ベクトルη3との内積を算出することは、KL変換のη3の係数算出と同様の意味を持つ。すなわち、この内積は、複数の対象物間のベクトルのη3成分の大きさを表しており、η1、η2の張る平面との差異を示しているといえる。したがって、この内積が大きな値をとるものは平面との差異が大きいと判断できる。理想的に平面上に位置すればこの内積はゼロになる。 Here, calculating the inner product of the vector between the plurality of objects and the eigenvector η3 has the same meaning as the calculation of the coefficient of η3 of the KL conversion. That is, this inner product represents the magnitude of the η3 component of the vector between a plurality of objects, and can be said to indicate a difference from the plane spanned by η1 and η2. Therefore, it can be determined that a product having a large inner product has a large difference from the plane. If it is ideally located on a plane, this inner product is zero.
近似平面作成部31は、固有値・固有ベクトル算出部29から法線ベクトルη3(またはη1×η2)を受けて、未知定数dを用いてη3に直交する次の近似平面式を定義する。
η31X+η32Y+η33Z=d (26)
The approximate
η31X + η32Y + η33Z = d (26)
また、近似平面作成部31は、路面上点信頼性評価部61から受けた対象物の三次元座標値Pn(Xn、Yn、Zn)を式(26)に代入することにより、未知定数dの値を求める。このとき、可能な限り多数の対象物を用いてdの平均値daveを算出するとよい。このdaveを用いることにより、式(26)は次のように書ける。
η31X+η32Y+η33Z=dave (27)
Further, the approximate
η31X + η32Y + η33Z = dave (27)
そして、近似平面作成部31は、式(13)−(15)を用いて式(27)を整理し、z=z2として、近似平面データをあらわす次の式(28)を得る。
z2=fdave/(η31x+η32y+η33f) (28)
Then, the approximate
z2 = fdave / (η31x + η32y + η33f) (28)
路面データ更新部32は、近似平面作成部31から式(28)で表される近似平面データを受け、記憶部13の路面データをこの近似平面データで更新する。
The road surface
次に、本実施形態に係る車両用画像処理装置10Bの動作の一例について説明する。
Next, an example of the operation of the vehicle
図7は、第3実施形態に係る画像処理ECU12のCPUが、カメラ11により取得された画像からリアルタイムに路面の位置を求める際の手順を示すフローチャートである。図7において、Sに数字を付した符号はフローチャートの各ステップを示す。図3および図5と同等のステップには同一符号を付し、重複する説明を省略する。
FIG. 7 is a flowchart showing a procedure when the CPU of the
ステップST31において、近似平面作成部31は、未知定数dを用いてη3に直交する近似平面を表す式(26)を立てる。
In step ST31, the approximate
次に、ステップST32において、路面上点信頼性評価部61は、路面検出部27により路面と判定された複数の対象物間のベクトルと固有ベクトルη3との内積が所定の信頼性閾値Rth以下である対象物を抽出し、抽出した対象物の情報を近似平面作成部31に与える。
Next, in step ST32, the road surface point
次に、ステップST33において、近似平面作成部31は、路面上点信頼性評価部61から受けた対象物の三次元座標値Pn(Xn、Yn、Zn)を式(26)に代入することにより、未知定数dの値を求める。そして、近似平面作成部31は、式(13)−(15)を用いて式(27)を整理し、近似平面データをあらわす式(28)を立てる。
Next, in step ST33, the approximate
次に、ステップST34において、路面データ更新部32は、近似平面作成部31から式(28)で表される近似平面データを受け、記憶部13の路面データをこの近似平面データで更新する。
Next, in step ST34, the road surface
本実施形態に係る車両用画像処理装置10Bもまた、カメラ11により取得された画像からリアルタイムに路面の位置を求めることができる。このため、カメラ11により撮像される路面と車両底面とが平行でない場合にも、容易に画像から対象物との距離を求めることができるとともに、移動体を特定することができる。
The vehicular
したがって、本実施形態に係る車両用画像処理装置10Bによれば、たとえば路面の勾配が変化しており車両直下の路面とカメラにより撮像される路面とで勾配の変化がある場合や、路面が平坦であっても車両積載荷重の多寡や乗車人員の変動による車両傾きがある場合にも、容易に画像から対象物との距離を求めることができるとともに、移動体を特定することができる。
Therefore, according to the vehicular
また、本実施形態に係る車両用画像処理装置10Bは、リアルタイムに取得した路面の法線ベクトルの情報を用いることにより、容易にカメラ11のz軸回りの取り付け角誤差をソフトウエア的に補正することができる。
Further, the vehicle
また、本実施形態に係る車両用画像処理装置10Bは、路面上点信頼性評価部61を備え、路面検出部27により路面と判定された対象物をさらに選定する。このため、より実際の路面に近い近似平面を表す式を立てることができる。
Further, the vehicular
また、近似平面作成部31により立てられる近似平面を表す式には、定点P0の情報が含まれていない。このため、カメラ11からみた斜面の開始位置によらず、カメラ11に撮像される路面が定点P0を通らない平面である場合にも、正確に路面を近似した平面を表す式を立てることができる。また、記憶部13に記憶された路面データをこの路面に対応する路面データ(近似平面データ)で更新することができる。したがって、第1実施形態および第2実施形態に係る車両用画像装置10および10Aに比べ、より正確に路面との距離を求めることができるとともに、より正確に移動体、立体物、路面の特定を行うことができる。
Further, the formula representing the approximate plane set up by the approximate
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
また、本発明の実施形態では、フローチャートの各ステップは、記載された順序に沿って時系列的に行われる処理の例を示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行される処理をも含むものである。 Further, in the embodiment of the present invention, each step of the flowchart shows an example of processing that is performed in time series in the order described. The process to be executed is also included.
10 車両用画像処理装置
11 カメラ
12 画像処理ECU
13 記憶部
21 スウィング角補正部
22 動きベクトル算出部
23 回転成分算出部
24 移動体検出部
25 スケールファクタ付き並進成分算出部
26 自車並進成分算出部
27 路面検出部
28 路面上点座標算出部
29 固有値・固有ベクトル算出部
30 定点設定部
31 近似平面作成部
32 路面データ更新部
33 スウィング角算出部
41 カメラ投影面
42 路面
43 車両直下平面
51 自車速度検出部
52 カメラ高さ校正部
61 路面上点信頼性評価部
DESCRIPTION OF
DESCRIPTION OF
Claims (11)
前記カメラにより撮像された画像に含まれる対象物に対応する動きベクトルと前記車両の回転成分とにもとづいて、スケールファクタ付き相対並進成分を算出するスケールファクタ付き並進成分算出部と、
所定の設定路面上の点についてカメラ座標系における前記画像上の座標値と光軸方向座標値とを関連付けたデータである路面データを記憶する記憶部と、
前記スケールファクタつき相対並進成分と自車の並進成分とを用いて前記カメラ座標系における前記対象物の光軸方向座標値を算出するとともに、前記路面データにおいて前記対象物の前記画像上の座標値と関連付けられた光軸方向座標値を前記記憶部から取得し、これらの光軸方向座標値の差が所定の路面閾値以下であると前記対象物を路面と判定する路面検出部と、
を備えた車両用画像処理装置。 A camera provided in the vehicle for imaging the periphery of the vehicle;
A translation component with a scale factor that calculates a relative translation component with a scale factor based on a motion vector corresponding to an object included in an image captured by the camera and a rotation component of the vehicle;
A storage unit that stores road surface data that is data in which a coordinate value on the image in the camera coordinate system and a coordinate value in the optical axis direction are associated with each other on a predetermined set road surface;
While calculating the optical axis direction coordinate value of the object in the camera coordinate system using the relative translation component with the scale factor and the translation component of the own vehicle, the coordinate value on the image of the object in the road surface data And a road surface detection unit that determines that the object is a road surface when a difference between the optical axis direction coordinate values is equal to or less than a predetermined road surface threshold value,
A vehicle image processing apparatus comprising:
前記所定の設定路面を前記近似平面とするよう、前記記憶部の前記路面データを前記近似平面データで更新する路面データ更新部と、
をさらに備えた請求項1記載の車両用画像処理装置。 This approximate plane is established by formulating an approximate plane formed by the plurality of objects using eigenvectors of a covariance matrix of three-dimensional coordinate values in the camera coordinate system of the plurality of objects determined as the road surface. An approximate plane creation unit for obtaining approximate plane data in which the coordinate value on the image in the camera coordinate system and the optical axis direction coordinate value are associated with each other on the upper point;
A road surface data update unit that updates the road surface data of the storage unit with the approximate plane data so that the predetermined set road surface is the approximate plane;
The vehicular image processing apparatus according to claim 1, further comprising:
値が大きい順に第1、第2および第3の固有値を有するとともに、各固有値にそれぞれ対応する第1、第2および第3の固有ベクトルを有し、
前記近似平面作成部は、
前記共分散行列の前記第1および前記第2の固有値が第1の固有値閾値以上であり、かつ前記第3の固有値が第2の固有値閾値以下であると、前記近似平面を表す式として前記第3の固有値に対応する前記第3の固有ベクトルに直交する平面を表す式を立てる、
請求項2記載の車両用画像処理装置。 The covariance matrix is
Having first, second, and third eigenvalues in descending order of values, and having first, second, and third eigenvectors corresponding to each eigenvalue,
The approximate plane creation unit
When the first and second eigenvalues of the covariance matrix are greater than or equal to a first eigenvalue threshold and the third eigenvalue is less than or equal to a second eigenvalue threshold, Formulating a plane representing a plane orthogonal to the third eigenvector corresponding to the eigenvalue of 3;
The image processing apparatus for vehicles according to claim 2.
前記近似平面を表す式と、前記車両直下の路面からみた前記カメラが取り付けられた高さと、前記カメラの中心から下ろした鉛直線と前記車両直下の路面との交点と、を用いて前記近似平面データを求める、
請求項3記載の車両用画像処理装置。 The approximate plane creation unit
The approximate plane using the expression representing the approximate plane, the height at which the camera is mounted as viewed from the road surface directly below the vehicle, and the intersection of the vertical line drawn from the center of the camera and the road surface directly below the vehicle Ask for data,
The vehicular image processing apparatus according to claim 3.
をさらに備えた請求項4に記載の車両用画像処理装置。 An optical axis direction coordinate value associated with a coordinate value on the image of the object is acquired from the road surface data stored in the storage unit, and the optical axis direction coordinate value is multiplied by the relative translation component with the scale factor. Accordingly, the vehicle translation component calculation unit that calculates the translation component of the vehicle based on the image and supplies the translation component to the road surface detection unit,
The vehicle image processing device according to claim 4, further comprising:
前記スケールファクタつき相対並進成分と前記自車速度検出部により検出された前記自車の並進成分とを用いて算出された前記カメラ座標系における前記対象物の光軸方向座標値を前記路面検出部から取得するとともに、前記第3の固有ベクトルに直交する平面を表す式に対して前記カメラの中心から下ろした鉛直線と前記車両直下の路面との交点であって前記カメラ座標系における三次元座標値を前記車両直下の路面からみた前記カメラが取り付けられた高さを未知数として表された交点の前記三次元座標値を代入した式を前記近似平面作成部から取得し、この式に対して前記複数の対象物の前記光軸方向座標値を代入することにより複数の前記未知数の値を求め、この求めた複数の値の平均を前記カメラが取り付けられた高さとする高さ校正部と、
をさらに備え、
前記近似平面作成部は、
前記近似平面を表す式と、前記高さ校正部により算出された前記カメラが取り付けられた高さと、前記カメラの中心から下ろした鉛直線と前記車両直下の平面との交点と、を用いて前記近似平面データを求める、
請求項3記載の車両用画像処理装置。 A vehicle speed detection unit that detects the translation component of the vehicle and gives it to the road surface detection unit;
An optical axis direction coordinate value of the object in the camera coordinate system calculated using the relative translation component with the scale factor and the translation component of the host vehicle detected by the host vehicle speed detection unit is the road surface detection unit. And a three-dimensional coordinate value in the camera coordinate system that is an intersection of a vertical line drawn from the center of the camera with respect to an expression representing a plane orthogonal to the third eigenvector and the road surface directly under the vehicle. Is obtained from the approximate plane creation unit by substituting the three-dimensional coordinate value of the intersection point, which is expressed as an unknown, the height at which the camera is mounted as viewed from the road surface directly under the vehicle, A plurality of unknown values are obtained by substituting the optical axis direction coordinate values of the target object, and an average of the obtained plural values is a height at which the camera is attached And Tadashibu,
Further comprising
The approximate plane creation unit
Using the expression representing the approximate plane, the height at which the camera calculated by the height calibration unit is attached, and the intersection of the vertical line drawn from the center of the camera and the plane directly under the vehicle, Find approximate plane data,
The vehicular image processing apparatus according to claim 3.
前記路面と判定された複数の前記対象物間のベクトルと前記第3の固有ベクトルとの内積が所定の信頼性閾値以下である前記対象物を抽出する路面上点信頼性評価部と、
をさらに備え、
前記近似平面作成部は、
前記近似平面を表す式として前記第3の固有値に対応する前記第3の固有ベクトルに直交するとともに1つの未知定数を有する平面を表す式を立て、この式に対して前記路面上点信頼性評価部により抽出された複数の前記対象物の前記三次元座標値を代入して前記未知定数の値を求めることにより前記近似平面データを求める、
請求項3記載の車両用画像処理装置。 A vehicle speed detection unit that detects the translation component of the vehicle and gives it to the road surface detection unit;
A point reliability evaluation unit on the road surface for extracting the object whose inner product of a vector between the plurality of objects determined to be the road surface and the third eigenvector is equal to or less than a predetermined reliability threshold;
Further comprising
The approximate plane creation unit
As an equation representing the approximate plane, an equation representing a plane orthogonal to the third eigenvector corresponding to the third eigenvalue and having one unknown constant is established, and the road surface point reliability evaluation unit is established for this equation The approximate plane data is obtained by substituting the three-dimensional coordinate values of the plurality of objects extracted by obtaining the unknown constant value.
The vehicular image processing apparatus according to claim 3.
をさらに備え、
前記スケールファクタ付き並進成分算出部は、
前記移動体検出部により前記静止物と判定された前記対象物について前記スケールファクタ付き相対並進成分を算出し、
前記路面検出部は、
前記移動体検出部により前記静止物と判定された前記対象物について前記判定を行う、
請求項1ないし7のいずれか1項に記載の車両用画像処理装置。 A moving body detection unit that determines the object as a stationary object when the motion vector corresponding to the object corrected with the rotation component of the vehicle is directed to a vanishing point on the image;
Further comprising
The translation factor calculation unit with a scale factor is
Calculating the relative translation component with the scale factor for the object that is determined as the stationary object by the moving object detection unit;
The road surface detection unit is
Performing the determination on the object determined as the stationary object by the moving object detection unit;
The vehicle image processing device according to claim 1.
をさらに備えた請求項3ないし8のいずれか1項に記載の車両用画像処理装置。 A swing angle correction unit that rotationally corrects the image captured by the camera in accordance with the direction of the third eigenvector projected in the image captured by the camera;
The vehicular image processing apparatus according to claim 3, further comprising:
前記カメラにより撮像された画像に含まれる対象物に対応する動きベクトルと前記車両の回転成分とにもとづいて、スケールファクタ付き相対並進成分を算出するステップと、
所定の設定路面上の点についてカメラ座標系における前記画像上の座標値と光軸方向座標値とを関連付けたデータである路面データを記憶部に記憶させるステップと、
前記スケールファクタつき相対並進成分と自車の並進成分とを用いて前記カメラ座標系における前記対象物の光軸方向座標値を算出するとともに、前記路面データにおいて前記対象物の前記画像上の座標値と関連付けられた光軸方向座標値を前記記憶部から取得し、これらの光軸方向座標値の差が所定の路面閾値以下であると前記対象物を路面と判定するステップと、
前記路面と判定された複数の前記対象物の前記カメラ座標系における三次元座標値の共分散行列の固有ベクトルを用いて前記複数の対象物のなす近似平面を表す式を立てることにより、この近似平面上の点について前記カメラ座標系における前記画像上の座標値と光軸方向座標値とを関連付けた近似平面データを求めるステップと、
前記所定の設定路面を前記近似平面とするよう、前記記憶部の前記路面データを前記近似平面データで更新するステップと、
を有する車両用画像処理方法。 A camera provided in the vehicle images the periphery of the vehicle;
Calculating a relative translation component with a scale factor based on a motion vector corresponding to an object included in an image captured by the camera and a rotation component of the vehicle;
Storing road surface data, which is data in which a coordinate value on the image in the camera coordinate system and a coordinate value in the optical axis direction are associated with each other on a predetermined set road surface, in a storage unit;
While calculating the optical axis direction coordinate value of the object in the camera coordinate system using the relative translation component with the scale factor and the translation component of the own vehicle, the coordinate value on the image of the object in the road surface data Obtaining the optical axis direction coordinate value associated with the storage unit from the storage unit, and determining that the object is a road surface when the difference between the optical axis direction coordinate values is equal to or less than a predetermined road surface threshold value;
This approximate plane is established by formulating an approximate plane formed by the plurality of objects using eigenvectors of a covariance matrix of three-dimensional coordinate values in the camera coordinate system of the plurality of objects determined as the road surface. Obtaining approximate plane data associating a coordinate value on the image and an optical axis direction coordinate value in the camera coordinate system for the upper point;
Updating the road surface data of the storage unit with the approximate plane data so that the predetermined set road surface is the approximate plane;
A vehicle image processing method comprising:
値が大きい順に第1、第2および第3の固有値を有するとともに、各固有値にそれぞれ対応する第1、第2および第3の固有ベクトルを有し、
前記近似平面データを求めるステップは、
前記共分散行列の前記第1および前記第2の固有値が第1の固有値閾値以上であり、かつ前記第3の固有値が第2の固有値閾値以下であると、前記近似平面を表す式として前記第3の固有値に対応する前記第3の固有ベクトルに直交する平面を表す式を立てるステップである、
請求項10記載の車両用画像処理方法。 The covariance matrix is
Having first, second, and third eigenvalues in descending order of values, and having first, second, and third eigenvectors corresponding to each eigenvalue,
The step of obtaining the approximate plane data includes:
When the first and second eigenvalues of the covariance matrix are greater than or equal to a first eigenvalue threshold and the third eigenvalue is less than or equal to a second eigenvalue threshold, Establishing a formula representing a plane orthogonal to the third eigenvector corresponding to the eigenvalue of 3;
The vehicle image processing method according to claim 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010276270A JP5588332B2 (en) | 2010-12-10 | 2010-12-10 | Image processing apparatus for vehicle and image processing method for vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010276270A JP5588332B2 (en) | 2010-12-10 | 2010-12-10 | Image processing apparatus for vehicle and image processing method for vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012123750A JP2012123750A (en) | 2012-06-28 |
JP5588332B2 true JP5588332B2 (en) | 2014-09-10 |
Family
ID=46505096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010276270A Active JP5588332B2 (en) | 2010-12-10 | 2010-12-10 | Image processing apparatus for vehicle and image processing method for vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5588332B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6384802B2 (en) * | 2015-03-26 | 2018-09-05 | パナソニックIpマネジメント株式会社 | MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT |
KR101780048B1 (en) | 2016-07-04 | 2017-09-19 | 포항공과대학교 산학협력단 | Moving Object Detection Method in dynamic scene using monocular camera |
JP7148064B2 (en) * | 2018-10-25 | 2022-10-05 | 株式会社アイシン | Camera parameter estimation device, camera parameter estimation method, and camera parameter estimation program |
JP7211047B2 (en) * | 2018-12-04 | 2023-01-24 | 株式会社アイシン | Road surface detection device and road surface detection program |
KR102557429B1 (en) * | 2021-07-06 | 2023-07-20 | 한동대학교 산학협력단 | Autonomous valet parking system and method using fisheye lens camera |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2882136B2 (en) * | 1991-11-25 | 1999-04-12 | 日本電気株式会社 | Video analysis method |
JP3501841B2 (en) * | 1994-05-11 | 2004-03-02 | 株式会社デンソー | Three-dimensional object region detection device, distance measuring device to three-dimensional object region, and their detection and measurement method |
TWI246665B (en) * | 2001-07-12 | 2006-01-01 | Ding-Jang Tzeng | Method for aiding the driving safety of road vehicle by monocular computer vision |
JP2004240480A (en) * | 2003-02-03 | 2004-08-26 | Matsushita Electric Ind Co Ltd | Operation support device |
US8289321B2 (en) * | 2004-03-17 | 2012-10-16 | Sony Corporation | Method and apparatus for detecting plane, and robot apparatus having apparatus for detecting plane |
JP2008203992A (en) * | 2007-02-16 | 2008-09-04 | Omron Corp | Detection device, method, and program thereof |
-
2010
- 2010-12-10 JP JP2010276270A patent/JP5588332B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012123750A (en) | 2012-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10620000B2 (en) | Calibration apparatus, calibration method, and calibration program | |
JP6141601B2 (en) | In-vehicle camera automatic calibration device | |
US10594941B2 (en) | Method and device of image processing and camera | |
EP2437494B1 (en) | Device for monitoring area around vehicle | |
JP6891954B2 (en) | Object detection device, object detection method, and program | |
JP5133783B2 (en) | In-vehicle device | |
US20110298988A1 (en) | Moving object detection apparatus and moving object detection method | |
EP1637836A1 (en) | Device and method of supporting stereo camera, device and method of detecting calibration, and stereo camera system | |
US10645365B2 (en) | Camera parameter set calculation apparatus, camera parameter set calculation method, and recording medium | |
JP5588332B2 (en) | Image processing apparatus for vehicle and image processing method for vehicle | |
US10204445B2 (en) | Information processing apparatus, method, and storage medium for determining a failure of position and orientation measurement of an image capturing device | |
JP2019528501A (en) | Camera alignment in a multi-camera system | |
CN109997150B (en) | System and method for classifying road features | |
JP5612915B2 (en) | Moving body detection apparatus and moving body detection method | |
CN110719411B (en) | Panoramic all-around view image generation method of vehicle and related equipment | |
JP6306735B2 (en) | Stereo camera device and vehicle equipped with stereo camera device | |
JP4735361B2 (en) | Vehicle occupant face orientation detection device and vehicle occupant face orientation detection method | |
CN110942470A (en) | Image processing apparatus | |
JP5695405B2 (en) | Image processing apparatus for vehicle and image processing method for vehicle | |
JP5864984B2 (en) | In-vehicle camera image correction method and in-vehicle camera image correction program | |
JP2020035158A (en) | Attitude estimation device and calibration system | |
JP5731801B2 (en) | Image processing apparatus for vehicle and image processing method for vehicle | |
JP2019129341A (en) | Camera calibration apparatus, camera calibration method, and program | |
JP5330341B2 (en) | Ranging device using in-vehicle camera | |
JP5827561B2 (en) | Solid object judgment device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140708 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5588332 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |