JP2010073036A - Vehicle surroundings monitoring device - Google Patents
Vehicle surroundings monitoring device Download PDFInfo
- Publication number
- JP2010073036A JP2010073036A JP2008241375A JP2008241375A JP2010073036A JP 2010073036 A JP2010073036 A JP 2010073036A JP 2008241375 A JP2008241375 A JP 2008241375A JP 2008241375 A JP2008241375 A JP 2008241375A JP 2010073036 A JP2010073036 A JP 2010073036A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- vehicle
- moving object
- yaw rate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両側方を撮像したノーズビュー画像をモニタの画面に側方画像として表示する車両用周辺監視装置、特に、必要時にのみ表示を行える車両用周辺監視装置に関する。 The present invention relates to a vehicle periphery monitoring device that displays a nose view image obtained by imaging the side of a vehicle as a side image on a monitor screen, and more particularly to a vehicle periphery monitoring device that can display only when necessary.
車両が道幅の狭い道路を走行中に交差点に進入した場合、運転席からは交差道路方向である左右側方域の見通しが悪いことが多い。そこで、車両が交差点に進入する際に、安全確認のため、車両の前部に組み込んだカメラ(ノーズビューカメラ)により車両前位置で左右側方領域の情景を撮像し、その左右側方画像を車両の運転席に設けたモニタに並列表示する車両用周辺監視装置が知られている。 When a vehicle enters an intersection while traveling on a narrow road, the left and right side areas, which are the direction of the intersection road, often have poor visibility from the driver's seat. Therefore, when the vehicle enters the intersection, for safety confirmation, a camera (nose view camera) built in the front of the vehicle is used to capture a scene in the left and right side area at the front position of the vehicle, and the left and right side images are captured. 2. Description of the Related Art A vehicle periphery monitoring device that displays in parallel on a monitor provided in a driver's seat of a vehicle is known.
例えば、特許文献1に開示されるノーズビューモニタ装置は、左右側方画像を車両の運転席に設けたモニタにて表示すると共に、側方画像より抽出した特徴点に対してオプティカルフローを計算する。ここでは、左右側方画像中における特徴点から、接近方向のベクトルをもつものだけを接近特徴点として選択し、これにより車両への接近物体を検出し、乗員に接近物体情報を報知する技術が開示される。
或いは、距離センサとカメラとを組み合わせて移動物体までの距離を計測する車両用カメラ装置も知られている(例えば、特許文献2を参照)。
For example, the nose view monitor device disclosed in
Or the camera apparatus for vehicles which measures the distance to a moving object combining a distance sensor and a camera is also known (for example, refer patent document 2).
更に、特許文献3には、自車両の周囲の映像を撮影手段で撮影し、撮影された映像を元に、自車両を俯瞰した画像を生成し、生成された画像上に、運転操作補助情報として、自車両の前方障害物に対する接触防止用の逆L字型ガイドと、自車両の駐車予定位置を示す駐車予定位置ガイドを表示手段に重畳して表示させる運転支援装置が開示される。この装置により、駐車操作のための初期位置の決定を実際の運転操作を通じて行うようにし、自車両の左前方に停車中の車両や障害物と、自車両との接触確認を駐車操作の事前におこなうようにした技術が開示される。
Further, in
更に、特許文献3には、車両に搭載されるリアビューカメラの撮像画像を、仮想上視点位置から下を見下ろした画像に視点変換し、この視点変換画像を画面に表示するとき、車両後部の存在範囲を警告する警告線をこの変換画像に重ねて表示する車載カメラの撮像画像表示装置が開示される。この装置により、リアビューカメラの撮像画像を視点変換した画像を画面に表示して、自車両存在範囲を運転者に警告するようにした技術が開示される。
Furthermore,
更に、特許文献4には、自車両の周囲の映像を撮影手段で撮影し、撮影された映像を元に、自車両を俯瞰した画像を生成し、生成された画像上に、運転操作補助情報として、自車両の前方障害物に対する接触防止用の逆L字型ガイドと、自車両の駐車予定位置を示す駐車予定位置ガイドを表示手段に重畳して表示させる運転支援装置が開示される。この装置により、駐車操作のための初期位置の決定を実際の運転操作を通じて行うことができる。また、自車両の左前方に停車中の車両や障害物と、自車両との接触確認を駐車操作の事前におこなうようにした技術が開示される。 Further, in Patent Document 4, a video around the host vehicle is shot by a shooting unit, an image overlooking the host vehicle is generated based on the shot video, and driving operation assistance information is generated on the generated image. As an example, there is disclosed a driving support device that displays an inverted L-shaped guide for preventing contact with a front obstacle of the host vehicle and a planned parking position guide indicating a planned parking position of the host vehicle superimposed on a display unit. With this device, the initial position for the parking operation can be determined through the actual driving operation. In addition, a technique is disclosed in which contact confirmation between a vehicle or an obstacle stopped at the front left of the host vehicle and the host vehicle is performed in advance of a parking operation.
このように従来の車両用周辺監視装置では、特許文献2乃至4等に提案されているように、側方画像を車両の運転席に設けたモニタにて表示すると共に、運転者が走行安全性を容易に確保できるように、その側方画像中より特徴点を抽出し、特徴点のオプティカルフローに応じて移動物体をより容易に認識できるような画像処理を行っている。
As described above, in the conventional vehicle periphery monitoring device, as proposed in
ところで、車両前位置に設置され、側方領域の情景を撮像するカメラ(ノーズビューカメラ)は、車両の直進時や停車時には、図13(a)のように左右の側方画像Pl、Prにおける対向車両の側方に向かう特徴点aの速度ベクトルが車両速度に応じた値となる。しかし、車両の左右旋回時には、図13(b)のように、左右の側方画像Pl’、Pr’は互いに異なる速度変位の影響を受ける。このため、側方画像Pl’、Pr’の特徴点a’のオプティカルフローの演算が複雑化する。即ち、自車両がヨー回転ωnしていると、左右の側方画像Pl’、Pr’に自車両のヨー回転ωnの動きが重なり、画像処理ロジックを難しくしている。この場合、画像上の動きだけでは解決できないため、複雑な処理を必要とし、計算コストの増大を招くこととなり、ECUへの搭載を難しくしており、改善が望まれている。 By the way, a camera (nose view camera) that is installed at the front position of the vehicle and captures a scene in the side area is used in the left and right side images Pl and Pr as shown in FIG. The speed vector of the feature point a toward the side of the oncoming vehicle becomes a value corresponding to the vehicle speed. However, when the vehicle turns left and right, as shown in FIG. 13B, the left and right side images Pl 'and Pr' are affected by different velocity displacements. For this reason, the calculation of the optical flow of the feature point a ′ of the side images Pl ′ and Pr ′ is complicated. That is, when the host vehicle is rotating at yaw ωn, the left and right side images Pl ′ and Pr ′ overlap with the movement of the host vehicle's yaw rotation ωn, making the image processing logic difficult. In this case, since it cannot be solved only by the motion on the image, complicated processing is required, which leads to an increase in calculation cost, making it difficult to mount on the ECU, and improvement is desired.
なお、このような車両の左右旋回による左右側方画像Pl’、Pr’の速度変位が側方画像Pl’、Pr’の特徴点a’のオプティカルフローの演算を複雑化する点に関し、特許文献1乃至4の各技術では解決策を開示していない。
本発明は以上のような課題に基づきなされたもので、目的とするところは、車両の左右旋回による左右側方画像におけるオプティカルフローの演算を簡素化し、移動物体認識のための画像処理の容易化を図れる車両周辺監視装置を提供することにある。
Note that the speed displacement of the left and right side images Pl ′ and Pr ′ due to such a left and right turn of the vehicle complicates the calculation of the optical flow of the feature point a ′ of the side images Pl ′ and Pr ′. Each of the
The present invention has been made based on the problems as described above, and the object is to simplify the calculation of optical flow in the left and right side images by turning the vehicle left and right and to facilitate the image processing for moving object recognition. It is in providing the vehicle periphery monitoring apparatus which can plan.
本願請求項1に係る発明は、自車両の互いに異なる場所に設置された複数の撮像装置によって撮影された側方画像をもとに、前記自車両の上方の仮想視点から見た俯瞰画像である車両周辺画像を生成する車両周辺画像生成手段と、前記車両周辺画像中より特徴点を抽出すると共に同特徴点の動きベクトルを計算する特徴点抽出手段と、前記特徴点の動きベクトルから前記自車両のヨーレイトを算出するヨーレイト算出手段と、前記側方画像をモニタに表示する画像表示制御手段と、前記側方画像中より抽出した側方特徴点のフローより前記ヨーレイト分を減じることで得られた補正特徴点に基づき前記モニタの画像内の対向物体に対する認識処理を行う対向物体認識手段と、を具備したことを特徴とする。
The invention according to
本願請求項2に係る発明は、請求項1に記載の車両周辺監視装置において、前記撮像装置のうち車両の前部に取り付けられて車幅方向の視界を側方画像として撮像するノーズビューカメラを備え、前記対向物体認識手段は、前記側方画像中の側方特徴点を検出すると共に検出した側方特徴点の動きベクトルを計算する側方画像特徴点抽出手段と、前記側方画像中の側方特徴点のフローより前記ヨーレイト分を減じることで補正特徴点を作成する補正特徴点作成手段と、前記補正特徴点の動きベクトルから前記側方画像中の前記自車両に接近してくる方向のベクトルを有する物体を接近移動物体として検出する移動物体検出手段と、前記接近移動物体の前記側方画像中での画像領域を設定する物体画像領域設定手段と、を備え、前記画像表示制御手段は前記接近移動物体の画像領域を前記側方画像中に強調表示する、ことを特徴とする。
The invention according to
本願請求項3に係る発明は、請求項1に記載の車両周辺監視装置において、前記撮像装置のうち車両の前部に取り付けられて車幅方向の視界を側方画像として撮像するノーズビューカメラを備え、前記対向物体認識手段は、前記側方画像中の特徴点を検出すると共に検出した特徴点の動きベクトルを計算する側方画像特徴点抽出手段と、前記側方画像中の特徴点のフローより前記ヨーレイト分を減じることで補正特徴点を作成する補正特徴点作成手段と、前記補正特徴点の動きベクトルから前記側方画像中の前記自車両に接近してくる方向のベクトルを有する物体を接近移動物体として検出する移動物体検出手段と、前記検出された接近移動物体の補正特徴点を追跡する特徴点追跡手段と、前記追跡する補正特徴点から前記接近移動物体が該車両の正面を通過する時間を求める通過時刻計算手段とを具備したことを特徴としている。
The invention according to
請求項1の発明によれば、自車両周囲の画像をもとに俯瞰画像である車両周辺画像を生成し、同車両周辺画像中の位置特定可能な特徴点の動きベクトルから車両のヨーレイトを算出し、その上で、側方画像中で算出した特徴点のフローよりヨーレイト分を減じることで得られた補正特徴点に基づき、モニタ画像内の対向物体に対する認識処理を行うので、即ち、自車両のヨー回転の影響をクリアした補正特徴点で対向物体に対する認識処理ができるので、車載画像処理ロジックが比較的単純に成り、計算コストが低減され、ECUへの搭載が容易となる上に、安全運転を容易化できる。 According to the first aspect of the present invention, a vehicle surrounding image that is a bird's-eye view image is generated based on an image around the host vehicle, and a yaw rate of the vehicle is calculated from a motion vector of a feature point that can be located in the vehicle surrounding image. On the basis of the corrected feature point obtained by subtracting the yaw rate from the feature point flow calculated in the side image, recognition processing for the opposite object in the monitor image is performed. Because it is possible to perform recognition processing for opposing objects with correction feature points that have cleared the influence of yaw rotation, the in-vehicle image processing logic is relatively simple, the calculation cost is reduced, and it is easy to install in the ECU. Driving can be facilitated.
請求項2の発明によれば、車両周辺画像から車両のヨーレイトを算出し、その上で、交差点等での自車両の左右旋回による側方画像のフローのずれがあっても、自車両のヨー回転の影響をクリアした補正特徴点を用いて、補正特徴点のオプティカルフローを計算する。このため、車載画像処理のロジックが単純になり、旋回時でも容易に補正側方画像中の側方特徴点のオプティカルフローを計算でき、動きベクトルの等しい特徴点のまとまりを1つの接近移動物体として認識し、接近移動物体の検出が確実に容易に行え、旋回時でも計算コストが低減され、ECUへの搭載が容易化される。 According to the second aspect of the present invention, the yaw rate of the vehicle is calculated from the vehicle periphery image, and the yaw rate of the host vehicle can be detected even if there is a deviation in the flow of the side image due to the left or right turn of the host vehicle at an intersection or the like. The optical flow of the corrected feature point is calculated using the corrected feature point that has cleared the influence of rotation. For this reason, the logic of the in-vehicle image processing becomes simple, the optical flow of the side feature points in the corrected side image can be easily calculated even when turning, and a set of feature points having the same motion vector is regarded as one approaching moving object. Recognition and detection of an approaching moving object can be performed easily and reliably, the calculation cost can be reduced even when turning, and the mounting on the ECU is facilitated.
請求項3の発明によれば、車両周辺画像から車両のヨーレイトを算出し、その上で、交差点等での自車両の左右旋回による側方画像のフローのずれがあっても、自車両のヨー回転の影響をクリアした補正特徴点を用いて、補正特徴点のオプティカルフローを計算して接近移動物体の検出をすると共に、この計算によって求めた補正特徴点から接近移動物体が車両の正面を通過する通過予想時間を算出するので、移動物体が車両の前方を通過する時刻を確実に予想でき、旋回時でも計算コストが低減され、ECUへの搭載が容易化される。 According to the third aspect of the present invention, the yaw rate of the vehicle is calculated from the vehicle periphery image, and the yaw rate of the host vehicle can be detected even if there is a deviation in the flow of the side image due to the left or right turn of the host vehicle at an intersection or the like. Using the corrected feature point that cleared the influence of rotation, the optical flow of the corrected feature point is calculated to detect the approaching moving object, and the approaching moving object passes the front of the vehicle from the corrected feature point obtained by this calculation. Since the estimated passing time is calculated, it is possible to reliably predict the time when the moving object passes the front of the vehicle, the calculation cost is reduced even when turning, and the mounting on the ECU is facilitated.
以下、本発明の一実施形態に係る車両用周辺監視装置について説明する。
図1、2はこの実施形態に係る車両用周辺監視装置の要部概略構成図及び機能ブロック図を示した。
この車両用周辺監視装置は、車両C上での互いに異なる場所に設置され車両周囲の側方画像Gs(Gs1、Gs2等)が撮影される複数の撮像装置1n、1s、1r(以後総称する場合は1と記す)と、車両周囲の側方画像Gsをもとに自車両Cの上方の仮想視点Bp(不図示)から見た俯瞰画像である車両周辺画像Gf(図6(a)、(b)参照)を生成する車両周辺画像生成手段2と、車両周辺画像中の特徴点P(P1、P2、P3・・:図6(a)、(b)参照)の動きベクトルを計算する特徴点抽出手段3と、車両Cのヨーレイトωを算出するヨーレイト算出手段4と、側方画像Gs(Gs1、Gs2)を画面に表示可能なモニタ5と、側方画像中の対向物体認識処理を行う対向物体認識手段6とを備える。
Hereinafter, a vehicle periphery monitoring device according to an embodiment of the present invention will be described.
1 and 2 show a schematic configuration diagram and a functional block diagram of a main part of a vehicle periphery monitoring device according to this embodiment.
This vehicle periphery monitoring device is installed at different locations on the vehicle C, and is provided with a plurality of
ここで、車両Cには画像制御装置ECUが制御手段として搭載され、この画像制御装置ECUはマイクロコンピュータを主体とする電子制御ユニットにより構成される。なお、画像制御装置ECUには車速Vcを入力する車速センサ11、変速段情報Rv、Dを入力するインヒビタスイッチ12、メインスイッチ21、モニタ5が接続される。しかも、画像制御装置ECUは画像表示制御手段(モニタ制御手段)7の機能を基本的に備えると共に、ナビゲーション装置30とモニタ5を兼用するよう接続される(図2参照)。
図2に示すように、画像制御装置ECUは、上述の車両周辺画像生成手段2と特徴点抽出手段3とヨーレイト算出手段4とモニタ5の画像表示制御手段(モニタ制御手段)7と対向物体認識手段6との各制御機能を備え、図3に示すアルゴリズムで、俯瞰映像である車両周辺画像Gfに対する処理とノーズビューカメラ1nからの左右の前側方画像Gs1、Gs2に対する処理のための制御を行う。
Here, an image control device ECU is mounted as a control means on the vehicle C, and the image control device ECU is constituted by an electronic control unit mainly including a microcomputer. Note that a
As shown in FIG. 2, the image control apparatus ECU includes the vehicle surrounding image generation means 2, the feature point extraction means 3, the yaw rate calculation means 4, the image display control means (monitor control means) 7 of the
図1、2に示すように、撮像装置1は車両Cの互いに異なる場所に複数設置され、車両Cの前端部に突出し状態で取付けられたノーズビューカメラ1nと、左右の車体側部外壁に取付けられて車両の左右側部画像を撮像する左右側部カメラ1sと、車両Cの後部の車体外壁に取付けられて車両の後方画像を撮像するリアビューカメラ1rとを備える。
ここでノーズビューカメラ1nは横向きカメラであり、図1に示すように、車両の前部の左右側方をそれぞれ撮像して左右の前側方画像Gs1、Gs2を取り込む機能を備える。なお、画像表示制御手段(モニタ制御手段)7は、図4に示すように、モニタ5の画面を左右2分割し、左右の前側方画像Gs1、Gs2をそれぞれ並列表示する機能を備え、ナビゲーション装置30の駆動時にはナビ画像表示に切換わる。
As shown in FIGS. 1 and 2, a plurality of
Here, the
次に、画像制御装置ECUが行う俯瞰映像に対する処理を説明する。
画像制御装置ECUの車両周辺画像生成手段2は、自車両Cの互いに異なる場所に設置されノーズビューカメラ1nからの左右前側方画像Gs1、Gs2と、左右側部カメラ1sからの左右側部画像と、リアビューカメラ1rからの後方画像とをもとに、自車両の上方の仮想視点Bp(不図示)から見た俯瞰画像である車両周辺画像Gf(図6(a)、(b)にはモニタ5の画面に表示される車両周辺画像の一例を表示した)を生成する。
Next, processing for the overhead view image performed by the image control apparatus ECU will be described.
The vehicle periphery image generating means 2 of the image control device ECU is installed at different locations of the host vehicle C, and the left and right front side images Gs1, Gs2 from the
特徴点抽出手段3は俯瞰画像である車両周辺画像Gf(図4参照)をもとに、図6(a)、(b)に示す特徴点P(P1.P2.P3)の抽出を行う。具体的には、車両周辺画像Gf中の、例えば画像信号レベル(輝度)や色相が、その周辺部と大きく異なるような位置特定可能な特徴点Pを抽出する。
この特徴点抽出アルゴリズムで用いる画像I、近傍領域D(p)、画素pとは、図8に示す関係を有する。
まず、画像Iで、x、y各方向に対する偏微分画像∂I/∂x、∂I/∂yを求める。次いで、画像Iで以下の式(a)のような画素pに対する空間勾配行列G(p)を全画素で求める。
The feature point extraction means 3 extracts feature points P (P1.P2.P3) shown in FIGS. 6A and 6B based on the vehicle periphery image Gf (see FIG. 4) which is an overhead image. Specifically, a feature point P whose position can be specified is extracted from the vehicle peripheral image Gf, for example, such that the image signal level (luminance) and hue are significantly different from the peripheral portion.
The image I, neighborhood region D (p), and pixel p used in this feature point extraction algorithm have the relationship shown in FIG.
First, in the image I, partial differential images ∂I / ∂x and に 対 す る I / ∂y with respect to the x and y directions are obtained. Next, a spatial gradient matrix G (p) with respect to the pixel p as shown in the following expression (a) in the image I is obtained for all pixels.
次いで、空間勾配行列G(p)に対する固有値λmin(p)、λmax(p)を計算し、特徴を有すると見られる所定の値を持つ、位置特定可能な点を抽出して、特徴点Pとする。なお、特徴点Pの選択の手法は、特開2004−198211号公報に開示される手法を用いても良い。
次いで、特徴点追跡処理3−1(図2参照)がなされる。ここでは抽出した位置特定可能な特徴点Pに対してオプティカルフローを計算し、時間経過による特徴点の位置の変化を調整する。オプティカルフロー計算は多重解像度法を用いている。
Next, eigenvalues λmin (p) and λmax (p) for the spatial gradient matrix G (p) are calculated, and a position-identifiable point having a predetermined value considered to have a feature is extracted. To do. As a method for selecting the feature point P, a method disclosed in Japanese Patent Application Laid-Open No. 2004-198211 may be used.
Next, a feature point tracking process 3-1 (see FIG. 2) is performed. Here, an optical flow is calculated for the extracted feature point P whose position can be specified, and the change in the position of the feature point over time is adjusted. The optical flow calculation uses a multi-resolution method.
ここで多重解像度法とは、一枚の画像に対して解像度の異なる何枚もの画像を階層的に準備し、粗い解像度の画像から順番にパターンマッチングを行い、オプティカルフローを求め、最終的には解像度の細かい画像でのオプティカルフローを求める手法であり、特開2004−56763号公報や、前述した特許文献1等に詳しく紹介されるとおりのものである。
Here, the multi-resolution method is to hierarchically prepare multiple images with different resolutions for one image, perform pattern matching in order from the image with coarse resolution, find the optical flow, and finally This is a technique for obtaining an optical flow in an image with a fine resolution, as described in detail in Japanese Patent Application Laid-Open No. 2004-56763 and the above-mentioned
言い換えると、図6(a)、(b)、図7に示すように、基本的には所定の周期で撮像される連続した俯瞰画像である各車両周辺画像Gf(ここではGfa、Gfbの総称)間における互いに共通する特徴点P(P1、P2、P3・・)の座標変化を検出することで、その特徴点Pが移動しているか否か判断する。更に、座標が変化している場合には、その移動(座標変化)の向きとその大きさがどの程度であるかをそれぞれ計算する。即ち、特徴点Pの移動方向と移動距離とをフローベクトル(図7参照)として算出することによってなされる。また、撮像した画像内の全領域においてフローベクトルが算出されて、画像内の移動物体の位置、移動方向等の情報を認識できるようになっている。
例えば、図6(a)、(b)に示すように、車両Cが駐車区画域Eに向かう場合において、車両周辺画像Gf中より駐車区画域Eを囲む互いに直行する3つの直線、即ち、前しきい線L0とこれと交差する左右の駐車区画線L1、L2及び第3の駐車区画線L3を検出する。これに基づき前しきい線L0と駐車区画線L1、L2及び第3の駐車区画線L3とが交差した3つの点を特徴点P1、P2、P3(説明上代表する3点を用いる)として評価し、決定することとなる。なお、この3つの点を特徴点P1、P2、P3は一例で、車両周辺画像Gf中より複数抽出される。
In other words, as shown in FIGS. 6A, 6 </ b> B, and 7, each vehicle surrounding image Gf (herein, Gfa, Gfb is a generic name) that is a continuous overhead image captured in a predetermined cycle. ) Between the common feature points P (P1, P2, P3,...) To detect whether the feature point P is moving. Further, when the coordinates are changed, the direction of the movement (coordinate change) and the degree of the magnitude are respectively calculated. That is, it is done by calculating the moving direction and moving distance of the feature point P as a flow vector (see FIG. 7). In addition, a flow vector is calculated in all areas in the captured image, and information such as the position and moving direction of the moving object in the image can be recognized.
For example, as shown in FIGS. 6A and 6B, when the vehicle C heads for the parking zone E, three straight lines surrounding the parking zone E from the vehicle peripheral image Gf, that is, the front Threshold line L0 and left and right parking partition lines L1, L2 and third parking partition line L3 are detected. Based on this, three points where the front threshold line L0 intersects with the parking lot lines L1, L2 and the third parking lot line L3 are evaluated as feature points P1, P2, P3 (using three representative points for explanation). And will be determined. Note that the feature points P1, P2, and P3 are an example of these three points and are extracted from the vehicle peripheral image Gf.
次に、車両Cのヨーレイトωを算出するヨーレイト算出手段4を説明する。ここでは、特徴点の動きベクトルであるオプティカルフローから自車両のヨーレイトを算出する。
例えば、図6(a)、(b)に示す車両周辺画像Gf(Gfa、Gfb)における特徴点P1、P2、P3を用いて、車両Cのヨーレイトωを算出する。
この場合、図7に示すように、1の特徴点P1(ここで特徴点番号をiとする)の車両周辺画像Gfにおける画素[x、y]での動き[ub、vb]には以下の関係があり、オプティカルフローからヨーレートωは式(b)より計算可能である。
Next, the yaw rate calculating means 4 for calculating the yaw rate ω of the vehicle C will be described. Here, the yaw rate of the host vehicle is calculated from the optical flow that is the motion vector of the feature point.
For example, the yaw rate ω of the vehicle C is calculated using the feature points P1, P2, and P3 in the vehicle peripheral image Gf (Gfa, Gfb) shown in FIGS. 6 (a) and 6 (b).
In this case, as shown in FIG. 7, the motion [ub, vb] at the pixel [x, y] in the vehicle peripheral image Gf of one feature point P1 (where the feature point number is i) is as follows. The yaw rate ω can be calculated from the optical flow according to the equation (b).
[ub,vb]=[ωy,−ωx−Vc]・・・・・(b)
言い換えると、俯瞰映像である車両周辺画像Gf(Gfa、Gfb)に対する特徴点抽出および特徴点追跡結果より、特徴点番号iの特徴点が、時刻tからt+Δtの間に、車両周辺画像Gf上で、
xi (b)(t)=[xi (b)(t),yi (b)(t)]T
から xi (b)(t+Δt)=[xi (b)(t+Δt),yi (b)(t+Δt)]T
に移動したとする(たとえば、図6(a)、(b)参照)。
[Ub, vb] = [ωy, −ωx−Vc] (b)
In other words, from the result of feature point extraction and feature point tracking on the vehicle periphery image Gf (Gfa, Gfb), which is a bird's-eye view video, the feature point with the feature point number i appears on the vehicle periphery image Gf between time t and t + Δt. ,
x i (b) (t) = [x i (b) (t), y i (b) (t)] T
X i (b) (t + Δt) = [x i (b) (t + Δt), y i (b) (t + Δt)] T
(For example, refer to FIGS. 6A and 6B).
このとき、特徴点番号iの特徴点Pの俯瞰映像である車両周辺画像Gf上の速度ベクトル:
vi (b)(t)=[ui (b)(t),vi (b)(t)]T
は次のように計算される。
At this time, a speed vector on the vehicle peripheral image Gf which is an overhead video of the feature point P of the feature point number i:
v i (b) (t) = [u i (b) (t), v i (b) (t)] T
Is calculated as follows:
特徴点iは車両周辺画像Gfにおいて、路面上にあり、自車両がヨーレイトω、速度Vで運動しているとすると、以下の関係が成立する。 If the feature point i is on the road surface in the vehicle peripheral image Gf and the host vehicle is moving at the yaw rate ω and the speed V, the following relationship is established.
(2)式からヨーレイトωは特徴点iの車両周辺画像Gf2上の位置のY成分yi (b)(t)と、速度ベクトルのX成分ui (b)(t)から以下のように求められる。 From equation (2), the yaw rate ω is calculated from the Y component y i (b) (t) at the position of the feature point i on the vehicle peripheral image Gf2 and the X component u i (b) (t) of the velocity vector as follows: Desired.
ここで、^(ω)は推定ヨーレイト、Rは車両周辺画像Gf2上の路面にある特徴点番号の集合、‖●‖は集合の母数である。
なお、以下の式のように、最小二乗法からヨーレイトωを推定しても良い。
Here, ^ (ω) is the estimated yaw rate, R is a set of feature point numbers on the road surface on the vehicle peripheral image Gf2, and ‖ ● ‖ is the parameter of the set.
Note that the yaw rate ω may be estimated from the least square method as in the following equation.
次に、画像制御装置ECUが行う俯瞰映像である左右側方画像Gs1、Gs2(図4,5参照)に対する処理を説明する。
画像制御装置ECUの対向物体認識手段6は、左右のノーズビューカメラ1nからの前部左右側方画像GS1、GS2(図4、図5参照)により、同画像GS1、GS2中の対向物体認識のための画像処理を行う。
ここで、図2に示すように、対向物体認識手段6は、側方画像特徴点抽出手段6aと、補正特徴点作成手段6bと、移動物体検出手段6cと、物体画像領域設定手段6dとして機能する。
Next, processing for the left and right side images Gs1 and Gs2 (see FIGS. 4 and 5), which are overhead images performed by the image control apparatus ECU, will be described.
The opposing object recognition means 6 of the image control device ECU recognizes the opposing object in the images GS1 and GS2 based on the front left and right side images GS1 and GS2 (see FIGS. 4 and 5) from the left and right
Here, as shown in FIG. 2, the opposed object recognition means 6 functions as a side image feature point extraction means 6a, a correction feature point creation means 6b, a moving object detection means 6c, and an object image region setting means 6d. To do.
側方画像特徴点抽出手段6aは左右側方画像GS1、GS2中における複数の側方特徴点Q1、Q2、Q3を検出すると共に検出した特徴点の動きベクトルを計算する(オプティカルフローベクトルの算出)。
具体的には、ノーズビュー映像上の側方特徴点Q1(ここで特徴点番号をiとする)の追跡によって、時刻tにおける特徴点番号jの特徴点に対するノーズビュー映像上の速度ベクトルであるオプティカルフローベクトルを
‘v’j (n)(t)=[uj (n)(t),vj (n)(t)]T として算出する。
The side image feature point extraction means 6a detects a plurality of side feature points Q1, Q2, Q3 in the left and right side images GS1, GS2 and calculates motion vectors of the detected feature points (calculation of optical flow vectors). .
Specifically, it is a velocity vector on the nose view video with respect to the feature point of the feature point number j at time t by tracking the side feature point Q1 (here, the feature point number is i) on the nose view video. The optical flow vector is calculated as 'v' j (n) (t) = [u j (n) (t), v j (n) (t)] T.
このような速度ベクトル‘v’j (n)(t)には、自車両がヨーレイトωを有するとき、ノーズビューカメラに映るノーズビュー映像には、ヨーレイト推定結果^(ω)の影響が加わっている。
そこで、補正特徴点作成手段6bは、ノーズビュー映像(左右側方画像GS1、GS2)における時刻tにおける特徴点番号jの特徴点における、オプティカルフローベクトルである速度ベクトル‘v’j (n)(t)より、以下のようにして、ヨーレイトωの影響をゼロクリアすることができる。
In such a velocity vector 'v' j (n) (t), when the host vehicle has the yaw rate ω, the nose view video reflected in the nose view camera is influenced by the yaw rate estimation result ^ (ω). Yes.
Therefore, the corrected feature point creation means 6b is a velocity vector 'v' j (n) (which is an optical flow vector) at the feature point of the feature point number j at time t in the nose view video (left and right side images GS1, GS2). From t), the influence of the yaw rate ω can be cleared to zero as follows.
このような(5)式で、ヨーレイトω成分をクリアした速度ベクトル‘v’j (n)(t)を用いれば、例えば特許文戴1に開示の処理を行えば、容易に接近物体に含まれる補正特徴点(接近特徴点と称呼する)だけを選択することが可能となる。
更に、移動物体検出手段6cは、オプティカルフローベクトルである速度ベクトル‘v’j (n)(t)のうち左右側方画像GS1、GS2中における車両の進行方向へのベクトル成分を有するオプティカルフローベクトルに基づいて接近物体を検出する。
By using the velocity vector 'v' j (n) (t) that clears the yaw rate ω component in the equation (5), for example, if the process disclosed in Japanese Patent Publication No. 1 is performed, it is easily included in the approaching object. It is possible to select only corrected feature points (referred to as approach feature points).
Further, the moving object detection means 6c is an optical flow vector having a vector component in the traveling direction of the vehicle in the left and right side images GS1, GS2 among the velocity vectors 'v' j (n) (t) which are optical flow vectors. An approaching object is detected based on
更に、物体画像領域設定手段6dは、オプティカルフローベクトルである速度ベクトル‘v’j (n)(t)のうち左右側方画像GS1、GS2中における車両の進行方向へのベクトル成分を有するオプティカルフローベクトルに基づいて接近物体を検出する。即ち、特徴点番号jの特徴点を含む複数の側方特徴点(Q1、Q2、Q3・・・)のまとまりを自車両に接近してくる接近移動物体として検出し、その接近移動物体の左右側方画像GS1、GS2中での画像領域Epを設定する。 Further, the object image region setting means 6d has an optical flow having a vector component in the traveling direction of the vehicle in the left and right side images GS1 and GS2 of the velocity vector 'v' j (n) (t) which is an optical flow vector. An approaching object is detected based on the vector. That is, a group of a plurality of side feature points (Q1, Q2, Q3...) Including a feature point with feature point number j is detected as an approaching moving object approaching the host vehicle, and left and right of the approaching moving object are detected. An image region Ep in the side images GS1 and GS2 is set.
具体的には、図4に示すような、左側方画像GS1(領域)におけるオプティカルフローベクトルのうち右方向のベクトル成分を有するオプティカルフローベクトルbyと、右側方画像GS2(領域)におけるオプティカルフローベクトルのうち左方向のベクトル成分を有するオプティカルフローベクトルcyとに基づいて接近物体を検出することとなる。
画像表示制御手段(モニタ制御手段)7は、図4に示すように、モニタ5の画面を左右2分割し、左右の前側方画像Gs1、Gs2をそれぞれ並列表示すると共に、特に、接近移動物体の画像領域Epをモニタ5の画面における左右側方画像GS1、GS2中に強調表示する(図8参照)。
Specifically, as shown in FIG. 4, the optical flow vector by having a vector component in the right direction among the optical flow vectors in the left side image GS1 (region) and the optical flow vector in the right side image GS2 (region). Of these, the approaching object is detected based on the optical flow vector cy having the vector component in the left direction.
As shown in FIG. 4, the image display control means (monitor control means) 7 divides the screen of the
この場合、接近移動物体の画像領域Epすべて、あるいは、画像領域Epの外郭部分を赤色表示すると共に、照度を一定周期で増減切換え、運転者の認識を容易化する。 In this case, all of the image area Ep of the approaching moving object or the outline portion of the image area Ep is displayed in red, and the illuminance is increased / decreased at a constant period to facilitate the driver's recognition.
次に、図1の車両用周辺監視装置の画像制御装置ECUが行う表示制御処理を図10の画像表示制御ルーチンのフローチャートと共に説明する。
ここで、基本的に画像制御装置ECUはナビゲーション装置30のモニタ5を兼用しており、メインスイッチ21のオンによりステップs1に達する。
Next, a display control process performed by the image control apparatus ECU of the vehicle periphery monitoring apparatus in FIG. 1 will be described together with a flowchart of the image display control routine in FIG.
Here, basically, the image control device ECU also serves as the
ステップs1ではナビゲーション装置30からのナビ画像の表示を行い、ステップs2に進む。ここで車速Vcが徐行速度Vc1、例えば、10Km/H以下か判断し、Noでは定常走行時と見做して、そのまま、ステップs1にリターンする。
一方、徐行速度Vc1以下でステップs3に達すると、ここでは現段がリバース段Rvか判断し、Yesでステップs4に、そうでなく、前進徐行ではステップs5に進む。
リバース段Rvでステップs4に達すると、車両周辺画像生成手段2が作成した、即ち、ノーズビューカメラ1nの左右前側方画像Gs1、Gs2と、左右側部カメラの左右側部画像と、リアビューカメラ1rの後方画像に基づく俯瞰画像である車両周辺画像Gf(図6(a)、(b)参照)をモニタ5の画面にナビ画面に代えて表示処理し、ステップs1にリターンする。
In step s1, a navigation image from the
On the other hand, when step s3 is reached at the slow speed Vc1 or less, it is determined here whether the current stage is the reverse stage Rv, and if yes, the process proceeds to step s4. Otherwise, the process proceeds to step s5 in forward slow speed.
When step s4 is reached in the reverse stage Rv, the vehicle peripheral image generating means 2 creates, that is, the left and right front and side images Gs1, Gs2 of the
これにより、運転者は車両Cの駐車時等の後方移動時に、俯瞰画像である車両周辺画像Gfを用いて、周囲の対向物体との干渉を避けて容易に駐車処理できる。
一方、DレンジやNレンジでステップs5に達すると、ここでは、交差点に接近し徐行する車両が、交差道路Rd1側の対向車両(図4、5中の符号CO参照)を確認する必要があると見做し、モニタに左右前側方画像Gs1、Gs2の表示処理を行う。
次いで、ステップs6で車両周辺画像生成手段2が作成した俯瞰画像である車両周辺画像Gfデータを取り込み、特徴点抽出手段3が車両周辺画像Gf(データ上での処理)をもとに、位置特定可能な特徴点Pの抽出を行う。例えば、図1中の道幅表示線の交差により得られる位置特定可能な特徴点P1h、P2hを抽出する。
As a result, the driver can easily perform parking processing while avoiding interference with surrounding opposing objects using the vehicle peripheral image Gf that is a bird's-eye view image when the vehicle C is moving backward such as when the vehicle C is parked.
On the other hand, when step s5 is reached in the D range or the N range, it is necessary here for the vehicle approaching and slowly approaching the intersection to check the oncoming vehicle on the intersection road Rd1 side (see CO in FIGS. 4 and 5). As a result, the left and right front and side images Gs1 and Gs2 are displayed on the monitor.
Next, in step s6, the vehicle periphery image Gf data, which is an overhead image created by the vehicle periphery image generation means 2, is taken in, and the feature point extraction means 3 specifies the position based on the vehicle periphery image Gf (processing on the data). Possible feature points P are extracted. For example, the feature points P1h and P2h that can be identified by the intersection of the road width display lines in FIG. 1 are extracted.
更に、ステップs7では、特徴点追跡処理301(図2参照)がなされ、抽出した特徴点P(P1h、P2h)に対してオプティカルフローを計算する。次いで、ステップs8ではヨーレイト算出手段4として機能し、特徴点P(P1h、P2h)の動きベクトルであるオプティカルフローから、即ち、車両周辺画像Gf(データ上での処理)における特徴点P(P1h、P2h)を用いて、車両Cの推定ヨーレイト^(ω)を算出する。 Further, in step s7, a feature point tracking process 301 (see FIG. 2) is performed, and an optical flow is calculated for the extracted feature points P (P1h, P2h). Next, in step s8, it functions as the yaw rate calculation means 4, and from the optical flow that is the motion vector of the feature point P (P1h, P2h), that is, the feature point P (P1h, P2h) is used to calculate the estimated yaw rate ^ (ω) of the vehicle C.
次いで、ステップs9に達すると、側方画像特徴点抽出手段6aが左右側方画像GS1、GS2(図4、5参照)中における複数の側方特徴点Q1、Q2、Q3・・を検出すると共に検出した側方特徴点の動きベクトルを計算(オプティカルフローベクトルの算出)する。即ち、オプティカルフローベクトルを
‘v’j (n)(t)=[uj (n)(t),vj (n)(t)]T
として算出する。
Next, when step s9 is reached, the side image feature point extraction means 6a detects a plurality of side feature points Q1, Q2, Q3,... In the left and right side images GS1, GS2 (see FIGS. 4 and 5). The motion vector of the detected side feature point is calculated (optical flow vector is calculated). That is, the optical flow vector is expressed as “v” j (n) (t) = [u j (n) (t), v j (n) (t)] T
Calculate as
このような速度ベクトル‘v’j (n)(t)には、ヨーレイト推定結果^(ω)の影響が加わっている。
そこで、ステップs10に達すると、補正特徴点作成手段6bがヨーレイトωの影響をゼロクリアする処理を上述の(5)式を用いて行う。
このような(5)式で、ヨーレイトω成分をクリアした速度ベクトル‘v’j (n)(t)を用い、移動物体検出手段6cが、オプティカルフローベクトルである速度ベクトル‘v’j (n)(t)のうち、特徴点番号jの特徴点を含む複数の補正特徴点(Q1’、Q2’、Q3’・・・)のまとまりを自車両に接近してくる物体を接近移動物体として検出する。その上で、物体画像領域設定手段6dが接近移動物体の左右側方画像GS1、GS2中での画像領域Ep(図4(a)参照)を設定する。
The velocity vector 'v' j (n) (t) is affected by the yaw rate estimation result ^ (ω).
Accordingly, when step s10 is reached, the correction feature point creation means 6b performs a process of zero-clearing the influence of the yaw rate ω using the above equation (5).
In such a (5), using the yaw rate Clear ω component velocity vector 'v' j (n) ( t), the moving
次いで、ステップs11に達すると画像表示制御手段7の機能として、接近移動物体の画像領域Epをモニタ5の画面における左右側方画像GS1、GS2中に強調表示処理する(図8参照)。即ち、接近移動物体の画像領域Epを赤色表示すると共に、照度を一定周期で増減切換え、運転者の認識を容易化し、運転者に対向道路の対向車両に対する注意を促し、ステップs1にリターンする。なお、ステップs11での処理に加え、不図示のブザーを駆動して、より運転者の認識を容易化しても良い。 Next, when step s11 is reached, as a function of the image display control means 7, the image area Ep of the approaching moving object is highlighted in the left and right side images GS1, GS2 on the screen of the monitor 5 (see FIG. 8). In other words, the image area Ep of the approaching moving object is displayed in red, and the illuminance is switched between increasing and decreasing at regular intervals, the driver's recognition is facilitated, the driver is alerted to the oncoming vehicle on the oncoming road, and the process returns to step s1. In addition to the processing at step s11, a buzzer (not shown) may be driven to further facilitate the driver's recognition.
このように、図1の車両用周辺監視装置は、自車両C周囲の俯瞰画像である車両周辺画像Gfを生成し、同車両周辺画像Gf中の特徴点Pの動きベクトルから車両のヨーレイトωを算出し、その上で、側方画像GS1、GS2中で算出した側方特徴点Qのフロー(オプティカルフローベクトル‘v’j (n)(t))よりヨーレイトω分を減じることで得られた補正特徴点Q’に基づき、モニタ画像内の対向物体に対する認識処理を行うので、即ち、側方特徴点Qの位置情報より自車両のヨー回転の影響をクリアした補正特徴点(Q1’、Q2’、Q3’・・・)で対向物体に対する認識処理ができる。このため、図1に2点鎖線で示すように、交差点に旋回状態で進入した時でも、車載画像処理ロジックが比較的単純に成り、計算コストが低減され、ECUへの搭載が容易となる上に、安全運転を容易化できる。 As described above, the vehicle periphery monitoring device in FIG. 1 generates the vehicle periphery image Gf that is an overhead image around the host vehicle C, and calculates the vehicle yaw rate ω from the motion vector of the feature point P in the vehicle periphery image Gf. Obtained by subtracting the yaw rate ω from the flow of the side feature point Q (optical flow vector 'v' j (n) (t)) calculated in the side images GS1 and GS2 Based on the corrected feature point Q ′, recognition processing for the opposite object in the monitor image is performed, that is, corrected feature points (Q1 ′, Q2) that have cleared the influence of yaw rotation of the host vehicle from the position information of the side feature point Q. ', Q3'... For this reason, as shown by a two-dot chain line in FIG. 1, even when the vehicle enters the intersection in a turning state, the in-vehicle image processing logic becomes relatively simple, the calculation cost is reduced, and the mounting on the ECU is facilitated. In addition, safe driving can be facilitated.
図1の車両用周辺監視装置の対向物体認識手段6は、接近移動物体の側方画像中での画像領域Epを設定し、その画像領域Epを側方画像GS1、GS2中に強調表示したが、これに代えて、図11に示すような対向物体認識手段6Aのみを代えた車両用周辺監視装置を構成しても良い。
この場合、対向物体認識手段6Aは図2の対向物体認識手段6と同様の、側方画像特徴点抽出手段6aと、補正特徴点作成手段6bと、移動物体検出手段6cに加え、特徴点追跡手段6eと、通過時刻計算手段6fとの機能を備える。
The opposing object recognition means 6 of the vehicle periphery monitoring device in FIG. 1 sets an image area Ep in the side image of the approaching moving object, and highlights the image area Ep in the side images GS1 and GS2. Instead of this, a vehicle periphery monitoring device in which only the opposed object recognition means 6A as shown in FIG. 11 is replaced may be configured.
In this case, the opposed object recognizing means 6A is the same as the opposed
特徴点追跡手段6eは検出された接近移動物体の補正特徴点(Q1’、Q2’、Q3’・・・)を追跡する。この際、図5に示すように、特徴点Pのフロー(オプティカルフローベクトル‘v’j (n)(t))より接近移動物体が自車両Cの正面を通過する方向と見做される補正特徴点(Q1’、Q2’、Q3’・・・)の一つを選択し、追跡する。更に、動くベクトルが検出されない特徴点については、建物等の固定物(背景)であるとして認識処理対象から排除する。 The feature point tracking means 6e tracks the corrected feature points (Q1 ′, Q2 ′, Q3 ′...) Of the detected approaching moving object. At this time, as shown in FIG. 5, the correction that the approaching moving object is regarded as the direction passing through the front of the host vehicle C from the flow of the feature point P (optical flow vector 'v' j (n) (t)). One of the feature points (Q1 ′, Q2 ′, Q3 ′...) Is selected and tracked. Furthermore, feature points for which no moving vector is detected are excluded from recognition processing targets as being fixed objects (backgrounds) such as buildings.
次いで、通過時刻計算手段6fは追跡する補正特徴点(Q1’、Q2’、Q3’・・・)の一つから接近移動物体が自車両Cの正面を通過する予想通過時刻tcを求める。 Next, the passage time calculation means 6f obtains an expected passage time tc at which the approaching moving object passes the front of the host vehicle C from one of the correction feature points (Q1 ', Q2', Q3 '...) to be tracked.
この特徴点追跡手段6e及び通過時刻計算手段6fの制御処理は、特開2006−253932号公報等に詳しく紹介されるとおりのものを用いることが出来る。
なお、画像表示制御手段6は、接近移動物体の画像領域Epをモニタ5の画面における左右側方画像GS1、GS2中に強調表示処理する。即ち、接近移動物体の画像領域Epを赤色表示すると共に、照度を一定周期で増減切換え、運転者の認識を容易化し、運転者に対向道路の対向車両に対する注意を促すこととなる。
As the control processing of the feature point tracking unit 6e and the passage
Note that the image display control means 6 highlights the image area Ep of the approaching moving object in the left and right side images GS1, GS2 on the screen of the
なお、図12には対向物体認識手段6Aの画像制御装置ECUが行う画像表示処理のフローチャートを示した。ここでステップs1乃至ステップs10は図10と同一処理であり、重複説明は略す。ここでステップs10からステップs11aに達する。ここでは、接近移動物体の補正特徴点(Q1’、Q2’、Q3’・・・)を追跡する。次いで、ステップs11bでは追跡する補正特徴点(Q1’、Q2’、Q3’・・・)から接近車両の予想通過時刻tcを求める。次いで、ステップs11cでは予想通過時刻tcが所定の通過想定時刻Thより早いか判断し、遅いとそのままステップs1にリターンし、早いと、ステップs11dで、接近移動物体の画像領域Epをモニタ5の画面における左右側方画像GS1、GS2中に強調表示処理し、ステップs1にリターンする。即ち、接近移動物体の画像領域Epを赤表示し、運転者の認識を容易化できる。
FIG. 12 shows a flowchart of image display processing performed by the image control apparatus ECU of the opposed object recognition unit 6A. Here, steps s1 to s10 are the same processing as in FIG. 10, and redundant description is omitted. Here, step s10 is reached to step s11a. Here, the correction feature points (Q1 ', Q2', Q3 '...) of the approaching moving object are tracked. Next, in step s11b, an expected passing time tc of the approaching vehicle is obtained from the correction feature points (Q1 ', Q2', Q3 '...) to be tracked. Next, in step s11c, it is determined whether the expected passage time tc is earlier than the predetermined expected passage time Th. If it is late, the process directly returns to step s1, and if it is early, the image area Ep of the approaching moving object is displayed on the screen of the
このように、交差点に旋回状態で進入した時でも正確に、接近移動物体の補正特徴点(Q1’、Q2’、Q3’・・・)から接近移動物体が該車両の正面を通過する予想通過時刻tcを精度よく求めることが出来る。更に、予想通過時刻tcが所定の通過想定時刻Thより早いと、接近移動物体の画像領域Epを強調表示処理するので、接近移動物体を運転者が容易に認識でき、安全走行を行える。車載画像処理ロジックが比較的単純に成り、計算コストが低減され、ECUへの搭載が容易となる。 Thus, even when approaching the intersection in a turning state, the predicted passing through which the approaching moving object passes the front of the vehicle accurately from the correction feature points (Q1 ′, Q2 ′, Q3 ′...) Of the approaching moving object is accurate. The time tc can be obtained with high accuracy. Furthermore, when the expected passage time tc is earlier than the predetermined passage assumption time Th, the image area Ep of the approaching moving object is highlighted, so that the driver can easily recognize the approaching moving object and can safely travel. The in-vehicle image processing logic becomes relatively simple, the calculation cost is reduced, and the mounting on the ECU becomes easy.
以上、本発明の車両用周辺監視装置を説明したが、具体的な構成については、実施の形態に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。 The vehicle periphery monitoring device of the present invention has been described above, but the specific configuration is not limited to the embodiment, and unless it departs from the gist of the invention according to each claim of the claims, Design changes and additions are allowed.
1 撮像装置
1n ノーズビューカメラ
1s 側方カメラ
1r リアビューカメラ
2 車両周辺画像生成手段
3 特徴点抽出手段
4 ヨーレイト算出手段
5 モニタ
501 モニタ制御手段
6、6A 対向物体認識手段
6a 側方画像特徴点抽出手段
6b 補正特徴点作成手段
6c 移動物体検出手段
6f 特徴点追跡手段
6g 通過時刻計算手段
7 画像表示制御手段
11 車速センサ
20 ナビゲーション装置
ω ヨーレイト
^(ω) 推定ヨーレイト
tc 予想通過時刻
Bp 仮想視点
C 車両
Ep 画像領域
ECU 画像制御装置
Gf 車両周辺画像
Gs 側方画像
Gs1、Gs2 左右の前側方画像
Gf 車両周辺画像
P、P1、P2、P3 特徴点
Q1、Q2、Q3 側方特徴点
Q1’、Q2’、Q3’ 補正特徴点
‘v’ 特徴点の速度ベクトル
Vc 車速
DESCRIPTION OF
Claims (3)
前記車両周辺画像中より特徴点を抽出すると共に同特徴点の動きベクトルを計算する特徴点抽出手段と、
前記特徴点の動きベクトルから前記自車両のヨーレイトを算出するヨーレイト算出手段と、
前記側方画像をモニタに表示する画像表示制御手段と、
前記側方画像中より抽出した側方特徴点のフローより前記ヨーレイト分を減じることで得られた補正特徴点に基づき前記モニタの画像内の対向物体に対する認識処理を行う対向物体認識手段と、
を具備したことを特徴とする車両周辺監視装置。 A vehicle peripheral image that generates a vehicle peripheral image, which is an overhead image viewed from a virtual viewpoint above the host vehicle, based on side images captured by a plurality of imaging devices installed at different locations of the host vehicle. Generating means;
A feature point extracting means for extracting a feature point from the vehicle peripheral image and calculating a motion vector of the feature point;
A yaw rate calculating means for calculating the yaw rate of the host vehicle from the motion vector of the feature point;
Image display control means for displaying the side image on a monitor;
Opposing object recognition means for performing recognition processing on the opposing object in the image of the monitor based on the corrected feature point obtained by subtracting the yaw rate from the flow of the side feature point extracted from the side image;
A vehicle periphery monitoring device comprising:
前記撮像装置のうち車両の前部に取り付けられて車幅方向の視界を側方画像として撮像するノーズビューカメラを備え、
前記対向物体認識手段は、
前記側方画像中の側方特徴点を検出すると共に検出した側方特徴点の動きベクトルを計算する側方画像特徴点抽出手段と、
前記側方画像中の側方特徴点のフローより前記ヨーレイト分を減じることで補正特徴点を作成する補正特徴点作成手段と、
前記補正特徴点の動きベクトルから前記側方画像中の前記自車両に接近してくる方向のベクトルを有する物体を接近移動物体として検出する移動物体検出手段と、
前記接近移動物体の前記側方画像中での画像領域を設定する物体画像領域設定手段と、を備え、
前記画像表示制御手段は前記接近移動物体の画像領域を前記側方画像中に強調表示する、ことを特徴とする車両周辺監視装置。 In the vehicle periphery monitoring device according to claim 1,
A nose view camera that is attached to the front portion of the vehicle among the imaging device and captures a field of view in the vehicle width direction as a side image,
The opposing object recognition means includes
Side image feature point extracting means for detecting a side feature point in the side image and calculating a motion vector of the detected side feature point;
Correction feature point creating means for creating a correction feature point by subtracting the yaw rate from the flow of the side feature points in the side image;
Moving object detection means for detecting an object having a vector in a direction approaching the host vehicle in the side image from the motion vector of the correction feature point as an approaching moving object;
An object image region setting means for setting an image region in the side image of the approaching moving object,
The vehicle periphery monitoring device, wherein the image display control means highlights an image area of the approaching moving object in the side image.
前記撮像装置のうち車両の前部に取り付けられて車幅方向の視界を側方画像として撮像するノーズビューカメラを備え、
前記対向物体認識手段は、
前記側方画像中の側方特徴点を検出すると共に検出した特徴点の動きベクトルを計算する側方画像特徴点抽出手段と、
前記側方画像中の側方特徴点のフローより前記ヨーレイト分を減じることで補正特徴点を作成する補正特徴点作成手段と、
前記補正特徴点の動きベクトルから前記側方画像中の前記自車両に接近してくる方向のベクトルを有する物体を接近移動物体として検出する移動物体検出手段と、
前記検出された接近移動物体の補正特徴点を追跡する特徴点追跡手段と、
前記追跡する補正特徴点から前記接近移動物体が該車両の正面を通過する時間を求める通過時刻計算手段とを具備したことを特徴としている。 In the vehicle periphery monitoring device according to claim 1,
A nose view camera that is attached to the front portion of the vehicle among the imaging device and captures a field of view in the vehicle width direction as a side image,
The opposing object recognition means includes
A side image feature point extracting means for detecting a side feature point in the side image and calculating a motion vector of the detected feature point;
Correction feature point creating means for creating a correction feature point by subtracting the yaw rate from the flow of the side feature points in the side image;
Moving object detection means for detecting an object having a vector in a direction approaching the host vehicle in the side image from the motion vector of the correction feature point as an approaching moving object;
Feature point tracking means for tracking the corrected feature point of the detected approaching moving object;
Passing time calculation means for obtaining a time for the approaching moving object to pass the front of the vehicle from the correction feature point to be tracked.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008241375A JP5083142B2 (en) | 2008-09-19 | 2008-09-19 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008241375A JP5083142B2 (en) | 2008-09-19 | 2008-09-19 | Vehicle periphery monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010073036A true JP2010073036A (en) | 2010-04-02 |
JP5083142B2 JP5083142B2 (en) | 2012-11-28 |
Family
ID=42204731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008241375A Expired - Fee Related JP5083142B2 (en) | 2008-09-19 | 2008-09-19 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5083142B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015141155A (en) * | 2014-01-30 | 2015-08-03 | パイオニア株式会社 | virtual image display device, control method, program, and storage medium |
EP2722814A3 (en) * | 2012-10-18 | 2015-10-28 | Fujitsu Limited | Image processing device and image processing method |
JP2016051994A (en) * | 2014-08-29 | 2016-04-11 | トヨタ自動車株式会社 | Approaching-object detecting device for vehicle |
JP2019174892A (en) * | 2018-03-27 | 2019-10-10 | クラリオン株式会社 | Resting three-dimensional object detection device and resting three-dimensional object detection method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160075135A (en) * | 2014-12-19 | 2016-06-29 | 현대모비스 주식회사 | Vehicle System for Detecting Objects and Detecting Method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002374521A (en) * | 2001-06-13 | 2002-12-26 | Mitsubishi Heavy Ind Ltd | Method and device for monitoring mobile object |
JP2005276057A (en) * | 2004-03-26 | 2005-10-06 | Mitsubishi Motors Corp | Nose view monitoring device |
JP2006253932A (en) * | 2005-03-09 | 2006-09-21 | Mitsubishi Motors Corp | Nose-view system |
JP2008219063A (en) * | 2007-02-28 | 2008-09-18 | Sanyo Electric Co Ltd | Apparatus and method for monitoring vehicle's surrounding |
-
2008
- 2008-09-19 JP JP2008241375A patent/JP5083142B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002374521A (en) * | 2001-06-13 | 2002-12-26 | Mitsubishi Heavy Ind Ltd | Method and device for monitoring mobile object |
JP2005276057A (en) * | 2004-03-26 | 2005-10-06 | Mitsubishi Motors Corp | Nose view monitoring device |
JP2006253932A (en) * | 2005-03-09 | 2006-09-21 | Mitsubishi Motors Corp | Nose-view system |
JP2008219063A (en) * | 2007-02-28 | 2008-09-18 | Sanyo Electric Co Ltd | Apparatus and method for monitoring vehicle's surrounding |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2722814A3 (en) * | 2012-10-18 | 2015-10-28 | Fujitsu Limited | Image processing device and image processing method |
US9208387B2 (en) | 2012-10-18 | 2015-12-08 | Fujitsu Limited | Image processing device and image processing method to estimate movement of a movable body |
JP2015141155A (en) * | 2014-01-30 | 2015-08-03 | パイオニア株式会社 | virtual image display device, control method, program, and storage medium |
JP2016051994A (en) * | 2014-08-29 | 2016-04-11 | トヨタ自動車株式会社 | Approaching-object detecting device for vehicle |
JP2019174892A (en) * | 2018-03-27 | 2019-10-10 | クラリオン株式会社 | Resting three-dimensional object detection device and resting three-dimensional object detection method |
Also Published As
Publication number | Publication date |
---|---|
JP5083142B2 (en) | 2012-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4657765B2 (en) | Nose view system | |
US8933797B2 (en) | Video-based warning system for a vehicle | |
JP4412380B2 (en) | Driving support device, driving support method, and computer program | |
JP5503728B2 (en) | Vehicle periphery monitoring device | |
JP5099451B2 (en) | Vehicle periphery confirmation device | |
KR102062923B1 (en) | Parking assistance system | |
KR101611194B1 (en) | Apparatus and method for peripheral image generation of vehicle | |
JP5704902B2 (en) | Driving support device and driving support method | |
JP2007129560A (en) | Object detector | |
JP2011035777A (en) | Support system for perception of vehicle surroundings | |
US20110001819A1 (en) | Image Processing Apparatus | |
JP5516988B2 (en) | Parking assistance device | |
JP2007221200A (en) | Vehicle periphery monitoring system | |
JP2008222153A (en) | Merging support device | |
JP5083142B2 (en) | Vehicle periphery monitoring device | |
CN106476695A (en) | For visual enhanced system and method | |
JP2009231937A (en) | Surroundings monitoring device for vehicle | |
WO2011013813A1 (en) | In-vehicle device and image processing program | |
JP2012023505A (en) | Driving support device | |
JP5192007B2 (en) | Vehicle periphery monitoring device | |
KR102135900B1 (en) | Apparatus and Method for Assisting Parking | |
JP2007251880A (en) | On-vehicle image display device, and method of compositing images | |
JP2009246808A (en) | Surrounding monitoring device for vehicle | |
KR101849326B1 (en) | Camera system for vehicle | |
JP2012256159A (en) | Approaching object detecting device and method for detecting approaching object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120522 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120723 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120807 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120820 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5083142 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150914 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |