JP2010073036A - Vehicle surroundings monitoring device - Google Patents

Vehicle surroundings monitoring device Download PDF

Info

Publication number
JP2010073036A
JP2010073036A JP2008241375A JP2008241375A JP2010073036A JP 2010073036 A JP2010073036 A JP 2010073036A JP 2008241375 A JP2008241375 A JP 2008241375A JP 2008241375 A JP2008241375 A JP 2008241375A JP 2010073036 A JP2010073036 A JP 2010073036A
Authority
JP
Japan
Prior art keywords
image
feature point
vehicle
moving object
yaw rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008241375A
Other languages
Japanese (ja)
Other versions
JP5083142B2 (en
Inventor
Shigeya Sasane
成哉 笹根
Keisuke Kaminan
恵資 上南
Takashi Shimizu
貴士 清水
Taku Okaya
拓 岡谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP2008241375A priority Critical patent/JP5083142B2/en
Publication of JP2010073036A publication Critical patent/JP2010073036A/en
Application granted granted Critical
Publication of JP5083142B2 publication Critical patent/JP5083142B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle surroundings monitoring device for simplifying calculation of optical flow in images on the right or left sides captured when a vehicle turns to the right or left, and facilitating image processing for recognition of a moving object. <P>SOLUTION: The vehicle surroundings monitoring device includes: a vehicle periphery image generating means 2 for generating a vehicle periphery image Gf which is a bird's eye view seen from a virtual view point Bp above a vehicle based on a side image Gs which is captured by a plurality of imaging units 1 which are arranged in different places from each other in the vehicle C; a feature point extracting means 3 for extracting a feature point P in the vehicle periphery image and calculating the motion vector of the feature point; a yaw rate calculating means 4 for calculating a yaw rate ω for the vehicle from the vector of movement for the feature point; a monitor 5 which displays the side image on a screen; and a facing object recognition means 6 for recognizing a facing object in the monitor image based on a correction feature point Q' which is obtained by reducing the yaw rate from the flow in the feature point Q that is extracted from the side image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両側方を撮像したノーズビュー画像をモニタの画面に側方画像として表示する車両用周辺監視装置、特に、必要時にのみ表示を行える車両用周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that displays a nose view image obtained by imaging the side of a vehicle as a side image on a monitor screen, and more particularly to a vehicle periphery monitoring device that can display only when necessary.

車両が道幅の狭い道路を走行中に交差点に進入した場合、運転席からは交差道路方向である左右側方域の見通しが悪いことが多い。そこで、車両が交差点に進入する際に、安全確認のため、車両の前部に組み込んだカメラ(ノーズビューカメラ)により車両前位置で左右側方領域の情景を撮像し、その左右側方画像を車両の運転席に設けたモニタに並列表示する車両用周辺監視装置が知られている。   When a vehicle enters an intersection while traveling on a narrow road, the left and right side areas, which are the direction of the intersection road, often have poor visibility from the driver's seat. Therefore, when the vehicle enters the intersection, for safety confirmation, a camera (nose view camera) built in the front of the vehicle is used to capture a scene in the left and right side area at the front position of the vehicle, and the left and right side images are captured. 2. Description of the Related Art A vehicle periphery monitoring device that displays in parallel on a monitor provided in a driver's seat of a vehicle is known.

例えば、特許文献1に開示されるノーズビューモニタ装置は、左右側方画像を車両の運転席に設けたモニタにて表示すると共に、側方画像より抽出した特徴点に対してオプティカルフローを計算する。ここでは、左右側方画像中における特徴点から、接近方向のベクトルをもつものだけを接近特徴点として選択し、これにより車両への接近物体を検出し、乗員に接近物体情報を報知する技術が開示される。
或いは、距離センサとカメラとを組み合わせて移動物体までの距離を計測する車両用カメラ装置も知られている(例えば、特許文献2を参照)。
For example, the nose view monitor device disclosed in Patent Document 1 displays the left and right side images on a monitor provided in the driver's seat of the vehicle, and calculates the optical flow for the feature points extracted from the side images. . Here, there is a technology for selecting only those having a vector in the approach direction from the feature points in the left and right side images as approach feature points, thereby detecting an approaching object to the vehicle and notifying the occupant of the approaching object information. Disclosed.
Or the camera apparatus for vehicles which measures the distance to a moving object combining a distance sensor and a camera is also known (for example, refer patent document 2).

更に、特許文献3には、自車両の周囲の映像を撮影手段で撮影し、撮影された映像を元に、自車両を俯瞰した画像を生成し、生成された画像上に、運転操作補助情報として、自車両の前方障害物に対する接触防止用の逆L字型ガイドと、自車両の駐車予定位置を示す駐車予定位置ガイドを表示手段に重畳して表示させる運転支援装置が開示される。この装置により、駐車操作のための初期位置の決定を実際の運転操作を通じて行うようにし、自車両の左前方に停車中の車両や障害物と、自車両との接触確認を駐車操作の事前におこなうようにした技術が開示される。   Further, in Patent Document 3, a video around the host vehicle is shot by a shooting unit, an image overlooking the host vehicle is generated based on the shot video, and driving operation assistance information is generated on the generated image. As an example, there is disclosed a driving support device that displays an inverted L-shaped guide for preventing contact with a front obstacle of the host vehicle and a planned parking position guide indicating a planned parking position of the host vehicle superimposed on a display unit. With this device, the initial position for parking operation is determined through actual driving operation, and contact confirmation between the vehicle and obstacles parked at the left front of the host vehicle and the host vehicle is performed in advance of the parking operation. Techniques for doing so are disclosed.

更に、特許文献3には、車両に搭載されるリアビューカメラの撮像画像を、仮想上視点位置から下を見下ろした画像に視点変換し、この視点変換画像を画面に表示するとき、車両後部の存在範囲を警告する警告線をこの変換画像に重ねて表示する車載カメラの撮像画像表示装置が開示される。この装置により、リアビューカメラの撮像画像を視点変換した画像を画面に表示して、自車両存在範囲を運転者に警告するようにした技術が開示される。   Furthermore, Patent Document 3 discloses that when a captured image of a rear view camera mounted on a vehicle is converted into an image looking down from a virtual upper viewpoint position, and when this viewpoint converted image is displayed on the screen, the presence of the rear part of the vehicle A captured image display device of an in-vehicle camera that displays a warning line that warns the range over the converted image is disclosed. With this device, a technique is disclosed in which an image obtained by converting the viewpoint of a captured image of a rear view camera is displayed on a screen to warn the driver of the existence range of the host vehicle.

更に、特許文献4には、自車両の周囲の映像を撮影手段で撮影し、撮影された映像を元に、自車両を俯瞰した画像を生成し、生成された画像上に、運転操作補助情報として、自車両の前方障害物に対する接触防止用の逆L字型ガイドと、自車両の駐車予定位置を示す駐車予定位置ガイドを表示手段に重畳して表示させる運転支援装置が開示される。この装置により、駐車操作のための初期位置の決定を実際の運転操作を通じて行うことができる。また、自車両の左前方に停車中の車両や障害物と、自車両との接触確認を駐車操作の事前におこなうようにした技術が開示される。   Further, in Patent Document 4, a video around the host vehicle is shot by a shooting unit, an image overlooking the host vehicle is generated based on the shot video, and driving operation assistance information is generated on the generated image. As an example, there is disclosed a driving support device that displays an inverted L-shaped guide for preventing contact with a front obstacle of the host vehicle and a planned parking position guide indicating a planned parking position of the host vehicle superimposed on a display unit. With this device, the initial position for the parking operation can be determined through the actual driving operation. In addition, a technique is disclosed in which contact confirmation between a vehicle or an obstacle stopped at the front left of the host vehicle and the host vehicle is performed in advance of a parking operation.

特開2005−276056号公報JP 2005-276056 A 特開2001−39248号公報JP 2001-39248 A 特開2002−316602号公報JP 2002-316602 A 特開2006−027334号公報JP 2006-027334 A

このように従来の車両用周辺監視装置では、特許文献2乃至4等に提案されているように、側方画像を車両の運転席に設けたモニタにて表示すると共に、運転者が走行安全性を容易に確保できるように、その側方画像中より特徴点を抽出し、特徴点のオプティカルフローに応じて移動物体をより容易に認識できるような画像処理を行っている。   As described above, in the conventional vehicle periphery monitoring device, as proposed in Patent Documents 2 to 4 and the like, the side image is displayed on the monitor provided in the driver's seat of the vehicle, and the driver can improve the driving safety. Therefore, image processing is performed so that a feature point is extracted from the side image and a moving object can be recognized more easily according to the optical flow of the feature point.

ところで、車両前位置に設置され、側方領域の情景を撮像するカメラ(ノーズビューカメラ)は、車両の直進時や停車時には、図13(a)のように左右の側方画像Pl、Prにおける対向車両の側方に向かう特徴点aの速度ベクトルが車両速度に応じた値となる。しかし、車両の左右旋回時には、図13(b)のように、左右の側方画像Pl’、Pr’は互いに異なる速度変位の影響を受ける。このため、側方画像Pl’、Pr’の特徴点a’のオプティカルフローの演算が複雑化する。即ち、自車両がヨー回転ωnしていると、左右の側方画像Pl’、Pr’に自車両のヨー回転ωnの動きが重なり、画像処理ロジックを難しくしている。この場合、画像上の動きだけでは解決できないため、複雑な処理を必要とし、計算コストの増大を招くこととなり、ECUへの搭載を難しくしており、改善が望まれている。   By the way, a camera (nose view camera) that is installed at the front position of the vehicle and captures a scene in the side area is used in the left and right side images Pl and Pr as shown in FIG. The speed vector of the feature point a toward the side of the oncoming vehicle becomes a value corresponding to the vehicle speed. However, when the vehicle turns left and right, as shown in FIG. 13B, the left and right side images Pl 'and Pr' are affected by different velocity displacements. For this reason, the calculation of the optical flow of the feature point a ′ of the side images Pl ′ and Pr ′ is complicated. That is, when the host vehicle is rotating at yaw ωn, the left and right side images Pl ′ and Pr ′ overlap with the movement of the host vehicle's yaw rotation ωn, making the image processing logic difficult. In this case, since it cannot be solved only by the motion on the image, complicated processing is required, which leads to an increase in calculation cost, making it difficult to mount on the ECU, and improvement is desired.

なお、このような車両の左右旋回による左右側方画像Pl’、Pr’の速度変位が側方画像Pl’、Pr’の特徴点a’のオプティカルフローの演算を複雑化する点に関し、特許文献1乃至4の各技術では解決策を開示していない。
本発明は以上のような課題に基づきなされたもので、目的とするところは、車両の左右旋回による左右側方画像におけるオプティカルフローの演算を簡素化し、移動物体認識のための画像処理の容易化を図れる車両周辺監視装置を提供することにある。
Note that the speed displacement of the left and right side images Pl ′ and Pr ′ due to such a left and right turn of the vehicle complicates the calculation of the optical flow of the feature point a ′ of the side images Pl ′ and Pr ′. Each of the techniques 1 to 4 does not disclose a solution.
The present invention has been made based on the problems as described above, and the object is to simplify the calculation of optical flow in the left and right side images by turning the vehicle left and right and to facilitate the image processing for moving object recognition. It is in providing the vehicle periphery monitoring apparatus which can plan.

本願請求項1に係る発明は、自車両の互いに異なる場所に設置された複数の撮像装置によって撮影された側方画像をもとに、前記自車両の上方の仮想視点から見た俯瞰画像である車両周辺画像を生成する車両周辺画像生成手段と、前記車両周辺画像中より特徴点を抽出すると共に同特徴点の動きベクトルを計算する特徴点抽出手段と、前記特徴点の動きベクトルから前記自車両のヨーレイトを算出するヨーレイト算出手段と、前記側方画像をモニタに表示する画像表示制御手段と、前記側方画像中より抽出した側方特徴点のフローより前記ヨーレイト分を減じることで得られた補正特徴点に基づき前記モニタの画像内の対向物体に対する認識処理を行う対向物体認識手段と、を具備したことを特徴とする。   The invention according to claim 1 of the present application is a bird's-eye view image viewed from a virtual viewpoint above the host vehicle, based on side images taken by a plurality of imaging devices installed at different locations of the host vehicle. Vehicle surrounding image generating means for generating a vehicle surrounding image; feature point extracting means for extracting a feature point from the vehicle surrounding image and calculating a motion vector of the feature point; and the host vehicle from the motion vector of the feature point Obtained by subtracting the yaw rate from the flow of the side feature points extracted from the side image, the image display control means for displaying the side image on the monitor, and the yaw rate calculation means for calculating the yaw rate And opposed object recognition means for performing recognition processing on the opposed object in the image of the monitor based on the corrected feature point.

本願請求項2に係る発明は、請求項1に記載の車両周辺監視装置において、前記撮像装置のうち車両の前部に取り付けられて車幅方向の視界を側方画像として撮像するノーズビューカメラを備え、前記対向物体認識手段は、前記側方画像中の側方特徴点を検出すると共に検出した側方特徴点の動きベクトルを計算する側方画像特徴点抽出手段と、前記側方画像中の側方特徴点のフローより前記ヨーレイト分を減じることで補正特徴点を作成する補正特徴点作成手段と、前記補正特徴点の動きベクトルから前記側方画像中の前記自車両に接近してくる方向のベクトルを有する物体を接近移動物体として検出する移動物体検出手段と、前記接近移動物体の前記側方画像中での画像領域を設定する物体画像領域設定手段と、を備え、前記画像表示制御手段は前記接近移動物体の画像領域を前記側方画像中に強調表示する、ことを特徴とする。   The invention according to claim 2 of the present application is the vehicle periphery monitoring device according to claim 1, wherein a nose view camera attached to a front portion of the vehicle among the imaging devices to capture the field of view in the vehicle width direction as a side image. The opposing object recognition means detects a side feature point in the side image and calculates a motion vector of the detected side feature point; and a side image feature point extraction means for calculating the motion vector of the detected side feature point; Correction feature point creation means for creating a correction feature point by subtracting the yaw rate from the flow of the side feature point, and a direction approaching the host vehicle in the side image from the motion vector of the correction feature point Moving object detecting means for detecting an object having the vector of the approaching moving object, and object image area setting means for setting an image area in the side image of the approaching moving object, and the image display control. It means for highlighting an image area of the approaching moving object in the side image, and wherein the.

本願請求項3に係る発明は、請求項1に記載の車両周辺監視装置において、前記撮像装置のうち車両の前部に取り付けられて車幅方向の視界を側方画像として撮像するノーズビューカメラを備え、前記対向物体認識手段は、前記側方画像中の特徴点を検出すると共に検出した特徴点の動きベクトルを計算する側方画像特徴点抽出手段と、前記側方画像中の特徴点のフローより前記ヨーレイト分を減じることで補正特徴点を作成する補正特徴点作成手段と、前記補正特徴点の動きベクトルから前記側方画像中の前記自車両に接近してくる方向のベクトルを有する物体を接近移動物体として検出する移動物体検出手段と、前記検出された接近移動物体の補正特徴点を追跡する特徴点追跡手段と、前記追跡する補正特徴点から前記接近移動物体が該車両の正面を通過する時間を求める通過時刻計算手段とを具備したことを特徴としている。   The invention according to claim 3 of the present application is the vehicle periphery monitoring device according to claim 1, wherein a nose view camera attached to a front portion of the vehicle among the imaging devices to capture the field of view in the vehicle width direction as a side image. The opposing object recognizing unit detects a feature point in the side image and calculates a motion vector of the detected feature point; and a flow of the feature point in the side image. Correction feature point creating means for creating a correction feature point by further reducing the yaw rate, and an object having a vector in a direction approaching the host vehicle in the side image from a motion vector of the correction feature point Moving object detection means for detecting as an approaching moving object, feature point tracking means for tracking the corrected feature point of the detected approaching moving object, and the approaching moving object from the tracking correction feature point It is characterized by comprising a passage time calculating means for calculating a time through the front of the both.

請求項1の発明によれば、自車両周囲の画像をもとに俯瞰画像である車両周辺画像を生成し、同車両周辺画像中の位置特定可能な特徴点の動きベクトルから車両のヨーレイトを算出し、その上で、側方画像中で算出した特徴点のフローよりヨーレイト分を減じることで得られた補正特徴点に基づき、モニタ画像内の対向物体に対する認識処理を行うので、即ち、自車両のヨー回転の影響をクリアした補正特徴点で対向物体に対する認識処理ができるので、車載画像処理ロジックが比較的単純に成り、計算コストが低減され、ECUへの搭載が容易となる上に、安全運転を容易化できる。   According to the first aspect of the present invention, a vehicle surrounding image that is a bird's-eye view image is generated based on an image around the host vehicle, and a yaw rate of the vehicle is calculated from a motion vector of a feature point that can be located in the vehicle surrounding image. On the basis of the corrected feature point obtained by subtracting the yaw rate from the feature point flow calculated in the side image, recognition processing for the opposite object in the monitor image is performed. Because it is possible to perform recognition processing for opposing objects with correction feature points that have cleared the influence of yaw rotation, the in-vehicle image processing logic is relatively simple, the calculation cost is reduced, and it is easy to install in the ECU. Driving can be facilitated.

請求項2の発明によれば、車両周辺画像から車両のヨーレイトを算出し、その上で、交差点等での自車両の左右旋回による側方画像のフローのずれがあっても、自車両のヨー回転の影響をクリアした補正特徴点を用いて、補正特徴点のオプティカルフローを計算する。このため、車載画像処理のロジックが単純になり、旋回時でも容易に補正側方画像中の側方特徴点のオプティカルフローを計算でき、動きベクトルの等しい特徴点のまとまりを1つの接近移動物体として認識し、接近移動物体の検出が確実に容易に行え、旋回時でも計算コストが低減され、ECUへの搭載が容易化される。   According to the second aspect of the present invention, the yaw rate of the vehicle is calculated from the vehicle periphery image, and the yaw rate of the host vehicle can be detected even if there is a deviation in the flow of the side image due to the left or right turn of the host vehicle at an intersection or the like. The optical flow of the corrected feature point is calculated using the corrected feature point that has cleared the influence of rotation. For this reason, the logic of the in-vehicle image processing becomes simple, the optical flow of the side feature points in the corrected side image can be easily calculated even when turning, and a set of feature points having the same motion vector is regarded as one approaching moving object. Recognition and detection of an approaching moving object can be performed easily and reliably, the calculation cost can be reduced even when turning, and the mounting on the ECU is facilitated.

請求項3の発明によれば、車両周辺画像から車両のヨーレイトを算出し、その上で、交差点等での自車両の左右旋回による側方画像のフローのずれがあっても、自車両のヨー回転の影響をクリアした補正特徴点を用いて、補正特徴点のオプティカルフローを計算して接近移動物体の検出をすると共に、この計算によって求めた補正特徴点から接近移動物体が車両の正面を通過する通過予想時間を算出するので、移動物体が車両の前方を通過する時刻を確実に予想でき、旋回時でも計算コストが低減され、ECUへの搭載が容易化される。   According to the third aspect of the present invention, the yaw rate of the vehicle is calculated from the vehicle periphery image, and the yaw rate of the host vehicle can be detected even if there is a deviation in the flow of the side image due to the left or right turn of the host vehicle at an intersection or the like. Using the corrected feature point that cleared the influence of rotation, the optical flow of the corrected feature point is calculated to detect the approaching moving object, and the approaching moving object passes the front of the vehicle from the corrected feature point obtained by this calculation. Since the estimated passing time is calculated, it is possible to reliably predict the time when the moving object passes the front of the vehicle, the calculation cost is reduced even when turning, and the mounting on the ECU is facilitated.

以下、本発明の一実施形態に係る車両用周辺監視装置について説明する。
図1、2はこの実施形態に係る車両用周辺監視装置の要部概略構成図及び機能ブロック図を示した。
この車両用周辺監視装置は、車両C上での互いに異なる場所に設置され車両周囲の側方画像Gs(Gs1、Gs2等)が撮影される複数の撮像装置1n、1s、1r(以後総称する場合は1と記す)と、車両周囲の側方画像Gsをもとに自車両Cの上方の仮想視点Bp(不図示)から見た俯瞰画像である車両周辺画像Gf(図6(a)、(b)参照)を生成する車両周辺画像生成手段2と、車両周辺画像中の特徴点P(P1、P2、P3・・:図6(a)、(b)参照)の動きベクトルを計算する特徴点抽出手段3と、車両Cのヨーレイトωを算出するヨーレイト算出手段4と、側方画像Gs(Gs1、Gs2)を画面に表示可能なモニタ5と、側方画像中の対向物体認識処理を行う対向物体認識手段6とを備える。
Hereinafter, a vehicle periphery monitoring device according to an embodiment of the present invention will be described.
1 and 2 show a schematic configuration diagram and a functional block diagram of a main part of a vehicle periphery monitoring device according to this embodiment.
This vehicle periphery monitoring device is installed at different locations on the vehicle C, and is provided with a plurality of imaging devices 1n, 1s, 1r (hereinafter collectively referred to as side images Gs (Gs1, Gs2, etc.) around the vehicle). Is a bird's-eye view image viewed from a virtual viewpoint Bp (not shown) above the host vehicle C based on the side image Gs around the vehicle (see FIGS. 6A and 6B). b) reference) to generate a vehicle surrounding image generation means 2 and a feature for calculating a motion vector of feature points P (P1, P2, P3,...: see FIGS. 6A and 6B) in the vehicle surrounding image. The point extracting means 3, the yaw rate calculating means 4 for calculating the yaw rate ω of the vehicle C, the monitor 5 capable of displaying the side images Gs (Gs1, Gs2) on the screen, and the opposing object recognition process in the side images are performed. And an opposing object recognition means 6.

ここで、車両Cには画像制御装置ECUが制御手段として搭載され、この画像制御装置ECUはマイクロコンピュータを主体とする電子制御ユニットにより構成される。なお、画像制御装置ECUには車速Vcを入力する車速センサ11、変速段情報Rv、Dを入力するインヒビタスイッチ12、メインスイッチ21、モニタ5が接続される。しかも、画像制御装置ECUは画像表示制御手段(モニタ制御手段)7の機能を基本的に備えると共に、ナビゲーション装置30とモニタ5を兼用するよう接続される(図2参照)。
図2に示すように、画像制御装置ECUは、上述の車両周辺画像生成手段2と特徴点抽出手段3とヨーレイト算出手段4とモニタ5の画像表示制御手段(モニタ制御手段)7と対向物体認識手段6との各制御機能を備え、図3に示すアルゴリズムで、俯瞰映像である車両周辺画像Gfに対する処理とノーズビューカメラ1nからの左右の前側方画像Gs1、Gs2に対する処理のための制御を行う。
Here, an image control device ECU is mounted as a control means on the vehicle C, and the image control device ECU is constituted by an electronic control unit mainly including a microcomputer. Note that a vehicle speed sensor 11 for inputting a vehicle speed Vc, an inhibitor switch 12 for inputting gear speed information Rv, D, a main switch 21, and a monitor 5 are connected to the image control device ECU. In addition, the image control device ECU basically has the function of the image display control means (monitor control means) 7 and is connected so that the navigation device 30 and the monitor 5 can be used together (see FIG. 2).
As shown in FIG. 2, the image control apparatus ECU includes the vehicle surrounding image generation means 2, the feature point extraction means 3, the yaw rate calculation means 4, the image display control means (monitor control means) 7 of the monitor 5, and the opposed object recognition. Each control function with the means 6 is provided, and the algorithm shown in FIG. 3 performs control for processing for the vehicle peripheral image Gf that is a bird's-eye view video and processing for the left and right front side images Gs1 and Gs2 from the nose view camera 1n. .

図1、2に示すように、撮像装置1は車両Cの互いに異なる場所に複数設置され、車両Cの前端部に突出し状態で取付けられたノーズビューカメラ1nと、左右の車体側部外壁に取付けられて車両の左右側部画像を撮像する左右側部カメラ1sと、車両Cの後部の車体外壁に取付けられて車両の後方画像を撮像するリアビューカメラ1rとを備える。
ここでノーズビューカメラ1nは横向きカメラであり、図1に示すように、車両の前部の左右側方をそれぞれ撮像して左右の前側方画像Gs1、Gs2を取り込む機能を備える。なお、画像表示制御手段(モニタ制御手段)7は、図4に示すように、モニタ5の画面を左右2分割し、左右の前側方画像Gs1、Gs2をそれぞれ並列表示する機能を備え、ナビゲーション装置30の駆動時にはナビ画像表示に切換わる。
As shown in FIGS. 1 and 2, a plurality of image pickup apparatuses 1 are installed at different locations on the vehicle C, mounted on the front end of the vehicle C in a protruding state, and mounted on the left and right vehicle body side outer walls. A left and right side camera 1s that captures left and right side images of the vehicle, and a rear view camera 1r that is attached to the vehicle body outer wall at the rear of the vehicle C and captures a rear image of the vehicle.
Here, the nose view camera 1n is a lateral camera, and has a function of capturing the left and right front side images Gs1 and Gs2 by imaging the left and right sides of the front part of the vehicle as shown in FIG. As shown in FIG. 4, the image display control means (monitor control means) 7 has a function of dividing the screen of the monitor 5 into left and right parts and displaying the left and right front side images Gs1 and Gs2 in parallel, respectively. When driving 30, the navigation image display is switched.

次に、画像制御装置ECUが行う俯瞰映像に対する処理を説明する。
画像制御装置ECUの車両周辺画像生成手段2は、自車両Cの互いに異なる場所に設置されノーズビューカメラ1nからの左右前側方画像Gs1、Gs2と、左右側部カメラ1sからの左右側部画像と、リアビューカメラ1rからの後方画像とをもとに、自車両の上方の仮想視点Bp(不図示)から見た俯瞰画像である車両周辺画像Gf(図6(a)、(b)にはモニタ5の画面に表示される車両周辺画像の一例を表示した)を生成する。
Next, processing for the overhead view image performed by the image control apparatus ECU will be described.
The vehicle periphery image generating means 2 of the image control device ECU is installed at different locations of the host vehicle C, and the left and right front side images Gs1, Gs2 from the nose view camera 1n, and the left and right side images from the left and right side cameras 1s Based on the rear image from the rear view camera 1r, the vehicle peripheral image Gf (see FIGS. 6 (a) and 6 (b)) is an overhead image viewed from a virtual viewpoint Bp (not shown) above the host vehicle. 5 shows an example of a vehicle periphery image displayed on the screen of No. 5).

特徴点抽出手段3は俯瞰画像である車両周辺画像Gf(図4参照)をもとに、図6(a)、(b)に示す特徴点P(P1.P2.P3)の抽出を行う。具体的には、車両周辺画像Gf中の、例えば画像信号レベル(輝度)や色相が、その周辺部と大きく異なるような位置特定可能な特徴点Pを抽出する。
この特徴点抽出アルゴリズムで用いる画像I、近傍領域D(p)、画素pとは、図8に示す関係を有する。
まず、画像Iで、x、y各方向に対する偏微分画像∂I/∂x、∂I/∂yを求める。次いで、画像Iで以下の式(a)のような画素pに対する空間勾配行列G(p)を全画素で求める。
The feature point extraction means 3 extracts feature points P (P1.P2.P3) shown in FIGS. 6A and 6B based on the vehicle periphery image Gf (see FIG. 4) which is an overhead image. Specifically, a feature point P whose position can be specified is extracted from the vehicle peripheral image Gf, for example, such that the image signal level (luminance) and hue are significantly different from the peripheral portion.
The image I, neighborhood region D (p), and pixel p used in this feature point extraction algorithm have the relationship shown in FIG.
First, in the image I, partial differential images ∂I / ∂x and に 対 す る I / ∂y with respect to the x and y directions are obtained. Next, a spatial gradient matrix G (p) with respect to the pixel p as shown in the following expression (a) in the image I is obtained for all pixels.

Figure 2010073036
Figure 2010073036

次いで、空間勾配行列G(p)に対する固有値λmin(p)、λmax(p)を計算し、特徴を有すると見られる所定の値を持つ、位置特定可能な点を抽出して、特徴点Pとする。なお、特徴点Pの選択の手法は、特開2004−198211号公報に開示される手法を用いても良い。
次いで、特徴点追跡処理3−1(図2参照)がなされる。ここでは抽出した位置特定可能な特徴点Pに対してオプティカルフローを計算し、時間経過による特徴点の位置の変化を調整する。オプティカルフロー計算は多重解像度法を用いている。
Next, eigenvalues λmin (p) and λmax (p) for the spatial gradient matrix G (p) are calculated, and a position-identifiable point having a predetermined value considered to have a feature is extracted. To do. As a method for selecting the feature point P, a method disclosed in Japanese Patent Application Laid-Open No. 2004-198211 may be used.
Next, a feature point tracking process 3-1 (see FIG. 2) is performed. Here, an optical flow is calculated for the extracted feature point P whose position can be specified, and the change in the position of the feature point over time is adjusted. The optical flow calculation uses a multi-resolution method.

ここで多重解像度法とは、一枚の画像に対して解像度の異なる何枚もの画像を階層的に準備し、粗い解像度の画像から順番にパターンマッチングを行い、オプティカルフローを求め、最終的には解像度の細かい画像でのオプティカルフローを求める手法であり、特開2004−56763号公報や、前述した特許文献1等に詳しく紹介されるとおりのものである。   Here, the multi-resolution method is to hierarchically prepare multiple images with different resolutions for one image, perform pattern matching in order from the image with coarse resolution, find the optical flow, and finally This is a technique for obtaining an optical flow in an image with a fine resolution, as described in detail in Japanese Patent Application Laid-Open No. 2004-56763 and the above-mentioned Patent Document 1.

言い換えると、図6(a)、(b)、図7に示すように、基本的には所定の周期で撮像される連続した俯瞰画像である各車両周辺画像Gf(ここではGfa、Gfbの総称)間における互いに共通する特徴点P(P1、P2、P3・・)の座標変化を検出することで、その特徴点Pが移動しているか否か判断する。更に、座標が変化している場合には、その移動(座標変化)の向きとその大きさがどの程度であるかをそれぞれ計算する。即ち、特徴点Pの移動方向と移動距離とをフローベクトル(図7参照)として算出することによってなされる。また、撮像した画像内の全領域においてフローベクトルが算出されて、画像内の移動物体の位置、移動方向等の情報を認識できるようになっている。
例えば、図6(a)、(b)に示すように、車両Cが駐車区画域Eに向かう場合において、車両周辺画像Gf中より駐車区画域Eを囲む互いに直行する3つの直線、即ち、前しきい線L0とこれと交差する左右の駐車区画線L1、L2及び第3の駐車区画線L3を検出する。これに基づき前しきい線L0と駐車区画線L1、L2及び第3の駐車区画線L3とが交差した3つの点を特徴点P1、P2、P3(説明上代表する3点を用いる)として評価し、決定することとなる。なお、この3つの点を特徴点P1、P2、P3は一例で、車両周辺画像Gf中より複数抽出される。
In other words, as shown in FIGS. 6A, 6 </ b> B, and 7, each vehicle surrounding image Gf (herein, Gfa, Gfb is a generic name) that is a continuous overhead image captured in a predetermined cycle. ) Between the common feature points P (P1, P2, P3,...) To detect whether the feature point P is moving. Further, when the coordinates are changed, the direction of the movement (coordinate change) and the degree of the magnitude are respectively calculated. That is, it is done by calculating the moving direction and moving distance of the feature point P as a flow vector (see FIG. 7). In addition, a flow vector is calculated in all areas in the captured image, and information such as the position and moving direction of the moving object in the image can be recognized.
For example, as shown in FIGS. 6A and 6B, when the vehicle C heads for the parking zone E, three straight lines surrounding the parking zone E from the vehicle peripheral image Gf, that is, the front Threshold line L0 and left and right parking partition lines L1, L2 and third parking partition line L3 are detected. Based on this, three points where the front threshold line L0 intersects with the parking lot lines L1, L2 and the third parking lot line L3 are evaluated as feature points P1, P2, P3 (using three representative points for explanation). And will be determined. Note that the feature points P1, P2, and P3 are an example of these three points and are extracted from the vehicle peripheral image Gf.

次に、車両Cのヨーレイトωを算出するヨーレイト算出手段4を説明する。ここでは、特徴点の動きベクトルであるオプティカルフローから自車両のヨーレイトを算出する。
例えば、図6(a)、(b)に示す車両周辺画像Gf(Gfa、Gfb)における特徴点P1、P2、P3を用いて、車両Cのヨーレイトωを算出する。
この場合、図7に示すように、1の特徴点P1(ここで特徴点番号をiとする)の車両周辺画像Gfにおける画素[x、y]での動き[ub、vb]には以下の関係があり、オプティカルフローからヨーレートωは式(b)より計算可能である。
Next, the yaw rate calculating means 4 for calculating the yaw rate ω of the vehicle C will be described. Here, the yaw rate of the host vehicle is calculated from the optical flow that is the motion vector of the feature point.
For example, the yaw rate ω of the vehicle C is calculated using the feature points P1, P2, and P3 in the vehicle peripheral image Gf (Gfa, Gfb) shown in FIGS. 6 (a) and 6 (b).
In this case, as shown in FIG. 7, the motion [ub, vb] at the pixel [x, y] in the vehicle peripheral image Gf of one feature point P1 (where the feature point number is i) is as follows. The yaw rate ω can be calculated from the optical flow according to the equation (b).

[ub,vb]=[ωy,−ωx−Vc]・・・・・(b)
言い換えると、俯瞰映像である車両周辺画像Gf(Gfa、Gfb)に対する特徴点抽出および特徴点追跡結果より、特徴点番号iの特徴点が、時刻tからt+Δtの間に、車両周辺画像Gf上で、
(b)(t)=[x (b)(t),y (b)(t)]
から x (b)(t+Δt)=[x (b)(t+Δt),y (b)(t+Δt)]
に移動したとする(たとえば、図6(a)、(b)参照)。
[Ub, vb] = [ωy, −ωx−Vc] (b)
In other words, from the result of feature point extraction and feature point tracking on the vehicle periphery image Gf (Gfa, Gfb), which is a bird's-eye view video, the feature point with the feature point number i appears on the vehicle periphery image Gf between time t and t + Δt. ,
x i (b) (t) = [x i (b) (t), y i (b) (t)] T
X i (b) (t + Δt) = [x i (b) (t + Δt), y i (b) (t + Δt)] T
(For example, refer to FIGS. 6A and 6B).

このとき、特徴点番号iの特徴点Pの俯瞰映像である車両周辺画像Gf上の速度ベクトル:
(b)(t)=[u (b)(t),v (b)(t)]
は次のように計算される。
At this time, a speed vector on the vehicle peripheral image Gf which is an overhead video of the feature point P of the feature point number i:
v i (b) (t) = [u i (b) (t), v i (b) (t)] T
Is calculated as follows:

Figure 2010073036
Figure 2010073036

特徴点iは車両周辺画像Gfにおいて、路面上にあり、自車両がヨーレイトω、速度Vで運動しているとすると、以下の関係が成立する。   If the feature point i is on the road surface in the vehicle peripheral image Gf and the host vehicle is moving at the yaw rate ω and the speed V, the following relationship is established.

Figure 2010073036
Figure 2010073036

(2)式からヨーレイトωは特徴点iの車両周辺画像Gf2上の位置のY成分y (b)(t)と、速度ベクトルのX成分u (b)(t)から以下のように求められる。 From equation (2), the yaw rate ω is calculated from the Y component y i (b) (t) at the position of the feature point i on the vehicle peripheral image Gf2 and the X component u i (b) (t) of the velocity vector as follows: Desired.

Figure 2010073036
Figure 2010073036

ここで、^(ω)は推定ヨーレイト、Rは車両周辺画像Gf2上の路面にある特徴点番号の集合、‖●‖は集合の母数である。
なお、以下の式のように、最小二乗法からヨーレイトωを推定しても良い。
Here, ^ (ω) is the estimated yaw rate, R is a set of feature point numbers on the road surface on the vehicle peripheral image Gf2, and ‖ ● ‖ is the parameter of the set.
Note that the yaw rate ω may be estimated from the least square method as in the following equation.

Figure 2010073036
Figure 2010073036

次に、画像制御装置ECUが行う俯瞰映像である左右側方画像Gs1、Gs2(図4,5参照)に対する処理を説明する。
画像制御装置ECUの対向物体認識手段6は、左右のノーズビューカメラ1nからの前部左右側方画像GS1、GS2(図4、図5参照)により、同画像GS1、GS2中の対向物体認識のための画像処理を行う。
ここで、図2に示すように、対向物体認識手段6は、側方画像特徴点抽出手段6aと、補正特徴点作成手段6bと、移動物体検出手段6cと、物体画像領域設定手段6dとして機能する。
Next, processing for the left and right side images Gs1 and Gs2 (see FIGS. 4 and 5), which are overhead images performed by the image control apparatus ECU, will be described.
The opposing object recognition means 6 of the image control device ECU recognizes the opposing object in the images GS1 and GS2 based on the front left and right side images GS1 and GS2 (see FIGS. 4 and 5) from the left and right nose view cameras 1n. Image processing is performed.
Here, as shown in FIG. 2, the opposed object recognition means 6 functions as a side image feature point extraction means 6a, a correction feature point creation means 6b, a moving object detection means 6c, and an object image region setting means 6d. To do.

側方画像特徴点抽出手段6aは左右側方画像GS1、GS2中における複数の側方特徴点Q1、Q2、Q3を検出すると共に検出した特徴点の動きベクトルを計算する(オプティカルフローベクトルの算出)。
具体的には、ノーズビュー映像上の側方特徴点Q1(ここで特徴点番号をiとする)の追跡によって、時刻tにおける特徴点番号jの特徴点に対するノーズビュー映像上の速度ベクトルであるオプティカルフローベクトルを
‘v’ (n)(t)=[u (n)(t),v (n)(t)] として算出する。
The side image feature point extraction means 6a detects a plurality of side feature points Q1, Q2, Q3 in the left and right side images GS1, GS2 and calculates motion vectors of the detected feature points (calculation of optical flow vectors). .
Specifically, it is a velocity vector on the nose view video with respect to the feature point of the feature point number j at time t by tracking the side feature point Q1 (here, the feature point number is i) on the nose view video. The optical flow vector is calculated as 'v' j (n) (t) = [u j (n) (t), v j (n) (t)] T.

このような速度ベクトル‘v’ (n)(t)には、自車両がヨーレイトωを有するとき、ノーズビューカメラに映るノーズビュー映像には、ヨーレイト推定結果^(ω)の影響が加わっている。
そこで、補正特徴点作成手段6bは、ノーズビュー映像(左右側方画像GS1、GS2)における時刻tにおける特徴点番号jの特徴点における、オプティカルフローベクトルである速度ベクトル‘v’ (n)(t)より、以下のようにして、ヨーレイトωの影響をゼロクリアすることができる。
In such a velocity vector 'v' j (n) (t), when the host vehicle has the yaw rate ω, the nose view video reflected in the nose view camera is influenced by the yaw rate estimation result ^ (ω). Yes.
Therefore, the corrected feature point creation means 6b is a velocity vector 'v' j (n) (which is an optical flow vector) at the feature point of the feature point number j at time t in the nose view video (left and right side images GS1, GS2). From t), the influence of the yaw rate ω can be cleared to zero as follows.

Figure 2010073036
Figure 2010073036

このような(5)式で、ヨーレイトω成分をクリアした速度ベクトル‘v’ (n)(t)を用いれば、例えば特許文戴1に開示の処理を行えば、容易に接近物体に含まれる補正特徴点(接近特徴点と称呼する)だけを選択することが可能となる。
更に、移動物体検出手段6cは、オプティカルフローベクトルである速度ベクトル‘v’ (n)(t)のうち左右側方画像GS1、GS2中における車両の進行方向へのベクトル成分を有するオプティカルフローベクトルに基づいて接近物体を検出する。
By using the velocity vector 'v' j (n) (t) that clears the yaw rate ω component in the equation (5), for example, if the process disclosed in Japanese Patent Publication No. 1 is performed, it is easily included in the approaching object. It is possible to select only corrected feature points (referred to as approach feature points).
Further, the moving object detection means 6c is an optical flow vector having a vector component in the traveling direction of the vehicle in the left and right side images GS1, GS2 among the velocity vectors 'v' j (n) (t) which are optical flow vectors. An approaching object is detected based on

更に、物体画像領域設定手段6dは、オプティカルフローベクトルである速度ベクトル‘v’ (n)(t)のうち左右側方画像GS1、GS2中における車両の進行方向へのベクトル成分を有するオプティカルフローベクトルに基づいて接近物体を検出する。即ち、特徴点番号jの特徴点を含む複数の側方特徴点(Q1、Q2、Q3・・・)のまとまりを自車両に接近してくる接近移動物体として検出し、その接近移動物体の左右側方画像GS1、GS2中での画像領域Epを設定する。 Further, the object image region setting means 6d has an optical flow having a vector component in the traveling direction of the vehicle in the left and right side images GS1 and GS2 of the velocity vector 'v' j (n) (t) which is an optical flow vector. An approaching object is detected based on the vector. That is, a group of a plurality of side feature points (Q1, Q2, Q3...) Including a feature point with feature point number j is detected as an approaching moving object approaching the host vehicle, and left and right of the approaching moving object are detected. An image region Ep in the side images GS1 and GS2 is set.

具体的には、図4に示すような、左側方画像GS1(領域)におけるオプティカルフローベクトルのうち右方向のベクトル成分を有するオプティカルフローベクトルbyと、右側方画像GS2(領域)におけるオプティカルフローベクトルのうち左方向のベクトル成分を有するオプティカルフローベクトルcyとに基づいて接近物体を検出することとなる。
画像表示制御手段(モニタ制御手段)7は、図4に示すように、モニタ5の画面を左右2分割し、左右の前側方画像Gs1、Gs2をそれぞれ並列表示すると共に、特に、接近移動物体の画像領域Epをモニタ5の画面における左右側方画像GS1、GS2中に強調表示する(図8参照)。
Specifically, as shown in FIG. 4, the optical flow vector by having a vector component in the right direction among the optical flow vectors in the left side image GS1 (region) and the optical flow vector in the right side image GS2 (region). Of these, the approaching object is detected based on the optical flow vector cy having the vector component in the left direction.
As shown in FIG. 4, the image display control means (monitor control means) 7 divides the screen of the monitor 5 into left and right parts, displays the left and right front side images Gs1 and Gs2 in parallel, and in particular displays an approaching moving object. The image area Ep is highlighted in the left and right side images GS1, GS2 on the screen of the monitor 5 (see FIG. 8).

この場合、接近移動物体の画像領域Epすべて、あるいは、画像領域Epの外郭部分を赤色表示すると共に、照度を一定周期で増減切換え、運転者の認識を容易化する。   In this case, all of the image area Ep of the approaching moving object or the outline portion of the image area Ep is displayed in red, and the illuminance is increased / decreased at a constant period to facilitate the driver's recognition.

次に、図1の車両用周辺監視装置の画像制御装置ECUが行う表示制御処理を図10の画像表示制御ルーチンのフローチャートと共に説明する。
ここで、基本的に画像制御装置ECUはナビゲーション装置30のモニタ5を兼用しており、メインスイッチ21のオンによりステップs1に達する。
Next, a display control process performed by the image control apparatus ECU of the vehicle periphery monitoring apparatus in FIG. 1 will be described together with a flowchart of the image display control routine in FIG.
Here, basically, the image control device ECU also serves as the monitor 5 of the navigation device 30 and reaches step s1 when the main switch 21 is turned on.

ステップs1ではナビゲーション装置30からのナビ画像の表示を行い、ステップs2に進む。ここで車速Vcが徐行速度Vc1、例えば、10Km/H以下か判断し、Noでは定常走行時と見做して、そのまま、ステップs1にリターンする。
一方、徐行速度Vc1以下でステップs3に達すると、ここでは現段がリバース段Rvか判断し、Yesでステップs4に、そうでなく、前進徐行ではステップs5に進む。
リバース段Rvでステップs4に達すると、車両周辺画像生成手段2が作成した、即ち、ノーズビューカメラ1nの左右前側方画像Gs1、Gs2と、左右側部カメラの左右側部画像と、リアビューカメラ1rの後方画像に基づく俯瞰画像である車両周辺画像Gf(図6(a)、(b)参照)をモニタ5の画面にナビ画面に代えて表示処理し、ステップs1にリターンする。
In step s1, a navigation image from the navigation device 30 is displayed, and the process proceeds to step s2. Here, it is determined whether the vehicle speed Vc is equal to or less than the slow speed Vc1, for example, 10 Km / H.
On the other hand, when step s3 is reached at the slow speed Vc1 or less, it is determined here whether the current stage is the reverse stage Rv, and if yes, the process proceeds to step s4. Otherwise, the process proceeds to step s5 in forward slow speed.
When step s4 is reached in the reverse stage Rv, the vehicle peripheral image generating means 2 creates, that is, the left and right front and side images Gs1, Gs2 of the nose view camera 1n, the left and right side images of the left and right side cameras, and the rear view camera 1r. The vehicle surrounding image Gf (see FIGS. 6A and 6B), which is an overhead view image based on the rear image, is displayed on the screen of the monitor 5 instead of the navigation screen, and the process returns to step s1.

これにより、運転者は車両Cの駐車時等の後方移動時に、俯瞰画像である車両周辺画像Gfを用いて、周囲の対向物体との干渉を避けて容易に駐車処理できる。
一方、DレンジやNレンジでステップs5に達すると、ここでは、交差点に接近し徐行する車両が、交差道路Rd1側の対向車両(図4、5中の符号CO参照)を確認する必要があると見做し、モニタに左右前側方画像Gs1、Gs2の表示処理を行う。
次いで、ステップs6で車両周辺画像生成手段2が作成した俯瞰画像である車両周辺画像Gfデータを取り込み、特徴点抽出手段3が車両周辺画像Gf(データ上での処理)をもとに、位置特定可能な特徴点Pの抽出を行う。例えば、図1中の道幅表示線の交差により得られる位置特定可能な特徴点P1h、P2hを抽出する。
As a result, the driver can easily perform parking processing while avoiding interference with surrounding opposing objects using the vehicle peripheral image Gf that is a bird's-eye view image when the vehicle C is moving backward such as when the vehicle C is parked.
On the other hand, when step s5 is reached in the D range or the N range, it is necessary here for the vehicle approaching and slowly approaching the intersection to check the oncoming vehicle on the intersection road Rd1 side (see CO in FIGS. 4 and 5). As a result, the left and right front and side images Gs1 and Gs2 are displayed on the monitor.
Next, in step s6, the vehicle periphery image Gf data, which is an overhead image created by the vehicle periphery image generation means 2, is taken in, and the feature point extraction means 3 specifies the position based on the vehicle periphery image Gf (processing on the data). Possible feature points P are extracted. For example, the feature points P1h and P2h that can be identified by the intersection of the road width display lines in FIG. 1 are extracted.

更に、ステップs7では、特徴点追跡処理301(図2参照)がなされ、抽出した特徴点P(P1h、P2h)に対してオプティカルフローを計算する。次いで、ステップs8ではヨーレイト算出手段4として機能し、特徴点P(P1h、P2h)の動きベクトルであるオプティカルフローから、即ち、車両周辺画像Gf(データ上での処理)における特徴点P(P1h、P2h)を用いて、車両Cの推定ヨーレイト^(ω)を算出する。   Further, in step s7, a feature point tracking process 301 (see FIG. 2) is performed, and an optical flow is calculated for the extracted feature points P (P1h, P2h). Next, in step s8, it functions as the yaw rate calculation means 4, and from the optical flow that is the motion vector of the feature point P (P1h, P2h), that is, the feature point P (P1h, P2h) is used to calculate the estimated yaw rate ^ (ω) of the vehicle C.

次いで、ステップs9に達すると、側方画像特徴点抽出手段6aが左右側方画像GS1、GS2(図4、5参照)中における複数の側方特徴点Q1、Q2、Q3・・を検出すると共に検出した側方特徴点の動きベクトルを計算(オプティカルフローベクトルの算出)する。即ち、オプティカルフローベクトルを
‘v’ (n)(t)=[u (n)(t),v (n)(t)]
として算出する。
Next, when step s9 is reached, the side image feature point extraction means 6a detects a plurality of side feature points Q1, Q2, Q3,... In the left and right side images GS1, GS2 (see FIGS. 4 and 5). The motion vector of the detected side feature point is calculated (optical flow vector is calculated). That is, the optical flow vector is expressed as “v” j (n) (t) = [u j (n) (t), v j (n) (t)] T
Calculate as

このような速度ベクトル‘v’ (n)(t)には、ヨーレイト推定結果^(ω)の影響が加わっている。
そこで、ステップs10に達すると、補正特徴点作成手段6bがヨーレイトωの影響をゼロクリアする処理を上述の(5)式を用いて行う。
このような(5)式で、ヨーレイトω成分をクリアした速度ベクトル‘v’ (n)(t)を用い、移動物体検出手段6cが、オプティカルフローベクトルである速度ベクトル‘v’ (n)(t)のうち、特徴点番号jの特徴点を含む複数の補正特徴点(Q1’、Q2’、Q3’・・・)のまとまりを自車両に接近してくる物体を接近移動物体として検出する。その上で、物体画像領域設定手段6dが接近移動物体の左右側方画像GS1、GS2中での画像領域Ep(図4(a)参照)を設定する。
The velocity vector 'v' j (n) (t) is affected by the yaw rate estimation result ^ (ω).
Accordingly, when step s10 is reached, the correction feature point creation means 6b performs a process of zero-clearing the influence of the yaw rate ω using the above equation (5).
In such a (5), using the yaw rate Clear ω component velocity vector 'v' j (n) ( t), the moving object detection unit 6c is a optical flow vector velocity vector 'v' j (n ) Among (t), an object that approaches a group of a plurality of corrected feature points (Q1 ′, Q2 ′, Q3 ′...) Including the feature point with the feature point number j is set as an approaching moving object. To detect. Then, the object image area setting unit 6d sets an image area Ep (see FIG. 4A) in the left and right side images GS1 and GS2 of the approaching moving object.

次いで、ステップs11に達すると画像表示制御手段7の機能として、接近移動物体の画像領域Epをモニタ5の画面における左右側方画像GS1、GS2中に強調表示処理する(図8参照)。即ち、接近移動物体の画像領域Epを赤色表示すると共に、照度を一定周期で増減切換え、運転者の認識を容易化し、運転者に対向道路の対向車両に対する注意を促し、ステップs1にリターンする。なお、ステップs11での処理に加え、不図示のブザーを駆動して、より運転者の認識を容易化しても良い。   Next, when step s11 is reached, as a function of the image display control means 7, the image area Ep of the approaching moving object is highlighted in the left and right side images GS1, GS2 on the screen of the monitor 5 (see FIG. 8). In other words, the image area Ep of the approaching moving object is displayed in red, and the illuminance is switched between increasing and decreasing at regular intervals, the driver's recognition is facilitated, the driver is alerted to the oncoming vehicle on the oncoming road, and the process returns to step s1. In addition to the processing at step s11, a buzzer (not shown) may be driven to further facilitate the driver's recognition.

このように、図1の車両用周辺監視装置は、自車両C周囲の俯瞰画像である車両周辺画像Gfを生成し、同車両周辺画像Gf中の特徴点Pの動きベクトルから車両のヨーレイトωを算出し、その上で、側方画像GS1、GS2中で算出した側方特徴点Qのフロー(オプティカルフローベクトル‘v’ (n)(t))よりヨーレイトω分を減じることで得られた補正特徴点Q’に基づき、モニタ画像内の対向物体に対する認識処理を行うので、即ち、側方特徴点Qの位置情報より自車両のヨー回転の影響をクリアした補正特徴点(Q1’、Q2’、Q3’・・・)で対向物体に対する認識処理ができる。このため、図1に2点鎖線で示すように、交差点に旋回状態で進入した時でも、車載画像処理ロジックが比較的単純に成り、計算コストが低減され、ECUへの搭載が容易となる上に、安全運転を容易化できる。 As described above, the vehicle periphery monitoring device in FIG. 1 generates the vehicle periphery image Gf that is an overhead image around the host vehicle C, and calculates the vehicle yaw rate ω from the motion vector of the feature point P in the vehicle periphery image Gf. Obtained by subtracting the yaw rate ω from the flow of the side feature point Q (optical flow vector 'v' j (n) (t)) calculated in the side images GS1 and GS2 Based on the corrected feature point Q ′, recognition processing for the opposite object in the monitor image is performed, that is, corrected feature points (Q1 ′, Q2) that have cleared the influence of yaw rotation of the host vehicle from the position information of the side feature point Q. ', Q3'... For this reason, as shown by a two-dot chain line in FIG. 1, even when the vehicle enters the intersection in a turning state, the in-vehicle image processing logic becomes relatively simple, the calculation cost is reduced, and the mounting on the ECU is facilitated. In addition, safe driving can be facilitated.

図1の車両用周辺監視装置の対向物体認識手段6は、接近移動物体の側方画像中での画像領域Epを設定し、その画像領域Epを側方画像GS1、GS2中に強調表示したが、これに代えて、図11に示すような対向物体認識手段6Aのみを代えた車両用周辺監視装置を構成しても良い。
この場合、対向物体認識手段6Aは図2の対向物体認識手段6と同様の、側方画像特徴点抽出手段6aと、補正特徴点作成手段6bと、移動物体検出手段6cに加え、特徴点追跡手段6eと、通過時刻計算手段6fとの機能を備える。
The opposing object recognition means 6 of the vehicle periphery monitoring device in FIG. 1 sets an image area Ep in the side image of the approaching moving object, and highlights the image area Ep in the side images GS1 and GS2. Instead of this, a vehicle periphery monitoring device in which only the opposed object recognition means 6A as shown in FIG. 11 is replaced may be configured.
In this case, the opposed object recognizing means 6A is the same as the opposed object recognizing means 6 in FIG. 2, in addition to the side image feature point extracting means 6a, the corrected feature point creating means 6b, and the moving object detecting means 6c, and the feature point tracking. The function of the means 6e and the passage time calculation means 6f is provided.

特徴点追跡手段6eは検出された接近移動物体の補正特徴点(Q1’、Q2’、Q3’・・・)を追跡する。この際、図5に示すように、特徴点Pのフロー(オプティカルフローベクトル‘v’ (n)(t))より接近移動物体が自車両Cの正面を通過する方向と見做される補正特徴点(Q1’、Q2’、Q3’・・・)の一つを選択し、追跡する。更に、動くベクトルが検出されない特徴点については、建物等の固定物(背景)であるとして認識処理対象から排除する。 The feature point tracking means 6e tracks the corrected feature points (Q1 ′, Q2 ′, Q3 ′...) Of the detected approaching moving object. At this time, as shown in FIG. 5, the correction that the approaching moving object is regarded as the direction passing through the front of the host vehicle C from the flow of the feature point P (optical flow vector 'v' j (n) (t)). One of the feature points (Q1 ′, Q2 ′, Q3 ′...) Is selected and tracked. Furthermore, feature points for which no moving vector is detected are excluded from recognition processing targets as being fixed objects (backgrounds) such as buildings.

次いで、通過時刻計算手段6fは追跡する補正特徴点(Q1’、Q2’、Q3’・・・)の一つから接近移動物体が自車両Cの正面を通過する予想通過時刻tcを求める。   Next, the passage time calculation means 6f obtains an expected passage time tc at which the approaching moving object passes the front of the host vehicle C from one of the correction feature points (Q1 ', Q2', Q3 '...) to be tracked.

この特徴点追跡手段6e及び通過時刻計算手段6fの制御処理は、特開2006−253932号公報等に詳しく紹介されるとおりのものを用いることが出来る。
なお、画像表示制御手段6は、接近移動物体の画像領域Epをモニタ5の画面における左右側方画像GS1、GS2中に強調表示処理する。即ち、接近移動物体の画像領域Epを赤色表示すると共に、照度を一定周期で増減切換え、運転者の認識を容易化し、運転者に対向道路の対向車両に対する注意を促すこととなる。
As the control processing of the feature point tracking unit 6e and the passage time calculation unit 6f, those described in detail in JP-A-2006-253932 and the like can be used.
Note that the image display control means 6 highlights the image area Ep of the approaching moving object in the left and right side images GS1, GS2 on the screen of the monitor 5. In other words, the image area Ep of the approaching moving object is displayed in red, and the illuminance is switched between increasing and decreasing at regular intervals, facilitating the driver's recognition, and prompting the driver to pay attention to the oncoming vehicle on the oncoming road.

なお、図12には対向物体認識手段6Aの画像制御装置ECUが行う画像表示処理のフローチャートを示した。ここでステップs1乃至ステップs10は図10と同一処理であり、重複説明は略す。ここでステップs10からステップs11aに達する。ここでは、接近移動物体の補正特徴点(Q1’、Q2’、Q3’・・・)を追跡する。次いで、ステップs11bでは追跡する補正特徴点(Q1’、Q2’、Q3’・・・)から接近車両の予想通過時刻tcを求める。次いで、ステップs11cでは予想通過時刻tcが所定の通過想定時刻Thより早いか判断し、遅いとそのままステップs1にリターンし、早いと、ステップs11dで、接近移動物体の画像領域Epをモニタ5の画面における左右側方画像GS1、GS2中に強調表示処理し、ステップs1にリターンする。即ち、接近移動物体の画像領域Epを赤表示し、運転者の認識を容易化できる。   FIG. 12 shows a flowchart of image display processing performed by the image control apparatus ECU of the opposed object recognition unit 6A. Here, steps s1 to s10 are the same processing as in FIG. 10, and redundant description is omitted. Here, step s10 is reached to step s11a. Here, the correction feature points (Q1 ', Q2', Q3 '...) of the approaching moving object are tracked. Next, in step s11b, an expected passing time tc of the approaching vehicle is obtained from the correction feature points (Q1 ', Q2', Q3 '...) to be tracked. Next, in step s11c, it is determined whether the expected passage time tc is earlier than the predetermined expected passage time Th. If it is late, the process directly returns to step s1, and if it is early, the image area Ep of the approaching moving object is displayed on the screen of the monitor 5 in step s11d. Is highlighted in the left and right side images GS1, GS2, and the process returns to step s1. That is, the image area Ep of the approaching moving object is displayed in red, and the driver can be easily recognized.

このように、交差点に旋回状態で進入した時でも正確に、接近移動物体の補正特徴点(Q1’、Q2’、Q3’・・・)から接近移動物体が該車両の正面を通過する予想通過時刻tcを精度よく求めることが出来る。更に、予想通過時刻tcが所定の通過想定時刻Thより早いと、接近移動物体の画像領域Epを強調表示処理するので、接近移動物体を運転者が容易に認識でき、安全走行を行える。車載画像処理ロジックが比較的単純に成り、計算コストが低減され、ECUへの搭載が容易となる。   Thus, even when approaching the intersection in a turning state, the predicted passing through which the approaching moving object passes the front of the vehicle accurately from the correction feature points (Q1 ′, Q2 ′, Q3 ′...) Of the approaching moving object is accurate. The time tc can be obtained with high accuracy. Furthermore, when the expected passage time tc is earlier than the predetermined passage assumption time Th, the image area Ep of the approaching moving object is highlighted, so that the driver can easily recognize the approaching moving object and can safely travel. The in-vehicle image processing logic becomes relatively simple, the calculation cost is reduced, and the mounting on the ECU becomes easy.

以上、本発明の車両用周辺監視装置を説明したが、具体的な構成については、実施の形態に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。   The vehicle periphery monitoring device of the present invention has been described above, but the specific configuration is not limited to the embodiment, and unless it departs from the gist of the invention according to each claim of the claims, Design changes and additions are allowed.

本発明の一実施形態としての車両用周辺監視装置を備えた車両の概略構成図である。1 is a schematic configuration diagram of a vehicle including a vehicle periphery monitoring device as one embodiment of the present invention. 図1の車両用周辺監視装置の制御機能部を表すブロック図である。It is a block diagram showing the control function part of the vehicle periphery monitoring apparatus of FIG. 図1の車両用周辺監視装置の制御におけるアルゴリズムを説明する図である。It is a figure explaining the algorithm in control of the periphery monitoring apparatus for vehicles of FIG. 図1の車両用周辺監視装置のモニタが表示する側方画像の特徴点を説明する概略図である。It is the schematic explaining the feature point of the side image which the monitor of the vehicle periphery monitoring apparatus of FIG. 1 displays. 図1の車両用周辺監視装置のモニタが表示する側方画像において接近車両の接近時刻算出で用いる速度ベクトルの説明図である。It is explanatory drawing of the velocity vector used by the approach time calculation of an approaching vehicle in the side image which the monitor of the vehicle periphery monitoring apparatus of FIG. 1 displays. 図1の車両用周辺監視装置のモニタが表示する車両の駐車時における俯瞰画像で、(a)は駐車中の1時点での画像を、(b)は所定制御周期の経過時点での画像を示す。FIG. 1 is a bird's-eye view image when the vehicle is parked, which is displayed by the monitor of the vehicle periphery monitoring device in FIG. 1. FIG. Show. 図1の車両用周辺監視装置のモニタが表示する複数の特徴点の各速度ベクトルの説明図である。It is explanatory drawing of each speed vector of the some feature point which the monitor of the vehicle periphery monitoring apparatus of FIG. 1 displays. 図1の車両用周辺監視装置のモニタが表示する側方画像中の移動物体を強調表示する場合を説明する概略図である。It is the schematic explaining the case where the moving object in the side image which the monitor of the vehicle periphery monitoring apparatus of FIG. 1 displays is highlighted. は特徴点抽出アルゴリズムで用いる画像I、近傍領域D(p)、画素pの関係を示す説明図である。These are explanatory drawings which show the relationship between the image I used by the feature point extraction algorithm, the vicinity area | region D (p), and the pixel p. 図1の車両用周辺監視装置が行う画像表示制御ルーチンのフローチャートである。It is a flowchart of the image display control routine which the vehicle periphery monitoring apparatus of FIG. 1 performs. 他の実施形態である車両用周辺監視装置の制御機能部を表すブロック図である。It is a block diagram showing the control function part of the periphery monitoring apparatus for vehicles which is other embodiment. 他の実施形態である車両用周辺監視装置が行う画像表示制御ルーチンのフローチャートである。It is a flowchart of the image display control routine which the vehicle periphery monitoring apparatus which is other embodiment performs. 従来の車両が表示する側方画像の説明図で、(a)は直進時の画像を、(b)は旋回時の画像を示す。It is explanatory drawing of the side image which the conventional vehicle displays, (a) shows the image at the time of going straight, (b) shows the image at the time of turning.

符号の説明Explanation of symbols

1 撮像装置
1n ノーズビューカメラ
1s 側方カメラ
1r リアビューカメラ
2 車両周辺画像生成手段
3 特徴点抽出手段
4 ヨーレイト算出手段
5 モニタ
501 モニタ制御手段
6、6A 対向物体認識手段
6a 側方画像特徴点抽出手段
6b 補正特徴点作成手段
6c 移動物体検出手段
6f 特徴点追跡手段
6g 通過時刻計算手段
7 画像表示制御手段
11 車速センサ
20 ナビゲーション装置
ω ヨーレイト
^(ω) 推定ヨーレイト
tc 予想通過時刻
Bp 仮想視点
C 車両
Ep 画像領域
ECU 画像制御装置
Gf 車両周辺画像
Gs 側方画像
Gs1、Gs2 左右の前側方画像
Gf 車両周辺画像
P、P1、P2、P3 特徴点
Q1、Q2、Q3 側方特徴点
Q1’、Q2’、Q3’ 補正特徴点
‘v’ 特徴点の速度ベクトル
Vc 車速
DESCRIPTION OF SYMBOLS 1 Imaging device 1n Nose view camera 1s Side camera 1r Rear view camera 2 Vehicle periphery image generation means 3 Feature point extraction means 4 Yaw rate calculation means 5 Monitor 501 Monitor control means 6, 6A Opposite object recognition means 6a Side image feature point extraction means 6b correction feature point creation means 6c moving object detection means 6f feature point tracking means 6g passage time calculation means 7 image display control means 11 vehicle speed sensor 20 navigation device ω yaw rate ^ (ω) estimated yaw rate tc expected passage time Bp virtual viewpoint C vehicle Ep Image area ECU Image control device Gf Vehicle peripheral image Gs Side image Gs1, Gs2 Left and right front side images Gf Vehicle peripheral image P, P1, P2, P3 Feature points Q1, Q2, Q3 Side feature points Q1 ', Q2', Q3 'correction feature point' v 'feature point speed vector Vc vehicle speed

Claims (3)

自車両の互いに異なる場所に設置された複数の撮像装置によって撮影された側方画像をもとに、前記自車両の上方の仮想視点から見た俯瞰画像である車両周辺画像を生成する車両周辺画像生成手段と、
前記車両周辺画像中より特徴点を抽出すると共に同特徴点の動きベクトルを計算する特徴点抽出手段と、
前記特徴点の動きベクトルから前記自車両のヨーレイトを算出するヨーレイト算出手段と、
前記側方画像をモニタに表示する画像表示制御手段と、
前記側方画像中より抽出した側方特徴点のフローより前記ヨーレイト分を減じることで得られた補正特徴点に基づき前記モニタの画像内の対向物体に対する認識処理を行う対向物体認識手段と、
を具備したことを特徴とする車両周辺監視装置。
A vehicle peripheral image that generates a vehicle peripheral image, which is an overhead image viewed from a virtual viewpoint above the host vehicle, based on side images captured by a plurality of imaging devices installed at different locations of the host vehicle. Generating means;
A feature point extracting means for extracting a feature point from the vehicle peripheral image and calculating a motion vector of the feature point;
A yaw rate calculating means for calculating the yaw rate of the host vehicle from the motion vector of the feature point;
Image display control means for displaying the side image on a monitor;
Opposing object recognition means for performing recognition processing on the opposing object in the image of the monitor based on the corrected feature point obtained by subtracting the yaw rate from the flow of the side feature point extracted from the side image;
A vehicle periphery monitoring device comprising:
請求項1に記載の車両周辺監視装置において、
前記撮像装置のうち車両の前部に取り付けられて車幅方向の視界を側方画像として撮像するノーズビューカメラを備え、
前記対向物体認識手段は、
前記側方画像中の側方特徴点を検出すると共に検出した側方特徴点の動きベクトルを計算する側方画像特徴点抽出手段と、
前記側方画像中の側方特徴点のフローより前記ヨーレイト分を減じることで補正特徴点を作成する補正特徴点作成手段と、
前記補正特徴点の動きベクトルから前記側方画像中の前記自車両に接近してくる方向のベクトルを有する物体を接近移動物体として検出する移動物体検出手段と、
前記接近移動物体の前記側方画像中での画像領域を設定する物体画像領域設定手段と、を備え、
前記画像表示制御手段は前記接近移動物体の画像領域を前記側方画像中に強調表示する、ことを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 1,
A nose view camera that is attached to the front portion of the vehicle among the imaging device and captures a field of view in the vehicle width direction as a side image,
The opposing object recognition means includes
Side image feature point extracting means for detecting a side feature point in the side image and calculating a motion vector of the detected side feature point;
Correction feature point creating means for creating a correction feature point by subtracting the yaw rate from the flow of the side feature points in the side image;
Moving object detection means for detecting an object having a vector in a direction approaching the host vehicle in the side image from the motion vector of the correction feature point as an approaching moving object;
An object image region setting means for setting an image region in the side image of the approaching moving object,
The vehicle periphery monitoring device, wherein the image display control means highlights an image area of the approaching moving object in the side image.
請求項1に記載の車両周辺監視装置において、
前記撮像装置のうち車両の前部に取り付けられて車幅方向の視界を側方画像として撮像するノーズビューカメラを備え、
前記対向物体認識手段は、
前記側方画像中の側方特徴点を検出すると共に検出した特徴点の動きベクトルを計算する側方画像特徴点抽出手段と、
前記側方画像中の側方特徴点のフローより前記ヨーレイト分を減じることで補正特徴点を作成する補正特徴点作成手段と、
前記補正特徴点の動きベクトルから前記側方画像中の前記自車両に接近してくる方向のベクトルを有する物体を接近移動物体として検出する移動物体検出手段と、
前記検出された接近移動物体の補正特徴点を追跡する特徴点追跡手段と、
前記追跡する補正特徴点から前記接近移動物体が該車両の正面を通過する時間を求める通過時刻計算手段とを具備したことを特徴としている。
In the vehicle periphery monitoring device according to claim 1,
A nose view camera that is attached to the front portion of the vehicle among the imaging device and captures a field of view in the vehicle width direction as a side image,
The opposing object recognition means includes
A side image feature point extracting means for detecting a side feature point in the side image and calculating a motion vector of the detected feature point;
Correction feature point creating means for creating a correction feature point by subtracting the yaw rate from the flow of the side feature points in the side image;
Moving object detection means for detecting an object having a vector in a direction approaching the host vehicle in the side image from the motion vector of the correction feature point as an approaching moving object;
Feature point tracking means for tracking the corrected feature point of the detected approaching moving object;
Passing time calculation means for obtaining a time for the approaching moving object to pass the front of the vehicle from the correction feature point to be tracked.
JP2008241375A 2008-09-19 2008-09-19 Vehicle periphery monitoring device Expired - Fee Related JP5083142B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008241375A JP5083142B2 (en) 2008-09-19 2008-09-19 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008241375A JP5083142B2 (en) 2008-09-19 2008-09-19 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010073036A true JP2010073036A (en) 2010-04-02
JP5083142B2 JP5083142B2 (en) 2012-11-28

Family

ID=42204731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008241375A Expired - Fee Related JP5083142B2 (en) 2008-09-19 2008-09-19 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5083142B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015141155A (en) * 2014-01-30 2015-08-03 パイオニア株式会社 virtual image display device, control method, program, and storage medium
EP2722814A3 (en) * 2012-10-18 2015-10-28 Fujitsu Limited Image processing device and image processing method
JP2016051994A (en) * 2014-08-29 2016-04-11 トヨタ自動車株式会社 Approaching-object detecting device for vehicle
JP2019174892A (en) * 2018-03-27 2019-10-10 クラリオン株式会社 Resting three-dimensional object detection device and resting three-dimensional object detection method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160075135A (en) * 2014-12-19 2016-06-29 현대모비스 주식회사 Vehicle System for Detecting Objects and Detecting Method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002374521A (en) * 2001-06-13 2002-12-26 Mitsubishi Heavy Ind Ltd Method and device for monitoring mobile object
JP2005276057A (en) * 2004-03-26 2005-10-06 Mitsubishi Motors Corp Nose view monitoring device
JP2006253932A (en) * 2005-03-09 2006-09-21 Mitsubishi Motors Corp Nose-view system
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002374521A (en) * 2001-06-13 2002-12-26 Mitsubishi Heavy Ind Ltd Method and device for monitoring mobile object
JP2005276057A (en) * 2004-03-26 2005-10-06 Mitsubishi Motors Corp Nose view monitoring device
JP2006253932A (en) * 2005-03-09 2006-09-21 Mitsubishi Motors Corp Nose-view system
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2722814A3 (en) * 2012-10-18 2015-10-28 Fujitsu Limited Image processing device and image processing method
US9208387B2 (en) 2012-10-18 2015-12-08 Fujitsu Limited Image processing device and image processing method to estimate movement of a movable body
JP2015141155A (en) * 2014-01-30 2015-08-03 パイオニア株式会社 virtual image display device, control method, program, and storage medium
JP2016051994A (en) * 2014-08-29 2016-04-11 トヨタ自動車株式会社 Approaching-object detecting device for vehicle
JP2019174892A (en) * 2018-03-27 2019-10-10 クラリオン株式会社 Resting three-dimensional object detection device and resting three-dimensional object detection method

Also Published As

Publication number Publication date
JP5083142B2 (en) 2012-11-28

Similar Documents

Publication Publication Date Title
JP4657765B2 (en) Nose view system
US8933797B2 (en) Video-based warning system for a vehicle
JP4412380B2 (en) Driving support device, driving support method, and computer program
JP5503728B2 (en) Vehicle periphery monitoring device
JP5099451B2 (en) Vehicle periphery confirmation device
KR102062923B1 (en) Parking assistance system
KR101611194B1 (en) Apparatus and method for peripheral image generation of vehicle
JP5704902B2 (en) Driving support device and driving support method
JP2007129560A (en) Object detector
JP2011035777A (en) Support system for perception of vehicle surroundings
US20110001819A1 (en) Image Processing Apparatus
JP5516988B2 (en) Parking assistance device
JP2007221200A (en) Vehicle periphery monitoring system
JP2008222153A (en) Merging support device
JP5083142B2 (en) Vehicle periphery monitoring device
CN106476695A (en) For visual enhanced system and method
JP2009231937A (en) Surroundings monitoring device for vehicle
WO2011013813A1 (en) In-vehicle device and image processing program
JP2012023505A (en) Driving support device
JP5192007B2 (en) Vehicle periphery monitoring device
KR102135900B1 (en) Apparatus and Method for Assisting Parking
JP2007251880A (en) On-vehicle image display device, and method of compositing images
JP2009246808A (en) Surrounding monitoring device for vehicle
KR101849326B1 (en) Camera system for vehicle
JP2012256159A (en) Approaching object detecting device and method for detecting approaching object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120820

R151 Written notification of patent or utility model registration

Ref document number: 5083142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees