JP4800078B2 - Vehicle perimeter monitoring system - Google Patents
Vehicle perimeter monitoring system Download PDFInfo
- Publication number
- JP4800078B2 JP4800078B2 JP2006080337A JP2006080337A JP4800078B2 JP 4800078 B2 JP4800078 B2 JP 4800078B2 JP 2006080337 A JP2006080337 A JP 2006080337A JP 2006080337 A JP2006080337 A JP 2006080337A JP 4800078 B2 JP4800078 B2 JP 4800078B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- processing unit
- contact
- possibility
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Description
本発明は、車両の周辺を監視するシステムに関する。 The present invention relates to a system for monitoring the periphery of a vehicle .
車両が右左折する際に歩行者や二輪車等の物体と接触することを回避するため、交差点手前で車載カメラにより取り込まれた映像に基づき、その交差点に車両が進入するときにこの車両と接触する可能性がある物体の存在を運転者に知らせる技術が提案されている(たとえば、特許文献1参照)。この技術によれば、車両が交差点に接近したことが判明した後で車載カメラによりわずかな時間差をもって撮影された2カットの映像を用いて、この車両と接触する可能性がある物体の有無が判定される。
しかし、車両に対する物体の相対的挙動は一様ではない。このため、前記技術によれば、車両が交差点に接近することが判明する前はカメラの撮影範囲にあった一方、その後でこの範囲から外れた物体については、車両との接触可能性を評価することはできない。 However, the relative behavior of the object with respect to the vehicle is not uniform. For this reason, according to the above technique, before the vehicle is found to approach the intersection, it was in the shooting range of the camera, but after that, an object outside this range is evaluated for contact possibility with the vehicle. It is not possible.
そこで、本発明は、車両が右左折等するときに物体と接触する可能性をより高い精度で評価して、この評価に応じて車載機器が適当に制御されうるように車両の周辺を監視しうるシステムを提供することを解決課題とする。 Therefore, the present invention evaluates the possibility of contact with an object with higher accuracy when the vehicle turns right and left, etc., and monitors the periphery of the vehicle so that the in-vehicle device can be appropriately controlled according to this evaluation. The problem to be solved is to provide a system that can be used .
本発明の車両周辺監視システムは、車載の撮像装置により定常的に取り込まれた映像に基づいて前記車両の周辺にある物体の位置を逐次測定し、前記物体の時系列的な測定位置を第1記憶部に保存する第1処理部と、前記車両が曲がる可能性の有無を判定し、前記車両が曲がる可能性があると判定した場合、前記第1記憶部に保存されている前記物体の時系列的な測定位置に基づいて前記車両が曲がるときの前記物体との接触可能性を評価し、前記車両と前記物体との接触可能性の高低に応じて車載機器の動作を異なる形で制御する第2処理部とを備え、前記第2処理部が、前記撮像装置により撮像された前記車両の前方の画像を表示する車載の情報出力装置に表示された第1物体と、前記情報出力装置の表示範囲から前記第1物体が外れた後に前記情報出力装置に表示された第2物体とが同一の物体であるか異なる物体であるかを判定し、前記第1物体と前記第2物体とが同一の物体であると判定した場合、前記車両と前記第1物体との接触可能性が低いと判定する一方、前記第1物体と前記第2物体とが異なる物体であると判定した場合、前記車両と前記第1物体との接触可能性が高いと判定することを特徴とする。 The vehicle periphery monitoring system of the present invention sequentially measures the position of an object in the vicinity of the vehicle based on an image that is regularly captured by an in-vehicle imaging device, and sets a first time-series measurement position of the object. When the first processing unit stored in the storage unit and the vehicle stored in the first storage unit are determined to determine whether the vehicle is likely to bend and the vehicle is likely to bend The possibility of contact with the object when the vehicle is bent is evaluated based on a series of measurement positions, and the operation of the in-vehicle device is controlled differently depending on the level of contact possibility between the vehicle and the object. A second processing unit, wherein the second processing unit displays a first object displayed on an in-vehicle information output device that displays an image in front of the vehicle imaged by the imaging device, and the information output device. The first object is out of the display range Determining whether the second object displayed on the information output device is the same object or a different object, and determining that the first object and the second object are the same object, While it is determined that the possibility of contact between the vehicle and the first object is low, the vehicle and the first object can be contacted when it is determined that the first object and the second object are different objects. It is characterized by determining that the property is high .
前記第2処理部が、前記撮像装置により撮像された前記第1物体および前記第2物体のそれぞれの重心位置、面積および外接四辺形の縦横比のうち一部または全部の変化パターンを対比することにより、前記第1物体と前記第2物体とが異なる物体であるか同一の物体であるかを判定してもよい。 The second processing unit compares a part or all of the change patterns of the gravity center position, the area, and the aspect ratio of the circumscribed quadrilateral of each of the first object and the second object imaged by the imaging device. Thus, it may be determined whether the first object and the second object are different objects or the same object .
本発明の車両周辺監視システムの実施形態について図面を用いて説明する。まず、本発明の車両周辺監視システムの構成について図1および図2を用いて説明する。図1に示されているように車両1には、車両周辺監視システム10と、ナビゲーションシステム(以下「ナビシステム」という。)20とが搭載されている。車両1の前部には、車幅方向中心部に対してほぼ対称に左右一対の赤外線カメラ102が配置されている。2つの赤外線カメラ102の光軸は路面からの高さが等しく、かつ、相互に平行となるように調節されている。車両1のフロントウィンドウにはHUD(Head Up Display)122が、運転者の視界を妨げないように配置されている。HUD122には、赤外線カメラ102を通じて取得された、図4(a)に示されているような車両1の前方の映像(画像)が表示される。また、図2に示されているように車両1には、そのヨーレートに応じた信号を出力するヨーレートセンサ104と、その速度に応じた信号を出力する速度センサ106と、方向指示器の出力に応じた信号を出力する方向指示器センサ108等、種々のセンサが搭載されている。
An embodiment of a vehicle periphery monitoring system of the present invention will be described with reference to the drawings. First, the structure of the vehicle periphery monitoring system of this invention is demonstrated using FIG. 1 and FIG. As shown in FIG. 1, a vehicle
ナビシステム20はCPU、ROM、RAM等のメモリ、信号入力回路、信号出力回路等により構成されている。ナビシステム20はユーザにより設定された目的地までのルートを設定し、車両1のコンソールに配置されたナビディスプレイ202に、図4(b)に示されているようなルートRを表示させる。また、ナビシステム20は、ナビディスプレイ202に、GPSにより測定された車両1の現在位置およびヨーレートセンサ104の出力に応じた車両1の進行方向を表す、図4(b)に示されているようなアイコンCを表示させる。
The
車両周辺監視システム10は、車両1に搭載されたコンピュータ(CPU、ROM、RAM、信号入力回路、信号出力回路等により構成されている。)と、メモリ等に格納され、当該コンピュータに諸機能を付与する本発明の「車両周辺監視プログラム」とにより構成されている。車両周辺監視プログラムは最初から車載コンピュータのメモリに格納されていてもよいが、その一部または全部が運転手または車載コンピュータからのリクエストがあったとき等、任意のタイミングで所定のサーバからダウンロードされてもよい。また、図2に示されているように車両周辺監視システム10は、第1処理部11と、第1記憶部111と、第2記憶部112と、第2処理部12とを備えている。
The vehicle
第1処理部11は、赤外線カメラ102により定常的に取り込まれた映像に基づいて車両1の周辺にある物体の位置を逐次測定し、最近の第1時系列的な物体の測定位置を第1記憶部111に保存する。また、第1処理部は、赤外線カメラ102により取り込まれた、最近の第2時系列的な車両1の周辺映像を第2記憶部112に保存する。
The first processing unit 11 sequentially measures the position of an object around the
第2処理部12は、ナビシステム20により車両1が曲がる可能性の有無を判定し、かつ、曲がる方向を推定する。また、第2処理部12は方向指示器センサ108の出力やナビシステム20により設定されたルートの形状等に基づいて車両1が曲がる方向を推定する。さらに、第2処理部12は第1記憶部111に保存されている物体の時系列的な測定位置のうち当該推定方向側における時系列的な測定位置に基づき、車両1が曲がるときの物体との接触可能性を示す情報をHUD122およびナビディスプレイ202に出力させる。また、第2処理部12は第2記憶部112に保存されている過去の映像をHUD122に表示させる。
The
前記構成の車両周辺監視システム10の機能について図3〜図5を用いて説明する。まず、制御サイクルを表す指数kが1に設定される(図3/S002)。第1処理部11が、一対の赤外線カメラ102により取り込まれた映像に基づき、この映像に含まれる物体の実空間位置Pkを測定する(図3/S102)。実空間位置Pkとは、図1に示されているように一対のカメラ102の取り付け位置の中点を原点Oとし、水平方向、鉛直方向および前後方向をそれぞれX、YおよびZ軸とする座標系における位置を意味する。
Functions of the vehicle
物体の実空間位置Pkの測定方法としては特開2001−6096号公報、特開2003−157498号公報等に開示されている方法が採用されるので、本願明細書ではその詳細な説明を省略する。この測定方法には、赤外線画像、グレースケール画像、2値化画像、探索画像等の処理が含まれ、第1処理部11は実空間位置Pkの測定に伴って、HUD122に表示される映像Ikを取得する(図3/S104)。この映像Ikにおいては、車両1と接触する可能性のある物体が強調表示されうる。
As methods for measuring the real space position P k of the object, methods disclosed in Japanese Patent Application Laid-Open Nos. 2001-6096, 2003-157498, etc. are adopted, and detailed description thereof is omitted in this specification. To do. This measurement method includes processing of an infrared image, a grayscale image, a binarized image, a search image, and the like. The first processing unit 11 displays an image displayed on the
また、第1処理部11は第1記憶部111により記憶されている時系列的な実空間位置{Pk}の総数N{Pk}が第1所定数N1未満であるか否かを判定する(図3/S112)。当該判定結果が肯定的であった場合(図3/S112‥YES)、第1処理部11は今回測定した実空間位置Pkを第1記憶部111に保存(または格納)する(図3/S116)。一方、当該判定結果が否定的であった場合(図3/S112‥NO)、第1処理部11は、今回からN1回だけ先の制御サイクルにおいて測定した実空間位置Pk-N1を第1記憶部111から消去した上で(図3/S114)、今回測定した実空間位置Pkを第1記憶部111に保存する(図3/S116)。これにより、第1記憶部111には、N1個の時系列的な実空間位置Pkが格納されうる。
Further, the first processing unit 11 determines whether or not the total number N {P k } of the time-series real space positions {P k } stored in the
さらに、第1処理部11は第2記憶部112により記憶されている時系列的な映像{Ik}の総数N{Ik}が第2所定数N2未満であるか否かを判定する(図3/S122)。当該判定結果が肯定的であった場合(図3/S122‥YES)、第1処理部11は今回取得した映像Ikを第2記憶部112に保存する(図3/S126)。一方、当該判定結果が否定的であった場合(図3/S122‥NO)、第1処理部11は、今回からN2回だけ先の制御サイクルにおいて取得した映像Ik-N2を第2記憶部112から消去した上で(図3/S124)、今回取得した映像Ikを第2記憶部112に保存する(図3/S126)。これにより、第2記憶部112には、N2個の時系列的な映像Ikが格納されうる。なお、第1所定数N1および第2所定数N2は等しくてもよい。
Further, the first processing unit 11 determines whether or not the total number N {I k } of time-series videos {I k } stored in the
また、第2処理部12は車両1が曲がる可能性の有無を判定する(図3/S202)。たとえば、方向指示器センサ108の出力に基づき、方向指示器による左右いずれかの指示の有無に応じて車両1が曲がる可能性の有無が判定される。また、GPSにより測定された車両1の現在位置が、ナビシステム20により設定された案内ルートにおける左折点または右折点(交差点や分岐路(三叉路)等が含まれる。)に近づいているか否かに応じて、車両1が曲がる可能性の有無が判定される。さらに、ヨーレートセンサ104の出力および車速センサ106の出力のうち一方または両方に基づいて車両1が曲がる可能性の有無が判定されてもよい。
Moreover, the
さらに、第2処理部12は車両1が曲がる可能性があると判定した場合(図3/S202‥YES)、その曲がる方向を推定する(図3/S204)。たとえば、方向指示器センサ108の出力に基づき、方向指示器による左右いずれかの指示の有無に応じて車両1が曲がる方向が推定される。また、車両1がナビシステム20により設定されたルートにおける右折点(または左折点)に近づいているときは車両1が曲がる方向は右(または左)であると推定される。
Further, when it is determined that the
また、この場合、第2処理部12は車両1が曲がるときに物体と接触する可能性の有無について判定する(図3/S206)。具体的には、GPSにより測定される車両1の現在位置から、ナビシステム20により設定されたルートに含まれる交差点までの距離が算出される。また、この算出距離と、速度センサ106の出力とに基づき、車両1がこの交差点に到達するまでの時間が予測される。さらに、第1記憶部111に保存されている時系列的な実空間位置Pkに基づいて、車両1に対する物体の相対移動ベクトルが算出される。相対移動ベクトルの算出方法は、実空間位置の測定方法と同様、前記公報に開示されているのでその詳細な説明を省略する。また、到達予測時間および相対移動ベクトルに基づき、車両1がその交差点に到達したときの物体の実空間位置が推定される。そして、車両1が左に曲がると推定された場合、当該予測位置のX座標が[−β−,0](β−≧α(車幅の半分))に含まれ、かつ、Z座標が[−γ,+δ](γ≧L(車両長さ))に含まれている場合、車両1が左に曲がるときに当該物体と接触する可能性があると判定する。また、車両1が右に曲がると推定された場合、当該予測位置のX座標が[0,+β+](β+>β−)に含まれ、かつ、Z座標が[−γ,+δ]に含まれている場合、車両1が右に曲がるときに当該物体と接触する可能性があると判定する。このように、曲がる方向の別に応じて、接触可能性の判定基準となる領域が別のものとされている。なお、当該領域には車高を考慮に入れてY方向にも一定の範囲が設けられていてもよい。
そして、第2処理部12は車両1および物体の接触可能性があると判定した場合(図3/S206‥YES)、この接触可能性を示す情報をHUD122およびナビディスプレイ202に表示させる(図3/S208)。
Further, in this case, the
If the
ここで、次のような例を考える。すなわち、図4(a)に示されているようにHUD122の左側に二輪車に乗った人間qが表示(または強調表示)され、その後、車両1がこの人間qを追い越し、図5(a)に示されているようにHUD122に人間qが表示されなくなったとする。また、図4(a)に示されているようにHUD122の左側に人間qが表示されていたとき、図4(b)に示されているように交差点で左折するルートRと、交差点の手前にある車両1の位置および移動方向を表すアイコンCとが表示されていたとする。
Here, consider the following example. That is, as shown in FIG. 4 (a), the person q riding on the two-wheeled vehicle is displayed (or highlighted) on the left side of the
この場合、HUD122には、第2記憶部112に保存されている図4(a)に示されているような過去の画像(過去にHUD122に表示されていた画像)が表示される。また、ナビディスプレイ202には、図5(b)に示されているように人間の推定位置を表すアイコンQが表示される。これらの画像表示に加えて「左折時、車両の左側に注意してください」等、運転者の注意を促す音声がナビシステム202のスピーカ(図示略)等から出力されてもよい。
In this case, a past image (an image previously displayed on the HUD 122) as shown in FIG. 4A stored in the
なお、第2処理部12により車両1が曲がる可能性がないと判定された場合(図3/S202‥NO)、または車両1および物体の接触可能性がないと判定された場合(図3/S206‥NO)、指数kが1だけ増加させられて(図3/S004)、実空間位置Pkの測定(図3/S102)等の処理が繰り返される。
When the
前記機能を発揮する本発明の車両周辺監視システム10によれば、車載の一対の赤外線カメラ(撮像装置)102により定常的に取り込まれた映像に基づいて車両1の周辺にある二輪車や歩行者等の物体(移動物体)の位置が逐次測定される(図3/S102)。また、物体時系列的な測定位置に基づき、車両1が曲がるときに、この車両1と物体とが接触する可能性の有無が判定される(図3/S206)。
According to the vehicle
これにより、赤外線カメラ102の撮像範囲から早期に外れた物体についても、その時系列的な挙動に基づいて車両1との接触可能性の有無を高い精度で判定することが可能となる。したがって、この判定結果に応じた画像がHUD122およびナビディスプレイ202に表示されることで、車両1が右左折等するときに接触する可能性がある物体の存在を確実に運転者に知らせることができる。
Thereby, even for an object that deviates from the imaging range of the infrared camera 102 at an early stage, the possibility of contact with the
また、車両1が左に曲がると推定された場合、車両1の左側にある物体と接触する可能性が高い等、車両1の曲がり方向と、車両1がその方向に曲がるときの物体の推定位置との関係に鑑みて両者の接触可能性の有無が適切に判定されうる。
Further, when it is estimated that the
さらに、車両1の周辺の過去の風景を示すことで、その時点で撮像されていた物体、ひいては接触可能性のある物体の存在を運転者に認識させることができる(図4(a)参照)。
Furthermore, by showing the past scenery around the
なお、前記実施形態では物体の1次状態に基づく車両1と当該物体とが接触する可能性があるという判定結果に応じて、接触可能性を示す情報が出力されたが(図3/S206‥YES,S208)、他の実施形態として同様の判定結果に応じてこの物体との接触を回避しうるように車両1の挙動が車両挙動を制御するECU、ブレーキ機構やステアリング機構等の車載機器によって制御されてもよい。また、評価された接触可能性の高低に応じて異なる形態で車両挙動が制御されてもよい。
In the embodiment, information indicating the possibility of contact is output according to the determination result that the
さらに、当該判定結果に応じて、車載ライトの方向が物体の存在する領域に向けられる(ライトのスイブル制御)等、あらゆる車載機器の動作が制御されてもよい。また、評価された接触可能性の高低に応じてライトの照明の明度が差別化される等、車載機器の動作が異なる形態で制御されてもよい。 Further, depending on the determination result, the operation of any on-vehicle device may be controlled such that the direction of the on-vehicle light is directed to a region where an object exists (light swivel control). Further, the operation of the in-vehicle device may be controlled in a different form such that the brightness of the light illumination is differentiated according to the evaluated contact possibility.
さらに、撮像装置として、遠赤外線を感知する赤外線カメラ102に代えて、可視光および近赤外線を感知するCCDカメラ等が採用されてもよい。 Further, as the imaging device, a CCD camera or the like that detects visible light and near infrared light may be employed instead of the infrared camera 102 that detects far infrared light.
また、HUD122に表示される物体q(図4(a)参照)の色彩と、ナビディスプレイ202に表示される当該物体qを表すアイコンQ(図5(b)参照)の色彩とが共通化されてもよい。これにより、複数のアイコンQがナビディスプレイ202に表示されたとき、それぞれのアイコンQとHUD122に表示される物体qとの対応関係を運転者に認識させることができる。
Further, the color of the object q (see FIG. 4A) displayed on the
第2処理部12が、第1記憶部111に記憶されている物体の時系列的な測定位置{Pk}に基づいてこの物体の移動軌跡を予測し、かつ、物体の予測移動軌跡をHUD122またはナビディスプレイ202に表示させてもよい。また、交差点周辺の鳥瞰図とともにこの予測移動軌跡がナビディスプレイ202に表示されてもよい。このように物体の予測移動軌跡を運転者に認識させることで、当該物体との接触可能性を示す情報をこの運転者に認識させることができる。
The
車両1が曲がるときの接触可能性(確率)の高低が、車両1の曲がり方向に鑑みて設定された領域に含まれるか否か、さらには前記推定された実空間位置を表すベクトルの長短等によって評価されてもよい。そして、この接触可能性の高低に応じてナビディスプレイ202に表示される物体を表すアイコンQ(図5(b)参照)の表示態様(色彩、形状、大きさ等)が区別されてもよい。これにより、車両1と物体との接触可能性の評価に応じた情報の区分を通じて、当該接触可能性の高低を運転者に認識させることができる。そして、車両1と物体との接触可能性の高低に鑑みて、当該物体への適度な注意を運転者に促すことができる。また、前記のように複数のアイコンQが表示されたとき、どのアイコンQに対応する物体qを優先的に注意すべきかを運転者に認識させることができる。
Whether or not the possibility of contact (probability) when the
本発明の車両周辺監視機能のさらなる機能について図6を用いて説明する。図4(a)に示されているように物体qがHUD122に表示されていたが、その後物体qがHUD122の左に外れ、さらにその後で図6(a)に示されているように交差点付近において左から現れた物体q’がHUD122に表示された場合、時間をおいてHUD122に出現した物体qおよびq’が同じ物体であるか否かが問題となる。すなわち、物体qおよびq’が同じ物体であれば、図6(a)に示されているように車両1を左側から追い越した物体q’(物体q)を車両1がこの交差点で左折する際に巻き込むことはない。その一方、物体qおよびq’が異なる物体であれば、物体qは車両1の左側にあってこの交差点で左折する際に巻き込む可能性が残されている。
A further function of the vehicle periphery monitoring function of the present invention will be described with reference to FIG. As shown in FIG. 4A, the object q is displayed on the
そこで、第2処理部12が物体qおよびq’が同じ物体であるか否かを判定する。具体的には、物体qの重心位置、面積および外接四角形の縦横比のうちの一部または全部の変化パターンが記憶部に保存され(特開2001−6096号公報/第0023段落〜第0025段落参照)、物体q’の重心位置、面積および外接四角形の縦横比のうちの一部または全部の変化パターンが記憶部に保存され、両パターンの対比に基づいて物体qおよびq’が同じ物体であるか否かが判定されてもよい。なお、この判定に際して、CCDカメラにより撮像された画像が利用されてもよい。たとえば、CCDカメラにより撮像された物体qおよびq’の画像に基づき、両物体の色彩や形状の類似の程度が評価され、この評価に応じて両物体が同じ物体であるか否かが判定されてもよい。
Therefore, the
そして、第2処理部12は物体qおよびq’が同じ物体であると判定した場合、車両1と物体qとが接触する可能性が低いと判定する(図3/S206‥NO参照)。また、この場合、第2処理部12は図6(b)に示されているように車両アイコンCの左斜め上に物体アイコンQが配置されている画像をナビディスプレイ202に表示させる。さらに、第2処理部12は車両1と物体qが接触する可能性がある旨の情報出力処理を省略する。これにより、運転者に物体qと接触する可能性が消滅したことを認識させる、あるいは運転者に不要な注意を促す事態を回避することができる。
When the
その一方、第2処理部12は物体qおよびq’が異なる物体であると判定した場合、または当該判定が不調に終わった場合、車両1と物体qとが接触する可能性が高い(または残っている)と判定する(図3/S206‥YES参照)。また、この場合、第2処理部12は図6(c)に示されているように車両アイコンCの左斜め上に物体q’を表すアイコンQ2が配置され、かつ、車両アイコンCの左側に物体qを表すアイコンQ1が表示されている画像をナビディスプレイ202に表示させる。さらに、第2処理部12は車両1と物体qが接触する可能性がある旨の情報出力処理を実行する(図3/S208参照)。これにより、車両1が当該交差点で左折する際に物体qと接触する可能性が残されていることを運転者に認識させることができる。
On the other hand, if the
1‥車両、10‥車両周辺監視システム、102‥赤外線カメラ(撮像装置)、104‥ヨーレートセンサ、106‥速度センサ、108‥方向指示器センサ、11‥第1処理部、111‥第1記憶部、112‥第2記憶部、12‥第2処理部、122‥HUD(情報出力装置)、20‥ナビシステム、202‥ナビディスプレイ(情報出力装置)
DESCRIPTION OF
Claims (2)
車載の撮像装置により定常的に取り込まれた映像に基づいて前記車両の周辺にある物体の位置を逐次測定し、前記物体の時系列的な測定位置を第1記憶部に保存する第1処理部と、
前記車両が曲がる可能性の有無を判定し、前記車両が曲がる可能性があると判定した場合、前記第1記憶部に保存されている前記物体の時系列的な測定位置に基づいて前記車両が曲がるときの前記物体との接触可能性を評価し、前記車両と前記物体との接触可能性の高低に応じて車載機器の動作を異なる形で制御する第2処理部とを備え、
前記第2処理部が、前記撮像装置により撮像された前記車両の前方の画像を表示する車載の情報出力装置に表示された第1物体と、前記情報出力装置の表示範囲から前記第1物体が外れた後に前記情報出力装置に表示された第2物体とが同一の物体であるか異なる物体であるかを判定し、前記第1物体と前記第2物体とが同一の物体であると判定した場合、前記車両と前記第1物体との接触可能性が低いと判定する一方、前記第1物体と前記第2物体とが異なる物体であると判定した場合、前記車両と前記第1物体との接触可能性が高いと判定することを特徴とする車両周辺監視システム。 A system for monitoring the surroundings of a vehicle,
A first processing unit that sequentially measures the position of an object in the vicinity of the vehicle based on an image that is regularly captured by an in-vehicle imaging device, and stores the time-series measurement position of the object in a first storage unit When,
When it is determined whether or not the vehicle is likely to bend and the vehicle is likely to bend, the vehicle is determined based on a time-series measurement position of the object stored in the first storage unit. A second processing unit that evaluates the possibility of contact with the object when turning , and controls the operation of the in-vehicle device in a different manner according to the level of contact possibility between the vehicle and the object ;
The first processing unit displays a first object displayed on an in-vehicle information output device that displays an image in front of the vehicle imaged by the imaging device, and the display range of the information output device. It is determined whether the second object displayed on the information output device after being detached is the same object or a different object, and it is determined that the first object and the second object are the same object In the case where it is determined that the possibility of contact between the vehicle and the first object is low, and it is determined that the first object and the second object are different objects, the vehicle and the first object A vehicle periphery monitoring system, characterized by determining that the possibility of contact is high .
前記第2処理部が、前記撮像装置により撮像された前記第1物体および前記第2物体のそれぞれの重心位置、面積および外接四辺形の縦横比のうち一部または全部の変化パターンを対比することにより、前記第1物体と前記第2物体とが異なる物体であるか同一の物体であるかを判定することを特徴とする車両周辺監視システム。 In the vehicle periphery monitoring system according to claim 1,
The second processing unit compares a part or all of the change patterns of the gravity center position, the area, and the aspect ratio of the circumscribed quadrilateral of each of the first object and the second object imaged by the imaging device. Thus, it is determined whether the first object and the second object are different objects or the same object .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006080337A JP4800078B2 (en) | 2006-03-23 | 2006-03-23 | Vehicle perimeter monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006080337A JP4800078B2 (en) | 2006-03-23 | 2006-03-23 | Vehicle perimeter monitoring system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007257258A JP2007257258A (en) | 2007-10-04 |
JP2007257258A5 JP2007257258A5 (en) | 2008-10-16 |
JP4800078B2 true JP4800078B2 (en) | 2011-10-26 |
Family
ID=38631450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006080337A Expired - Fee Related JP4800078B2 (en) | 2006-03-23 | 2006-03-23 | Vehicle perimeter monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4800078B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039723A (en) * | 2009-08-10 | 2011-02-24 | Toshiba Corp | Test data creation device |
JP2021071969A (en) * | 2019-10-31 | 2021-05-06 | ダイハツ工業株式会社 | Driving support device |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195699A (en) * | 2000-01-14 | 2001-07-19 | Yazaki Corp | Vehicle circumference monitor device and recording medium for stored with vehicle collision danger judgement processing program |
JP3606223B2 (en) * | 2001-04-26 | 2005-01-05 | 住友電気工業株式会社 | Vehicle side image generation method and vehicle side image generation device |
JP3652678B2 (en) * | 2001-10-15 | 2005-05-25 | 松下電器産業株式会社 | Vehicle surrounding monitoring apparatus and adjustment method thereof |
JP3936313B2 (en) * | 2002-07-02 | 2007-06-27 | 本田技研工業株式会社 | Image recognition device |
JP3620532B2 (en) * | 2002-11-12 | 2005-02-16 | 日産自動車株式会社 | Vehicle notification device |
JP4044031B2 (en) * | 2003-11-27 | 2008-02-06 | 本田技研工業株式会社 | Vehicle travel support device |
JP4380561B2 (en) * | 2004-04-16 | 2009-12-09 | 株式会社デンソー | Driving assistance device |
JP4244887B2 (en) * | 2004-08-31 | 2009-03-25 | 日産自動車株式会社 | Moving position prediction apparatus, moving position prediction method, collision determination apparatus, and collision determination method |
JP4140588B2 (en) * | 2004-09-01 | 2008-08-27 | 日産自動車株式会社 | Moving object detection device |
-
2006
- 2006-03-23 JP JP2006080337A patent/JP4800078B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007257258A (en) | 2007-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10878256B2 (en) | Travel assistance device and computer program | |
JP4985142B2 (en) | Image recognition apparatus and image recognition processing method of image recognition apparatus | |
JP5594246B2 (en) | Lane recognition device | |
US7688221B2 (en) | Driving support apparatus | |
JP4277081B2 (en) | Driving assistance device | |
JP4420011B2 (en) | Object detection device | |
JP5783155B2 (en) | Display device | |
EP2759999A1 (en) | Apparatus for monitoring surroundings of vehicle | |
EP3154835A1 (en) | Top-down refinement in lane marking navigation | |
CN102415096A (en) | Vehicle surrounding monitoring device | |
JP2007310706A (en) | Vehicle periphery monitoring device | |
JP2009226978A (en) | Vehicular circumference monitoring device | |
JP2009231938A (en) | Surrounding monitoring device for vehicle | |
JP2018097515A (en) | Drive assisting device, drive assisting method, and program thereof | |
JP2008003880A (en) | Vehicle periphery monitoring system, vehicle periphery monitoring program and method for constructing vehicle periphery monitoring system and server | |
JP2022041244A (en) | On-vehicle display device, method, and program | |
JP2017129973A (en) | Driving support apparatus and driving support method | |
JP4968369B2 (en) | In-vehicle device and vehicle recognition method | |
JP2015067030A (en) | Driving assist system | |
JP2010107435A (en) | Feature position recognition device | |
JP4800078B2 (en) | Vehicle perimeter monitoring system | |
JP4823753B2 (en) | Vehicle periphery monitoring device | |
JP4884806B2 (en) | Vehicle perimeter monitoring system | |
JP2007257258A5 (en) | ||
JP4269862B2 (en) | On-vehicle moving body detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080903 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110802 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110803 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4800078 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |