JP4244887B2 - 移動位置予測装置、移動位置予測方法、衝突判定装置、及び衝突判定方法 - Google Patents

移動位置予測装置、移動位置予測方法、衝突判定装置、及び衝突判定方法 Download PDF

Info

Publication number
JP4244887B2
JP4244887B2 JP2004252445A JP2004252445A JP4244887B2 JP 4244887 B2 JP4244887 B2 JP 4244887B2 JP 2004252445 A JP2004252445 A JP 2004252445A JP 2004252445 A JP2004252445 A JP 2004252445A JP 4244887 B2 JP4244887 B2 JP 4244887B2
Authority
JP
Japan
Prior art keywords
feature point
dimensional image
vehicle
movement
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004252445A
Other languages
English (en)
Other versions
JP2006072491A (ja
Inventor
泰仁 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004252445A priority Critical patent/JP4244887B2/ja
Publication of JP2006072491A publication Critical patent/JP2006072491A/ja
Application granted granted Critical
Publication of JP4244887B2 publication Critical patent/JP4244887B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/84Data processing systems or methods, management, administration

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Instrument Panels (AREA)
  • Image Processing (AREA)

Description

本発明は、周辺車両等の物体と自車両との衝突可能性を判定する処理に適用して好適な、移動位置予測装置、移動位置予測方法、衝突判定装置、及び衝突判定方法に関する。
従来より、物体と自車両との衝突可能性を判定する技術として、ステレオカメラ等のセンサを用いて物体の3次元位置を推定し、この推定結果を利用して物体の予想軌跡を算出し、物体の予想軌跡と自車両の予想軌跡とに基づいて物体と自車両との衝突の危険性を判定する技術が知られている(例えば、特許文献1を参照)。
特開2001−195699号公報
しかしながら、上記従来の技術のように、ステレオカメラ等のセンサを利用して3次元空間内における物体と自車両の位置関係を算出する場合、センサが取得した2次元画像を3次元に再構成する処理を行わなければならないために、計算負荷が大きく、且つ、精度が悪い。
本発明は、上記課題を解決するためになされたものであり、その目的は、計算負荷を大きくすることなく物体と自車両の位置関係を精度高く予測することが可能な移動位置予測装置及び移動位置予測方法を提供することにある。
上述の課題を解決するために、本発明に係る移動位置予測装置及び移動位置予測方法は、自車両周辺の二次元画像を撮像し、二次元画像の中から特徴点を抽出し、抽出された特徴点の位置を所定時間追跡することにより特徴点の位置情報を所定時間取得し、特徴点の位置情報を利用して、特徴点が付随する静止物体と自車両との実空間内における距離を自車両の速度で除じたパラメータ及び二次元画像上の消失点の位置を推定することにより特徴点の移動予測値を算出し、移動予測値に従って二次元画像内における特徴点の位置を予測する。
また、本発明に係る衝突判定装置及び衝突判定方法は、自車両周辺の二次元画像を撮像し、二次元画像の中から特徴点を抽出し、抽出された特徴点の位置を所定時間追跡することにより特徴点の位置情報を所定時間取得し、特徴点の位置情報を利用して、特徴点が付随する静止物体と自車両との実空間内における距離を自車両の速度で除じたパラメータ及び二次元画像上の消失点の位置を推定することにより特徴点の移動予測値を算出し、算出された移動予測値に従って二次元画像内における特徴点の位置を予測し、特徴点が付随する静止物体が自車両側方を通過する時間を算出し、算出された通過時間における移動予測値に基づいて、静止物体と自車両との衝突可能性を判定する。
本発明に係るに移動位置予測装置及び移動位置予測方法によれば、二次元画像内における特徴点の移動軌跡のみを用いて二次元画像内における特徴点の位置を予測するので、計算負荷を大きくすることなく、特徴点が付随する静止物体と自車両の位置関係を精度高く予測することができる。
以下、図面を参照して、本発明の一実施形態となる車両用衝突判定装置の構成と動作について説明する。
〔車両用衝突判定装置の構成〕
本発明の一実施形態となる車両用衝突判定装置1は、図1に示すように、カメラ2,画像上特徴点追従部3,画像上移動位置予測部4,側方通過時間予測部5,及び衝突判定部6を主な構成要素として備える。なお、この実施形態では、カメラ2は、単眼カメラにより構成され、車両周辺の画像を撮像する。また、画像上特徴点追従部3,画像上移動位置予測部4,側方通過時間予測部5,及び衝突判定部6の各構成要素は、車載コンピュータが各構成要素の機能(動作)を規定したコンピュータプログラムを実行することにより実現される。
そして、このような構成を有する車両用衝突判定装置1は、以下に示す衝突判定処理を実行することにより、周囲車両等の物体と車両との衝突可能性があるか否かを正確に判定し、周囲車両等の物体と車両との衝突可能性がある場合、ユーザに警告を発する。以下、図3に示すフローチャートを参照して、この衝突判定処理を実行する際の車両用衝突判定装置1の動作について詳しく説明する。
〔衝突判定処理〕
図2に示すフローチャートは、車両のイグニッションスイッチがオン状態になり、車両用衝突判定装置1に電力が供給されるのに応じて開始となり、衝突判定処理はステップS1の処理に進む。
ステップS1の処理では、カメラ2が、車両周辺の画像を所定フレームレート毎に取得し、取得した車両周辺の画像のデータを画像上特徴点追従部3に入力する。これにより、このステップS1の処理は完了し、この判定処理はステップS1の処理からステップS2の処理に進む。
ステップS2の処理では、画像上特徴点追従部3が、カメラ2から入力された2次元画像の中から特徴点を抽出し、時間tiにおける2次元画像内での特徴点の位置(x,y)を算出する。そして、画像上特徴点追従部3は、図3に示すように、この特徴点の動きを追跡することにより、特徴点の位置(x,y)の時系列データPiを算出し、算出された時系列データPiを画像上移動位置予測部4に入力する。これにより、このステップS2の処理は完了し、この判定処理はステップS2の処理からステップS3の処理に進む。
ステップS3の処理では、画像上移動位置予測部4が、画像上特徴点追従部3から入力された時系列データPiを利用して、任意の時刻tiにおける2次元画像内における特徴点の位置(xi,yi)を予測する。具体的には、画像上移動位置予測部4は、自車両の速度をv1,カメラ2の焦点距離をf,時刻t1における特徴点が付随する物体Bと自車両Aとの間の距離を(L,W,H)(図4参照),2次元画像上における消失点の位置を(xp.yp)と定義し、以下に示す数式1,2を利用して任意の時刻tiにおける2次元画像内での特徴点の位置(xi,yi)を推定する。但し、この場合、自車両の速度v1は一定であり、特徴点が付随する物体Bは実空間において静止をしているものとする。
なお、時刻t1における特徴点を含む物体と自車両との間の距離(L,W,H)は、自車両の速度v1を基準として考えると、パラメータ(α,β,γ)を用いて(αv1,βv1,rv1)と表すことができるので、上記数式1,2は以下に示す数式3,4のように変形することができる。
Figure 0004244887
Figure 0004244887
従って、画像上移動位置予測部4は、上記数式3,4を用いてパラメータ(α,β,γ)と2次元画像上の消失点の位置(x,y)を推定することにより、自車両の速度v1を用いることなく、任意の時間tiにおける2次元画面内での特徴点の位置(x,y)を推定することができる。具体的には、上記数式3の両辺を時間tiについて微分することにより以下に示す数式5が得られ、この数式5をfβについて整理することにより以下に示す数式6が得られる。また、上記数式6を数式3に代入することにより以下に示す数式7が得られる。
Figure 0004244887
Figure 0004244887
Figure 0004244887
さらに、数式7内の項dxi/dtiは特徴点の移動速度であるので、数式7内の項dxi/dtiを(x−xi−1)と表した上で、時系列データPiを数式7内に代入する。そして、画像上移動位置予測部4は、最小二乗法に基づいて、数式7の左辺と右辺の差を2乗した値Q(以下に示す数式8参照)をパラメータx,αで微分した式を用いてパラメータx,αを推定する。これにより、このステップS3の処理は完了し、この判定処理はステップS3の処理からステップS4の処理に進む。
Figure 0004244887
ステップS4の処理では、側方通過時間予測部5が、上記ステップS3の処理において推定されたパラメータαを特徴点が付随する物体が実空間内においてカメラ2とすれ違う通過時間T2として設定し、衝突判定部6が、側方通過時間予測部5により設定された通過時間T2における特徴点(xT2,yT2)の位置に基づいて、特徴点が付随する物体と自車両との衝突可能性を判定する。なお、側方通過時間予測部5は、パラメータαより所定時間Tmin短い時間(α−Tmin)を通過時間T2として設定し、通過時間T2において物体が二次元画面内に映るようにすることが望ましい。また、衝突判定部6は、図5に示すように、通過時間T2における特徴点(xT2,yT2)の位置が2次元画面内から大きく外れている場合、自車両は物体と衝突せず、図6に示すように、通過時間T2における特徴点(xT2,yT2)の位置が2次元画面中央位置に近い場合には、自車両と物体が衝突する可能性が高いと判定するとよい。これにより、このステップS4の処理は完了し、この判定処理はステップS4の処理からステップS5の処理に進む。
ステップS5の処理では、衝突判定部6が、ステップS4の処理における判定の結果、物体との衝突可能性がない場合、判定処理をステップS1の処理に戻す。一方、物体との衝突可能性がある場合には、衝突判定部6は判定処理をステップS6の処理に進める。
ステップS6の処理では、衝突判定部6は、図示しない表示装置や音声出力装置を介して、物体との衝突可能性があることを運転者に警告する。これにより、このステップS6の処理は完了し、この判定処理はステップS6の処理からステップS1の処理に戻る。
以上の説明から明らかなように、本発明の一実施形態となる車両用衝突判定装置1によれば、カメラ2が、自車両周辺の2次元画像を撮像し、画像上特徴点追従部3が、カメラ2により撮像された2次元画像の中から特徴点を抽出し、抽出された特徴点を所定時間追跡することにより特徴点の時系列データPiを取得し、画像上移動位置予測部4が、特徴点の時系列データPiを利用して特徴点の移動予測値を算出し、算出された移動予測値に従って2次元画像内における特徴点の位置(x,y)を予測する。そして、このような構成によれば、特徴点の時系列データPiのみを用いて2次元画面内における特徴点の位置を予測することができるので、計算負荷を大きくすることなく、特徴点が付随する物体と自車両の位置関係を精度高く予測することができる。
また、本発明の一実施形態となる車両用衝突判定装置1によれば、側方通過時間予測部5が、特徴点が付随する物体が自車両側方を通過する時間T2を算出し、衝突判定部6が、時刻T2における特徴点の位置(xT2,yT2)に基づいて、特徴点が付随する物体と自車両との衝突可能性を判定する。そして、このような構成によれば、特徴点の時系列データPiのみを用いて2次元画面内における物体の位置を予測し、予測された位置に基づいてその物体との衝突可能性を判定することができるので、計算負荷を大きくすることなく物体と自車両の位置関係を精度高く予測すると共に、物体が横方向の速度を有する場合であっても物体と自車両の衝突時間を正確に算出することができる。
また、本発明の一実施形態となる車両用衝突判定装置1によれば、側方通過時間予測部5は、2次元画像内における特徴点の2次元位置(x,y)に基づいて通過時間を算出するので、センサ等の付加的な装置を用いることなく、且つ、自車両の速度v1を考慮することなく、2次元画面内における物体の動きのみで衝突時間を算出することができる。さらに、自車両の速度v1を考慮する必要がないことから、自車両が低速走行中で自車両の速度v1を正確に検出することができない場合であっても、物体との衝突判定を正確に行うことができる。また、自車両が移動している場合や、自車両に対して斜め前方から接近してくる物体についても衝突判定を行うことができる。
以上、本発明者によってなされた発明を適用した実施の形態について説明したが、この実施の形態による本発明の開示の一部をなす論述及び図面により本発明は限定されることはない。すなわち、この実施の形態に基づいて当業者等によりなされる他の実施の形態、実施例及び運用技術等は全て本発明の範疇に含まれることは勿論であることを付け加えておく。
本発明の一実施形態となる車両用衝突判定装置の構成を示すブロック図である。 本発明の一実施形態となる衝突判定処理の流れを示すフローチャート図である。 特徴点の位置の時系列データの算出方法を説明するための図である。 任意の時刻における物体と自車両との位置関係を表す図である。 自車両との衝突可能性がない場合の2次元画面内における特徴点の位置を示す図である。 自車両との衝突可能性がある場合の2次元画面内における特徴点の位置を示す図である。
符号の説明
1:車両用衝突判定装置
2:カメラ
3:画像上特徴点追従部
4:画像上移動位置予測部
5:側方通過時間予測部
6:衝突判定部

Claims (5)

  1. 自車両周辺の二次元画像を撮像する撮像手段と、
    前記撮像手段により撮像された二次元画像の中から特徴点を抽出し、抽出された特徴点の動きを所定時間追跡することにより特徴点の位置情報を所定時間取得する特徴点追従手段と、
    前記特徴点追従手段により取得された特徴点の位置情報を利用して、特徴点が付随する静止物体と自車両との実空間内における距離を自車両の速度で除じたパラメータ及び二次元画像上の消失点の位置を推定することにより特徴点の移動予測値を算出し、算出された移動予測値に従って前記二次元画像内における特徴点の位置を予測する画像上移動位置予測手段と
    を備えることを特徴とする移動位置予測装置。
  2. 自車両周辺の画像を撮像するステップと、
    撮像された二次元画像の中から特徴点を抽出し、抽出された特徴点の動きを所定時間追跡することにより特徴点の位置情報を所定時間取得するステップと、
    前記特徴点の位置情報を利用して、特徴点が付随する静止物体と自車両との実空間内における距離を自車両の速度で除じたパラメータ及び二次元画像上の消失点の位置を推定することにより特徴点の移動予測値を算出し、算出された移動予測値に従って前記二次元画像内における特徴点の位置を予測するステップと
    を有することを特徴とする移動位置予測方法。
  3. 自車両周辺の二次元画像を撮像する撮像手段と、
    前記撮像手段により撮像された二次元画像の中から特徴点を抽出し、抽出された特徴点の位置を所定時間追跡することにより特徴点の位置情報を所定時間取得する特徴点追従手段と、
    前記特徴点追従手段により取得された特徴点の位置情報を利用して、特徴点が付随する静止物体と自車両との実空間内における距離を自車両の速度で除じたパラメータ及び二次元画像上の消失点の位置を推定することにより特徴点の移動予測値を算出し、算出された移動予測値に従って前記二次元画像内における特徴点の位置を予測する画像上移動位置予測手段と、
    前記特徴点が付随する静止物体が自車両側方を通過する時間を算出する側方通過時間算出手段と、
    前記通過時間算出手段により算出された通過時間における前記移動予測値に基づいて、前記静止物体と自車両との衝突可能性を判定する衝突判定手段と
    を備えることを特徴とする衝突判定装置。
  4. 請求項3に記載の衝突判定装置であって、
    前記側方通過時間算出手段は、前記二次元画像内における特徴点の2次元位置に基づいて前記静止物体が自車両側方を通過する時間を算出することを特徴とする衝突判定装置。
  5. 自車両周辺の二次元画像を撮像するステップと、
    前記二次元画像の中から特徴点を抽出し、抽出された特徴点の位置を所定時間追跡することにより特徴点の位置情報を所定時間取得するステップと、
    前記特徴点の位置情報を利用して、特徴点が付随する静止物体と自車両との実空間内における距離を自車両の速度で除じたパラメータ及び二次元画像上の消失点の位置を推定することにより特徴点の移動予測値を算出し、算出された移動予測値に従って前記二次元画像内における特徴点の位置を予測するステップと、
    前記特徴点が付随する静止物体が自車両側方を通過する時間を算出するステップと、
    算出された通過時間における前記移動予測値に基づいて、前記静止物体と自車両との衝突可能性を判定するステップと
    を有することを特徴とする衝突判定方法。
JP2004252445A 2004-08-31 2004-08-31 移動位置予測装置、移動位置予測方法、衝突判定装置、及び衝突判定方法 Expired - Fee Related JP4244887B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004252445A JP4244887B2 (ja) 2004-08-31 2004-08-31 移動位置予測装置、移動位置予測方法、衝突判定装置、及び衝突判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004252445A JP4244887B2 (ja) 2004-08-31 2004-08-31 移動位置予測装置、移動位置予測方法、衝突判定装置、及び衝突判定方法

Publications (2)

Publication Number Publication Date
JP2006072491A JP2006072491A (ja) 2006-03-16
JP4244887B2 true JP4244887B2 (ja) 2009-03-25

Family

ID=36153089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004252445A Expired - Fee Related JP4244887B2 (ja) 2004-08-31 2004-08-31 移動位置予測装置、移動位置予測方法、衝突判定装置、及び衝突判定方法

Country Status (1)

Country Link
JP (1) JP4244887B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4800078B2 (ja) * 2006-03-23 2011-10-26 本田技研工業株式会社 車両周辺監視システム
EP2210235B1 (en) * 2007-10-12 2011-02-23 Toyota Motor Europe NV Methods and systems for processing of video data
JP5461377B2 (ja) * 2010-12-08 2014-04-02 株式会社ブリヂストン 角度測定装置、角度の測定方法、及びプログラム
DE102015112289A1 (de) * 2015-07-28 2017-02-02 Valeo Schalter Und Sensoren Gmbh Verfahren zum Identifizieren eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353565A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 車両用衝突警報方法及び装置
JP2001195699A (ja) * 2000-01-14 2001-07-19 Yazaki Corp 車両用周辺監視装置及び、車両用衝突危険判断処理プログラムを記録した記録媒体
JP4450532B2 (ja) * 2001-07-18 2010-04-14 富士通株式会社 相対位置計測装置
JP2004227293A (ja) * 2003-01-23 2004-08-12 Nissan Motor Co Ltd 側方車両検出装置

Also Published As

Publication number Publication date
JP2006072491A (ja) 2006-03-16

Similar Documents

Publication Publication Date Title
JP4899424B2 (ja) 物体検出装置
JP5075672B2 (ja) 対象物検出装置及び方法
JP6141079B2 (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
CN105719311B (zh) 用于检测目标的车辆系统及其操作方法
JP2010198552A (ja) 運転状況監視装置
JP2013225295A5 (ja)
JP2007263657A (ja) 3次元座標取得装置
JP2007188417A (ja) 画像認識装置、画像認識方法および画像認識プログラム
CN107451539B (zh) 一种车道偏离预警方法及系统
KR20170064652A (ko) 에고모션 추정 시스템 및 방법
CN108122245B (zh) 一种目标行为描述方法、装置和监控设备
JP3651419B2 (ja) 環境認識装置
JP5107154B2 (ja) 運動推定装置
JP6241172B2 (ja) 自車位置推定装置及び自車位置推定方法
JP7145770B2 (ja) 車間距離測定装置、誤差モデル生成装置および学習モデル生成装置とこれらの方法およびプログラム
JP4244887B2 (ja) 移動位置予測装置、移動位置予測方法、衝突判定装置、及び衝突判定方法
JP5012522B2 (ja) 路側境界面検出装置
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP5251814B2 (ja) 運転支援装置
JP2008003696A (ja) 画像処理装置及び画像処理方法
JP3985610B2 (ja) 車両用走行路認識装置
JP4075879B2 (ja) 車両用衝突警報装置及び車両用衝突警報方法
US20220406070A1 (en) Method and device for recognizing an object for a vehicle including a mono camera, and camera system
JP7309630B2 (ja) 画像処理装置
JP2006172063A (ja) 画像処理装置、および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081229

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees