JP2008140155A - 障害物検出方法、障害物検出プログラムおよび障害物検出装置 - Google Patents

障害物検出方法、障害物検出プログラムおよび障害物検出装置 Download PDF

Info

Publication number
JP2008140155A
JP2008140155A JP2006325852A JP2006325852A JP2008140155A JP 2008140155 A JP2008140155 A JP 2008140155A JP 2006325852 A JP2006325852 A JP 2006325852A JP 2006325852 A JP2006325852 A JP 2006325852A JP 2008140155 A JP2008140155 A JP 2008140155A
Authority
JP
Japan
Prior art keywords
motion vector
obstacle
image
obstacle detection
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006325852A
Other languages
English (en)
Other versions
JP4847303B2 (ja
Inventor
Sotaro Kaneko
宗太郎 金子
Takafumi Enami
隆文 枝並
Toru Tsuruta
徹 鶴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006325852A priority Critical patent/JP4847303B2/ja
Publication of JP2008140155A publication Critical patent/JP2008140155A/ja
Application granted granted Critical
Publication of JP4847303B2 publication Critical patent/JP4847303B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】単一のカメラからの画像に基づき、環境の変化に対しても精度よく障害物を検出すること。
【解決手段】障害物検出装置100は、画像入力部110が画像データを画像記憶部120に順次記憶させ、動きベクトル算出部130が画像記憶部120に記憶された異なる時点の画像データを基にして動きベクトルを算出する。そして、走行空間モデル生成部160がカメラデータ入力部140および車両データ入力部150から各種データを取得して走行空間モデルを生成し、生成した走行空間モデルから仮想動きベクトルを算出し、モデル差分ベクトル算出部170が動きベクトルおよび仮想動きベクトルから差分ベクトルを算出し、障害物検出部180が差分ベクトルから障害物を検出する。
【選択図】 図2

Description

この発明は、カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出方法、障害物検出プログラムおよび障害物検出装置に関し、特に、単一のカメラを用いた場合であっても環境の変化に対応し、精度よく障害物を検出可能な障害物検出方法、障害物検出プログラムおよび障害物検出装置に関するものである。
近年、交通事故による負傷者の数は増加の傾向にあるため、かかる交通事故を防止すべく様々な技術が考案され実用化されている。このような技術の中には、車載カメラの映像から走路内に侵入してくる障害物(歩行者、走行車両など)を検出して運転者に通知することで、障害物に対する注意を促し、交通事故を防止するという技術がある。
障害物を検出する技術としては、複数のカメラによって撮影される画像の空間的視差を利用して障害物を検出するステレオカメラ技術が公開されている(例えば、特許文献1参照)。しかし、ステレオカメラ技術を用いて障害物を検出する場合には、複数のカメラを車両に設置する必要があるため、車体設計の自由度の低下あるいはコストが高くなる等の問題があった。
上述した問題を解決する技術としては、複数のカメラを用いることなく、単一のカメラを用いることよって、障害物を検出するという技術がある(例えば、特許文献2および特許文献3など)。この技術は、単一のカメラを用いて異なる時間における画像間の動きベクトルを算出し、各時間における画像間の動きベクトルの差から障害物を検出する技術である。
具体的に、特許文献2に公開されている技術は、各画像から抽出した路面領域内の特徴点が重なるような変換行列を作成して画像を重ね合わせ、うまく重ならない画像領域を障害物として検出している。
また、特許文献3に公開されている技術は、異なる時間における画像を領域分割して画素の動きベクトルを算出し、またその画像の類似度の変化量を算出する。その上で、動きベクトル量が少なく、かつ、類似度の変化量が大きい領域を障害物として検出している。
特開2001−41741号公報 特開2003−44996号公報 特開2005−100204号公報
しかしながら、上述した従来の技術では、単一のカメラによって画像を撮影し、障害物を検出する場合に、車両の走行による路面テクスチャの変動や、天候による変動(反射、影、水溜り)などの環境変化が大きいため、精度よく障害物を検出することができないという問題があった。
この発明は、上述した従来技術による問題点を解消するためになされたものであり、単一のカメラからの画像に基づき、環境の変化に対しても精度よく障害物を検出することができる障害物検出方法、障害物検出プログラムおよび障害物検出装置を提供することを目的とする。
上述した課題を解決し、目的を達成するため、本発明は、カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出方法であって、前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶工程と、前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出工程と、前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出工程と、前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出工程と、を含んだことを特徴とする。
また、本発明は、上記発明において、前記仮想動きベクトル算出工程は、前記車両の回転角に基づいて前記仮想的な動きベクトルを補正することを特徴とする。
また、本発明は、上記発明において、前記仮想動きベクトル算出工程は、前記カメラの画像ピッチに基づいて前記画像上の座標を前記モデル上の座標に変換し、前記画像の各領域に対応する仮想的な動きベクトルを算出することを特徴とする。
また、本発明は、上記発明において、前記障害物検出工程は、前記画像の各領域に対する前記動きベクトルと前記各領域に対応する前記仮想的な動きベクトルとの差分を検出し、当該差分に基づいて障害物を検出することを特徴とする。
また、本発明は、カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出プログラムであって、前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶手順と、前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手順と、前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出手順と、前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出手順と、をコンピュータに実行させることを特徴とする。
また、本発明は、カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出装置であって、前記カメラから異なる時点での画像を取得し、取得した異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手段と、前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出手段と、前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出手段と、を備えたことを特徴とする。
本発明によれば、カメラから異なる時点での画像を取得して記憶装置に記憶し、記憶装置に記憶された異なる時点での画像に基づいて各領域における動きベクトルを算出し、車両の走行状態からこの車両の走行する空間のモデルを生成し、生成したモデルに基づいて画像の各領域に対応する仮想的な動きベクトルを算出し、動きベクトルおよび仮想的な動きベクトルに基づいて障害物を検出するので、単一のカメラを用いた場合であっても環境の変化に対応し、精度よく障害物を検出することができる。
また、本発明によれば、車両の回転角に基づいて仮想的な動きベクトルを補正するので、より正確に障害物を検出することができる。
また、本発明によれば、カメラの画像ピッチに基づいて画像上の座標をモデル上の座標に変換し、画像の各領域に対応する仮想的な動きベクトルを算出するので、動きベクトルと仮想的な動きベクトルとを正確に比較することができ、障害物検出処理にかかる精度が向上する。
また、本発明によれば、画像の各領域に対する動きベクトルと各領域に対応する仮想的な動きベクトルとの差分を検出し、当該差分に基づいて障害物を検出するので、簡易的かつ正確に障害物を検出することができる。
以下に添付図面を参照して、この発明に係る障害物検出方法、障害物検出プログラムおよび障害物検出装置の好適な実施の形態を詳細に説明する。
まず、本実施例1にかかる障害物検出装置の概要および特徴について説明する。図1は、本実施例1にかかる障害物検出装置の概要および特徴を説明するための説明図である。同図に示すように、本実施例1にかかる障害物検出装置は、カメラから異なる時点での画像を取得し、取得した各画像に基づいて画像の各領域にかかる動きベクトル(図1の上段右側を参照)を算出すると共に、車両の走行状態から仮想的な動きベクトル(図1の上段左側を参照)を算出する。そして、障害物検出装置は、動きベクトルと仮想的な動きベクトルとを対応させて各領域ごとに比較し、動きベクトルと仮想的な動きベクトルとの差分から障害物(歩行者、走行車両、走路内に進入してくる障害物など)を検出する(図1の下段参照)。
このように、本実施例1にかかる障害物検出装置は、異なる時点の画像から算出した動きベクトルと、車両の走行状態から算出した仮想的な動きベクトルとを基にして障害物を検出するので、単一のカメラからの画像を利用した場合であっても、環境の変化に対し精度よく障害物を検出することができる。
つぎに、本実施例1にかかる障害物検出装置の構成について説明する。図2は、本実施例1にかかる障害物検出装置100の構成を示す機能ブロック図である。同図に示すように、この障害物検出装置100は、画像入力部110と、画像記憶部120と、動きベクトル算出部130と、カメラデータ入力部140と、車両データ入力部150と、走行空間モデル生成部160と、モデル差分ベクトル算出部170と、障害物検出部180と、出力部190とを備えて構成される。
画像入力部110は、車載カメラ(図示略)から一定のフレームレートで画像のデータ(以下、画像データ)を取得し、取得した画像データを順次画像記憶部120に記憶させる処理部である。画像記憶部120は、画像データを記憶する記憶部である。この画像記憶部120は、画像内の時間差分による動きベクトルを作成するために必要なだけの画像データを保存するためのバッファを備える。
動きベクトル算出部130は、画像記憶部120から異なる時点での画像データを取得し(例えば、画像記憶部120に最後に記憶された画像データとこの画像データよりも所定時間前に撮影された画像データとを取得し)、取得した画像データを基にして画像データの各領域における動きベクトルを算出する。この動きベクトルを算出する手法は、従来のどのような手法を用いても構わないが、例えば、特許文献3において開示されている手法などを用いて動きベクトルを算出することができる。動きベクトル算出部130は、算出した動きベクトルのデータをモデル差分ベクトル算出部170に出力する。
カメラデータ入力部140は、車両に設置されたカメラに関する各種データを取得する処理部である。カメラに関する各種データは、カメラから路面までの高さを示すカメラ垂直設置位置、車両の走行する空間を仮定した場合の空間の横幅を示す走行領域幅、カメラ垂直設置位置から空間(車両の走行する空間)の上面までの高さを示す走行領域高さ、カメラからカメラの焦点位置までの距離を示すカメラ焦点距離、カメラの画素ピッチを示すカメラ画素ピッチのデータを含んでいる。カメラに関する各種パラメータは、動的に変更が行われてもよいが、予めユーザが各種パラメータを設定しておいてもよい。カメラデータ入力部140は、カメラに関する各種データを走行空間モデル生成部160に出力する。
車両データ入力部150は、車両の走行状態に関する各種データを取得する処理部である。車両の走行状態に関する各種データは、車両の速度を示す車速データ、ステアリングおよび斜面による車両のヨー、ロール、ピッチを示す車両回転角のデータを含んでいる。車速データは車速パルスなどから得ることができ、車両回転角はステアリングセンサあるいはジャイロスコープなどから得ることができる。車両データ入力部150は、車両の走行状態に関する各種データを走行空間モデル生成部160に出力する。
走行空間モデル生成部160は、カメラに関する各種データおよび車両の走行状態に関する各種データを基にして、仮想的な動きベクトル(以下、仮想動きベクトル)を算出する処理部である。以下において、走行空間モデル生成部160の行う処理を順に説明する。
まず、走行空間モデル生成部160は、カメラに関する各種データおよび車両の走行状態に関する各種データを基にして、走行空間モデルを生成する。走行空間モデルとは、仮想的な車両の走行環境であり、車両が時間局所的にこれから走行するであろう空間をカメラの撮影範囲を含むようにして示したモデルである。これから走行するであろうとは、あくまでも車両の舵角(車両回転角)や車速(車速データ)によって予測されるものであり、路上の白線や車線幅に本質的に依存しないものである。したがって、環境の変化に強い走行空間モデルを生成することができる。
図3は、走行空間モデルの一例を示す図である。図3に示す例では、車載カメラを車両前方中央に配置し、撮影範囲を矩形とした場合の、前方直進時の走行空間モデルを示している。図3に示すhは、カメラ垂直設置位置を示し、Lは、走行領域幅を示し、Hは、走行領域高さを示す。なお、本実施例1では、カメラ垂直設置位置hを負数として説明する。これは、カメラの設置された位置を原点とし、この原点から鉛直上向きを正とするためである。また、走行領域幅L、走行領域高さHは、上述したように、車両の車幅および車高そのものではなく、多少のマージンをもって定義されているものとする。
図3の右側は、本実施例1にかかる車載カメラから見たと仮定した走行空間モデルを示している。同図に示すように、車載カメラから見た空間モデルは、上面部、下面部、側面部に分類することができる。
続いて、走行空間モデル生成部160は、走行空間モデルを利用して、動きベクトル算出部130によって算出される動きベクトルに対応する仮想動きベクトルを全て算出する。ここでは、説明の便宜上、動きベクトルに対応する画像上の座標を(x,y)として仮想動きベクトルの算出方法を説明する。その他に座標に関する仮想動きベクトルの算出方法は座標が変更されるだけなので説明を省略する。
走行空間モデル生成部160は、画像座標系の座標(x,y)を、カメラ設置位置を原点としたモデル空間座標系の座標(u,v)に変換する。図4は、画像座標系の座標(x,y)をモデル空間座標系の座標(u,v)に変換する処理を説明するための説明図である。なお、図4では、画像の中心に消失点があるとした場合の座標変換を示している。
画像座標系に示すWidthは、画像の横幅に含まれる画素数(以下、画像横画素数と表記する)を示し、Heightは、画像の縦幅に含まれる画素数(以下、画像縦画素数)を示している。画像座標系の座標(x,y)をモデル空間座標系の座標(u,v)に変換する具体的な式は、
Figure 2008140155
Figure 2008140155
によって表すことができる。なお、式(1)および式(2)に含まれるcは、カメラの画素ピッチを示す。
続いて、走行空間モデル生成部160は、走行空間モデルのどの領域(上面部、下面部、側面部;図3参照)にモデル空間座標系の座標(u,v)が含まれるかを判定する(領域判定を行う)。図5は、走行空間モデル生成部160が行う領域判定を説明するための説明図である。
走行空間モデル生成部160は、モデル空間座標系の座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHの関係に基づいて、座標(u,v)の位置する領域を判定する。具体的に、走行空間モデル生成部160は、座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHの関係の関係が
Figure 2008140155
を満たす場合に、座標(u,v)が下面部に位置すると判定する。
一方、走行空間モデル生成部160は、座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHの関係の関係が
Figure 2008140155
を満たす場合に、座標(u,v)が上面部に位置すると判定する。なお、走行空間モデル生成部160は、座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHが式(1)および式(2)のいずれの式にも該当しない場合には、座標(u,v)が側面部に位置すると判定する。
走行空間モデル生成部160は、領域判定による判定結果に基づいて、それぞれの領域に位置する座標(u,v)の仮想動きベクトルを算出する。以下において、座標(u,v)が下面部に位置する場合の仮想動きベクトル、上面部に位置する場合の仮想動きベクトル、側面部に位置する場合の仮想動きベクトルの算出方法について順に説明する。
(座標(u,v)が下面部に位置する場合)
座標(u,v)が下面部に位置する場合の仮想動きベクトル(du,dv)の算出方法について説明する。図6は、座標(u,v)が下面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。図6に示すFはカメラの焦点位置を示し、fはカメラから焦点までの焦点距離を示し、zは焦点Fから物体(障害物の候補となる物体)の位置Aまでの進行方向の距離(すなわち、焦点位置Fから位置Bまでの)を示す。
また、Vは車速を示し、dzは微小時間(カメラが画像を撮影するサンプルレートに対応する時間)dtに移動する物体の距離を示す(図6において車両は左から右に移動し、物体は右から左に動くものとする)。また、物体Aがdt時間後に移動する位置をA’とし、位置A’と焦点位置Fと含んだ直線が鉛直方向の軸(v軸)と交わる位置をCとした定義した場合に、vと位置Cとの差をdvとする。
図6に示すように、三角形の相似の関係から、
Figure 2008140155
となる関係式(5)を導くことができ、式(5)より、
Figure 2008140155
Figure 2008140155
を導くことができる。
そして、式(6)をzで微分することによって、
Figure 2008140155
を導くことができ、
式(8)から座標(u,v)のv軸成分の仮想動きベクトルdvを
Figure 2008140155
によって表すことができる。
一方、座標(u,v)におけるuおよびvの関係式は、
Figure 2008140155
によって表すことができ、式(9)および式(10)から座標(u,v)のu軸成分の仮想動きベクトルduを
Figure 2008140155
によって表すことができる。
(座標(u,v)が上面部に位置する場合)
続いて、座標(u,v)が上面部に位置する場合の仮想動きベクトル(du,dv)の算出方法について説明する。座標(u,v)が上面部に位置する場合には、上述した式(5)〜式(11)に含まれるカメラ垂直設置位置hを走行領域高さHに変えることによって求めることができる。具体的には、座標(u,v)が上面部に位置する場合の仮想動きベクトルを(du,dv)を
Figure 2008140155
Figure 2008140155
によって表すことができる。
(座標(u,v)が側面部に位置する場合)
続いて、座標(u,v)が側面部に位置する場合の仮想動きベクトル(du,dv)の算出方法について説明する。図7は、座標(u,v)が側面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。図7に示すFはカメラの焦点位置を示し、fはカメラから焦点までの焦点距離を示し、zは焦点Fから物体(障害物の候補となる物体)Dの水平方向成分Eまでの距離を示す。
また、Vは車速を示し、dzは微小時間(カメラが画像を撮影するサンプルレートに対応する時間)dtに移動する物体の距離を示す(図7において車両は左から右に移動し、物体は右から左に動くものとする)。また、物体Dがdt時間後に移動する位置をD’とし、位置D’と焦点位置Fと含んだ直線がu軸と交わる位置をGとした定義した場合に、vと位置Gとの差をdvとすると、座標(u,v)が側面に位置する場合の仮想動きベクトル(du,dv)は、図7に示す関係から
Figure 2008140155
Figure 2008140155
によって表すことができる。
図2の説明に戻ると、走行空間モデル生成部160は、各座標に対応する仮想動きベクトルを算出した後に、座標と仮想動きベクトルとを対応付けたデータをモデル差分ベクトル算出部170に出力する。図8は、走行空間モデル生成部160によって算出される仮想動きベクトルの一例を示す図である。走行空間モデル生成部160で結果として算出される仮想動きベクトルは、定義した走行空間の境界上に静止物体が存在した場合における画像内の動きを意味する。そのため、例えば、車速が上がると、画像間の動き量も大きくなり、仮想動きベクトルの値も大きくなる。また、図8に示すように、車両に近づくにつれて仮想動きベクトルの値が大きくなる。
モデル差分ベクトル算出部170は、動きベクトル算出部130から取得する動きベクトルと走行空間モデル生成部160から取得する仮想動きベクトルとを対応させて各領域ごとに比較し、各領域ごとに動きベクトルと仮想動きベクトルとの差分となる差分ベクトルを算出する処理部である。なお、動きベクトルに対応する領域に複数の座標が含まれ、単一の動きベクトルに複数の仮想動きベクトルが対応している場合には、仮想動きベクトルの平均値を用いて差分ベクトルを算出してもよいし、代表となる仮想動きベクトルを判定して差分ベクトルを算出してもよい。モデル差分ベクトル算出部170は、各領域ごとの差分ベクトルのデータを障害物検出部180に出力する。
障害物検出部180は、差分ベクトルのデータを取得し、取得した差分ベクトルのデータを基にして障害物を検出する処理部である。具体的に、障害物検出部180は、各領域の差分ベクトルを基にして検出候補となるベクトルと検出候補とならないベクトルとを判定し、検出候補となるベクトルのベクトル分布によって障害物を検出する。ベクトル分布から障害物を検出する方法は、従来の検出方法を用いればよい。
ここで、検出候補とならないベクトルおよび検出候補となるベクトルの判定方法について説明する。障害物検出部180は、動きベクトルと仮想動きベクトルとの差分ベクトルが閾値未満の場合には、かかる差分ベクトルを遠景もしくは微細なノイズと判定し、これを除外する。特に、差分ベクトルが0の場合は、走行空間境界上の静止物となる。
一方、障害物検出部180は、動きベクトルと仮想動きベクトルとの差分ベクトルが閾値以上の場合には、かかる差分ベクトルを検出候補となるベクトルとして判定する。障害物検出部180は、検出した障害物のデータを障害物通知データとして出力部190に出力する。
出力部190は、各種情報をモニタ(もしくはディスプレイ、タッチパネル)やスピーカなどに出力する処理部である。出力部190は、例えば、障害物検出部180から障害物通知データを取得した場合に、取得した障害物通知データをディスプレイに表示させる。図9は、ディスプレイに表示される障害物通知データの一例を示す図である。同図に示すように、障害物に対応する領域がマーキングされている。
つぎに、本実施例1にかかる障害物検出装置100の処理手順について説明する。図10は、本実施例1にかかる障害物検出装置100の処理手順を示すフローチャートである。同図に示すように、画像入力部110が画像データを取得し(ステップS101)、画像データを画像記憶部120に記憶し(ステップS102)、動きベクトル算出部130が異なる時点での画像データを画像記憶部120から取得して各領域ごとに動きベクトルを算出する(ステップS103)。
そして、カメラデータ入力部140は、カメラに関する各種データを取得し(ステップS104)、車両データ入力部150が車両の走行状態に関する各種データを取得し(ステップS105)、走行空間モデル生成部160がカメラに関する各種データおよび車両の走行状態に関する各種データを基にして走行空間モデルを生成し(ステップS106)、動きベクトルの領域に対応する座標の仮想動きベクトルを算出する(ステップS107)。
続いて、モデル差分ベクトル算出部170は、動きベクトル算出部130から取得する動きベクトルと走行空間モデル生成部160から取得する仮想動きベクトルとを各領域ごとに比較し、各領域ごとに動きベクトルと仮想動きベクトルとの差分となる差分ベクトルを算出し(ステップS108)、障害物検出部180は各領域ごとの差分ベクトルを基にして、障害物を検出し(ステップS109)、障害物のデータを出力部190に出力する(ステップS110)。
このように、モデル差分ベクトル算出部170が動きベクトルと仮想動きベクトルから差分ベクトルを算出し、障害物検出部180が差分ベクトルに基づいて障害物を検出するので、環境の変化によらず精度よく障害物を検出することができる。
上述してきたように、本実施例1にかかる障害物検出装置100は、画像入力部110が画像データを画像記憶部120に順次記憶させ、動きベクトル算出部130が画像記憶部120に記憶された異なる時点の画像データを基にして動きベクトルを算出する。そして、走行空間モデル生成部160がカメラデータ入力部140および車両データ入力部150から各種データを取得して走行空間モデルを生成し、生成した走行空間モデルから仮想動きベクトルを算出し、モデル差分ベクトル算出部170が動きベクトルおよび仮想動きベクトルから差分ベクトルを算出し、障害物検出部180が差分ベクトルから障害物を検出するので、単一のカメラを用いた場合であっても、環境変化の影響を受けることなく障害物を精度よく検出することができる。また、複数のカメラを利用する必要がないので、コストを削減することができると共に、車両設計の自由度を向上させることができる。
また、障害物検出部180が差分ベクトルの大きさに応じて、障害物を検出する場合に、差分ベクトルの値が閾値未満となる差分ベクトルを取り除くマスク処理を実行するので、不要な演算を省略することができ、障害物検出部180の障害物検出処理にかかる負担を軽減させることができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例1以外にも、種々の異なる形態にて実施されてもよいものである。そこで、以下では実施例2として本発明に含まれる他の実施例を説明する。
(1)障害物の検出方法
障害物検出部180が障害物を検出する場合に、あるフレームにおいて障害物が境界外で動き、実際は境界上ではないにも関わらず、境界上の動きベクトルと一致して障害物候補から除外されてしまうような場合もありえるが、これは瞬間的な一致で、継続的に境界部分と一致するような動作をすることはなく、継続的な障害物検出を行えば、適切に障害物を検出することができる。より正確に障害物を検出するための対策として、画像記憶部120に記憶された最新の画像データではなく、過去のある異なる時点での画像フレームを読み出して障害物検出を行っても良い。また、障害物検出部180は、前フレームで検出した障害物に対して物体追跡処理などを併用することによって障害物検出の精度を向上させることができる。さらに、障害物検出部180は、同一の障害物の領域を検出する場合に、差分ベクトルだけではなく、水平・垂直エッジなどの特徴量を併用してもよい。
(2)車両との連携
上記の実施例1では、障害物検出装置100は、障害物を検出した場合に、モニタに障害物の情報を表示する例を示したが、これに限定されるものではなく、車両と連携して各種処理を実行することができる。例えば、障害物検出装置100が車両の前方で障害物を検出した場合には、車速を制御する制御部に減速命令を出力し、車両の安全を確保することができる。また、障害物検出装置100が前方で障害物を検出している時点で、運転者が急ブレーキをかけた場合には、車両を制御する制御部と協働して、障害物を回避するようにハンドル制御を行っても良い。
(3)車両回転角を反映した仮想動きベクトルの算出
上記の実施例1では、車両がまっすぐに走行している場合の仮想動きベクトル算出方法について説明したが、車両回転角に応じて、仮想動きベクトルの値は補正される。ここでは一例として、ヨー車両回転角を反映させた仮想動きベクトルの算出方法について説明する。図11は、仮想動きベクトルの補正方法を補足説明するための説明図である。
座標(u,v)は、モデル空間座標系における1座標だが、ヨー車両回転角においてはvに依存せず、常に補正値は0である。すなわち、実施例1で求めた仮想動きベクトルのv成分dvの値そのものとなる。一方、uは、焦点距離fとなる焦点Fと、座標軸との交点において、角θをなしている。
このとき、ヨー車両回転角がdθであった場合、それは単位時間当たりの回転各θyと微小時間dtによって表せるため、補正量duを算出することができる。以下に、補正量duを導く式を示す。
Figure 2008140155
より
Figure 2008140155
ここで
Figure 2008140155
であるため、補正量duは
Figure 2008140155
となる。補正後のu成分の仮想動きベクトルは、実施例1で求めた仮想ベクトルのu成分duに補正量duを加算したものとなる。なお、他の車両回転角(ロール車両回転角、ピッチ車両回転角)も同様に算出することができる。
図12は、ヨー車両回転角度による仮想動きベクトルの違いを示す図である。上段は、車両が右回転している場合の仮想動きベクトルを示し、下段は、車両が左回転している場合の仮想動きベクトルを示している。
(4)システムの構成など
本実施例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部あるいは一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した障害物検出装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部がCPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図13は、図2に示した障害物検出装置100を構成するコンピュータのハードウェア構成を示す図である。このコンピュータは、ユーザからのデータの入力を受け付ける入力装置30、モニタ31、RAM(Random Access Memory)32、ROM(Read Only Memory)33、各種プログラムを記録した記録媒体からプログラムを読み取る媒体読取装置34、画像を撮影するカメラ35、車両の走行状態を検出する走行状態検出装置(ステアリングセンサ、車速パルス、ジャイロスコープなどに対応)36、CPU(Central Processing Unit)37、および、HDD(Hard Disk Drive)38をバス39で接続して構成される。
そして、HDD38には、上述した障害物検出装置100の機能と同様の機能を発揮する障害物検出プログラム38bが記憶されている。そして、CPU37が、障害物検出プログラム38bをHDD38から読み出して実行することにより、上述した障害物検出装置100の機能部の機能を実現する障害物検出プロセス37aが起動される。この障害物検出プロセス37aは、図2に示した画像入力部110、動きベクトル算出部130、カメラデータ入力部140、車両データ入力部150、走行空間モデル生成部160、モデル差分ベクトル算出部170、障害物検出部180、出力部190に対応する。
また、HDD38には、上述した障害物検出装置100において説明した各機能部に利用される各種データ38aが記憶される。CPU37は、各種データ38aをHDD38に記憶するとともに、各種データ38aをHDD38から読み出してRAM32に格納し、RAM32に格納された各種データ32aを利用して障害物検出処理を実行する。
ところで、障害物検出プログラム38bは、必ずしも最初からHDD38に記憶させておく必要はない。たとえば、コンピュータに挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータに接続される「他のコンピュータ(またはサーバ)」などに障害物検出プログラム38bを記憶しておき、コンピュータがこれらから障害物検出プログラム38bを読み出して実行するようにしてもよい。
(付記1)カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出方法であって、
前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶工程と、
前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出工程と、
前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出工程と、
前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出工程と、
を含んだことを特徴とする障害物検出方法。
(付記2)前記仮想動きベクトル算出工程は、前記車両の回転角に基づいて前記仮想的な動きベクトルを補正することを特徴とする付記1に記載の障害物検出方法。
(付記3)前記仮想動きベクトル算出工程は、前記カメラの画像ピッチに基づいて前記画像上の座標を前記モデル上の座標に変換し、前記画像の各領域に対応する仮想的な動きベクトルを算出することを特徴とする付記1または2に記載の障害物検出方法。
(付記4)前記障害物検出工程は、前記画像の各領域に対する前記動きベクトルと前記各領域に対応する前記仮想的な動きベクトルとの差分を検出し、当該差分に基づいて障害物を検出することを特徴とする付記1、2または3に記載の障害物検出方法。
(付記5)カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出プログラムであって、
前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶手順と、
前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手順と、
前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出手順と、
前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出手順と、
をコンピュータに実行させることを特徴とする障害物検出プログラム。
(付記6)前記仮想動きベクトル算出手順は、前記車両の回転角に基づいて前記仮想的な動きベクトルを補正することを特徴とする付記5に記載の障害物検出プログラム。
(付記7)前記仮想動きベクトル算出手順は、前記カメラの画像ピッチに基づいて前記画像上の座標を前記モデル上の座標に変換し、前記画像の各領域に対応する仮想的な動きベクトルを算出することを特徴とする付記5または6に記載の障害物検出プログラム。
(付記8)前記障害物検出手順は、前記画像の各領域に対する前記動きベクトルと前記各領域に対応する前記仮想的な動きベクトルとの差分を検出し、当該差分に基づいて障害物を検出することを特徴とする付記5、6または7に記載の障害物検出プログラム。
(付記9)カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出装置であって、
前記カメラから異なる時点での画像を取得し、取得した異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手段と、
前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出手段と、
前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出手段と、
を備えたことを特徴とする障害物検出装置。
(付記10)前記仮想動きベクトル算出手段は、前記車両の回転角に基づいて前記仮想的な動きベクトルを補正することを特徴とする付記9に記載の障害物検出装置。
(付記11)前記仮想動きベクトル算出手段は、前記カメラの画像ピッチに基づいて前記画像上の座標を前記モデル上の座標に変換し、前記画像の各領域に対応する仮想的な動きベクトルを算出することを特徴とする付記9または10に記載の障害物検出装置。
(付記12)前記障害物検出手段は、前記画像の各領域に対する前記動きベクトルと前記各領域に対応する前記仮想的な動きベクトルとの差分を検出し、当該差分に基づいて障害物を検出することを特徴とする付記9、10または11に記載の障害物検出装置。
以上のように、本発明にかかる障害物検出方法、障害物検出プログラムおよび障害物検出装置は、車両の走行に影響を及ぼす障害物を検出する障害物検出システムなどに有用であり、特に、カメラ台数を制限し、車両設計の自由度を向上させると共に、環境変化に対応して正確に障害物を検出する必要がある場合に適している。
本実施例1にかかる障害物検出装置の概要および特徴を説明するための説明図である。 本実施例1にかかる障害物検出装置の構成を示す機能ブロック図である。 走行空間モデルの一例を示す図である。 画像座標系の座標(x,y)をモデル空間座標系の座標(u,v)に変換する処理を説明するための説明図である。 走行空間モデル生成部が行う領域判定を説明するための説明図である。 座標(u,v)が下面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。 座標(u,v)が側面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。 走行空間モデル生成部によって算出される仮想動きベクトルの一例を示す図である。 ディスプレイに表示される障害物通知データの一例を示す図である。 本実施例1にかかる障害物検出装置の処理手順を示すフローチャートである。 仮想動きベクトルの補正方法を補足説明するための説明図である。 ヨー車両回転角度による仮想動きベクトルの違いを示す図である。 図2に示した障害物検出装置を構成するコンピュータのハードウェア構成を示す図である。
符号の説明
30 入力装置
31 モニタ
32 RAM
32a,38a 各種データ
33 ROM
34 媒体読取装置
35 カメラ
36 走行状態検出装置
37 CPU
37a 障害物検出プロセス
38 HDD
38b 障害物検出プログラム
39 バス
100 障害物検出装置
110 画像入力部
120 画像記憶部
130 動きベクトル算出部
140 カメラデータ入力部
150 車両データ入力部
160 走行空間モデル生成部
170 モデル差分ベクトル算出部
180 障害物検出部
190 出力部

Claims (6)

  1. カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出方法であって、
    前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶工程と、
    前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出工程と、
    前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出工程と、
    前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出工程と、
    を含んだことを特徴とする障害物検出方法。
  2. 前記仮想動きベクトル算出工程は、前記車両の回転角に基づいて前記仮想的な動きベクトルを補正することを特徴とする請求項1に記載の障害物検出方法。
  3. 前記仮想動きベクトル算出工程は、前記カメラの画像ピッチに基づいて前記画像上の座標を前記モデル上の座標に変換し、前記画像の各領域に対応する仮想的な動きベクトルを算出することを特徴とする請求項1または2に記載の障害物検出方法。
  4. 前記障害物検出工程は、前記画像の各領域に対する前記動きベクトルと前記各領域に対応する前記仮想的な動きベクトルとの差分を検出し、当該差分に基づいて障害物を検出することを特徴とする請求項1、2または3に記載の障害物検出方法。
  5. カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出プログラムであって、
    前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶手順と、
    前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手順と、
    前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出手順と、
    前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出手順と、
    をコンピュータに実行させることを特徴とする障害物検出プログラム。
  6. カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出装置であって、
    前記カメラから異なる時点での画像を取得し、取得した異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手段と、
    前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出手段と、
    前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出手段と、
    を備えたことを特徴とする障害物検出装置。
JP2006325852A 2006-12-01 2006-12-01 障害物検出方法、障害物検出プログラムおよび障害物検出装置 Expired - Fee Related JP4847303B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006325852A JP4847303B2 (ja) 2006-12-01 2006-12-01 障害物検出方法、障害物検出プログラムおよび障害物検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006325852A JP4847303B2 (ja) 2006-12-01 2006-12-01 障害物検出方法、障害物検出プログラムおよび障害物検出装置

Publications (2)

Publication Number Publication Date
JP2008140155A true JP2008140155A (ja) 2008-06-19
JP4847303B2 JP4847303B2 (ja) 2011-12-28

Family

ID=39601537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006325852A Expired - Fee Related JP4847303B2 (ja) 2006-12-01 2006-12-01 障害物検出方法、障害物検出プログラムおよび障害物検出装置

Country Status (1)

Country Link
JP (1) JP4847303B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI399706B (zh) * 2010-03-23 2013-06-21 Avermedia Information Inc 一種障礙物偵測警示系統及方法
US9053554B2 (en) 2009-04-23 2015-06-09 Toyota Jidosha Kabushiki Kaisha Object detection device using an image captured with an imaging unit carried on a movable body

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307104A (ja) * 2000-04-26 2001-11-02 Nippon Hoso Kyokai <Nhk> 動画像のオブジェクト抽出装置
JP2002374521A (ja) * 2001-06-13 2002-12-26 Mitsubishi Heavy Ind Ltd 移動体の監視方法および装置
JP2005100204A (ja) * 2003-09-26 2005-04-14 Nissan Motor Co Ltd 障害物検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307104A (ja) * 2000-04-26 2001-11-02 Nippon Hoso Kyokai <Nhk> 動画像のオブジェクト抽出装置
JP2002374521A (ja) * 2001-06-13 2002-12-26 Mitsubishi Heavy Ind Ltd 移動体の監視方法および装置
JP2005100204A (ja) * 2003-09-26 2005-04-14 Nissan Motor Co Ltd 障害物検出装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9053554B2 (en) 2009-04-23 2015-06-09 Toyota Jidosha Kabushiki Kaisha Object detection device using an image captured with an imaging unit carried on a movable body
TWI399706B (zh) * 2010-03-23 2013-06-21 Avermedia Information Inc 一種障礙物偵測警示系統及方法

Also Published As

Publication number Publication date
JP4847303B2 (ja) 2011-12-28

Similar Documents

Publication Publication Date Title
US11816991B2 (en) Vehicle environment modeling with a camera
JP7228652B2 (ja) 物体検出装置、物体検出方法およびプログラム
US8564657B2 (en) Object motion detection system based on combining 3D warping techniques and a proper object motion detection
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
JP4052650B2 (ja) 障害物検出装置、方法及びプログラム
US11338807B2 (en) Dynamic distance estimation output generation based on monocular video
JP5023186B2 (ja) 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
JP5538411B2 (ja) 車両周囲監視装置
JP5251800B2 (ja) 対象物追跡装置及びプログラム
JP2007300181A (ja) 周辺認識装置、周辺認識方法、プログラム
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
JP7135665B2 (ja) 車両制御システム、車両の制御方法及びコンピュータプログラム
JP2008182652A (ja) カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
JP2008276308A (ja) 動画像処理装置、動画像処理システムおよびナビゲーション装置
JP2009053818A (ja) 画像処理装置及びその方法
JP4940177B2 (ja) 交通流計測装置
JP2009252198A (ja) 走行環境推測装置、方法及びプログラム並びに車線逸脱警報装置及び操舵アシスト装置
JP2009143546A (ja) 車両走行速度制御装置および方法
JP6241172B2 (ja) 自車位置推定装置及び自車位置推定方法
JP5125214B2 (ja) 障害物検出方法および障害物検出装置
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
JP4847303B2 (ja) 障害物検出方法、障害物検出プログラムおよび障害物検出装置
JP2008276307A (ja) 動画像処理装置、動画像処理システムおよびナビゲーション装置
KR20150144899A (ko) 단안 카메라를 이용한 영상 기반의 전방 추돌 경고 시스템의 거리 추정 방법
JP2003237509A (ja) 車両用外界認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111013

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees