JP5125214B2 - 障害物検出方法および障害物検出装置 - Google Patents

障害物検出方法および障害物検出装置 Download PDF

Info

Publication number
JP5125214B2
JP5125214B2 JP2007123908A JP2007123908A JP5125214B2 JP 5125214 B2 JP5125214 B2 JP 5125214B2 JP 2007123908 A JP2007123908 A JP 2007123908A JP 2007123908 A JP2007123908 A JP 2007123908A JP 5125214 B2 JP5125214 B2 JP 5125214B2
Authority
JP
Japan
Prior art keywords
motion vector
virtual
obstacle
obstacle detection
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007123908A
Other languages
English (en)
Other versions
JP2008282106A (ja
Inventor
宗太郎 金子
隆文 枝並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2007123908A priority Critical patent/JP5125214B2/ja
Publication of JP2008282106A publication Critical patent/JP2008282106A/ja
Application granted granted Critical
Publication of JP5125214B2 publication Critical patent/JP5125214B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、カメラによって撮影された画像から車両の走行に影響する障害物を検出する障害物検出装置およびその障害物検出方法に関し、特に、走路の状態によらず走行中の車両に影響する障害物を適切に検出可能な障害物検出方法および障害物検出装置に関するものである。
近年、車載カメラで撮影した画像から車両周辺の歩行者や対向車両などの障害物を検出し、検出した障害物をドライバーに通知することによって交通事故を未然に防止するという技術が考案され、実用化されている。
このような障害物検出に関わる技術は、例えば、特許文献1、特許文献2等に公開されている。具体的に、特許文献1において公開されている技術は、単一のカメラで撮影した画像を複数の領域に分割して画素の動きベクトルを算出するとともに画像の類似度を検出し、かかる動きベクトルおよび画像の類似度に基づいて障害物を検出するという技術である。
また、特許文献2では、画像上で、自車両の幅と白線検出等により走行領域を決定し、テンプレートマッチングなどの特徴量追跡により抽出した障害物が走行領域に外部から侵入してきた場合に、進入してきた物体を障害物として検出するという技術が公開されている。
特開2005−100204号公報 特開2004−280194号公報
障害物検出においては、走路上に存在するもの、もしくは走路へ侵入する方向に移動する物体(あるいは走行中の車両に影響する物体)を障害物として検出することが望ましい。しかし、特許文献1において公開されている技術は、走路への侵入の有無に関わらず障害物検出を行ってしまう(例えば、走路の外に移動する物体も障害物として検出してしまう)ため、ドライバーに不必要な情報を通知してしまうという問題があった。
また、特許文献2において公開されている技術では、走路上に白線が存在することで初めて障害物検出を行うことができるため、走路の状態によっては(例えば、走路上に白線が存在しない場合には)障害物を検出することができないという問題があった。
すなわち、走路の状態によらず走行中の車両に影響する障害物を適切に検出することがきわめて重要な課題となっている。
この発明は、上述した従来技術による問題点を解消するためになされたものであり、走路の状態によらず走行中の車両に影響する障害物を適切に検出することができる障害物検出方法および障害物検出装置を提供することを目的とする。
上述した課題を解決し、目的を達成するため、本発明は、カメラによって撮影された画像から車両の走行に影響する障害物を検出する障害物検出装置の障害物検出方法であって、前記カメラから異なる時点での画像を取得して記憶装置に記憶し、当該記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出工程と、前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対する仮想的な動きベクトルを算出する仮想動きベクトル算出工程と、前記モデルを複数の仮想領域に分割し、分割した仮想領域に対応する前記動きベクトルおよび仮想的な動きベクトルと当該仮想領域ごとに設定された判定基準とを基にして障害物を検出する障害物検出工程と、を含んだことを特徴とする。
また、本発明は、上記発明において、前記仮想領域は第1の仮想領域および第2の仮想領域を含み、前記障害物検出工程は、前記第1の仮想領域に含まれる前記動きベクトルと前記仮想的な動きベクトルとを比較し、前記動きベクトルと前記仮想的な動きベクトルとの差が閾値以上かつ、前記動きベクトルおよび前記仮想的な動きベクトルの差分からなるベクトルの符合と前記仮想的な動きベクトルの符号とが異符号となる部分を障害物として検出することを特徴とする。
また、本発明は、上記発明において、前記障害物検出工程は、前記第2の仮想領域に含まれる前記動きベクトルと前記仮想的な動きベクトルとを比較し、前記動きベクトルと前記仮想的な動きベクトルとの差が閾値以上となる部分を障害物として検出することを特徴とする。
また、本発明は、上記発明において、前記障害物検出工程は、比較対象となる前記動きベクトルと仮想的な動きベクトルとの前記仮想領域上の位置に応じて前記閾値を調整することを特徴とする。
また、本発明は、上記発明において、カメラによって撮影された画像から車両の走行に影響する障害物を検出する障害物検出装置であって、前記カメラから異なる時点での画像を取得して記憶装置に記憶し、当該記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手段と、前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対する仮想的な動きベクトルを算出する仮想動きベクトル算出手段と、前記モデルを複数の仮想領域に分割し、分割した仮想領域に対応する前記動きベクトルおよび仮想的な動きベクトルと当該仮想領域ごとに設定された判断基準とを基にして障害物を検出する障害物検出手段と、を備えたことを特徴とする。
本発明によれば、カメラから異なる時点での画像を取得して記憶装置に記憶し、記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出し、車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて画像の各領域に対する仮想的な動きベクトルを算出し、モデルを複数の仮想領域に分割し、分割した仮想領域に対応する動きベクトルおよび仮想的な動きベクトルと当該仮想領域ごとに設定された判定基準とを基にして障害物を検出するので、走路の状態によらず走行中の車両に影響する障害物を適切に検出することができる。
また、本発明によれば、仮想領域は第1の仮想領域および第2の仮想領域を含み、第1の仮想領域に含まれる動きベクトルと仮想的な動きベクトルとを比較し、動きベクトルと仮想的な動きベクトルとの差が閾値以上かつ、動きベクトルおよび仮想的な動きベクトルとの差分からなるベクトルの符号と仮想的な動きベクトルの符号とが異符号となる部分を障害物として検出するので、走路に侵入する障害物を的確に検出することができる。
また、本発明によれば、第2の仮想領域に含まれる動きベクトルと前記仮想的な動きベクトルとを比較し、動きベクトルと仮想的な動きベクトルとの差が閾値以上となる部分を障害物として検出するので、前方を走行する車両を正確に検出することができる。
また、本発明によれば、比較対象となる動きベクトルと仮想的な動きベクトルとの仮想領域上の位置に応じて閾値を調整するので、ノイズ等の影響による障害物の誤検出を抑制することができる。
以下に添付図面を参照して、この発明に係る障害物検出方法および障害物検出装置の好適な実施の形態を詳細に説明する。
まず、本実施例1にかかる障害物検出装置の概要および特徴について説明する。図1は、本実施例1にかかる障害物検出装置の概要および特徴を説明するための図である。同図に示すように、本実施例にかかる障害物検出装置は、カメラから異なる時点での画像を取得し、取得した各画像に基づいて画像の各領域にかかる動きベクトル(図1の上段右側を参照)を算出するとともに、車両の走行状態から車両の走行する空間のモデルを生成し、生成したモデルに基づいて仮想的な動きベクトル(図1の上段左側を参照;以下、仮想動きベクトルと表記する)を算出する。
そして、障害物検出装置は、モデルを複数の仮想領域に分割し、分割した仮想領域に対応する動きベクトルおよび仮想動きベクトルと当該仮想領域ごとに設定された判定基準とを基にして障害物を検出する。
図1の下段に示す例では、モデルを第1の仮想領域と第2の仮想領域とに分割しており、障害物検出装置は、第1の仮想領域において、動きベクトルと仮想動きベクトルとの差が閾値以上かつ動きベクトルおよび仮想動きベクトルの差分からなるベクトルの符合と仮想動きベクトルの符号とが異符号となる領域を障害物として検出する。また、障害物検出装置は、第2の仮想領域において、動きベクトルと仮想動きベクトルとの差が閾値以上となる領域を障害物として検出する。
このように、本実施例にかかる障害物検出装置は、モデルを複数の仮想領域に分割し、分割した仮想領域に対応する動きベクトルおよび仮想動きベクトルと当該仮想領域ごとに設定された判定基準とを基にして障害物を検出するので、走路の状態によらず走行中の車両に影響する障害物を適切に検出することができる。例えば、第1の仮想領域において、走路外に移動する物体を障害物として検出しないので、ドライバーに不必要な情報を通知してしまうといった問題を解消することができる。
次に、本実施例1にかかる障害物検出装置の構成について説明する(なお、本実施例1にかかる障害物検出装置は、図示しない車両に搭載されているものとする。)。図2は、本実施例1にかかる障害物検出装置の構成を示す機能ブロック図である。同図に示すように、この障害物検出装置100は、画像入力部110と、画像記憶部120と、動きベクトル算出部130と、カメラデータ入力部140と、車両データ入力部150と、走行空間モデル生成部160と、走行空間領域判定部170と、モデル差分ベクトル算出部180と、障害物検出部190と、障害物通知部200とを備えて構成される。
画像入力部110は、車載カメラ(図示略)から一定のフレームレートで画像データを取得し、取得した画像データを順次画像記憶部120に記憶させる処理部である。画像記憶部120は、画像データを記憶する記憶部である。この画像記憶部120は、画像内に時間差分による動きベクトルを作成するために必要なだけの画像データを保存するためのバッファを備える。
動きベクトル算出部130は、画像記憶部120から異なる時点での画像データを取得し(例えば、画像記憶部120に最後に記憶された画像データとこの画像データよりも所定時間前に撮影された画像データとを取得し)、取得した画像データを基にして画像データの各領域における動きベクトルを算出する。
この動きベクトルを算出する手法は、従来のどのような手法を用いても構わないが、例えば、特許文献(特開2005−100204号公報)において開示されている手法などを用いて動きベクトルを算出することができる。動きベクトル算出部130は、算出した動きベクトルのデータをモデル差分ベクトル算出部180に出力する。
カメラデータ入力部140は、車両に設置されたカメラに関する各種データを取得する処理部である。カメラに関する各種データは、カメラから路面までの高さを表すカメラ垂直設定位置、車両の走行する空間を仮定した場合の空間の横幅を示す走行領域幅、カメラからカメラの焦点位置までの距離を示すカメラ焦点距離、カメラの画素ピッチを示すカメラ画素ピッチのデータを含んでいる。カメラに関する各種パラメータは、動的に変更してもよいし、予めユーザが各種パラメータを設定しておいてもよい。カメラデータ入力部140は、カメラに関する各種データを走行空間モデル生成部160に出力する。
車両データ入力部150は、車両の走行状態に関する各種データを取得する処理部である。車両の走行状態に関する各種データは、車両の速度を示す車速データ、ステアリングおよび斜面による車両のヨー、ロール、ピッチを示す車両回転角のデータを含んでいる。車速データは車速パルスなどから得ることができ、車両回転角はステアリングセンサあるいはジャイロスコープなどから得ることができる。車両データ入力部150は、車両の走行状態に関する各種データを走行空間モデル生成部160に出力する。
走行空間モデル生成部160は、カメラに関する各種データおよび車両の走行状態に関する各種データを基にして、仮想動きベクトルを算出する処理部である。以下において、走行空間モデル生成部160の行う処理を順に説明する。
まず、走行空間モデル生成部160は、カメラに関する各種データおよび車両の走行状態に関する各種データを基にして、走行空間モデルを生成する。走行空間モデルとは、仮想的な車両の走行環境であり、車両が時間局所的にこれから走行するであろう空間をカメラの撮影範囲を含むようにして示したモデルである。これから走行するであろうとは、あくまでも車両の舵角(車両回転角)や車速(車速データ)によって予測されるものであり、路上の白線や車線幅に本質的に依存しないものである。したがって、環境の変化に強い走行空間モデルを生成することができる。
図3は、走行空間モデルの一例を示す図である。図3に示す例では、車載カメラを車両前方中央に配置し、撮影範囲を矩形とした場合の、前方直進時の走行空間モデルを示している。図3に示すhは、カメラ垂直設置位置を示し、Lは、走行領域幅を示し、Hは、走行領域高さを示す。なお、本実施例1では、カメラ垂直設置位置hを負数として説明する。これは、カメラの設置された位置を原点とし、この原点から鉛直上向きを正とするためである。また、走行領域幅L、走行領域高さHは、上述したように、車両の車幅および車高そのものではなく、多少のマージンをもって定義されているものとする。
図3の右側は、本実施例1にかかる車載カメラから見たと仮定した走行空間モデルを示している。同図に示すように、車載カメラから見た空間モデルは、上面部、下面部、側面部に分類することができる。
続いて、走行空間モデル生成部160は、走行空間モデルを利用して、動きベクトル算出部130によって算出される動きベクトルに対応する仮想動きベクトルを全て算出する。ここでは、説明の便宜上、動きベクトルに対応する画像上の座標を(x,y)として仮想動きベクトルの算出方法を説明する。その他の座標に関する仮想動きベクトルの算出方法は座標が変更されるだけなので説明を省略する。
走行空間モデル生成部160は、画像座標系の座標(x,y)を、カメラ設置位置を原点としたモデル空間座標系の座標(u,v)に変換する。図4は、画像座標系の座標(x,y)をモデル空間座標系の座標(u,v)に変換する処理を説明するための説明図である。なお、図4では、画像の中心に消失点があるとした場合の座標変換を示している。
画像座標系に示すWidthは、画像の横幅に含まれる画素数(以下、画像横画素数と表記する)を示し、Heightは、画像の縦幅に含まれる画素数(以下、画像縦画素数)を示している。画像座標系の座標(x,y)をモデル空間座標系の座標(u,v)に変換する具体的な式は、
Figure 0005125214
Figure 0005125214
によって表すことができる。なお、式(1)および式(2)に含まれるcは、カメラの画素ピッチを示す。
続いて、走行空間モデル生成部160は、走行空間モデルのどの領域(上面部、下面部、側面部;図3参照)にモデル空間座標系の座標(u,v)が含まれるかを判定する(領域判定を行う)。図5は、走行空間モデル生成部160が行う領域判定を説明するための説明図である。
走行空間モデル生成部160は、モデル空間座標系の座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHの関係に基づいて、座標(u,v)の位置する領域を判定する。具体的に、走行空間モデル生成部160は、座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHの関係の関係が
Figure 0005125214
を満たす場合に、座標(u,v)が下面部に位置すると判定する。
一方、走行空間モデル生成部160は、座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHの関係の関係が
Figure 0005125214
を満たす場合に、座標(u,v)が上面部に位置すると判定する。なお、走行空間モデル生成部160は、座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHが式(1)および式(2)のいずれの式にも該当しない場合には、座標(u,v)が側面部に位置すると判定する。
走行空間モデル生成部160は、領域判定による判定結果に基づいて、それぞれの領域に位置する座標(u,v)の仮想動きベクトルを算出する。以下において、座標(u,v)が下面部に位置する場合の仮想動きベクトル、上面部に位置する場合の仮想動きベクトル、側面部に位置する場合の仮想動きベクトルの算出方法について順に説明する。
(座標(u,v)が下面部に位置する場合)
座標(u,v)が下面部に位置する場合の仮想動きベクトル(du,dv)の算出方法について説明する。図6は、座標(u,v)が下面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。図6に示すFはカメラの焦点位置を示し、fはカメラから焦点までの焦点距離を示し、zは焦点Fから物体(障害物の候補となる物体)の位置Aまでの進行方向の距離(すなわち、焦点位置Fから位置Bまでの)を示す。
また、Vは車速を示し、dzは微小時間(カメラが画像を撮影するサンプルレートに対応する時間)dtに移動する物体の距離を示す(図6において車両は左から右に移動し、物体は右から左に動くものとする)。また、物体Aがdt時間後に移動する位置をA’とし、位置A’と焦点位置Fと含んだ直線が鉛直方向の軸(v軸)と交わる位置をCとした定義した場合に、vと位置Cとの差をdvとする。
図6に示すように、三角形の相似の関係から、
Figure 0005125214
となる関係式(5)を導くことができ、式(5)より、
Figure 0005125214
Figure 0005125214
を導くことができる。
そして、式(6)をzで微分することによって、
Figure 0005125214
を導くことができ、
式(8)から座標(u,v)のv軸成分の仮想動きベクトルdvを
Figure 0005125214
によって表すことができる。
一方、座標(u,v)におけるuおよびvの関係式は、
Figure 0005125214
によって表すことができ、式(9)および式(10)から座標(u,v)のu軸成分の仮想動きベクトルduを
Figure 0005125214
によって表すことができる。
(座標(u,v)が上面部に位置する場合)
続いて、座標(u,v)が上面部に位置する場合の仮想動きベクトル(du,dv)の算出方法について説明する。座標(u,v)が上面部に位置する場合には、上述した式(5)〜式(11)に含まれるカメラ垂直設置位置hを走行領域高さHに変えることによって求めることができる。具体的には、座標(u,v)が上面部に位置する場合の仮想動きベクトルを(du,dv)を
Figure 0005125214
Figure 0005125214
によって表すことができる。
(座標(u,v)が側面部に位置する場合)
続いて、座標(u,v)が側面部に位置する場合の仮想動きベクトル(du,dv)の算出方法について説明する。図7は、座標(u,v)が側面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。図7に示すFはカメラの焦点位置を示し、fはカメラから焦点までの焦点距離を示し、zは焦点Fから物体(障害物の候補となる物体)Dの水平方向成分Eまでの距離を示す。
また、Vは車速を示し、dzは微小時間(カメラが画像を撮影するサンプルレートに対応する時間)dtに移動する物体の距離を示す(図7において車両は左から右に移動し、物体は右から左に動くものとする)。また、物体Dがdt時間後に移動する位置をD’とし、位置D’と焦点位置Fと含んだ直線がu軸と交わる位置をGとした定義した場合に、vと位置Gとの差をdvとすると、座標(u,v)が側面に位置する場合の仮想動きベクトル(du,dv)は、図7に示す関係から
Figure 0005125214
Figure 0005125214
によって表すことができる。
図2の説明に戻ると、走行空間モデル生成部160は、各座標に対応する仮想動きベクトルを算出した後に、座標と仮想動きベクトルとを対応付けたデータをモデル差分ベクトル算出部180に出力する。図8は、走行空間モデル生成部160によって算出される仮想動きベクトルの一例を示す図である。走行空間モデル生成部160で結果として算出される仮想動きベクトルは、定義した走行空間の境界上に静止物体が存在した場合における画像内の動きを意味する。そのため、例えば、車速が上がると、画像間の動き量も大きくなり、仮想動きベクトルの値も大きくなる。また、図8に示すように、車両に近づくにつれて仮想動きベクトルの値が大きくなる。
走行空間領域判定部170は、走行空間モデルを複数の仮想領域(側面領域、下面領域)に分割し、走行空間モデル上の座標(x,y)がどの仮想領域に属するかを判定する処理部である。管理者は、走行空間モデルの各仮想領域の座標を予め設定しておく。
例えば、管理者は、x座標(A〜B)、y座標(C〜D)を側面領域に設定し、x座標(E〜F)、y座標(G〜H)を下面領域に設定する(以下、設定された情報を、仮想領域座標データと表記する)。走行空間領域判定部170は、仮想領域座標データと座標とを比較することによって、各座標がどの仮想領域に属するかを判定する。走行空間領域判定部170は、判定結果をモデル差分ベクトル算出部180に出力する。
モデル差分ベクトル算出部180は、仮想領域(側面領域、下面領域)ごとに動きベクトルと仮想動きベクトルとの差分を算出し、算出した結果を障害物検出部190に出力する処理部である。図9は、モデル差分ベクトル算出部180の処理を説明するための図である。
図9の下段に示す図は、画像内のある縦座標yにおける横座標xとx方向の動きベクトルVxとの関係を表している。x方向の動きベクトルは、動きベクトル算出部130にて算出された動きベクトルと、走行空間モデル生成部160にて生成した仮想動きベクトルとがある。モデル差分ベクトル算出部180は、この2種類のベクトルを走行空間領域判定部170に判定された領域ごとに異なる判断基準を用いて比較することで、検出対象となる部分を検出する。
側面領域に対して、モデル差分ベクトル算出部180は、動きベクトルと仮想動きベクトルとの差分値(以下、差分値と略記する)と、動きベクトルおよび仮想動きベクトルの差分からなるベクトル(以下、差分ベクトルと表記する)の符号と仮想動きベクトルの符号との同異によって、検出対象を検出する。モデル差分ベクトル算出部180は、側面部において、差分値が閾値以上かつ、差分ベクトルの符号と仮想動きベクトルの符号とが異なる部分を検出対象とする(例えば、図9の上段に示す物体Aを検出対象とする)。物体Aは、走路側に進入してきている物体である。
なお、側面領域において、差分値が閾値以上となる場合でも、差分ベクトルと仮想動きベクトルとの符号が等しい場合には、自車両の側面を経過していくような物体、および自車両から離れていくような物体であるため、かかる物体を検出対象から除外する(例えば、図9の上段に示す物体Cを検出対象から除外する)。
側面領域において、差分値が閾値以上となり、動きベクトルと仮想動きベクトルとの符号が同一である場合(例えば、物体Aが図9の左下方向に移動する場合)でも、差分ベクトルと仮想動きベクトルとの符号が異なる場合には検出対象に含める。例えば、図9の左にもレーンがあり、自車両が併走している左レーンの車両を追い抜こうとするとこの状況が発生する。
例えば、動きベクトルVx=−10、仮想動きベクトルVx=−20とすると、差分ベクトル(動きベクトルVx−仮想動きベクトルVx)は、+10となり、差分ベクトルの符号と仮想動きベクトルの符号とが異なり、検出対象となる。
一方、下面領域に対して、モデル差分ベクトル算出部180は、差分値のみによって検出対象を検出する。モデル差分ベクトル算出部180は、下面領域において、差分値が閾値以上となる部分を検出対象とする(図9の上段に示す物体Bを検出対象とする)。物体Bは、路面ではない先行車などの前方障害物に対応する。
なお、モデル差分ベクトル算出部180は、図9の下段に示す4のように十分短い区間で差分が大きい部分はノイズとして検出対象から除外する。また、モデル差分ベクトル算出部180は、画像中心からの距離に比例させて、差分値の比較対象となる閾値が大きくなるように調整してもよい(動きベクトルと仮想動きベクトルとを比較する位置に応じて閾値を調整する)。
モデル差分ベクトル算出部180は、各水平ラインに対して検出対象となる部分を検出していき、検出候補となる区間を特定していく。本実施例1では、簡易的に水平方向の動きベクトル、仮想動きベクトルに着目すればよい。これは、例えば、図9の上段の物体Bのように、前方に障害物が存在する際にも、接近することで画像としては拡大されるため、その結果水平方向の動きが生じることになるためである。モデル差分ベクトル算出部180は、障害物の検出候補の分布のデータ(以下、検出候補分布データ)を障害物検出部190に出力する。
障害物検出部190は、モデル差分ベクトル算出部180から検出候補分布データを取得し、障害物の領域を特定する処理部である。障害物検出部190は、特定した障害物の領域のデータを障害物通知部200に出力する。障害物検出部190が障害物の領域特定の精度を高める際には、前後フレームにおける検出候補領域からの物体追跡技術や、原画像内における水平・垂直エッジなどの特徴量を判断基準とした物体同定技術など、公知の技術を併用してもよい。
障害物通知部200は、障害物検出部190から障害物の領域のデータを取得し、利用者が確認できるモニタ(車内モニタ;図示略)内の該当領域に矩形描画を行うことで障害物を通知する処理部である。図10は、モニタに出力される障害物検出画像の一例を示す図である。
次に、本実施例1にかかる障害物検出装置100の処理手順について説明する。図11は、本実施例1にかかる障害物検出装置100の処理手順を示すフローチャートである。同図に示すように、画像入力部110が画像データを取得し(ステップS101)、画像データを画像記憶部120に記憶し(ステップS102)、動きベクトル算出部130が異なる時点での画像データを画像記憶部120から取得して各領域の動きベクトルを算出する(ステップS103)。
そして、カメラデータ入力部140は、カメラに関する各種データを取得し(ステップS104)、車両データ入力部150が車両の走行状態に関する各種データを取得し(ステップS105)、走行空間モデル生成部160がカメラに関する各種データおよび車両の走行状態に関する各種データを基にして走行空間モデルを生成し(ステップS106)、動きベクトルの領域に対応する座標の仮想動きベクトルを算出する(ステップS107)。
続いて、走行空間領域判定部170が走行空間モデルを複数の領域に分割し(ステップS108)、モデル差分ベクトル算出部180および障害物検出部190が領域ごとの判断基準に基づいて障害物を検出し(ステップS109)、障害物通知部110が障害物のデータをモニタに出力する(ステップS110)。
このように、モデル差分ベクトル算出部180および障害物検出部190が、領域ごとの判断基準に基づいて障害物を検出するので、不要な情報を排除し、車両の走行に影響する障害物の情報のみをドライバーに通知することができる。
上述してきたように、本実施例1にかかる障害物検出装置100は、カメラから異なる時点での画像を取得し、取得した各画像に基づいて画像の各領域にかかる動きベクトルを算出するとともに、車両の走行状態から車両の走行する空間のモデルを生成し、生成したモデルに基づいて仮想的な動きベクトルを算出する。そして、障害物検出装置100は、モデルを複数の仮想領域に分割し、分割した仮想領域に対応する動きベクトルおよび仮想動きベクトルと当該仮想領域ごとに設定された判定基準とを基にして障害物を検出するので、走路の状態によらず走行中の車両に影響する障害物を適切に検出することができる。
また、本実施例1にかかる障害物検出装置100は、衝突することがない遠景や対向車両を検出対象から外しつつ、走路上の障害物や走路に侵入してくると思われる障害物のみを検出することが可能となる。前方の障害物検知においては、走路外から走路内に侵入してくるような動きをする物体を障害物として検出することがより重要である。
通常、ドライバーは、前方の走路上を注視しながら運転しているため、既に走路上に存在する先行車両などの前方障害物にはそれなりの注意を払っている。しかし、歩道から横断するような歩行者に対しては、走路外からの侵入になるため注視の度合いは低くなる。このような動きに対して、本実施例1にかかる障害物検出装置100は、水平方向の動きベクトルと仮想動きベクトルとに顕著な違いが現れるという性質を利用することによって、侵入障害物をより強固に検知可能としている。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例1以外にも、種々の異なる形態にて実施されてもよいものである。そこで、以下では実施例2として本発明に含まれる他の実施例を説明する。
(1)車両との連携
上記の実施例1では、障害物検出装置100は、障害物を検出した場合に、モニタに障害物の情報を表示する例を示したが、これに限定されるものではなく、車両と連携して各種処理を実行することができる。例えば、障害物検出装置100が車両の前方で障害物を検出した場合には、車速を制御する制御部に減速命令を出力し、車両の安全を確保することができる。また、障害物検出装置100が前方で障害物を検出している時点で、運転者が急ブレーキをかけた場合には、車両を制御する制御部と協働して、障害物を回避するようにハンドル制御を行っても良い。
(2)車両回転角を反映した仮想動きベクトルの算出
上記の実施例1では、車両がまっすぐに走行している場合の仮想動きベクトル算出方法について説明したが、車両回転角に応じて、仮想動きベクトルの値は補正される。ここでは一例として、ヨー車両回転角を反映させた仮想動きベクトルの算出方法について説明する。図12は、仮想動きベクトルの補正方法を補足説明するための説明図である。
座標(u,v)は、モデル空間座標系における1座標だが、ヨー車両回転角においてはvに依存せず、常に補正値は0である。すなわち、実施例1で求めた仮想動きベクトルのv成分dvの値そのものとなる。一方、uは、焦点距離fとなる焦点Fと、座標軸との交点において、角θをなしている。
このとき、ヨー車両回転角がdθであった場合、それは単位時間当たりの回転各θyと微小時間dtによって表せるため、補正量duを算出することができる。以下に、補正量duを導く式を示す。
Figure 0005125214
より
Figure 0005125214
ここで
Figure 0005125214
であるため、補正量duは
Figure 0005125214
となる。補正後のu成分の仮想動きベクトルは、実施例1で求めた仮想ベクトルのu成分duに補正量duを加算したものとなる。なお、他の車両回転角(ロール車両回転角、ピッチ車両回転角)も同様に算出することができる。
図13は、ヨー車両回転角度による仮想動きベクトルの違いを示す図である。上段は、車両が右回転している場合の仮想動きベクトルを示し、下段は、車両が左回転している場合の仮想動きベクトルを示している。
(4)システムの構成など
本実施例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部あるいは一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図2に示した障害物検出装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部がCPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図14は、図2に示した障害物検出装置100を構成するコンピュータのハードウェア構成を示す図である。このコンピュータは、ユーザからのデータの入力を受け付ける入力装置30、モニタ31、RAM(Random Access Memory)32、ROM(Read Only Memory)33、各種プログラムを記録した記録媒体からプログラムを読み取る媒体読取装置34、画像を撮影するカメラ35、車両の走行状態を検出する走行状態検出装置(ステアリングセンサ、車速パルス、ジャイロスコープなどに対応)36、CPU(Central Processing Unit)37、および、HDD(Hard Disk Drive)38をバス39で接続して構成される。
そして、HDD38には、上述した障害物検出装置100の機能と同様の機能を発揮する障害物検出プログラム38bが記憶されている。そして、CPU37が、障害物検出プログラム38bをHDD38から読み出して実行することにより、上述した障害物検出装置100の機能部の機能を実現する障害物検出プロセス37aが起動される。この障害物検出プロセス37aは、図2に示した画像入力部110、動きベクトル算出部130、カメラデータ入力部140、車両データ入力部150、走行空間モデル生成部160、走行空間領域判定部170、モデル差分ベクトル算出部180、障害物検出部190、障害物通知部190に対応する。
また、HDD38には、上述した障害物検出装置100において説明した各機能部に利用される各種データ38aが記憶される。CPU37は、各種データ38aをHDD38に記憶するとともに、各種データ38aをHDD38から読み出してRAM32に格納し、RAM32に格納された各種データ32aを利用して障害物検出処理を実行する。
ところで、障害物検出プログラム38bは、必ずしも最初からHDD38に記憶させておく必要はない。たとえば、コンピュータに挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータに接続される「他のコンピュータ(またはサーバ)」などに障害物検出プログラム38bを記憶しておき、コンピュータがこれらから障害物検出プログラム38bを読み出して実行するようにしてもよい。
(付記1)カメラによって撮影された画像から車両の走行に影響する障害物を検出する障害物検出装置の障害物検出方法であって、
前記カメラから異なる時点での画像を取得して記憶装置に記憶し、当該記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出工程と、
前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対する仮想的な動きベクトルを算出する仮想動きベクトル算出工程と、
前記モデルを複数の仮想領域に分割し、分割した仮想領域に対応する前記動きベクトルおよび仮想的な動きベクトルと当該仮想領域ごとに設定された判定基準とを基にして障害物を検出する障害物検出工程と、
を含んだことを特徴とする障害物検出方法。
(付記2)前記仮想領域は第1の仮想領域および第2の仮想領域を含み、前記障害物検出工程は、前記第1の仮想領域に含まれる前記動きベクトルと前記仮想的な動きベクトルとを比較し、前記動きベクトルと前記仮想的な動きベクトルとの差が閾値以上かつ、前記動きベクトルおよび前記仮想的な動きベクトルの差分からなるベクトルの符合と前記仮想的な動きベクトルの符号とが異符号となる部分を障害物として検出することを特徴とする付記1に記載の障害物検出方法。
(付記3)前記障害物検出工程は、前記第2の仮想領域に含まれる前記動きベクトルと前記仮想的な動きベクトルとを比較し、前記動きベクトルと前記仮想的な動きベクトルとの差が閾値以上となる部分を障害物として検出することを特徴とする付記2に記載の障害物検出方法。
(付記4)前記障害物検出工程は、比較対象となる前記動きベクトルと仮想的な動きベクトルとの前記仮想領域上の位置に応じて前記閾値を調整することを特徴とする付記1、2または3に記載の障害物検出方法。
(付記5)カメラによって撮影された画像から車両の走行に影響する障害物を検出する障害物検出装置であって、
前記カメラから異なる時点での画像を取得して記憶装置に記憶し、当該記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手段と、
前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対する仮想的な動きベクトルを算出する仮想動きベクトル算出手段と、
前記モデルを複数の仮想領域に分割し、分割した仮想領域に対応する前記動きベクトルおよび仮想的な動きベクトルと当該仮想領域ごとに設定された判断基準とを基にして障害物を検出する障害物検出手段と、
を備えたことを特徴とする障害物検出装置。
(付記6)前記仮想領域は第1の仮想領域および第2の仮想領域を含み、前記障害物検出手段は、前記第1の仮想領域に含まれる前記動きベクトルと前記仮想的な動きベクトルとを比較し、前記動きベクトルと前記仮想的な動きベクトルとの差が閾値以上かつ、前記動きベクトルおよび前記仮想的な動きベクトルの差分からなるベクトルの符合と前記仮想的な動きベクトルの符号とが異符号となる部分を障害物として検出することを特徴とする付記5に記載の障害物検出装置。
(付記7)前記障害物検出手段は、前記第2の仮想領域に含まれる前記動きベクトルと前記仮想的な動きベクトルとを比較し、前記動きベクトルと前記仮想的な動きベクトルとの差が閾値以上となる部分を障害物として検出することを特徴とする付記6に記載の障害物検出装置。
(付記8)前記障害物検出手段は、比較対象となる前記動きベクトルと仮想的な動きベクトルとの前記仮想領域上の位置に応じて前記閾値を調整することを特徴とする付記5、6または7に記載の障害物検出装置。
(付記9)コンピュータに
カメラから異なる時点での画像を取得して記憶装置に記憶し、当該記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手順と、
車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対する仮想的な動きベクトルを算出する仮想動きベクトル算出手順と、
前記モデルを複数の仮想領域に分割し、分割した仮想領域に対応する前記動きベクトルおよび仮想的な動きベクトルと当該仮想領域ごとに設定された判断基準とを基にして障害物を検出する障害物検出手順と、
を実行させるための障害物検出プログラム。
(付記10)前記仮想領域は第1の仮想領域および第2の仮想領域を含み、前記障害物検出手順は、前記第1の仮想領域に含まれる前記動きベクトルと前記仮想的な動きベクトルとを比較し、前記動きベクトルと前記仮想的な動きベクトルとの差が閾値以上かつ、前記動きベクトルおよび前記仮想的な動きベクトルの差分からなるベクトルの符合と前記仮想的な動きベクトルの符号とが異符号となる部分を障害物として検出することを特徴とする付記9に記載の障害物検出プログラム。
(付記11)前記障害物検出手順は、前記第2の仮想領域に含まれる前記動きベクトルと前記仮想的な動きベクトルとを比較し、前記動きベクトルと前記仮想的な動きベクトルとの差が閾値以上となる部分を障害物として検出することを特徴とする付記10に記載の障害物検出プログラム。
(付記12)前記障害物検出手順は、比較対象となる前記動きベクトルと仮想的な動きベクトルとの前記仮想領域上の位置に応じて前記閾値を調整することを特徴とする付記9、10または11に記載の障害物検出プログラム。
以上のように、本発明にかかる障害物検出方法および障害物検出装置は、走路上の障害物を検出する障害物検出装置等に有用であり、特に、ドライバーにとって不要な情報通知をなくした障害物通知を実行する必要がある場合に適している。
本実施例1にかかる障害物検出装置の概要および特徴を説明するための図である。 本実施例1にかかる障害物検出装置の構成を示す機能ブロック図である。 走行空間モデルの一例を示す図である。 画像座標系の座標(x,y)をモデル空間座標系の座標(u,v)に変換する処理を説明するための説明図である。 走行空間モデル生成部が行う領域判定を説明するための説明図である。 座標(u,v)が下面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。 座標(u,v)が側面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。 走行空間モデル生成部によって算出される仮想動きベクトルの一例を示す図である。 モデル差分ベクトル算出部の処理を説明するための図である。 モニタに出力される障害物検出画像の一例を示す図である。 本実施例1にかかる障害物検出装置の処理手順を示すフローチャートである。 仮想動きベクトルの補正方法を補足説明するための説明図である。 ヨー車両回転角度による仮想動きベクトルの違いを示す図である。 図2に示した障害物検出装置を構成するコンピュータのハードウェア構成を示す図である。
符号の説明
30 入力装置
31 モニタ
32 RAM
32a,38a 各種データ
33 ROM
34 媒体読取装置
35 カメラ
36 走行状態検出装置
37 CPU
37a 障害物検出プロセス
38 HDD
38b 障害物検出プログラム
39 バス
100 障害物検出装置
110 画像入力部
120 画像記憶部
130 動きベクトル算出部
140 カメラデータ入力部
150 車両データ入力部
160 走行空間モデル生成部
170 走行空間領域判定部
180 モデル差分ベクトル算出部
190 障害物検出部
200 障害物通知部

Claims (4)

  1. カメラによって撮影された画像から車両の走行に影響する障害物を検出する障害物検出装置の障害物検出方法であって、
    前記カメラから異なる時点での画像を取得して記憶装置に記憶し、当該記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出工程と、
    前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対する仮想的な動きベクトルを算出する仮想動きベクトル算出工程と、
    前記モデルを上面領域、下面領域、側面領域に分割し、前記下面領域に対応する前記動きベクトルおよび前記仮想的な動きベクトルと前記下面領域に設定された判定基準とを基にして前記下面領域から障害物を検出し、前記動きベクトルと前記仮想的な動きベクトルとが同一符号の場合に、前記側面領域に含まれる前記動きベクトルと前記仮想的な動きベクトルとを比較し、前記動きベクトルと前記仮想的な動きベクトルとの差が閾値以上かつ、前記動きベクトルおよび前記仮想的な動きベクトルの差分からなるベクトルの符合と前記仮想的な動きベクトルの符号とが異符号となる部分を前記側面領域の障害物として検出する障害物検出工程と
    を含んだことを特徴とする障害物検出方法。
  2. 前記障害物検出工程は、前記下面領域に含まれる前記動きベクトルと前記仮想的な動きベクトルとを比較し、前記動きベクトルと前記仮想的な動きベクトルとの差が閾値以上となる部分を障害物として検出することを特徴とする請求項1に記載の障害物検出方法。
  3. 前記障害物検出工程は、比較対象となる前記動きベクトルと仮想的な動きベクトルとの想領域上の位置に応じて前記閾値を調整することを特徴とする請求項1または2に記載の障害物検出方法。
  4. カメラによって撮影された画像から車両の走行に影響する障害物を検出する障害物検出装置であって、
    前記カメラから異なる時点での画像を取得して記憶装置に記憶し、当該記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手段と、
    前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対する仮想的な動きベクトルを算出する仮想動きベクトル算出手段と、
    前記モデルを上面領域、下面領域、側面領域に分割し、前記下面領域に対応する前記動きベクトルおよび仮想的な動きベクトルと前記下面領域に設定された判定基準とを基にして前記下面領域から障害物を検出し、前記動きベクトルと前記仮想的な動きベクトルとが同一符号の場合に、前記側面領域に含まれる前記動きベクトルと前記仮想的な動きベクトルとを比較し、前記動きベクトルと前記仮想的な動きベクトルとの差が閾値以上かつ、前記動きベクトルおよび前記仮想的な動きベクトルの差分からなるベクトルの符合と前記仮想的な動きベクトルの符号とが異符号となる部分を前記側面領域の障害物として検出する障害物検出手段と
    を備えたことを特徴とする障害物検出装置。
JP2007123908A 2007-05-08 2007-05-08 障害物検出方法および障害物検出装置 Expired - Fee Related JP5125214B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007123908A JP5125214B2 (ja) 2007-05-08 2007-05-08 障害物検出方法および障害物検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007123908A JP5125214B2 (ja) 2007-05-08 2007-05-08 障害物検出方法および障害物検出装置

Publications (2)

Publication Number Publication Date
JP2008282106A JP2008282106A (ja) 2008-11-20
JP5125214B2 true JP5125214B2 (ja) 2013-01-23

Family

ID=40142889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007123908A Expired - Fee Related JP5125214B2 (ja) 2007-05-08 2007-05-08 障害物検出方法および障害物検出装置

Country Status (1)

Country Link
JP (1) JP5125214B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010204805A (ja) * 2009-03-02 2010-09-16 Konica Minolta Holdings Inc 周辺監視装置および該方法
JP4788798B2 (ja) 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
JP5935435B2 (ja) * 2012-03-26 2016-06-15 富士通株式会社 画像処理装置、画像処理方法
WO2016151977A1 (ja) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3226699B2 (ja) * 1994-02-28 2001-11-05 三菱電機株式会社 車両用周辺監視装置
JP3776094B2 (ja) * 2002-05-09 2006-05-17 松下電器産業株式会社 監視装置、監視方法および監視用プログラム
JP2005215985A (ja) * 2004-01-29 2005-08-11 Fujitsu Ltd 走行車線判定プログラムおよびその記録媒体、走行車線判定装置ならびに走行車線判定方法
JP4320032B2 (ja) * 2004-03-31 2009-08-26 パイオニア株式会社 経路案内システム及び方法
JP4270010B2 (ja) * 2004-04-05 2009-05-27 株式会社デンソー 物体危険判定装置

Also Published As

Publication number Publication date
JP2008282106A (ja) 2008-11-20

Similar Documents

Publication Publication Date Title
JP7106664B2 (ja) 知的運転制御方法および装置、電子機器、プログラムならびに媒体
KR102541559B1 (ko) 관심 객체를 검출하는 방법 및 장치
JP5124592B2 (ja) 車両を検出および追跡するためのシステムおよび方法
US8355539B2 (en) Radar guided vision system for vehicle validation and vehicle motion characterization
JP5690688B2 (ja) 外界認識方法,装置,および車両システム
CN106647776B (zh) 车辆变道趋势的判断方法、判断装置和计算机存储介质
US20170124725A1 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
CN109997148B (zh) 信息处理装置、成像装置、设备控制系统、移动对象、信息处理方法和计算机可读记录介质
WO2004029659A2 (en) Pedestrian detection and tracking with night vision
JP2008276308A (ja) 動画像処理装置、動画像処理システムおよびナビゲーション装置
JP2011065338A (ja) 対象物追跡装置及びプログラム
WO2011048718A1 (ja) 標識認識装置及び標識認識方法
JP2009252198A (ja) 走行環境推測装置、方法及びプログラム並びに車線逸脱警報装置及び操舵アシスト装置
JP6439757B2 (ja) 画像処理装置および画像処理方法
JP2009143546A (ja) 車両走行速度制御装置および方法
JP2006350699A (ja) 画像処理装置及び方法
JP5125214B2 (ja) 障害物検出方法および障害物検出装置
JP2006140636A (ja) 障害物検出装置および方法
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
JP4847303B2 (ja) 障害物検出方法、障害物検出プログラムおよび障害物検出装置
JP4575315B2 (ja) 物体検出装置及びその方法
JP6812701B2 (ja) 画像処理装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2008276307A (ja) 動画像処理装置、動画像処理システムおよびナビゲーション装置
KR101432727B1 (ko) 차량과 객체의 충돌을 방지하기 위한 헤드라이트 빔 패턴을 이용한 이동객체 검출 장치 및 이를 이용한 이동객체 검출 방법
TW201619577A (zh) 動態影像監測系統及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121015

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees