JP2004173195A - Device and method for monitoring vehicle - Google Patents

Device and method for monitoring vehicle Download PDF

Info

Publication number
JP2004173195A
JP2004173195A JP2002339642A JP2002339642A JP2004173195A JP 2004173195 A JP2004173195 A JP 2004173195A JP 2002339642 A JP2002339642 A JP 2002339642A JP 2002339642 A JP2002339642 A JP 2002339642A JP 2004173195 A JP2004173195 A JP 2004173195A
Authority
JP
Japan
Prior art keywords
vehicle
blinker
area
lane
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002339642A
Other languages
Japanese (ja)
Other versions
JP4151890B2 (en
JP2004173195A5 (en
Inventor
Takayuki Sogawa
能之 十川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2002339642A priority Critical patent/JP4151890B2/en
Publication of JP2004173195A publication Critical patent/JP2004173195A/en
Publication of JP2004173195A5 publication Critical patent/JP2004173195A5/ja
Application granted granted Critical
Publication of JP4151890B2 publication Critical patent/JP4151890B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To recognize the winker of another vehicle traveling on an adjacent lane in order to detect the winker states of other vehicles traveling on the adjacent lane. <P>SOLUTION: A lane recognizing part 13a recognizes a lane on the basis of at least distance data. A vehicle recognizing part 13b specifies another vehicle traveling on the adjacent lane from the recognized lane on the basis of the distance data and recognizes a vehicle side face of the specified vehicle. A winker recognizing part 13c sets a winker area in a color image obtained by imaging the scene including the monitoring area or the distance data with an end part position of the vehicle side face as the reference. In addition, the winker recognizing part 13c detects the pixels of a color component of the winkers on the basis of the color image. The detected pixels positionally corresponding to the area on the color image which corresponds to the winker area are recognized as the winkers. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、自車両が走行する車線に隣接する隣接車線を走行する他車両のウィンカ状態から、他車両の挙動を監視する車両監視装置および車両監視方法に関する。
【0002】
【従来の技術】
近年、単眼カメラ、ステレオカメラ、或いはミリ波レーダといった各種センサを用いた車両監視装置が注目されている(例えば、特許文献1参照)。この類の車両監視装置では、自車両に搭載されたセンサによって所定の監視領域内の景色を撮像またはスキャンし、これにより得られた情報に基づいて、走行状況を認識している。車両監視装置が認識すべき対象物としては、典型的には、車線(道路)や先行車が挙げられる。また、このような車両監視装置では、さらに制御装置(例えば、AT制御装置、エンジン制御装置またはブレーキ制御装置等)や警報装置を組合わせることにより、車間距離感応型クルーズコントロールや他車両の接近警報等といった運転支援機能を含ませることも考えられている。運転支援機能付きの車両監視装置では、基本的に、先行車までの距離と相対速度とを検出し、これらの検出結果に基づいて制御装置や警報装置が制御されている。
【0003】
一般に、人間が車両の運転を行う場合、ドライバーは、他車両の挙動を予測しながら、自車両の走行制御を行うことが多い。例えば、隣接車線を走行する他車両が車線変更を行うべく、自車両の走行車線に割り込んでくる場合には、ドライバーは他車両のウィンカ状態を認識することにより、自車線への割り込みを予測するといった如くである。そして、割り込んだ他車両と自車両との車間距離を考慮して、必要に応じてブレーキ操作、或いは、シフトダウンといった操作が行われる。
【0004】
なお、例えば、特許文献2には、他車両のウィンカを検出する手法が開示されている。特許文献2によれば、ステレオ画像に基づいて先行車を複数のウィンドの塊(ウィンドウ群)として検出するとともに、ウィンドウ群の両側のウィンドウ(すなわち、車両後面の両端)の輝度変化を検出することにより、ウィンカの作動状態を判断している。
【0005】
【特許文献1】
特開平10−283461号公報
【特許文献2】
特開平11−14346号公報
【0006】
【発明が解決しようとする課題】
ところで、従来の車両監視装置では、割り込み車両の一部が自車線内に入ることを条件として、この割り込み車両を監視すべき先行車として認識している。このため、このような車両監視装置では、ドライバーが他車両の車線変更を認識して運転操作を行う場合と比べて、減速或いは加速中断といった制御に遅れが生じる可能性が考えられる。この遅れは、ドライバーに対して人間の運転との違和感を与えたり、また、場合によっては、他車両との接触の危険性が増すことにもなりかねない。そこで、このような問題を避けるべく、例えば、特許文献2に開示されているように、他車両のウィンカを検出し、この検出されたウィンカの状態に基づき他車両の挙動を把握し、これを車両監視に反映させることが考えられる。
【0007】
しかしながら、隣接車線を走行する他車両を自車両側からカメラで撮像した場合、このカメラは斜め後方から他車両を撮像するので、他車両は車両側面と車両後面とを含んで観察されることとなる。したがって、他車両を複数のウィンドウの塊として検出するとともに、ウィンカ位置をこれらウィンドウ群の両端として検出したのでは、ウィンドウ群の両端と他車両のウィンカ位置とが対応しないため、ウィンカを検出できない可能性がある。また、自車両と他車両の位置関係によっては、カメラの画角範囲に他車両の車両後面が入らないことも考えられ、この場合では、特許文献2に開示されたウィンカ検出手法では、ウィンカを認識することが困難となる可能性がある。
【0008】
本発明は、このような事情に鑑みてなされたものであり、その目的は、隣接車線を走行する他車両のウィンカ状態を検出するべく、隣接車線を走行する他車両のウィンカを認識することである。
【0009】
また、本発明の別の目的は、車両監視に応じて車両の走行制御を行う装置における安全性・信頼性を一層向上させることである。
【0010】
【課題を解決するための手段】
かかる課題を解決するために、第1の発明は、自車両が走行する車線に隣接する隣接車線を走行する他車両のウィンカ状態から、他車両の挙動を監視する車両監視装置を提供する。この車両監視装置は、第1のカメラと、センサと、車線認識部と、車両認識部と、ウィンカ認識部とを有する。ここで、第1のカメラは、監視領域を含む景色を撮像することにより、カラー画像を出力する。センサは、監視領域内における距離の二次元的な分布を示す距離データを出力する。車線認識部は、少なくとも距離データに基づき、監視領域内の車線を認識する。車両認識部は、距離データに基づき、認識された車線から隣接車線を走行する他車両を特定するとともに、特定された他車両の車両側面を認識する。ウィンカ認識部は、カラー画像または距離データによって規定される二次元平面上において、認識された車両側面の端部位置を基準としてウィンカ領域を設定し、カラー画像に基づいてウィンカの色成分の画素を検出する。そして、設定されたウィンカ領域に対応するカラー画像上の領域と位置的に対応する検出された画素がウィンカとして認識される。
【0011】
ここで、第1の発明において、ウィンカ認識部は、端部位置を基準として、車両側面に対応する領域にウィンカ領域を設定することことが好ましい。このとき、このウィンカ認識部は、端部位置を基準として、車両後面に対応する領域にもウィンカ領域を設定してもよい。
【0012】
また、第1の発明において、ウィンカ認識部は、ウィンカとして認識された画素の時系列的な面積変化に基づき、他車両のウィンカが点滅しているか否かを判断することが好ましい。
【0013】
また、第1の発明において、ウィンカ認識部は、車両認識部が特定された他車両の車両後面をさらに認識している場合、車両側面と車両後面との境界位置を基準として、ウィンカ領域を設定することが好ましい。
【0014】
さらに、第1の発明は、監視領域を含む景色を撮像することにより、カラー画像を出力し、かつ、第1のカメラと協働することによってステレオカメラとして機能する第2のカメラをさらに有することが好ましい。この場合、センサは、第1のカメラから出力されるカラー画像と、第2のカメラから出力されるカラー画像とに基づき、ステレオマッチングによって、距離データを出力することが望ましい。一方、第1の発明は、監視領域を含む景色を撮像することにより、一対の画像データを出力するモノクロステレオカメラをさらに有してもよい。この場合、センサは、モノクロステレオカメラから出力された一対の画像データに基づいて、ステレオマッチングによって距離データとして出力することが好ましい。
【0015】
また、第2の発明は、監視領域を含む景色をカメラで撮像することにより取得されたカラー画像と、監視領域内における距離の二次元的な分布を示す距離データとに基づいて、自車両が走行する車線と隣接する車線を走行する他車両のウィンカ状態から、他車両の挙動を監視する車両監視方法を提供する。この車両監視方法は、第1のステップとして、少なくとも距離データに基づいて、監視領域内の車線を認識する。第2のステップとして、距離データに基づいて、認識された車線から隣接車線を走行する他車両を特定するとともに、特定された他車両の車両側面を認識する。第3のステップとして、カラー画像または距離データによって規定される二次元平面上において、認識された車両側面の端部位置を基準としてウィンカ領域を設定する。第4のステップとして、カラー画像に基づいてウィンカの色成分の画素を検出する。第5のステップとして、設定されたウィンカ領域に対応するカラー画像上の領域と位置的に対応する検出された画素をウィンカとして認識する。
【0016】
ここで、第2の発明において、第3のステップは、端部位置を基準として、車両側面に対応する領域にウィンカ領域を設定することが好ましい。このとき、第3のステップは、端部位置を基準として、車両後面に対応する領域にもウィンカ領域を設定してもよい。
【0017】
【発明の実施の形態】
図1は、本実施形態にかかる走行支援機能付きの車両監視装置の概略的なブロック図である。この車両監視装置は、カラー画像と、距離データとに基づいて、自車両が走行する車線と隣接する車線を走行する他車両のウィンカ状態から、他車両の挙動を監視する。
【0018】
自車両前方を撮像するステレオカメラ(本実施形態では、カラーステレオカメラ)は、ルームミラーの近傍に取り付けられており、CCDやCMOSセンサ等のイメージセンサを内蔵した一対のカメラ1,2で構成されている。それぞれのカメラ1,2は、車幅方向において所定の間隔(カメラ基線長)で取り付けられている。基準画像を出力するメインカメラ1は、自車両の進行方向に向かって右側に取り付けられている。一方、比較画像を出力するサブカメラ2は、進行方向に向かって左側に取り付けられている。
【0019】
それぞれのカメラ1,2は、赤緑青のそれぞれに別個のイメージセンサを内蔵している(例えば、3板式カラーCCD)。メインカメラ1から出力されるカラー画像(以下、「基準画像」と称する)は、実際には、赤画像(以下、「R画像」と称する)、緑画像(以下、「G画像」と称する)および青画像(以下、「B画像」と称する)の3つの原色画像によって構成される。同様に、サブカメラ2から出力されるカラー画像(以下、「比較画像」と称する)も、R画像、G画像およびB画像の3つの原色画像によって構成される。したがって、一対のカメラ1,2が1回の撮影タイミングで出力する画像は合計6枚になる。以下、基準画像を構成するR画像を基準画像(R)と記す場合がある。同様に、基準画像を構成するG画像を基準画像(G)、B画像を基準画像(B)と記すことがある。比較画像についても、R,G,B画像を、それぞれ、比較画像(R)、比較画像(G)、比較画像(B)と記すことがある。
【0020】
一対のカメラ1,2の同期が取れている状態において、それぞれのカメラ1,2から出力されたアナログ画像は、後段の構成要素の入力レンジに合致するように、アナログインターフェース3において調整される。アナログインターフェース3中のゲインコントロールアンプ(GCA)3aは、対になるアナログ画像信号の明るさバランスを調整する。この調整は、互いに同じ色(R,G,B)の画像同士で行う。アナログインターフェース3において調整されたアナログ画像対は、A/Dコンバータ4により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。
【0021】
画像補正部5は、デジタル化された画像対を構成する6つの原色画像のそれぞれについて、輝度の補正および画像の幾何学的な変換等を行う。通常、一対のカメラ1,2の取付位置は、程度の差こそあれ誤差があるため、それに起因したずれが左右の画像に存在している。そこで、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換を行う。これにより、ステレオマッチングを行う際の前提となる、画像対における水平線(エピポーラライン)の一致が保証される。このような画像処理を経て、メインカメラ1の出力信号から、水平方向(i座標方向)が512画素(ピクセル)、垂直方向(j座標方向)が200画素(ピクセル)の基準画像データが生成される。また、サブカメラ2の出力信号から、基準画像データと垂直方向長が同じで、基準画像データよりも大きな水平方向長の比較画像データが生成される(一例として、水平方向が640画素(ピクセル)、垂直方向が200画素(ピクセル))。ここで、画像のそれぞれによって規定される画像平面は、i−j座標系で表現され、画像の左下隅を原点として、水平方向をi座標軸、垂直方向をj座標軸とする。画像補正部5において補正された1フレーム相当の基準画像データと比較画像データとは、後段のステレオ画像処理部6に出力されるとともに、画像データメモリ7に格納される。
【0022】
ステレオ画像処理部6は、基準画像データと比較画像データとに基づいて、ステレオマッチングを行い、一フレーム相当の撮像画像に関する距離データを算出する。ここで、「距離データ」とは、画像データによって規定される画像平面において小領域毎に算出された視差の集合であり、個々の視差は画像平面上の位置(i,j)と対応付けられている。換言すれば、距離データは、監視領域内における距離の二次元的な分布である。それぞれの視差は、基準画像の一部を構成する所定面積の画素ブロック毎に1つ算出される。一対のカメラ1,2のそれぞれから3つの原色画像が出力される本実施形態では、このステレオマッチングは、同一色の原色画像対に関して別個に行われる。すなわち、R画像(基準画像(R)と比較画像(R))、G画像((基準画像(G)と比較画像(G))、B画像(基準画像(B)と比較画像(B))のそれぞれについて独立して行われる。
【0023】
本実施形態では、4×4画素の画素ブロックを視差の算出単位としている。したがって、1フレーム相当の画像全体では、基準画像に含まれる画素ブロックの個数分、すなわち128×50個の視差が算出され得る。周知のように、視差は、その算出単位である画素ブロックに関する水平方向のずれ量であり、画素ブロックに写し出された対象物までの距離と大きな相関がある。すなわち、画素ブロック内に写し出されている対象物がカメラ1,2に近いほど、この画素ブロックの視差は大きくなり、対象物が遠いほど視差は小さくなる(無限に遠い場合、視差は0になる)。
【0024】
ある画素ブロック(相関元)に関する視差を算出する場合、この画素ブロックの輝度特性と相関を有する領域(相関先)を比較画像において特定する。上述したように、カメラ1,2から対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像において相関先を探索する場合、相関元となる画素ブロックのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ画像処理部6は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を一画素ずつシフトしながら、相関元と相関先の候補との間の相関性を順次評価する(ステレオマッチング)。そして、原則として、最も相関が高いと判断される相関先(相関先の候補の内のいずれか)の水平方向のずれ量を、その画素ブロックの視差とする。
【0025】
画素ブロック間における輝度特性の相関は、例えば、シティブロック距離を算出することで評価でき、基本的には、その値が最小となるものが相関を有する画素ブロックである。そして、相関を有する画素ブロック同士の水平方向のずれ量が視差として出力される。なお、シティブロック距離を算出するためのハードウェア構成については、特開平5−114099号公報に開示されているので、必要ならば参照されたい。
【0026】
ステレオ画像処理部6は、同一色の原色画像同士(例えば、基準画像(R)と比較画像(R))でステレオマッチングを行い、後段の融合処理部8に出力する。これにより、基準画像における一画素ブロックに関して、3つの視差、すなわち、R画像より算出された視差Nr、G画像より算出された視差Ng、B画像より算出された視差Nbが算出される(以下、それぞれを「原色視差」という)。
【0027】
融合処理部8は、ある画素ブロックに関して算出された3つの原色視差Nr,Ng,Nbを融合し、その画素ブロックに関する統一的な視差Ni(以下、「統一視差Ni」という)を算出する。この融合は、数式1に示すように、積和演算(本実施形態では加重平均)に基づいて行われる。具体的には、ある画素ブロックに関する原色視差Nr,Ng,Nbに重み付けを与えた上で加算することにより、この画素ブロックに関する統一視差Niが算出される。ここで、Orは赤(R)についての重み係数、Ogは緑(G)、Obは青(B)についての重み係数である。
【数1】
Ni=Or・Nr + Og・Ng + Ob・Nb
【0028】
重み係数のセット(Or,Og,Ob)は、検出対象選定部9によって指定される。検出対象選定部9は、現時点で検出したい対象物(例えば、追い越し禁止のセンターライン等)を選定する。検出対象物は、車両走行時に出現し得るものであり、複数の対象物(例えば、追い越し禁止センターライン、ストップランプやウィンカ等)が予め設定されている。検出対象選定部9は、図示しない自車両の速度センサや操舵角センサ等より特定される走行状況に応じて、いずれかの対象物を検出対象物として選定し、その検出対象物に関する重み係数のセット(Or,Og,Ob)を融合処理部8に対して出力する。
【0029】
重み係数のセット(Or,Og,Ob)を、加重平均の重み係数として捉えると、具体的な係数値Or,Og,Obは、数式2に示した4つの条件(式)を具備する必要がある。
【数2】
Or+Og+Ob=1
0≦Or≦1
0≦Og≦1
0≦Ob≦1
【0030】
なお、検出対象物の認識精度を高めるために、重み係数のセット(Or,Og,Ob)には、対象物の色を反映させることが好ましい。具体的には、それぞれの重み係数Or,Og,Obは、数式3のように定義する。同数式において、Irは対象物の赤色(R)の色成分値、Igは緑色(G)の色成分値、Ibは青色(B)の色成分値である。重み係数Or,Og,Obの具体値は、後述する色情報テーブル11aの内容に基づき、数式3の演算を実行することによって決定する。
【数3】
Or=Ir/(Ir + Ig + Ib)
Og=Ig/(Ir + Ig + Ib)
Ob=Ib/(Ir + Ig + Ib)
【0031】
検出対象選定部9は、予め設定されたプログラムを実行することで検出対象物を選定するマイクロコンピュータ10と、プログラムおよび各種データが格納されたメモリ11とを有する。メモリ11は、プログラムおよびデータが固定的に格納されたROMと、マイクロコンピュータ10のワーク領域等として使用されるRAMとを含む。このメモリ11に格納されている情報としては、例えば、上述した演算処理によって決定された重み係数Or,Og,Obの具体値、色情報テーブル11aが挙げられる。
【0032】
数式3に示した演算によって決定された重み係数のセット(Or,Og,Ob)は、メモリ11(RAM)における所定のアドレス領域(以下、「重み設定領域」という)に格納・保持される。そして、重み係数のセット(Or,Og,Ob)が更新されると、この重み設定領域に書き込まれている値も速やかに更新される。融合処理部8は、重み設定領域にアクセスすることで、現時点で適用すべき重み係数のセット(Or,Og,Ob)を獲得する。
【0033】
図2は、色情報テーブル11aの一例を示す図である。この色情報テーブル11aには、検出対象物111と、その色を表現した色情報112とが対応付けて記述されている。色情報112は、256階調の輝度値で表現した色成分(Ir,Ig,Ib)である。例えば、追い越し禁止のセンターライン(日本国内においては黄色あるいはオレンジ色)は、Ir=240,Ig=190,Ib=0に設定されている。また、車両のリアランプおよびストップランプは、Ir=240,Ig=0,Ib=0に設定されている。
【0034】
このようにして求められた統一視差Niの1フレーム分の集合は、画像平面上の位置(i,j)と対応付けた上で、距離データ(i,j,Ni)として距離データメモリ12に格納される。なお、統一視差Niを算出する融合処理部8の詳細については、本出願人によって既に出願されている特願2001−343801号に開示されているので、必要ならば参照されたい。
【0035】
マイクロコンピュータ13は、CPU、ROM、RAM、入出力インターフェース等で構成されているが、これを機能的に捉えた場合、車線認識部13a、車両認識部13bおよびウィンカ認識部13cを有する。マイクロコンピュータ13は、これらの機能を実行する前提として、1フレーム相当の画像データを画像データメモリ7から読み出すとともに、読み出された画像データに対応する距離データを距離データメモリ12から読み出す。
【0036】
車線認識部13aは、少なくとも読み出された距離データに基づき、監視領域内の車線を認識する。そして、認識された車線(正確には、これらを規定するパラメータ)が車両認識部13bに対して出力される。車両認識部13bは、読み出された距離データに基づき、認識された車線から隣接車線を走行する他車両を特定するとともに、この特定された他車両の車両側面を認識する。このとき、特定された他車両について、車両後面が認識可能である場合、車両認識部13bは、車両側面と車両後面との組合わせとして他車両を認識する。なお、車両認識部13bは、読み込まれた画像データを利用して、隣接車線を走行する他車両を特定してもよい。ウィンカ認識部13cは、画像(本実施形態では、画像データによって規定される二次元的な画像平面)または距離データによって規定される二次元平面上において、認識された車両側面の端部位置を基準としてウィンカ領域を設定するとともに、読み込まれた画像データに基づいてウィンカの色成分の画素を検出する。そして、設定されたウィンカ領域に対応する画像平面上の領域と位置的に対応する画素がウィンカとして認識される。
【0037】
そして、マイクロコンピュータ13は、これらの認識結果に基づいて、警報が必要と判定された場合、モニターやスピーカー等の警報装置14を作動させてドライバーに注意を促す。また、必要に応じて制御装置15を制御することにより、AT(自動変速機)のシフトダウンやエンジン出力の抑制、或いはブレーキの作動といった車両制御が適宜実行される。本実施形態の特徴の一つとして、マイクロコンピュータ13は、後述するフローチャートに示す処理を行うことにより、自車両が走行する車線と隣接する車線を走行する他車両のウィンカ状態から、他車両の挙動を監視している。
【0038】
図3は、本実施形態にかかる車両監視手順を示すフローチャートである。本ルーチンは、所定の間隔で呼び出され、マイクロコンピュータ13によって実行される。まず、ステップ1において、マイクロコンピュータ13は、画像データメモリ7より一フレームの画像データを読み込むとともに、この画像データに対応する距離データを距離データメモリ12より読み込む。
【0039】
ステップ2において、車線認識部13aは、読み込まれた画像データおよび距離データに基づき、監視領域内の車線を認識する。具体的には、車線認識部13aは、道路モデルを算出することにより、道路上に描かれた車線を規定する白線を認識する。この道路モデルは、実空間の座標系において、水平方向および垂直方向における直線式で表現される。すなわち、「車線の認識」とは、この直線式のパラメータを、実際の白線形状に合致するような値に設定することである。
【0040】
白線は道路面と比較して高輝度であるという知得に基づき、車線認識部13aは、道路の幅方向の輝度変化を評価して、監視領域内の白線の位置を画像平面上で特定する。この白線の実空間上の位置(x,y,z)は、画像平面上の位置(i,j)とこの位置に関して算出された視差Niとに基づいて、すなわち、距離データに基づいて、周知の座標変換式より算出される。自車両の位置を基準に設定された実空間の座標系は、ステレオカメラの中央真下の道路面を原点として、車幅方向をx軸、車高方向をy軸、車長方向(距離方向)をz軸とする。このとき、x−z平面(y=0)は、道路が平坦な場合、道路面と一致する。道路モデルは、道路上の自車線を距離方向に複数区間に分割し、各区間における左右の白線を三次元の直線で近似し、これらを折れ線状に連結することによって表現される。
【0041】
ステップ3において、車両認識部13bは、距離データに基づき、監視領域内に存在する立体物を検出するとともに、この検出結果に基づき監視領域内の他車両を特定する。具体的には、車両認識部13bは、読み込まれた距離データを、例えば、図4に示すように、ij平面において、所定の間隔で(例えば、水平方向に4画素間隔)で分割することにより、格子状(縦短冊状)の複数の区分に分割する。そして、分割された区分のそれぞれを処理対象として、以下に示す処理が行われる。
【0042】
まず、処理対象とする区分内に存在する全データの中から、任意のデータ(例えば、(i,j)位置が最も原点に近いデータ)が選択される。ここで、「データ」とは、位置(i,j)に対応付けられた視差Niをいう。そして、選択されたデータについて、周知の座標変換式を用いて、三次元位置(x,y,z)が算出される。つぎに、上述した道路モデルの直線式を用い、算出された距離zにおける道路面の高さが算出される。この道路面の高さと、座標変換されたデータの高さyとを比較して、このデータが道路面より上にある場合には、そのデータが立体物データとして抽出される。そして、この区分内のすべてのデータについて、同様の処理が繰り返し実行され、その区分内に存在する立体物データが、順次抽出される。
【0043】
立体物データの抽出処理が完了すると、次に、抽出された立体物データを処理対象として、ヒストグラムが算出される。このヒストグラムは、予め設定された距離(例えば、15m)の区間に含まれる立体物データの個数を数えることで、例えば、距離zを横軸とした立体物データの出現頻度として表される。このヒストグラムが作成されると、出現頻度が所定のしきい値以上で、かつ、最頻距離となる区間が検出される。このとき、車両認識部13bは、この条件に該当する区間があれば、その区分には立体物が存在すると判断する。そして、その区間内に存在するデータ数相当の距離zの平均値または代表値、或いは、該当区間の中間値が、その立体物までの距離Zとして算出される。
【0044】
そして、距離データに関するすべての区分について、上述した処理が繰り返し実行され、分割された区分相当数の距離Zが算出される。
【0045】
つぎに、算出された区分相当数の距離Zに基づき、この距離Zが近似している区分同士がグループにまとめられる。この処理では、各区分の立体物の距離Zを調べるとともに、隣接する区分において立体物までの距離Zの差が判定値以下の場合は同一の立体物とみなし、隣接する区分が同一のグループにまとめられる。一方、この距離Zの差が判定値を超えている場合には、これらの区分に関する距離Zは別々の立体物の距離を示すものであるとみなし、隣接する区分が異なるグループとして分けられる。そして、まとめられたグループのそれぞれに対し、「側壁」か「物体」かの分類が行れるとともに、グループそれぞれのパラメータが算出される。
【0046】
この処理では、グループ内の各区分の位置(x,Z)から、ハフ変換または最小二乗法によって近似直線を求めることにより、グループ全体の傾きが算出される。そして、この直線の傾きが、設定値(例えば、45°)と比較される。算出された直線の傾きが、設定値以下で、かつ、グループ内での距離Zの並びが略z軸方向の場合には、このグループが「側壁」とラベル付けされる。一方、算出された直線の傾きが、設定値を超え、かつ、グループ内での距離Zの並びが略x軸方向の場合には、このグループが「物体」とラベル付けされる。そして、「物体」とラベル付けされたグループでは、グループ内の距離Zから算出される平均距離や、左端、右端のx座標等がグループのパラメータとして算出される。また、「側壁」とラベル付けされたグループでは、グループ内の距離Zの並びの方向(z軸との傾き)や前後端の位置(z,x座標)等がグループのパラメータとして算出される。
【0047】
そして、ラベル付けされたグループのうち、同一の立体物であるにも拘わらず、「物体」と「側壁」として個別にラベル付けされているグループが、「物体」と「側壁」との組合わせとして認識される。なぜならば、隣接車線を走行する他車両では、車両側面を「側壁」、車両後面を「物体」としてグループ分けされている可能性があり、これらのグループのそれぞれが独立した立体物として認識される恐れがあるからである。そこで、この処理では、「物体」とラベル付けされたグループの端点の位置と、「側壁」とラベル付けされたグループの端点の位置との差が算出される。各端点の位置は、「物体」が自車両の正面(z軸に相当)より右側にある場合には、「物体」の左端の位置と「側壁」の手前側の端点の位置となる。一方、「物体」が自車両の正面より左側にある場合には、各端点の位置は、「物体」の右端の位置と「側壁」の手前側の端点の位置ととなる。そして、各グループの端点の位置の差が判定値(例えば、1m程度)以内で、互いに接近しているか否かが調べられる。このとき、各グループの端点の位置の差が判定値以内の場合には、これらのグループが同一立体物であると判定される。なぜならば、1個の立体物の後部と側面とが同時に見える場合、その2つの面が作るコーナーは自車両側に凸となっているため、「物体」の左端の位置と「側壁」の手前側の端点の位置と(或いは、「物体」の右端の位置と「側壁」の手前側の端点の位置と)は、本来、一致すると考えられるからである。したがって、2つのグループの位置の差が判定値以内にあるとき、この2つのグループが1個の立体物であると判断されることとなる。
【0048】
以上の処理により、監視領域内の立体物のそれぞれがグループとして認識され、隣接する車線および自車線上に存在する立体物のグループが他車両として特定される。具体的には、車両認識部13bは、「物体」と「側壁」との組合わせとラベル付けされたグループ、或いは、「側壁」とラベル付けされたグループを、隣接車線に存在する他車両として特定する。一方、車両認識部13bは、基本的に、「物体」とラベル付けされたグループを、自車両と同一の車線に存在する他車両として特定する。
【0049】
図5は、他車両の特定結果の一例を示す説明図である。同図に示すように、監視領域内の他車両を「物体」・「側壁」のラベル付けがされたグループとして特定しているので、車両認識部13bは「側壁」とラベル付けされたグループを認識することにより、車両側面を認識することができる。また、車両認識部13bは、「物体」とラベル付けされたグループを認識することにより、車両後面を認識することができる。なお、立体物を「物体」・「側壁」として検出する詳細な手法については、特開平10−283461号公報に開示されているので、必要ならば参照されたい。
【0050】
そして、ステップ4において、上述した他車両の特定結果に基づき、隣接車線に他車両が存在するか否かが判断される。このステップ4で肯定判定された場合、ステップ5に進む。一方、このステップ4で否定判定された場合には、後段のステップ8に進む。
【0051】
ステップ4に続くステップ5において、ウィンカ検出部13cは、特定された隣接車線に存在する他車両について、ウィンカを認識するとともに、このウィンカの点滅状態を検出する。図6は、ウィンカ点滅検出ルーチンを示す詳細なフローチャートである。まず、ステップ51において、距離データによって規定される画像平面上において、他車両のウィンカ存在するであろう領域に、ウィンカ領域が設定される。
【0052】
図7は、ウィンカ認識部13cによって設定されるウィンカ領域を示す説明図である。具体的には、隣接車線に存在する他車両についてウィンカ領域を設定する前提として、車両検出部13bで検出された他車両の車両側面と車両後面との境界位置を基準として、距離データ上で基準位置Ps(is,js)が決定される。本実施形態では、最も道路側となる境界位置上の点に、この基準位置Ps(is,js)が決定されている。そして、この基準位置Ps(is,js)に基づいて、道路面よりある程度の高さとなる位置(すなわち、基準位置Ps(is,js)からj方向にシフトした位置)において、車両後面側に、所定面積の第1のウィンカ領域Awin1が設定される。この高さは車両に設けられたウィンカに相当する位置を基準に決定されており、結果として、この第1のウィンカ領域Awin1は他車両の車両後面のウィンカ位置に対応する。また、車両側面側に、車両の側面に沿って車長方向に延在する第2のウィンカ領域Awin2(この第2のウィンカ領域Awin2は所定の幅を有する)が設定される。すなわち、この第2のウィンカ領域Awin2は、他車両の車両側面に設けられたウィンカの位置に対応する。
【0053】
なお、自車両から、隣接する他車両を撮像した場合、自車両の位置より少しだけ前方に存在する他車両は、その車両側面しか検出でできない可能性がある。したがって、ウィンカ領域を設定するための基準位置は、車両側面の端部(正確には、自車両側の端部)を基準とすればよい。すなわち、上述した実施形態は、車両側面の端部位置が、車両後面の位置と一致しているケースであるといえる。例えば、図7に示すように、車両側面のみから認識される他車両(図中、右側の車両)では、車両側面の端部位置を基準として、第2のウィンカ領域Awin2のみが設定されることとなる。また、上述したステップ51の処理では、距離データ上においてウィンカ領域を設定しているが、このウィンカ領域と相当する領域を、画像データ上の対応する位置にウィンカ領域として設定してもよい。
【0054】
そして、ステップ52において、画像データに基づき、ウィンカの色成分画素が抽出される。ここで、ウィンカの色成分とは、一般に、オレンジないし黄色であり、このステップ52では、オレンジないし黄色の画素が抽出される。具体的には、3つの原色画像のそれぞれにおいて、位置的に対応する画素を処理対象として、G画像とR画像との輝度値の比G/Rと、G画像とB画像との輝度値の比G/Bとが求められる。そして、求められたG/RとG/Bとが予め設定された設定範囲内(すなわち、オレンジないし黄色となるG/Rの範囲とG/Bの範囲)に存在する画素が、ウィンカの色成分画素として抽出される。
【0055】
ステップ53において、抽出されたウィンカの色成分画素のうち、座標位置的に連続する画素が、グループGnとしてまとめられる(グループ化)。そして、まとめられたグループGnのそれぞれを処理対象として、グループの面積Wgnと、画像平面上での重心位置Pgn(ign,jgn)とが算出される(ステップ54)。
【0056】
つぎに、ステップ55において、グループGnの重心位置Pgn(ign,jgn)が、ステップ51で設定された第1および第2のウィンカ領域Awin1,Awin2に相当する画像平面上での領域と位置的に対応するか否かが判断される。このステップ55で否定判定された場合、このグループGnがウィンカではないと判断され、図3に示すステップ8に進む。一方、このステップ55で肯定判定された場合、このグループGnがウィンカである可能性が高いと判断され、ステップ56に進む。
【0057】
ステップ55に続くステップ56において、グループGnの重心位置Pgn(ign,jgn)が第1および第2のウィンカ領域Awin1,Awin2と位置的に対応すると判断されたグループGnの面積Wgnが、所定の判定値Wth以上であるか否かが判断される。ここで、この所定の設定値Wthは、グループGnの面積Wgnがウィンカの大きさと等価であると認められる程度の値として決定されており、第1および第2のウィンカ領域Awin1,Awin2の距離データ上の位置上に応じてその値が異なる。すなわち、設定された第1および第2のウィンカ領域Awin1,Awin2の位置に対応する実空間での位置が自車両から遠い場合は、この所定の判定値Wthは遠近を考慮して、ある程度小さな値となる。一方、設定された第1および第2のウィンカ領域Awin1,Awin2の位置に対応する実空間での位置が自車両に近い場合は、この所定の判定値Wthは遠近を考慮して、ある程度大きな値となっている。
【0058】
そして、このステップ56で否定判定された場合、このグループGnがウィンカと認められる程度の面積を有さないと判断され、図3に示すステップ8に進む。一方、ステップ56で肯定判定された場合、このグループGnがウィンカとして判断され、グループGnの面積Wgnを例えばRAM領域に格納し、ステップ57に進む。
【0059】
ステップ56に続くステップ57において、格納されたグループGnの面積Wgnうち、過去M回に検出されたグループ面積Wgnの平均値Waが算出される。この過去M回のデータは、ウィンカが点滅しているか否かを判断し得る程度の回数相当のデータである。例えば、ウィンカの点滅状態を判断し得る時間を2秒とした場合、本ルーチンの実行間隔を0.01秒としたならば、処理対象とするデータ数Mは200回となる。なお、現在の検出数がM回以下である場合には、この平均値Waは、現在までに検出されているグループ面積Wgnの平均値として算出される。
【0060】
ステップ58において、点滅判定値Bが算出される。この点滅判定値Bは、検出されたグループ面積Wgnと、グループ面積Wgnの過去M回の平均値Waとの差(絶対値)の過去M回における総和である(Σ|Wgn−Wa|)。この点滅判定値Bは、ウィンカの点滅回数が多い程その値が大きくなり、ウィンカの点滅回数が少ないほどその値が小さくなる傾向となる。そして、この点滅判定値Bの算出にともない、本ルーチンを抜ける。
【0061】
再び図3を参照して、ステップ6において、ウィンカ点滅検出ルーチンで算出された点滅判定値Bと、判定値Bthとが比較される。ここで、この点滅判定値Bと比較対象となる判定値Bthは、ウィンカが点滅していると認められる程度の点滅判定値Bの最小値として決定されている。したがって、この比較結果に基づき、点滅判定値Bが判定値Bth以上である場合には、隣接車線に存在する他車両のウィンカが点滅していると判断され、ステップ7に進む。一方、この比較結果に基づき、点滅判定値Bが判定値Bthより小さい場合には、隣接車線に存在する他車両のウィンカが点滅していない判断され、ステップ8に進む。
【0062】
そして、ステップ6に続くステップ7において、隣接車線を走行する他車両のウィンカの点滅判断をうけ、ウィンカ認識部13cは、自車線への合流車両があると判断する。このとき、マイクロコンピュータ13は、警報装置14を作動させて、ドライバーに対して、合流車両の存在を注意してもよい。また、自車線への合流車両がある場合には、制御装置15の制御基準となる対象他車両がこの合流車両に切り換えられるとともに、必要に応じてAT(自動変速機)のシフトダウンやエンジン出力の抑制、或いはブレーキの作動といった車両制御が行われる。
【0063】
一方、ステップ8において、隣接車線を走行する他車両のウィンカの非点滅の判断をうけ、ウィンカ認識部13cは、自車線への合流車両はないと判断する。この場合、マイクロコンピュータ13は、通常の車両監視を行うべく、先行車(或いは、障害物)との車間距離と相対速度を基準とした衝突防止や、車線逸脱防止といった車両制御を行う。
【0064】
以上説明したように、本実施形態に示す車両監視手法では、まず、監視領域内の隣接車線を走行する他車両にあたり、この他車両を車両側面・車両後面として認識している。そして、認識された車両側面の端部位置を基準として、ウィンカ領域が設定されている。これにより、ウィンカ位置が両端に存在しないような場合(例えば、自車両から眺めた隣接車線を走行する他車両)であっても、他車両の車両側面の端部を基準とすることで、ウィンカ領域が他車両のウィンカ位置上に設定されるので、ウィンカを有効に認識することができる。また、カメラの画角範囲に他車両の車両後面が入りきらないような場合であっても、他車両の車両側面の端部を基準とすることで、ウィンカ領域が車両側面のウィンカ位置上に設定されるので、ウィンカを有効に認識することができる。このようにウィンカを認識することにより、認識されたウィンカから、他車両の挙動を監視することができる。例えば、点滅状態を判断することにより、隣接車線に存在する他車両が自車線に合流する車両であるか否かを把握することができる。これにより、合流車両の存在をドライバーへ注意を促したり、或いは、この合流車両に着目して車両制御を行うことができるので、車両監視の安全性・信頼性を向上させることができる。
【0065】
なお、本実施形態では、ステレオマッチングを用いて距離データを算出したが、レーザレーダまたはミリ波レーダ等の種々のセンサを用いることにより、距離データを出力してもよい。すなわち、図1に示す車両監視装置において、カメラ1,2によって撮像された撮像画像に基づき、距離データを算出するステレオ画像処理部6は、これらのセンサと同様な機能を有する。
【0066】
また、上述した実施形態では、カメラ1,2から出力されるカラー画像を用いて、距離データの算出、および、ウィンカの点滅検出を行う構成であったが、本発明はこのような形態に限定されない。図8は、本実施形態にかかる別の走行支援機能付きの車両監視装置の概略的なブロック図である。同図に示す車両監視装置が上述した実施形態と相違する点は、図1に示すカラーステレオカメラ(カメラ1,2)と置換して、モノクロステレオカメラ(カメラ16,17)と、カラーカメラ(カメラ18)とを有していることである。また、図8に示す車両監視装置では、モノクロステレオカメラの使用にともない、図1に示した融合処理部8と、検出対象選定部9とを構成要素として有さない。すなわち、図8に示す車両監視装置では、モノクロステレオカメラからの出力画像に基づき距離データが算出され、この距離データに基づき監視領域内の車線および車両が認識される。また、これらの認識結果とともに、カラーカメラ(カメラ18)からの出力画像に基づき、ウィンカの点滅検出が行われる。このような構成であっても、上述した実施形態と同様の作用・効果を奏することができる。また、かかる車両監視装置は、図1に示した車両監視装置と比べて、ステレオマッチングを行う際カラー画像を用いない分、計算処理を簡略化できるという長所を有する。
【0067】
【発明の効果】
このように、本発明の手法によれば、他車両の車両側面の端部を基準とすることで、ウィンカ領域が他車両のウィンカ位置上に設定されることとなるので、ウィンカを有効に認識することができる。これにより、隣接車線を走行する他車両のウィンカを認識することができるので、この他車両の挙動を有効に監視することができる。
【図面の簡単な説明】
【図1】本実施形態にかかる走行支援機能付きの車両監視装置の概略的なブロック図
【図2】色情報テーブルの一例を示す図
【図3】本実施形態にかかる車両監視手順を示すフローチャート
【図4】複数の区分に分割された距離データを示す説明図
【図5】車両の特定結果の一例を示す説明図
【図6】ウィンカ点滅検出ルーチンを示す詳細なフローチャート
【図7】ウィンカ認識部によって設定されるウィンカ領域を示す説明図
【図8】本実施形態にかかる別の走行支援機能付きの車両監視装置の概略的なブロック図
【符号の説明】
1 メインカメラ
2 サブカメラ
3 アナログインターフェース
3a ゲインコントロールアンプ
4 A/Dコンバータ
5 画像補正部
6 ステレオ画像処理部
7 画像データメモリ
8 融合処理部
9 検出対象選定部
10 マイクロコンピュータ
11 メモリ
11a 色情報テーブル
12 距離データメモリ
13 マイクロコンピュータ
13a 車線認識部
13b 車両認識部
13c ウィンカ認識部
14 警報装置
15 制御装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle monitoring device and a vehicle monitoring method for monitoring the behavior of another vehicle from a blinker state of another vehicle traveling in an adjacent lane adjacent to the lane in which the host vehicle travels.
[0002]
[Prior art]
In recent years, a vehicle monitoring device using various sensors such as a monocular camera, a stereo camera, and a millimeter-wave radar has attracted attention (for example, see Patent Document 1). In a vehicle monitoring device of this kind, a scene in a predetermined monitoring area is imaged or scanned by a sensor mounted on the host vehicle, and a traveling situation is recognized based on information obtained thereby. Typically, the object to be recognized by the vehicle monitoring device includes a lane (road) and a preceding vehicle. Further, in such a vehicle monitoring device, by further combining a control device (for example, an AT control device, an engine control device or a brake control device) and an alarm device, an inter-vehicle distance-sensitive cruise control and an approach warning of another vehicle are provided. It is also considered to include a driving support function such as. In a vehicle monitoring device with a driving support function, basically, a distance to a preceding vehicle and a relative speed are detected, and a control device and an alarm device are controlled based on the detection results.
[0003]
Generally, when a human drives a vehicle, the driver often controls the traveling of the own vehicle while predicting the behavior of another vehicle. For example, when another vehicle traveling in an adjacent lane interrupts the traveling lane of the own vehicle to change lanes, the driver predicts an interruption to the own lane by recognizing the blinker state of the other vehicle. And so on. Then, in consideration of the inter-vehicle distance between the interrupted other vehicle and the own vehicle, an operation such as a brake operation or a downshift is performed as necessary.
[0004]
In addition, for example, Patent Document 2 discloses a method of detecting a blinker of another vehicle. According to Patent Literature 2, a preceding vehicle is detected as a plurality of windows (window groups) based on a stereo image, and a luminance change in windows on both sides of the window group (that is, both ends on the rear side of the vehicle) is detected. Is used to determine the operating state of the blinker.
[0005]
[Patent Document 1]
JP-A-10-283461
[Patent Document 2]
JP-A-11-14346
[0006]
[Problems to be solved by the invention]
By the way, the conventional vehicle monitoring device recognizes the interrupted vehicle as a preceding vehicle to be monitored on the condition that a part of the interrupted vehicle enters the own lane. Therefore, in such a vehicle monitoring device, there is a possibility that control such as deceleration or acceleration suspension may be delayed as compared with a case where a driver recognizes a lane change of another vehicle and performs a driving operation. This delay may make the driver feel uncomfortable with human driving, and in some cases, may increase the risk of contact with other vehicles. Therefore, in order to avoid such a problem, for example, as disclosed in Patent Document 2, a blinker of another vehicle is detected, and the behavior of the other vehicle is grasped based on the detected state of the blinker. It may be reflected in vehicle monitoring.
[0007]
However, when the other vehicle traveling in the adjacent lane is imaged by the camera from the own vehicle side, since this camera images the other vehicle diagonally from the rear, the other vehicle is observed including the vehicle side surface and the vehicle rear surface. Become. Therefore, if the other vehicle is detected as a block of windows and the blinker positions are detected as both ends of the window group, the blinkers cannot be detected because the both ends of the window group do not correspond to the blinker positions of the other vehicle. There is. Further, depending on the positional relationship between the own vehicle and the other vehicle, it is conceivable that the rear surface of the vehicle of the other vehicle does not fall within the angle of view range of the camera. In this case, the blinker detection method disclosed in Patent Literature 2 detects the blinker. It can be difficult to recognize.
[0008]
The present invention has been made in view of such circumstances, and an object thereof is to recognize a blinker of another vehicle traveling in an adjacent lane in order to detect a blinker state of another vehicle traveling in the adjacent lane. is there.
[0009]
Another object of the present invention is to further improve the safety and reliability of a device that controls the traveling of a vehicle according to vehicle monitoring.
[0010]
[Means for Solving the Problems]
In order to solve such a problem, a first invention provides a vehicle monitoring device that monitors the behavior of another vehicle from a blinker state of another vehicle traveling in an adjacent lane adjacent to the lane in which the host vehicle travels. This vehicle monitoring device has a first camera, a sensor, a lane recognition unit, a vehicle recognition unit, and a blinker recognition unit. Here, the first camera outputs a color image by capturing a scene including the monitoring area. The sensor outputs distance data indicating a two-dimensional distribution of the distance in the monitoring area. The lane recognition unit recognizes a lane in the monitoring area based on at least the distance data. The vehicle recognizing unit specifies, based on the distance data, another vehicle traveling in an adjacent lane from the recognized lanes, and recognizes a side surface of the specified other vehicle. The blinker recognizing unit sets a blinker area on the two-dimensional plane defined by the color image or the distance data based on the recognized end position of the side surface of the vehicle, and based on the color image, the pixel of the color component of the blinker. To detect. Then, a detected pixel that corresponds in position to a region on the color image corresponding to the set blinker region is recognized as a blinker.
[0011]
Here, in the first invention, it is preferable that the blinker recognizing unit sets the blinker region in a region corresponding to the side surface of the vehicle based on the end position. At this time, the blinker recognizing unit may set a blinker region also in a region corresponding to the rear surface of the vehicle based on the end position.
[0012]
Further, in the first aspect, it is preferable that the blinker recognizing unit determines whether or not the blinker of another vehicle is blinking based on a time-series area change of the pixel recognized as the blinker.
[0013]
In the first invention, the blinker recognizing unit sets the blinker region based on a boundary position between the vehicle side surface and the vehicle rear surface when the vehicle recognizing unit further recognizes the rear surface of the identified vehicle. Is preferred.
[0014]
Furthermore, the first invention further includes a second camera that functions as a stereo camera by cooperating with the first camera, by outputting a color image by capturing a scene including the monitoring area. Is preferred. In this case, it is desirable that the sensor outputs distance data by stereo matching based on the color image output from the first camera and the color image output from the second camera. On the other hand, the first invention may further include a monochrome stereo camera that outputs a pair of image data by imaging a scene including a monitoring area. In this case, it is preferable that the sensor output as distance data by stereo matching based on a pair of image data output from the monochrome stereo camera.
[0015]
According to a second aspect of the present invention, based on a color image obtained by capturing a scene including a monitoring area with a camera and distance data indicating a two-dimensional distribution of distances in the monitoring area, the host vehicle is configured to execute Provided is a vehicle monitoring method for monitoring a behavior of another vehicle from a blinker state of another vehicle traveling in a lane adjacent to the traveling lane. In this vehicle monitoring method, as a first step, a lane in a monitoring area is recognized based on at least distance data. As a second step, based on the distance data, another vehicle traveling in the adjacent lane is specified from the recognized lanes, and the vehicle side surface of the specified other vehicle is recognized. As a third step, a blinker area is set on a two-dimensional plane defined by the color image or the distance data, based on the recognized end position of the side surface of the vehicle. As a fourth step, pixels of the color component of the blinker are detected based on the color image. As a fifth step, a detected pixel positionally corresponding to a region on the color image corresponding to the set blinker region is recognized as a blinker.
[0016]
Here, in the second invention, it is preferable that in the third step, the blinker region is set in a region corresponding to the side surface of the vehicle with reference to the end position. At this time, in the third step, the blinker region may be set also in a region corresponding to the rear surface of the vehicle based on the end position.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a schematic block diagram of a vehicle monitoring device with a driving support function according to the present embodiment. This vehicle monitoring device monitors the behavior of another vehicle based on the color image and the distance data from the blinker state of another vehicle traveling in a lane adjacent to the lane in which the own vehicle travels.
[0018]
A stereo camera (a color stereo camera in the present embodiment) that captures an image of the front of the host vehicle is mounted near a rearview mirror and includes a pair of cameras 1 and 2 having a built-in image sensor such as a CCD or a CMOS sensor. ing. The cameras 1 and 2 are mounted at a predetermined interval (camera base line length) in the vehicle width direction. The main camera 1 that outputs a reference image is mounted on the right side in the traveling direction of the host vehicle. On the other hand, the sub camera 2 that outputs the comparison image is mounted on the left side in the traveling direction.
[0019]
Each of the cameras 1 and 2 incorporates a separate image sensor for each of red, green and blue (for example, a three-plate color CCD). The color image (hereinafter, referred to as “reference image”) output from the main camera 1 is actually a red image (hereinafter, referred to as “R image”) and a green image (hereinafter, referred to as “G image”). And a blue image (hereinafter, referred to as a “B image”). Similarly, a color image (hereinafter, referred to as a “comparison image”) output from the sub camera 2 is also configured by three primary color images of an R image, a G image, and a B image. Therefore, a total of six images are output by the pair of cameras 1 and 2 at one shooting timing. Hereinafter, the R image constituting the reference image may be referred to as a reference image (R). Similarly, the G image forming the reference image may be referred to as a reference image (G), and the B image may be referred to as a reference image (B). As for the comparative image, the R, G, and B images may be referred to as a comparative image (R), a comparative image (G), and a comparative image (B), respectively.
[0020]
In a state where the pair of cameras 1 and 2 are synchronized, the analog image output from each of the cameras 1 and 2 is adjusted by the analog interface 3 so as to match the input range of the component at the subsequent stage. A gain control amplifier (GCA) 3a in the analog interface 3 adjusts the brightness balance of a pair of analog image signals. This adjustment is performed between images of the same color (R, G, B). The analog image pair adjusted in the analog interface 3 is converted by the A / D converter 4 into a digital image having a predetermined luminance gradation (for example, 256 gray scales).
[0021]
The image correction unit 5 performs luminance correction, image geometric conversion, and the like for each of the six primary color images that make up the digitized image pair. Usually, since the mounting positions of the pair of cameras 1 and 2 have an error to some extent, a shift caused by the error exists in the left and right images. Therefore, geometric transformation such as rotation or translation of the image is performed using affine transformation or the like. As a result, matching of horizontal lines (epipolar lines) in an image pair, which is a prerequisite for performing stereo matching, is guaranteed. Through such image processing, reference image data having 512 pixels (pixels) in the horizontal direction (i-coordinate direction) and 200 pixels (pixels) in the vertical direction (j-coordinate direction) is generated from the output signal of the main camera 1. You. Also, from the output signal of the sub-camera 2, comparative image data having the same vertical length as the reference image data and a larger horizontal length than the reference image data is generated (for example, 640 pixels (pixels) in the horizontal direction). , The vertical direction is 200 pixels). Here, an image plane defined by each of the images is represented by an ij coordinate system, with the lower left corner of the image as the origin, the horizontal direction as the i coordinate axis, and the vertical direction as the j coordinate axis. The reference image data corresponding to one frame and the comparison image data corrected by the image correction unit 5 are output to the subsequent stereo image processing unit 6 and stored in the image data memory 7.
[0022]
The stereo image processing unit 6 performs stereo matching based on the reference image data and the comparison image data, and calculates distance data for a captured image corresponding to one frame. Here, “distance data” is a set of parallaxes calculated for each small area in an image plane defined by image data, and each parallax is associated with a position (i, j) on the image plane. ing. In other words, the distance data is a two-dimensional distribution of the distance in the monitoring area. One parallax is calculated for each pixel block having a predetermined area which forms a part of the reference image. In the present embodiment in which three primary color images are output from each of the pair of cameras 1 and 2, this stereo matching is performed separately for the primary color image pairs of the same color. That is, R image (reference image (R) and comparative image (R)), G image ((reference image (G) and comparative image (G)), B image (reference image (B) and comparative image (B)) Is done independently for each.
[0023]
In the present embodiment, a pixel block of 4 × 4 pixels is used as a parallax calculation unit. Therefore, in the entire image corresponding to one frame, parallaxes of the number of pixel blocks included in the reference image, that is, 128 × 50 parallaxes can be calculated. As is well known, the parallax is the amount of displacement in the horizontal direction with respect to a pixel block, which is the unit of calculation, and has a large correlation with the distance to the object projected on the pixel block. That is, the parallax of this pixel block becomes larger as the object projected in the pixel block is closer to the cameras 1 and 2, and the parallax becomes smaller as the object is farther (if the object is infinitely far, the parallax becomes 0). ).
[0024]
When calculating parallax for a certain pixel block (correlation source), an area (correlation destination) having a correlation with the luminance characteristic of this pixel block is specified in the comparison image. As described above, the distance from the cameras 1 and 2 to the object appears as a horizontal shift amount between the reference image and the comparison image. Therefore, when searching for a correlation destination in the comparison image, it is only necessary to search on the same horizontal line (epipolar line) as the j-coordinate of the pixel block serving as the correlation source. The stereo image processing unit 6 determines the correlation between the correlation source and the correlation destination candidate while shifting the pixel on the epipolar line by one pixel within a predetermined search range set based on the i coordinate of the correlation source. Evaluate sequentially (stereo matching). Then, in principle, the horizontal shift amount of the correlation destination (one of the candidates of the correlation destination) determined to have the highest correlation is set as the parallax of the pixel block.
[0025]
The correlation of the luminance characteristics between the pixel blocks can be evaluated, for example, by calculating a city block distance. Basically, the pixel block having the minimum value is the pixel block having the correlation. Then, the horizontal shift amount between the pixel blocks having the correlation is output as the parallax. The hardware configuration for calculating the city block distance is disclosed in Japanese Patent Application Laid-Open No. H5-114099, and should be referred to if necessary.
[0026]
The stereo image processing unit 6 performs stereo matching between the primary color images of the same color (for example, the reference image (R) and the comparison image (R)), and outputs the result to the subsequent fusion processing unit 8. Thereby, for one pixel block in the reference image, three parallaxes, that is, the parallax Nr calculated from the R image, the parallax Ng calculated from the G image, and the parallax Nb calculated from the B image are calculated (hereinafter, referred to as “the parallax Nb”). Each is called "primary color parallax."
[0027]
The fusion processing unit 8 fuses the three primary color parallaxes Nr, Ng, and Nb calculated for a certain pixel block, and calculates a unified parallax Ni (hereinafter, referred to as “unified parallax Ni”) for the pixel block. This fusion is performed based on a product-sum operation (weighted average in the present embodiment) as shown in Expression 1. Specifically, the unified parallaxes Ni for the pixel block are calculated by adding weights to the primary color parallaxes Nr, Ng, Nb for a certain pixel block. Here, Or is a weight coefficient for red (R), Og is a green (G), and Ob is a weight coefficient for blue (B).
(Equation 1)
Ni = Or.Nr + Og.Ng + Ob.Nb
[0028]
The set of weight coefficients (Or, Og, Ob) is specified by the detection target selection unit 9. The detection target selection unit 9 selects an object to be detected at the present time (for example, an overtaking prohibited center line or the like). The detection target can appear when the vehicle is running, and a plurality of targets (for example, an overtaking prohibited center line, a stop lamp, a blinker, and the like) are set in advance. The detection target selection unit 9 selects any one of the targets as a detection target in accordance with a traveling situation specified by a speed sensor, a steering angle sensor, or the like of the own vehicle (not shown), and determines a weight coefficient of the detection target. The set (Or, Og, Ob) is output to the fusion processing unit 8.
[0029]
When the set of weight coefficients (Or, Og, Ob) is regarded as a weighted average weight coefficient, the specific coefficient values Or, Og, Ob need to satisfy the four conditions (expressions) shown in Expression 2. is there.
(Equation 2)
Or + Og + Ob = 1
0 ≦ Or ≦ 1
0 ≦ Og ≦ 1
0 ≦ Ob ≦ 1
[0030]
In order to improve the recognition accuracy of the detection target, it is preferable that the color of the target is reflected in the set of weight coefficients (Or, Og, Ob). Specifically, the respective weighting factors Or, Og, Ob are defined as in Equation 3. In the equation, Ir is a red (R) color component value of the object, Ig is a green (G) color component value, and Ib is a blue (B) color component value. Specific values of the weighting factors Or, Og, and Ob are determined by executing the calculation of Expression 3 based on the contents of a color information table 11a described later.
[Equation 3]
Or = Ir / (Ir + Ig + Ib)
Og = Ig / (Ir + Ig + Ib)
Ob = Ib / (Ir + Ig + Ib)
[0031]
The detection target selection unit 9 includes a microcomputer 10 that selects a detection target by executing a preset program, and a memory 11 in which programs and various data are stored. The memory 11 includes a ROM in which programs and data are fixedly stored, and a RAM used as a work area of the microcomputer 10 and the like. The information stored in the memory 11 includes, for example, specific values of the weighting factors Or, Og, Ob determined by the above-described arithmetic processing, and the color information table 11a.
[0032]
The set of weight coefficients (Or, Og, Ob) determined by the calculation shown in Expression 3 is stored and held in a predetermined address area (hereinafter, referred to as “weight setting area”) in the memory 11 (RAM). When the weight coefficient set (Or, Og, Ob) is updated, the value written in the weight setting area is also immediately updated. The fusion processing unit 8 obtains a set of weight coefficients (Or, Og, Ob) to be applied at the present time by accessing the weight setting area.
[0033]
FIG. 2 is a diagram illustrating an example of the color information table 11a. In the color information table 11a, a detection target 111 and color information 112 representing the color are described in association with each other. The color information 112 is a color component (Ir, Ig, Ib) expressed by 256 gradation luminance values. For example, an overtaking prohibited center line (yellow or orange in Japan) is set to Ir = 240, Ig = 190, and Ib = 0. The rear lamp and the stop lamp of the vehicle are set to Ir = 240, Ig = 0, and Ib = 0.
[0034]
The set of one frame of the unified parallax Ni obtained in this manner is associated with the position (i, j) on the image plane, and stored in the distance data memory 12 as distance data (i, j, Ni). Is stored. The details of the fusion processing unit 8 for calculating the unified parallax Ni are disclosed in Japanese Patent Application No. 2001-343801 already filed by the present applicant.
[0035]
The microcomputer 13 includes a CPU, a ROM, a RAM, an input / output interface, and the like. When the microcomputer 13 is functionally grasped, the microcomputer 13 includes a lane recognition unit 13a, a vehicle recognition unit 13b, and a blinker recognition unit 13c. The microcomputer 13 reads image data corresponding to one frame from the image data memory 7 and reads distance data corresponding to the read image data from the distance data memory 12 on the premise of executing these functions.
[0036]
The lane recognition unit 13a recognizes a lane in the monitoring area based on at least the read distance data. Then, the recognized lanes (more precisely, parameters defining these) are output to the vehicle recognition unit 13b. The vehicle recognizing unit 13b specifies another vehicle traveling in an adjacent lane from the recognized lanes based on the read distance data, and recognizes a vehicle side surface of the specified other vehicle. At this time, when the rear surface of the specified other vehicle can be recognized, the vehicle recognition unit 13b recognizes the other vehicle as a combination of the vehicle side surface and the vehicle rear surface. The vehicle recognizing unit 13b may specify another vehicle traveling in the adjacent lane using the read image data. The turn signal recognizing unit 13c uses the recognized end position of the side surface of the vehicle on an image (in the present embodiment, a two-dimensional image plane defined by image data) or a two-dimensional plane defined by distance data. , And detects the pixels of the color components of the blinker based on the read image data. Then, a pixel positionally corresponding to a region on the image plane corresponding to the set blinker region is recognized as a blinker.
[0037]
If the microcomputer 13 determines that an alarm is required based on these recognition results, the microcomputer 13 activates an alarm device 14 such as a monitor or a speaker to call the driver's attention. Further, by controlling the control device 15 as needed, vehicle control such as downshifting of an automatic transmission (AT), suppression of engine output, or operation of a brake is appropriately performed. As one of the features of the present embodiment, the microcomputer 13 performs a process shown in a flowchart described later to change the behavior of the other vehicle from the blinker state of the other vehicle traveling in the lane adjacent to the lane in which the own vehicle travels. Monitoring.
[0038]
FIG. 3 is a flowchart illustrating a vehicle monitoring procedure according to the present embodiment. This routine is called at a predetermined interval and executed by the microcomputer 13. First, in step 1, the microcomputer 13 reads one frame of image data from the image data memory 7 and reads distance data corresponding to the image data from the distance data memory 12.
[0039]
In step 2, the lane recognition unit 13a recognizes a lane in the monitoring area based on the read image data and distance data. Specifically, the lane recognition unit 13a recognizes a white line defining a lane drawn on the road by calculating a road model. This road model is expressed by a straight line formula in a horizontal direction and a vertical direction in a coordinate system of a real space. That is, "recognition of the lane" is to set the parameter of the straight line type to a value that matches the actual white line shape.
[0040]
Based on the knowledge that the white line has higher luminance than the road surface, the lane recognition unit 13a evaluates the luminance change in the width direction of the road and specifies the position of the white line in the monitoring area on the image plane. . The position (x, y, z) of this white line in the real space is known based on the position (i, j) on the image plane and the parallax Ni calculated for this position, that is, based on the distance data. Is calculated from the coordinate conversion formula. The coordinate system of the real space set based on the position of the own vehicle has an origin on the road surface just below the center of the stereo camera, the x-axis in the vehicle width direction, the y-axis in the vehicle height direction, and the vehicle length direction (distance direction). Is the z axis. At this time, the xz plane (y = 0) coincides with the road surface when the road is flat. The road model is represented by dividing the own lane on the road into a plurality of sections in the distance direction, approximating the left and right white lines in each section with a three-dimensional straight line, and connecting them in a polygonal line.
[0041]
In step 3, the vehicle recognizing unit 13b detects a three-dimensional object existing in the monitoring area based on the distance data, and specifies another vehicle in the monitoring area based on the detection result. Specifically, the vehicle recognizing unit 13b divides the read distance data at predetermined intervals (for example, four pixel intervals in the horizontal direction) on the ij plane as shown in FIG. , Into a plurality of grid-shaped (vertical strip) sections. Then, the following processing is performed on each of the divided sections as a processing target.
[0042]
First, arbitrary data (for example, data whose (i, j) position is closest to the origin) is selected from all data existing in the section to be processed. Here, “data” refers to the parallax Ni associated with the position (i, j). Then, for the selected data, a three-dimensional position (x, y, z) is calculated using a well-known coordinate conversion formula. Next, the height of the road surface at the calculated distance z is calculated using the above-described straight line formula of the road model. By comparing the height of the road surface with the height y of the coordinate-converted data, if the data is located above the road surface, the data is extracted as three-dimensional object data. Then, the same processing is repeatedly executed for all data in this section, and three-dimensional object data existing in the section is sequentially extracted.
[0043]
When the extraction processing of the three-dimensional object data is completed, a histogram is calculated next with the extracted three-dimensional object data as a processing target. This histogram is represented as, for example, the appearance frequency of the three-dimensional object data with the distance z on the horizontal axis by counting the number of three-dimensional object data included in a section of a preset distance (for example, 15 m). When this histogram is created, a section in which the appearance frequency is equal to or higher than a predetermined threshold value and is the mode distance is detected. At this time, if there is a section that satisfies this condition, the vehicle recognition unit 13b determines that a three-dimensional object exists in that section. Then, an average value or a representative value of the distance z corresponding to the number of data existing in the section or an intermediate value of the section is calculated as the distance Z to the three-dimensional object.
[0044]
Then, the above-described processing is repeatedly executed for all the sections relating to the distance data, and the distance Z corresponding to the divided sections is calculated.
[0045]
Next, based on the calculated distances Z corresponding to the number of sections, the sections whose distances Z are approximate are grouped into groups. In this process, the distance Z between the three-dimensional objects in each section is checked, and when the difference in the distance Z to the three-dimensional object in the adjacent section is equal to or smaller than the determination value, the three-dimensional object is regarded as the same three-dimensional object, and the adjacent sections belong to the same group. Summarized. On the other hand, if the difference between the distances Z exceeds the determination value, the distances Z regarding these sections are regarded as indicating the distances of different three-dimensional objects, and the adjacent sections are classified as different groups. Then, each of the grouped groups is classified into “side wall” or “object”, and parameters of each group are calculated.
[0046]
In this processing, the slope of the entire group is calculated by obtaining an approximate straight line by the Hough transform or the least square method from the position (x, Z) of each section in the group. Then, the inclination of this straight line is compared with a set value (for example, 45 °). When the calculated inclination of the straight line is equal to or less than the set value and the arrangement of the distances Z in the group is substantially in the z-axis direction, the group is labeled as “side wall”. On the other hand, when the calculated inclination of the straight line exceeds the set value and the arrangement of the distances Z in the group is substantially in the x-axis direction, the group is labeled as “object”. Then, in the group labeled “object”, the average distance calculated from the distance Z in the group, the x coordinate of the left end and the right end, and the like are calculated as parameters of the group. In the group labeled “side wall”, the direction of the distance Z in the group (inclination with the z-axis), the position of the front and rear ends (z, x coordinates), and the like are calculated as parameters of the group.
[0047]
Then, among the labeled groups, the groups that are individually labeled as “object” and “sidewall” despite being the same three-dimensional object are a combination of “object” and “sidewall”. Will be recognized as This is because other vehicles traveling in the adjacent lane may be grouped as "side wall" on the side of the vehicle and "object" on the rear side of the vehicle, and each of these groups is recognized as an independent three-dimensional object. Because there is fear. Therefore, in this processing, the difference between the position of the end point of the group labeled "object" and the position of the end point of the group labeled "side wall" is calculated. When the “object” is on the right side of the front of the host vehicle (corresponding to the z-axis), the positions of the end points are the positions of the left end of the “object” and the positions of the end points on the near side of the “side wall”. On the other hand, when the “object” is on the left side of the front of the host vehicle, the positions of the end points are the right end position of the “object” and the end point on the near side of the “side wall”. Then, it is checked whether or not the positions of the end points of each group are close to each other within a determination value (for example, about 1 m). At this time, if the difference between the positions of the end points of each group is within the determination value, it is determined that these groups are the same three-dimensional object. Because, when the rear part and the side of one solid object are visible at the same time, the corner formed by the two surfaces is convex toward the host vehicle, so the position of the left end of the "object" and the position just before the "side wall" This is because the position of the end point on the side (or the position of the right end of the “object” and the position of the end point on the near side of the “side wall”) are originally considered to be the same. Therefore, when the difference between the positions of the two groups is within the determination value, the two groups are determined to be one three-dimensional object.
[0048]
Through the above processing, each of the three-dimensional objects in the monitoring area is recognized as a group, and the group of three-dimensional objects existing on the adjacent lane and the own lane is specified as another vehicle. Specifically, the vehicle recognition unit 13b sets the group labeled “combination of“ object ”and“ sidewall ”or the group labeled“ sidewall ”as another vehicle existing in the adjacent lane. Identify. On the other hand, the vehicle recognition unit 13b basically specifies the group labeled “object” as another vehicle existing in the same lane as the own vehicle.
[0049]
FIG. 5 is an explanatory diagram illustrating an example of a result of specifying another vehicle. As shown in the figure, since the other vehicles in the monitoring area are specified as the groups labeled "object" and "side wall", the vehicle recognizing unit 13b determines the group labeled "side wall". By recognizing, the side of the vehicle can be recognized. Further, the vehicle recognizing unit 13b can recognize the rear surface of the vehicle by recognizing the group labeled "object". A detailed method for detecting a three-dimensional object as an “object” or “side wall” is disclosed in Japanese Patent Application Laid-Open No. 10-283461, and should be referred to if necessary.
[0050]
Then, in step 4, it is determined whether or not another vehicle exists in the adjacent lane based on the above-described identification result of the other vehicle. If an affirmative determination is made in step 4, the process proceeds to step 5. On the other hand, if a negative determination is made in step 4, the process proceeds to the subsequent step 8.
[0051]
In step 5 following step 4, the blinker detecting unit 13c recognizes the blinker of another vehicle existing in the specified adjacent lane and detects the blinking state of the blinker. FIG. 6 is a detailed flowchart showing the blinker blink detection routine. First, in step 51, a blinker region is set in a region where a blinker of another vehicle will exist on the image plane defined by the distance data.
[0052]
FIG. 7 is an explanatory diagram showing a blinker area set by the blinker recognition unit 13c. Specifically, assuming that a blinker area is set for another vehicle existing in the adjacent lane, a reference is made on the distance data based on a boundary position between the vehicle side surface and the vehicle rear surface of the other vehicle detected by the vehicle detection unit 13b. The position Ps (is, js) is determined. In the present embodiment, the reference position Ps (is, js) is determined at a point on the boundary position closest to the road. Then, based on the reference position Ps (is, js), at a position at a certain height above the road surface (that is, a position shifted in the j direction from the reference position Ps (is, js)), A first blinker region Awin1 having a predetermined area is set. This height is determined based on a position corresponding to a blinker provided on the vehicle, and as a result, the first blinker area Awin1 corresponds to a blinker position on the rear surface of the vehicle of another vehicle. Further, a second blinker area Awin2 (the second blinker area Awin2 has a predetermined width) is set on the side surface of the vehicle and extends in the vehicle length direction along the side surface of the vehicle. That is, the second blinker area Awin2 corresponds to the position of the blinker provided on the side of the vehicle of the other vehicle.
[0053]
When an image of an adjacent other vehicle is taken from the own vehicle, the other vehicle existing slightly ahead of the position of the own vehicle may not be able to detect only the side of the vehicle. Therefore, the reference position for setting the blinker area may be based on the end of the vehicle side surface (more precisely, the end on the host vehicle side). That is, it can be said that the above-described embodiment is a case where the end position of the vehicle side surface coincides with the position of the vehicle rear surface. For example, as shown in FIG. 7, in the other vehicle (the right vehicle in the figure) recognized only from the side of the vehicle, only the second blinker area Awin2 is set based on the end position of the side of the vehicle. It becomes. Further, in the process of step 51 described above, the blinker area is set on the distance data, but an area corresponding to this blinker area may be set as a blinker area at a corresponding position on the image data.
[0054]
Then, in step 52, the color component pixels of the blinker are extracted based on the image data. Here, the blinker color component is generally orange to yellow, and in this step 52, orange to yellow pixels are extracted. Specifically, in each of the three primary color images, a pixel G corresponding to the position is processed, and a ratio G / R of the luminance value between the G image and the R image and a luminance value ratio between the G image and the B image are processed. The ratio G / B is required. Pixels in which the obtained G / R and G / B are within a preset setting range (that is, a G / R range and a G / B range of orange or yellow) are determined by the blinker color. It is extracted as a component pixel.
[0055]
In step 53, among the extracted blinker color component pixels, pixels that are continuous in coordinate position are grouped as a group Gn (grouping). Then, the group area Wgn and the barycentric position Pgn (ign, jgn) on the image plane are calculated for each group Gn to be processed (step 54).
[0056]
Next, in step 55, the position of the center of gravity Pgn (ign, jgn) of the group Gn is set as a position on the image plane corresponding to the first and second blinker regions Awin1 and Awin2 set in step 51. It is determined whether or not they correspond. If a negative determination is made in step 55, it is determined that the group Gn is not a blinker, and the process proceeds to step 8 shown in FIG. On the other hand, when an affirmative determination is made in step 55, it is determined that the possibility that the group Gn is a blinker is high, and the process proceeds to step 56.
[0057]
In a step 56 following the step 55, the area Wgn of the group Gn, whose center of gravity position Pgn (ign, jgn) of the group Gn is determined to correspond to the first and second blinker areas Awin1, Awin2, is predetermined. It is determined whether or not the value is equal to or more than the value Wth. Here, the predetermined set value Wth is determined as a value at which the area Wgn of the group Gn is recognized to be equivalent to the size of the blinker, and the distance data of the first and second blinker areas Awin1 and Awin2 is determined. The value differs depending on the upper position. That is, when the position in the real space corresponding to the set positions of the first and second blinker areas Awin1 and Awin2 is far from the host vehicle, the predetermined determination value Wth is set to a certain small value in consideration of the distance. It becomes. On the other hand, when the position in the real space corresponding to the set positions of the first and second blinker areas Awin1 and Awin2 is close to the host vehicle, the predetermined determination value Wth is a certain large value in consideration of the distance. It has become.
[0058]
If a negative determination is made in step 56, it is determined that the group Gn does not have an area large enough to be recognized as a blinker, and the process proceeds to step 8 shown in FIG. On the other hand, if an affirmative determination is made in step 56, the group Gn is determined as a blinker, the area Wgn of the group Gn is stored in, for example, a RAM area, and the process proceeds to step 57.
[0059]
In step 57 following step 56, the average value Wa of the group areas Wgn detected in the past M times among the stored areas Wgn of the group Gn is calculated. The data of the past M times is data corresponding to the number of times that can determine whether or not the blinker is blinking. For example, if the time for determining the blinking state of the blinker is 2 seconds, and if the execution interval of this routine is 0.01 second, the number M of data to be processed is 200 times. If the current number of detections is M or less, this average value Wa is calculated as the average value of the group area Wgn detected so far.
[0060]
In step 58, a blinking judgment value B is calculated. The blink determination value B is the sum of the difference (absolute value) between the detected group area Wgn and the average value Wa of the group area Wgn in the past M times in the past M times (Σ | Wgn−Wa |). The blink determination value B tends to increase as the number of blinkers of the blinker increases, and to decrease as the number of blinks of the blinker decreases. Then, with the calculation of the blinking determination value B, the process exits this routine.
[0061]
Referring again to FIG. 3, in step 6, the blinking determination value B calculated in the blinker blink detection routine is compared with the determination value Bth. Here, the determination value Bth to be compared with the blinking determination value B is determined as the minimum value of the blinking determination value B at which the blinker is recognized as blinking. Therefore, based on the comparison result, when the blinking determination value B is equal to or greater than the determination value Bth, it is determined that the blinker of another vehicle existing in the adjacent lane is blinking, and the process proceeds to step 7. On the other hand, if the blinking determination value B is smaller than the determination value Bth based on the comparison result, it is determined that the blinker of another vehicle existing in the adjacent lane is not blinking, and the process proceeds to step S8.
[0062]
In step 7 following step 6, the blinker of the other vehicle traveling in the adjacent lane is determined to blink, and the blinker recognizing unit 13c determines that there is a vehicle joining the own lane. At this time, the microcomputer 13 may operate the alarm device 14 to warn the driver of the presence of the merging vehicle. Further, when there is a merging vehicle in the own lane, the target other vehicle serving as a control reference of the control device 15 is switched to this merging vehicle, and the AT (automatic transmission) downshift and engine output are performed as necessary. Vehicle control such as suppression of brakes or operation of a brake.
[0063]
On the other hand, in step 8, the blinker recognizing unit 13c receives the determination that the blinker of the other vehicle traveling in the adjacent lane does not blink, and determines that there is no vehicle joining the own lane. In this case, the microcomputer 13 performs vehicle control such as collision prevention and lane departure prevention based on the inter-vehicle distance and the relative speed with the preceding vehicle (or obstacle) in order to perform normal vehicle monitoring.
[0064]
As described above, in the vehicle monitoring method according to the present embodiment, first, another vehicle traveling on an adjacent lane in the monitoring area is recognized, and the other vehicle is recognized as a vehicle side surface and a vehicle rear surface. Then, a blinker area is set based on the recognized end position of the side surface of the vehicle. Thus, even when the blinker position does not exist at both ends (for example, another vehicle traveling in the adjacent lane viewed from the own vehicle), the blinker position is determined based on the end of the side surface of the vehicle of the other vehicle. Since the area is set on the blinker position of another vehicle, the blinker can be recognized effectively. Also, even in a case where the rear surface of the vehicle of another vehicle does not fit within the angle of view of the camera, the blinker area is located above the blinker position on the side of the vehicle by using the end of the vehicle side surface of the other vehicle as a reference. Since the setting is made, the blinker can be recognized effectively. By recognizing the blinkers in this manner, the behavior of another vehicle can be monitored from the recognized blinkers. For example, by judging the blinking state, it can be grasped whether or not another vehicle existing in the adjacent lane is a vehicle joining the own lane. Thus, the driver can be alerted to the presence of the merged vehicle, or the vehicle can be controlled by focusing on the merged vehicle, so that the safety and reliability of vehicle monitoring can be improved.
[0065]
In the present embodiment, the distance data is calculated using stereo matching. However, the distance data may be output by using various sensors such as a laser radar or a millimeter wave radar. That is, in the vehicle monitoring device shown in FIG. 1, the stereo image processing unit 6 that calculates distance data based on the images captured by the cameras 1 and 2 has the same function as these sensors.
[0066]
In the above-described embodiment, the distance data is calculated and the blinker of the blinker is detected by using the color images output from the cameras 1 and 2. However, the present invention is limited to such a form. Not done. FIG. 8 is a schematic block diagram of another vehicle monitoring device with a driving support function according to the present embodiment. The vehicle monitoring device shown in the figure differs from the above-described embodiment in that the color stereo cameras (cameras 1 and 2) shown in FIG. Camera 18). Further, the vehicle monitoring device shown in FIG. 8 does not have the fusion processing unit 8 shown in FIG. 1 and the detection target selection unit 9 as constituent elements due to the use of the monochrome stereo camera. That is, in the vehicle monitoring device shown in FIG. 8, distance data is calculated based on the output image from the monochrome stereo camera, and lanes and vehicles in the monitoring area are recognized based on the distance data. In addition, blinking of the blinker is detected based on an output image from the color camera (camera 18) together with the recognition results. Even with such a configuration, the same operation and effect as the above-described embodiment can be achieved. Also, such a vehicle monitoring device has an advantage that the calculation process can be simplified as compared with the vehicle monitoring device shown in FIG. 1 because a color image is not used when performing stereo matching.
[0067]
【The invention's effect】
As described above, according to the method of the present invention, the blinker region is set on the blinker position of the other vehicle based on the end of the side surface of the other vehicle, so that the blinker can be effectively recognized. can do. Thus, since the blinker of another vehicle traveling in the adjacent lane can be recognized, the behavior of the other vehicle can be monitored effectively.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram of a vehicle monitoring device with a driving support function according to an embodiment;
FIG. 2 shows an example of a color information table.
FIG. 3 is a flowchart showing a vehicle monitoring procedure according to the embodiment;
FIG. 4 is an explanatory diagram showing distance data divided into a plurality of sections;
FIG. 5 is an explanatory diagram showing an example of a vehicle identification result.
FIG. 6 is a detailed flowchart showing a blinker blink detection routine;
FIG. 7 is an explanatory diagram showing a blinker area set by a blinker recognition unit;
FIG. 8 is a schematic block diagram of another vehicle monitoring device with a driving support function according to the embodiment;
[Explanation of symbols]
1 Main camera
2 Sub camera
3 Analog interface
3a Gain control amplifier
4 A / D converter
5 Image correction unit
6. Stereo image processing unit
7 Image data memory
8 Fusion processing unit
9 Detection target selection section
10. Microcomputer
11 Memory
11a Color information table
12 Distance data memory
13 Microcomputer
13a Lane recognition unit
13b Vehicle recognition unit
13c blinker recognition unit
14 Alarm device
15 Control device

Claims (10)

自車両が走行する車線に隣接する隣接車線を走行する他車両のウィンカ状態から、当該他車両の挙動を監視する車両監視装置において、
監視領域を含む景色を撮像することにより、カラー画像を出力する第1のカメラと、
前記監視領域内における距離の二次元的な分布を示す距離データを出力するセンサと、
少なくとも前記距離データに基づき、前記監視領域内の車線を認識する車線認識部と、
前記距離データに基づき、前記認識された車線から隣接車線を走行する他車両を特定するとともに、当該特定された他車両の車両側面を認識する車両認識部と、
前記カラー画像または前記距離データによって規定される二次元平面上において、前記認識された車両側面の端部位置を基準としてウィンカ領域を設定し、前記カラー画像に基づいてウィンカの色成分の画素を検出するとともに、前記設定されたウィンカ領域に対応する前記カラー画像上の領域と位置的に対応する前記検出された画素をウィンカとして認識するウィンカ認識部と
を有することを特徴とする車両監視装置。
In a vehicle monitoring device that monitors the behavior of another vehicle from the blinker state of another vehicle traveling in an adjacent lane adjacent to the lane in which the own vehicle travels,
A first camera that outputs a color image by imaging a scene including a monitoring area;
A sensor that outputs distance data indicating a two-dimensional distribution of distances in the monitoring area,
A lane recognition unit that recognizes a lane in the monitoring area based on at least the distance data;
Based on the distance data, while identifying another vehicle traveling in the adjacent lane from the recognized lane, a vehicle recognition unit that recognizes the side surface of the identified other vehicle,
On a two-dimensional plane defined by the color image or the distance data, a blinker area is set based on the recognized end position of the side surface of the vehicle, and a pixel of a color component of the blinker is detected based on the color image. And a blinker recognizing unit for recognizing, as a blinker, the detected pixel positionally corresponding to a region on the color image corresponding to the set blinker region.
前記ウィンカ認識部は、前記端部位置を基準として、前記車両側面に対応する領域にウィンカ領域を設定することを特徴とする請求項1に記載された車両監視装置。The vehicle monitoring device according to claim 1, wherein the blinker recognition unit sets a blinker region in a region corresponding to the side surface of the vehicle based on the end position. 前記ウィンカ認識部は、前記端部位置を基準として、車両後面に対応する領域にもウィンカ領域を設定することを特徴とする請求項2に記載された車両監視装置。The vehicle monitoring device according to claim 2, wherein the blinker recognition unit sets a blinker region also in a region corresponding to a rear surface of the vehicle based on the end position. 前記ウィンカ認識部は、前記ウィンカとして認識された画素の時系列的な面積変化に基づき、前記他車両のウィンカが点滅しているか否かを判断することを特徴とする請求項1から3のいずれかに記載された車両監視装置。The said blinker recognition part determines whether the blinker of said other vehicle is blinking based on the time-sequential area change of the pixel recognized as said blinker. A vehicle monitoring device according to any one of claims 1 to 3. 前記ウィンカ認識部は、前記車両認識部が前記特定された他車両の車両後面をさらに認識している場合、前記車両側面と前記車両後面との境界位置を基準として、前記ウィンカ領域を設定することを特徴とする請求項1から4のいずれかに記載された車両監視装置。The blinker recognizing unit sets the blinker area based on a boundary position between the vehicle side surface and the vehicle rear surface when the vehicle recognizing unit further recognizes the rear surface of the identified other vehicle. The vehicle monitoring device according to any one of claims 1 to 4, wherein: 前記監視領域を含む景色を撮像することにより、カラー画像を出力し、かつ、前記第1のカメラと協働することによってステレオカメラとして機能する第2のカメラをさらに有し、
前記センサは、前記第1のカメラから出力されるカラー画像と、前記第2のカメラから出力されるカラー画像とに基づき、ステレオマッチングによって、前記距離データを出力することを特徴とする請求項1から5のいずれかに記載された車両監視装置。
A second camera that functions as a stereo camera by cooperating with the first camera, by outputting a color image by imaging a scene including the monitoring area,
2. The sensor according to claim 1, wherein the sensor outputs the distance data by stereo matching based on a color image output from the first camera and a color image output from the second camera. 6. The vehicle monitoring device according to any one of claims 1 to 5,
前記監視領域を含む景色を撮像することにより、一対の画像データを出力するモノクロステレオカメラをさらに有し、
前記センサは、当該モノクロステレオカメラから出力された一対の画像データに基づいて、ステレオマッチングによって前記距離データとして出力することを特徴とする請求項1から5のいずれかに記載された車両監視装置。
By capturing a scene including the monitoring area, further comprising a monochrome stereo camera that outputs a pair of image data,
The vehicle monitoring device according to claim 1, wherein the sensor outputs the distance data by stereo matching based on a pair of image data output from the monochrome stereo camera.
監視領域を含む景色をカメラで撮像することにより取得されたカラー画像と、前記監視領域内における距離の二次元的な分布を示す距離データとに基づいて、自車両が走行する車線と隣接する車線を走行する他車両のウィンカ状態から、当該他車両の挙動を監視する車両監視方法において、
前記監視領域内の車線を認識する第1のステップと、
前記認識された車線から隣接車線を走行する他車両を特定するとともに、当該特定された他車両の車両側面を認識する第2のステップと、
前記カラー画像または前記距離データによって規定される二次元平面上において、前記認識された車両側面の端部位置を基準としてウィンカ領域を設定する第3のステップと、
前記カラー画像に基づいてウィンカの色成分の画素を検出する第4のステップと、
前記設定されたウィンカ領域に対応する前記カラー画像上の領域と位置的に対応する前記検出された画素をウィンカとして認識する第5のステップと
を有することを特徴とする車両監視方法。
Based on a color image obtained by capturing a scene including a monitoring area with a camera and distance data indicating a two-dimensional distribution of distances in the monitoring area, a lane adjacent to the lane in which the host vehicle travels. A vehicle monitoring method for monitoring the behavior of the other vehicle from the blinker state of the other vehicle traveling on the vehicle,
A first step of recognizing a lane in the monitoring area;
A second step of identifying another vehicle traveling in an adjacent lane from the recognized lane, and recognizing a vehicle side surface of the identified other vehicle;
On a two-dimensional plane defined by the color image or the distance data, a third step of setting a blinker area based on the recognized end position of the side surface of the vehicle,
A fourth step of detecting a blinker color component pixel based on the color image;
A fifth step of recognizing, as a blinker, the detected pixel that physically corresponds to a region on the color image corresponding to the set blinker region.
前記第3のステップは、前記端部位置を基準として、前記車両側面に対応する領域にウィンカ領域を設定することを特徴とする請求項8に記載された車両監視方法。9. The vehicle monitoring method according to claim 8, wherein the third step sets a blinker area in an area corresponding to the side surface of the vehicle with reference to the end position. 前記第3のステップは、前記端部位置を基準として、車両後面に対応する領域にもウィンカ領域を設定することを特徴とする請求項9に記載された車両監視方法。10. The vehicle monitoring method according to claim 9, wherein the third step sets a blinker area also in an area corresponding to a rear surface of the vehicle based on the end position.
JP2002339642A 2002-11-22 2002-11-22 Vehicle monitoring apparatus and vehicle monitoring method Expired - Fee Related JP4151890B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002339642A JP4151890B2 (en) 2002-11-22 2002-11-22 Vehicle monitoring apparatus and vehicle monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002339642A JP4151890B2 (en) 2002-11-22 2002-11-22 Vehicle monitoring apparatus and vehicle monitoring method

Publications (3)

Publication Number Publication Date
JP2004173195A true JP2004173195A (en) 2004-06-17
JP2004173195A5 JP2004173195A5 (en) 2005-11-24
JP4151890B2 JP4151890B2 (en) 2008-09-17

Family

ID=32702549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002339642A Expired - Fee Related JP4151890B2 (en) 2002-11-22 2002-11-22 Vehicle monitoring apparatus and vehicle monitoring method

Country Status (1)

Country Link
JP (1) JP4151890B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031397A (en) * 2004-07-15 2006-02-02 Alpine Electronics Inc Navigation device and navigation method
JP2007193850A (en) * 2007-04-26 2007-08-02 Mitsubishi Electric Corp Change region recognition apparatus
JP2009037284A (en) * 2007-07-31 2009-02-19 Daihatsu Motor Co Ltd Traveling object recognition device
US8134594B2 (en) 2008-11-27 2012-03-13 Aisin Seiki Kabushiki Kaisha Surrounding recognition assisting device for vehicle
JP2013092884A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Image processing device, method, and program
JP2013092885A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Image processing device, method and program
EP2642429A2 (en) 2012-03-21 2013-09-25 Ricoh Company, Ltd. Multi-lens camera system and range-finding method executed by the multi-lens camera system
KR20140012364A (en) * 2012-07-19 2014-02-03 현대모비스 주식회사 Apparatus for assisting safety driving of vehicle and method thereof
JP2015228212A (en) * 2014-05-30 2015-12-17 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH Method for assisting driver in driving vehicle, driver assistance system, computer software product and vehicle
US10691125B2 (en) 2016-12-13 2020-06-23 Toyota Jidosha Kabushiki Kaisha Blinker judgment device and autonomous driving system
US10745007B2 (en) 2018-06-08 2020-08-18 Denso International America, Inc. Collision avoidance systems and methods
CN113743316A (en) * 2021-09-07 2021-12-03 北京建筑大学 Vehicle jamming behavior identification method, system and device based on target detection
JP2021534472A (en) * 2019-07-31 2021-12-09 浙江商▲湯▼科技▲開▼▲発▼有限公司Zhejiang Sensetime Technology Development Co., Ltd. Methods, devices, and devices for recognizing the running state of smart driving devices
CN114613147A (en) * 2020-11-25 2022-06-10 浙江宇视科技有限公司 Vehicle violation identification method and device, medium and electronic equipment
JP2022091804A (en) * 2015-04-06 2022-06-21 ウェイモ エルエルシー Long range steerable lidar system
US11829153B2 (en) 2020-04-06 2023-11-28 Toyota Jidosha Kabushiki Kaisha Apparatus, method, and computer program for identifying state of object, and controller
JP7388971B2 (en) 2020-04-06 2023-11-29 トヨタ自動車株式会社 Vehicle control device, vehicle control method, and vehicle control computer program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031397A (en) * 2004-07-15 2006-02-02 Alpine Electronics Inc Navigation device and navigation method
JP2007193850A (en) * 2007-04-26 2007-08-02 Mitsubishi Electric Corp Change region recognition apparatus
JP4568845B2 (en) * 2007-04-26 2010-10-27 三菱電機株式会社 Change area recognition device
JP2009037284A (en) * 2007-07-31 2009-02-19 Daihatsu Motor Co Ltd Traveling object recognition device
US8134594B2 (en) 2008-11-27 2012-03-13 Aisin Seiki Kabushiki Kaisha Surrounding recognition assisting device for vehicle
JP2013092884A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Image processing device, method, and program
JP2013092885A (en) * 2011-10-25 2013-05-16 Nippon Telegr & Teleph Corp <Ntt> Image processing device, method and program
US9420151B2 (en) 2012-03-21 2016-08-16 Ricoh Company, Ltd. Multi-lens camera system, vehicle mounting the multi-lens camera system, and range-finding method executed by the multi-lens camera system
EP2642429A2 (en) 2012-03-21 2013-09-25 Ricoh Company, Ltd. Multi-lens camera system and range-finding method executed by the multi-lens camera system
KR20140012364A (en) * 2012-07-19 2014-02-03 현대모비스 주식회사 Apparatus for assisting safety driving of vehicle and method thereof
JP2015228212A (en) * 2014-05-30 2015-12-17 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH Method for assisting driver in driving vehicle, driver assistance system, computer software product and vehicle
JP2022091804A (en) * 2015-04-06 2022-06-21 ウェイモ エルエルシー Long range steerable lidar system
US10691125B2 (en) 2016-12-13 2020-06-23 Toyota Jidosha Kabushiki Kaisha Blinker judgment device and autonomous driving system
US10935976B2 (en) 2016-12-13 2021-03-02 Toyota Jidosha Kabushiki Kaisha Blinker judgment device and autonomous driving system
US10745007B2 (en) 2018-06-08 2020-08-18 Denso International America, Inc. Collision avoidance systems and methods
JP2021534472A (en) * 2019-07-31 2021-12-09 浙江商▲湯▼科技▲開▼▲発▼有限公司Zhejiang Sensetime Technology Development Co., Ltd. Methods, devices, and devices for recognizing the running state of smart driving devices
JP7074896B2 (en) 2019-07-31 2022-05-24 浙江商▲湯▼科技▲開▼▲発▼有限公司 Methods, devices, and devices for recognizing the running state of smart driving devices
US11829153B2 (en) 2020-04-06 2023-11-28 Toyota Jidosha Kabushiki Kaisha Apparatus, method, and computer program for identifying state of object, and controller
JP7388971B2 (en) 2020-04-06 2023-11-29 トヨタ自動車株式会社 Vehicle control device, vehicle control method, and vehicle control computer program
CN114613147A (en) * 2020-11-25 2022-06-10 浙江宇视科技有限公司 Vehicle violation identification method and device, medium and electronic equipment
CN114613147B (en) * 2020-11-25 2023-08-04 浙江宇视科技有限公司 Vehicle violation identification method and device, medium and electronic equipment
CN113743316B (en) * 2021-09-07 2023-09-19 北京建筑大学 Vehicle plugging behavior identification method, system and device based on target detection
CN113743316A (en) * 2021-09-07 2021-12-03 北京建筑大学 Vehicle jamming behavior identification method, system and device based on target detection

Also Published As

Publication number Publication date
JP4151890B2 (en) 2008-09-17

Similar Documents

Publication Publication Date Title
JP4151890B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
EP2919197B1 (en) Object detection device and object detection method
US6734787B2 (en) Apparatus and method of recognizing vehicle travelling behind
US7356408B2 (en) Information display apparatus and information display method
EP1548685A2 (en) Vehicle driving assist system
JPH1139596A (en) Outside monitoring device
JP3747599B2 (en) Obstacle detection device for vehicle
CN104321665A (en) Multi-surface model-based tracking
US8160300B2 (en) Pedestrian detecting apparatus
KR20060021922A (en) Two camera based obstacle detection method and device
JPH1139597A (en) Collision preventing device for vehicle
JP2015133078A (en) Object recognition device for control, mobile apparatus control system, and program for object recognition for control
JP4721278B2 (en) Lane departure determination device, lane departure prevention device, and lane tracking support device
JPH1114346A (en) Vehicular obstacle detecting device
JP2010224936A (en) Object detection device
JP2006004188A (en) Obstacle recognition method and obstacle recognition device
US10857998B2 (en) Vehicle control device operating safety device based on object position
JP4804202B2 (en) Stereo monitoring device
JP4574157B2 (en) Information display device and information display method
JP4531366B2 (en) Approach determination device and approach determination method
JP4099011B2 (en) Monitoring device and monitoring method
JP2013171390A (en) Driving support device
JP3965067B2 (en) Stereo monitoring device and stereo monitoring method
KR20190066396A (en) Collision warning method and device using heterogeneous cameras
JP2004118330A (en) Vehicle monitoring device and method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051007

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080627

R150 Certificate of patent or registration of utility model

Ref document number: 4151890

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130711

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees