JP3585071B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP3585071B2
JP3585071B2 JP16486896A JP16486896A JP3585071B2 JP 3585071 B2 JP3585071 B2 JP 3585071B2 JP 16486896 A JP16486896 A JP 16486896A JP 16486896 A JP16486896 A JP 16486896A JP 3585071 B2 JP3585071 B2 JP 3585071B2
Authority
JP
Japan
Prior art keywords
point
interest
image
optical flow
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP16486896A
Other languages
Japanese (ja)
Other versions
JPH1013824A (en
Inventor
宏二 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP16486896A priority Critical patent/JP3585071B2/en
Publication of JPH1013824A publication Critical patent/JPH1013824A/en
Application granted granted Critical
Publication of JP3585071B2 publication Critical patent/JP3585071B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、自動車などの車両の前部あるいは後部に設置したビデオカメラによって撮像した画像を用いて、車両の走行の際に、前方、後方又は隣接車線の車両あるいは車両の周囲に存在する障害物を検知し、運転者に警告を与える車両周辺監視装置に関するものである。
【0002】
この種の車両周辺監視装置としては、例えば、特開平6−107096号公報に記載された装置(以下、第1の従来装置という)があった。
この第1の従来装置は、走行している自車両から前景を撮像し、この撮像した前景の同一点の移動を所定時間相前後する2コマの画像から求め、この同一点の移動をオプティカルフローとして監視を行うものである。
【0003】
より詳細には、この第1の従来装置では、予め規定された撮像周期毎に撮像された画像であって、相前後する2コマの画像中の前の画像において、着目する1点を設定し、走行している自車両の進行方向を示す1点に対応する無限遠点からこの設定した着目する1点に対して放射状の方向にこの着目する1点を中心とする細長い窓を設定し、設定した窓内の画像を構成する画素群の輝度値を記憶しておく。
【0004】
そして、後の画面において、上述した窓と同様な窓をこの後の画像における無限遠点から放射方向に移動しながら、この窓内の画像を構成する画素群の輝度値と前の画像における画素群との間で、互いに対応する画素同士の輝度値の差の絶対値の総和を求める。
そして、この総和が最小になったときの窓の移動量を、着目する1点における自車両に接近する点のオプティカルフローとして求め、このオプティカルフローの位置及び大きさにより自車両に接近する物体、例えば自車両よりも低速で走行している前方車両あるいは路上障害物の監視を行う。
【0005】
また、他には、特開平7−50769号公報に記載された装置(以下、第2の従来装置という)があった。
この第2の従来装置は、走行している自車両から後側景を撮像し、この撮像した後側景の同一点の移動を所定時間相前後する2コマの画像から求め、この同一点の移動をオプティカルフローとして監視を行うものである。
【0006】
より詳細には、所定の撮像周期毎に撮像され、相前後する2コマの画像における前の画像において、着目する1点を設定し、走行している自車両の進行方向の正反対方向を示す1点に対応する無限遠点からこの設定した着目する1点に対して放射状の方向にその1点を中心とする細長い窓を設定する。
【0007】
そして、後の画面において、上述した窓と同様な窓を、この後の画像における無限遠点から発散方向に移動しながら着目する1点を検出し、前の画像と後の画像の点間を結ぶ矢印を1点のオプティカルフローとして求め、このオプティカルフローの位置及び大きさにより自車両に接近する物体、例えば自車両よりも高速で走行している後方車両の監視を行う。
【0008】
【発明が解決しようとする課題】
しかしながら、これらの第1及び第2の従来装置においては、前の画像において無限遠点から着目する1点に対して放射状の方向に細長い窓を設定し、後の画像においてこの細長い窓を発散方向に移動しながら着目する1点を検出するので、前の画像における着目する1点と後の画像における着目する1点とが似たようなパターンの画像であった場合には、着目する1点が異なる物体の点であったとしても、この点を同じ着目する1点として誤検出してしまう可能性があった。
【0009】
とりわけ、柵やガードレールあるいは電柱といった同形状の物体が、直線上に間隔をおいて配置されていた場合には、この物体が周期的に出現することになり、上述した2コマの画像間において、前の画像の着目する1点と後の画像にて検出した着目する1点とが異なる物体の点となる場合がある。
例えば、図12(a)及び図12(b)の所定時間相前後する2コマの画像に示すように、前の画像(図12(a))における物体S1の点P1を、後の画像(図12(b))における物体S2の点P2として誤って検出してしまう場合がある。
【0010】
本発明は、このような事情に鑑みてなされたものであり、着目する1点の誤検出を低減することができる車両周辺監視装置を提供することを主たる課題としている。
そして、この誤検出を簡単な処理により判定することができる車両周辺監視装置を提供することを他の課題とし、上述したように、柵やガードレールあるいは電柱といった同形状の物体が周期的に出現するような場合においても、着目する1点の誤検出を低減することができる車両周辺監視装置を提供することをさらに他の課題としている。
【0011】
【課題を解決するための手段】
前記課題を解決するため、本発明によりなされた車両周辺監視装置は、図1の基本構成図に示すように、走行している自車両から周辺画像を撮像し、所定時間相前後する2コマの画像中の同一点の移動を、該所定時間相前後する2コマの画像のうちの前の画像において走行している自車両の進行方向あるいは該進行方向の正反対方向を示す1点に対応する無限遠点から、着目する1点に対して放射状の方向に細長い窓を設定し、後の画像において前記窓を前記放射状の方向に移動しながら前記着目する1点を検出し、前記前の画像における着目する1点と後の画像における着目する一点とを結ぶベクトルをオプティカルフローとして設定し、前記走行している自車両の周辺を走行中の他車両、あるいは、周辺に存在する障害物を、該周辺を走行中の他車両、あるいは、周辺に存在する障害物のオプティカルフローのベクトルの大小及び出現位置の如何によって監視する車両周辺監視装置において、前記着目する1点が誤って検出されたものか否かを判定する誤検出判定手段(31a)を有してなり、該誤検出判定手段(31a)により、誤って検出されたと判定された着目する1点については、前記オプティカルフローの設定をしないように構成したことを特徴としている。(請求項1)
【0012】
上記請求項1の構成において、走行中の自車両からは、所定時間毎に周辺画像が撮像される。
そして、所定時間相前後する2コマの画像の内、前の画像に対しては、着目する1点が選出され、自車両の進行方向あるいはこの進行方向の正反対方向を示す無限遠点から着目する1点に対して放射状の方向に細長い窓が設定される。
また、後の画像に対しては、上述した前の画像における細長い窓と同位置に、前の画像と同様の細長い窓を設定し、かつこの設定した窓を上述した放射状の方向に移動しながら、前の画像における着目する1点と同一の点を検出する。
後の画像にて着目する1点が検出された場合には、誤検出判定手段が、検出された着目する1点に対する正誤を判定する。
【0013】
そして、誤検出判定手段により正規に検出されたと判定された着目する一点については、前の画像にて設定された着目する1点と、後の画像にて検出された着目する1点の間を結ぶベクトルをオプティカルフローとする。一方、誤検出判定手段により誤って検出されたと判定された着目する一点については、オプティカルフローを設定しない。
【0014】
よって、この請求項1の構成においては、前の画像における着目する1点と後の画像にて検出された着目する1点とから、着目する1点が誤って検出された点であるか否かを判定し、誤って検出されたと判定された点については、オプティカルフローを設定しないように構成したので、着目する1点の誤検出を低減することができる。
【0015】
また、前記後の画像において前記窓を前記前の画像における設定位置から前記無限遠点からの発散方向に移動しながら前記着目する1点の対応点の検出を行う第1着目点検出手段(31b)と、該第1着目点検出手段(31b)により対応点が検出された場合に、前記後の画像から前記所定時間後に撮像された第3の画像において前記後の画像における検出位置から前記無限遠点からの発散方向に移動しながら前記着目する1点の対応点の検出を行う第2着目点検出手段(31c)とを有してなり、前記誤検出判定手段(31a)は、前記前の画像における着目する1点と前記後の画像における着目する1点間を結ぶベクトルを第1仮オプティカルフローとして設定するとともに前記後の画像における着目する1点と前記第3の画像における着目する1点間を結ぶベクトルを第2仮オプティカルフローとして設定し、かつ前記第1仮オプティカルフローと第2仮オプティカルフローとの比較により、前記着目する1点が誤って検出された点であるか否かを判定することを特徴としている。(請求項2)
【0016】
上記請求項2の構成において、第1着目点検出手段は、後の画像において前の画像で設定した位置から発散方向へ窓を移動しながら着目する1点の対応点の検出を行う。第2着目点検出手段は、第1着目点検出手段により対応点が検出された場合、後の画像から所定時間後に撮像された第3の画像において後の画像における検出位置から発散方向へ窓を移動しながら着目する1点の対応点の検出を行う。
【0017】
誤検出判定手段は、前の画像における着目する1点と後の画像における対応点とを結ぶベクトルを第1の仮オプティカルフローとして設定し、後の画像における対応点と第3の画像における対応点とを結ぶベクトルを第2の仮オプティカルフローとして設定する。
そして、前の画像と後の画像間の撮像間隔と、後の画像と第3の画像間の撮像間隔とが互いに等しいこと、自車両に接近してくる物体の接近状態が、前の画像と後の画像間の撮像間隔と後の画像と第3の画像間の撮像間隔との間で大きな変化がないことに着目して、誤検出判定手段は、第1仮オプティカルフローと第2仮オプティカルフローとを比較することにより、着目する1点が誤って検出された点であるか否かを判定する。
【0018】
よって、この請求項2の構成によれば、前の画像と後の画像とに設定された第1仮オプティカルフローと、後の画像とこの後の画像から所定時間後に撮像された第3の画像との間に設定された第2の仮オプティカルフローとの比較により、着目する1点の誤検出を簡単に判定することができ、かつ誤検出を低減することができる。
【0019】
また、前記誤検出判定手段(31a)は、前記第1仮オプティカルフローと第2仮オプティカルフローとの長さの比較により、前記着目する1点が誤って検出された点であるか否かを判定することを特徴としている。(請求項3)
【0020】
上記請求項3の構成において、誤検出判定手段は、オプティカルフローが無限遠点より放射状の方向に現れる性質、具体的には、同一点のオプティカルフローは、この点と無限遠点とを結ぶ直線の方向に現れる性質に着目して、上述した第1仮オプティカルフローと第2仮オプティカルフローとの長さの比較により、着目する1点が誤って検出された点であるか否かを判定する。
【0021】
よって、この請求項3の構成によれば、第1仮オプティカルフローと第2仮オプティカルフローとの長さを比較することにより判定を行うように構成したので、着目する1点の誤検出を一層簡単に判定することができ、かつ誤検出を低減することができる。
【0022】
また、前記後の画像において前記窓を前記前の画像における設定位置から前記無限遠点からの発散方向に移動しながら前記着目する1点の対応の検出を行う第1着目点検出手段(31b)と、前記後の画像において前記窓を前記前の画像における設定位置から前記無限遠点への収束方向に移動しながら前記着目する1点の対応点の検出を行う第3着目点検出手段(31d)とを有してなり、前記誤検出判定手段(31a)は、前記第1着目点検出手段(31b)と前記第3着目点検出手段(31d)の双方から前記着目する1点の対応点が検出された場合に、前記着目する1点が誤って検出されたと判定することを特徴としている。(請求項4)
【0023】
上記請求項4の構成において、第1着目点検出手段は、後の画像において窓を前の画像で設定した位置から発散方向へ移動しながら着目する1点の対応点の検出を行う。第3着目点検出手段は、後の画像において窓を前の画像で設定した位置から無限遠点へ収束する方向へ移動しながら着目する1点の対応点の検出を行う。
誤検出判定手段は、第1着目点検出手段及び第3着目点検出手段による検出結果に基づき、第1着目点検出手段及び第2着目点検出手段の双方に対応点が検出された場合に、この着目する1点は誤って検出された可能性が高いとして誤検出された点と判定する。この判定は、前の画像における着目する1点に関し、後の画像におけるこの着目する1点に対応する点は1つであることに着目してなされる。
そして、誤検出判定手段により誤検出と判定された着目する1点については、オプティカルフローの設定を行わない。
【0024】
よって、この請求項4の構成によれば、前の画像における着目する1点に関し、この着目点が無限遠点に対する発散方向と収束方向との2つ現れた場合に、この着目点が誤って検出されたものと判定しているので、着目する1点の誤検出をなくすことができる。
【0025】
また、前記第3着目点検出手段(31d)は、前記第1着目点検出手段(31b)が着目する1点を検出した場合に、該検出した1点を対象として検出を行うことを特徴としている。(請求項5)
【0026】
上記請求項5の構成において、第1着目点検出手段が着目する1点を検出した場合に、第3着目点検出手段はこの検出した1点を対象とした検出処理を実行する。
これにより、無駄な処理を行わずに済み処理を簡単にかつ容易に行うことができる。
【0027】
【発明の実施の形態】
以下、発明の実施の形態の具体例を図面を参照して説明する。
図2は、本発明が適用される車両周辺監視装置の第1実施形態の構成を示すブロック図である。
同図において、10は撮像部、20は記憶部、30はデータ処理部、40は表示警報部である。
【0028】
撮像部10は、車両周辺を撮像する機構として構成され、ビデオカメラ11を有している。このビデオカメラ11は、図示しない車両の天井などに取り付けられ、車両の前方、側方あるいは後方を撮像する。
【0029】
記憶部20は、撮像部10により撮像された画像などを一時的に記憶する機構として構成され、第1フレームメモリ21、第2フレームメモリ22、第3フレームメモリ23及び発散オプティカルフローメモリ24を有している。
これらの第1〜第3フレームメモリ21〜23は、いずれもビデオカメラ11からの撮像画像を記憶するメモリであり、第1フレームメモリ21には時刻t、第2フレームメモリ22には時刻t+△t、第3フレームメモリ23には時刻t+△t+△t、...といったように、所定時間△t毎に撮像された画像が順次記憶される。
発散オプティカルフローメモリ24は、画像処理(後述)によって得られた発散方向のオプティカルフローを記憶する。
【0030】
データ処理部30は、撮像部10によって得られた画像を入力し、画像処理や危険度判定処理(後述)などを行う機構として構成され、画像処理や危険度判定処理を記した動作プログラムに従って動作するCPU31、動作プログラム及び予め規定された係数情報などが記憶されたROM32及びCPU31の動作時において必要な情報などを一時的に記憶するRAM33を有している。
【0031】
表示警報部40は、撮像部10によって得られた画像を表示したり、画像や音声により危険を知らせる警報を行ったりする機構として構成され、運転者などに撮像部10によって得られた画像や危険を示す文字情報を表示する表示器41及び危険を示す音声メッセージを発するスピーカ42を有している。
【0032】
次に、以上の構成を有する第1実施形態おいて、他車両あるいは障害物をオプティカルフローにより検出する際の検出原理について説明する。
図3は、ビデオカメラ11によって得られる前景画像の変化を説明するための図であり、図3(b)は、図3(a)に示す自車両100を含む状況においてビデオカメラ11が時間tで撮像した前景画像、図3(c)は、時間t+Δtで撮像した前景画像をそれぞれ示している。
【0033】
以後、この前景画像を撮像し、この前景画像から自車両100の前方及び隣接車線を走行する他車両あるいは前方、隣接車線及び路側帯に存在する障害物を監視する場合を例に挙げて説明するが、ビデオカメラ11により自車両100の後景画像を撮像し、この後景画像から後方及び隣接車線を走行する他車両あるいは後方、隣接車線及び路側帯に存在する障害物を監視する処理は、前景画像による処理と同様の処理であるので、ここでは前景画像による処理を説明することにより、その説明を省略することにする。
【0034】
今、自車両は平坦な道を直進しているとする。例えば図3(a)に示される道路標識及び建物に注目すると、時間の経過により時間t、時間t+Δtにおいて、図3(b)、図3(c)に示されるような画像が得られる。この2枚の画像において対応する点を捜しそれらを結ぶと図3(d)に示されるような速度ベクトルが得られる。これがオプティカルフローである。
【0035】
ここでこれらオプティカルフローは、画像内のFOE(Focus of Expansion)とよばれる1点から放射状に現れる。FOEとは、無限遠点又は消失点と呼ばれ、車両が直進している場合、前景画像上において自車両の進行方向を示す1点に対応する。なお、後景画像による監視を行っている場合には、このFOEは、この後景画像上において自車両の進行方向の反対方向を示す1点に対応する。
このように、自車両が走行している場合に求められるオプティカルフローは、FOEから放射状の方向である。ここで先行車両(後方監視の場合には後続車両)から発せられたオプティカルフローは、自車両に対する先行車両の位置、相対速度からなる情報を含んでおり、オプティカルフローが長い程危険度が高いと考えられる。
【0036】
次に、その詳細を図4を参照して説明する。同図は、障害物などの検出の仕方を説明するための光学配置を示した図である。
同図において、11aはビデオカメラ11が有するレンズ、12はビデオカメラ11が有するイメージプレーン、fはレンズ11aからイメージプレーン12までの距離、P(X,Y,Z)は先行車両又は障害物上の任意の1点、p(x,y)はイメージプレーン12上の点Pに対応する点である。
【0037】
この光学配置において、3角形の相似の比から、イメージプレーン12上の点pのx座標値は、次式(1)で示すことができる。
x=f・X/Z ……(1)
【0038】
式(1)を変形して、時間微分すると、次式(2)が得られる。
X’=(Δx/Δt・Z+x・Z’)/f ……(2)
【0039】
また、オプティカルフローのx方向成分uとは、単位時間(△t)あたりのx座標値の変化量(Δx)であるので、次式(3)が得られる。
u=Δx/Δt ……(3)
【0040】
式(2)と式(3)とから次式(4)が得られる。
Z=(f・X’−x・Z’)/u ……(4)
【0041】
ここで、Z’は先行車両ないし障害物と自車両との相対速度であるので、この相対速度を−αとすると次式(5)が得られる。
Z’=−α ……(5)
【0042】
式(4)と式(5)より、次式(6)が得られる。
Z=(f・X’+xα)/u ……(6)
【0043】
従って、オプティカルフローのx方向成分uは、次式(7)で示すことができる。
u=(f・X’+xα)/Z ……(7)
また、Yについても同様にして求めることができる。
【0044】
よって式(7)より、Zが小、すなわち先行車両(後続車両)又は障害物までの距離が小である程、又はαが大、すなわち先行車両(後続車両)との相対速度が大である程、オプティカルフローのx成分は大きくなる。これはY方向についても同様である。
【0045】
従って、オプティカルフローは先行車両などとの距離が接近している程、更に相対速度が大な程長くなり、これよりオプティカルフローが短いときより長いときの方が相対的に先行車両(後続車両)又は障害物に対する危険度が大きいと考えられる。
【0046】
本発明では、オプティカルフローがFOEから放射状の向きに求められるということを利用してオプティカルフローを求めている。この手順を図5の模式図に基づいて説明する。
【0047】
まず、図5(a)に示すように、始めに時間tでの画像(すなわち前の画像)において、着目する一点に対し、この着目する1点を中心としてFOEから放射状の方向(すなわちFOEと着目する1点を結ぶ方向)に細長い窓を設定する。次に、図5(b)に示すように、時間t+Δtでの画像(すなわち後の画像)において、窓をFOEから放射状の方向に一点づつ移動しながら、時間tでの窓との輝度差の絶対値の総和を求める。そして総和が最小になったときの窓の移動量が、着目する一点の速度ベクトルとして求められる。
【0048】
なお、上記輝度差は、窓を構成する各画素について、例えば図5(a)及び図5(b)に●で示すように、対応する位置の画素間のものである。
以上のような処理を時間tの画像の全ての点に対して繰り返し行うことにより、画像全体のオプティカルフローを求めることができる。
【0049】
次に、上述した装置構成並びに検出動作(原理)を有する第1実施形態の動作について図6のフローチャートを参照して説明する。
この第1実施形態においては、ステップS110において、ビデオカメラ11により時間tにおける前景画像(後景画像)を撮像し、得られた前景画像(後景画像)を1コマ目の画像として第1フレームメモリ21に記憶する。
ステップS111では、ステップS110時点から所定時間△t経過した時間t+△tにおける前景画像(後景画像)を撮像し、得られた前景画像(後景画像)を2コマ目の画像として第2フレームメモリ22に記憶する。
ステップS112では、ステップS111時点からさらに所定時間△t経過した時間t+△t+△tにおける前景画像(後景画像)を撮像し、得られた前景画像(後景画像)を3コマ目の画像として第3フレームメモリ23に記憶する。
【0050】
ステップS113では、上記ステップS110〜S112にて得られた各画像に対してFOEを設定する。このFOEはビデオカメラ11の設置位置及び角度により決まるので、このステップS113の設定処理では、所定の座標値をFOEとして与えることがなされる。
【0051】
ステップS120では着目する1点を選択する。このステップS120で選択される着目する1点は、例えば、1コマ目の画像(時間tの画像)を微分することにより得られた物体のエッジ画像におけるエッジ上の点として選択される。また、自車両に対して衝突の危険性を有する所定領域(例えば直進方向の領域)に存在する点として選択される。
【0052】
ステップS130では、1コマ目の画像と2コマ目の画像とに対し、図5で説明した処理を行う。より詳細には、1コマ目の画像において着目する1点並びに細長い窓を設定し、2コマ目の画像において1コマ目の画像と同位置から放射状の方向に沿った発散方向に窓を移動しながら1コマ目に設定された窓との輝度値の絶対値の総和を求めることにより、ステップS120で設定した着目する1点について、1コマ目の画像と2コマ目の画像間におけるオプティカルフロー(FL1)の検出を行う。
【0053】
引き続くステップS131では、上記ステップS130の処理に基づく判定を行う。すなわち、このステップS131では、上記ステップS130にてオプティカルフローが検出された場合(Y)にはステップS132に移行し、オプティカルフローが検出されなかった場合(N)にはステップS150に移行する。
【0054】
ステップS132では、2コマ目の画像と3コマ目の画像とに対し、図5で説明した処理を行う。より詳細には、3コマ目の画像において、上記ステップS130にて絶対値の総和が最小となった位置から発散方向に窓を移動しながら2コマ目で絶対値の総和が最小となった位置の窓との輝度差の絶対値の総和を求め、これにより、ステップS120で設定した着目する1点について、2コマ目の画像と3コマ目の画像間におけるオプティカルフロー(FL2)の検出を行なう。そして、ステップS140に移行する。
【0055】
ステップS140では、上記ステップS130で求めたオプティカルフローFL1と、上記ステップS132で求めたオプティカルフローFL2との長さの比較を行い、両オプティカルフローFL1及びFL2が同一の点のオプティカルフローであるか否かを判定する。
【0056】
ここで、オプティカルフローFL1とオプティカルフローFL2との長さの比較により、両オプティカルフローFL1及びFL2が同一の点のオプティカルフローであるか否かが判定できる理由について説明する。
【0057】
この説明において、他車両が速度50km/h、この他車両の後方を自車両が速度60km/hで走行している場合、撮像間隔△tの期間に車両が接近する距離は他車両と自車両との相対速度10kmに応じたものとなる。このとき、撮像間隔△tが短時間であるので、撮像期間において、相対速度及び車両の操舵角の大きな変化はないとみなすことができる。これは、時間tと時間t+△t間における変化と、時間t+△tと時間t+2△t間における変化とを比較した場合についても同様である。
【0058】
また、図4で説明したように、オプティカルフローは自車両に近いほど大きく現れる性質を有しているが、上述したように撮像間隔△tがと短時間であるので、撮像期間である時間t、時間t+△t、時間t+2△tの各時間における両車両が接近する距離についても大きな変化はなく、得られた撮像画像上においてもある範囲に収まるとみなすことができる。
そして、同一点のオプティカルフローは、着目する1点とFOE点とを結ぶ直線に沿った方向に現れるとみなせる。
【0059】
以上から、時間t〜時間t+2△tの期間において取得されたオプティカルフローFL1とオプティカルフローFL2に関し、これらのオプティカルフローFL1とオプティカルフローFL2とが同一点のものであるとするならば、互いに同方向であり、かつ、一方の長さを基準とした一定範囲の長さであることが分かる。
この第1実施形態においては、(範囲の根拠をご教示願います)ことから、オプティカルフローFL2の長さがオプティカルフローFL1の長さの半分(×0.5)から倍(×2)の範囲内にある場合に、両オプティカルが同一点のものであると判定している。
【0060】
従って、このステップS140では、オプティカルフローFL2の長さが次式(8)で示す範囲内にあれば、両オプティカルフローFL1、FL2が同一点のものであると判定する。
0.5FL1 < FL2 < 2FL1 ……(8)
【0061】
このステップS140にて、オプティカルフローFL2の長さがオプティカルフローFL1に対する所定範囲内にあった場合(Y)には、ステップS141に移行し、所定範囲外にあった場合(N)にはステップS142に移行する。
ステップS141では、上記ステップS131で検出したオプティカルフローFL1を発散オプティカルフローメモリメモリ24に記憶し、ステップS142では、上記ステップS131で検出したオプティカルフローFL1については、同一点のオプティカルフローではないとして、この点に対するオプティカルフローの設定を行わない。
そして、これらのステップS141あるいはS142の処理終了後、ステップS150に移行する。
【0062】
ステップS150では、オプティカルフローの検出対象となる点に関し、全ての対象点について処理を行ったか否かを判定する。そして、全ての点の処理が終了した場合(Y)にはステップS160に移行し、まだ未処理の対象点が残っている場合(N)にはステップS120に移行して新たに着目する1点を設定して処理を継続する。
【0063】
ステップS160では危険度の計算を行う。このステップS160では、予め分割された自車線の遠方、自車線の近方、隣車線の遠方、隣車線の近方の各領域に発散オプティカルフローメモリ24に記憶されたオプティカルフローを照らしあわせて、各領域毎に存在するオプティカルフローの長さの総和を計算する。
【0064】
ステップS161では、危険であるか否かを判定する。このステップS161の判定処理は、各領域毎の重み付けにより設定された危険度のしきい値に基づきなされ、各領域毎のオプティカルフローの長さの総和がこのしきい値を越えた場合に、このしきい値を越えた領域が危険であると判断する。
なお、このステップS161各領域毎のしきい値は予めROM32に記憶しておく。また、このステップS161の判定処理に関し、しきい値を数レベル設定しておき、危険度のレベルにより判断を行ってもよい。
そして、このステップS161にて危険と判定された場合(Y)にはステップS162に移行し、危険でないと判定された場合(N)にはステップS112に移行して次画面に対する処理を行う。
【0065】
ステップS162では、危険を知らせる警報処理及び表示処理を行う。このステップS162では、求められた危険度の大きさに従って警報を鳴らしたり、ディスプレイ上にどの領域がどの程度危険かを表示するなどして運転者に対して注意を促す。このとき、危険度のレベルにより警報の音色あるいは表示色の種類を変えてもよい。
そして、このステップS162の処理が終了するとステップS112に移行して次画面に対する処理を行う。
【0066】
なお、このステップS162の処理の終了あるいは上記ステップS161でNの判定によりステップS112に移行した場合には、このステップS112にて3コマ目の画像の取込がなされるが、この3コマ目の画像は第1フレームメモリ21に記憶される。これに伴い、第2フレームメモリ22に記憶された画像が1コマ目の画像、第3フレームメモリ23に記憶された画像が2コマ目の画像とされ、以後の処理が行われる。
【0067】
同様に、再度ステップS112の処理がなされた場合には、このステップS112にて取り込まれた3コマ目の画像は第2フレームメモリ22に記憶され、同時に第3フレームメモリ23に記憶された画像が1コマ目の画像、第1フレームメモリ21に記憶された画像が1コマ目の画像とされる。
【0068】
次に、図7を参照して、実際の動作について説明する。図7は、自車両の前方を走行している他車両200が時間の経過に伴って自車両に接近している様子を示す図であり、図7(a)が時間t、図7(b)が時間t+△t、図7(c)が時間t+2△t(=△t+△t)における前景画像を示す図である。
そして、他車両200の右後部に着目する点201が設定された場合について説明する。なお、これらの図においては、説明の便宜上、撮像間隔△tを比較的長時間として移動量の大きい場合を例示しているが、上述したように実際の撮像間隔△tは短いので、これらの時間t、時間t+△t及び時間t+2△tの各前景画像における他車両200の移動は、微少なものとなる。
【0069】
この場合、まず時間t、時間t+△t及び時間t+2△tの各前景画像が取り込まれ、それぞれ第1フレームメモリ21、第2フレームメモリ22及び第3フレームメモリ23に記憶される(S110〜S112)。そして、各前景画像にFOEが設定される(S113)。
【0070】
次に、時間tの画像を参照して着目する点201(t)が設定され、同時にこの点201を中心としてFOEから放射状の方向に細長い窓W1が設定される(S120)。
そして、時間t+△tの画像において、時間tの画像に設定された位置W1(t)から方向Wに向けて窓W1を移動しながら時間t+△tの画像上の点201を検索する。なお、この検索時における方向Wは、FOEから放射状の方向であって、このFOEから発散する方向とされる。
この時間t+△tの画像における位置W1(t+△t)にて点201(t+△t)が検索された場合には、図8に示すように、点201(t)と点201(t+△t)とを結ぶベクトルを仮のオプティカルフローFL1として設定する(S130)。
【0071】
次に、時間t+2△tの画像において、時間t+△tの画像における窓W1の位置W1(t+△t)から方向に向けて窓W1を移動しながら時間t+2△tの画像上の点201を検索する。
この時間t+2△tの画像における位置W1(t+2△t)にて点201(t+2△t)が検出された場合には、図8に示すように、点201(t+△t)と点201(t+2△t)とを結ぶベクトルを仮のオプティカルフローFL2として設定する(S132)。
【0072】
そして、オプティカルフローFL1の長さL1とオプティカルフローFL2の長さL2とを比較し、L2がL1の半分の長さからL1の2倍の長さの範囲にあるか否かを判定する(S140)。
この場合、L1とL2とが略等しいので、L2がL1の半分から2倍の長さ範囲にあると判定され(S140でY)、オプティカルフローFL1が発散オプティカルフローメモリ24に記憶される(S141)。
【0073】
そして、他の着目する1点である202(t)や203(t)に対しても同様な処理を行い(S120)、全ての着目する1点に対する処理の終了により(S150でY)、危険度の計算(S160)並びに警報・表示処理(S162)を行い、次の撮像周期(t+3△t)の画像を取り込み(S112)、処理を継続する。
【0074】
また、上述した処理において、オプティカルフローFL1の長さL1とオプティカルフローFL2の長さL2とに関し、仮に、L2がL1の半分の長さからL1の2倍の長さの範囲外であった場合(S140でN)には、このオプティカルフローFL1については、発散オプティカルフローメモリ24に記憶せずに(S142)、他の着目する1点である202(t)や203(t)の処理を行う(S120)。
【0075】
要するに、この第1実施形態では、走行中の自車両から所定時間毎に周辺画像(上述した例においては前景画像)を撮像し、所定時間相前後する2コマの画像の内、1コマ目の画像(時間tの画像)に対して着目する1点(点201)を設定し、FOEからこの着目する1点(点201)に対して放射状の方向に細長い窓W1を設定し、2コマ目の画像(時間t+△tの画像)に対しては、1コマ目の画像における窓W1と同位置に窓W1を設定して、この窓W1を発散する方向に移動しながら1コマ目の画像における着目する1点と同一の点(点201)の検出を行う。
【0076】
そして、2コマ目の画像の画像にて着目する1点が検出された場合には、3コマ目の画像(時間t+2△tの画像)において同様な処理を行うことにより着目する1点を検出し、1コマ目の画像と2コマ目の画像間の着目する1点同士を結ぶベクトルを仮のオプティカルフローFL1とし、2コマ目の画像と3コマ目の画像間の着目する1点同士を結ぶベクトルを仮のオプティカルフローFL2とする。
次いで、オプティカルフローFL1の長さL1とオプティカルフローFL2の長さL2とを比較し、両者が所定範囲内の長さ(0.5L1<L2<2L1)の関係にあれば、1コマ目の画像における着目する1点と2コマ目の画像における着目する1点とが同一点であるとしてオプティカルフローFL1を採用する。
【0077】
このように、1コマ目の画像と2コマ目の画像との間に設定されたオプティカルフローFL1と、2コマ目の画像と3コマ目の画像との間に設定されたオプティカルフローFL2との比較により、着目する1点の誤検出を簡単に判定することができ、かつ誤検出を低減することができる。
【0078】
また、同一点のオプティカルフローがこの点と無限遠点とを結ぶ直線の方向に現れる性質に着目して、上述した第1仮オプティカルフローと第2仮オプティカルフローとの長さの比較により、着目する1点が誤って検出された点であるか否かを判定するので、着目する1点の誤検出を一層簡単に判定することができ、かつ誤検出を低減することができる。
【0079】
ところで、上述した第1実施形態では、着目する1点の誤検出を簡単に判定できるといった利点を有している。しかしながら、この第1実施形態では、柵やガードレールあるいは電柱といった同形状の物体が周期的に出現するような場合においては、撮像範囲内に新たに出現した物体が3コマ目の画像における着目する1点の移動位置に位置することがまれにある。この場合には、この新たな物体上の点を同一点と判定する可能性が高い。
次に、このような同形状の物体が周期的に出現するような場合においても誤検出をしない第2実施形態について説明する。
【0080】
図9は、この第2実施形態の構成を示すブロック図であり、同図において、10は撮像部、20は記憶部、30はデータ処理部、40は表示警報部である。
これらの撮像部10、記憶部20、データ処理部30及び表示警報部40に関し、記憶部20が第1フレームメモリ21、第2フレームメモリ22及び発散オプティカルフローメモリ24から構成され、第3フレームメモリ23が設けられていない点と、データ処理部30のCPU31が実行する動作プログラムが異なっている点とが上述した第1実施形態と異なっている。そして、第1フレームメモリ21と第2フレームメモリ22には、所定間隔△t毎の撮像画像が交互に記憶される。
他の構成並びに機能については、第1実施形態で説明したものと同じであるので、ここではその説明を省略する。
【0081】
次に、この第2実施形態の動作について図10のフローチャートを参照して説明する。
この第2実施形態においては、ステップS210において時間tにおける前景画像(後景画像)を撮像して1コマ目の画像として第1フレームメモリ21に記憶し、ステップS211において時間t+△tにおける前景画像(後景画像)を撮像して2コマ目の画像として第2フレームメモリ22に記憶する。
そして、ステップS212においてステップS210及びS211にて得られた各画像に対してFOEを設定する。
【0082】
引き続くステップS220では着目する1点を選択する。この着目する1点の選択は、第1実施形態におけるステップS120と同様にしてなされるもので、1コマ目の画像に対して設定される。
ステップS221では、上記ステップS220にて設定された着目する1点を中心として放射状の方向に細長い窓を設定する。
ステップS222では、2コマ目の画像において1コマ目の画像と同位置から放射状の方向に沿った発散方向に窓を移動しながら1コマ目に設定された窓との輝度値の絶対値の総和を求めることにより、ステップS220で設定した着目する1点の検索を行う。
【0083】
ステップS230では、上記ステップS222の処理に基づき、2コマ目の画像にて着目する1点が検出されたか否かを判定する。そして、着目する1点が検出された場合(有)にはステップS231に移行し、着目する1点が検出されなかった場合(無)にはステップS250に移行する。
ステップS231では、ステップS220で設定された着目する1点と、ステップS222にて検出された着目する1点とを結ぶベクトルを設定し、このベクトルをオプティカルフローとする。
【0084】
引き続くステップS232では、2コマ目の画像において1コマ目の画像と同位置から放射状の方向に沿った収束方向すなわちFOEに向かう方向に窓を移動しながら着目する1点の検索を行う。なお、この検索動作はステップS222と同様にしてなされる。
【0085】
ステップS240では、上記ステップS232の処理に基づき、2コマ目の画像にて着目する1点が検出されたか否かを判定する。そして、着目する1点が検出された場合(有)にはステップS241に移行し、着目する1点が検出されなかった場合(無)にはステップS242に移行する。
【0086】
ステップS241では、1コマ目の画像にて設定された着目する1点に関し、この着目する1点に対応する点が2コマ目の画像において発散方向と収束方向の2点検出されたことに基づき、この着目する1点は誤って検出された可能性が高いとして、この着目する1点に設定されたオプティカルフローを無視する。
また、ステップS242では、1コマ目の画像にて設定された着目する1点に関し、この着目する1点に対応する点が2コマ目の画像において発散方向の1点のみであることに基づき、この着目する1点は正規に検出されたとして、この着目する1点に設定されたオプティカルフローを発散オプティカルフローメモリ24に記憶する。
そして、これらのステップS241あるいはS242の処理終了後、ステップS250に移行する。
【0087】
ステップS250では、オプティカルフローの検出対象となる点に関し、全ての対象点について処理を行ったか否かを判定する。そして、全ての点の処理が終了した場合(Y)にはステップS260に移行し、まだ未処理の対象点が残っている場合(N)にはステップS220に移行して新たに着目する1点を設定して処理を継続する。
【0088】
ステップS260では危険度の計算を行う。このステップS260では、ステップS160と同様の処理により、分割された各領域毎に存在するオプティカルフローの長さの総和を計算する。
【0089】
ステップS261では、危険であるか否かを判定する。このステップS261の判定処理は、ステップS161の処理と同様にしてなされ、各領域毎の重み付けにより設定された危険度のしきい値に基づき、各領域毎のオプティカルフローの長さの総和がこのしきい値を越えた場合に、このしきい値を越えた領域が危険であると判断する。
そして、このステップS261にて危険と判定された場合(Y)にはステップS262に移行し、危険でないと判定された場合(N)にはステップS212に移行して次画面に対する処理を行う。
【0090】
ステップS262では、危険を知らせる警報処理及び表示処理を行う。このステップS262では、ステップS162と同様に、求められた危険度の大きさに従って警報を鳴らしたり、ディスプレイ上にどの領域がどの程度危険かを表示するなどして運転者に対して注意を促す。
そして、このステップS262の処理が終了するとステップS212に移行して次画面に対する処理を行う。
【0091】
次に、この第2実施形態の実際の動作について、図7(a)及び図7(b)を参照して説明する。
この場合、まず時間t及び時間t+△tの各前景画像が取り込まれ、それぞれ第1フレームメモリ21及び第2フレームメモリ22に記憶される(S210、S211)。そして、各前景画像にFOEが設定される(S212)。
【0092】
次に、時間tの画像を参照して着目する点201(t)が設定され(S220)、この点201を中心としてFOEから放射状の方向に細長い窓W1が設定される(S221)。
そして、時間t+△tの画像において、時間tの画像に設定された位置W1(t)から方向Wに向けて窓W1を移動しながら時間t+△tの画像上の点201を検索する(S222)。
【0093】
この検索結果に基づき、時間tの画像上において設定された点201(t)が、時間t+△tの画像上において検出されたか否かを判定する(S230)。この図7(b)の場合には、位置W1(t+△t)にて点201(t+△t)が検出されるので検出されたと判定される(S230で有)。
【0094】
そして、2つの点201(t)及び201(t+△t)が検出されたことに伴い、これらの点を結ぶオプティカルフローFL1を設定する(S231、図11参照)。
次に、時間t+△tの画像において、時間tの画像に設定された位置W1(t)からFOEへの収束方向である方向−Wに向けて窓W1を移動しながら時間t+△tの画像上の点201を検索する(S232)。
【0095】
この検索結果に基づき、時間tの画像上において設定された点201(t)が、時間t+△tの画像上においてさらにもう1点検出されたか否かを判定する(S240)。この場合には、方向−W側の対応点は検出されないので対応点無し(S240でN)と判定される。
【0096】
これにより、ステップS222の処理で検出された点201(t+△t)は、正規に検出された点と判定され、上記ステップS231にて設定されたオプティカルフローFL1が発散オプティカルフローメモリ24に記憶される(S242)。
【0097】
そして、他の着目する1点である202(t)や203(t)に対しても同様な処理を行い(S220)、全ての着目する1点に対する処理の終了により(S150でY)、危険度の計算(S260)並びに警報・表示処理(S262)を行い、次の撮像周期(t+2△t)の画像を取り込み(S212)、処理を継続する。
【0098】
また、上述した方向−W側の対応点の検出処理時において(S232)、この−W側の対応点が検出された場合には(S240で有)、時間tの画像上で設定された点201(t)に関し、この点に対応する点が時間t+△tにおいて2点存在したことになるので、この点201に関するオプティカルフローFL1については、発散オプティカルフローメモリ24に記憶せずに(S241)、他の着目する1点である202(t)や203(t)の処理を行う(S220)。
【0099】
要するに、この第2実施形態では、走行中の自車両から所定時間毎に周辺画像を撮像し、所定時間相前後する2コマの画像の内、1コマ目の画像(時間tの画像)に対して着目する1点(点201)を設定し、FOEからこの着目する1点(点201)に対して放射状の方向に細長い窓W1を設定し、2コマ目の画像(時間t+△tの画像)に対しては、1コマ目の画像における窓W1と同位置に窓W1を設定して、この窓W1を発散する方向に移動しながら1コマ目の画像における着目する1点と同一の点(点201)の検出を行う。
【0100】
着目する1点が検出された場合には、窓W1を収束方向へ移動しながら1コマ目の画像における着目する1点と同一の点(点201)の検出を行う。そして、この収束方向への検索により着目する1点と同一の点が検出された場合には、1コマ目の画像における着目する1点に対応する点が2コマ目の画像上において2点存在することから、この点の何れかが誤って検出された可能性が高いとして、この着目する1点についてはオプティカルフローの設定を行わない。
【0101】
このように、1コマ目の画像における着目する1点に関し、この着目点が2コマ目の画像上において、無限遠点に対する発散方向と収束方向との2つ現れた場合に、この着目点が誤って検出されたものと判定しているので、柵やガードレールあるいは電柱といった同形状の物体が直線上に間隔をおいて配置されていた場合においても、着目する1点の誤検出をなくすことができる。
【0102】
また、上述した収束方向への検索は発散方向への検索により対応する点が検出された場合についてのみ行うので、無駄な処理を行わずに済み処理を簡単にかつ容易に行うことができる。
【0103】
以上の説明から明らかなように、本発明の基本構成と各実施形態におけるフローチャートとは次の対応関係を有している。
すなわち、本発明の基本構成における誤検出判定手段は、図6のフローチャートにおけるステップS140〜142及び図10のフローチャートにおけるステップS240〜242に対応し、第1着目点検出手段は、図6のフローチャートにおけるステップS130及び図10のフローチャートにおけるステップS221〜222に対応している。
また、第2着目点検出手段は、図10のフローチャートにおけるステップS132に対応し、第3着目点検出手段は、図6のフローチャートにおけるステップS132に対応している。
【0104】
【発明の効果】
本発明の車両周辺監視装置によれば次の効果を奏する。
すなわち、前の画像における着目する1点と後の画像にて検出された着目する1点とから、着目する1点が誤って検出された点であるか否かを判定し、誤って検出されたと判定された点については、オプティカルフローを設定しないように構成したので、着目する1点の誤検出を低減することができる。
【0105】
また、前の画像と後の画像とに設定された第1仮オプティカルフローと、後の画像とこの後の画像から所定時間後に撮像された第3の画像との間に設定された第2の仮オプティカルフローとの比較により、着目する1点の誤検出を簡単に判定することができ、かつ誤検出を低減することができる。
【0106】
また、第1仮オプティカルフローと第2仮オプティカルフローとの長さを比較することにより判定を行うように構成したので、着目する1点の誤検出を一層簡単に判定することができ、かつ誤検出を低減することができる。
【0107】
また、前の画像における着目する1点に関し、この着目点が無限遠点に対する発散方向と収束方向との2つ現れた場合に、この着目点が誤って検出されたものと判定しているので、着目する1点の誤検出をなくすことができる。
【0108】
また、前の画像における着目する1点に関し、この着目点が無限遠点に対する発散方向に検出された場合についてのみ収束方向に対する処理を行うように構成したので、無駄な処理を行わずに済み処理を簡単にかつ容易に行うことができる。
【図面の簡単な説明】
【図1】本発明の基本構成を説明する図である。
【図2】本発明が適用される車両周辺監視装置の第1実施形態の構成を示すブロック図である。
【図3】ビデオカメラ11によって得られる前景画像の変化を説明する図である。
【図4】障害物などの検出の仕方を説明するための光学配置を示した図である。
【図5】オプティカルフローを求める手順を説明する模式図である。
【図6】第1実施形態の動作を説明するフローチャートである。
【図7】自車両の前方を走行している他車両200が時間の経過に伴って自車両に接近している様子を示す図である。
【図8】検出された着目する1点とオプティカルフローを示す図である。
【図9】本発明が適用される車両周辺監視装置の第2実施形態の構成を示すブロック図である。
【図10】第2実施形態の動作を説明するフローチャートである。
【図11】検出された着目する1点とオプティカルフローを示す図である。
【図12】従来装置における課題を説明する図である。
【符号の説明】
10 撮像部
11 ビデオカメラ
20 記憶部
21 第1フレームメモリ
22 第2フレームメモリ
23 第3フレームメモリ
24 発散オプティカルフローメモリ
30 データ処理部
31 CPU
32 ROM
33 RAM
40 表示警報部
41 表示器
42 スピーカ
100 自車両
200 他車両
FL1、FL2 オプティカルフロー
W1 窓
FOE 無限遠点
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention uses an image captured by a video camera installed at the front or rear of a vehicle such as an automobile, and, when the vehicle is running, an obstacle existing in the front, behind, or in an adjacent lane or around the vehicle. The present invention relates to a vehicle periphery monitoring device that detects a vehicle periphery and warns a driver.
[0002]
As this type of vehicle periphery monitoring device, for example, there is a device described in Japanese Patent Application Laid-Open No. 6-107096 (hereinafter, referred to as a first conventional device).
This first conventional apparatus captures an image of a foreground from a running own vehicle, obtains the movement of the same point of the captured foreground from two frames before and after a predetermined time, and determines the movement of the same point by an optical flow. The monitoring is performed as follows.
[0003]
More specifically, in the first conventional apparatus, one point of interest is set in a previous image in two consecutive frames, which is an image captured in a predetermined imaging cycle. From the point at infinity corresponding to one point indicating the traveling direction of the traveling own vehicle, an elongated window centered on the point of interest is set in the radial direction with respect to the set point of interest, The luminance value of the pixel group constituting the image in the set window is stored.
[0004]
Then, in the subsequent screen, while moving a window similar to the above-described window in the radial direction from the point at infinity in the subsequent image, the luminance value of the pixel group forming the image in this window and the pixel in the previous image are moved. The sum total of the absolute values of the differences between the luminance values of the pixels corresponding to each other is calculated.
Then, the amount of movement of the window when the sum is minimized is determined as the optical flow of the point of interest at the point approaching the vehicle, and the object approaching the vehicle based on the position and size of the optical flow, For example, it monitors a preceding vehicle traveling at a lower speed than the own vehicle or an obstacle on the road.
[0005]
In addition, there is an apparatus described in Japanese Patent Application Laid-Open No. 7-50769 (hereinafter, referred to as a second conventional apparatus).
This second conventional apparatus captures an image of a rear view from a running own vehicle, obtains the movement of the same point of the captured rear view from images of two frames before and after a predetermined time, and obtains the image of the same point. The movement is monitored as an optical flow.
[0006]
More specifically, one point of interest is set in a previous image of two consecutive frames that are imaged at a predetermined imaging cycle and indicate a direction directly opposite to the traveling direction of the own vehicle while traveling. From the point at infinity corresponding to the point, an elongated window centering on the set point of interest is set in the radial direction with respect to the set point of interest.
[0007]
Then, on the subsequent screen, one point of interest is detected while moving a window similar to the above-mentioned window from the point at infinity in the subsequent image in the diverging direction, and the point between the previous image and the subsequent image is detected. The connecting arrow is obtained as one optical flow, and an object approaching the own vehicle, for example, a rear vehicle running at a higher speed than the own vehicle is monitored based on the position and the size of the optical flow.
[0008]
[Problems to be solved by the invention]
However, in these first and second conventional apparatuses, an elongated window is set in a radial direction with respect to a point of interest from a point at infinity in a previous image, and the elongated window is set in a diverging direction in a subsequent image. Is detected while moving to the point of interest. If the point of interest in the previous image and the point of interest in the subsequent image are similar patterns, the point of interest is detected. May be erroneously detected as the same point of interest even if the points are different object points.
[0009]
In particular, when objects of the same shape, such as fences, guardrails, or utility poles, are arranged at intervals on a straight line, the objects will appear periodically, and between the two images described above, The one point of interest in the previous image and the one point of interest detected in the later image may be different object points.
For example, as shown in the images of two frames before and after a predetermined time in FIGS. 12A and 12B, the point P1 of the object S1 in the previous image (FIG. In some cases, the point S2 is erroneously detected as the point P2 of the object S2 in FIG.
[0010]
The present invention has been made in view of such circumstances, and a main object of the present invention is to provide a vehicle periphery monitoring device that can reduce erroneous detection of a single point of interest.
Another object of the present invention is to provide a vehicle periphery monitoring device that can determine the erroneous detection by a simple process. As described above, objects of the same shape such as a fence, a guardrail, and a utility pole periodically appear. Even in such a case, it is still another object to provide a vehicle periphery monitoring device capable of reducing erroneous detection of one point of interest.
[0011]
[Means for Solving the Problems]
In order to solve the above problem, a vehicle periphery monitoring device according to the present invention captures a peripheral image from a running own vehicle as shown in a basic configuration diagram of FIG. The movement of the same point in the image is defined as an infinity corresponding to one point indicating the traveling direction of the own vehicle traveling in the previous image of the two frames preceding and succeeding the predetermined time or the direction opposite to the traveling direction. From the far point, set a narrow window in the radial direction for one point of interest, detect the one point of interest while moving the window in the radial direction in a later image, and detect the one point of interest in the previous image. A vector connecting one point of interest and one point of interest in a subsequent image is set as an optical flow, and another vehicle traveling around the traveling own vehicle, or an obstacle present in the vicinity is identified as an optical flow. Run around Another vehicle in the middle, or in a vehicle periphery monitoring device that monitors according to the magnitude and the appearance position of the vector of the optical flow of an obstacle present in the vicinity, whether or not the point of interest is erroneously detected An erroneous detection judging means (31a) for judging that the optical flow is not set for one point of interest determined to be erroneously detected by the erroneous detection judging means (31a). It is characterized by doing. (Claim 1)
[0012]
In the configuration of the first aspect, the surrounding image is captured at predetermined time intervals from the running own vehicle.
One point of interest is selected for the previous image of the two images before and after the predetermined time, and attention is paid from the infinity point indicating the traveling direction of the own vehicle or the opposite direction of the traveling direction. An elongated window is set in a radial direction for one point.
For the subsequent image, an elongated window similar to the previous image is set at the same position as the elongated window in the previous image described above, and the set window is moved in the radial direction described above. , The same point as the point of interest in the previous image is detected.
If a point of interest is detected in a later image, the erroneous detection determination unit determines whether the detected point of interest is correct or not.
[0013]
Then, regarding the point of interest determined to be properly detected by the erroneous detection determination means, a point between the point of interest set in the previous image and the point of interest detected in the subsequent image is determined. The connected vector is defined as an optical flow. On the other hand, the optical flow is not set for one point of interest determined to be erroneously detected by the erroneous detection determination unit.
[0014]
Therefore, in the configuration of the first aspect, it is determined whether one point of interest is an erroneously detected point from one point of interest in the previous image and one point of interest detected in the subsequent image. It is configured such that no optical flow is set for a point determined to be erroneously detected, so that erroneous detection of one point of interest can be reduced.
[0015]
A first point-of-interest detection means (31b) for detecting the corresponding point of the one point of interest while moving the window from the set position in the previous image in the diverging direction from the point at infinity in the subsequent image ) And when the corresponding point is detected by the first point-of-interest detection means (31b), the third image picked up after the predetermined time from the subsequent image is infinitely shifted from the detection position in the subsequent image. A second point-of-interest detection means (31c) for detecting the corresponding point of the one point of interest while moving in the direction of divergence from the far point, wherein the erroneous detection determination means (31a) A vector connecting a point of interest in the image of interest and the point of interest in the subsequent image is set as a first provisional optical flow, and a point of interest in the subsequent image and the vector in the third image are set. A vector connecting one point of interest is set as a second temporary optical flow, and the one point of interest is an erroneously detected point by comparing the first temporary optical flow and the second temporary optical flow. Is determined. (Claim 2)
[0016]
In the configuration of the second aspect, the first point-of-interest detection means detects a corresponding point of one point of interest while moving the window in the diverging direction from the position set in the previous image in the subsequent image. When the corresponding point is detected by the first point-of-interest detection means, the second point-of-interest detection means opens a window in the diverging direction from the detection position in the subsequent image in the third image taken a predetermined time after the subsequent image. While moving, one corresponding point of interest is detected.
[0017]
The erroneous detection determination means sets a vector connecting a point of interest in the previous image and a corresponding point in the subsequent image as a first provisional optical flow, and sets a corresponding point in the subsequent image and a corresponding point in the third image. Is set as the second temporary optical flow.
Then, the imaging interval between the previous image and the subsequent image, and the imaging interval between the subsequent image and the third image are equal to each other, and the approaching state of the object approaching the own vehicle is determined by the Paying attention to the fact that there is no significant change between the imaging interval between the subsequent images and the imaging interval between the subsequent image and the third image, the erroneous detection determination unit determines the first temporary optical flow and the second temporary optical flow. By comparing the flow with the flow, it is determined whether or not one point of interest is an erroneously detected point.
[0018]
Therefore, according to the configuration of the second aspect, the first provisional optical flow set for the previous image and the subsequent image, and the third image captured after a predetermined time from the subsequent image and the subsequent image By comparing with the second provisional optical flow set between the above, the erroneous detection of one point of interest can be easily determined, and the erroneous detection can be reduced.
[0019]
The erroneous detection determination means (31a) determines whether the point of interest is an erroneously detected point by comparing the lengths of the first tentative optical flow and the second tentative optical flow. It is characterized by determining. (Claim 3)
[0020]
In the configuration according to the third aspect, the erroneous detection determination means may determine that the optical flow appears in a radial direction from the point at infinity, specifically, the optical flow at the same point is a straight line connecting this point and the point at infinity. By comparing the lengths of the above-mentioned first temporary optical flow and second temporary optical flow, it is determined whether or not one point of interest is an erroneously detected point by paying attention to the property appearing in the direction of. .
[0021]
Therefore, according to the configuration of the third aspect, the determination is made by comparing the lengths of the first temporary optical flow and the second temporary optical flow, so that the erroneous detection of one point of interest is further improved. The determination can be made easily, and erroneous detection can be reduced.
[0022]
A first point-of-interest detecting means (31b) for detecting the correspondence of the one point of interest while moving the window from the set position in the previous image in the diverging direction from the point at infinity in the subsequent image And a third point-of-interest detection means (31d) for detecting the corresponding point of the one point of interest while moving the window in the subsequent image in the direction of convergence from the set position in the previous image to the point at infinity. ), And the erroneous detection determination means (31a) receives the corresponding point of the one point of interest from both the first point of interest detection means (31b) and the third point of interest detection means (31d). Is detected, it is determined that the point of interest is erroneously detected. (Claim 4)
[0023]
In the configuration of the fourth aspect, the first point-of-interest detection means detects a corresponding point of one point of interest while moving the window in the subsequent image from the position set in the previous image in the diverging direction. The third point of interest detection means detects a corresponding point of one point of interest while moving the window from the position set in the previous image to the point at infinity in the subsequent image.
The erroneous detection determination means, based on the detection results by the first point of interest detection means and the third point of interest detection means, when a corresponding point is detected by both the first point of interest detection means and the second point of interest detection means, This point of interest is determined to be erroneously detected as having a high possibility of being erroneously detected. This determination is made by focusing on one point of interest in the previous image and one point corresponding to this one point of interest in the subsequent image.
The optical flow is not set for one point of interest determined to be erroneously detected by the erroneous detection determination unit.
[0024]
Therefore, according to the configuration of claim 4, when one point of interest in the previous image appears in two directions, that is, the divergence direction and the convergence direction with respect to the point at infinity, the point of interest is erroneously determined. Since it is determined that a point has been detected, erroneous detection of one point of interest can be eliminated.
[0025]
The third point-of-interest detection means (31d) performs detection on the detected one point when the first point-of-interest detection means (31b) detects one point of interest. I have. (Claim 5)
[0026]
In the configuration of the fifth aspect, when the first point of interest detection means detects one point of interest, the third point of interest detection means executes detection processing for the detected one point.
This makes it possible to easily and easily perform the processing without performing useless processing.
[0027]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, specific examples of the embodiments of the present invention will be described with reference to the drawings.
FIG. 2 is a block diagram showing a configuration of the first embodiment of the vehicle periphery monitoring device to which the present invention is applied.
In FIG. 1, reference numeral 10 denotes an imaging unit, 20 denotes a storage unit, 30 denotes a data processing unit, and 40 denotes a display alarm unit.
[0028]
The imaging unit 10 is configured as a mechanism that captures an image around the vehicle, and has a video camera 11. The video camera 11 is attached to a ceiling (not shown) of a vehicle, and captures an image of the front, side, or rear of the vehicle.
[0029]
The storage unit 20 is configured as a mechanism for temporarily storing an image captured by the imaging unit 10, and has a first frame memory 21, a second frame memory 22, a third frame memory 23, and a divergent optical flow memory 24. are doing.
Each of the first to third frame memories 21 to 23 is a memory for storing a captured image from the video camera 11, and the first frame memory 21 has a time t, and the second frame memory 22 has a time t + △. t, the third frame memory 23 stores the time t + {t + {t,. . . In this way, images captured at every predetermined time Δt are sequentially stored.
The divergent optical flow memory 24 stores an optical flow in a divergent direction obtained by image processing (described later).
[0030]
The data processing unit 30 is configured as a mechanism that inputs an image obtained by the imaging unit 10 and performs image processing and risk determination processing (described later), and operates according to an operation program describing the image processing and risk determination processing. And a RAM 33 for temporarily storing information necessary for the operation of the CPU 31, such as a CPU 32, an operation program, predetermined coefficient information, and the like.
[0031]
The display / alarm unit 40 is configured as a mechanism that displays an image obtained by the imaging unit 10 and that issues an alarm to notify a danger by an image or a sound, and provides a driver or the like with an image obtained by the imaging unit 10 or a danger. And a speaker 42 that emits a voice message indicating danger.
[0032]
Next, in the first embodiment having the above configuration, a detection principle when another vehicle or an obstacle is detected by an optical flow will be described.
FIG. 3 is a diagram for explaining a change in the foreground image obtained by the video camera 11, and FIG. 3B illustrates a state in which the video camera 11 is moved at time t in a situation including the host vehicle 100 illustrated in FIG. 3 (c) shows a foreground image captured at time t + Δt.
[0033]
Hereinafter, an example will be described in which the foreground image is captured, and other vehicles traveling in the front and adjacent lanes of the own vehicle 100 or obstacles existing in the front, adjacent lanes, and roadside zones are monitored from the foreground image. However, the process of capturing the foreground image of the own vehicle 100 with the video camera 11 and monitoring the other vehicles traveling behind and adjacent lanes or the obstacles existing in the adjacent lane and roadside zone from the foreground image includes: Since the processing is the same as the processing with the foreground image, the processing with the foreground image will be described here, and the description thereof will be omitted.
[0034]
Now, it is assumed that the vehicle is traveling straight on a flat road. For example, paying attention to the road sign and the building shown in FIG. 3A, images as shown in FIGS. 3B and 3C are obtained at time t and time t + Δt with the passage of time. By searching for corresponding points in these two images and connecting them, a velocity vector as shown in FIG. 3D is obtained. This is the optical flow.
[0035]
Here, these optical flows appear radially from one point called an FOE (Focus of Expansion) in the image. The FOE is called a point at infinity or a vanishing point, and corresponds to one point indicating the traveling direction of the own vehicle on the foreground image when the vehicle is traveling straight. When monitoring is performed using the background image, the FOE corresponds to one point on the background image that indicates the direction opposite to the traveling direction of the host vehicle.
Thus, the optical flow required when the host vehicle is traveling is in a radial direction from the FOE. Here, the optical flow emitted from the preceding vehicle (in the case of rearward monitoring, the following vehicle) includes information including the position and the relative speed of the preceding vehicle with respect to the own vehicle, and the longer the optical flow, the higher the risk. Conceivable.
[0036]
Next, the details will be described with reference to FIG. FIG. 1 is a diagram showing an optical arrangement for explaining how to detect an obstacle or the like.
In the figure, 11a is a lens of the video camera 11, 12 is an image plane of the video camera 11, f is a distance from the lens 11a to the image plane 12, and P (X, Y, Z) is on a preceding vehicle or an obstacle. Is an arbitrary point, p (x, y), corresponding to the point P on the image plane 12.
[0037]
In this optical arrangement, the x coordinate value of the point p on the image plane 12 can be expressed by the following equation (1) from the similarity ratio of the triangles.
x = f · X / Z (1)
[0038]
By transforming equation (1) and performing time differentiation, the following equation (2) is obtained.
X ′ = (Δx / Δt · Z + x · Z ′) / f (2)
[0039]
Further, since the x-direction component u of the optical flow is a change amount (Δx) of the x coordinate value per unit time (Δt), the following equation (3) is obtained.
u = Δx / Δt (3)
[0040]
The following equation (4) is obtained from the equations (2) and (3).
Z = (f.X'-x.Z ') / u (4)
[0041]
Here, since Z 'is the relative speed between the preceding vehicle or obstacle and the host vehicle, if this relative speed is -α, the following equation (5) is obtained.
Z ′ = − α (5)
[0042]
From the equations (4) and (5), the following equation (6) is obtained.
Z = (f · X ′ + xα) / u (6)
[0043]
Therefore, the x-direction component u of the optical flow can be expressed by the following equation (7).
u = (f × X ′ + xα) / Z (7)
Also, Y can be obtained in the same manner.
[0044]
Therefore, according to equation (7), Z is smaller, that is, the smaller the distance to the preceding vehicle (the following vehicle) or the obstacle, or the larger α, that is, the larger the relative speed with the preceding vehicle (the following vehicle). The x component of the optical flow becomes larger as the optical flow becomes larger. This is the same in the Y direction.
[0045]
Therefore, the optical flow becomes longer as the distance from the preceding vehicle or the like becomes shorter and the relative speed becomes larger, and the optical flow becomes longer when the optical flow is shorter than when the optical flow is shorter. Alternatively, it is considered that there is a high degree of danger to obstacles.
[0046]
In the present invention, the optical flow is obtained by utilizing the fact that the optical flow is obtained in a radial direction from the FOE. This procedure will be described with reference to the schematic diagram of FIG.
[0047]
First, as shown in FIG. 5A, in the image at the time t (that is, the previous image), a point of interest is radiated from the FOE in the radial direction (that is, FOE An elongated window is set in the direction connecting one point of interest). Next, as shown in FIG. 5B, in the image at the time t + Δt (that is, the subsequent image), while moving the window one point at a time in the radial direction from the FOE, the brightness difference from the window at the time t is obtained. Find the sum of absolute values. Then, the moving amount of the window when the sum is minimized is obtained as a speed vector of one point of interest.
[0048]
Note that the above-mentioned luminance difference is between the pixels at the corresponding positions for each pixel constituting the window, for example, as indicated by ● in FIGS. 5 (a) and 5 (b).
By repeating the above processing for all points of the image at time t, the optical flow of the entire image can be obtained.
[0049]
Next, the operation of the first embodiment having the above-described device configuration and detection operation (principle) will be described with reference to the flowchart of FIG.
In the first embodiment, in step S110, a foreground image (background image) at time t is captured by the video camera 11, and the obtained foreground image (background image) is used as a first frame image in the first frame. It is stored in the memory 21.
In step S111, a foreground image (background image) is captured at time t + Δt after a lapse of a predetermined time Δt from the time of step S110, and the obtained foreground image (background image) is used as a second frame image in the second frame. It is stored in the memory 22.
In step S112, a foreground image (background image) is captured at a time t + Δt + Δt after a lapse of a predetermined time Δt from the time of step S111, and the obtained foreground image (background image) is set as the third frame image. It is stored in the third frame memory 23.
[0050]
In step S113, an FOE is set for each of the images obtained in steps S110 to S112. Since the FOE is determined by the installation position and the angle of the video camera 11, a predetermined coordinate value is given as the FOE in the setting processing in step S113.
[0051]
In step S120, one point of interest is selected. The one point of interest selected in step S120 is selected, for example, as a point on the edge in the edge image of the object obtained by differentiating the image of the first frame (the image at time t). In addition, the point is selected as a point existing in a predetermined area (for example, an area in a straight traveling direction) having a risk of collision with the own vehicle.
[0052]
In step S130, the process described with reference to FIG. 5 is performed on the first frame image and the second frame image. More specifically, a point of interest and an elongated window are set in the image of the first frame, and the window is moved in the diverging direction along the radial direction from the same position as the image of the first frame in the image of the second frame. By calculating the sum of the absolute values of the luminance values with the window set in the first frame, the optical flow between the first frame image and the second frame image for the point of interest set in step S120 is determined. FL1) is detected.
[0053]
In a succeeding step S131, a determination based on the processing of the step S130 is performed. That is, in this step S131, when the optical flow is detected in the above step S130 (Y), the process proceeds to step S132, and when the optical flow is not detected (N), the process proceeds to step S150.
[0054]
In step S132, the process described with reference to FIG. 5 is performed on the second frame image and the third frame image. More specifically, in the image of the third frame, the position where the sum of the absolute values becomes the minimum in the second frame while moving the window in the diverging direction from the position where the sum of the absolute values becomes the minimum in step S130. The sum of the absolute value of the luminance difference with the window of the image is calculated, and the optical flow (FL2) between the image of the second frame and the image of the third frame is detected for the point of interest set in step S120. . Then, control goes to a step S140.
[0055]
In step S140, the length of the optical flow FL1 obtained in step S130 is compared with the length of the optical flow FL2 obtained in step S132, and whether the optical flows FL1 and FL2 are the same point optical flow is determined. Is determined.
[0056]
Here, the reason why it is possible to determine whether or not both optical flows FL1 and FL2 are optical flows at the same point by comparing the lengths of optical flow FL1 and optical flow FL2 will be described.
[0057]
In this description, when the other vehicle is traveling at a speed of 50 km / h and the own vehicle is traveling behind the other vehicle at a speed of 60 km / h, the distance that the vehicle approaches during the imaging interval Δt is equal to the distance between the other vehicle and the own vehicle. And a relative speed of 10 km. At this time, since the imaging interval Δt is short, it can be considered that there is no significant change in the relative speed and the steering angle of the vehicle during the imaging period. The same applies to the case where the change between time t and time t + Δt is compared with the change between time t + Δt and time t + 2Δt.
[0058]
As described with reference to FIG. 4, the optical flow has a property that it appears larger as it comes closer to the host vehicle. However, since the imaging interval Δt is as short as described above, the time t, which is the imaging period, is short. , T + Δt and t + 2Δt, there is no significant change in the distance that the two vehicles approach, and it can be considered that the distance falls within a certain range on the obtained captured image.
The optical flow at the same point can be regarded as appearing in a direction along a straight line connecting the point of interest and the FOE point.
[0059]
From the above, regarding the optical flow FL1 and the optical flow FL2 acquired during the period from the time t to the time t + 2 △ t, if the optical flow FL1 and the optical flow FL2 are at the same point, they have the same direction. It can be seen that the length is within a certain range based on one of the lengths.
In the first embodiment, the length of the optical flow FL2 is in a range from half (× 0.5) to twice (× 2) the length of the optical flow FL1 because (the base of the range is required). If they are within the range, it is determined that both optical points are the same.
[0060]
Therefore, in step S140, if the length of the optical flow FL2 is within the range represented by the following equation (8), it is determined that the two optical flows FL1 and FL2 are at the same point.
0.5FL1 <FL2 <2FL1 (8)
[0061]
In this step S140, if the length of the optical flow FL2 is within the predetermined range with respect to the optical flow FL1 (Y), the process proceeds to step S141, and if it is outside the predetermined range (N), the process proceeds to step S142. Move to
In step S141, the optical flow FL1 detected in step S131 is stored in the divergent optical flow memory 24. In step S142, the optical flow FL1 detected in step S131 is determined to be not the same point optical flow. Do not set optical flow for points.
Then, after the processing of step S141 or S142 is completed, the process proceeds to step S150.
[0062]
In step S150, it is determined whether or not processing has been performed for all target points with respect to the points to be detected for the optical flow. If the processing of all points has been completed (Y), the process proceeds to step S160, and if there are still unprocessed target points (N), the process proceeds to step S120 to newly focus one point of interest. Is set and processing is continued.
[0063]
In step S160, the degree of risk is calculated. In this step S160, the optical flows stored in the divergent optical flow memory 24 are compared with the regions of the own lane divided in advance, the near lane of the own lane, the farthest of the adjacent lane, and the vicinity of the adjacent lane. The sum of the lengths of the optical flows existing in each region is calculated.
[0064]
In step S161, it is determined whether it is dangerous. The determination process in step S161 is performed based on the threshold value of the risk level set by weighting for each region. When the total sum of the lengths of the optical flows for each region exceeds this threshold value, It is determined that an area exceeding the threshold is dangerous.
Note that the threshold value for each area in step S161 is stored in the ROM 32 in advance. Further, regarding the determination processing in step S161, the threshold may be set at several levels, and the determination may be made based on the level of risk.
If it is determined in step S161 that the image is dangerous (Y), the process proceeds to step S162. If it is determined that the image is not dangerous (N), the process proceeds to step S112 to perform the process for the next screen.
[0065]
In step S162, a warning process and a display process for notifying a danger are performed. In this step S162, the driver is alerted by sounding an alarm in accordance with the calculated degree of danger or displaying which area is danger on the display. At this time, the type of alarm tone or display color may be changed according to the level of danger.
When the process of step S162 is completed, the process shifts to step S112 to perform a process for the next screen.
[0066]
When the process of step S162 is completed or the process proceeds to step S112 due to the determination of N in step S161, the image of the third frame is captured in step S112. The image is stored in the first frame memory 21. Accordingly, the image stored in the second frame memory 22 is set as the first frame image, and the image stored in the third frame memory 23 is set as the second frame image, and the subsequent processing is performed.
[0067]
Similarly, when the process of step S112 is performed again, the image of the third frame captured in step S112 is stored in the second frame memory 22, and the image stored in the third frame memory 23 at the same time. The image of the first frame and the image stored in the first frame memory 21 are the images of the first frame.
[0068]
Next, an actual operation will be described with reference to FIG. FIG. 7 is a diagram showing a state in which another vehicle 200 traveling in front of the own vehicle is approaching the own vehicle with the passage of time, and FIG. 7) shows the foreground image at time t + Δt, and FIG. 7C shows the foreground image at time t + 2Δt (= Δt + Δt).
The case where the point 201 focused on the right rear portion of the other vehicle 200 is set will be described. In these figures, for convenience of explanation, a case where the imaging interval Δt is relatively long and the amount of movement is large is illustrated. However, since the actual imaging interval Δt is short as described above, The movement of the other vehicle 200 in each of the foreground images at time t, time t + Δt, and time t + 2Δt is minute.
[0069]
In this case, first, each foreground image at time t, time t + Δt, and time t + 2Δt is captured and stored in the first frame memory 21, the second frame memory 22, and the third frame memory 23, respectively (S110 to S112). ). Then, the FOE is set for each foreground image (S113).
[0070]
Next, a point 201 (t) of interest is set with reference to the image at time t, and at the same time, an elongated window W1 is set in the radial direction from the FOE centering on this point 201 (S120).
Then, in the image at time t + Δt, a point 201 on the image at time t + Δt is searched while moving the window W1 in the direction W from the position W1 (t) set in the image at time t. Note that the direction W at the time of this search is a radial direction from the FOE and a direction diverging from the FOE.
When the point 201 (t + Δt) is searched at the position W1 (t + Δt) in the image at the time t + Δt, as shown in FIG. 8, the point 201 (t) and the point 201 (t + Δt) are obtained. The vector connecting to (t) is set as a temporary optical flow FL1 (S130).
[0071]
Next, in the image at the time t + 2 △ t, the point 201 on the image at the time t + 2 △ t is moved while moving the window W1 in the direction from the position W1 (t + △ t) of the window W1 in the image at the time t + △ t. Search for.
When the point 201 (t + 2 @ t) is detected at the position W1 (t + 2 @ t) in the image at the time t + 2 @ t, as shown in FIG. (t + 2 △ t) is set as a temporary optical flow FL2 (S132).
[0072]
Then, the length L1 of the optical flow FL1 is compared with the length L2 of the optical flow FL2, and it is determined whether or not L2 is in a range from half the length of L1 to twice the length of L1 (S140). ).
In this case, since L1 and L2 are substantially equal, it is determined that L2 is within the range of half to twice the length of L1 (Y in S140), and the optical flow FL1 is stored in the divergent optical flow memory 24 (S141). ).
[0073]
Then, the same processing is performed on the other points of interest 202 (t) and 203 (t) (S120). When the processing on all the points of interest is completed (Y in S150), a dangerous The calculation of the degree (S160) and the alarm / display processing (S162) are performed, the image of the next imaging cycle (t + 3 △ t) is captured (S112), and the processing is continued.
[0074]
In the above-described processing, regarding the length L1 of the optical flow FL1 and the length L2 of the optical flow FL2, if L2 is out of the range of half the length of L1 to twice the length of L1. In (N in S140), this optical flow FL1 is not stored in the divergent optical flow memory 24 (S142), and the other points of interest 202 (t) and 203 (t) are processed. (S120).
[0075]
In short, in the first embodiment, a peripheral image (foreground image in the above-described example) is captured at predetermined time intervals from the own vehicle during traveling, and the first frame image of the two frames that are in front of and behind the predetermined time period is taken. A point of interest (point 201) is set for the image (image at time t), a narrow window W1 is set in the radial direction from the FOE to the point of interest (point 201), and the second frame (Image at time t + Δt), the window W1 is set at the same position as the window W1 in the image of the first frame, and the image of the first frame is moved while moving in the direction in which the window W1 diverges. , The same point (point 201) as one point of interest is detected.
[0076]
When one point of interest is detected in the image of the image of the second frame, the same point of interest is detected by performing similar processing on the image of the third frame (image at time t + 2 △ t). A vector connecting one point of interest between the first frame image and the second frame image is set as a temporary optical flow FL1, and the one point of interest between the second frame image and the third frame image is defined as a temporary optical flow FL1. The connected vector is assumed to be a temporary optical flow FL2.
Next, the length L1 of the optical flow FL1 is compared with the length L2 of the optical flow FL2, and if both have a length within a predetermined range (0.5L1 <L2 <2L1), the image of the first frame The optical flow FL1 is adopted assuming that the point of interest in the above and the point of interest in the image of the second frame are the same point.
[0077]
Thus, the optical flow FL1 set between the image of the first frame and the image of the second frame and the optical flow FL2 set between the image of the second frame and the image of the third frame By the comparison, erroneous detection of one point of interest can be easily determined, and erroneous detection can be reduced.
[0078]
Also, paying attention to the property that the optical flow at the same point appears in the direction of a straight line connecting this point and the point at infinity, and comparing the lengths of the first temporary optical flow and the second temporary optical flow described above, Since it is determined whether or not one point to be detected is a point that is erroneously detected, erroneous detection of one point of interest can be more easily determined, and erroneous detection can be reduced.
[0079]
By the way, the first embodiment has an advantage that erroneous detection of one point of interest can be easily determined. However, in the first embodiment, when an object of the same shape such as a fence, a guardrail, or a utility pole periodically appears, an object newly appearing in the imaging range focuses on the third frame image. It is rarely located at the point movement position. In this case, there is a high possibility that the point on the new object is determined to be the same point.
Next, a second embodiment will be described in which erroneous detection is not performed even when such an object having the same shape appears periodically.
[0080]
FIG. 9 is a block diagram showing the configuration of the second embodiment. In FIG. 9, reference numeral 10 denotes an imaging unit, 20 denotes a storage unit, 30 denotes a data processing unit, and 40 denotes a display alarm unit.
Regarding the imaging unit 10, the storage unit 20, the data processing unit 30, and the display alarm unit 40, the storage unit 20 includes a first frame memory 21, a second frame memory 22, and a divergent optical flow memory 24, and a third frame memory 23 is different from the first embodiment in that the data processing unit 30 is not provided and an operation program executed by the CPU 31 of the data processing unit 30 is different. Then, the first frame memory 21 and the second frame memory 22 store the captured images at predetermined intervals Δt alternately.
Other configurations and functions are the same as those described in the first embodiment, and thus description thereof will be omitted.
[0081]
Next, the operation of the second embodiment will be described with reference to the flowchart of FIG.
In the second embodiment, in step S210, a foreground image (background image) at time t is captured and stored in the first frame memory 21 as a first frame image, and in step S211 the foreground image at time t + Δt is obtained. (Background image) is captured and stored in the second frame memory 22 as a second frame image.
Then, in step S212, an FOE is set for each of the images obtained in steps S210 and S211.
[0082]
In the following step S220, one point of interest is selected. The selection of one point of interest is performed in the same manner as in step S120 in the first embodiment, and is set for the image of the first frame.
In step S221, an elongated window is set in the radial direction around the point of interest set in step S220.
In step S222, the sum of the absolute values of the brightness values of the window set in the first frame while moving the window in the diverging direction along the radial direction from the same position as the image of the first frame in the image of the second frame , A search for one point of interest set in step S220 is performed.
[0083]
In step S230, based on the processing in step S222, it is determined whether one point of interest has been detected in the image of the second frame. If one point of interest is detected (present), the process proceeds to step S231, and if one point of interest is not detected (no), the process proceeds to step S250.
In step S231, a vector connecting the point of interest set in step S220 and the point of interest detected in step S222 is set, and this vector is set as an optical flow.
[0084]
In the subsequent step S232, a search is performed for a point of interest while moving the window in the convergence direction along the radial direction from the same position as the image of the first frame, that is, toward the FOE, in the image of the second frame. This search operation is performed in the same manner as in step S222.
[0085]
In step S240, based on the processing in step S232, it is determined whether one point of interest has been detected in the image of the second frame. Then, when one point of interest is detected (present), the process proceeds to step S241, and when one point of interest is not detected (absent), the process proceeds to step S242.
[0086]
In step S241, regarding the point of interest set in the image of the first frame, the point corresponding to the point of interest is detected based on the detection of two points in the image of the second frame, the divergence direction and the convergence direction. The optical point set at the point of interest is ignored since it is highly likely that the point of interest is erroneously detected.
In step S242, regarding the point of interest set in the image of the first frame, based on the fact that the point corresponding to the point of interest is only one point in the divergent direction in the image of the second frame, Assuming that the one point of interest is properly detected, the optical flow set for this one point of interest is stored in the divergent optical flow memory 24.
Then, after the processing of step S241 or S242 is completed, the process proceeds to step S250.
[0087]
In step S250, it is determined whether or not the processing has been performed for all the target points regarding the points to be detected for the optical flow. When the processing of all the points is completed (Y), the processing shifts to step S260. When the unprocessed target points still remain (N), the processing shifts to step S220 to newly focus one point to be noted. Is set and processing is continued.
[0088]
In step S260, the degree of risk is calculated. In step S260, the sum of the lengths of the optical flows existing in each of the divided areas is calculated by the same processing as in step S160.
[0089]
In step S261, it is determined whether it is dangerous. The determination processing in step S261 is performed in the same manner as the processing in step S161, and the sum of the optical flow lengths for each area is calculated based on the risk threshold set by weighting for each area. If the threshold value is exceeded, it is determined that an area exceeding the threshold value is dangerous.
Then, if it is determined in this step S261 that it is dangerous (Y), the process proceeds to step S262, and if it is determined that it is not dangerous (N), the process proceeds to step S212 to perform processing for the next screen.
[0090]
In step S262, a warning process and a display process for notifying a danger are performed. In step S262, as in step S162, a warning is sounded in accordance with the magnitude of the obtained degree of danger, or the driver is warned by displaying which area is dangerous and how much.
Then, when the process of step S262 is completed, the process shifts to step S212 to perform a process for the next screen.
[0091]
Next, an actual operation of the second embodiment will be described with reference to FIGS. 7 (a) and 7 (b).
In this case, first, each foreground image at time t and time t + Δt is captured and stored in the first frame memory 21 and the second frame memory 22, respectively (S210, S211). Then, the FOE is set for each foreground image (S212).
[0092]
Next, a point 201 (t) of interest is set with reference to the image at time t (S220), and an elongated window W1 is set in the radial direction from the FOE centering on this point 201 (S221).
Then, in the image at the time t + Δt, the point 201 on the image at the time t + Δt is searched while moving the window W1 in the direction W from the position W1 (t) set in the image at the time t (S222). ).
[0093]
Based on the search result, it is determined whether or not the point 201 (t) set on the image at time t is detected on the image at time t + Δt (S230). In the case of FIG. 7B, since the point 201 (t + Δt) is detected at the position W1 (t + Δt), it is determined that the point 201 has been detected (Yes in S230).
[0094]
Then, as two points 201 (t) and 201 (t + Δt) are detected, an optical flow FL1 connecting these points is set (S231, see FIG. 11).
Next, in the image at the time t + Δt, the image at the time t + Δt is moved while moving the window W1 from the position W1 (t) set in the image at the time t to the direction −W which is the direction of convergence to the FOE. The upper point 201 is searched (S232).
[0095]
Based on the search result, it is determined whether or not another point 201 (t) set on the image at time t is detected on the image at time t + Δt (S240). In this case, since the corresponding point on the direction -W side is not detected, it is determined that there is no corresponding point (N in S240).
[0096]
As a result, the point 201 (t + Δt) detected in the process of step S222 is determined to be a normally detected point, and the optical flow FL1 set in step S231 is stored in the divergent optical flow memory 24. (S242).
[0097]
Then, the same processing is performed for the other points of interest 202 (t) and 203 (t) (S220). When the processing for all the points of interest is completed (Y in S150), a dangerous The calculation of the degree (S260) and the alarm / display processing (S262) are performed, the image of the next imaging cycle (t + 2 △ t) is captured (S212), and the processing is continued.
[0098]
Further, in the above-described corresponding point detection process on the −W side (S232), if the corresponding point on the −W side is detected (YES in S240), the point set on the image at time t is set. Regarding 201 (t), there are two points corresponding to this point at time t + Δt, so the optical flow FL1 relating to this point 201 is not stored in the divergent optical flow memory 24 (S241). Then, the processing of 202 (t) or 203 (t), which is another point of interest, is performed (S220).
[0099]
In short, in the second embodiment, the peripheral image is taken at predetermined time intervals from the own vehicle during traveling, and the image of the first frame (the image at time t) of the two frames preceding and following the predetermined time interval is taken. One point (point 201) of interest is set from the FOE, an elongated window W1 is set in the radial direction with respect to this point of interest (point 201), and the image of the second frame (the image at time t + Δt) is set. ), The window W1 is set at the same position as the window W1 in the image of the first frame, and the same point as the point of interest in the image of the first frame while moving in the direction in which the window W1 diverges. (Point 201) is detected.
[0100]
If one point of interest is detected, the same point (point 201) as the point of interest in the first frame image is detected while moving the window W1 in the convergence direction. When the same point as the point of interest is detected by the search in the convergence direction, two points corresponding to the point of interest in the image of the first frame exist on the image of the second frame. Therefore, it is determined that there is a high possibility that any of these points is erroneously detected, and the optical flow is not set for this noted point.
[0101]
As described above, regarding one point of interest in the image of the first frame, if this point of interest appears on the image of the second frame, in two directions, that is, the divergence direction and the convergence direction with respect to the point at infinity, the point of interest becomes Since it is determined that they have been erroneously detected, even if objects of the same shape such as fences, guardrails, or telephone poles are arranged at intervals on a straight line, it is possible to eliminate erroneous detection of one point of interest. it can.
[0102]
Further, since the search in the convergence direction described above is performed only when a corresponding point is detected by the search in the divergence direction, unnecessary processing is not performed and the processing can be easily and easily performed.
[0103]
As is clear from the above description, the basic configuration of the present invention and the flowchart in each embodiment have the following correspondence.
That is, the erroneous detection determination unit in the basic configuration of the present invention corresponds to steps S140 to S142 in the flowchart of FIG. 6 and steps S240 to 242 in the flowchart of FIG. This corresponds to step S130 and steps S221 to S222 in the flowchart of FIG.
Further, the second point of interest detecting means corresponds to step S132 in the flowchart of FIG. 10, and the third point of interest detecting means corresponds to step S132 in the flowchart of FIG.
[0104]
【The invention's effect】
According to the vehicle periphery monitoring device of the present invention, the following effects are obtained.
That is, it is determined from the one point of interest in the previous image and the one point of interest detected in the subsequent image whether or not the one point of interest is an erroneously detected point. Since the optical flow is not set for the point determined to be wrong, it is possible to reduce the erroneous detection of one point of interest.
[0105]
Further, a first temporary optical flow set for the previous image and the subsequent image, and a second temporary optical flow set between the subsequent image and the third image captured a predetermined time after the subsequent image. By comparison with the provisional optical flow, erroneous detection of one point of interest can be easily determined, and erroneous detection can be reduced.
[0106]
In addition, since the determination is made by comparing the length of the first temporary optical flow and the length of the second temporary optical flow, the erroneous detection of one point of interest can be more easily determined and the erroneous detection can be performed. Detection can be reduced.
[0107]
Also, regarding one point of interest in the previous image, when this point of interest appears in two directions, that is, the divergence direction and the convergence direction with respect to the point at infinity, it is determined that this point of interest is erroneously detected. It is possible to eliminate erroneous detection of one point of interest.
[0108]
Further, with respect to one point of interest in the previous image, processing is performed in the convergence direction only when this point of interest is detected in the diverging direction with respect to the point at infinity, so that unnecessary processing is not performed. Can be performed easily and easily.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a basic configuration of the present invention.
FIG. 2 is a block diagram showing the configuration of a first embodiment of a vehicle periphery monitoring device to which the present invention is applied.
FIG. 3 is a diagram illustrating a change in a foreground image obtained by a video camera 11;
FIG. 4 is a diagram showing an optical arrangement for explaining how to detect an obstacle or the like;
FIG. 5 is a schematic diagram illustrating a procedure for obtaining an optical flow.
FIG. 6 is a flowchart illustrating the operation of the first embodiment.
FIG. 7 is a diagram showing a state in which another vehicle 200 traveling ahead of the host vehicle approaches the host vehicle with the passage of time.
FIG. 8 is a diagram showing a detected point of interest and an optical flow.
FIG. 9 is a block diagram showing a configuration of a second embodiment of the vehicle periphery monitoring device to which the present invention is applied.
FIG. 10 is a flowchart illustrating the operation of the second embodiment.
FIG. 11 is a diagram showing a detected point of interest and an optical flow.
FIG. 12 is a diagram illustrating a problem in a conventional device.
[Explanation of symbols]
10 Imaging unit
11 Video camera
20 storage unit
21 First frame memory
22 Second frame memory
23 Third frame memory
24 Divergent Optical Flow Memory
30 Data processing unit
31 CPU
32 ROM
33 RAM
40 Display / alarm unit
41 Display
42 speakers
100 own vehicle
200 other vehicles
FL1, FL2 optical flow
W1 window
FOE infinity point

Claims (5)

走行している自車両から周辺画像を撮像し、所定時間相前後する2コマの画像中の同一点の移動を、該所定時間相前後する2コマの画像のうちの前の画像において走行している自車両の進行方向あるいは該進行方向の正反対方向を示す1点に対応する無限遠点から、着目する1点に対して放射状の方向に細長い窓を設定し、後の画像において前記窓を前記放射状の方向に移動しながら前記着目する1点を検出し、前記前の画像における着目する1点と後の画像における着目する一点とを結ぶベクトルをオプティカルフローとして設定し、前記走行している自車両の周辺を走行中の他車両、あるいは、周辺に存在する障害物を、該周辺を走行中の他車両、あるいは、周辺に存在する障害物のオプティカルフローのベクトルの大小及び出現位置の如何によって監視する車両周辺監視装置において、
前記着目する1点が誤って検出されたものか否かを判定する誤検出判定手段を有してなり、
該誤検出判定手段により、誤って検出されたと判定された着目する1点については、前記オプティカルフローの設定をしないように構成したことを特徴とする車両周辺監視装置。
A surrounding image is captured from the own vehicle while traveling, and the movement of the same point in the two frames preceding and following the predetermined time is moved in the previous image of the two frames preceding and following the predetermined time. From the point at infinity corresponding to one point indicating the traveling direction of the own vehicle or the direction opposite to the traveling direction, an elongated window is set in a radial direction with respect to one point of interest, and the window is set in the later image. The one point of interest is detected while moving in the radial direction, a vector connecting the one point of interest in the previous image and the one point of interest in the subsequent image is set as an optical flow, and Other vehicles traveling around the vehicle or obstacles existing in the vicinity are compared with other vehicles traveling around the vehicle or the magnitude and the appearance position of the optical flow vector of the obstacle existing around the vehicle. In the vehicle periphery monitoring apparatus for monitoring by anything,
Erroneous detection determining means for determining whether the one point of interest is erroneously detected,
An apparatus for monitoring the periphery of a vehicle, wherein the optical flow is not set for one point of interest determined to be erroneously detected by the erroneous detection determination means.
前記後の画像において前記窓を前記前の画像における設定位置から前記無限遠点からの発散方向に移動しながら前記着目する1点の対応点の検出を行う第1着目点検出手段と、
該第1着目点検出手段により対応点が検出された場合に、前記後の画像から前記所定時間後に撮像された第3の画像において前記後の画像における検出位置から前記無限遠点からの発散方向に移動しながら前記着目する1点の対応点の検出を行う第2着目点検出手段とを有してなり、
前記誤検出判定手段は、前記前の画像における着目する1点と前記後の画像における着目する1点間を結ぶベクトルを第1仮オプティカルフローとして設定するとともに前記後の画像における着目する1点と前記第3の画像における着目する1点間を結ぶベクトルを第2仮オプティカルフローとして設定し、かつ前記第1仮オプティカルフローと第2仮オプティカルフローとの比較により、前記着目する1点が誤って検出された点であるか否かを判定することを特徴とする請求項1記載の車両周辺監視装置。
A first point-of-interest detection means for detecting the corresponding point of the one point of interest while moving the window in a diverging direction from the infinity point from the set position in the previous image in the subsequent image,
When the corresponding point is detected by the first point-of-interest detection means, a divergence direction from the infinity point from the detection position in the subsequent image in the third image captured after the predetermined time from the subsequent image And a second point of interest detecting means for detecting the corresponding point of the one point of interest while moving to
The erroneous detection determination means sets a vector connecting a point of interest in the previous image and a point of interest in the subsequent image as a first provisional optical flow, and sets a vector of interest in the subsequent image. A vector connecting one point of interest in the third image is set as a second temporary optical flow, and the one point of interest is erroneously determined by comparing the first temporary optical flow and the second temporary optical flow. 2. The vehicle periphery monitoring device according to claim 1, wherein it is determined whether the detected point is a detected point.
前記誤検出判定手段は、前記第1仮オプティカルフローと第2仮オプティカルフローとの長さの比較により、前記着目する1点が誤って検出された点であるか否かを判定することを特徴とする請求項2記載の車両周辺監視装置。The erroneous detection determination means determines whether the one point of interest is a point erroneously detected by comparing the lengths of the first temporary optical flow and the second temporary optical flow. The vehicle periphery monitoring device according to claim 2, wherein 前記後の画像において前記窓を前記前の画像における設定位置から前記無限遠点からの発散方向に移動しながら前記着目する1点の対応の検出を行う第1着目点検出手段と、
前記後の画像において前記窓を前記前の画像における設定位置から前記無限遠点への収束方向に移動しながら前記着目する1点の対応点の検出を行う第3着目点検出手段とを有してなり、
前記誤検出判定手段は、前記第1着目点検出手段と前記第3着目点検出手段の双方から前記着目する1点の対応点が検出された場合に、前記着目する1点が誤って検出されたと判定することを特徴とする請求項1記載の車両周辺監視装置。
A first point-of-interest detection means for detecting the correspondence of the one point of interest while moving the window in a diverging direction from the infinity point from the set position in the previous image in the subsequent image,
A third point of interest detecting means for detecting the corresponding point of the one point of interest while moving the window in the direction of convergence from the set position in the previous image to the point at infinity in the after image. Become
The erroneous detection determination means is configured to erroneously detect the one point of interest when the corresponding point of the one point of interest is detected from both the first point of interest detection means and the third point of interest detection means. The vehicle surroundings monitoring device according to claim 1, wherein it is determined that the vehicle has been hit.
前記第3着目点検出手段は、前記第1着目点検出手段が着目する1点を検出した場合に、該検出した1点を対象として検出を行うことを特徴とする請求項4記載の車両周辺監視装置。5. The vehicle periphery according to claim 4, wherein the third point-of-interest detection means detects the detected one point when the first point-of-interest detection means detects one point of interest. Monitoring device.
JP16486896A 1996-06-25 1996-06-25 Vehicle periphery monitoring device Expired - Fee Related JP3585071B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16486896A JP3585071B2 (en) 1996-06-25 1996-06-25 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16486896A JP3585071B2 (en) 1996-06-25 1996-06-25 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JPH1013824A JPH1013824A (en) 1998-01-16
JP3585071B2 true JP3585071B2 (en) 2004-11-04

Family

ID=15801458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16486896A Expired - Fee Related JP3585071B2 (en) 1996-06-25 1996-06-25 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP3585071B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210209367A1 (en) * 2018-05-22 2021-07-08 Starship Technologies Oü Method and system for analyzing robot surroundings

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216520A (en) * 2000-01-31 2001-08-10 Yazaki Corp Surroundings monitor device for vehicle
JP2003150941A (en) * 2001-11-19 2003-05-23 Daihatsu Motor Co Ltd Recognizing device and recognizing method for moving object
JP4019854B2 (en) * 2002-08-12 2007-12-12 日産自動車株式会社 Travel route generator
JP2006004188A (en) * 2004-06-17 2006-01-05 Daihatsu Motor Co Ltd Obstacle recognition method and obstacle recognition device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2863381B2 (en) * 1992-09-25 1999-03-03 矢崎総業株式会社 Vehicle monitoring method
JP3011566B2 (en) * 1993-02-26 2000-02-21 三菱電機株式会社 Approaching vehicle monitoring device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210209367A1 (en) * 2018-05-22 2021-07-08 Starship Technologies Oü Method and system for analyzing robot surroundings
US11741709B2 (en) * 2018-05-22 2023-08-29 Starship Technologies Oü Method and system for analyzing surroundings of an autonomous or semi-autonomous vehicle

Also Published As

Publication number Publication date
JPH1013824A (en) 1998-01-16

Similar Documents

Publication Publication Date Title
EP2993654B1 (en) Method and system for forward collision warning
JP4287532B2 (en) Vehicle rear side monitoring device
US6360170B1 (en) Rear monitoring system
US5521633A (en) Motor vehicle obstacle monitoring system using optical flow processing
JP3304687B2 (en) Vehicle lane recognition device, obstacle detection device, road departure notification device
US6744380B2 (en) Apparatus for monitoring area adjacent to vehicle
JP2863381B2 (en) Vehicle monitoring method
JPH0750769A (en) Backward side supervising method for vehicle
JPH06281455A (en) Vehicle environment monitoring device
US20180114078A1 (en) Vehicle detection device, vehicle detection system, and vehicle detection method
CN107004250B (en) Image generation device and image generation method
KR20080022748A (en) Collision avoidance method using stereo camera
JP4721278B2 (en) Lane departure determination device, lane departure prevention device, and lane tracking support device
JP3585071B2 (en) Vehicle periphery monitoring device
JP3351340B2 (en) Optical flow type backward information detection device
Kim et al. An intelligent and integrated driver assistance system for increased safety and convenience based on all-around sensing
JP3729005B2 (en) Vehicle rear monitoring device
JPH1142989A (en) Vehicular rear and side monitor
JP2003187228A (en) Device and method for recognizing vehicle
JP2001023092A (en) Monitoring device for vehicle peripheral area
JP3398934B2 (en) Vehicle monitoring method
JP4305057B2 (en) Armpit detector
JP2000251199A (en) Rear side part monitoring device for vehicle
JP2000315255A (en) Back side direction monitoring device for vehicle and back side direction monitoring alarm device for vehicle
JP2001101420A (en) Device and method for detecting obstacle

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040727

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20040729

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040729

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080813

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090813

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090813

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100813

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110813

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120813

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130813

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees