JP3788400B2 - Image processing apparatus, image processing method, and vehicle monitoring system - Google Patents

Image processing apparatus, image processing method, and vehicle monitoring system Download PDF

Info

Publication number
JP3788400B2
JP3788400B2 JP2002211244A JP2002211244A JP3788400B2 JP 3788400 B2 JP3788400 B2 JP 3788400B2 JP 2002211244 A JP2002211244 A JP 2002211244A JP 2002211244 A JP2002211244 A JP 2002211244A JP 3788400 B2 JP3788400 B2 JP 3788400B2
Authority
JP
Japan
Prior art keywords
vehicle
image
road
image processing
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002211244A
Other languages
Japanese (ja)
Other versions
JP2004056497A (en
Inventor
健 岩本
義行 井藤
伸明 三浦
邦彦 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2002211244A priority Critical patent/JP3788400B2/en
Priority to CNB031550096A priority patent/CN1320513C/en
Priority to SG200304023A priority patent/SG110061A1/en
Publication of JP2004056497A publication Critical patent/JP2004056497A/en
Priority to HK04103614A priority patent/HK1060582A1/en
Application granted granted Critical
Publication of JP3788400B2 publication Critical patent/JP3788400B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、交通監視などに用いられる画像処理装置、画像処理方法及び車両監視システムに関するものである。
【0002】
【従来の技術】
従来、例えば、高速道路や一般道などの監視対象区間を複数の撮影領域に分け、複数の撮影領域毎にカメラを設置し、撮影された映像信号に基づいて画像処理して自動的に車両を検出する画像処理装置が知られている。この画像処理装置では、複数の撮影領域毎に車両検出を行っており、特定の車両を複数の撮影領域に渡って追跡するために、IDや車両画像の転送等を行っている。
【0003】
【発明が解決しようとする課題】
しかし、従来の画像処理装置では、依然として複数の撮影領域に渡って特定の車両を追跡することが困難である。図10を参照して説明する。先ず、時刻t1においてP1の位置に存在する特定の車両100が進行し時刻t2においてP2の位置まで移動するとする。従来の画像処理装置では、例えば、時刻t1において特定の車両100の車両画像を記憶し、その後、時刻がt2に達すると車両の検出を行う。そして、検出された車両の画像と記憶された車両画像とをテンプレートマッチング等することにより特定の車両100がP2の位置に移動したと判断する。このようにして、従来の画像処理装置では車両の追跡を行っている。
【0004】
次に特定の車両100がP3の位置に移動したとする。このとき、画像処理装置は、特定の車両100がP2の位置に移動したときと同様にテンプレートマッチング等を行う。しかし、P3の位置では特定の車両100は第1及び第2の撮影領域300a,300bに跨がっており、テンプレートマッチング等を行ったとしても特定の車両100である否かを判断することが難くなっている。このため、画像処理装置は、ID等を第2の撮影領域300b側に転送したとしても車両100にID等を付与することが難しく、車両を追跡することが困難となっている。
【0005】
本発明は、上記問題点を解消する為になされたものであり、車両の追跡が容易な画像処理装置、画像処理方法および車両監視システムを提供することを目的とする。
【0006】
【課題を解決するための手段】
このような目的を達成するために、本発明に係る画像処理装置は、道路の車両走行方向に沿って複数設置される撮影手段によって道路を連続的に撮影して得られる複数の映像信号を入力し、それらの映像信号をA/D変換するA/D変換手段と、A/D変換手段によりA/D変換して得られる変換画像について道路を車両走行方向に分割してなる分割領域を設定し、各分割領域における分割画像を抽出する抽出手段と、抽出手段により抽出される分割画像を道路が車両走行方向に連続するように合成する合成手段と、合成手段により合成された合成画像に基づいて車両を検出する車両検出手段とを備えて構成され、合成手段は合成画像において道路が縦方向または横方向に向くように合成を行い、車両検出手段により検出された車両が合成画像から新たに検出されたものである場合その車両の車両画像を補正して記憶し、車両の移動に応じて補正した車両画像をその移動位置に表示させることを特徴とする。
【0007】
また本発明に係る画像処理方法は、道路の車両走行方向に沿って複数設置される撮影手段によって道路を連続的に撮影して得られる複数の映像信号を入力し、それらの映像信号をA/D変換するA/D変換工程と、A/D変換工程によりA/D変換して得られる変換画像について道路を車両走行方向に分割してなる分割領域を設定し各分割領域における分割画像を抽出する抽出工程と、抽出工程により抽出された分割画像を道路が車両走行方向に連続するように合成する合成工程と、合成工程により合成された合成画像に基づいて車両を検出する車両検出工程とを備えて構成され、合成工程は合成画像において道路が縦方向または横方向に向くように合成を行い、車両検出工程により検出された車両が合成画像から新たに検出されたものである場合その車両の車両画像を補正して記憶し車両の移動に応じて補正した車両画像をその移動位置に表示させることを特徴とする。
【0008】
また、本発明に係る車両監視システムは、道路の車両走行方向に沿って複数設置される撮影手段と、上記の画像処理装置とを備えて構成されている。
【0009】
また、本発明に係る車両監視システムでは、画像処理装置からの画像データを画像として表示する表示手段を更に備えることを特徴とする。
【0010】
これらの発明によれば、道路が車両走行方向に連続するように合成された合成画像に基づいて車両の検出が行われるので、1つの広い画像に対し車両検出を行うこととなる。このため、撮影領域のつなぎ目に車両が存在していたとしても、合成画像自体につなぎ目は存在せず、車両検出後に行われる追跡処理において画像自体のつなぎ目によって車両の追跡が困難となることがない。従って、車両の追跡を容易にすることができる。
【0016】
また、この場合には、記憶された車両画像を車両移動位置に表示するので、車両が検出されるごとに車両画像の補正を行う必要がない。このため、処理が迅速に行えるようになる。
【0017】
また、本発明に係る画像処理装置は、車両画像の補正に応じて、背景画像を補正することを特徴とする。
【0019】
この場合には、車両画像の補正の際に生じた背景画像との不整合等が解消されることとなる。従って、表示の際に、車両画像の補正による違和感を除去することができる。
【0020】
また、本発明に係る車両監視システムでは、撮影手段は、道路の各領域を撮影するために領域毎に少なくとも2以上設けられていることを特徴とする。
【0021】
この場合には、道路の各領域を2以上の撮影手段により異なる角度から撮影することとなるため、例えば、大型車等の影に隠れてしまう普通車を検出することが可能となる。従って、車両の検出精度を向上させることができる。
【0022】
【発明の実施の形態】
以下、添付図面に基づき、本発明の実施形態について説明する。尚、各図において同一要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明のものと必ずしも一致していない。
【0023】
実施形態に係る画像処理装置、画像処理方法及び車両監視システムについて説明する。
【0024】
図1に本実施形態に係る車両監視システムの構成図を示す。図1に示すように、車両監視システムは、道路の交通状態を監視するシステムであり、例えば、トンネル1における交通異常などを検出するシステムに用いられる。車両監視システムは、複数の監視カメラ2を備えている。
【0025】
監視カメラ2は、道路10の車両走行方向に沿って複数設置される撮影手段であり、トンネル1内の道路10を走行する車両11を撮影するものである。これら監視カメラ2は、トンネル1内に一定の間隔で設置され、道路10を連続的に撮影するようになっている。監視カメラ2の設置間隔は、例えば、約150〜200mとされている。
【0026】
例えば、監視カメラ2は、トンネル1内の上方に設置され、道路10を走行する車両11を前方又は後方の斜め上方から撮影する。なお、監視カメラ2はすべてが上方に設置されていなくともよく、監視対象区域の入口に存在する監視カメラ2が上方に設置され、他の監視カメラ2が側方に設置されていても良い。
【0027】
各監視カメラ2は、分配器3に接続されている。分配器3は、トンネル1付近に建造される施設4内に設置されており、各監視カメラ2の撮影映像を入力して画像処理装置5に出力する。
【0028】
画像処理装置5は、監視カメラ2の映像を入力して画像処理するものであり、その画像処理した画像を管制センタ6へ伝送する。画像処理装置5は、例えば、A/D(analogue-to-digital)変換器、ビデオフレームメモリ、画像処理プロセッサ及び信号出力インターフェースを備えて構成される。
【0029】
A/D変換器は、監視カメラ2の映像信号を入力し、それら映像信号をA/D変換するA/D変換手段であり、例えば、ビデオA−Dコンバータなどが用いられる。ビデオフレームメモリは、変換された複数領域の画像データを記憶するものである。画像データは、x軸、y軸の座標点ごとに濃淡値や色信号を持つ画素の集合であり、その画素の濃淡は例えば8ビットの256階調とされる。
【0030】
画像処理プロセッサは、ビデオフレームメモリに記憶された画像データを画像処理するものである。また、信号出力インターフェースは、画像処理した画像データを外部へ出力するためのものである。
【0031】
管制センタ6では、画像処理装置5から伝送される画像データがモニタ61に入力され、そのモニタ61を通じてトンネル1内の撮影画像が表示される。この画像を通じて、トンネル1内の車両の走行状態を監視員が目視にて監視することができる。モニタ61は、画像処理装置5からの画像データを画像として表示する表示手段であり、望ましくは横長又は縦長な表示領域を有するものが用いられ、例えばプロジェクタが用いられる。
【0032】
トンネル1内には、車高センサ7が設けられている場合がある。車高センサ7は、車両11の車高を検出する車高検出手段であり、道路10の上方に設置される。車高センサ7としては、例えば、超音波感知器が用いられる。超音波感知器は、車両11に対し上方から超音波を発し車両11で反射した反射波を検出して車両11の上端位置を検出するものである。
【0033】
車高センサ7は、車両監視システムにおける監視対象区間の入口に設置され、例えば、監視対象区間に合流路などがない場合には、監視対象区間の入口にのみ設置される。
【0034】
なお、車高センサ7としては、2つの撮影カメラを用いステレオ化画像処理を行うもの、レーザ式測距計又は電波式測距計などを用いてもよく、道路10を走行する車両11の車高を検出できるものであれば、超音波感知器以外のものであってもよい。
【0035】
次に、車両監視システム及び画像処理装置5の動作について説明する。
【0036】
図1において、監視カメラ2により道路10を走行する車両11が撮影され、各監視カメラ2から映像信号が分配器3に入力される。分配器3では監視カメラ2の映像信号を適宜画像処理装置5に入力する。
【0037】
一方、車高センサ7が設けられている場合には、車高センサ7により道路10を走行する車両11の車高が検出され、その検出信号が画像処理装置5に入力される。そして、画像処理装置5により映像信号の画像処理が行われる。
【0038】
図2に画像処理装置5における画像処理のフローチャートを示す。
【0039】
図2のS1に示すように、画像処理装置5に入力された各映像信号がA/D変換される。A/D変換は映像信号のアナログ画像をデジタル画像に変換する処理であり、変換後の変換画像データはビデオフレームメモリに記憶される。変換画像は、例えば、図3に示すように、監視カメラ2の位置から道路10を眺めたときの画像そのものである。この変換画像20には、道路10上を走行する各車両11a〜11cが斜め後方から撮影されている。
【0040】
A/D変換後、処理は図2のS2に移行し、抽出処理が行われる。抽出処理は、A/D変換された各変換画像について道路10を車両走行方向に分割してなる分割領域を設定し、各分割領域における分割画像を抽出する処理である。図4のように、分割領域30は、道路10を車両走行方向に沿って所定の長さで分割して設定されている。また、分割領域30は、各監視カメラ2の変換画像毎に1つずつ設定される。そして、各分割領域30は、図5に示すように、それぞれが重なり合うことなく設定されている。なお、各分割領域30は、必ずしも重なり合うことなく設定されている必要は無く、重なり合っていたとしても後の処理において重なり部分をカットすればよい。以下の説明については、各分割領域30が重なり合うことなく設定されているものとして説明する。
【0041】
分割画像は、分割領域30内に予め設定されたサンプリング点の画素データを抽出して形成される。図6は、分割領域30に設定されるサンプリング点の概要説明図である。図6に示すように、サンプリング点31は、道路10の車両進行方向および道路横断方向のそれぞれの方向に沿って格子状に配列して設定される。このようにサンプリング点31を設定することにより、サンプリング点31における画素データを、車両走行方向と道路横断方向とを直交させた座標系の画素データとして配置するだけで、道路10を平面視した画像を容易に作成できる。
【0042】
分割画像抽出後、処理は図2のS3に移行し、合成処理が行われる。合成処理は、抽出処理により抽出された分割画像を道路10が車両走行方向に連続するように合成する処理である。また、ここでは、合成画像において道路10が縦方向または横方向に向くように、合成が行われる。
【0043】
道路10を横方向に向けて合成した合成画像の例を図7に示す。合成画像40は、各分割領域30の分割画像を車両走行方向に連結して1つの画像としたものである。例えば、合成画像40は、各々異なる映像信号に基づいて作成された各分割画像の画素データを同一座標系の画素データとして設定し表したものである。合成画像データは、各分割画像データを1つのメモリに格納して構成することが望ましい。なお、各分割領域30はそれぞれが重なり合うことなく設定されているので、ここでの合成処理では、重複部分を考慮することなく容易に合成が行える。
【0044】
また、図7に示すように、合成画像40は、道路10を真上から眺めたようになっている。このような合成画像40を得るためには、図4に示す分割領域30を合成するだけでなく、演算により各分割領域30を真上から眺めたように変形する必要がある。しかしながら、本実施形態では、サンプリング点31を図6に示すように設定しているので、抽出と共に変形も行われていることとなり、変形処理が不要となっている。
【0045】
合成後、図2のS4に移行し、合成処理により合成された合成画像に基づいて車両11を検出する車両検出処理が行われる。車両検出処理は、例えば、予め画像処理装置5が備えている背景画像と合成画像40と比較する背景差分方式により行われる。
【0046】
そして、S5に移行し、車両検出処理により検出された車両11が合成画像から新たに検出されたものであるか否かが判断される。検出された車両11が合成画像から新たに検出されたものでないと判断された場合、処理はS8に移行する。一方、車両11が合成画像から新たに検出されたものであると判断された場合、処理はS6に移行する。なお、監視対象区間に合流がない限り、車両11は、合成画像のうち監視対象区間の入口付近で新たに検出される。このため、入口に設けられた監視カメラ2からのデータのみに基づいて新たに監視対象区間に進入した車両11を検出するようにしてもよい。また、監視対象区間に合流がある場合、入口及び合流ポイントに設置された監視カメラ2からのデータのみに基づいて新たな車両11を検出するようにしてもよい。
【0047】
S6では、新たに検出された車両11の車両画像を車高に応じて補正する車両補正処理が行われる。ここでの補正を行わない場合、車両11は図8に示すようになってしまう。図8に示すように、撮影位置から遠い場所を走行する車両11b、11cは、撮影位置から近い場所を走行する車両11aと比較すると、歪みが大きくなる傾向がある。特に、車高の高いトラックなどの車両11cの歪みは大きい。
【0048】
このため、図2のS6の処理において補正が行われている。車両補正処理は、例えば、車高センサ7が検出した車高データに基づいて行われ、車両11の車高が高いほど車両11の車高を低くするように行われる。このように車両補正処理を行うことにより、図8に示す各車両11a〜11cが図9に示すように補正される。
【0049】
補正後、処理はS7に移行する。S7では、補正された車両画像が記憶される。すなわち、図9に示すように、歪が除去された各車両11a〜11cの車両画像が記憶される。
【0050】
そして、処理は図2のS8に移行し、追跡処理が行われる。追跡処理は、例えば、現在監視対象区間を走行している車両11の画像と以前に記憶した車両画像とをマッチングさせることにより、車両画像として記憶された車両11がどの位置に存在するかを判断する処理である。なお、S7において車両画像として記憶された車両11a〜11cに関しては、それらが移動し次回の位置データが得られたときに追跡処理が行われる。
【0051】
その後、S9において、車両11の位置に記憶されていた車両画像が貼り付けられる。これにより、車両11の位置に記憶されていた車両画像が表示されることとなる。なお、S7において車両画像として記憶された車両11a〜11cに関しては、それらが後に他の位置に移動した場合に、その移動位置に車両画像が貼り付けられる。
【0052】
そして、S10に移行し、背景補正処理が行われる。背景補正処理は、車両画像の補正に応じて背景画像を補正する処理である。例えば、図9に示す車両11cの場合、補正前の車両11cが占めていた領域50内における背景部分が補正される。これは、車両画像のみを補正し背景画像を補正しないと、画像を表示した際に背景画像に違和感が生じてしまうからである。
【0053】
その後、これらの一連の処理を経て得られた画像データが管制センタ6に伝送され、管制センタ6のモニタ61に画像として表示される。また、図2における一連の処理は所定時間間隔で繰り返し行われる。
【0054】
以上のように、本実施形態によれば、道路10が車両走行方向に連続するように合成された合成画像40に基づいて車両11の検出が行われるので、1つの広い画像に対し車両検出を行うこととなる。このため、撮影領域のつなぎ目に車両11が存在していたとしても、合成画像40自体につなぎ目は存在せず、車両検出後に行われる追跡処理において画像自体のつなぎ目によって車両の追跡が困難となることがない。従って、車両11の追跡を容易にすることができる。
【0055】
また、合成画像40は道路10を真上から眺めたようなものとなるため、監視者等にとって見やすい画像を提供することが可能となる。
【0056】
また、記憶された車両画像が車両移動位置に表示させるので、車両11が検出されるごとに車両画像の補正を行う必要がない。このため、処理が迅速に行えるようになる。
【0057】
また、車両画像の補正の際に生じた背景画像との不整合等が解消されることとなる。従って、表示の際に、車両画像の補正による違和感を除去することができる。
【0058】
また、分割領域30内のサンプリング点31は、道路10の車両進行方向および道路横断方向のそれぞれの方向に沿って格子状に配列して設定されるので、抽出と共に変形も行われていることとなり、変形処理が不要となっている。
【0059】
また、本実施形態によれば、各分割領域30はそれぞれが重なり合うことなく設定されているので、重複部分を考慮することなく容易に合成することができる。
【0060】
以上、本発明者によってなされた発明を実施形態に基づき具体的に説明したが、本発明は上記実施形態に限定されるものではない。例えば、車両検出処理において車両の検出が正確に行われなかった場合、その車両を背景画像の1つとして処理して、補正されていない車両画像を表示させるようにしてもよいし、その車両の過去の動きベクトル及び前後の車両の動きを元に検出されなかった車両の位置を予測し、その位置に補正され記憶された車両画像を表示させてもよい。さらには、監視カメラ2は、道路10の各領域を撮影するために領域毎に少なくとも2以上設けられていてもよい。この場合、道路10の各領域を2以上の監視カメラ2により異なる角度から撮影することとなるため、例えば、大型車等の影に隠れてしまう普通車を検出することが可能となる。従って、車両11の検出精度を向上させることができる。
【0061】
【発明の効果】
以上詳細に説明したように本発明によれば、車両の追跡が容易な画像処理装置、画像処理方法および車両監視システムを提供することができる。
【図面の簡単な説明】
【図1】本実施形態に係る車両監視システムの構成図である。
【図2】図1に示す画像処理装置の処理を示すフローチャートである。
【図3】変形画像の一例を示す図である。
【図4】分割領域の一例を示す図である。
【図5】分割領域に設定されるサンプリング点の概要説明図である。
【図6】図4に示す分割領域に設定されるサンプリング点の様子を示す図である。
【図7】道路を横方向に向けて合成した合成画像の例を示す図である。
【図8】車両補正処理を行わずに車両を表示した場合の例を示す図である。
【図9】車両補正処理を行って車両を表示した場合の例を示す図である。
【図10】従来の車両追跡処理の一例を説明する図である。
【符号の説明】
2…監視カメラ、5…画像処理装置、7…車高センサ、10…道路、11…車両、20…変換画像、30…分割領域、31…サンプリング点、32…分割画像、40…合成画像、61…モニタ。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image processing method, and a vehicle monitoring system used for traffic monitoring.
[0002]
[Prior art]
Conventionally, for example, a section to be monitored such as an expressway or a general road is divided into a plurality of shooting areas, a camera is installed for each of the plurality of shooting areas, and the vehicle is automatically processed by performing image processing based on the shot video signal. An image processing apparatus for detecting is known. In this image processing apparatus, vehicle detection is performed for each of a plurality of shooting areas, and ID and vehicle image transfer are performed in order to track a specific vehicle over a plurality of shooting areas.
[0003]
[Problems to be solved by the invention]
However, it is still difficult for a conventional image processing apparatus to track a specific vehicle over a plurality of imaging regions. This will be described with reference to FIG. First, the particular vehicle 100 at the position of P 1 at time t 1 is moved at time t 2 proceeds to the position of P 2. In a conventional image processing apparatus, for example, a vehicle image of a specific vehicle 100 is stored at time t 1 , and then the vehicle is detected when the time reaches t 2 . Then, it is determined that the specific vehicle 100 has moved to the position P 2 by template matching or the like between the detected vehicle image and the stored vehicle image. In this manner, the conventional image processing apparatus tracks the vehicle.
[0004]
Next, it is assumed that the specific vehicle 100 has moved to the position P 3 . In this case, the image processing apparatus performs the template matching or the like as in the case where a specific vehicle 100 has moved to the position of P 2. However, at the position P 3 , the specific vehicle 100 straddles the first and second imaging areas 300a and 300b, and it is determined whether or not the specific vehicle 100 is a template matching or the like. Has become difficult. For this reason, even if the image processing apparatus transfers the ID or the like to the second imaging region 300b side, it is difficult to give the ID or the like to the vehicle 100, and it is difficult to track the vehicle.
[0005]
The present invention has been made to solve the above-described problems, and an object thereof is to provide an image processing apparatus, an image processing method, and a vehicle monitoring system that can easily track a vehicle.
[0006]
[Means for Solving the Problems]
In order to achieve such an object, the image processing apparatus according to the present invention inputs a plurality of video signals obtained by continuously photographing the road by a plurality of photographing means installed along the vehicle traveling direction of the road. A / D conversion means for A / D converting those video signals, and a divided area obtained by dividing the road in the vehicle traveling direction for the converted image obtained by A / D conversion by the A / D conversion means is set. And extracting means for extracting divided images in each divided region, combining means for combining the divided images extracted by the extracting means so that the road continues in the vehicle traveling direction, and based on the combined image combined by the combining means It is constituted by a vehicle detection means for detecting a vehicle Te, combining means performs a combination as a road in the synthesized image is oriented vertically or horizontally, the vehicle synthetic image detected by the vehicle detection means Newly detected ones in which case to correct the vehicle image of the vehicle stored from, and wherein the vehicle image corrected to be displayed on the moving position in response to movement of the vehicle.
[0007]
The image processing method according to the present invention also inputs a plurality of video signals obtained by continuously shooting a road by a plurality of shooting means installed along the vehicle traveling direction of the road, A / D conversion step for D conversion and a converted image obtained by A / D conversion in the A / D conversion step are set as a divided region obtained by dividing the road in the vehicle traveling direction, and a divided image in each divided region is extracted. An extraction process, a synthesis process for synthesizing the divided images extracted in the extraction process so that the road continues in the vehicle traveling direction, and a vehicle detection process for detecting a vehicle based on the synthesized image synthesized by the synthesis process. The compositing step is performed by compositing the road so that the road faces in the vertical direction or the horizontal direction in the composite image, and the vehicle detected by the vehicle detection step is newly detected from the composite image. When the vehicle image corrected according to the movement of the vehicle is corrected and stored vehicle image of the vehicle, characterized in that display to the moving position.
[0008]
In addition, a vehicle monitoring system according to the present invention includes a plurality of photographing units installed along the vehicle traveling direction of a road and the above-described image processing device.
[0009]
The vehicle monitoring system according to the present invention further includes display means for displaying the image data from the image processing apparatus as an image.
[0010]
According to these inventions, since the vehicle is detected based on the composite image synthesized so that the road continues in the vehicle traveling direction, the vehicle is detected for one wide image. For this reason, even if there is a vehicle at the joint of the shooting area, there is no joint in the composite image itself, and the tracking of the vehicle in the tracking process performed after vehicle detection does not make it difficult to track the vehicle. . Therefore, tracking of the vehicle can be facilitated.
[0016]
In this case, since the stored vehicle image is displayed at the vehicle movement position, it is not necessary to correct the vehicle image every time a vehicle is detected. For this reason, processing can be performed quickly.
[0017]
The image processing apparatus according to the present invention is characterized in that the background image is corrected in accordance with the correction of the vehicle image.
[0019]
In this case, the inconsistency with the background image generated when the vehicle image is corrected is eliminated. Therefore, it is possible to remove the sense of incongruity due to the correction of the vehicle image during display.
[0020]
In the vehicle monitoring system according to the present invention, at least two imaging units are provided for each area in order to capture each area of the road.
[0021]
In this case, since each area of the road is photographed from two or more photographing means at different angles, for example, it is possible to detect a normal vehicle hidden behind a shadow such as a large car. Therefore, the detection accuracy of the vehicle can be improved.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in each figure, the same code | symbol is attached | subjected to the same element and the overlapping description is abbreviate | omitted. Further, the dimensional ratios in the drawings do not necessarily match those described.
[0023]
An image processing apparatus, an image processing method, and a vehicle monitoring system according to embodiments will be described.
[0024]
FIG. 1 shows a configuration diagram of a vehicle monitoring system according to the present embodiment. As shown in FIG. 1, the vehicle monitoring system is a system that monitors a traffic state of a road, and is used, for example, in a system that detects a traffic abnormality in a tunnel 1. The vehicle monitoring system includes a plurality of monitoring cameras 2.
[0025]
The surveillance camera 2 is a plurality of photographing means installed along the vehicle traveling direction of the road 10 and photographs the vehicle 11 traveling on the road 10 in the tunnel 1. These surveillance cameras 2 are installed in the tunnel 1 at regular intervals so as to continuously photograph the road 10. The installation interval of the monitoring camera 2 is, for example, about 150 to 200 m.
[0026]
For example, the surveillance camera 2 is installed above the tunnel 1 and photographs the vehicle 11 traveling on the road 10 from an obliquely upward front or rear. Note that not all of the monitoring cameras 2 may be installed above, the monitoring camera 2 existing at the entrance of the monitoring target area may be installed above, and the other monitoring camera 2 may be installed on the side.
[0027]
Each surveillance camera 2 is connected to a distributor 3. The distributor 3 is installed in a facility 4 built in the vicinity of the tunnel 1, and inputs a video image of each surveillance camera 2 and outputs it to the image processing device 5.
[0028]
The image processing device 5 inputs the video of the monitoring camera 2 and performs image processing, and transmits the image processed image to the control center 6. The image processing device 5 includes, for example, an A / D (analogue-to-digital) converter, a video frame memory, an image processing processor, and a signal output interface.
[0029]
The A / D converter is A / D conversion means for inputting video signals of the surveillance camera 2 and A / D converting the video signals, and for example, a video A-D converter or the like is used. The video frame memory stores the converted image data of a plurality of areas. The image data is a set of pixels having a gray value and a color signal for each coordinate point of the x axis and the y axis, and the gray level of the pixel is, for example, 256 bits of 8 bits.
[0030]
The image processor performs image processing on the image data stored in the video frame memory. The signal output interface is for outputting image processed image data to the outside.
[0031]
In the control center 6, image data transmitted from the image processing device 5 is input to the monitor 61, and the captured image in the tunnel 1 is displayed through the monitor 61. Through this image, a monitoring person can visually monitor the running state of the vehicle in the tunnel 1. The monitor 61 is display means for displaying the image data from the image processing apparatus 5 as an image, and preferably has a horizontally or vertically long display area, for example, a projector.
[0032]
A vehicle height sensor 7 may be provided in the tunnel 1. The vehicle height sensor 7 is vehicle height detection means for detecting the vehicle height of the vehicle 11 and is installed above the road 10. For example, an ultrasonic sensor is used as the vehicle height sensor 7. The ultrasonic sensor detects an upper end position of the vehicle 11 by detecting an reflected wave reflected from the vehicle 11 by emitting an ultrasonic wave from above the vehicle 11.
[0033]
The vehicle height sensor 7 is installed at the entrance of the monitoring target section in the vehicle monitoring system. For example, when the monitoring target section does not have a junction or the like, it is installed only at the entrance of the monitoring target section.
[0034]
The vehicle height sensor 7 may be one that performs stereo image processing using two photographing cameras, a laser range finder, a radio range finder, or the like. Any device other than the ultrasonic sensor may be used as long as the height can be detected.
[0035]
Next, operations of the vehicle monitoring system and the image processing apparatus 5 will be described.
[0036]
In FIG. 1, a vehicle 11 traveling on a road 10 is photographed by a monitoring camera 2, and a video signal is input from each monitoring camera 2 to a distributor 3. The distributor 3 inputs the video signal of the monitoring camera 2 to the image processing device 5 as appropriate.
[0037]
On the other hand, when the vehicle height sensor 7 is provided, the vehicle height of the vehicle 11 traveling on the road 10 is detected by the vehicle height sensor 7, and the detection signal is input to the image processing device 5. Then, the image processing device 5 performs image processing of the video signal.
[0038]
FIG. 2 shows a flowchart of image processing in the image processing apparatus 5.
[0039]
As shown in S1 of FIG. 2, each video signal input to the image processing device 5 is A / D converted. A / D conversion is a process of converting an analog image of a video signal into a digital image, and the converted image data after conversion is stored in a video frame memory. For example, as shown in FIG. 3, the converted image is an image when the road 10 is viewed from the position of the monitoring camera 2. In the converted image 20, the vehicles 11a to 11c traveling on the road 10 are photographed obliquely from the rear.
[0040]
After A / D conversion, the process proceeds to S2 in FIG. 2, and an extraction process is performed. The extraction process is a process of setting a divided area obtained by dividing the road 10 in the vehicle traveling direction for each converted image subjected to A / D conversion, and extracting a divided image in each divided area. As shown in FIG. 4, the divided region 30 is set by dividing the road 10 by a predetermined length along the vehicle traveling direction. In addition, one divided region 30 is set for each converted image of each monitoring camera 2. Each divided region 30 is set so as not to overlap as shown in FIG. Note that the divided regions 30 do not necessarily have to be set without overlapping, and even if they are overlapped, it is only necessary to cut the overlapping portion in the subsequent processing. The following description will be made assuming that the divided regions 30 are set without overlapping.
[0041]
The divided image is formed by extracting pixel data of sampling points set in advance in the divided region 30. FIG. 6 is a schematic explanatory diagram of sampling points set in the divided area 30. As shown in FIG. 6, the sampling points 31 are set in a grid pattern along each of the vehicle traveling direction and the road crossing direction of the road 10. By setting the sampling point 31 in this way, the pixel data at the sampling point 31 is arranged as pixel data in a coordinate system in which the vehicle traveling direction and the road crossing direction are orthogonal to each other, and the road 10 is viewed in plan. Can be easily created.
[0042]
After extraction of the divided images, the process proceeds to S3 in FIG. 2, and a synthesis process is performed. The synthesizing process is a process for synthesizing the divided images extracted by the extracting process so that the road 10 continues in the vehicle traveling direction. Here, the composition is performed so that the road 10 faces in the vertical direction or the horizontal direction in the composite image.
[0043]
An example of a composite image obtained by combining the road 10 in the horizontal direction is shown in FIG. The composite image 40 is obtained by connecting the divided images of the divided regions 30 in the vehicle traveling direction to form one image. For example, the composite image 40 represents pixel data of each divided image created based on different video signals as pixel data in the same coordinate system. The composite image data is preferably configured by storing each divided image data in one memory. Since the divided areas 30 are set so as not to overlap with each other, the composition processing here can be easily performed without considering the overlapping portion.
[0044]
Further, as shown in FIG. 7, the composite image 40 is such that the road 10 is viewed from directly above. In order to obtain such a composite image 40, it is necessary not only to synthesize the divided areas 30 shown in FIG. 4 but also to deform each divided area 30 as viewed from directly above by calculation. However, in the present embodiment, since the sampling points 31 are set as shown in FIG. 6, the deformation is performed together with the extraction, so that the deformation process is unnecessary.
[0045]
After the composition, the process proceeds to S4 in FIG. 2, and a vehicle detection process for detecting the vehicle 11 based on the composite image synthesized by the composition process is performed. The vehicle detection process is performed, for example, by a background difference method that compares the background image provided in the image processing device 5 in advance with the composite image 40.
[0046]
Then, the process proceeds to S5, and it is determined whether or not the vehicle 11 detected by the vehicle detection process is newly detected from the composite image. If it is determined that the detected vehicle 11 is not newly detected from the composite image, the process proceeds to S8. On the other hand, when it is determined that the vehicle 11 is newly detected from the composite image, the process proceeds to S6. In addition, as long as there is no merge in the monitoring target section, the vehicle 11 is newly detected in the vicinity of the entrance of the monitoring target section in the composite image. For this reason, you may make it detect the vehicle 11 which newly entered into the monitoring object area based only on the data from the monitoring camera 2 provided in the entrance. When there is a merge in the monitoring target section, a new vehicle 11 may be detected based only on data from the monitoring camera 2 installed at the entrance and the merge point.
[0047]
In S6, a vehicle correction process for correcting the newly detected vehicle image of the vehicle 11 according to the vehicle height is performed. If the correction is not performed here, the vehicle 11 becomes as shown in FIG. As shown in FIG. 8, the vehicles 11b and 11c traveling in a place far from the shooting position tend to be more distorted than the vehicle 11a running in a place near the shooting position. In particular, the distortion of the vehicle 11c such as a truck with a high vehicle height is large.
[0048]
For this reason, correction is performed in the process of S6 of FIG. The vehicle correction process is performed based on vehicle height data detected by the vehicle height sensor 7, for example, and is performed such that the vehicle height of the vehicle 11 is lowered as the vehicle height of the vehicle 11 is higher. By performing the vehicle correction process in this way, the vehicles 11a to 11c shown in FIG. 8 are corrected as shown in FIG.
[0049]
After correction, the process proceeds to S7. In S7, the corrected vehicle image is stored. That is, as shown in FIG. 9, vehicle images of the vehicles 11a to 11c from which distortion has been removed are stored.
[0050]
Then, the process proceeds to S8 in FIG. 2, and a tracking process is performed. The tracking process determines, for example, at which position the vehicle 11 stored as a vehicle image exists by matching an image of the vehicle 11 currently traveling in the monitoring target section with a previously stored vehicle image. It is processing to do. In addition, about the vehicles 11a-11c memorize | stored as a vehicle image in S7, a tracking process is performed when they move and the next position data is obtained.
[0051]
Thereafter, in S9, the vehicle image stored at the position of the vehicle 11 is pasted. Thereby, the vehicle image memorize | stored in the position of the vehicle 11 will be displayed. In addition, regarding the vehicles 11a to 11c stored as vehicle images in S7, when they are later moved to other positions, the vehicle images are pasted to the movement positions.
[0052]
Then, the process proceeds to S10 and background correction processing is performed. The background correction process is a process for correcting the background image in accordance with the correction of the vehicle image. For example, in the case of the vehicle 11c shown in FIG. 9, the background part in the area | region 50 which the vehicle 11c before correction | amendment occupied was correct | amended. This is because if only the vehicle image is corrected and the background image is not corrected, the background image will feel uncomfortable when the image is displayed.
[0053]
Thereafter, the image data obtained through the series of processes is transmitted to the control center 6 and displayed as an image on the monitor 61 of the control center 6. In addition, a series of processes in FIG. 2 are repeatedly performed at predetermined time intervals.
[0054]
As described above, according to the present embodiment, since the vehicle 11 is detected based on the composite image 40 synthesized so that the road 10 is continuous in the vehicle traveling direction, vehicle detection is performed on one wide image. Will be done. For this reason, even if the vehicle 11 is present at the joint of the imaging region, there is no joint in the composite image 40 itself, and it becomes difficult to track the vehicle due to the joint of the image itself in the tracking process performed after vehicle detection. There is no. Therefore, tracking of the vehicle 11 can be facilitated.
[0055]
In addition, since the composite image 40 looks like the road 10 is viewed from directly above, it is possible to provide an image that is easy for a supervisor or the like to see.
[0056]
Moreover, since the stored vehicle image is displayed at the vehicle movement position, it is not necessary to correct the vehicle image every time the vehicle 11 is detected. For this reason, processing can be performed quickly.
[0057]
Further, inconsistency with the background image generated during the correction of the vehicle image is eliminated. Therefore, it is possible to remove the sense of incongruity due to the correction of the vehicle image during display.
[0058]
Further, since the sampling points 31 in the divided area 30 are set in a grid pattern along the vehicle traveling direction and the road crossing direction of the road 10, the sampling points 31 are also deformed along with the extraction. The deformation process is unnecessary.
[0059]
Moreover, according to this embodiment, since each division area 30 is set without overlapping, it can synthesize | combine easily, without considering an overlapping part.
[0060]
As mentioned above, although the invention made | formed by this inventor was concretely demonstrated based on embodiment, this invention is not limited to the said embodiment. For example, when vehicle detection is not accurately performed in the vehicle detection process, the vehicle may be processed as one of the background images to display an uncorrected vehicle image. It is also possible to predict the position of the vehicle that has not been detected based on the past motion vector and the movements of the preceding and following vehicles, and display a vehicle image that is corrected and stored at that position. Furthermore, at least two surveillance cameras 2 may be provided for each area in order to capture each area of the road 10. In this case, since each area of the road 10 is photographed from two or more surveillance cameras 2 at different angles, for example, it is possible to detect a normal vehicle hidden behind a shadow such as a large vehicle. Therefore, the detection accuracy of the vehicle 11 can be improved.
[0061]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide an image processing apparatus, an image processing method, and a vehicle monitoring system that can easily track a vehicle.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a vehicle monitoring system according to an embodiment.
FIG. 2 is a flowchart showing processing of the image processing apparatus shown in FIG.
FIG. 3 is a diagram illustrating an example of a modified image.
FIG. 4 is a diagram illustrating an example of a divided region.
FIG. 5 is a schematic explanatory diagram of sampling points set in a divided region.
6 is a diagram showing a state of sampling points set in the divided area shown in FIG. 4. FIG.
FIG. 7 is a diagram illustrating an example of a composite image obtained by combining roads in a horizontal direction.
FIG. 8 is a diagram illustrating an example when a vehicle is displayed without performing vehicle correction processing;
FIG. 9 is a diagram illustrating an example when a vehicle is displayed by performing a vehicle correction process.
FIG. 10 is a diagram illustrating an example of a conventional vehicle tracking process.
[Explanation of symbols]
2 ... surveillance camera, 5 ... image processing device, 7 ... vehicle height sensor, 10 ... road, 11 ... vehicle, 20 ... converted image, 30 ... divided region, 31 ... sampling point, 32 ... divided image, 40 ... composite image, 61. Monitor.

Claims (6)

道路の車両走行方向に沿って複数設置される撮影手段によって前記道路を連続的に撮影して得られる複数の映像信号を入力し、それらの映像信号をA/D変換するA/D変換手段と、
前記A/D変換手段によりA/D変換して得られる変換画像について前記道路を前記車両走行方向に分割してなる分割領域を設定し、各分割領域における分割画像を抽出する抽出手段と、
前記抽出手段により抽出された前記分割画像を前記道路が前記車両走行方向に連続するように合成する合成手段と、
前記合成手段により合成された合成画像に基づいて前記車両を検出する車両検出手段と、
を備えて構成され、
前記合成手段は、前記合成画像において前記道路が縦方向または横方向に向くように、合成を行い、
前記車両検出手段により検出された前記車両が前記合成画像から新たに検出されたものである場合、その車両の車両画像を補正して記憶し、
前記車両の移動に応じて、補正した車両画像をその移動位置に表示させること、
を特徴とする画像処理装置。
A / D conversion means for inputting a plurality of video signals obtained by continuously photographing the road by a plurality of imaging means installed along the vehicle traveling direction of the road, and A / D converting the video signals; ,
Extracting means for setting a divided area obtained by dividing the road in the vehicle traveling direction with respect to the converted image obtained by A / D conversion by the A / D converting means, and extracting a divided image in each divided area;
Synthesizing means for synthesizing the divided images extracted by the extracting means so that the road is continuous in the vehicle traveling direction;
Vehicle detection means for detecting the vehicle based on the composite image synthesized by the synthesis means;
Configured with
The synthesizing unit performs synthesis so that the road is directed in a vertical direction or a horizontal direction in the composite image,
If the vehicle detected by the vehicle detection means is newly detected from the composite image, the vehicle image of the vehicle is corrected and stored,
Displaying the corrected vehicle image at the movement position according to the movement of the vehicle;
An image processing apparatus.
前記車両画像の補正に応じて、背景画像を補正することを特徴とする請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein a background image is corrected according to the correction of the vehicle image. 道路の車両走行方向に沿って複数設置される撮影手段によって前記道路を連続的に撮影して得られる複数の映像信号を入力し、それらの映像信号をA/D変換するA/D変換工程と、
前記A/D変換工程によりA/D変換して得られる変換画像について前記道路を前記車両走行方向に分割してなる分割領域を設定し、各分割領域における分割画像を抽出する抽出工程と、
前記抽出工程により抽出された前記分割画像を前記道路が前記車両走行方向に連続するように合成する合成工程と、
前記合成工程により合成された合成画像に基づいて前記車両を検出する車両検出工程と、
を備えて構成され、
前記合成工程は、前記合成画像において前記道路が縦方向または横方向に向くように、合成を行い、
前記車両検出工程により検出された前記車両が前記合成画像から新たに検出されたものである場合、その車両の車両画像を補正して記憶し、前記車両の移動に応じて補正した車両画像をその移動位置に表示させること、
を特徴とする画像処理方法。
An A / D conversion step of inputting a plurality of video signals obtained by continuously shooting the road by a plurality of imaging means installed along the vehicle traveling direction of the road, and A / D converting the video signals; ,
An extraction step of setting a divided region obtained by dividing the road in the vehicle traveling direction with respect to the converted image obtained by A / D conversion in the A / D conversion step, and extracting a divided image in each divided region;
A synthesis step of synthesizing the divided images extracted in the extraction step so that the road is continuous in the vehicle traveling direction;
A vehicle detection step of detecting the vehicle based on the combined image combined by the combining step;
Configured with
The synthesizing step performs synthesis so that the road is directed in the vertical direction or the horizontal direction in the composite image,
When the vehicle detected by the vehicle detection step is newly detected from the composite image, the vehicle image of the vehicle is corrected and stored, and the vehicle image corrected according to the movement of the vehicle is stored. Displaying it at the moving position,
An image processing method characterized by the above.
道路の車両走行方向に沿って複数設置される撮影手段と、
請求項1に記載の画像処理装置と、
を備えることを特徴とする車両監視システム。
A plurality of photographing means installed along the road vehicle traveling direction;
An image processing apparatus according to claim 1;
A vehicle monitoring system comprising:
前記撮影手段は、前記道路の各領域を撮影するために領域毎に少なくとも2以上設けられていることを特徴とする請求項4に記載の車両監視システム。  5. The vehicle monitoring system according to claim 4, wherein at least two of the photographing units are provided for each region in order to photograph each region of the road. 前記画像処理装置からの画像データを画像として表示する表示手段を更に備えることを特徴とする請求項4又は5に記載の車両監視システム。  The vehicle monitoring system according to claim 4, further comprising display means for displaying image data from the image processing apparatus as an image.
JP2002211244A 2002-07-19 2002-07-19 Image processing apparatus, image processing method, and vehicle monitoring system Expired - Fee Related JP3788400B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002211244A JP3788400B2 (en) 2002-07-19 2002-07-19 Image processing apparatus, image processing method, and vehicle monitoring system
CNB031550096A CN1320513C (en) 2002-07-19 2003-07-18 Image procesisng device, image processing method and vehicle monitoring system
SG200304023A SG110061A1 (en) 2002-07-19 2003-07-18 Image processing device, image processing method and vehicle monitoring system
HK04103614A HK1060582A1 (en) 2002-07-19 2004-05-21 Image processing device, image processing method and vehicle monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002211244A JP3788400B2 (en) 2002-07-19 2002-07-19 Image processing apparatus, image processing method, and vehicle monitoring system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006012978A Division JP2006197614A (en) 2006-01-20 2006-01-20 Image processor, image processing method and vehicle monitoring system

Publications (2)

Publication Number Publication Date
JP2004056497A JP2004056497A (en) 2004-02-19
JP3788400B2 true JP3788400B2 (en) 2006-06-21

Family

ID=31934535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002211244A Expired - Fee Related JP3788400B2 (en) 2002-07-19 2002-07-19 Image processing apparatus, image processing method, and vehicle monitoring system

Country Status (4)

Country Link
JP (1) JP3788400B2 (en)
CN (1) CN1320513C (en)
HK (1) HK1060582A1 (en)
SG (1) SG110061A1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3833241B2 (en) 2004-06-15 2006-10-11 松下電器産業株式会社 Monitoring device
CN101261681B (en) * 2008-03-31 2011-07-20 北京中星微电子有限公司 Road image extraction method and device in intelligent video monitoring
JP5187139B2 (en) 2008-10-30 2013-04-24 セイコーエプソン株式会社 Image processing apparatus and program
US8495601B2 (en) * 2010-06-09 2013-07-23 Lear Corporation Shared memory architecture
CN102322800B (en) * 2011-05-31 2013-04-03 南京信息工程大学 Detecting method for maximal transverse oscillating quantity of combination vehicle based on machine vision and GPS (Global Positioning System)
CN103029621B (en) * 2011-09-30 2016-04-06 株式会社理光 Detect the method and apparatus of front vehicles
US8760513B2 (en) * 2011-09-30 2014-06-24 Siemens Industry, Inc. Methods and system for stabilizing live video in the presence of long-term image drift
JP5892254B2 (en) * 2012-08-31 2016-03-23 富士通株式会社 Image processing apparatus, image processing method, and image processing program
CN103096043B (en) * 2013-02-21 2015-08-05 安徽大学 Mine safety monitoring method based on parallel video splicing technology
CN103473931B (en) * 2013-07-08 2015-09-09 姜廷顺 The system and method for quick confirmation road traffic accident escape vehicle identity
KR101665961B1 (en) * 2016-04-08 2016-10-14 렉스젠(주) Apparatus for providing image of vehicle and method thereof
CN111275983B (en) * 2020-02-14 2022-11-01 阿波罗智联(北京)科技有限公司 Vehicle tracking method, device, electronic equipment and computer-readable storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231753A (en) * 1989-05-05 1990-11-21 Golden River Ltd Traffic incident monitoring with vido cameras
NL9300671A (en) * 1993-04-20 1994-11-16 Gatsometer Bv Method and device for electronically recording an event, for example a traffic violation.
SE502679C2 (en) * 1993-05-28 1995-12-04 Saab Scania Combitech Ab Method and apparatus for recording the movement of a vehicle on a ground
KR100201739B1 (en) * 1995-05-18 1999-06-15 타테이시 요시오 Method for observing an object, apparatus for observing an object using said method, apparatus for measuring traffic flow and apparatus for observing a parking lot
FR2781744B1 (en) * 1998-07-30 2002-11-29 Alstom Technology ANTI-COLLISION SYSTEM FOR LEVELING
CN1351317A (en) * 2000-10-27 2002-05-29 新鼎系统股份有限公司 Image detecting system and method

Also Published As

Publication number Publication date
CN1320513C (en) 2007-06-06
CN1489120A (en) 2004-04-14
HK1060582A1 (en) 2004-08-13
SG110061A1 (en) 2005-04-28
JP2004056497A (en) 2004-02-19

Similar Documents

Publication Publication Date Title
JP4193886B2 (en) Image display device
JP4748082B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP3788400B2 (en) Image processing apparatus, image processing method, and vehicle monitoring system
JP3156817B2 (en) Vehicle periphery monitoring device
US20020041698A1 (en) Object detecting method and object detecting apparatus and intruding object monitoring apparatus employing the object detecting method
JP2012105158A (en) Combination vehicle birds-eye-view display system
JP2002335524A (en) Driving support device
JP2003134508A (en) Information providing device for vehicle
JP3847547B2 (en) Vehicle periphery monitoring support device
KR20140048539A (en) Method and apparatus for recognizing object using surrounding image of vehicle
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP2008048094A (en) Video display device for vehicle, and display method of video images in vicinity of the vehicle
JP6960827B2 (en) Road surface area detector
JP3467774B2 (en) Image processing apparatus, image processing method, and vehicle monitoring system
JPH08172620A (en) Image input means for vehicle
JP2006197614A (en) Image processor, image processing method and vehicle monitoring system
JP3601392B2 (en) Image processing apparatus, image processing method, and vehicle monitoring system
JPH0757200A (en) Method and device for recognizing travel course
JPH07195978A (en) Vehicle surroundings display unit
JP2003259359A (en) Apparatus and method for monitoring surrounding of vehicle
JP2966683B2 (en) Obstacle detection device for vehicles
JP2004220102A (en) Image processing device and method and vehicle monitoring system
JP2635232B2 (en) Inter-vehicle distance detection device
JP2735033B2 (en) Lane change detection apparatus and method
JPH0417099A (en) Traffic flow measuring picture processor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050816

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060120

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060320

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees