JP2004056497A - Image processing apparatus and method therefor, and vehicle supervision system - Google Patents

Image processing apparatus and method therefor, and vehicle supervision system Download PDF

Info

Publication number
JP2004056497A
JP2004056497A JP2002211244A JP2002211244A JP2004056497A JP 2004056497 A JP2004056497 A JP 2004056497A JP 2002211244 A JP2002211244 A JP 2002211244A JP 2002211244 A JP2002211244 A JP 2002211244A JP 2004056497 A JP2004056497 A JP 2004056497A
Authority
JP
Japan
Prior art keywords
vehicle
image
road
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002211244A
Other languages
Japanese (ja)
Other versions
JP3788400B2 (en
Inventor
Takeshi Iwamoto
岩本 健
Yoshiyuki Ito
井藤 義行
Nobuaki Miura
三浦 伸明
Kunihiko Suzuki
鈴木 邦彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2002211244A priority Critical patent/JP3788400B2/en
Priority to SG200304023A priority patent/SG110061A1/en
Priority to CNB031550096A priority patent/CN1320513C/en
Publication of JP2004056497A publication Critical patent/JP2004056497A/en
Priority to HK04103614A priority patent/HK1060582A1/en
Application granted granted Critical
Publication of JP3788400B2 publication Critical patent/JP3788400B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and method therefor, and vehicle supervision system, enabling easy tracing of a vehicle. <P>SOLUTION: An image processing apparatus 5 acquires converted images which are analog-to-digital converted from video signals obtained by a plurality of supervisory cameras 2 installed along the vehicle movement direction of a road 10. Thereafter, the image processing apparatus 5 sets division areas with regard to the deformed images, and obtains divided images based on predetermined sampling points. The image processing apparatus 5 synthesizes these divided images so that the road 10 becomes continued, and obtains a synthesized image. Vehicles are detected based on the synthesized image. Thereafter, vehicle trace processing is performed, and after a vehicle image and background image is corrected, an image data output from the image processing apparatus 5 is displayed on a monitor 61. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、交通監視などに用いられる画像処理装置、画像処理方法及び車両監視システムに関するものである。
【0002】
【従来の技術】
従来、例えば、高速道路や一般道などの監視対象区間を複数の撮影領域に分け、複数の撮影領域毎にカメラを設置し、撮影された映像信号に基づいて画像処理して自動的に車両を検出する画像処理装置が知られている。この画像処理装置では、複数の撮影領域毎に車両検出を行っており、特定の車両を複数の撮影領域に渡って追跡するために、IDや車両画像の転送等を行っている。
【0003】
【発明が解決しようとする課題】
しかし、従来の画像処理装置では、依然として複数の撮影領域に渡って特定の車両を追跡することが困難である。図10を参照して説明する。先ず、時刻tにおいてPの位置に存在する特定の車両100が進行し時刻tにおいてPの位置まで移動するとする。従来の画像処理装置では、例えば、時刻tにおいて特定の車両100の車両画像を記憶し、その後、時刻がtに達すると車両の検出を行う。そして、検出された車両の画像と記憶された車両画像とをテンプレートマッチング等することにより特定の車両100がPの位置に移動したと判断する。このようにして、従来の画像処理装置では車両の追跡を行っている。
【0004】
次に特定の車両100がPの位置に移動したとする。このとき、画像処理装置は、特定の車両100がPの位置に移動したときと同様にテンプレートマッチング等を行う。しかし、Pの位置では特定の車両100は第1及び第2の撮影領域300a,300bに跨がっており、テンプレートマッチング等を行ったとしても特定の車両100である否かを判断することが難くなっている。このため、画像処理装置は、ID等を第2の撮影領域300b側に転送したとしても車両100にID等を付与することが難しく、車両を追跡することが困難となっている。
【0005】
本発明は、上記問題点を解消する為になされたものであり、車両の追跡が容易な画像処理装置、画像処理方法および車両監視システムを提供することを目的とする。
【0006】
【課題を解決するための手段】
このような目的を達成するために、本発明に係る画像処理装置は、道路の車両走行方向に沿って複数設置される撮影手段によって道路を連続的に撮影して得られる複数の映像信号を入力し、それらの映像信号をA/D変換するA/D変換手段と、A/D変換手段によりA/D変換して得られる変換画像について道路を車両走行方向に分割してなる分割領域を設定し、各分割領域における分割画像を抽出する抽出手段と、抽出手段により抽出される分割画像を道路が車両走行方向に連続するように合成する合成手段と、合成手段により合成された合成画像に基づいて車両を検出する車両検出手段とを備えて構成されている。
【0007】
また、本発明に係る画像処理方法は、道路の車両走行方向に沿って複数設置される撮影手段によって道路を連続的に撮影して得られる複数の映像信号を入力し、それらの映像信号をA/D変換するA/D変換工程と、A/D変換工程によりA/D変換して得られる変換画像について道路を車両走行方向に分割してなる分割領域を設定し、各分割領域における分割画像を抽出する抽出工程と、抽出工程により抽出される分割画像を道路が車両走行方向に連続するように合成する合成工程と、合成工程により合成された合成画像に基づいて車両を検出する車両検出工程とを備えて構成されている。
【0008】
また、本発明に係る車両監視システムは、道路の車両走行方向に沿って複数設置される撮影手段と、上記の画像処理装置とを備えて構成されている。
【0009】
また、本発明に係る車両監視システムでは、画像処理装置からの画像データを画像として表示する表示手段を更に備えることを特徴とする。
【0010】
これらの発明によれば、道路が車両走行方向に連続するように合成された合成画像に基づいて車両の検出が行われるので、1つの広い画像に対し車両検出を行うこととなる。このため、撮影領域のつなぎ目に車両が存在していたとしても、合成画像自体につなぎ目は存在せず、車両検出後に行われる追跡処理において画像自体のつなぎ目によって車両の追跡が困難となることがない。従って、車両の追跡を容易にすることができる。
【0011】
また、本発明に係る画像処理装置では、合成手段は、合成画像において道路が縦方向または横方向に向くように、合成を行うことを特徴とする。
【0012】
また、本発明に係る画像処理方法は、合成工程は、合成画像において道路が縦方向または横方向に向くように、合成を行うことを特徴とする。
【0013】
これらの場合には、合成画像は道路を真上から眺めたようなものとなるため、監視者等にとって見やすい画像を提供することが可能となる。
【0014】
また、本発明に係る画像処理装置では、車両検出手段により検出された車両が合成画像から新たに検出されたものである場合、その車両の車両画像を補正して記憶し、車両の移動に応じて、補正した車両画像をその移動位置に表示させること、を特徴とする。
【0015】
また、本発明に係る画像処理方法では、車両検出工程により検出された車両が合成画像から新たに検出されたものである場合、その車両の車両画像を補正して記憶し、車両の移動に応じて、補正した車両画像をその移動位置に表示させること、を特徴とする。
【0016】
これらの場合には、記憶された車両画像を車両移動位置に表示するので、車両が検出されるごとに車両画像の補正を行う必要がない。このため、処理が迅速に行えるようになる。
【0017】
また、本発明に係る画像処理装置は、車両画像の補正に応じて、背景画像を補正することを特徴とする。
【0018】
また、本発明に係る画像処理方法は、車両画像の補正に応じて、背景画像を補正することを特徴とする。
【0019】
これらの場合には、車両画像の補正の際に生じた背景画像との不整合等が解消されることとなる。従って、表示の際に、車両画像の補正による違和感を除去することができる。
【0020】
また、本発明に係る車両監視システムでは、撮影手段は、道路の各領域を撮影するために領域毎に少なくとも2以上設けられていることを特徴とする。
【0021】
この場合には、道路の各領域を2以上の撮影手段により異なる角度から撮影することとなるため、例えば、大型車等の影に隠れてしまう普通車を検出することが可能となる。従って、車両の検出精度を向上させることができる。
【0022】
【発明の実施の形態】
以下、添付図面に基づき、本発明の実施形態について説明する。尚、各図において同一要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明のものと必ずしも一致していない。
【0023】
実施形態に係る画像処理装置、画像処理方法及び車両監視システムについて説明する。
【0024】
図1に本実施形態に係る車両監視システムの構成図を示す。図1に示すように、車両監視システムは、道路の交通状態を監視するシステムであり、例えば、トンネル1における交通異常などを検出するシステムに用いられる。車両監視システムは、複数の監視カメラ2を備えている。
【0025】
監視カメラ2は、道路10の車両走行方向に沿って複数設置される撮影手段であり、トンネル1内の道路10を走行する車両11を撮影するものである。これら監視カメラ2は、トンネル1内に一定の間隔で設置され、道路10を連続的に撮影するようになっている。監視カメラ2の設置間隔は、例えば、約150〜200mとされている。
【0026】
例えば、監視カメラ2は、トンネル1内の上方に設置され、道路10を走行する車両11を前方又は後方の斜め上方から撮影する。なお、監視カメラ2はすべてが上方に設置されていなくともよく、監視対象区域の入口に存在する監視カメラ2が上方に設置され、他の監視カメラ2が側方に設置されていても良い。
【0027】
各監視カメラ2は、分配器3に接続されている。分配器3は、トンネル1付近に建造される施設4内に設置されており、各監視カメラ2の撮影映像を入力して画像処理装置5に出力する。
【0028】
画像処理装置5は、監視カメラ2の映像を入力して画像処理するものであり、その画像処理した画像を管制センタ6へ伝送する。画像処理装置5は、例えば、A/D(analogue−to−digital)変換器、ビデオフレームメモリ、画像処理プロセッサ及び信号出力インターフェースを備えて構成される。
【0029】
A/D変換器は、監視カメラ2の映像信号を入力し、それら映像信号をA/D変換するA/D変換手段であり、例えば、ビデオA−Dコンバータなどが用いられる。ビデオフレームメモリは、変換された複数領域の画像データを記憶するものである。画像データは、x軸、y軸の座標点ごとに濃淡値や色信号を持つ画素の集合であり、その画素の濃淡は例えば8ビットの256階調とされる。
【0030】
画像処理プロセッサは、ビデオフレームメモリに記憶された画像データを画像処理するものである。また、信号出力インターフェースは、画像処理した画像データを外部へ出力するためのものである。
【0031】
管制センタ6では、画像処理装置5から伝送される画像データがモニタ61に入力され、そのモニタ61を通じてトンネル1内の撮影画像が表示される。この画像を通じて、トンネル1内の車両の走行状態を監視員が目視にて監視することができる。モニタ61は、画像処理装置5からの画像データを画像として表示する表示手段であり、望ましくは横長又は縦長な表示領域を有するものが用いられ、例えばプロジェクタが用いられる。
【0032】
トンネル1内には、車高センサ7が設けられている場合がある。車高センサ7は、車両11の車高を検出する車高検出手段であり、道路10の上方に設置される。車高センサ7としては、例えば、超音波感知器が用いられる。超音波感知器は、車両11に対し上方から超音波を発し車両11で反射した反射波を検出して車両11の上端位置を検出するものである。
【0033】
車高センサ7は、車両監視システムにおける監視対象区間の入口に設置され、例えば、監視対象区間に合流路などがない場合には、監視対象区間の入口にのみ設置される。
【0034】
なお、車高センサ7としては、2つの撮影カメラを用いステレオ化画像処理を行うもの、レーザ式測距計又は電波式測距計などを用いてもよく、道路10を走行する車両11の車高を検出できるものであれば、超音波感知器以外のものであってもよい。
【0035】
次に、車両監視システム及び画像処理装置5の動作について説明する。
【0036】
図1において、監視カメラ2により道路10を走行する車両11が撮影され、各監視カメラ2から映像信号が分配器3に入力される。分配器3では監視カメラ2の映像信号を適宜画像処理装置5に入力する。
【0037】
一方、車高センサ7が設けられている場合には、車高センサ7により道路10を走行する車両11の車高が検出され、その検出信号が画像処理装置5に入力される。そして、画像処理装置5により映像信号の画像処理が行われる。
【0038】
図2に画像処理装置5における画像処理のフローチャートを示す。
【0039】
図2のS1に示すように、画像処理装置5に入力された各映像信号がA/D変換される。A/D変換は映像信号のアナログ画像をデジタル画像に変換する処理であり、変換後の変換画像データはビデオフレームメモリに記憶される。変換画像は、例えば、図3に示すように、監視カメラ2の位置から道路10を眺めたときの画像そのものである。この変換画像20には、道路10上を走行する各車両11a〜11cが斜め後方から撮影されている。
【0040】
A/D変換後、処理は図2のS2に移行し、抽出処理が行われる。抽出処理は、A/D変換された各変換画像について道路10を車両走行方向に分割してなる分割領域を設定し、各分割領域における分割画像を抽出する処理である。図4のように、分割領域30は、道路10を車両走行方向に沿って所定の長さで分割して設定されている。また、分割領域30は、各監視カメラ2の変換画像毎に1つずつ設定される。そして、各分割領域30は、図5に示すように、それぞれが重なり合うことなく設定されている。なお、各分割領域30は、必ずしも重なり合うことなく設定されている必要は無く、重なり合っていたとしても後の処理において重なり部分をカットすればよい。以下の説明については、各分割領域30が重なり合うことなく設定されているものとして説明する。
【0041】
分割画像は、分割領域30内に予め設定されたサンプリング点の画素データを抽出して形成される。図6は、分割領域30に設定されるサンプリング点の概要説明図である。図6に示すように、サンプリング点31は、道路10の車両進行方向および道路横断方向のそれぞれの方向に沿って格子状に配列して設定される。このようにサンプリング点31を設定することにより、サンプリング点31における画素データを、車両走行方向と道路横断方向とを直交させた座標系の画素データとして配置するだけで、道路10を平面視した画像を容易に作成できる。
【0042】
分割画像抽出後、処理は図2のS3に移行し、合成処理が行われる。合成処理は、抽出処理により抽出された分割画像を道路10が車両走行方向に連続するように合成する処理である。また、ここでは、合成画像において道路10が縦方向または横方向に向くように、合成が行われる。
【0043】
道路10を横方向に向けて合成した合成画像の例を図7に示す。合成画像40は、各分割領域30の分割画像を車両走行方向に連結して1つの画像としたものである。例えば、合成画像40は、各々異なる映像信号に基づいて作成された各分割画像の画素データを同一座標系の画素データとして設定し表したものである。合成画像データは、各分割画像データを1つのメモリに格納して構成することが望ましい。なお、各分割領域30はそれぞれが重なり合うことなく設定されているので、ここでの合成処理では、重複部分を考慮することなく容易に合成が行える。
【0044】
また、図7に示すように、合成画像40は、道路10を真上から眺めたようになっている。このような合成画像40を得るためには、図4に示す分割領域30を合成するだけでなく、演算により各分割領域30を真上から眺めたように変形する必要がある。しかしながら、本実施形態では、サンプリング点31を図6に示すように設定しているので、抽出と共に変形も行われていることとなり、変形処理が不要となっている。
【0045】
合成後、図2のS4に移行し、合成処理により合成された合成画像に基づいて車両11を検出する車両検出処理が行われる。車両検出処理は、例えば、予め画像処理装置5が備えている背景画像と合成画像40と比較する背景差分方式により行われる。
【0046】
そして、S5に移行し、車両検出処理により検出された車両11が合成画像から新たに検出されたものであるか否かが判断される。検出された車両11が合成画像から新たに検出されたものでないと判断された場合、処理はS8に移行する。一方、車両11が合成画像から新たに検出されたものであると判断された場合、処理はS6に移行する。なお、監視対象区間に合流がない限り、車両11は、合成画像のうち監視対象区間の入口付近で新たに検出される。このため、入口に設けられた監視カメラ2からのデータのみに基づいて新たに監視対象区間に進入した車両11を検出するようにしてもよい。また、監視対象区間に合流がある場合、入口及び合流ポイントに設置された監視カメラ2からのデータのみに基づいて新たな車両11を検出するようにしてもよい。
【0047】
S6では、新たに検出された車両11の車両画像を車高に応じて補正する車両補正処理が行われる。ここでの補正を行わない場合、車両11は図8に示すようになってしまう。図8に示すように、撮影位置から遠い場所を走行する車両11b、11cは、撮影位置から近い場所を走行する車両11aと比較すると、歪みが大きくなる傾向がある。特に、車高の高いトラックなどの車両11cの歪みは大きい。
【0048】
このため、図2のS6の処理において補正が行われている。車両補正処理は、例えば、車高センサ7が検出した車高データに基づいて行われ、車両11の車高が高いほど車両11の車高を低くするように行われる。このように車両補正処理を行うことにより、図8に示す各車両11a〜11cが図9に示すように補正される。
【0049】
補正後、処理はS7に移行する。S7では、補正された車両画像が記憶される。すなわち、図9に示すように、歪が除去された各車両11a〜11cの車両画像が記憶される。
【0050】
そして、処理は図2のS8に移行し、追跡処理が行われる。追跡処理は、例えば、現在監視対象区間を走行している車両11の画像と以前に記憶した車両画像とをマッチングさせることにより、車両画像として記憶された車両11がどの位置に存在するかを判断する処理である。なお、S7において車両画像として記憶された車両11a〜11cに関しては、それらが移動し次回の位置データが得られたときに追跡処理が行われる。
【0051】
その後、S9において、車両11の位置に記憶されていた車両画像が貼り付けられる。これにより、車両11の位置に記憶されていた車両画像が表示されることとなる。なお、S7において車両画像として記憶された車両11a〜11cに関しては、それらが後に他の位置に移動した場合に、その移動位置に車両画像が貼り付けられる。
【0052】
そして、S10に移行し、背景補正処理が行われる。背景補正処理は、車両画像の補正に応じて背景画像を補正する処理である。例えば、図9に示す車両11cの場合、補正前の車両11cが占めていた領域50内における背景部分が補正される。これは、車両画像のみを補正し背景画像を補正しないと、画像を表示した際に背景画像に違和感が生じてしまうからである。
【0053】
その後、これらの一連の処理を経て得られた画像データが管制センタ6に伝送され、管制センタ6のモニタ61に画像として表示される。また、図2における一連の処理は所定時間間隔で繰り返し行われる。
【0054】
以上のように、本実施形態によれば、道路10が車両走行方向に連続するように合成された合成画像40に基づいて車両11の検出が行われるので、1つの広い画像に対し車両検出を行うこととなる。このため、撮影領域のつなぎ目に車両11が存在していたとしても、合成画像40自体につなぎ目は存在せず、車両検出後に行われる追跡処理において画像自体のつなぎ目によって車両の追跡が困難となることがない。従って、車両11の追跡を容易にすることができる。
【0055】
また、合成画像40は道路10を真上から眺めたようなものとなるため、監視者等にとって見やすい画像を提供することが可能となる。
【0056】
また、記憶された車両画像が車両移動位置に表示させるので、車両11が検出されるごとに車両画像の補正を行う必要がない。このため、処理が迅速に行えるようになる。
【0057】
また、車両画像の補正の際に生じた背景画像との不整合等が解消されることとなる。従って、表示の際に、車両画像の補正による違和感を除去することができる。
【0058】
また、分割領域30内のサンプリング点31は、道路10の車両進行方向および道路横断方向のそれぞれの方向に沿って格子状に配列して設定されるので、抽出と共に変形も行われていることとなり、変形処理が不要となっている。
【0059】
また、本実施形態によれば、各分割領域30はそれぞれが重なり合うことなく設定されているので、重複部分を考慮することなく容易に合成することができる。
【0060】
以上、本発明者によってなされた発明を実施形態に基づき具体的に説明したが、本発明は上記実施形態に限定されるものではない。例えば、車両検出処理において車両の検出が正確に行われなかった場合、その車両を背景画像の1つとして処理して、補正されていない車両画像を表示させるようにしてもよいし、その車両の過去の動きベクトル及び前後の車両の動きを元に検出されなかった車両の位置を予測し、その位置に補正され記憶された車両画像を表示させてもよい。さらには、監視カメラ2は、道路10の各領域を撮影するために領域毎に少なくとも2以上設けられていてもよい。この場合、道路10の各領域を2以上の監視カメラ2により異なる角度から撮影することとなるため、例えば、大型車等の影に隠れてしまう普通車を検出することが可能となる。従って、車両11の検出精度を向上させることができる。
【0061】
【発明の効果】
以上詳細に説明したように本発明によれば、車両の追跡が容易な画像処理装置、画像処理方法および車両監視システムを提供することができる。
【図面の簡単な説明】
【図1】本実施形態に係る車両監視システムの構成図である。
【図2】図1に示す画像処理装置の処理を示すフローチャートである。
【図3】変形画像の一例を示す図である。
【図4】分割領域の一例を示す図である。
【図5】分割領域に設定されるサンプリング点の概要説明図である。
【図6】図4に示す分割領域に設定されるサンプリング点の様子を示す図である。
【図7】道路を横方向に向けて合成した合成画像の例を示す図である。
【図8】車両補正処理を行わずに車両を表示した場合の例を示す図である。
【図9】車両補正処理を行って車両を表示した場合の例を示す図である。
【図10】従来の車両追跡処理の一例を説明する図である。
【符号の説明】
2…監視カメラ、5…画像処理装置、7…車高センサ、10…道路、11…車両、20…変換画像、30…分割領域、31…サンプリング点、32…分割画像、40…合成画像、61…モニタ。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing device, an image processing method, and a vehicle monitoring system used for traffic monitoring and the like.
[0002]
[Prior art]
Conventionally, for example, a monitoring target section such as an expressway or a general road is divided into a plurality of photographing areas, a camera is installed for each of the plurality of photographing areas, and image processing is performed based on a photographed video signal to automatically start a vehicle. An image processing device for detecting is known. In this image processing apparatus, vehicle detection is performed for each of a plurality of photographing regions, and an ID and a vehicle image are transferred in order to track a specific vehicle over the plurality of photographing regions.
[0003]
[Problems to be solved by the invention]
However, with the conventional image processing apparatus, it is still difficult to track a specific vehicle over a plurality of photographing areas. This will be described with reference to FIG. First, the particular vehicle 100 at the position of P 1 at time t 1 is moved at time t 2 proceeds to the position of P 2. In the conventional image processing apparatus, for example, stores vehicle image of particular vehicle 100 at time t 1, then the detection of the vehicle when the time reaches t 2. The particular vehicle 100 is determined to have moved to the position of P 2 by the detected template matching or the like and an image with a stored vehicle image of the vehicle. In this manner, the conventional image processing apparatus tracks the vehicle.
[0004]
Then particular vehicle 100 has moved to the position of P 3. In this case, the image processing apparatus performs the template matching or the like as in the case where a specific vehicle 100 has moved to the position of P 2. However, the particular vehicle 100 at the position of P 3 and extends over the first and second imaging regions 300a, 300b, to determine whether a particular vehicle 100 even when subjected to template matching, etc. Has become difficult. For this reason, it is difficult for the image processing apparatus to assign the ID or the like to the vehicle 100 even if the ID or the like is transferred to the second imaging area 300b, and it is difficult to track the vehicle.
[0005]
SUMMARY An advantage of some aspects of the invention is to provide an image processing apparatus, an image processing method, and a vehicle monitoring system that can easily track a vehicle.
[0006]
[Means for Solving the Problems]
In order to achieve such an object, an image processing apparatus according to the present invention receives a plurality of video signals obtained by continuously photographing a road by a plurality of photographing means installed along a vehicle traveling direction on the road. A / D conversion means for A / D converting the video signals, and a divided area obtained by dividing the road in the vehicle traveling direction with respect to a converted image obtained by A / D conversion by the A / D conversion means are set. Extracting means for extracting a divided image in each divided region; synthesizing means for synthesizing the divided images extracted by the extracting means so that the road is continuous in the vehicle traveling direction; and a synthesizing image synthesized by the synthesizing means. And a vehicle detecting means for detecting the vehicle.
[0007]
In addition, the image processing method according to the present invention is configured such that a plurality of video signals obtained by continuously photographing a road by a plurality of photographing means installed along a vehicle traveling direction on a road are input, and the video signals are converted to A An A / D conversion step of performing A / D conversion, and a divided area obtained by dividing the road in the vehicle traveling direction with respect to the converted image obtained by the A / D conversion in the A / D conversion step are set. Extraction step, a synthesis step of synthesizing the divided images extracted by the extraction step so that the road is continuous in the vehicle traveling direction, and a vehicle detection step of detecting a vehicle based on the synthesis image synthesized by the synthesis step It is comprised including.
[0008]
Further, a vehicle monitoring system according to the present invention includes a plurality of photographing means installed along a vehicle traveling direction on a road, and the above-described image processing device.
[0009]
Further, the vehicle monitoring system according to the present invention is characterized by further comprising a display means for displaying image data from the image processing device as an image.
[0010]
According to these inventions, the detection of the vehicle is performed based on the synthesized image synthesized so that the road is continuous in the vehicle traveling direction, so that the vehicle detection is performed on one wide image. For this reason, even if a vehicle exists at the joint of the photographing areas, there is no joint in the composite image itself, and tracking of the vehicle does not become difficult due to the joint of the image itself in the tracking processing performed after the vehicle detection. . Therefore, tracking of the vehicle can be facilitated.
[0011]
Further, in the image processing apparatus according to the present invention, the synthesizing unit performs the synthesizing so that the road in the synthesized image is oriented in the vertical direction or the horizontal direction.
[0012]
Further, the image processing method according to the present invention is characterized in that in the combining step, the combining is performed such that the road faces in the vertical direction or the horizontal direction in the combined image.
[0013]
In these cases, the composite image is as viewed from directly above the road, so that it is possible to provide an image that is easy for a monitor or the like to see.
[0014]
Further, in the image processing device according to the present invention, when the vehicle detected by the vehicle detection unit is newly detected from the composite image, the vehicle image of the vehicle is corrected and stored, and the vehicle image is corrected according to the movement of the vehicle. And displaying the corrected vehicle image at the moving position.
[0015]
Also, in the image processing method according to the present invention, when the vehicle detected in the vehicle detection step is newly detected from the composite image, the vehicle image of the vehicle is corrected and stored, and the vehicle image is corrected according to the movement of the vehicle. And displaying the corrected vehicle image at the moving position.
[0016]
In these cases, the stored vehicle image is displayed at the vehicle movement position, so that it is not necessary to correct the vehicle image every time a vehicle is detected. Therefore, the processing can be performed quickly.
[0017]
Further, an image processing apparatus according to the present invention is characterized in that a background image is corrected in accordance with a correction of a vehicle image.
[0018]
Further, an image processing method according to the present invention is characterized in that a background image is corrected according to a correction of a vehicle image.
[0019]
In these cases, the inconsistency with the background image, etc., generated when the vehicle image is corrected is eliminated. Therefore, at the time of display, it is possible to remove a sense of discomfort due to the correction of the vehicle image.
[0020]
Further, in the vehicle monitoring system according to the present invention, at least two or more photographing means are provided for each region for photographing each region of the road.
[0021]
In this case, since each area of the road is photographed from different angles by two or more photographing means, for example, it is possible to detect an ordinary car that is hidden behind a shadow of a large car or the like. Therefore, the detection accuracy of the vehicle can be improved.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In each of the drawings, the same elements are denoted by the same reference numerals, and redundant description will be omitted. Also, the dimensional ratios in the drawings do not always match those described.
[0023]
An image processing device, an image processing method, and a vehicle monitoring system according to an embodiment will be described.
[0024]
FIG. 1 shows a configuration diagram of a vehicle monitoring system according to the present embodiment. As shown in FIG. 1, the vehicle monitoring system is a system that monitors the traffic condition of a road, and is used for a system that detects a traffic abnormality in the tunnel 1, for example. The vehicle monitoring system includes a plurality of monitoring cameras 2.
[0025]
The monitoring camera 2 is a plurality of photographing units installed along the vehicle traveling direction on the road 10, and photographs the vehicle 11 traveling on the road 10 in the tunnel 1. These surveillance cameras 2 are installed at regular intervals in the tunnel 1 so as to continuously photograph the road 10. The installation interval of the monitoring camera 2 is, for example, about 150 to 200 m.
[0026]
For example, the surveillance camera 2 is installed in the upper part of the tunnel 1 and photographs the vehicle 11 traveling on the road 10 from obliquely forward or rearward. Note that not all of the surveillance cameras 2 need be installed above, and the surveillance cameras 2 existing at the entrance of the monitoring target area may be installed above and other surveillance cameras 2 may be installed on the side.
[0027]
Each monitoring camera 2 is connected to a distributor 3. The distributor 3 is installed in a facility 4 built near the tunnel 1, and inputs a captured image of each monitoring camera 2 and outputs the captured image to the image processing device 5.
[0028]
The image processing device 5 receives the image of the surveillance camera 2 and performs image processing, and transmits the processed image to the control center 6. The image processing device 5 includes, for example, an analog-to-digital (A / D) converter, a video frame memory, an image processing processor, and a signal output interface.
[0029]
The A / D converter is an A / D converter for inputting video signals of the monitoring camera 2 and A / D converting the video signals. For example, a video A / D converter is used. The video frame memory stores the converted image data of a plurality of areas. The image data is a set of pixels having a grayscale value and a color signal for each of the x-axis and y-axis coordinate points, and the grayscale of the pixel is, for example, 8-bit 256 gradations.
[0030]
The image processing processor performs image processing on image data stored in the video frame memory. The signal output interface is for outputting image data subjected to image processing to the outside.
[0031]
In the control center 6, the image data transmitted from the image processing device 5 is input to the monitor 61, and the captured image in the tunnel 1 is displayed through the monitor 61. Through this image, the monitoring state of the vehicle in the tunnel 1 can be visually monitored by the observer. The monitor 61 is a display unit that displays image data from the image processing apparatus 5 as an image, and preferably has a horizontally or vertically long display area, for example, a projector.
[0032]
A vehicle height sensor 7 may be provided in the tunnel 1. The vehicle height sensor 7 is a vehicle height detection unit that detects the height of the vehicle 11 and is installed above the road 10. As the vehicle height sensor 7, for example, an ultrasonic sensor is used. The ultrasonic sensor emits ultrasonic waves to the vehicle 11 from above and detects a reflected wave reflected by the vehicle 11 to detect an upper end position of the vehicle 11.
[0033]
The vehicle height sensor 7 is installed at the entrance of the monitoring target section in the vehicle monitoring system. For example, when there is no confluence in the monitoring target section, it is installed only at the entrance of the monitoring target section.
[0034]
As the vehicle height sensor 7, a sensor that performs stereo image processing using two photographing cameras, a laser range finder, a radio range finder, or the like may be used. Any device other than the ultrasonic sensor may be used as long as the height can be detected.
[0035]
Next, operations of the vehicle monitoring system and the image processing device 5 will be described.
[0036]
In FIG. 1, a vehicle 11 traveling on a road 10 is photographed by a monitoring camera 2, and a video signal is input from each monitoring camera 2 to a distributor 3. The distributor 3 inputs the video signal of the monitoring camera 2 to the image processing device 5 as appropriate.
[0037]
On the other hand, when the vehicle height sensor 7 is provided, the vehicle height of the vehicle 11 traveling on the road 10 is detected by the vehicle height sensor 7, and the detection signal is input to the image processing device 5. Then, the image processing device 5 performs image processing of the video signal.
[0038]
FIG. 2 shows a flowchart of the image processing in the image processing device 5.
[0039]
As shown in S1 of FIG. 2, each video signal input to the image processing device 5 is A / D converted. A / D conversion is a process of converting an analog image of a video signal into a digital image, and the converted image data after conversion is stored in a video frame memory. The converted image is, for example, an image itself when the road 10 is viewed from the position of the monitoring camera 2 as shown in FIG. In the converted image 20, the vehicles 11a to 11c traveling on the road 10 are photographed obliquely from behind.
[0040]
After the A / D conversion, the processing shifts to S2 in FIG. 2, and the extraction processing is performed. The extraction process is a process of setting a divided area obtained by dividing the road 10 in the vehicle traveling direction for each A / D converted image, and extracting a divided image in each divided area. As shown in FIG. 4, the divided area 30 is set by dividing the road 10 into a predetermined length along the vehicle traveling direction. Further, one divided area 30 is set for each converted image of each monitoring camera 2. Then, as shown in FIG. 5, each of the divided areas 30 is set without overlapping each other. Note that the divided areas 30 do not necessarily need to be set without overlapping, and even if they are overlapped, the overlapped portion may be cut in a later process. In the following description, it is assumed that the divided areas 30 are set without overlapping.
[0041]
The divided image is formed by extracting pixel data of sampling points set in advance in the divided area 30. FIG. 6 is a schematic explanatory diagram of the sampling points set in the divided area 30. As shown in FIG. 6, the sampling points 31 are set in a grid pattern along the vehicle traveling direction and the road crossing direction of the road 10. By setting the sampling points 31 in this manner, an image of the road 10 in a plan view can be obtained by simply arranging the pixel data at the sampling points 31 as pixel data in a coordinate system in which the vehicle traveling direction and the road crossing direction are orthogonal. Can be easily created.
[0042]
After the extraction of the divided images, the processing shifts to S3 in FIG. 2, and the combining processing is performed. The synthesizing process is a process of synthesizing the divided images extracted by the extracting process so that the road 10 is continuous in the vehicle traveling direction. Also, here, the composition is performed such that the road 10 faces in the vertical direction or the horizontal direction in the composite image.
[0043]
FIG. 7 shows an example of a combined image obtained by combining the road 10 in the horizontal direction. The composite image 40 is obtained by connecting the divided images of the respective divided regions 30 in the vehicle traveling direction into one image. For example, the composite image 40 is obtained by setting and representing pixel data of each divided image created based on different video signals as pixel data of the same coordinate system. It is desirable that the composite image data is configured by storing each divided image data in one memory. Since the divided areas 30 are set without being overlapped with each other, in the combining processing here, the combining can be easily performed without considering the overlapping portion.
[0044]
Further, as shown in FIG. 7, the composite image 40 looks like the road 10 is viewed from directly above. In order to obtain such a combined image 40, it is necessary not only to combine the divided regions 30 shown in FIG. 4 but also to deform each divided region 30 by calculation as viewed from directly above. However, in the present embodiment, since the sampling points 31 are set as shown in FIG. 6, the transformation is performed together with the extraction, and the transformation processing is unnecessary.
[0045]
After the combination, the process proceeds to S4 in FIG. 2, and a vehicle detection process for detecting the vehicle 11 based on the combined image combined by the combination process is performed. The vehicle detection process is performed by, for example, a background difference method in which a background image provided in the image processing device 5 and a composite image 40 are compared in advance.
[0046]
Then, the flow shifts to S5, where it is determined whether or not the vehicle 11 detected by the vehicle detection processing is newly detected from the composite image. If it is determined that the detected vehicle 11 is not newly detected from the composite image, the process proceeds to S8. On the other hand, when it is determined that the vehicle 11 is newly detected from the composite image, the process proceeds to S6. As long as there is no merging in the monitoring target section, the vehicle 11 is newly detected near the entrance of the monitoring target section in the composite image. Therefore, the vehicle 11 that has newly entered the monitoring target section may be detected based only on the data from the monitoring camera 2 provided at the entrance. Further, when there is a merger in the monitoring target section, a new vehicle 11 may be detected based only on data from the monitoring camera 2 installed at the entrance and the merger point.
[0047]
In S6, a vehicle correction process for correcting the newly detected vehicle image of the vehicle 11 according to the vehicle height is performed. If the correction is not performed here, the vehicle 11 will be as shown in FIG. As shown in FIG. 8, the vehicles 11b and 11c traveling in a location far from the imaging position tend to have larger distortion than the vehicle 11a traveling in a location near the imaging position. In particular, the distortion of the vehicle 11c such as a tall truck is large.
[0048]
For this reason, the correction is performed in the process of S6 in FIG. The vehicle correction process is performed, for example, based on the vehicle height data detected by the vehicle height sensor 7, and is performed such that the higher the vehicle height of the vehicle 11, the lower the vehicle height of the vehicle 11. By performing the vehicle correction process in this manner, each of the vehicles 11a to 11c shown in FIG. 8 is corrected as shown in FIG.
[0049]
After the correction, the process proceeds to S7. In S7, the corrected vehicle image is stored. That is, as shown in FIG. 9, vehicle images of the vehicles 11a to 11c from which distortion has been removed are stored.
[0050]
Then, the process proceeds to S8 in FIG. 2, and the tracking process is performed. The tracking process determines, for example, the position of the vehicle 11 stored as the vehicle image by matching the image of the vehicle 11 currently traveling in the monitoring target section with the previously stored vehicle image. This is the processing to be performed. The tracking processing is performed on the vehicles 11a to 11c stored as the vehicle images in S7 when they move and the next position data is obtained.
[0051]
Thereafter, in S9, the vehicle image stored at the position of the vehicle 11 is pasted. As a result, the vehicle image stored at the position of the vehicle 11 is displayed. In addition, regarding the vehicles 11a to 11c stored as the vehicle images in S7, when they later move to another position, the vehicle images are pasted at the moved positions.
[0052]
Then, the flow shifts to S10, where a background correction process is performed. The background correction process is a process of correcting a background image according to a correction of a vehicle image. For example, in the case of the vehicle 11c shown in FIG. 9, the background portion in the area 50 occupied by the vehicle 11c before correction is corrected. This is because, if only the vehicle image is corrected and the background image is not corrected, when the image is displayed, the background image may feel uncomfortable.
[0053]
Thereafter, image data obtained through a series of these processes is transmitted to the control center 6 and displayed on the monitor 61 of the control center 6 as an image. A series of processing in FIG. 2 is repeatedly performed at predetermined time intervals.
[0054]
As described above, according to the present embodiment, since the detection of the vehicle 11 is performed based on the composite image 40 composed so that the road 10 is continuous in the vehicle traveling direction, the vehicle detection is performed for one wide image. Will do. For this reason, even if the vehicle 11 exists at the joint of the photographing areas, the joint does not exist in the composite image 40 itself, and the tracking of the vehicle becomes difficult due to the joint of the image itself in the tracking processing performed after the vehicle detection. There is no. Therefore, tracking of the vehicle 11 can be facilitated.
[0055]
In addition, since the composite image 40 looks as if the road 10 is viewed from directly above, it is possible to provide an image that is easy for a monitor or the like to see.
[0056]
Further, since the stored vehicle image is displayed at the vehicle moving position, it is not necessary to correct the vehicle image every time the vehicle 11 is detected. Therefore, the processing can be performed quickly.
[0057]
In addition, the inconsistency with the background image that occurs when the vehicle image is corrected is eliminated. Therefore, at the time of display, it is possible to remove a sense of discomfort due to the correction of the vehicle image.
[0058]
In addition, since the sampling points 31 in the divided area 30 are arranged in a grid pattern along the vehicle traveling direction and the road crossing direction of the road 10, the sampling points 31 are extracted and deformed. This eliminates the need for deformation processing.
[0059]
Further, according to the present embodiment, since each of the divided areas 30 is set without overlapping each other, it is possible to easily combine the divided areas 30 without considering the overlapping portion.
[0060]
As described above, the invention made by the inventor has been specifically described based on the embodiment. However, the invention is not limited to the above embodiment. For example, when the vehicle is not accurately detected in the vehicle detection process, the vehicle may be processed as one of the background images to display an uncorrected vehicle image, or the vehicle The position of a vehicle that has not been detected based on the past motion vector and the movements of the preceding and following vehicles may be predicted, and the corrected and stored vehicle image may be displayed at that position. Furthermore, at least two or more surveillance cameras 2 may be provided for each region in order to photograph each region of the road 10. In this case, since each area of the road 10 is photographed from different angles by the two or more surveillance cameras 2, for example, it is possible to detect a normal car hidden behind a large car or the like. Therefore, the detection accuracy of the vehicle 11 can be improved.
[0061]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide an image processing apparatus, an image processing method, and a vehicle monitoring system that can easily track a vehicle.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a vehicle monitoring system according to an embodiment.
FIG. 2 is a flowchart illustrating a process of the image processing apparatus illustrated in FIG. 1;
FIG. 3 is a diagram illustrating an example of a deformed image.
FIG. 4 is a diagram illustrating an example of a divided area.
FIG. 5 is a schematic explanatory diagram of sampling points set in a divided area.
FIG. 6 is a diagram showing a state of sampling points set in the divided areas shown in FIG.
FIG. 7 is a diagram illustrating an example of a combined image obtained by combining roads in a horizontal direction.
FIG. 8 is a diagram illustrating an example of a case where a vehicle is displayed without performing a vehicle correction process.
FIG. 9 is a diagram illustrating an example of a case where a vehicle is displayed by performing a vehicle correction process.
FIG. 10 is a diagram illustrating an example of a conventional vehicle tracking process.
[Explanation of symbols]
2 surveillance camera, 5 image processing device, 7 vehicle height sensor, 10 road, 11 vehicle, 20 converted image, 30 divided area, 31 sampling point, 32 divided image, 40 composite image, 61 Monitor.

Claims (11)

道路の車両走行方向に沿って複数設置される撮影手段によって前記道路を連続的に撮影して得られる複数の映像信号を入力し、それらの映像信号をA/D変換するA/D変換手段と、
前記A/D変換手段によりA/D変換して得られる変換画像について前記道路を前記車両走行方向に分割してなる分割領域を設定し、各分割領域における分割画像を抽出する抽出手段と、
前記抽出手段により抽出された前記分割画像を前記道路が前記車両走行方向に連続するように合成する合成手段と、
前記合成手段により合成された合成画像に基づいて前記車両を検出する車両検出手段と、
を備えることを特徴とする画像処理装置。
A / D conversion means for inputting a plurality of video signals obtained by continuously photographing the road by means of a plurality of photographing means installed along the vehicle traveling direction on the road, and A / D converting the video signals; ,
Extracting means for setting divided areas obtained by dividing the road in the vehicle traveling direction with respect to the converted image obtained by A / D conversion by the A / D converting means, and extracting divided images in each divided area;
Combining means for combining the divided images extracted by the extracting means so that the road is continuous in the vehicle traveling direction;
Vehicle detection means for detecting the vehicle based on the synthesized image synthesized by the synthesis means,
An image processing apparatus comprising:
前記合成手段は、前記合成画像において前記道路が縦方向または横方向に向くように、合成を行うことを特徴とする請求項1記載の画像処理装置。The image processing apparatus according to claim 1, wherein the combining unit performs the combining such that the road is oriented in a vertical direction or a horizontal direction in the composite image. 前記車両検出手段により検出された前記車両が前記合成画像から新たに検出されたものである場合、その車両の車両画像を補正して記憶し、
前記車両の移動に応じて、補正した車両画像をその移動位置に表示させること、
を特徴とする請求項2記載の画像処理装置。
When the vehicle detected by the vehicle detection means is newly detected from the composite image, the vehicle image of the vehicle is corrected and stored,
According to the movement of the vehicle, to display the corrected vehicle image at the moving position,
The image processing apparatus according to claim 2, wherein:
前記車両画像の補正に応じて、背景画像を補正することを特徴とする請求項3記載の画像処理装置。The image processing apparatus according to claim 3, wherein a background image is corrected according to the correction of the vehicle image. 道路の車両走行方向に沿って複数設置される撮影手段によって前記道路を連続的に撮影して得られる複数の映像信号を入力し、それらの映像信号をA/D変換するA/D変換工程と、
前記A/D変換工程によりA/D変換して得られる変換画像について前記道路を前記車両走行方向に分割してなる分割領域を設定し、各分割領域における分割画像を抽出する抽出工程と、
前記抽出工程により抽出された前記分割画像を前記道路が前記車両走行方向に連続するように合成する合成工程と、
前記合成工程により合成された合成画像に基づいて前記車両を検出する車両検出工程と、
を備えることを特徴とする画像処理方法。
An A / D conversion step of inputting a plurality of video signals obtained by continuously photographing the road by a plurality of photographing means installed along the traveling direction of the road, and A / D converting the video signals; ,
An extraction step of setting a divided region obtained by dividing the road in the vehicle traveling direction with respect to a converted image obtained by A / D conversion in the A / D conversion process, and extracting a divided image in each divided region;
A combining step of combining the divided images extracted in the extracting step so that the road is continuous in the vehicle traveling direction;
A vehicle detection step of detecting the vehicle based on the synthesized image synthesized by the synthesis step,
An image processing method comprising:
前記合成工程は、前記合成画像において前記道路が縦方向または横方向に向くように、合成を行うことを特徴とする請求項5記載の画像処理方法。6. The image processing method according to claim 5, wherein in the combining step, the combining is performed such that the road faces in a vertical direction or a horizontal direction in the composite image. 前記車両検出工程により検出された前記車両が前記合成画像から新たに検出されたものである場合、その車両の車両画像を補正して記憶し、
前記車両の移動に応じて、補正した車両画像をその移動位置に表示させること、
を特徴とする請求項6記載の画像処理方法。
When the vehicle detected by the vehicle detection step is newly detected from the composite image, the vehicle image of the vehicle is corrected and stored,
According to the movement of the vehicle, to display the corrected vehicle image at the moving position,
7. The image processing method according to claim 6, wherein:
前記車両画像の補正に応じて、背景画像を補正することを特徴とする請求項7記載の画像処理方法。8. The image processing method according to claim 7, wherein a background image is corrected according to the correction of the vehicle image. 道路の車両走行方向に沿って複数設置される撮影手段と、
請求項1記載の画像処理装置と、
を備えることを特徴とする車両監視システム。
A plurality of photographing means installed along the vehicle traveling direction on the road;
An image processing apparatus according to claim 1,
A vehicle monitoring system comprising:
前記撮影手段は、前記道路の各領域を撮影するために領域毎に少なくとも2以上設けられていることを特徴とする請求項9記載の車両監視システム。The vehicle monitoring system according to claim 9, wherein at least two photographing units are provided for each region for photographing each region of the road. 前記画像処理装置からの画像データを画像として表示する表示手段を更に備えることを特徴とする請求項9又は10記載の車両監視システム。The vehicle monitoring system according to claim 9, further comprising a display unit configured to display image data from the image processing device as an image.
JP2002211244A 2002-07-19 2002-07-19 Image processing apparatus, image processing method, and vehicle monitoring system Expired - Fee Related JP3788400B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2002211244A JP3788400B2 (en) 2002-07-19 2002-07-19 Image processing apparatus, image processing method, and vehicle monitoring system
SG200304023A SG110061A1 (en) 2002-07-19 2003-07-18 Image processing device, image processing method and vehicle monitoring system
CNB031550096A CN1320513C (en) 2002-07-19 2003-07-18 Image procesisng device, image processing method and vehicle monitoring system
HK04103614A HK1060582A1 (en) 2002-07-19 2004-05-21 Image processing device, image processing method and vehicle monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002211244A JP3788400B2 (en) 2002-07-19 2002-07-19 Image processing apparatus, image processing method, and vehicle monitoring system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006012978A Division JP2006197614A (en) 2006-01-20 2006-01-20 Image processor, image processing method and vehicle monitoring system

Publications (2)

Publication Number Publication Date
JP2004056497A true JP2004056497A (en) 2004-02-19
JP3788400B2 JP3788400B2 (en) 2006-06-21

Family

ID=31934535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002211244A Expired - Fee Related JP3788400B2 (en) 2002-07-19 2002-07-19 Image processing apparatus, image processing method, and vehicle monitoring system

Country Status (4)

Country Link
JP (1) JP3788400B2 (en)
CN (1) CN1320513C (en)
HK (1) HK1060582A1 (en)
SG (1) SG110061A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1641268A1 (en) * 2004-06-15 2006-03-29 Matsusita Electric Industrial Co., Ltd. Monitor and vehicle periphery monitor
CN103096043A (en) * 2013-02-21 2013-05-08 安徽大学 Mine safety monitoring method based on parallel video splicing technology
US9053556B2 (en) 2008-10-30 2015-06-09 Seiko Epson Corporation Image processing apparatus for panoramic synthesis of a plurality of sub-images
KR101665961B1 (en) * 2016-04-08 2016-10-14 렉스젠(주) Apparatus for providing image of vehicle and method thereof

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101261681B (en) * 2008-03-31 2011-07-20 北京中星微电子有限公司 Road image extraction method and device in intelligent video monitoring
US8495601B2 (en) * 2010-06-09 2013-07-23 Lear Corporation Shared memory architecture
CN102322800B (en) * 2011-05-31 2013-04-03 南京信息工程大学 Detecting method for maximal transverse oscillating quantity of combination vehicle based on machine vision and GPS (Global Positioning System)
US8760513B2 (en) * 2011-09-30 2014-06-24 Siemens Industry, Inc. Methods and system for stabilizing live video in the presence of long-term image drift
CN103029621B (en) * 2011-09-30 2016-04-06 株式会社理光 Detect the method and apparatus of front vehicles
WO2014033922A1 (en) * 2012-08-31 2014-03-06 富士通株式会社 Image processing device, image processing method, and image processing program
CN103473931B (en) * 2013-07-08 2015-09-09 姜廷顺 The system and method for quick confirmation road traffic accident escape vehicle identity
CN111275983B (en) * 2020-02-14 2022-11-01 阿波罗智联(北京)科技有限公司 Vehicle tracking method, device, electronic equipment and computer-readable storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231753A (en) * 1989-05-05 1990-11-21 Golden River Ltd Traffic incident monitoring with vido cameras
NL9300671A (en) * 1993-04-20 1994-11-16 Gatsometer Bv Method and device for electronically recording an event, for example a traffic violation.
SE502679C2 (en) * 1993-05-28 1995-12-04 Saab Scania Combitech Ab Method and apparatus for recording the movement of a vehicle on a ground
DE69624980T2 (en) * 1995-05-18 2003-07-17 Omron Tateisi Electronics Co Object monitoring method and device with two or more cameras
FR2781744B1 (en) * 1998-07-30 2002-11-29 Alstom Technology ANTI-COLLISION SYSTEM FOR LEVELING
CN1351317A (en) * 2000-10-27 2002-05-29 新鼎系统股份有限公司 Image detecting system and method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1641268A1 (en) * 2004-06-15 2006-03-29 Matsusita Electric Industrial Co., Ltd. Monitor and vehicle periphery monitor
EP1641268A4 (en) * 2004-06-15 2006-07-05 Matsushita Electric Ind Co Ltd Monitor and vehicle periphery monitor
US7512251B2 (en) 2004-06-15 2009-03-31 Panasonic Corporation Monitoring system and vehicle surrounding monitoring system
US7693303B2 (en) 2004-06-15 2010-04-06 Panasonic Corporation Monitoring system and vehicle surrounding monitoring system
US7916899B2 (en) 2004-06-15 2011-03-29 Panasonic Corporation Monitoring system and vehicle surrounding monitoring system
EP2182730A3 (en) * 2004-06-15 2015-04-01 Panasonic Intellectual Property Management Co., Ltd. Monitor and vehicle peripheriy monitor
US9053556B2 (en) 2008-10-30 2015-06-09 Seiko Epson Corporation Image processing apparatus for panoramic synthesis of a plurality of sub-images
CN103096043A (en) * 2013-02-21 2013-05-08 安徽大学 Mine safety monitoring method based on parallel video splicing technology
CN103096043B (en) * 2013-02-21 2015-08-05 安徽大学 Based on the mine safety monitoring method of parallel video-splicing technology
KR101665961B1 (en) * 2016-04-08 2016-10-14 렉스젠(주) Apparatus for providing image of vehicle and method thereof

Also Published As

Publication number Publication date
HK1060582A1 (en) 2004-08-13
CN1489120A (en) 2004-04-14
JP3788400B2 (en) 2006-06-21
SG110061A1 (en) 2005-04-28
CN1320513C (en) 2007-06-06

Similar Documents

Publication Publication Date Title
JP4193886B2 (en) Image display device
JP5615441B2 (en) Image processing apparatus and image processing method
JP5108840B2 (en) Vehicle periphery monitoring device and vehicle periphery image display method
US8184160B2 (en) Image processor, driving assistance system, and out-of-position detecting method
KR101519209B1 (en) Apparatus and method for providing image
JP2000090277A (en) Reference background image updating method, method and device for detecting intruding object
JP3788400B2 (en) Image processing apparatus, image processing method, and vehicle monitoring system
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP2002335524A (en) Driving support device
JP2012185540A (en) Image processing device, image processing method, and image processing program
KR20140048539A (en) Method and apparatus for recognizing object using surrounding image of vehicle
JP5163165B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP2013218432A (en) Image processing device, image processing method, program for image processing, and recording medium
JP3467774B2 (en) Image processing apparatus, image processing method, and vehicle monitoring system
JP3686333B2 (en) Moving image processing camera and image processing system using the same
JP2006197614A (en) Image processor, image processing method and vehicle monitoring system
JP3601392B2 (en) Image processing apparatus, image processing method, and vehicle monitoring system
JP2004212658A (en) System and method for image display and image processor
JPH0757200A (en) Method and device for recognizing travel course
JPH07195978A (en) Vehicle surroundings display unit
JP2004220102A (en) Image processing device and method and vehicle monitoring system
JP2017117357A (en) Three-dimensional object detection device
JP2003259359A (en) Apparatus and method for monitoring surrounding of vehicle
JP2635232B2 (en) Inter-vehicle distance detection device
JP2966683B2 (en) Obstacle detection device for vehicles

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050816

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060120

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060320

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees