JP4088182B2 - Image information processing system - Google Patents

Image information processing system Download PDF

Info

Publication number
JP4088182B2
JP4088182B2 JP2003072532A JP2003072532A JP4088182B2 JP 4088182 B2 JP4088182 B2 JP 4088182B2 JP 2003072532 A JP2003072532 A JP 2003072532A JP 2003072532 A JP2003072532 A JP 2003072532A JP 4088182 B2 JP4088182 B2 JP 4088182B2
Authority
JP
Japan
Prior art keywords
image
vehicle
moving objects
information
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003072532A
Other languages
Japanese (ja)
Other versions
JP2004280593A (en
Inventor
勝彦 番場
裕之 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2003072532A priority Critical patent/JP4088182B2/en
Publication of JP2004280593A publication Critical patent/JP2004280593A/en
Application granted granted Critical
Publication of JP4088182B2 publication Critical patent/JP4088182B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Character Discrimination (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像情報処理システムに係り、特に移動物体の撮影画像から当該移動物体に関する情報を抽出して認識する機能を有する画像情報処理システムに関する。
【0002】
【従来の技術】
移動物体の撮影画像から当該移動物体に関する情報を抽出して認識する構成が求められる分野として、例えば道路上にカメラを設置して当該道路を通過する車両を撮影して撮影画像から当該車両の画像を抽出し、更に必要に応じて当該車両の車両ナンバー等を認識する車両ナンバー認識システムが考えられる。
【0003】
このような車両ナンバー認識システムの一例について以下に図と共に説明する。図1は従来の一例の車両認識システムの概略構成を示す。又図2は同システムの動作フローチャートを示す。当該システムは図示の通り、1台の動画カメラ110と1台の認識装置120とよりなり、道路の1車線を動画カメラ110で撮影して撮影画像から撮影された車両の車両ナンバーを認識するものである。このシステムにおける主な動作は以下の通りである。
【0004】
認識装置120は車両検知処理部121においてカメラ110の映像から静止画を取得し(ステップS1)、フレーム差分チェック処理部121によって前フレームとのフレーム差分をチェックし(ステップS2),その結果から画像内に車両があるか否かを判定する(ステップS3)。この動作(ステップS1乃至S3)を1/30秒単位で繰り返し、図3、図4に示す如く、画像内の車両MがそのナンバーNの解析できる位置(画像内中央)まで到達した時点の画像中(図4の状態)、初期探索処理部122による車両部分切り出し処理によって車両の位置が検知される(ステップS4)。尚、それ以外の図3に示す如く位置に車両Mがある時点では車両検知処理(ステップS1乃至S3)が続行される。
【0005】
ステップS4にて検知された車両位置から、車番切り出し処理123によるエッジ検出処理(ステップS5)及び、プレート検索処理(ステップS6)により当該車両のナンバープレート部分画像を抽出し、文字認識処理(ステップS7)によって予め登録されている文字画像情報との照合によって車両ナンバーNを認識する。
【0006】
上記以外にも例えば特許文献1に開示されている如くレーダセンサを併用したシステムも考えられる。このようなシステムでは、例えば静止画記録用カメラと通過車両検知用レーダ装置とを監視対象道路に設置し、レーダ走査範囲内に車両が進入したことをトリガとして静止画を記録することにより通過車両検知を実施することが考えられる。この場合の画像取得後の処理は上述の方法と同様に実施することが考えられる。
【0007】
【特許文献1】
特開2000−182185号公報
【0008】
【発明が解決しようとする課題】
しかしながら、仮に複数車線を有する道路についてカメラ一台を設置した場合、車両ナンバー解析に必要な撮影解像度の条件を満たすことを前提にした場合、1車線に対して1台のカメラを設置した場合に比べて横方向に2倍の撮影解像度が要される。このように撮影解像度を増加させるためにはそれに比例して撮影画素数も増加させる必要があり、その結果車両ナンバー検知のための処理に関する情報量が増加し所要処理時間も増加する。
【0009】
又、上記の如く車両ナンバー検知を画像差分解析によって行う場合、画像内の車両が車両ナンバーが解析できる位置まで到達しているか否かを判定した後に車両ナンバーを検知する。この場合、車両の前面のナンバーが映るよう車両を撮影する場合と後面のナンバーが映るよう車両を撮影する場合とでは車両ナンバーが認識できる状態における画像内での車両の位置が異なる。このため、1台のカメラで進入方向が異なる車両が同時に通過する複数車線(例えば、片側1車線、計2車線の道路の場合)を撮影する場合、前面のナンバーが映るよう車両を撮影する場合の処理と後面のナンバーが映るよう車両を撮影する場合の処理の2種類の異なる処理を複数の車両に対して同時に実行する必要がある。そのため処理量が増加し所要処理時間が増加する。
【0010】
これらの問題点の解決策として、以下の方法が考えられる。即ち、例えば図5に示す如く、車両撮影用カメラを一車線に一台、計二台(110−1,110−2)設置する方法である。尚、上記レーダ装置を併用する場合には同様にレーダセンサとレーダ情報処理装置も2組設けるため、監視する車線数分のカメラおよび認識装置、或いは更にレーダセンサ及びレーダ情報処理装置等が必要となり、設置コストが倍増する。更にこの方法の場合、図6に示す如く2車線を跨いで車両Mが通過した場合、カメラ110−1,110−2による夫々の撮影画像中に車両Mのナンバープレート部分Nがナンバー解析可能な状態で取得出来ない場合が考えられる。
【0011】
又、図7に示す如く、車両撮影用カメラとレーダとを複数車線に亘って走査させる方法が考えられる。即ち、この場合、レーダ装置130およびカメラ110を回転台に乗せて車線中央部に設置し、当該回転台を水平方向に首振り運動させることにより複数車線を1システムで監視する。しかしながらこの場合、レーダとカメラとが同一回転台に載るため、レーダにて車両進入を検知してからカメラの画像を取り込むまでの処理時間に遅延があるとカメラの撮影方向が実際の撮影対象車両の位置と一致しなくなるという事態が考えられる。
【0012】
又、図7の構成ではそのシステム特性上、瞬間的にはカメラとレーダーが向いている車線のみしか監視できないため、道路混雑時等、2車線L1,L2に同時に連続して複数の車両が通行するような場合、回転台の回転動作速度、レーダの検知性能、カメラの撮影速度等によっては通行車両全てのナンバーの認識が不可能となる場合が考えられる。即ち、例えば車線L1に車両M1が進入にしてきた場合、カメラ110は車線L1を向くが、それと同時に車線L2に別の車両M2が進入してきた場合、カメラ110が車線L2を向く前に当該車両M2が撮影可能領域を通過してしまって撮影不可となる場合が考えられる。
【0013】
【課題を解決するための手段】
本発明は上記問題点に鑑み、1組の画像情報処理システムよって複数の移動物体の特定の情報、例えば複数車線を走行する複数の車両のナンバーを全て認識可能であり、更に車線を跨いで通過する車両のナンバー、及び、進入方向が異なる車両が同時に通過した場合等、様々な場面においてもそこを通過する全ての車両のナンバーを認識可能な画像情報処理システムを提供することを目的とする。即ち、比較的簡易な構成にて、複数車線道路で、複数の車両が同時に通過した場合であっても、それら全ての車両を漏れなく撮影し、そのナンバーの認識が可能なシステムを提供することを目的とする。
【0014】
【発明の実施の形態】
以下本発明の実施例について図面と共に詳細に説明する。図8は本発明の一実施例の基本構成図である。本発明の実施例になる画像情報処理装置は、所定の監視領域を通過する車両を検知するためのレーダ装置30、レーダ装置30からの検知信号を基に、その検知された車両が特定の範囲に進入した時点でそれを検出し、その車両の位置と走行速度とを認識装置20に通知するレーダ処理装置40、当該検知された車両を撮影するための静止画記録用カメラ10、レーダ処理装置40から当該検知された車両の位置と走行速度とを通知された時点で静止画記録用カメラ10から撮影静止画に撮影操作を行なわせ、通知された車両の位置と走行速度、並びに撮影された静止画とを基にして画像解析を実施することによって当該車両のナンバー情報を認識する認識装置20とよりなる。
【0015】
又、認識装置20は初期探索処理部21と車番切り出し処理部22−1,22−2とよりなり、これら処理部21,22−1,22−2は例えば異なるMPUによって実現される。更に初期探索処理部21は撮影要求部21a、2次元−3次元座標変換部21b及び車両部分切り出し部21cとよりなり、各車番切り出し処理部22−1,22−2は、夫々エッジ検出部22−1a、22−2a、プレート検索部22−1b、22−2b、並びに文字認識部22−1c、22−2cよりなる。又、図9、図10は当該画像情報処理システムの監視範囲を示す図であり、図9はカメラ10に向かう方向に走行する車両M1に対する監視エリアを示し、図10はカメラ10から遠ざかる方向に走行する車両M2に対する監視エリアを表す。尚、監視エリアについては後述する。
【0016】
上記レーダ装置30及び静止画記録用カメラ10は対象となる道路の中央(図14乃至17参照)、若しくは、図9,10に示す如く、道路端の高いところに当該道路をなす複数車線(図示の場合には2車線)を同時に監視可能なよう設置される。即ち、レーダ装置30は図9、図10中のレーダ監視領域R1の範囲(固定)に亘って車両を検知可能な性能を有すると共に、そのような性能を発揮可能な位置及び姿勢にて設置される。又、静止画記録用カメラ10は撮影領域R2(固定)を一枚の静止画にて収めるように撮影可能な機能を有すると共に、そのような機能を発揮可能な位置及び姿勢にて設置される。
【0017】
又、カメラ10の静止画取得タイミングを指示するため、 カメラ10に向かってくる方向に走行する車両M1に対しては通知領域R3(固定)、カメラから遠ざかる方向に進行する車両M2に対しては通知領域R4(固定)を設定し、その設定領域R3,R4内に進入する車両をレーダ装置30検知した際にレーダ処理装置40はそれを検出し、認識装置20に車両検知信号を供給する構成とされている。
【0018】
以下、上記構成を有する本発明の実施例による画像情報処理システムの動作について説明する。本システムにおいて、レーダ装置30は、レーダ波を発信し当該レーダ波が対象物体によって反射されて生成される反射波を受信する周知の構成を有する。レーダ処理装置40はそのレーダ波の発信から受信までの時間差及び波長のドップラシフト量を測定することにより、対象物体までの距離及び対象物体の移動速度(方向含む)を演算によって求める。
【0019】
又、そしてレーダ装置30はレーダ監視領域R1に対して水平方向に首振り運動しながら一定回転角度毎に上記測定を繰り返すことで各スキャン分の測定結果を得る。そしてこれらの測定結果を収集分析することによって、当該道路上を走行する車両の移動速度と位置を走行車両毎に検出する機能を有する。
【0020】
レーダ監視領域R1に車両が進入した場合、レーダ処理装置30は進入した全ての車両を検知可能である。更にレーダ処理装置30は上記対象物体の移動速度及び位置検出機能によって検知車両の進入方向をも検出可能であり、当該検出進入方向によって該当する車両に対して通知領域R3を適用するか或いは通知領域R4を適用するかを決定する。そして検知車両がそのようにして判定された通知領域の範囲内にあるか否かを判定し、該当通知範囲内にある場合は認識装置20に対し、該当通知範囲内にある全ての車両の速度と位置(図13(c)中のx,x、y)の情報を送信する。
【0021】
尚、ここでは上記位置は図13から以下の数式にて算出されることが分かる。
【0022】
【数1】

Figure 0004088182
上記数式中、l、lはレーダ装置30から対象車両Mまでの3次元距離(図13(b)、(c)参照)、hはレーダ装置30の該当する道路上の高さ(図13(b)参照)、α、αはレーダ装置30が対象車両Mを検知した時の水平面内の角度(図13(c)参照)、yはレーダ装置30からカメラ撮影エリアまでの水平距離(図13(a)、(c)参照)である。これらのデータのうち、l、l、α、αは上述のレーダ装置30及びレーダ処理装置40の機能によって検出可能なデータであり、yは予め測定可能な固定値である。
【0023】
尚、図9、図10に示す如く車両の移動方向によって固定のカメラ10の撮影領域R2に対して異なる通知範囲R3,R4を設定するのは以下の理由による。即ち、レーダ装置30、レーダ処理装置40による車両検知から、当該検知情報を受けた認識部20の初期探索処理部21にてカメラ20を駆動して当該車両を実際に撮影するまで若干の時間遅れが存在する。そのため、図9に示す如く車両M1がカメラ10に近付く方向に走行している場合には撮影領域R2に対してカメラ10から遠い位置に通知領域R3を設定することにより、上記時間遅れの間当該車両M1が走行してカメラ10に近付いても撮影領域R2を外れることがなく、該当する車両の画像を確実に所定解像度にて撮影可能となる。同様に図10に示す如く車両M2がカメラ10から遠ざかる方向に走行している場合には撮影領域R2に対してカメラ10から近い位置に通知領域R4を設定しておくことにより、上記時間遅れの間当該車両M2が走行してカメラ10から遠のいても撮影領域R2を外れることが無く、該当車両を確実に所定解像度にて撮影することが可能となる。
【0024】
次に、上記通知信号を受けた認識装置20は、その初期探索処理部21の撮影要求部21aにてカメラ10に撮影指示信号を送信し、その瞬間の静止画像を撮影させ、当該撮影画像情報を2次元−3次元座標変換部21bにて受信する。又、上記進入した車両Mの位置座標(x,y)、及び、(x,y)は2次元−3次元座標変換処理部による以下に示す演算を経て上記の如く取得された静止画上の画素単位による座標(X, Y)、及び、(X, Y)に変換される。
【0025】
≒(x/xmax)・Xpic
≒(x/xmax)・Xpic
≒(y/ymax)・Ypic
上式中、xmaxは撮影領域R2の幅(図13(c)参照)、ymaxは撮影領域R2の長さ(図13(a)参照)、Xpicは取得された静止画の横方向の画素数(図12(b)参照)、Ypicは取得静止画の縦方向の画素数(図12(b)参照)である。
【0026】
通常、車両Mの高さはその幅より小さいため、車両部分切り出し処理部21cでは、2次元−3次元座標変換部21bにて得た静止画上の画素単位の座標(X,Y)、(X,Y)間を底辺とし、下記数式で求められる高さ
Y2=X− X
を有する矩形形状に取得静止画から対象車両画像部分(図12(b)中の破線で囲まれた領域)を切り出す。この2次元−3次元座標変換処理部21b、車両部分切り出し処理部21cによる上記演算処理は、レーダ処理装置40から通知された検出車両一台毎に実行される。
【0027】
この場合カメラ10が撮影している画角の条件によって上記ナンバープレート情報の大きさ(画素単位の幅/高さ)が一意に求まる。初期探索処理部122によって切り出された車両画像についてエッジ検出部22−1a,22−2aによって隣り合う画素間の色/輝度が一定以上異なる画素情報、即ちエッジ部に相当する画素情報を抽出する。そして上記一意に求められたナンバープレート情報の大きさに関する情報並びにエッジ検出部にて抽出されたエッジ部相当の画素情報を基に、プレート検索部22−1b、22−2bによってナンバープレートに相当する形状、大きさに合致する画像部分が上記静止画像中に存在するか否かが検索される。
【0028】
即ち、一般に車両のナンバープレートに記載の情報には数字及び文字が含まれ、それらの数字・文字情報は撮影画像上濃度が急に変化するエッジ部を構成するため、特定のナンバープレートに相当する大きさ・形状内にエッジ部が含まれている部分が撮影画像中に存在すれば、その部分がナンバープレートに相当する画像部分であると判定できる。
【0029】
上記判定の結果ナンバープレート相当の画像部分が存在する場合、その座標位置(Px1,Py1,Px2,Py2)を記憶する。又、文字認識部22−1c、22−2cは、上記車両画像中のナンバープレート相当の画像部分の領域(Px1,Py1,Px2,Py2)につき、通常ナンバープレート中に含まれる陸支/分類/ひらがな/一連番号毎に領域を切り出し、それぞれの領域について撮影画像と予め所定のソフトウェアにて保持している文字画像情報とのパターンマッチングを行うことによって撮影画像中に含まれる文字、即ち車両ナンバー情報を認識する。
【0030】
この車番切り出し処理部22−1,22−2による車番切り出し処理は並列処理が可能であり、初期探索処理部21によって切り出された車両画像分並列的に実行され、これによって認識装置20は通過した全ての車両のナンバ情報を短時間に認識することができる。
【0031】
このように本発明の実施例によれば、車両検知はレーダ処理装置40にて行なうため、上述の従来技術における如く、例えば1/30秒毎の画像情報処理による車両検知処理を省略可能である。そのため、CPU/MPUの負荷を軽く出来、その処理能力余剰分を車番切り出し処理部22−1,22−2における車番切り出し処理に使用できる。このため、比較的処理能力の低いCPU/MPUによっても車両混雑時の全ての通行車両の車両ナンバー認識を可能とする画像情報処理システムの構築が可能となる。
【0032】
即ち本発明は従来と異なり、車両検知処理をレーダ処理装置部40が行なうため、認識装置20自体では静止画取り込みのタイミング判断処理を行う必要が無く、又事前に通行車両の撮影方向を設定する必要も無い。即ち認識装置20はレーダ処理装置40からの車両検知情報に含まれる該当する通行車両の進入方向に応じて初期探索処理部21による初期探索処理を実行するため、進入方向が異なる車両を同時に検知した場合であっても過大な情報処理量を要求されずに初期探索処理部21にて必要とされる情報処理を実施可能である。その結果複数車線に複数台の車両が同時に進入した場合等においても一枚の静止画にてそれらを撮影し且つ各車両のナンバー情報を認識可能な画像情報処理システムを比較的低い処理性能のCPU/MPUにて構築可能である。
【0033】
即ち、本発明では車両位置をレーダ装置30、レーダ処理装置40にて実施し、その検知情報に基づいて静止画撮影タイミングが決定され、更には撮影画像中の車両位置を特定可能なため、撮影画像中から車両画像部分を検索する作業が大幅に低減可能である。即ち、撮影画像の全体から車両画像部分を検索するためには画像中の全画素を処理する必要があるが、本発明の如くレーダ装置、レーダ処理装置の機能によって予め画像中の車両部分の位置を特定できるため、その特定部分の画素のみ処理すれよく、所要画素処理量を効果的に低減可能である。
【0034】
以下に上述の本発明の実施例による画像情報処理システムの実際の動作例について詳細に説明する。先ず第1の例として、片側2車線道路に車両が1台通過する場合を想定する。図14はこのような場合を示す。この例において1台の車両Maが通知領域R3(図9参照)に進入してきた場合、上述の如く図8に示す本画像情報処理システムのレーダ装置30から逐次出力される物体検知情報に基づいてレーダ処理装置40が所定の演算処理を行うことによって当該車両Maの車両位置情報(xa1,ya1)、(xa2,ya1)とその移動速度情報Vaが得られ、当該車両位置・速度情報が認識装置20に対して通知される。
【0035】
当該データを受信した認識装置20は初期探索処理部21にて、静止画記録用カメラ10に指示を出して図14(b)に示す如くの撮影静止画を取得させ、更に図13と共に説明した原理にしたがって上記検知位置情報(xa1,ya1)、(xa2,ya1)を上記取得静止画上の座標データ(Xa1,Ya1)、(Xa2,Ya1)に変換し、当該静止画上座標データに基づいて当該車両Maが映っている部分(図14(b)中の破線で囲った部分)を切り出す。その後、例えば車番切り出し処理部22−1にて、上記切り取られた車両画像に対して車番切り出し処理を実行し当該車両のナンバー情報を認識し出力する。
【0036】
次に第2の例として、図15に示す如く、片側2車線L1,L2よりなる道路上に同一進行方向の車両が2台Ma,Mb、同時に通過する場合を想定する。この場合、図示の如く片側2車線道路に同じ進行方向の車両MaとMbとが2台同時に通知領域R3に進入してきた場合、レーダ処理装置40によって当該2台分の車両情報[(xa1,ya1)、(xa2,ya1)、Va]及び[(xb1,yb1)、(xb2,yb1)、Vb]取得され、これらが認識装置20に通知される。このデータを受信した認識装置20は初期探索処理部21の処理により静止画記録用カメラ10を介してこれら検知車両の撮影静止画(図15(b)参照)を取得し、通知された検知車両情報[(xa1,ya1)、(xa2,ya1)、Va]、及び、[(xb1,yb1)、(xb2,yb1)、Vb]を夫々静止画用座標[(Xa1,Ya1)、(Xa2,Ya1)、Va]、及び、[(Xb1,Yb1)、(Xb2,Yb1)、Vb]に変換した上で当該車両が映っている画像部分(図15(b)中の破線で囲った部分)を夫々切り出す。このようにして切り取られた2枚の車両画像は、各々、車番切り出し処理部22−1,22−2に送られ、これら処理部にて並列処理にて車番切り出し処理を行い、夫々のナンバー情報を認識し出力する。
【0037】
次に、第3の例として、図16に示す如く、片側1車線、双方向計2車線L1,L2の道路において、車両Maが通知領域R3(図9参照)に進入し、同時に車両Mbが通知領域R4(図10参照)に進入してきた場合を想定する。このような場合、レーダ処理装置40は車両Maと車両Mbの夫々の車両情報、[(xa1,ya1)、(xa2,ya1)、Va]と[(xb1,yb1)、(xb2,yb1)、Vb]とを取得し、これが認識装置20に通知される。
【0038】
当該データを受信した認識装置20はこれに基づき初期探索処理部21にて静止画記録用カメラ10を制御して当該車両を撮影させてその静止画を取得する(図16(b)参照)。そして、上記通知された検知車両情報[(xa1,ya1)、(xa2,ya1)、Va]、及び、[(xb1,yb1)、(xb2,yb1)、Vb] を上記静止画上の座標[(X1a,Y1a)、(X1b,Y1b)、Va]、及び、[(X2a,Y2a)、(X2b,Y2b)、Vb]に変換し、当該座標に基づき該当する車両が映っている部分(図16(b)中の破線で囲った部分)を夫々切り出す。このようにして切り出された車両画像は車番切り出し処理部22−1,22−2による並列処理にて夫々の画像に対する車番切り出し処理を行い、該当する車両ナンバー情報を認識し出力する。
【0039】
第4の例は図17に示す如く、片側2車線L1,L2の道路上に一台の車両Mが車線L1,L2を跨いで通知領域R3に進入してきた場合、レーダ処理装置40は当該車両Mの車両情報[(xa1,ya1)、(xa2,ya1)、Va]を取得し、これを認識装置20に通知する。データを受信した認識装置20は初期探索処理部21にて静止画記録用カメラ10を駆動して該当する車両の静止画を取得し、通知された車両情報[(xa1,ya1)、(xa2,ya1)、Va]を当該静止画上の座標[(X1a,Y1a)、(X2a,Y1a)、Va]に変換し、この座標に基づいて車両が映っている部分(図17(b)の破線で囲われた部分)を切り出す。切り出された車両画像は例えば車番切り出し処理部22−1にて処理され、該当する車両ナンバー情報が認識され出力される。
【0040】
本発明の実施例では図13(c)と共に説明した如く対象車両の水平方向位置をも検出可能なため、第4の例の場合のように斜線を跨いで走行している車両についても正確にその位置を検出し、図17(b)に示す如く撮影画像中の車両部分の正しい切り出しが可能となる。
【0041】
以上説明したように、本発明によれば複数車線の車両ナンバーの自動認識が可能であり、複数車線に数台の車両が同時に進入するような場合、進行方向が逆の車両が同時に進入した場合、車両が車線を跨いで通過するような場合等、様々な場面においても、1システムで同時に全ての車両のナンバーを自動認識する機能を実現可能である。
【0042】
尚、本発明の実施例は上述のものに限られない。例えば図7に示す如くカメラが可動式のものに対しても適用可能である。その場合、レーダ装置の検知情報とカメラの回転角度情報との組み合わせ演算によって当該カメラによる撮影画像中の該当車両の位置を特定して所望画像部分を抽出することが可能である。
【0043】
本発明は以下の付記に記載の構成を含む。
【0044】
(付記1)
移動物体を撮影して得られた撮影画像から当該物体が有する特定の情報を抽出する画像情報処理システムであって、
レーダを使用した物体検知装置と、
該物体検知装置による当該移動物体の検知情報に基づいて当該移動物体の位置を演算によって求める演算部と、
前記演算部によって求められた当該物体の位置に基づいて前記撮影画像中の当該移動物体に関する画像部分を抽出する画像抽出部とよりなる画像情報処理システム。
【0045】
(付記2)
更に、前記画像抽出部によって抽出された当該移動物体に関する画像部分から当該移動物体上の所定の位置に含まれる特定の情報を認識する特定情報認識装置よりなる付記1に記載の画像情報処理システム。
【0046】
(付記3)
前記物体検知装置は、所定の領域を同時に通過する複数の移動物体を検知し、
前記演算部は当該検知情報に基づいて当該複数の移動物体の位置を求め、
前記画像抽出部は前記演算部によって求められた当該複数の移動物体の位置に基づいて撮影画像から当該複数の移動物体に関する画像部分を抽出し、
前記特定情報認識は当該複数の移動物体に関する画像部分から当該複数の移動物体の夫々の特定情報を認識する構成の付記2に記載の画像情報処理システム
(付記4)
前記物体検知装置は所定の領域を同時に異なる方向に通過する複数の移動物体を検知し、
前記演算部は前記物体検知装置による検知結果に基づいて当該複数の移動物体の位置及びその移動速度を求め、
前記画像抽出部は演算部によって求められた複数の移動物体の位置及びに移動速度に基づいて取得された撮影画像から当該複数の移動物体に関する画像部分を抽出し、
前記特定情報認識は当該抽出された複数の移動物体に関する画像部分から当該複数の移動物体の夫々の特定情報を認識する構成の付記2に記載の画像情報処理システム
(付記5)
更に前記物体検知装置の当該移動物体の検知情報に基づいて所定のタイミングにて当該移動物体が通過し得る所定の領域を撮影して前記撮影画像を出力する撮影装置よりなる付記1乃至4のうちのいずれかに記載の画像情報処理システム。
【0047】
(付記6)
前記移動物体は車両よりなる付記1乃至5のうちのいずれかに記載の画像情報処理システム。
【0048】
(付記7)
前記移動物体に含まれる特定情報は車両ナンバー情報よりなる付記6に記載の画像情報処理システム。
【0049】
(付記8)
前記演算部は前記物体検知装置の検知情報によって移動物体が所定の通知領域に達したと判定された際に前記撮影装置を駆動して画像撮影を実施させる構成とされ、
上記所定の通知領域は、当該移動物体が撮影装置へ近付く方向に移動していると判定された際には比較的撮影装置から遠い位置に設定され、当該移動物体が撮影装置から遠のく方向に移動していると判定された際には比較的撮影装置から近い位置に設定される構成の付記5に記載の画像情報処理装置。
【0050】
【発明の効果】
上記本発明によれば、レーダを使用した移動物体検知手段による物体検知情報に基づいて画像取得及び画像情報の解析を行なう構成としたため、画像取得のタイミングや取得された画像上で解析すべき画像領域の特定等の処理は上記移動物体検知手段によって行なわれる。その結果画像情報処理対象画像部分、すなわち要処理画素数を効果的に絞り込むことが可能であり、もって画像情報処理に要される情報処理量を効果的に削減可能である。その結果高速に多数の移動物体の情報処理を実施する事を可能とする画像情報処理システムを提供可能である。
【図面の簡単な説明】
【図1】従来の一例の画像情報処理システムのブロック図である。
【図2】図1に示す画像情報処理システムの動作フローチャートである。
【図3】図1,2に示す画像情報処理システムの処理内容を説明するための図(その1)である。
【図4】図1,2に示す画像情報処理システムの処理を説明するための図(その2)である。
【図5】従来の他の例の画像情報処理システムの構成及び処理を説明するための図である。
【図6】図5に記載のシステムの問題点を説明するための図である。
【図7】従来の更に他の例の画像情報処理システムの構成を説明するための図である。
【図8】本発明の一実施例による画像情報処理システムの概略構成を説明するためのブロック図である。
【図9】図8に示す画像情報処理システムにおける監視エリアについて説明するための図(その1)である。
【図10】図8に示す画像情報処理システムにおける監視エリアについて説明するための図(その2)である。
【図11】図8に示す認識装置の更に詳細な構成を示すブロック図である。
【図12】図11に示す認識装置による車両位置検索方法について説明するための図(その1)である。
【図13】図10に示す認識装置による車両位置検索方法について説明するための図(その2)である。
【図14】本発明の一実施例による画像情報処理システムにおける実際の処理例を説明するための図(その1)である。
【図15】本発明の一実施例による画像情報処理システムにおける実際の処理例を説明するための図(その2)である。
【図16】本発明の一実施例による画像情報処理システムにおける実際の処理例を説明するための図(その3)である。
【図17】本発明の一実施例による画像情報処理システムにおける実際の処理例を説明するための図(その4)である。
【符号の説明】
10 静止画撮影用カメラ
20 認識装置
21 初期探索処理部
22−1,22−2 車番切り出し処理部
30 レーダ装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image information processing system, and more particularly to an image information processing system having a function of extracting and recognizing information related to a moving object from a captured image of the moving object.
[0002]
[Prior art]
As a field where a configuration for extracting and recognizing information related to a moving object from a captured image of a moving object is required, for example, a camera is installed on a road and a vehicle passing through the road is imaged and the vehicle image is captured from the captured image. And a vehicle number recognition system that recognizes the vehicle number of the vehicle as necessary.
[0003]
An example of such a vehicle number recognition system will be described below with reference to the drawings. FIG. 1 shows a schematic configuration of a conventional vehicle recognition system. FIG. 2 shows an operation flowchart of the system. As shown in the figure, the system is composed of one moving camera 110 and one recognition device 120, which captures one road lane with the moving camera 110 and recognizes the vehicle number of the vehicle captured from the captured image. It is. The main operations in this system are as follows.
[0004]
The recognition device 120 acquires a still image from the video of the camera 110 in the vehicle detection processing unit 121 (step S1), checks the frame difference from the previous frame by the frame difference check processing unit 121 (step S2), and determines the image from the result. It is determined whether or not there is a vehicle inside (step S3). This operation (steps S1 to S3) is repeated in units of 1/30 seconds. As shown in FIGS. 3 and 4, the image at the time when the vehicle M in the image reaches the position where the number N can be analyzed (the center in the image). During (in the state of FIG. 4), the position of the vehicle is detected by the vehicle partial cut-out process by the initial search processing unit 122 (step S4). Note that the vehicle detection process (steps S1 to S3) is continued when the vehicle M is at a position as shown in FIG.
[0005]
From the vehicle position detected in step S4, a license plate partial image of the vehicle is extracted by edge detection processing (step S5) by plate number cut-out processing 123 and plate search processing (step S6), and character recognition processing (step The vehicle number N is recognized by collating with the character image information registered beforehand by S7).
[0006]
In addition to the above, for example, a system using a radar sensor as disclosed in Patent Document 1 is also conceivable. In such a system, for example, a still image recording camera and a passing vehicle detection radar device are installed on a monitoring target road, and a passing vehicle is recorded by recording a still image triggered by the vehicle entering the radar scanning range. It is conceivable to carry out detection. It is conceivable that the processing after image acquisition in this case is performed in the same manner as the above-described method.
[0007]
[Patent Document 1]
JP 2000-182185 A
[0008]
[Problems to be solved by the invention]
However, if one camera is installed on a road having multiple lanes, it is assumed that the conditions of the imaging resolution necessary for vehicle number analysis are satisfied, and one camera is installed for one lane. Compared with the horizontal direction, the image taking resolution is twice as high. In order to increase the imaging resolution in this way, it is necessary to increase the number of imaging pixels in proportion thereto, and as a result, the amount of information relating to the processing for detecting the vehicle number increases and the required processing time also increases.
[0009]
When the vehicle number detection is performed by image difference analysis as described above, the vehicle number is detected after determining whether or not the vehicle in the image has reached a position where the vehicle number can be analyzed. In this case, the position of the vehicle in the image in a state where the vehicle number can be recognized is different between the case where the vehicle is photographed so that the number on the front surface of the vehicle is photographed and the case where the vehicle is photographed so that the number on the rear surface is reflected. For this reason, when shooting multiple lanes (for example, one lane on each side, total of two lanes) where vehicles with different approach directions pass simultaneously with one camera, shooting the vehicle so that the front number is reflected It is necessary to simultaneously execute two different types of processing for a plurality of vehicles, such as the above processing and the processing for photographing a vehicle so that the rear number is reflected. Therefore, the processing amount increases and the required processing time increases.
[0010]
The following methods can be considered as a solution to these problems. That is, for example, as shown in FIG. 5, one vehicle photographing camera is installed in one lane, for a total of two (110-1, 110-2). When the above radar apparatus is used in combination, two sets of radar sensors and radar information processing apparatuses are provided in the same manner. Therefore, cameras and recognition apparatuses for the number of lanes to be monitored, or radar sensors and radar information processing apparatuses are required. , Installation costs double. Furthermore, in the case of this method, when the vehicle M passes over two lanes as shown in FIG. 6, the license plate portion N of the vehicle M can be number-analyzed in the respective captured images by the cameras 110-1 and 110-2. The case where it cannot acquire in a state is considered.
[0011]
Further, as shown in FIG. 7, a method of scanning a vehicle photographing camera and a radar over a plurality of lanes is conceivable. That is, in this case, the radar device 130 and the camera 110 are placed on the turntable and installed at the center of the lane, and the turntable is swung in the horizontal direction to monitor a plurality of lanes with one system. However, in this case, since the radar and the camera are mounted on the same turntable, if there is a delay in the processing time from the detection of the vehicle entry by the radar until the capture of the camera image, the shooting direction of the camera is the actual shooting target vehicle. The situation where it does not coincide with the position of is considered.
[0012]
In the configuration of FIG. 7, because of the system characteristics, only the lane where the camera and the radar are facing can be monitored instantaneously. Therefore, when the road is congested, a plurality of vehicles pass through the two lanes L1 and L2 simultaneously. In such a case, the number of all passing vehicles may not be recognized depending on the rotational operation speed of the turntable, the radar detection performance, the shooting speed of the camera, and the like. That is, for example, when the vehicle M1 enters the lane L1, the camera 110 faces the lane L1, but at the same time, when another vehicle M2 enters the lane L2, the vehicle 110 before the camera 110 faces the lane L2. It is conceivable that M2 passes through the imageable area and cannot be imaged.
[0013]
[Means for Solving the Problems]
In view of the above-described problems, the present invention can recognize all the specific information of a plurality of moving objects, for example, the numbers of a plurality of vehicles traveling in a plurality of lanes, and pass across the lanes by a set of image information processing systems. It is an object of the present invention to provide an image information processing system capable of recognizing the numbers of all vehicles passing there even in various scenes, such as when a vehicle having a different approach direction passes simultaneously. That is, to provide a system that can shoot all of the vehicles without omission and recognize their numbers even when a plurality of vehicles pass simultaneously on a multi-lane road with a relatively simple configuration. With the goal.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 8 is a basic configuration diagram of an embodiment of the present invention. An image information processing apparatus according to an embodiment of the present invention includes a radar device 30 for detecting a vehicle passing through a predetermined monitoring area, and a detected vehicle within a specific range based on a detection signal from the radar device 30. Is detected when the vehicle enters the vehicle, and a radar processing device 40 for notifying the recognition device 20 of the position and traveling speed of the vehicle, a still image recording camera 10 for photographing the detected vehicle, and a radar processing device. When the detected position of the vehicle and the traveling speed are notified from 40, the still image recording camera 10 performs a shooting operation on the captured still image, and the notified position and traveling speed of the vehicle and the captured image are captured. The recognition apparatus 20 recognizes the number information of the vehicle by performing image analysis based on the still image.
[0015]
The recognition device 20 includes an initial search processing unit 21 and a car number extraction processing unit 22-1 and 22-2. These processing units 21, 22-1, and 22-2 are realized by different MPUs, for example. Further, the initial search processing unit 21 includes a photographing request unit 21a, a two-dimensional / three-dimensional coordinate conversion unit 21b, and a vehicle partial cutout unit 21c. The vehicle number cutout processing units 22-1 and 22-2 are respectively edge detection units. 22-1a and 22-2a, plate search units 22-1b and 22-2b, and character recognition units 22-1c and 22-2c. 9 and 10 are diagrams showing the monitoring range of the image information processing system. FIG. 9 shows the monitoring area for the vehicle M1 traveling in the direction toward the camera 10, and FIG. 10 shows the direction away from the camera 10. This represents a monitoring area for the traveling vehicle M2. The monitoring area will be described later.
[0016]
The radar device 30 and the still image recording camera 10 are provided in the center of the target road (see FIGS. 14 to 17), or as shown in FIGS. In this case, it is installed so that two lanes) can be monitored simultaneously. That is, the radar device 30 has a performance capable of detecting the vehicle over the range (fixed) of the radar monitoring region R1 in FIGS. 9 and 10, and is installed at a position and posture capable of exhibiting such performance. The In addition, the still image recording camera 10 has a function capable of photographing so that the photographing region R2 (fixed) is stored as a single still image, and is installed at a position and posture capable of exhibiting such a function. .
[0017]
In order to instruct the still image acquisition timing of the camera 10, the notification area R3 (fixed) for the vehicle M1 traveling in the direction toward the camera 10, and the vehicle M2 traveling in the direction away from the camera. A configuration in which a notification area R4 (fixed) is set, and when the radar device 30 detects a vehicle that enters the setting areas R3 and R4, the radar processing device 40 detects it and supplies a vehicle detection signal to the recognition device 20 It is said that.
[0018]
The operation of the image information processing system according to the embodiment of the present invention having the above configuration will be described below. In the present system, the radar device 30 has a known configuration for transmitting a radar wave and receiving a reflected wave generated by the radar wave being reflected by a target object. The radar processing apparatus 40 calculates the distance to the target object and the moving speed (including direction) of the target object by calculating the time difference from the transmission to reception of the radar wave and the Doppler shift amount of the wavelength.
[0019]
Further, the radar apparatus 30 obtains measurement results for each scan by repeating the above measurement at every fixed rotation angle while swinging in the horizontal direction with respect to the radar monitoring region R1. By collecting and analyzing these measurement results, it has a function of detecting the moving speed and position of the vehicle traveling on the road for each traveling vehicle.
[0020]
When a vehicle enters the radar monitoring region R1, the radar processing device 30 can detect all the vehicles that have entered. Further, the radar processing device 30 can also detect the approach direction of the detected vehicle by the moving speed and position detection function of the target object, and the notification area R3 is applied to the corresponding vehicle according to the detected approach direction or the notification area. Decide whether to apply R4. Then, it is determined whether or not the detected vehicle is within the range of the notification area determined as described above. If the detected vehicle is within the corresponding notification range, the speed of all the vehicles within the corresponding notification range with respect to the recognition device 20 is determined. And position (x in FIG. 13C)1, X2, Y1) Information.
[0021]
In addition, it turns out that the said position is calculated with the following numerical formula here from FIG.
[0022]
[Expression 1]
Figure 0004088182
In the above formula, l1, L2Is the three-dimensional distance from the radar device 30 to the target vehicle M (see FIGS. 13B and 13C), h is the height of the radar device 30 on the corresponding road (see FIG. 13B), α1, Α2Is the angle in the horizontal plane when the radar apparatus 30 detects the target vehicle M (see FIG. 13C), ysIs a horizontal distance from the radar device 30 to the camera photographing area (see FIGS. 13A and 13C). Of these data, l1, L2, Α1, Α2Is data that can be detected by the functions of the radar device 30 and the radar processing device 40, and ysIs a fixed value that can be measured in advance.
[0023]
9 and 10, different notification ranges R3 and R4 are set for the shooting region R2 of the fixed camera 10 depending on the moving direction of the vehicle for the following reason. That is, there is a slight time delay from the vehicle detection by the radar device 30 and the radar processing device 40 until the camera 20 is actually photographed by driving the camera 20 in the initial search processing unit 21 of the recognition unit 20 that has received the detection information. Exists. Therefore, when the vehicle M1 is traveling in a direction approaching the camera 10 as shown in FIG. 9, the notification area R3 is set at a position far from the camera 10 with respect to the imaging area R2, thereby the time delay Even if the vehicle M1 travels and approaches the camera 10, it does not deviate from the imaging region R2, and an image of the corresponding vehicle can be reliably captured at a predetermined resolution. Similarly, when the vehicle M2 is traveling away from the camera 10 as shown in FIG. 10, the notification area R4 is set at a position closer to the imaging area R2 from the camera 10, thereby reducing the time delay. Even if the vehicle M2 travels and is far from the camera 10, the shooting area R2 is not deviated and the vehicle can be reliably shot at a predetermined resolution.
[0024]
Next, the recognition device 20 that has received the notification signal transmits a shooting instruction signal to the camera 10 by the shooting request unit 21a of the initial search processing unit 21 to take a still image at that moment, and the shot image information. Is received by the 2D-3D coordinate conversion unit 21b. Further, the position coordinates (x1, Y1) And (x2, Y1) Is a coordinate (X) in pixel units on the still image obtained as described above through the following calculation by the 2D-3D coordinate conversion processing unit.1, Y1) And (X2, Y1).
[0025]
X1≒ (x1/ Xmax) ・ Xpic
X2≒ (x2/ Xmax) ・ Xpic
Y1≒ (y1/ Ymax) ・ Ypic
Where xmaxIs the width of the imaging region R2 (see FIG. 13C), ymaxIs the length of the imaging region R2 (see FIG. 13A), XpicIs the number of pixels in the horizontal direction of the acquired still image (see FIG. 12B), YpicIs the number of pixels in the vertical direction of the acquired still image (see FIG. 12B).
[0026]
Usually, since the height of the vehicle M is smaller than its width, the vehicle partial cutout processing unit 21c has coordinates (X in pixel units on the still image obtained by the 2D-3D coordinate conversion unit 21b.1, Y1), (X2, Y1) Height between the bottom and the following formula
Y2 = X1-X2
A target vehicle image portion (region surrounded by a broken line in FIG. 12B) is cut out from the acquired still image into a rectangular shape having The calculation processing by the two-dimensional to three-dimensional coordinate conversion processing unit 21b and the vehicle partial cut-out processing unit 21c is executed for each detected vehicle notified from the radar processing device 40.
[0027]
In this case, the size of the license plate information (width / height in pixel units) is uniquely determined according to the condition of the angle of view taken by the camera 10. With respect to the vehicle image cut out by the initial search processing unit 122, the pixel information corresponding to the edge portion is extracted by the edge detection units 22-1a and 22-2a, that is, the pixel information corresponding to the color / brightness between adjacent pixels is different by a certain level. Then, based on the information regarding the size of the uniquely obtained license plate information and the pixel information corresponding to the edge portion extracted by the edge detecting portion, the plate searching portions 22-1b and 22-2b correspond to the license plate. It is searched whether or not an image part matching the shape and size exists in the still image.
[0028]
That is, generally, information written on the license plate of the vehicle includes numbers and letters, and these numbers and letters information constitute an edge portion where the density on the photographed image changes suddenly, and thus corresponds to a specific license plate. If a portion including an edge portion in the size / shape is present in the captured image, it can be determined that the portion is an image portion corresponding to a license plate.
[0029]
If an image portion corresponding to the license plate exists as a result of the determination, the coordinate position (Px1, Py1, Px2, Py2) is stored. In addition, the character recognition units 22-1c and 22-2c are provided with the land support / classification / Characters included in the photographed image, that is, vehicle number information, are cut out for each hiragana / serial number and pattern matching is performed between the photographed image and character image information held in advance by predetermined software for each region. Recognize
[0030]
The vehicle number cut-out processing by the vehicle number cut-out processing units 22-1 and 22-2 can be performed in parallel, and is executed in parallel for the vehicle images cut out by the initial search processing unit 21, whereby the recognition device 20 The number information of all the vehicles that have passed can be recognized in a short time.
[0031]
As described above, according to the embodiment of the present invention, since the vehicle detection is performed by the radar processing device 40, the vehicle detection processing by image information processing every 1/30 seconds can be omitted as in the above-described conventional technology. . Therefore, the load on the CPU / MPU can be reduced, and the surplus processing capacity can be used for the car number cut-out process in the car number cut-out processing units 22-1 and 22-2. For this reason, it is possible to construct an image information processing system that enables recognition of the vehicle numbers of all passing vehicles when the vehicle is congested even by a CPU / MPU having a relatively low processing capability.
[0032]
In other words, the present invention is different from the prior art in that the radar processing unit 40 performs vehicle detection processing, so that the recognition device 20 itself does not need to perform timing determination processing for taking a still image, and sets the shooting direction of the passing vehicle in advance. There is no need. That is, since the recognition device 20 performs the initial search process by the initial search processing unit 21 in accordance with the approach direction of the corresponding passing vehicle included in the vehicle detection information from the radar processing device 40, it simultaneously detects vehicles with different approach directions. Even in this case, it is possible to perform information processing required by the initial search processing unit 21 without requiring an excessive amount of information processing. As a result, an image information processing system capable of capturing a single still image and recognizing the number information of each vehicle even when a plurality of vehicles enter the multiple lanes at the same time, has a relatively low processing performance. / MPU can be constructed.
[0033]
That is, in the present invention, the vehicle position is implemented by the radar device 30 and the radar processing device 40, the still image shooting timing is determined based on the detection information, and further, the vehicle position in the captured image can be specified. The work of searching for the vehicle image portion from the image can be greatly reduced. That is, in order to retrieve the vehicle image portion from the entire captured image, it is necessary to process all the pixels in the image. However, as in the present invention, the position of the vehicle portion in the image is previously determined by the function of the radar device and the radar processing device. Therefore, it is sufficient to process only the pixels in the specific portion, and the required pixel processing amount can be effectively reduced.
[0034]
Hereinafter, an actual operation example of the image information processing system according to the above-described embodiment of the present invention will be described in detail. First, as a first example, a case is assumed where one vehicle passes through a two-lane road on one side. FIG. 14 shows such a case. In this example, when one vehicle Ma enters the notification area R3 (see FIG. 9), as described above, based on the object detection information sequentially output from the radar apparatus 30 of the image information processing system shown in FIG. When the radar processing device 40 performs predetermined calculation processing, vehicle position information (xa1, ya1), (xa2, ya1) and the moving speed information Va of the vehicle Ma are obtained, and the vehicle position / speed information is recognized by the recognition device. 20 is notified.
[0035]
The recognizing device 20 that has received the data instructs the initial search processing unit 21 to instruct the still image recording camera 10 to acquire a photographed still image as shown in FIG. 14B, and further described with reference to FIG. According to the principle, the detected position information (xa1, ya1), (xa2, ya1) is converted into the coordinate data (Xa1, Ya1), (Xa2, Ya1) on the acquired still image, and based on the still image coordinate data. Then, a portion where the vehicle Ma is reflected (a portion surrounded by a broken line in FIG. 14B) is cut out. Thereafter, for example, the car number cut-out processing unit 22-1 executes a car number cut-out process on the cut-out vehicle image, and recognizes and outputs the number information of the vehicle.
[0036]
Next, as a second example, as shown in FIG. 15, a case is assumed in which two vehicles Ma and Mb pass in the same traveling direction on a road composed of two lanes L1 and L2 on one side. In this case, when two vehicles Ma and Mb in the same traveling direction enter the notification area R3 at the same time on the two-lane road on one side as shown in the figure, the radar processing device 40 uses the vehicle information [(xa1, ya1 ), (Xa2, ya1), Va] and [(xb1, yb1), (xb2, yb1), Vb] are acquired and notified to the recognition device 20. The recognizing device 20 that has received this data acquires the photographed still images (see FIG. 15B) of these detected vehicles via the still image recording camera 10 by the processing of the initial search processing unit 21, and is notified of the detected vehicles. The information [(xa1, ya1), (xa2, ya1), Va] and [(xb1, yb1), (xb2, yb1), Vb] are converted into still image coordinates [(Xa1, Ya1), (Xa2, Ya1), Va], and [(Xb1, Yb1), (Xb2, Yb1), Vb] after converting the image of the vehicle (portion surrounded by a broken line in FIG. 15B) Cut out each one. The two vehicle images clipped in this way are sent to the car number cut-out processing units 22-1 and 22-2, respectively, and the car number cut-out process is performed by parallel processing in these processing units. Recognize and output number information.
[0037]
Next, as a third example, as shown in FIG. 16, on the road with one lane on one side and two lanes L1 and L2, the vehicle Ma enters the notification area R3 (see FIG. 9) and at the same time the vehicle Mb Assume a case where the user enters the notification area R4 (see FIG. 10). In such a case, the radar processing device 40 has the vehicle information about the vehicles Ma and Mb, [(xa1, ya1), (xa2, ya1), Va] and [(xb1, yb1), (xb2, yb1), Vb] is acquired, and this is notified to the recognition device 20.
[0038]
The recognition device 20 that has received the data controls the still image recording camera 10 in the initial search processing unit 21 based on the data, causes the vehicle to be photographed, and acquires the still image (see FIG. 16B). Then, the notified detected vehicle information [(xa1, ya1), (xa2, ya1), Va] and [(xb1, yb1), (xb2, yb1), Vb] are converted into the coordinates [ (X1a, Y1a), (X1b, Y1b), Va], and [(X2a, Y2a), (X2b, Y2b), Vb]. A portion surrounded by a broken line in 16 (b) is cut out. The vehicle images thus cut out are subjected to vehicle number cut-out processing for each image by parallel processing by the vehicle number cut-out processing units 22-1 and 22-2, and the corresponding vehicle number information is recognized and output.
[0039]
In the fourth example, as shown in FIG. 17, when one vehicle M enters the notification area R3 across the lanes L1 and L2 on the road of the two lanes L1 and L2, the radar processing device 40 M vehicle information [(xa1, ya1), (xa2, ya1), Va] is acquired and notified to the recognition device 20. The recognizing device 20 that has received the data drives the still image recording camera 10 in the initial search processing unit 21 to obtain a still image of the corresponding vehicle, and the notified vehicle information [(xa1, ya1), (xa2, ya1), Va] are converted into coordinates [(X1a, Y1a), (X2a, Y1a), Va] on the still image, and a part in which the vehicle is shown based on these coordinates (broken line in FIG. 17B) Cut out the part surrounded by. The cut-out vehicle image is processed by, for example, the vehicle number cut-out processing unit 22-1, and the corresponding vehicle number information is recognized and output.
[0040]
In the embodiment of the present invention, since the horizontal position of the target vehicle can be detected as described with reference to FIG. 13C, the vehicle traveling across the diagonal line as in the case of the fourth example can be accurately detected. The position is detected, and the vehicle portion in the captured image can be correctly cut out as shown in FIG.
[0041]
As described above, according to the present invention, it is possible to automatically recognize the vehicle numbers of a plurality of lanes, and when several vehicles enter the plurality of lanes at the same time, or when vehicles of opposite traveling directions enter at the same time. Even in various situations such as when a vehicle passes across a lane, it is possible to realize a function of automatically recognizing the numbers of all vehicles simultaneously with one system.
[0042]
The embodiments of the present invention are not limited to those described above. For example, as shown in FIG. 7, the present invention can also be applied to a movable camera. In that case, it is possible to specify the position of the vehicle in the image captured by the camera and extract the desired image portion by combining the detection information of the radar device and the rotation angle information of the camera.
[0043]
The present invention includes configurations described in the following supplementary notes.
[0044]
(Appendix 1)
An image information processing system that extracts specific information of an object from a captured image obtained by capturing a moving object,
An object detection device using radar;
A calculation unit for calculating the position of the moving object based on detection information of the moving object by the object detection device;
An image information processing system including an image extraction unit that extracts an image portion related to the moving object in the captured image based on the position of the object obtained by the calculation unit.
[0045]
(Appendix 2)
The image information processing system according to appendix 1, further comprising: a specific information recognition device that recognizes specific information included in a predetermined position on the moving object from an image portion related to the moving object extracted by the image extraction unit.
[0046]
(Appendix 3)
The object detection device detects a plurality of moving objects that simultaneously pass through a predetermined region,
The calculation unit obtains the positions of the plurality of moving objects based on the detection information,
The image extraction unit extracts image portions related to the plurality of moving objects from the captured image based on the positions of the plurality of moving objects obtained by the calculation unit;
The image information processing system according to attachment 2, wherein the specific information recognition is configured to recognize specific information of each of the plurality of moving objects from an image portion related to the plurality of moving objects.
(Appendix 4)
The object detection device detects a plurality of moving objects that simultaneously pass through a predetermined region in different directions,
The calculation unit obtains the positions and moving speeds of the plurality of moving objects based on the detection result by the object detection device,
The image extraction unit extracts image portions related to the plurality of moving objects from the captured images acquired based on the positions and moving speeds of the plurality of moving objects obtained by the calculation unit,
The image information processing system according to Supplementary Note 2, wherein the specific information recognition is configured to recognize specific information of each of the plurality of moving objects from the extracted image portion regarding the plurality of moving objects.
(Appendix 5)
Further, among the supplementary notes 1 to 4, the image sensing device outputs a photographed image by photographing a predetermined region through which the moving object can pass at a predetermined timing based on detection information of the moving object of the object detection device. An image information processing system according to any one of the above.
[0047]
(Appendix 6)
The image information processing system according to any one of supplementary notes 1 to 5, wherein the moving object is a vehicle.
[0048]
(Appendix 7)
The image information processing system according to attachment 6, wherein the specific information included in the moving object is vehicle number information.
[0049]
(Appendix 8)
The arithmetic unit is configured to drive the imaging device to perform image shooting when it is determined by the detection information of the object detection device that the moving object has reached a predetermined notification area,
The predetermined notification area is set to a position relatively far from the imaging device when it is determined that the moving object is moving in a direction approaching the imaging device, and the moving object moves in a direction away from the imaging device. The image information processing apparatus according to appendix 5, wherein the image information processing apparatus is configured to be set at a position relatively close to the photographing apparatus when it is determined that the image is being captured.
[0050]
【The invention's effect】
According to the present invention, since the image acquisition and the image information analysis are performed based on the object detection information by the moving object detection means using the radar, the image acquisition timing and the image to be analyzed on the acquired image Processing such as region specification is performed by the moving object detection means. As a result, the image information processing target image portion, that is, the number of required pixels can be effectively narrowed down, and the amount of information processing required for image information processing can be effectively reduced. As a result, it is possible to provide an image information processing system that can perform information processing of a large number of moving objects at high speed.
[Brief description of the drawings]
FIG. 1 is a block diagram of a conventional image information processing system.
FIG. 2 is an operation flowchart of the image information processing system shown in FIG. 1;
3 is a diagram (No. 1) for explaining the processing contents of the image information processing system shown in FIGS. 1 and 2; FIG.
4 is a diagram (No. 2) for explaining the processing of the image information processing system illustrated in FIGS.
FIG. 5 is a diagram for explaining the configuration and processing of another conventional image information processing system.
6 is a diagram for explaining a problem of the system described in FIG. 5;
FIG. 7 is a diagram for explaining the configuration of another conventional image information processing system.
FIG. 8 is a block diagram for explaining a schematic configuration of an image information processing system according to an embodiment of the present invention;
9 is a diagram (No. 1) for explaining a monitoring area in the image information processing system shown in FIG. 8; FIG.
10 is a diagram (No. 2) for explaining a monitoring area in the image information processing system shown in FIG. 8; FIG.
11 is a block diagram showing a more detailed configuration of the recognition apparatus shown in FIG. 8. FIG.
12 is a diagram (No. 1) for describing the vehicle position search method by the recognition device shown in FIG. 11; FIG.
13 is a diagram (No. 2) for describing the vehicle position search method by the recognition device shown in FIG. 10; FIG.
FIG. 14 is a diagram (No. 1) for explaining an actual processing example in the image information processing system according to the embodiment of the present invention;
FIG. 15 is a diagram (No. 2) for explaining an actual processing example in the image information processing system according to the embodiment of the present invention;
FIG. 16 is a diagram (No. 3) for explaining the actual processing example in the image information processing system according to the embodiment of the present invention;
FIG. 17 is a diagram (No. 4) for describing an actual processing example in the image information processing system according to the embodiment of the present invention;
[Explanation of symbols]
10 Camera for taking still pictures
20 recognition device
21 Initial search processing section
22-1 and 22-2 Car number cut-out processing section
30 Radar equipment

Claims (3)

複数の移動物体を撮影して得られた同一の撮影画像から当該複数の移動物体の夫々が有する特定の情報を抽出する画像情報処理システムであって、
所定の領域を同時に通過する複数の移動物体を検知する、レーダーを使用した物体検知装置と、
該物体検知装置による当該複数の移動物体の検知情報に基づいて当該複数の移動物体の夫々の位置を演算によって求める演算部と、
前記演算部によって求められた当該複数の移動物体の夫々の位置に基づいて、当該複数の移動物体の夫々の、前記同一の撮影画像上での座標情報を求め、該座標情報に基づいて前記同一の撮影画像から前記複数の移動物体の夫々の画像部分を抽出する画像抽出部と
前記画像抽出部によって抽出された前記複数の移動物体の夫々の画像部分から、当該複数の移動物体の夫々における所定の位置に含まれる当該複数の移動物体の夫々の特定の情報を認識する特定情報認識装置とよりなる画像情報処理システム。
An image processing system for extracting specific information each of the plurality of moving objects have the same photographic image obtained by photographing a plurality of moving objects,
An object detection device that uses a radar to detect a plurality of moving objects that simultaneously pass through a predetermined area;
Based on the detection information of the plurality of moving objects by said object detection device, a calculation unit for determining the position of each of the plurality of moving objects by the calculation,
Based on the respective positions of the plurality of moving objects obtained by the calculation unit , the coordinate information on the same captured image of each of the plurality of moving objects is obtained, and the same based on the coordinate information. an image extraction unit that the photographed image extracting an image portion of each of the plurality of moving objects,
Specific information for recognizing specific information of each of the plurality of moving objects included in a predetermined position of each of the plurality of moving objects, from each image portion of the plurality of moving objects extracted by the image extraction unit. An image information processing system comprising a recognition device .
前記物体検知装置は所定の領域を同時に異なる方向に通過する複数の移動物体を検知し、
前記演算部は前記物体検知装置による検知情報に基づいて当該複数の移動物体の夫々の位置及びその移動速度を求め、
前記画像抽出部は上記演算部によって求められた複数の移動物体の夫々の位置及びその移動速度に基づき、前記同一の撮影画像から当該複数の移動物体の夫々の画像部分を抽出し、
前記特定情報認識装置は当該抽出された複数の移動物体の夫々の画像部分から当該複数の移動物体の夫々の特定情報を認識する構成の請求項に記載の画像情報処理システム。
The object detection device detects a plurality of moving objects that simultaneously pass through a predetermined region in different directions,
The calculation unit obtains the position and the moving speed of each of the plurality of moving objects based on the detection information by the object detection device,
The image extraction unit-out based on the position and the moving speed of each of the plurality of moving objects obtained by the calculation unit, out extract the image portion of each of the plurality of moving objects from the same photographic image,
The specific information recognition device image information processing system according to claim 1 which recognizes structure specific information of each of the plurality of moving objects from the image portion of each of the plurality of moving objects that are the extracted.
更に前記物体検知装置の前記複数の移動物体の検知結果に基づいて所定のタイミングにて当該複数の移動物体が通過し得る所定の領域を撮影して前記同一の撮影画像を出力する撮影装置よりなる請求項1又は2に記載の画像情報処理システム。Further, the imaging device is configured to capture a predetermined region through which the plurality of moving objects can pass at a predetermined timing based on the detection results of the plurality of moving objects of the object detection device, and output the same captured image. The image information processing system according to claim 1 or 2 .
JP2003072532A 2003-03-17 2003-03-17 Image information processing system Expired - Fee Related JP4088182B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003072532A JP4088182B2 (en) 2003-03-17 2003-03-17 Image information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003072532A JP4088182B2 (en) 2003-03-17 2003-03-17 Image information processing system

Publications (2)

Publication Number Publication Date
JP2004280593A JP2004280593A (en) 2004-10-07
JP4088182B2 true JP4088182B2 (en) 2008-05-21

Family

ID=33288705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003072532A Expired - Fee Related JP4088182B2 (en) 2003-03-17 2003-03-17 Image information processing system

Country Status (1)

Country Link
JP (1) JP4088182B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108182807A (en) * 2017-12-27 2018-06-19 天津智芯视界科技有限公司 A kind of generation method of car identifier

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100778390B1 (en) 2007-01-25 2007-11-21 주식회사 넥스파시스템 Automobile number recognition method from moving image
JP5517410B2 (en) * 2008-01-18 2014-06-11 三菱重工業株式会社 License plate recognition device, license plate recognition method, license plate recognition program
JP2011100409A (en) * 2009-11-09 2011-05-19 Yupiteru Corp In-vehicle electronic apparatus and program
WO2013119725A1 (en) * 2012-02-08 2013-08-15 Iteris, Inc. Vehicular observation and detection apparatus
KR101881458B1 (en) * 2017-03-09 2018-07-25 건아정보기술 주식회사 The region of interest extraction system for moving object
CN110874923B (en) * 2018-08-31 2022-02-25 阿波罗智能技术(北京)有限公司 Intelligent road side unit and control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108182807A (en) * 2017-12-27 2018-06-19 天津智芯视界科技有限公司 A kind of generation method of car identifier

Also Published As

Publication number Publication date
JP2004280593A (en) 2004-10-07

Similar Documents

Publication Publication Date Title
US7899211B2 (en) Object detecting system and object detecting method
US6956469B2 (en) Method and apparatus for pedestrian detection
EP3057063B1 (en) Object detection device and vehicle using same
US7103213B2 (en) Method and apparatus for classifying an object
US7512494B2 (en) Vehicle mounted image processor and method of use
KR102267335B1 (en) Method for detecting a speed employing difference of distance between an object and a monitoring camera
US7672514B2 (en) Method and apparatus for differentiating pedestrians, vehicles, and other objects
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
KR101999993B1 (en) Automatic traffic enforcement system using radar and camera
RU151809U1 (en) VIDEO SYSTEM FOR SECURITY OF VEHICLES
US20120033074A1 (en) Method and device for determining a valid lane marking
US20070237398A1 (en) Method and apparatus for classifying an object
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
KR20130138392A (en) System for detecting unexpected accident
KR101974105B1 (en) Photographing system and method for increasing recognition rate of vehicle number
CN110431562B (en) Image recognition apparatus
JP4067340B2 (en) Object recognition device and object recognition method
JP4088182B2 (en) Image information processing system
JP4123138B2 (en) Vehicle detection method and vehicle detection device
JP6431271B2 (en) Vehicle detection and vehicle number recognition device
JP2000011157A (en) Image pickup device
JPH07244717A (en) Travel environment recognition device for vehicle
KR102465167B1 (en) Vehicle number recognition system for increasing recognition rate of vehicle number using rear license plate
JP2003149256A (en) Vehicle speed measuring instrument
KR20080049472A (en) Information detecting system using photographing apparatus load in vehicle and artificial neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120229

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130228

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140228

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees