JP6229568B2 - 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6229568B2
JP6229568B2 JP2014061069A JP2014061069A JP6229568B2 JP 6229568 B2 JP6229568 B2 JP 6229568B2 JP 2014061069 A JP2014061069 A JP 2014061069A JP 2014061069 A JP2014061069 A JP 2014061069A JP 6229568 B2 JP6229568 B2 JP 6229568B2
Authority
JP
Japan
Prior art keywords
area
image
shielding
region
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014061069A
Other languages
English (en)
Other versions
JP2015186051A (ja
Inventor
悟志 小崎
悟志 小崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014061069A priority Critical patent/JP6229568B2/ja
Publication of JP2015186051A publication Critical patent/JP2015186051A/ja
Application granted granted Critical
Publication of JP6229568B2 publication Critical patent/JP6229568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置、画像処理システム、画像処理方法および画像処理プログラムに関する。
近年、撮像装置を用いて監視対象の領域を撮像し、撮像した画像を解析して所望の対象物を認識するシステムが普及している。例えば、撮像した画像から、道路を走行する車両の車番や運転者を認識するシステムがある。
また、監視対象物を認識するための技術には次のようなものがある。例えば、画像センサを遮るハンドル等が存在する状態で精度よく運転者を監視するために、画像のうちハンドルが撮像された遮蔽領域を検出し、画像のうち遮蔽領域を除いた画像領域内を探索して運転者の特徴点を追跡する技術が提案されている。
また、例えば、明部や暗部に含まれている画像からナンバープレートを確実に探索するために、ナンバープレートを見失ったとき等の予め定める条件となると、画像認識回路が作成した自動露光信号に代えて、露光走査回路が作成した露光走査信号を露光制御回路に与える技術が提案されている。
特開2010−225089号公報 特開平9−181963号公報
しかしながら、撮像画像から監視対象物を認識するシステムでは、時間経過とともに環境が変化して、撮像画像に遮蔽物が写り込む場合がある。例えば、車番を認識する場合のように撮像装置が屋外に設置されるシステムでは、撮像装置の近くに存在する樹木が折れたり成長したりすることで、撮像装置の前を樹木が遮蔽してしまう場合がある。
撮像画像の一部が遮蔽物により遮蔽されると、監視対象物の認識率が低下してしまう。また、撮像画像の全体が遮蔽物により遮蔽されると、監視対象物の認識処理が不可能になってしまう。
1つの側面では、本発明は、遮蔽物が存在する状態での監視対象物の認識率低下を抑制できる画像処理装置、画像処理システム、画像処理方法および画像処理プログラムを提供することを目的とする。
1つの案では、検出部と認識処理部とを有する画像処理装置が提供される。検出部は、撮像装置と監視対象領域との間に存在する遮蔽物が写る遮蔽領域を撮像画像から検出する。認識処理部は、撮像装置と監視対象領域との間に存在する遮蔽物が写る遮蔽領域を撮像画像から検出する。認識処理部は、撮像画像の一部に認識領域を設定する。認識処理部は、設定した認識領域の画像から監視対象物を認識する。認識処理部は、設定されている認識領域の少なくとも一部が遮蔽領域と重複する場合には、遮蔽領域と重複しないように認識領域の設定位置を監視対象物の移動方向と平行に移動させる。
また、1つの案では、監視対象領域を撮像する撮像装置と、撮像装置から入力される撮像画像から監視対象物を認識する画像処理装置とを有する画像処理システムが提供される。画像処理装置は、検出部と認識処理部とを有する。検出部は、撮像装置と監視対象領域との間に存在する遮蔽物が写る遮蔽領域を撮像画像から検出する。認識処理部は、撮像画像の一部に認識領域を設定する。認識処理部は、設定した認識領域の画像から監視対象物を認識する。認識処理部は、設定されている認識領域の少なくとも一部が遮蔽領域と重複する場合には、遮蔽領域と重複しないように認識領域の設定位置を監視対象物の移動方向と平行に移動させる。
また、1つの案では、上記画像処理装置と同様の処理をコンピュータが実行する画像処理方法が提供される。
さらに、1つの案では、上記画像処理装置と同様の処理をコンピュータに実行させる画像処理プログラムが提供される。
一側面では、遮蔽物が存在する状態での監視対象物の認識率低下を抑制できる。
第1の実施の形態の画像処理装置の構成例および処理例を示す図である。 第2の実施の形態の車番認識システムの例を示す図である。 撮像装置および車番認識装置の設置例を示す図である。 車番の認識例を示す図である。 遮蔽領域の検出例を示す図である。 解析領域の変更例を示す図である。 撮像装置および車番認識装置の機能例を示す図である。 分割領域情報テーブルの例を示す図である。 輝度情報テーブルの例を示す図である。 動線情報テーブルの例を示す図である。 車番を認識する処理の例を示すフローチャートである。 動線を算出する処理の例を示すフローチャートである。 遮蔽領域を検出する処理の例を示すフローチャートである。 解析領域を変更する処理の例を示すフローチャートである。 解析領域を変更する処理の例を示すフローチャート(続き)である。 第3の実施の形態の撮像装置および車番認識装置の機能例を示す図である。 第3の実施の形態の遮蔽候補点の検出例を示す図である。 第3の実施の形態の遮蔽候補点の検出例を示す図(続き)である。 第3の実施の形態の遮蔽候補点の検出例を示す図(続き2)である。 第3の実施の形態の遮蔽領域の検出例を示す図である。 第3の実施の形態の遮蔽候補点情報テーブルの例を示す図である。 第3の実施の形態の遮蔽領域を検出する処理の例を示すフローチャートである。 車番認識装置の機能を実現するコンピュータのハードウェア構成例を示す図である。
以下、本実施の形態を図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の画像処理装置の構成例および処理例を示す図である。画像処理装置10は、監視対象領域を撮像する撮像装置20から入力される撮像画像から所定の監視対象物を認識する装置である。監視対象領域には、移動する監視対象物が存在し得る。監視対象物の例として、車両のナンバープレートに表示される車番や、人の顔等が挙げられる。監視対象物の認識方法の例として、パターン認識等の方法が挙げられる。
画像処理装置10は、検出部11および認識処理部12を有する。
検出部11は、撮像装置20と監視対象領域との間に存在する遮蔽物が写る遮蔽領域2を撮像画像から検出する。
認識処理部12は、撮像画像の一部に認識領域1を設定して、設定した認識領域1から監視対象物を認識する。監視対象物の認識方法の例として、パターン認識等が挙げられる。
また、認識処理部12は、設定されている認識領域1の少なくとも一部が、検出された遮蔽領域2と重複する場合には、遮蔽領域2と重複しないように認識領域1の設定位置を移動させる。このとき、認識処理部12は、監視対象物の移動方向3に沿って認識領域1の設定位置を移動させる。
移動方向3は、予め画像処理装置10に設定されていてもよいし、撮像装置20から入力された画像を解析することで、算出してもよい。例えば、同一の車両(例えば、車両4a,4b)が写る複数の画像それぞれから、その車両の代表位置(例えば、車両のナンバープレートの画像の中点)を検出し、検出されたそれぞれの代表位置の線形近似により、移動方向3を算出できる。
ここで、画像処理装置10が、走行中の車両のナンバープレートに表示されている車番を、監視対象物として認識する例について説明する。
撮像画像21,22は、撮像装置20が所定の監視対象領域を撮像したときの画像である。撮像画像21,22の被写体として、走行中の車両が含まれる。車両には、ナンバープレートが設置されている。
撮像された画像においては、車両の走行に伴い、車両は左下から右上の方向(すなわち図1の移動方向3の方向)に移動する。車両は道路上を走行するので、各車両の移動方向が図1の移動方向3から大きくずれることは少ないし、各車両の走行経路が大きくずれることも少ない。
まず、画像処理装置10が撮像画像21を取得したとき、認識領域1は、図1右上に点線で示した位置に設定されているとする。また、検出部11は、撮像画像21の中に遮蔽物による遮蔽領域2を検出したとする。図1右上に示すように、検出された遮蔽領域2の一部が、設定されている認識領域1と重複している。この場合、認識領域1における車番の認識率が低下する。例えば、図1の撮像画像21では、認識領域1の内部に車両4aが写っているが、車両4aに設置されているナンバープレートは遮蔽領域2に隠れて撮像画像21に写っていない。この場合、認識処理部12は、撮像画像21から車両4aの車番を認識することはできない。
そこで、認識処理部12は、認識領域1の設定位置を移動させて、認識領域1と遮蔽領域2とが重複しないようにする。このとき、認識処理部12は、認識領域1を移動方向3と平行に移動させる。これにより、移動後の認識領域1は、遮蔽領域2と重複しない位置に設定されるだけでなく、車両の移動経路上に設定されるようになる。このため、認識処理部12が移動後の認識領域1から車番を認識した場合の車番の認識率は、移動前と同程度に維持される。
図1の例では、認識領域1の移動後に画像処理装置10が取得した撮像画像22において、移動後の認識領域1の内部に車両4bが写っているものとする。移動後の認識領域1は遮蔽領域2と重複していないので、認識処理部12は、認識領域1から車両4bのナンバープレート4cを抽出し、そこに写った車番を認識することができる。
第1の実施の形態の画像処理装置10によれば、上記の車両の例のように、監視対象物の移動状態に法則性がある場合に、撮像装置20と監視対象領域との間に遮蔽物が存在する状態での認識率の低下を抑制できる。すなわち、画像処理装置10は、設定されている認識領域の少なくとも一部が検出された遮蔽領域と重複する場合に、この遮蔽領域と重複しないように認識領域の設定位置を監視対象物の移動方向と平行に移動させる。これにより、認識領域が遮蔽物によって狭められた状態が解消されるとともに、移動後の認識領域に監視対象物が含まれる可能性が上がる。よって、認識領域の移動後に受信した画像(例えば、撮像画像22)についても、認識領域の移動前に受信した画像と比較して、監視対象物を認識できる確率を維持できる。また、画像処理装置10は、遮蔽物が物理的に除去されるまでの期間も、監視対象物の認識率を維持したまま、認識処理を継続することができる。
[第2の実施の形態]
図2は、第2の実施の形態の車番認識システムの例を示す図である。車番認識システム5は、撮像装置100および車番認識装置200を有する。車番認識装置200は、撮像装置100に接続されている。撮像装置100は、第1の実施の形態の撮像装置20の一例である。車番認識装置200は、第1の実施の形態の画像処理装置10の一例である。
撮像装置100は、画像を撮像する装置である。撮像装置100は、車両が走行する所定の領域を、所定時間間隔(例えば、1/30秒)で撮像する。以下、車両が走行する所定の領域を“監視対象領域”と記載する場合がある。
また、撮像装置100は、夜間に画像を撮像する場合、発光装置31を用いて所定時間(例えば、0.1秒)監視対象領域に対して光を照射する。撮像装置100は、撮像した画像を車番認識装置200へ送信する。なお、発光装置31と撮像装置100は、一体として用いられてもよい。
車番認識装置200は、撮像された画像を撮像装置100から受信する。車番認識装置200は、受信した画像を解析し、その画像に写る車両の車番を認識する。車番認識装置200は、認識した車番を示す情報を、例えば、図示しない遠隔地に存在する他のシステムへネットワークを経由して送信する。
図3は、撮像装置および車番認識装置の設置例を示す図である。図3の例では、撮像装置100および発光装置31は、柱6の上部に設置され。柱6は、車両(例えば車両32)が走行する道路脇に設置されている。また、車番認識装置200は、撮像装置100の近隣に(例えば、柱6の下部)に設置されている。
撮像装置100は、所定時間間隔で、車両が走行する道路を監視対象領域として撮像し、撮像した画像のデータを車番認識装置200へ送信する。そして、車番認識装置200は、受信した画像を解析して、道路上を走行する車両の車番を認識する。
なお、図3では、撮像装置100と車番認識装置200とが一体化された状態で、柱6に設置されるようにしてもよい。また、車番認識装置200は、遠隔地に設置され、ネットワークを経由して撮像装置100から画像を受信するようにしてもよい。ただし、画像は、データ量が大きく、撮像装置100から高い頻度(例えば、1/30秒毎)で送信される。そのため、ネットワークの負荷を考慮すると、図3に示すように、車番認識装置200は、撮像装置100付近に設置され、ネットワークを介さずに画像を受信することが好ましい。
次に、撮像装置100から受信した画像を車番認識装置200が解析して、その画像に写る車両の車番を認識する方法について説明する。
図4は、車番の認識例を示す図である。撮像装置100の画角は、車両の大きさに対して比較的広い道路領域が撮像されるように設定される。例えば、撮像装置100の画角は、撮像画像において車両の移動方向に複数の車両を並べて配置できる程度の画角に設定される。これは、後述するように、撮像画像の一部が木等の遮蔽物によって遮蔽された場合でも、撮像画像上の遮蔽領域外の部分から車番を認識できるようにするためである。
車番認識装置200は、撮像装置100から画像を受信すると、まず、受信した画像上の全領域を解析して、車両のナンバープレートの画像領域を抽出する。次に、車番認識装置200は、抽出したナンバープレートの画像の全領域が解析領域に含まれている場合、ナンバープレートの画像領域を解析して、その車両の車番を認識する。“解析領域”とは、車番認識装置200が受信する画像上の領域のうち、車番を認識するための解析処理を行う画像上の領域を意味する。車番認識のために画像を解析する領域を解析領域内に限定することで、画像を解析する処理の負荷が軽減される。
例えば、図4に示す画像51は、撮像装置100が監視対象領域を撮像したときの画像である。解析領域41は、画像51に破線で示した領域に設定されているとする。また、画像51の被写体には、車両32が含まれる。車両32には、ナンバープレート32aが設置されている。
ここで、車番認識装置200は、画像51のデータを撮像装置100から受信したとする。このとき、まず、車番認識装置200は、受信した画像51に写るナンバープレート32aの画像を抽出し、抽出した画像の全領域が解析領域41に含まれているか判定する。図4上段に示すように、ナンバープレート32aの画像の全領域は、解析領域41に含まれている。そのため、車番認識装置200は、ナンバープレート32aの画像を解析して、車両32の車番を認識する。
一方、画像52は、画像51を撮像したときと同様の監視対象領域を撮像装置100が撮像したときの画像である。画像52において、画像51と同じ内容については説明を省略する。画像52の被写体には、さらに、遮蔽物33が含まれる。遮蔽物33は、車両32のナンバープレートと撮像装置100との間に存在する。そのため、画像52の撮像の際、車両32のナンバープレートは遮蔽物33に遮られ、画像52には、ナンバープレートが写っていない。従って、車番認識装置200は、画像52から車番を認識することができない。
この図4下段の例のように、遮蔽物が監視対象領域に存在するとき、車番認識装置200による車番の認識率が低下する場合がある。ここで、監視対象領域を撮像したときの画像を目視で確認すれば、遮蔽物の存在を容易に確認できる。しかし、ネットワーク上の負荷を考慮して、監視対象領域が撮像されたときの画像のデータは、他のシステム(例えば、車番認識システム5から車番を示す情報を受信するシステム)に送信されない。そのため、上記他のシステムの管理者は、例えば、受信した車番の認識率の低下等により遮蔽物の存在の有無を判定することとなる。
しかし、遮蔽物の形状や大きさによっては、車番の認識率が急激に低下しない場合があり得る。このため、認識率の低下に基づいて遮蔽物の有無を判定すると、実際に遮蔽物が撮像装置100の前に現れてから遮蔽物があると判定するまでに、時間がかかってしまう場合がある。
また、遮蔽物を物理的に取り除く場合、屋外での作業が必要となり、遮蔽物を物理的に取り除くまでの間、車番の認識が中断される。この場合でも、遮蔽物を取り除く作業が行われるまでに時間がかかってしまう場合がある。
そこで、車番認識装置200は、撮像された画像に基づいて、遮蔽物が存在する画像上の領域を検出する。そして、車番認識装置200は、遮蔽物が存在する領域の一部が解析領域に含まれないように、解析領域の位置を移動する。
以下、遮蔽物が存在する画像上の領域を“遮蔽領域”と記載する場合がある。図5および図6を用いて、遮蔽領域の検出方法および解析領域の位置の移動方法について説明する。
図5は、遮蔽領域の検出例を示す図である。
車番認識装置200は、撮像装置100が夜に撮像したときの画像と、昼に撮像したときの画像を選択し、それらの画像の輝度に基づいて遮蔽領域を検出する。なお、各画像に写る遮蔽物の大きさや位置の差分を低減するため、夜に撮像された画像の撮像時刻と昼に撮像された画像の撮像時刻との差は、所定時間以内(例えば、24時間)であることが好ましい。また、遮蔽物の画像以外の領域の輝度のばらつきを抑制するため、車番認識装置200は、監視対象領域に車両が存在しないときに撮像された画像を選択することが好ましい。
画像53は、撮像装置100が夜に監視対象領域を撮像したときの画像である。画像53は、撮像の際、監視対象領域の光量を補うために、発光装置31により監視対象領域に光を照射した状態で撮像されている。画像53の被写体には、遮蔽物33が含まれる。遮蔽物33は、道路の位置と比較して、撮像装置100に近い場所に位置する。領域42は、画像53の一部の領域であり、遮蔽物33の画像を含む。画像53の撮像の際、発光装置31により被写体に照射される光量は、撮像装置100に近くなるにつれ、大きくなる。そのため、領域42の平均輝度は、領域42以外の領域の平均輝度と比較して、極端に大きくなる。
画像54は、画像53を撮像したときと同様の監視対象領域を、撮像装置100が昼に撮像したときの画像である。画像54において、画像53と同じ内容については説明を省略する。画像54は、撮像の際、監視対象領域の光量が十分であるため、発光装置31を用いずに撮像されている。画像54の撮像の際、日光により被写体に照射される光量は撮像装置100との距離に依存しないため、遮蔽物33を含む領域42の平均輝度と、画像54上の他の領域の平均輝度との差は小さい。
そこで、車番認識装置200は、画像53,54を用いて次のような手順で遮蔽領域を検出する。車番認識装置200は、夜に撮像された画像53から平均輝度が他の領域と比べ極端に大きい(差分が所定の閾値以上の)領域42を特定する。その後、車番認識装置200は、昼に撮像された画像54における領域42の平均輝度が他の領域の平均輝度と比較して変わらないか(差分が所定の閾値以内か)を判定する。図5下段では、画像54における領域42の平均輝度が、他の平均輝度と変わらないため、車番認識装置200は、領域42を遮蔽領域として検出する。
このように、監視対象領域に存在する遮蔽物を、発光装置31を用いて夜に撮像する場合、遮蔽物の画像を含む領域の平均輝度は、他の領域と比較して極端に大きくなる。そこで、車番認識装置200は、上記の方法により、発光装置31を用いて光が照射された状態で、照度が小さい監視対象領域を撮像する。そして、撮像された画像上の複数の領域のうち、平均輝度が他の領域と比較して極端に大きい領域を、遮蔽物の画像を含む遮蔽領域として検出する。
これにより、認識率の低下の変化量により遮蔽領域を検出する方法と比較して、遮蔽領域を短時間で検出できる。特に、夜に撮像したときの画像における上記平均輝度の差異は、遮蔽物と撮像装置100との距離が近づくにつれ大きくなるため、撮像装置100と遮蔽物との距離が近い場合、上記方法により、遮蔽領域を検出することが好ましい。
一方、撮像装置100の近くに位置する遮蔽物を昼に撮像する場合、撮像された画像上における遮蔽物が写る領域の平均輝度は、他の領域の平均輝度と比較して変わらない。そこで、上記方法で夜に撮像された画像から検出された領域を遮蔽領域の候補(遮蔽候補領域)として検出し、昼に撮像された画像について、遮蔽候補領域の平均輝度が他の領域の平均輝度と変わらない場合、遮蔽候補領域を遮蔽領域として検出する。これにより、遮蔽領域の誤検出を抑制できる。
なお、車番認識装置200は、昼に撮像したときの画像についての処理を省略し、上記方法により、夜に撮像したときの画像上の複数の領域それぞれの平均輝度に基づいて、遮蔽領域として検出してもよい。
図6は、解析領域の変更例を示す図である。
車番認識装置200は、遮蔽領域を検出したとき、遮蔽領域の少なくとも一部が、現在設定されている解析領域に含まれているか判定する。そして、車番認識装置200は、遮蔽領域の少なくとも一部が解析領域に含まれている場合、遮蔽領域と重複しない位置に解析領域を移動させる。このとき、車番認識装置200は、解析領域の移動方向の基準となる動線と平行の方向に、解析領域を移動させる。動線は、監視対象領域を走行する車両の平均的な移動経路を示す。車番認識システム5において、動線は、直線であるものとするが、動線の形状はこれに限定されるものではなく、曲線でもよい。
解析領域の移動方向の基準となる動線は、所定期間に撮像された車両毎に算出された動線に基づいて算出される。車両毎の動線は、同じ車両が撮像された複数の画像それぞれから、車両の特徴となる部位(例えば、ナンバープレート)を検出し、検出した各部位の代表位置(例えば、ナンバープレートの領域の中央)の位置関係に基づいて算出される。以下、解析領域の移動方向の基準となる動線を“基準動線”と記載する場合がある。
例えば、画像55は、撮像装置100が撮像した画像である。画像55の被写体には、遮蔽物33が含まれる。車番認識装置200は、図6上段に示す破線の位置に解析領域43を設定し、遮蔽物33を含む遮蔽領域45を遮蔽領域として検出している。図6上段に示すように、解析領域43には、遮蔽領域45の一部が含まれている。また、車番認識装置200は、図6上段に示す矢印の位置に基準動線として動線44を算出している。
図6上段のような状態では、解析領域43において車両のナンバープレートが遮蔽物33に隠れて写らない場合がある。その結果、車両の車番の認識率が低下し、車番認識装置200は、車両の車番の認識率を維持したまま認識処理を継続できない。
そこで、図6下段に示すように、車番認識装置200は、遮蔽領域45の一部が含まれないように、動線44と平行の方向に解析領域43を移動させる。これにより、画像に遮蔽物33が写る状態でも、画像に写る車両の車番の認識率を維持できる。例えば、遮蔽物33を屋外作業により物理的に取り除くまでの間も、画像に写る車両の車番の認識処理を継続できる。
また、動線44は監視対象領域内を走行する車両の移動方向を示すため、解析領域43を動線44の方向に平行に移動させることで、移動後の解析領域43にナンバープレートの画像が含まれる可能性が上がる。すなわち、解析領域43に遮蔽領域45の一部が含まれなくても、車両の走行範囲内に解析領域43が設定されていなければ、解析領域43からナンバープレートの画像が抽出されず、解析領域43の画像を解析しても車番を認識できない。これに対して、解析領域43を動線44と平行の方向に移動させることで、移動後の解析領域43は、車両の走行範囲内となる可能性が上がる。よって、解析領域43の移動前に受信した画像と比較して、解析領域43の移動後に受信した画像から、車番を認識できる確率を維持できる。
なお、車番認識装置200の初期状態における解析領域43の位置は、車番認識システム5の管理者により任意に設定されてもよいし、車番認識装置200に予め記憶されてもよいが、車両の移動範囲内に設定されることが好ましい。
図7は、撮像装置および車番認識装置の機能例を示す図である。撮像装置100は、発光制御部110、撮像部120および画像送信部130を有する。
発光制御部110は、撮像部120の命令に応じて、発光装置31に光を照射させる。発光装置31は、発光制御部110の命令に応じて所定時間(例えば、0.1秒)、監視対象領域に光を照射する。
撮像部120は、監視対象領域を、所定時間間隔(例えば、1/2秒)で撮像する。このときの画角や解像度は、予め撮像装置100に設定されている。撮像装置100の画角は、一度の撮像で複数の車両が写る範囲を撮像できるよう、広画角に予め設定されている。これにより、画像の全領域に対する解析領域および遮蔽領域の割合が小さくなるため、遮蔽領域の一部を含まない位置に、解析領域を移動できる可能性が大きくなる。
また、撮像部120は、夜に画像を撮像する際、監視対象領域の光量を補うために、発光制御部110に発光装置31での発光を要求する。夜であるかは、現在時刻に基づいて(例えば、18:00〜5:00の間の時刻であるかで)判定してもよいし、監視対象領域の照度を計測し、計測した照度に基づいて判定してもよい。照度に基づいて判定する場合、撮像装置100は、撮像画像から照度を検出してもよいし、照度を計測可能なセンサデバイスを備えてもよい。
画像送信部130は、撮像部120が撮像した画像のデータを車番認識装置200へ送信する。
車番認識装置200は、遮蔽領域情報記憶部210、監視情報記憶部220、画像受信部230、遮蔽領域検出部240、解析領域変更部250、車番領域検出部260、動線算出部270および車番認識部280を有する。遮蔽領域検出部240は、第1の実施の形態の検出部11の一例である。また、解析領域変更部250および車番認識部280は、第1の実施の形態の認識処理部12の一例である。
遮蔽領域情報記憶部210および監視情報記憶部220は、車番認識装置200が備えるRAM(Random Access Memory)またはHDD(Hard Disk Drive)に確保した記憶領域として実現できる。画像受信部230、遮蔽領域検出部240、解析領域変更部250、車番領域検出部260、動線算出部270および車番認識部280の処理は、例えば、車番認識装置200が備えるプロセッサが所定のプログラムを実行することで実現される。
遮蔽領域情報記憶部210は、分割領域に関する情報を予め格納した分割領域情報テーブルを記憶する。“分割領域”は、画像を複数の領域に分割したときの、分割後の領域を意味する。遮蔽領域情報記憶部210は、分割領域毎の平均輝度に関する情報を一時的に格納する輝度情報テーブルを記憶する。
監視情報記憶部220は、解析領域を示す解析領域情報221を記憶する。監視情報記憶部220は、基準動線を示す基準動線情報222を記憶する。監視情報記憶部220は、複数の異なる車両それぞれの動線に関する情報を一時的に格納する動線情報テーブルを記憶する。
画像受信部230は、監視対象領域を撮像したときの画像を、所定時間間隔で撮像装置100から受信する。
遮蔽領域検出部240は、画像受信部230が受信した画像から、昼に撮像された画像と、夜に撮像された画像を取得する。各画像は、車両が写っていないときに撮像されたものであることが好ましい。取得した各画像は、遮蔽領域検出部240が遮蔽領域を検出する処理を終了するまで、車番認識装置200の備える記憶装置の記憶領域に一時的に格納される。
遮蔽領域検出部240は、取得した各画像に基づいて、遮蔽領域を検出する。車番認識システム5において、分割領域情報テーブルに格納されている分割領域のいずれかが、遮蔽領域として検出される。
具体的には、まず、遮蔽領域検出部240は、夜に撮像された画像の各分割領域についての平均輝度を算出し、算出した分割領域毎の平均輝度を輝度情報テーブルに登録する。次に、遮蔽領域検出部240は、輝度情報テーブルを参照して、全分割領域のうち、他の分割領域と比較して平均輝度が極端に大きい分割領域を特定する。
次に、遮蔽領域検出部240は、昼に撮像された画像の各分割領域についての平均輝度を算出し、算出した分割領域毎の平均輝度を輝度情報テーブルに登録する。次に、遮蔽領域検出部240は、輝度情報テーブルを参照して、昼に撮像された画像において、夜の画像から特定された分割領域の平均輝度が他の分割領域の平均輝度と比較して変わらない場合、その特定された分割領域を遮蔽領域として検出する。遮蔽領域を示す情報は、例えば、遮蔽領域情報記憶部210に確保された記憶領域に格納される。
解析領域変更部250は、遮蔽領域検出部240が検出した遮蔽領域の少なくとも一部が、現在設定されている解析領域に含まれているか判定する。遮蔽領域の少なくとも一部が解析領域に含まれている場合、解析領域変更部250は、遮蔽領域の一部が含まれないように解析領域を移動させる。このとき、解析領域変更部250は、基準動線と平行方向に解析領域を移動する。解析領域の移動は、解析領域情報221を更新することにより実現できる。基準動線を示す情報は、基準動線情報222から取得可能である。
車番領域検出部260は、受信した画像の全領域から、車番領域(ナンバープレートの画像の領域)を検出する。車番領域の検出は、所定の大きさ以上の、ナンバープレートの色(例えば、白色)と同色の領域を探索することで検出してもよいし、テンプレートマッチングにより検出してもよい。ただし、車番領域検出部260は、画像の全領域から車番領域を検出するため、車番領域を検出する方法としては、プロセッサへの負担の小さい前者の方法を用いることが好ましい。
動線算出部270は、同じ車両が撮像された複数の画像それぞれから検出された各車番領域についての画像上の代表位置(例えば、車番領域の中央)に基づいて、その車両について動線を算出する。各画像の車番領域は、車番領域検出部260を用いて検出する。動線算出部270は、算出した動線に関する情報を動線情報テーブルに登録する。
動線算出部270は、上記のような動線の算出および登録を、複数の異なる車両それぞれについて、同一車両が撮像された複数の画像に基づいて実行する。動線算出部270は、動線情報テーブルに登録された複数の動線に基づいて基準動線を算出する。
車番認識部280は、車番領域検出部260を用いて、画像受信部230が受信した画像から車番領域が検出されるか判定する。車番領域が検出されたとき、検出された車番領域の全領域が解析領域に含まれているか判定する。解析領域を示す情報は、解析領域情報221を参照することで取得できる。車番領域の全領域が解析領域に含まれている場合、車番認識部280は、パターン認識等の画像認識方法により解析領域の画像を解析して、画像に写る車両の車番を認識する。車番認識部280は、認識した車番を示す情報を、例えば、図示しない他のシステムへ送信する。
次に、図8〜10を用いて、車番認識システム5が用いるテーブルについて説明する。
図8は、分割領域情報テーブルの例を示す図である。分割領域情報テーブル211は、分割領域に関する情報を予め格納する。分割領域情報テーブル211は、遮蔽領域情報記憶部210に記憶されている。分割領域情報テーブル211は、遮蔽領域を検出するときに用いられる。
分割領域情報テーブル211は、分割領域ID(Identification)および領域情報の項目を有する。分割領域IDの項目には、分割領域を識別するための識別子が設定される。
領域情報の項目には、分割領域を示す情報が設定される。車番認識システム5において、各分割領域は、同一サイズの長方形であるとする。また、分割領域を示す情報は、画像上の四隅の座標により表される。四隅の各座標は、“(X軸方向の位置,Y軸方向の位置)”により表される。なお、分割領域を示す情報は、右上と左下の隅の座標のみで表されてもよい。また、分割領域は、長方形に限定されず、台形や多角形であってもよい。また、分割領域の境界線は、曲線であってもよい。また、四隅の各座標は、上記の表現方法の他、緯度・経度等の別の方法により表されてもよい。
図9は、輝度情報テーブルの例を示す図である。輝度情報テーブル212は、分割領域毎の平均輝度に関する情報を一時的に格納する。輝度情報テーブル212は、遮蔽領域情報記憶部210に記憶されている。輝度情報テーブル212は、遮蔽領域を検出する際に用いられる。
輝度情報テーブル212は、時間帯、分割領域IDおよび平均輝度の項目を有する。
時間帯の項目には、画像を撮像した時間帯の種別を示す情報が設定される。例えば、夜(監視対象領域の照度が閾値未満である時間帯)に撮像された画像の場合、時間帯の項目には“夜”が設定され、昼(監視対象領域の照度が閾値以上である時間帯)に撮像された画像の場合、時間帯の項目には“昼”が設定される。
分割領域IDの項目には、撮像装置100により撮像される画像についての分割領域を識別するための識別子が設定される。平均輝度の項目には、対応する時間帯に撮像された画像の分割領域について算出された平均輝度が設定される。
図10は、動線情報テーブルの例を示す図である。動線情報テーブル223は、複数の異なる車両の動線に関する情報を一時的に格納する。動線情報テーブル223は、監視情報記憶部220に記憶されている。動線情報テーブル223は、基準動線を算出する際に用いられる。
動線情報テーブル223は、動線ID、始点および終点の項目を有する。動線IDの項目には、走行中の車両について算出された動線を識別するための識別子が設定される。始点の項目には、画像上の動線の始点を示す位置情報が設定される。終点の項目には、画像上の動線の終点を示す位置情報が設定される。車番認識システム5において、始点および終点の位置情報は、画像上の座標により表される。始点および終点の座標は、図8で説明した分割領域の四隅のいずれかの座標と同様の方法により表される。
例えば、始点が“(0,250)”であり、終点が“(370,0)”である動線は、車両が“(0,250)”から“(370,0)”の方向へ、直線的に移動したときの経路を示す。
次に、図11〜15を用いて、車番認識装置200が実行する処理について説明する。図11〜15において、車番認識装置200は、同じ画角および解像度で撮像された監視対象領域の画像を、撮像装置100から所定時間間隔で受信する。また、図11〜15では、解析領域を示す情報の取得は、解析領域情報221を参照することにより実現し、解析領域の移動および設定は、解析領域情報221の設定を変更することにより実現する。
図11は、車番を認識する処理の例を示すフローチャートである。図11の処理は、車番認識装置200が撮像装置100から画像を受信する度に実行される。以下、図11に示す処理をステップ番号に沿って説明する。
(S11)画像受信部230は、監視対象領域が撮像された画像のデータを撮像装置100から受信する。
(S12)車番領域検出部260は、受信した画像の全領域を解析して、車番領域を検出する。車番領域の検出は、例えば、所定の大きさ以上の白色領域を探索することで検出する。検出された車番領域を示す情報は、例えば、監視情報記憶部220に確保された記憶領域に一時的に格納される。図11の説明では、1つの画像から、1つの車番領域が検出されるものとする。
(S13)車番認識部280は、ステップS12で車番領域が検出されたか判定する。車番領域が検出された場合、処理をステップS14へ進める。車番領域が検出されなかった場合、処理を終了する。
(S14)車番認識部280は、ステップS12で検出された車番領域の全領域が解析領域に含まれているか判定する。車番領域の全領域が解析領域に含まれている場合、処理をステップS15へ進める。車番領域の一部の領域が解析領域に含まれていない場合、処理を終了する。
(S15)車番認識部280は、解析領域の画像を解析して、ステップS11で受信した画像に写る車両の車番を認識する。その後、車番認識部280は、例えば、認識した車番を示す情報を、図示しない他のシステムに送信する。
図12は、動線を算出する処理の例を示すフローチャートである。図12の処理で算出される動線は、直線であるものとする。図12の処理では、複数の異なる車両は、同じ車線を走行しているものとする。以下、図12に示す処理をステップ番号に沿って説明する。
(S21)動線算出部270は、同じ車両が撮像された複数の画像それぞれから車番領域を検出する。同じ車両であるかは、例えば、撮像装置100から連続して送信された複数の画像に、色彩や形状が同じ特徴である車両の画像が含まれるかにより判定できる。
(S22)動線算出部270は、ステップS21で検出した各車番領域に基づいて、画像に写る車両の動線を算出する。具体的には、動線算出部270は、取得した各画像から車番領域を検出し、検出された各車番領域の位置に基づいて、線形近似により直線を算出する。車番領域の検出には、車番領域検出部260が用いられる。
動線算出部270は、算出された直線を動線として動線情報テーブル223に登録する。ここでは、同じ車両が写る複数の画像のうち、最初の画像における直線の端部の座標を、動線の始点として登録し、最後の画像における直線の端部の座標を、動線の終点として登録する。
(S23)動線算出部270は、動線情報テーブル223に登録済の動線の数が閾値以上であるか判定する。登録済の動線の数が閾値以上である場合、処理をステップS24へ進める。登録済の動線の数が閾値未満である場合、処理をステップS21へ進める。
すなわち、動線算出部270は、異なる車両について閾値以上の数分の動線が算出されて動線情報テーブル223に登録されるまで、ステップS21〜S23の処理を繰り返す。
(S24)動線算出部270は、動線情報テーブル223に登録済の複数の動線に基づいて、基準動線を算出する。具体的には、動線算出部270は、動線情報テーブル223に登録済の動線の始点の平均値を、基準動線の始点として算出し、動線情報テーブル223に登録済の動線の終点の平均値を、基準動線の終点として算出する。そして、動線算出部270は、算出した基準動線を示す情報を基準動線情報222に設定する。
図13は、遮蔽領域を検出する処理の例を示すフローチャートである。図13の処理は、車番認識装置200により所定時間毎(例えば、1日毎)に実行される。また、図13の処理は、各画像には、車両が写っていないものとする。以下、図13に示す処理をステップ番号に沿って説明する。
(S31)遮蔽領域検出部240は、夜に撮像された画像を取得する。例えば、遮蔽領域検出部240は、夜を示す所定の時間帯(例えば、18:00〜5:00)に、画像受信部230を通じて画像を取得する。
(S32)遮蔽領域検出部240は、ステップS31で取得した画像(夜に撮像された画像)について、分割領域毎に平均輝度を算出する。各分割領域は、分割領域情報テーブル211に登録されている。
遮蔽領域検出部240は、算出した平均輝度に関する情報を輝度情報テーブル212に登録する。このとき、時間帯の項目には“夜”が設定され、分割領域の項目には平均輝度を算出したときの分割領域のIDが設定され、平均輝度の項目には算出した平均輝度が設定される。
(S33)遮蔽領域検出部240は、ステップS31で取得した画像について、他の分割領域と比較して平均輝度が極端に大きい分割領域が存在するか判定する。遮蔽領域検出部240は、例えば、ある1つの分割領域の平均輝度が、画像全体での分割領域の平均輝度の平均値より所定の値以上大きい場合に、その分割領域を平均輝度が極端に大きいと判定する。
各分割領域の平均輝度は、時間帯が“夜”であるレコードを輝度情報テーブル212から検索し、検索したレコードの各分割領域に対応する平均輝度を参照することで取得できる。
平均輝度が極端に大きい分割領域が存在する場合、処理をステップS34へ進める。平均輝度が極端に大きい分割領域が存在しない場合、遮蔽領域が検出されなかったと判定し、処理を終了する。
(S34)遮蔽領域検出部240は、ステップS33で判定された、他の分割領域と比較して平均輝度が極端に大きい分割領域を“遮蔽候補領域”として特定する。
(S35)遮蔽領域検出部240は、昼に撮像された画像を取得する。例えば、遮蔽領域検出部240は、昼を示す所定の時間帯(例えば、5:00〜18:00)に、画像受信部230を通じて画像を取得する。なお、昼に撮像された画像の撮像時刻と、ステップS31で取得した画像の撮像時刻との差は、所定時間以内(例えば、1日以内)であることが好ましい。
(S36)遮蔽領域検出部240は、ステップS35で取得した画像(昼に撮像された画像)について、分割領域毎に平均輝度を算出する。各分割領域は、分割領域情報テーブル211に登録されている。
遮蔽領域検出部240は、算出した輝度に関する情報を輝度情報テーブル212に登録する。このとき、時間帯の項目には“昼”が設定され、分割領域の項目には平均輝度を算出したときの分割領域のIDが設定される。また、平均輝度の項目には、対応する分割領域について算出された平均輝度が設定される。
(S37)遮蔽領域検出部240は、ステップS35で取得した画像について、遮蔽候補領域の平均輝度が他の分割領域の平均輝度と変わらないか判定する。他の分割領域の平均輝度と変わらないかは、例えば、画像全体での各分割領域の平均輝度の平均値と、遮蔽候補領域の平均輝度との差分が閾値より小さいかで判断できる。
各分割領域の平均輝度は、時間帯が“昼”であるレコードを輝度情報テーブル212から検索し、検索したレコードの各分割領域に対応する平均輝度を参照することで取得できる。
他の分割領域の平均輝度と変わらない場合、処理をステップS38へ進める。他の分割領域と比較して平均輝度が極端に大きい場合、遮蔽領域が検出されなかったと判定し、処理を終了する。
(S38)遮蔽領域検出部240は、ステップS34で特定した遮蔽候補領域を、遮蔽領域として検出する。遮蔽領域を示す情報は、例えば、遮蔽領域情報記憶部210に確保された記憶領域に格納される。
(S39)解析領域変更部250は、ステップS38で検出された遮蔽領域の少なくとも一部が解析領域に含まれているか判定する。遮蔽領域の少なくとも一部が解析領域に含まれている場合、処理をステップS40へ進める。遮蔽領域の少なくとも一部が解析領域に含まれていない場合、処理を終了する。
(S40)解析領域変更部250は、ステップS38で検出された遮蔽領域の一部が含まれないように、解析領域を移動させる。解析領域の移動処理の詳細は、図14〜15を用いて後で説明する。
図14は、解析領域を変更する処理の例を示すフローチャートである。図14〜15の処理は、図13のステップS40、または、後述する図22のステップS80で実行される。ここでは、図14〜15の処理は、図13のステップS40で実行されているものとして説明する。また、図14〜15の処理の実行前に、基準動線に関する情報が基準動線情報222に格納されている。以下、図14〜15に示す処理をステップ番号に沿って説明する。
(S51)解析領域変更部250は、基準動線と平行な一方の方向(例えば、車両の移動方向)に解析領域を移動させる。なお、車両の移動方向は、基準動線の始点から終点への方向となる。基準動線の始点および終点は、基準動線情報222を参照することで取得できる。
(S52)解析領域変更部250は、図13のステップS38で検出された遮蔽領域の一部がステップS51で移動後の解析領域に含まれていないか判定する。遮蔽領域の一部が移動後の解析領域に含まれていない場合、処理をステップS53へ進める。遮蔽領域の一部が移動後の解析領域に含まれている場合、処理をステップS51へ進める。
すなわち、解析領域変更部250は、ステップS51〜S52の処理により、遮蔽領域の一部が解析領域に含まれなくなるまで、基準動線と平行な一方の方向へ解析領域を移動させる。なお、ステップS51〜S52の処理では、移動後の解析領域が画像領域を逸脱することを許容する。
(S53)解析領域変更部250は、ステップS51〜S52で移動させた解析領域の位置を候補領域#1として設定する。
(S54)解析領域変更部250は、移動前の解析領域の位置から、基準動線と平行な他方の方向(例えば、車両の移動方向と逆方向)に解析領域を移動させる。なお、車両の移動方向の逆方向は、基準動線の終点から始点への方向となる。基準動線の始点および終点は、ステップS51と同様の方法により取得できる。
(S55)解析領域変更部250は、図13のステップS38で検出された遮蔽領域の一部がステップS54で移動後の解析領域に含まれていないか判定する。遮蔽領域の一部が移動後の解析領域に含まれていない場合、処理をステップS56へ進める。遮蔽領域の一部が移動後の解析領域に含まれている場合、処理をステップS54へ進める。
すなわち、解析領域変更部250は、ステップS54〜S55の処理により、遮蔽領域の一部が解析領域に含まれなくなるまで、基準動線と平行な他方の方向へ解析領域を移動させる。なお、ステップS54〜S55の処理でも、移動後の解析領域が画像領域を逸脱することを許容する。
(S56)解析領域変更部250は、ステップS54〜S55で移動させた解析領域の位置を候補領域#2として設定する。
図15は、解析領域を変更する処理の例を示すフローチャート(続き)である。
(S61)解析領域変更部250は、候補領域#1および候補領域#2の全領域がいずれも、撮像装置100から受信される画像の領域に含まれているか判定する。各候補領域の全領域がいずれも画像領域に含まれている場合、処理をステップS62へ進める。各候補領域のいずれかの少なくとも一部の領域が画像領域に含まれていない場合、処理をステップS63へ進める。
(S62)解析領域変更部250は、候補領域#1または候補領域#2のうち、移動量の少ない候補領域を、解析領域として解析領域情報221に設定する。
ここで、撮像装置100等の撮像装置は、図7で説明したように、画角を広くした状態で監視対象領域を撮像している。そのため、撮像装置100からの距離が異なる被写体が画像に含まれ、撮像範囲の全域で焦点のあった画像を撮像することが困難な場合があり得る。そのため、解析領域の移動量が多くなると、焦点が合っていない領域に解析領域が設定されるリスクが高くなる。上記のように、解析領域変更部250は、移動量の少ない候補領域を解析領域として選択することで、焦点が合っていない領域に移動後の解析領域が設定されるリスクを軽減できる。以下、移動量の少ない候補領域を、移動後の解析領域として選択する理由については、後述するステップS69についても、同様である。
(S63)解析領域変更部250は、候補領域#1または候補領域#2のいずれかの全領域が、撮像装置100から受信される画像の領域に含まれているか判定する。各候補領域のいずれかの全領域が画像領域に含まれている場合、処理をステップS64へ進める。各候補領域の一部の領域がいずれも画像領域に含まれていない場合、処理をステップS65へ進める。
(S64)解析領域変更部250は、全領域が画像に含まれると判定された候補領域を、解析領域として設定する。
(S65)解析領域変更部250は、候補領域#1,#2の一部の領域がいずれも画像に含まれていない場合、移動前の解析領域の位置から画像の端まで、基準動線に平行な一方の方向に解析領域を移動させる。具体的には、解析領域変更部250は、解析領域の全領域が画像に含まれ、かつ、解析領域の端部が画像の端部に接する場合、画像の端に移動したと判定する。
(S66)解析領域変更部250は、ステップS65で移動した解析領域の位置を、候補領域#3として設定する。
(S67)解析領域変更部250は、移動前の解析領域の位置から画像の端まで、基準動線と平行な他方の方向に解析領域を移動させる。画像の端に移動したかは、ステップS65と同様の方法により判定する。
(S68)解析領域変更部250は、ステップS67で移動した解析領域の位置を、候補領域#4として設定する。
(S69)解析領域変更部250は、候補領域#3または候補領域#4のうち、移動量の小さい候補領域を解析領域として設定する。
なお、図14〜15の処理では、解析領域変更部250は、複数の候補領域のうち、移動量の小さい候補領域を解析領域として設定するが、移動量の大きい候補領域を解析領域として設定してもよい。前者の場合、ステップS62で説明したように、焦点が合っていない領域に、移動後の解析領域が設定されるリスクを軽減できる点で好ましい。一方、後者の場合、移動後の解析領域と遮蔽領域とが重複する領域を小さくできるため、車番認識部280による車番の認識率の低下を抑制できる点で好ましい。
第2の実施の形態の車番認識システム5によれば、車番認識装置200は、遮蔽領域を検出し、検出した遮蔽領域の一部が解析領域に含まれている場合、遮蔽領域の一部が含まれない位置に解析領域を移動させる。このとき、車番認識装置200は、基準動線に平行な方向に解析領域を移動させる。これにより、監視対象領域に遮蔽物が存在する状態でも、監視対象領域内を走行する車両の車番の認識率を維持したまま、認識処理を継続できる。
また、車番認識装置200は、昼と夜に撮像した画像において、各分割領域の平均輝度に基づいて、遮蔽領域を検出する。これにより、認識率の低下により遮蔽領域を検出する方法と比較して、遮蔽領域を早期に検出できる。
[第3の実施の形態]
次に、第3の実施の形態の車番認識システムについて説明する。第3の実施の形態の車番認識システムは、第2の実施の形態の車番認識システム5を、同じ車両が撮像された複数の画像それぞれから検出された車番領域の位置関係に基づいて、遮蔽領域を検出するように変形したものである。
例えば、夜と昼に撮像された画像それぞれの分割領域毎の平均輝度に基づいて遮蔽領域を算出する方法では、遮蔽物が撮像装置100から離れた位置に存在する場合、遮蔽物の画像を含む分割領域の平均輝度が大きくならず、精度よく遮蔽領域を検出できない場合がある。
そこで、図16〜22では、同じ車両が撮像された複数の画像それぞれから検出された車番領域の位置関係に基づいて、遮蔽領域を検出する例について説明する。図16〜22において、第2の実施の形態と差異のある点を説明し、第2の実施の形態と同じ構成や処理については説明を省略する。
図16は、第3の実施の形態の撮像装置および車番認識装置の機能例を示す図である。車番認識装置200aについて、第2の実施の形態との違いは、遮蔽領域情報記憶部210が遮蔽領域情報記憶部210aに変更され、遮蔽領域検出部240が遮蔽領域検出部240aに変更されている点である。
遮蔽領域情報記憶部210aは、輝度情報テーブル212の代わりに、遮蔽候補点に関する情報を格納した遮蔽候補点情報テーブルを記憶する。遮蔽候補点は、画像における遮蔽物の位置の候補を意味する。遮蔽候補点は、同じ車両が撮像された複数の画像それぞれから検出された車番領域の位置関係に基づいて検出される。
遮蔽領域検出部240aは、同じ車両が撮像された連続する複数の画像それぞれから車番領域を検出し、検出した各車番領域における画像上の代表位置(例えば、車番領域の中央)に基づいて、遮蔽候補点を検出する。各画像の車番領域は、車番領域検出部260を用いて検出する。遮蔽領域検出部240aは、算出した遮蔽候補点に関する情報を遮蔽候補点情報テーブルに登録する。
遮蔽領域検出部240aは、上記のような遮蔽候補点の算出および登録を、複数の車両について繰り返し実行する。遮蔽領域検出部240aは、遮蔽候補点情報テーブルに登録された複数の遮蔽候補点に基づいて、遮蔽領域を検出する。
次に、図17〜20を用いて、遮蔽領域検出部240aが遮蔽領域を検出する方法について説明する。遮蔽領域検出部240aは、同じ車両が撮像された複数の画像それぞれから検出された各車番領域における画像上の代表位置(例えば、車番領域の左上の頂点)に基づいて、遮蔽候補点を検出する。そして、遮蔽領域検出部240aは、複数の車両それぞれが撮像された複数の画像について検出された複数の遮蔽候補点に基づいて、遮蔽領域を検出する。
以下、まず、図17〜19を用いて、遮蔽領域検出部240aが遮蔽候補点を検出する方法について説明し、次に、図20を用いて、遮蔽領域検出部240aが複数の遮蔽候補点に基づいて遮蔽領域を検出する方法について説明する。
遮蔽候補点は、ともに同一の車両の車番領域が写っている2つの画像の各撮像タイミングの間に、その車両の車番領域が写っていない画像が撮像されたことを利用して検出される。例えば、ある車両の走行中に第1の画像、第2の画像、第3の画像が時系列的に撮像され、第1の画像と第3の画像にその車両の車番領域が写っていたが、第2の画像にはその車番領域が写っていなかったとする。この場合、第2の画像において車番領域が存在すると推定される領域に、遮蔽物が存在する可能性がある。そこで、遮蔽領域検出部240aは、少なくとも第1の画像および第3の画像それぞれにおける車番領域の代表位置に基づいて、第2の画像における車番領域の位置を推定し、推定した位置を、遮蔽物が存在すると推定される遮蔽候補点とする。
以下の図17〜19に示す例では、遮蔽領域検出部240aは、車番領域が写っていない第2の画像の前後の第1の画像および第3の画像だけでなく、少なくとも、第1の画像より前または第3の画像より後に撮像され、車番領域が写っている1つ以上の画像も利用する。遮蔽領域検出部240aは、同一車両の車番領域が写っているこれらの3つ以上の画像に基づいて、車両の動線を算出し、算出した動線上に遮蔽候補点を決定する。
図17は、第3の実施の形態の遮蔽候補点の検出例を示す図である。画像61は、撮像装置100が監視対象領域を撮像したときの画像である。画像61の被写体には、車両34および遮蔽物35が含まれる。車両34は、例えば、一定の速度で走行している。また、車両34は、ナンバープレート34aを備える。図17上段に示すように、画像61において、ナンバープレート34aの画像は、画像61の左下に位置する。
画像62は、画像61を撮像したときと同様の監視対象領域を、画像61の撮像後に撮像装置100が撮像したときの画像である。画像62において、画像61と同じ内容については説明を省略する。図17下段に示すように、画像62において、ナンバープレート34aの画像は、画像61に写るナンバープレート34aの画像と比較して右上方向に位置する。
ここで、車番認識装置200aは、画像61および画像62を撮像装置100から受信したとする。この場合、車番領域検出部260により、画像61からは、画像61上のナンバープレート34aの画像が車番領域として検出され、画像62からは、画像62上のナンバープレート34aの画像が車番領域として検出される。
図18は、第3の実施の形態の遮蔽候補点の検出例を示す図(続き)である。画像63は、図17下段の画像62を撮像したときと同様の監視対象領域を、画像62の撮像後に撮像装置100が撮像したときの画像である。画像63において、画像62と同じ内容については説明を省略する。図18上段に示すように、車両34の画像は、図17下段の画像62に写る車両34の画像と比較して、右上方向に位置する。しかし、ナンバープレート34aは、遮蔽物35に遮られているため、画像63上には写っていない。
画像64は、画像63を撮像したときと同様の監視対象領域と同じ領域を、画像63の撮像後に撮像装置100が撮像したときの画像である。画像64において、画像63と同じ内容については説明を省略する。図18下段に示すように、画像64において、ナンバープレート34aの画像は、図17下段の画像62に写るナンバープレート34aの画像と比較して、さらに右上方向に位置する。
ここで、車番認識装置200aは、画像61,62の受信に続いて、画像63および画像64を撮像装置100から受信したとする。この場合、画像63からは、車番領域が検出されず、画像64からは、画像64上のナンバープレート34aの画像が車番領域として車番領域検出部260により検出される。
図19は、第3の実施の形態の遮蔽候補点の検出例を示す図(続き2)である。遮蔽領域検出部240aは、検出された各車番領域の位置に基づいて、次のように、遮蔽候補点を検出する。まず、検出された各車番領域の代表位置に基づいて動線を算出する。車番領域の代表位置の例として、車番領域の中央や、四隅の頂点のうちいずれかの頂点等の位置が挙げられる。動線の算出方法は、例えば、図12のステップS22と同様の方法を用いる。
次に、遮蔽領域検出部240aは、検出された各車番領域の位置を、算出した動線上の位置に変換する。動線上の位置への変換方法は、例えば、車番領域の代表位置から、算出された動線に下ろした垂線の足を変換後の位置とすることができるが、これに限定されるものではない。以下、上記変換後の位置を“変換位置”と記載する場合がある。
そして、遮蔽領域検出部240aは、複数の変換位置における、各隣接する変換位置間の距離を算出し、他の変換位置間と比較して距離が大きいと判断される変換位置間の中点を遮蔽候補点として検出する。他の変換位置間の距離と比較して大きいかは、例えば、変換位置間の各距離の平均値との差分が閾値以上であるかで判断できる。遮蔽領域検出部240aは、検出した遮蔽候補点に関する情報を遮蔽候補点情報テーブルに登録する。
図19に示す画像65は、画像61〜64を撮像したときと同様の監視対象領域を撮像装置100が撮像したときの画像である。画像65の被写体には、遮蔽物35のみが含まれる。この画像65を用いて、遮蔽候補点の検出例について説明する。
まず、遮蔽領域検出部240aは、図17〜18の画像61,62,64から車番領域を検出した後、検出された各車番領域の代表位置に基づいて動線46を算出する。次に、遮蔽領域検出部240aは、検出された各車番領域の代表位置を、動線46上の位置に変換する。図19には、画像65における変換後の変換位置34a−1,34a−2,34a−3を示している。変換位置34a−1は、画像61から検出された車番領域の代表位置に対応する変換位置である。また、変換位置34a−2は、画像62から検出された車番領域の代表位置に対応する変換位置であり、変換位置34a−3は、画像64から検出された車番領域の代表位置に対応する変換位置である。図19に示すように、変換位置34a−1,34a−2は隣接し、変換位置34a−2,34a−3は隣接する。
次に、遮蔽領域検出部240aは、変換位置34a−1,34a−2,34a−3について、互いに隣接する変換位置間の距離L1,L2を算出する。距離L1は、変換位置34a−1と変換位置34a−2との間の画像上の距離である。距離L2は、変換位置34a−2と変換位置34a−3との間の画像上の距離である。
そして、遮蔽領域検出部240aは、算出された各距離のうち、他の距離と比較して大きい距離に対応する、隣接する変換位置の中点を遮蔽候補点として検出する。図19に示すように、距離L1と比較して距離L2は大きい。そのため、遮蔽領域検出部240aは、変換位置34a−2と変換位置34a−3との中点を、遮蔽候補点47として検出する。遮蔽領域検出部240aは、検出した遮蔽候補点47に関する情報を遮蔽候補点情報テーブルに登録する。その後、遮蔽領域検出部240aは、複数の異なる車両について、同一の車両が写る複数の異なる画像に基づいて、図17〜19で説明した方法により、遮蔽候補点を検出して遮蔽候補点情報テーブルに登録する。
ここで、監視対象領域に遮蔽物が存在しないとき、監視対象領域内を一定の速度で走行している車両を所定時間間隔で複数回撮像したとき、撮像された複数の画像上の車番領域の変換位置における各隣接する変換位置間の距離は、一定の距離になる。一方、撮像された領域に遮蔽物が存在する場合、その遮蔽物により、一部の画像から車番領域が検出されない場合がある。
この場合、車番領域が検出されなかった画像の直前に撮像された画像から検出された車番領域の変換位置と、直後に撮像された画像から検出された車番領域の変換位置との間の距離は、他の車番領域の変換位置間の距離と比較して大きくなる。具体的には、撮像された車両が同じ速度で直線的に走行しているとすれば、上記前後の画像それぞれから検出された車番領域の変換位置間の距離は、他の車番領域の変換位置間の距離の2倍程度の距離となる。そのため、図17〜19で説明した方法により検出された位置を、遮蔽領域に含まれる位置の候補である遮蔽候補点として検出することができる。
なお、遮蔽領域検出部240aは、動線を用いる代わりに、検出された複数の車番領域の代表位置を変換せずにそのまま用い、隣接する代表位置間の各距離に基づいて、遮蔽候補点を算出してもよい。例えば、遮蔽領域検出部240aは、隣接する代表位置の組み合わせの中から、代表位置間の距離が極端に大きい組を選択する。そして、選択した代表位置間の中点を遮蔽候補点とする。
また、以上の例では、遮蔽候補点を複数組の代表位置間の距離に基づいて決定したが、遮蔽領域検出部240aは、例えば、車番領域が検出されなかった画像を特定し、その前後に撮像された各画像における車番領域の代表位置に基づいて、遮蔽候補点を決定してもよい。
図20は、第3の実施の形態の遮蔽領域の検出例を示す図である。遮蔽領域検出部240aは、撮像画像に写る車両ごとに遮蔽候補点を検出する。その結果、図20に示すような複数の遮蔽候補点が検出されたとする。
この場合、遮蔽領域検出部240aは、検出された全遮蔽候補点が含まれる長方形の領域を、遮蔽領域48として検出する。なお、遮蔽領域は、長方形の他、楕円形、円形、多角形等の閉じられた領域であってもよい。
図21は、第3の実施の形態の遮蔽候補点情報テーブルの例を示す図である。遮蔽候補点情報テーブル213は、遮蔽候補点に関する情報を格納する。遮蔽候補点情報テーブル213は、遮蔽領域情報記憶部210aに記憶されている。遮蔽候補点情報テーブル213は、遮蔽候補点ID、位置情報および分割領域IDの項目を有する。
遮蔽候補点IDの項目には、遮蔽領域検出部240aにより検出された遮蔽候補点を識別するための識別子が設定される。位置情報の項目には、検出された遮蔽候補点の画像上の位置情報が設定される。車番認識システムにおいて、遮蔽候補点の位置情報は、画像上の座標により表される。分割領域IDの項目には、遮蔽候補点が存在する分割領域を識別するための識別子が設定される。
図22は、第3の実施の形態の遮蔽領域を検出する処理の例を示すフローチャートである。図22の処理は、第2の実施の形態の遮蔽領域検出処理(図13の処理)のステップS31〜S40に代えて、ステップS71〜S80が実行される。また、図22で処理対象となる車両は、ほぼ一定の速度で走行しているものとする。以下、図22に示す処理をステップ番号に沿って説明する。
(S71)遮蔽領域検出部240aは、同一の車両が写る複数の画像に基づいて、図17〜19で説明した方法により、遮蔽候補点を検出する。遮蔽領域検出部240aは、検出した遮蔽候補点に関する情報を遮蔽候補点情報テーブル213に登録する。このとき、遮蔽候補点IDの項目には、検出した遮蔽候補点の識別子が設定され、位置情報の項目には、検出した遮蔽候補点の画像上の位置情報が設定され、分割領域IDには、遮蔽候補点の画像上の位置を含む分割領域の識別子が設定される。
なお、ステップS71の処理が最初に実行される際には、遮蔽候補点の検出の前に遮蔽候補点情報テーブル213の登録情報がクリアされる。
(S72)遮蔽領域検出部240aは、遮蔽候補点情報テーブル213に登録された遮蔽候補点の数が閾値以上か判定する。登録した遮蔽候補点の数が閾値以上である場合、処理をステップS73へ進める。登録した遮蔽候補点の数が閾値未満である場合、処理をステップS71へ進める。
すなわち、遮蔽領域検出部240aは、遮蔽候補点情報テーブル213に閾値以上の数の遮蔽候補点が登録されるまで、ステップS71〜S72による遮蔽候補点の検出および登録を、複数の異なる車両それぞれについて繰り返す。
(S73)遮蔽領域検出部240aは、分割領域情報テーブル211に登録されている分割領域を1つ選択する。
(S74)遮蔽領域検出部240aは、ステップS73で選択した分割領域内の遮蔽候補点をカウントする。具体的には、遮蔽領域検出部240aは、選択した分割領域のID(分割領域ID)を含むレコードを遮蔽候補点情報テーブル213から検索し、検索されたレコードの数を、選択した分割領域内の遮蔽候補点の数としてカウントする。
(S75)遮蔽領域検出部240aは、ステップS74でカウントされた遮蔽候補点の数が閾値以上か判定する。遮蔽候補点の数が閾値以上である場合、処理をステップS77へ進める。遮蔽候補点の数が閾値未満である場合、処理をステップS76へ進める。
(S76)遮蔽領域検出部240aは、ステップS74で検索された遮蔽候補点に関する情報を遮蔽候補点情報テーブル213から削除する。
(S77)遮蔽領域検出部240aは、分割領域情報テーブル211に登録されている全分割領域を選択済か判定する。全分割領域を選択済である場合、処理をステップS78へ進める。未選択の分割領域が存在する場合、処理をステップS73へ進める。
すなわち、遮蔽領域検出部240aは、ステップS73〜S77の処理を繰り返すことで、存在する遮蔽候補点の数が少ない分割領域に含まれる遮蔽候補点を遮蔽候補点情報テーブル213から削除する。これにより、誤検出された遮蔽候補点が遮蔽領域に含まれ、実際に遮蔽物が写っている領域より極端に大きい遮蔽領域が検出されることの発生確率を低減できる。
(S78)遮蔽領域検出部240aは、遮蔽候補点情報テーブル213に登録されている全遮蔽候補点を含む領域を遮蔽領域として検出する。第3の実施の形態の車番認識システムにおいて、遮蔽領域は、長方形とするが、遮蔽領域の形状はこれに限定されるものではなく、円形、楕円形、多角形等の形状であってもよい。
(S79)解析領域変更部250は、ステップS78で検出された遮蔽領域の少なくとも一部が解析領域に含まれているか判定する。遮蔽領域の少なくとも一部が解析領域に含まれている場合、処理をステップS80へ進める。遮蔽領域の少なくとも一部が解析領域に含まれていない場合、処理を終了する。
(S80)解析領域変更部250は、ステップS78で検出された遮蔽領域の一部が含まれないように、解析領域を移動させる。解析領域の移動処理の詳細は、図14〜15を用いて前述したとおりである。
第3の実施の形態の車番認識システムによれば、第2の実施の形態の車番認識システム5と同様の効果が得られる。さらに、車番認識装置200aは、発光装置を用いずに遮蔽領域を検出するため、遮蔽物と撮像装置100との距離が大きい場合でも、遮蔽領域を精度よく検出できる。
なお、第2の実施の形態で示した遮蔽領域の検出方法は、夜と昼に撮像された2つの画像のみを解析することで、遮蔽領域を検出できるため、遮蔽領域を検出する処理の負荷が小さい点において好ましい。また、第2の実施の形態で示した遮蔽領域の検出方法は、車両が写らない画像を用いても遮蔽領域を検出できるため、車両の速度に左右されずに遮蔽領域を検出できる点で好ましい。一方、第3の実施の形態で示した遮蔽領域の検出方法は、時間当たりの車両の通過台数が一定以上であれば、第2の実施の形態と比較して短時間で遮蔽領域を検出できる。
ところで、上記の各実施の形態で示した車番認識装置の機能のすべて、あるいはその一部の機能は、例えば、次の図に示すコンピュータのような情報処理装置によって実現することもできる。
図23は、車番認識装置の機能を実現するコンピュータのハードウェア構成例を示す図である。図23に示すコンピュータ300は、プロセッサ301、RAM302、HDD303、画像信号処理部304、入力信号処理部305、ディスクドライブ306および通信インタフェース307を有する。これらのユニットは、コンピュータ300内でバス308に接続されている。
プロセッサ301は、プログラムの命令を実行する演算器を含み、例えばCPU(Central Processing Unit)である。プロセッサ301は、HDD303に記憶されているプログラムやデータの少なくとも一部をRAM302にロードしてプログラムを実行する。なお、プロセッサ301は複数のプロセッサコアを備えてもよい。また、コンピュータ300は、複数のプロセッサを備えてもよい。また、コンピュータ300は、複数のプロセッサまたは複数のプロセッサコアを用いて並列処理を行ってもよい。また、2以上のプロセッサの集合、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)等の専用回路、2以上の専用回路の集合、プロセッサと専用回路の組み合わせ等を「プロセッサ」と呼んでもよい。
RAM302は、プロセッサ301が実行するプログラムやプログラムから参照されるデータを一時的に記憶する揮発性メモリである。なお、コンピュータ300は、RAM以外の種類のメモリを備えてもよく、複数個の揮発性メモリを備えてもよい。
HDD303は、OS(Operating System)やファームウェアやアプリケーションソフトウェア等のソフトウェアのプログラムおよびデータを記憶する不揮発性の記憶装置である。なお、コンピュータ300は、フラッシュメモリ等の他の種類の記憶装置を備えてもよく、複数個の不揮発性の記憶装置を備えてもよい。
画像信号処理部304は、プロセッサ301からの命令に従って、コンピュータ300に接続されたディスプレイ71に画像を出力する。ディスプレイ71としては、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイ等を用いることができる。
入力信号処理部305は、コンピュータ300に接続された入力デバイス72から入力信号を取得し、プロセッサ301に通知する。入力デバイス72としては、マウスやタッチパネル等のポインティングデバイス、キーボード等を用いることができる。
ディスクドライブ306は、記録媒体73に記録されたプログラムやデータを読み取る駆動装置である。記録媒体73として、例えば、フレキシブルディスク(FD:Flexible Disk)やHDD等の磁気ディスク、CD(Compact Disc)やDVD(Digital Versatile Disc)等の光ディスク、光磁気ディスク(MO:Magneto-Optical disk)を使用できる。ディスクドライブ306は、プロセッサ301からの命令に従って、記録媒体73から読み取ったプログラムやデータをRAM302またはHDD303に格納する。
通信インタフェース307は、他の情報処理装置(例えば、撮像装置100)と通信を行う。
なお、車番認識装置を実現するコンピュータ300はディスクドライブ306を備えていなくてもよく、専ら他の端末装置から制御される場合には、画像信号処理部304や入力信号処理部305を備えていなくてもよい。また、ディスプレイ71や入力デバイス72は、コンピュータ300の筐体と一体に形成されていてもよい。
例えば、図7に示した車番認識装置200の画像受信部230、遮蔽領域検出部240、解析領域変更部250、車番領域検出部260、動線算出部270および車番認識部280による処理のすべて、または一部を、プロセッサ301が所定のプログラムを実行することで実現することができる。同様に、図16に示した車番認識装置200aの画像受信部230、遮蔽領域検出部240a、解析領域変更部250、車番領域検出部260、動線算出部270および車番認識部280による処理のすべて、または一部を、プロセッサ301が所定のプログラムを実行することで実現することができる。
このように、上記の車番認識装置が有する機能の少なくとも一部は、コンピュータによって実現することができる。その場合には、上記機能の処理内容を記述したプログラムが提供される。そして、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。上記の各実施の形態で示した機能のすべて、あるいはそれらの一部がソフトウェア処理によって実現される場合には、それらの機能の処理内容を記述したプログラムが、例えばHDD303に記憶される。そして、そのプログラムがプロセッサ301に実行されることによって、それらの機能が実現される。
また、例えば、上記の各実施の形態で示した機能の一部についてはハードウェア回路として設けられてもよい。このようなハードウェア回路は、例えば、画像信号処理部304と一体に設けられてもよい。このような場合、上記一部の機能以外の機能のみ、ソフトウェア処理によって実現してもよい。
また、上記の車番認識装置が有する機能の少なくとも一部を実現させるプログラムは、コンピュータ読み取り可能な記録媒体(例えば、記録媒体73)に記録しておくことができる。記録媒体としては、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等を使用できる。磁気ディスクには、FDおよびHDDが含まれる。光ディスクには、CD、CD−R(Recordable)/RW(Rewritable)、DVDおよびDVD−R/RWが含まれる。
プログラムを流通させる場合、例えば、当該プログラムを記録した可搬記録媒体が提供される。また、プログラムを他のコンピュータの記憶装置に格納しておき、ネットワーク経由でプログラムを配布することもできる。コンピュータは、例えば、可搬記録媒体に記録されたプログラムまたは他のコンピュータから受信したプログラムを、記憶装置(例えば、HDD303)に格納し、当該記憶装置からプログラムを読み込んで実行する。ただし、可搬記録媒体から読み込んだプログラムを直接実行してもよく、他のコンピュータからネットワークを介して受信したプログラムを直接実行してもよい。また、上記の情報処理の少なくとも一部を、DSP、ASIC、PLD(Programmable Logic Device)等の電子回路で実現することも可能である。
1 認識領域
2 遮蔽領域
3 移動方向
4a,4b 車両
4c ナンバープレート
10 画像処理装置
11 検出部
12 認識処理部
20 撮像装置
21,22 撮像画像

Claims (9)

  1. 監視対象領域を撮像する撮像装置から入力される撮像画像から監視対象物を認識する画像処理装置において、
    前記撮像装置と前記監視対象領域との間に存在する遮蔽物が写る遮蔽領域を撮像画像から検出する検出部と、
    撮像画像の一部に認識領域を設定し、設定した前記認識領域の画像から前記監視対象物を認識する認識処理部であって、設定されている前記認識領域の少なくとも一部が前記遮蔽領域と重複する場合には、前記遮蔽領域と重複しないように前記認識領域の設定位置を前記監視対象物の移動方向と平行に移動させる前記認識処理部と、
    を有することを特徴とする画像処理装置。
  2. 前記検出部は、前記監視対象領域に向かって光を照射したときに前記撮像装置によって撮像された画像における輝度の分布状態に基づいて、前記遮蔽領域を検出することを特徴とする請求項1記載の画像処理装置。
  3. 前記検出部は、前記監視対象領域に向かって光を照射したときに前記撮像装置によって撮像された第1の画像における輝度の分布状態と、前記第1の画像とは異なる時間帯において、前記監視対象領域に向かって光が照射されていない状態で前記撮像装置によって撮像された第2の画像における輝度の分布状態とに基づいて、前記遮蔽領域を検出することを特徴とする請求項1記載の画像処理装置。
  4. 前記検出部は、前記第1の画像を分割して得られる複数の分割領域の中から、平均輝度が前記第1の画像における平均輝度より第1の値以上高い分割領域を選択し、前記第2の画像における前記選択した分割領域に対応する領域の平均輝度と、前記第2の画像における平均輝度との差分が第2の値以下である場合に、前記選択した分割領域を前記遮蔽領域と判定することを特徴とする請求項3記載の画像処理装置。
  5. 前記検出部は、前記撮像装置によって撮像された複数の画像の中に、同一の前記監視対象物が写っている2つの画像と、前記2つの画像の間に撮像された、当該監視対象物が写っていない画像とが存在するとき、前記2つの画像それぞれにおける当該監視対象物の位置に基づいて前記遮蔽領域の位置を判定することを特徴とする請求項1記載の画像処理装置。
  6. 前記撮像装置によって撮像された、同一の前記監視対象物が写っている複数の画像を取得し、前記複数の画像それぞれにおける当該監視対象物の位置に基づいて、前記移動方向を算出する移動方向算出部をさらに有することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 監視対象領域を撮像する撮像装置と、前記撮像装置から入力される撮像画像から監視対象物を認識する画像処理装置とを有する画像処理システムにおいて、
    前記画像処理装置は、
    前記撮像装置と前記監視対象領域との間に存在する遮蔽物が写る遮蔽領域を撮像画像から検出する検出部と、
    撮像画像の一部に認識領域を設定し、設定した前記認識領域の画像から前記監視対象物を認識する認識処理部であって、設定されている前記認識領域の少なくとも一部が前記遮蔽領域と重複する場合には、前記遮蔽領域と重複しないように前記認識領域の設定位置を前記監視対象物の移動方向と平行に移動させる前記認識処理部と、
    を有することを特徴とする画像処理システム。
  8. 監視対象領域を撮像する撮像装置から入力される撮像画像から監視対象物を認識する画像処理方法において、
    コンピュータが、
    撮像画像の一部に認識領域を設定して、設定した前記認識領域の画像から前記監視対象物を認識し、
    前記撮像装置と前記監視対象領域との間に存在する遮蔽物が写る遮蔽領域を撮像画像から検出し、
    設定されている前記認識領域の少なくとも一部が前記遮蔽領域と重複する場合には、前記遮蔽領域と重複しないように前記認識領域の設定位置を前記監視対象物の移動方向と平行に移動させ、移動後の前記認識領域の画像から前記監視対象物を認識する、
    ことを特徴とする画像処理方法。
  9. 監視対象領域を撮像する撮像装置から入力される撮像画像から監視対象物を認識する処理をコンピュータに実行させる画像処理プログラムにおいて、
    前記コンピュータに、
    撮像画像の一部に認識領域を設定して、設定した前記認識領域の画像から前記監視対象物を認識し、
    前記撮像装置と前記監視対象領域との間に存在する遮蔽物が写る遮蔽領域を撮像画像から検出し、
    設定されている前記認識領域の少なくとも一部が前記遮蔽領域と重複する場合には、前記遮蔽領域と重複しないように前記認識領域の設定位置を前記監視対象物の移動方向と平行に移動させ、移動後の前記認識領域の画像から前記監視対象物を認識する、
    処理を実行させることを特徴とする画像処理プログラム。
JP2014061069A 2014-03-25 2014-03-25 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム Active JP6229568B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014061069A JP6229568B2 (ja) 2014-03-25 2014-03-25 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014061069A JP6229568B2 (ja) 2014-03-25 2014-03-25 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015186051A JP2015186051A (ja) 2015-10-22
JP6229568B2 true JP6229568B2 (ja) 2017-11-15

Family

ID=54352149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014061069A Active JP6229568B2 (ja) 2014-03-25 2014-03-25 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6229568B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151706A (ja) * 2016-02-24 2017-08-31 沖電気工業株式会社 検出領域変更装置、検出領域変更方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3542237B2 (ja) * 1996-08-22 2004-07-14 株式会社日立製作所 移動体の認識方法および装置
JP2000331251A (ja) * 1999-05-20 2000-11-30 Fujitsu General Ltd 侵入者検出装置
JP4481432B2 (ja) * 2000-05-12 2010-06-16 日本信号株式会社 画像式監視方法、並びに、画像式監視装置およびそれを用いた安全システム
JP2004258981A (ja) * 2003-02-26 2004-09-16 Hitachi Ltd 車両監視方法およびその装置
JP2006345114A (ja) * 2005-06-07 2006-12-21 Matsushita Electric Ind Co Ltd 撮影領域調整装置および方法
JP2007122355A (ja) * 2005-10-27 2007-05-17 Sumitomo Electric Ind Ltd ナンバープレート読取装置、および、ナンバープレート読取制御方法
JP2009048225A (ja) * 2007-08-13 2009-03-05 Toshiba Corp 車両認識装置及び車両認識方法
JP5394952B2 (ja) * 2010-03-03 2014-01-22 セコム株式会社 移動物体追跡装置

Also Published As

Publication number Publication date
JP2015186051A (ja) 2015-10-22

Similar Documents

Publication Publication Date Title
US9514382B2 (en) Image processing apparatus and image processing method
JP4450532B2 (ja) 相対位置計測装置
JP6488083B2 (ja) 駐車区画占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法およびシステム
TW201205363A (en) Method and apparatus for detecting motion of image in optical navigator
JP6358552B2 (ja) 画像認識装置および画像認識方法
JP6226368B2 (ja) 車両監視装置、および車両監視方法
CN101281644A (zh) 基于视觉的导航和制导系统
KR102074857B1 (ko) 이벤트 기반 비전 센서를 이용한 근접 센서 및 근접 센싱 방법
US10762372B2 (en) Image processing apparatus and control method therefor
TWI514327B (zh) 目標偵測與追蹤方法及系統
CN108629225B (zh) 一种基于多幅子图与图像显著性分析的车辆检测方法
CN110738867A (zh) 一种车位检测方法、装置、设备及存储介质
EP3522073A1 (en) Method and apparatus for detecting road surface marking
JP6229568B2 (ja) 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム
CN101604380B (zh) 人头识别直径搜索法
JP6221283B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR102226372B1 (ko) 다수 카메라와 라이다 센서 융합을 통한 객체 추적 시스템 및 방법
JP5892254B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR101827114B1 (ko) 축사 근접 개체 탐지 장치 및 방법
JP7435244B2 (ja) 画像に基づく駐車検出方法、装置及び電子機器
JP7062959B2 (ja) 車両検知器、車両検知方法、および車両検知プログラム
JP4842301B2 (ja) 歩行者検出装置及びプログラム
JP2004252827A (ja) 車線認識装置
US20190370563A1 (en) Method for detecting raised pavement markers, computer program product and camera system for a vehicle
JP2020194447A (ja) 信号機認識装置、信号機認識方法および信号機認識のためのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171002

R150 Certificate of patent or registration of utility model

Ref document number: 6229568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150