JP5055092B2 - 映像処理装置及び映像処理方法 - Google Patents

映像処理装置及び映像処理方法 Download PDF

Info

Publication number
JP5055092B2
JP5055092B2 JP2007286086A JP2007286086A JP5055092B2 JP 5055092 B2 JP5055092 B2 JP 5055092B2 JP 2007286086 A JP2007286086 A JP 2007286086A JP 2007286086 A JP2007286086 A JP 2007286086A JP 5055092 B2 JP5055092 B2 JP 5055092B2
Authority
JP
Japan
Prior art keywords
image
camera
input
detection range
reduced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007286086A
Other languages
English (en)
Other versions
JP2009117956A (ja
Inventor
幸 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2007286086A priority Critical patent/JP5055092B2/ja
Priority to US12/261,365 priority patent/US8134614B2/en
Publication of JP2009117956A publication Critical patent/JP2009117956A/ja
Application granted granted Critical
Publication of JP5055092B2 publication Critical patent/JP5055092B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、監視システムに関わり、特に、監視領域内の物体を認識するための画像処理による映像処理装置に関する。
従来の映像監視装置においては、TVカメラ( Tel-Vision カメラ)等の撮像装置で監視領域内を所定の間隔で撮像し、取得した画像を画像処理によって解析して物体認識をしていた。
例えば、特許文献1では、監視領域内を撮像した画像をあらかじめ登録された背景画像と比較することによって物体認識を行って検出し、その後テンプレートマッチング法によって、検出した物体を追尾している。
また、特許文献2では、動き検出処理の演算処理の負荷をなるべく小さくするため、デジタルカメラなどでサムネイル表示用の画像を生成する目的等で使用されている汎用の画像縮小用ハードウエアエンジンを利用して、画像データを縮小してから画像処理を行っている。
特開2005−057743号公報 特開2005−012548号公報
上述の特許文献1では、背景画像、入力画像をそのままのサイズで処理しているため、処理速度が遅い。即ち、処理速度の遅いCPU( Central Processing Unit )を用いた場合や、メガピクセルカメラ等、1フレームあたり画素数のが多く処理するためのデータ数が多い場合には、リアルタイムに画像処理ができず、検出もれ、誤検出が起こる可能性がある。
また、特許文献2に記載されているように、画像を縮小する(間引く)ことによって処理するデータ数を減らし、相対的に処理速度を上げる場合には、単純に画像を縮小する必要がある。例えば、カメラが撮像した画像は、カメラからの距離を考えると、画面の下側が近く、画面の上側になるほど遠くなる。従って、画素数で考えると、同じ実サイズの像でも、カメラから近い位置にあるほど画素数が多く、遠い位置にあるほど画素数が少ない。
画像処理は、画素単位(1画素を1データ)で実行するので、画素数が多いほど処理結果は正確になるが処理速度が遅くなり、画素数が少なくなると処理速度は早くなるが処理結果の正確さが失われてくる。特に、監視領域内に多くの侵入物が入ってきた場合や、侵入物が大きく撮像された場合に、処理速度の低下や検出能力の低下につながる。
従って、画像処理を確実に実行するためには、画像を縮小する割合(縮小係数)をカメラ撮影条件に応じて適切に変える必要がある。即ち、適切な縮小係数で常に画像処理するためには、設定値を少しずつ変えながら、ユーザが1つずつ決定する必要があり、縮小係数を固定できない。そのため、監視場所に応じて適切な縮小係数を算出することが必要になり、やはり大きな処理量が発生する。
本発明の目的は、上記のような問題点を解決し、リアルタイムに処理が実行でき、かつ、検出もれ、誤検出が起きない物体検出方法及び映像監視装置を提供することにある。即ち、本発明の目的は、画像処理量をあまり増加せずに、適切な画像縮小係数になるように、設定値を自動的に変え、また、手前と奥で物体の大きさが大きく変わるような環境でも、物体検出が可能な映像処理装置を提供するものである。
上記の目的を達成するため、本発明の映像処理装置は、監視領域内を撮像するカメラから入力された入力画像を画像処理によって検出し物体認識方法を用いて、該監視領域内を監視する映像処理装置において、上記カメラの設置情報、上記監視領域内の物体検知範囲、及び検出したい物体の実サイズの入力を受け付ける手段と、入力された上記カメラの設置情報、上記監視領域内の物体検知範囲、及び検出したい物体の実サイズから縮小係数を算出する手段と、上記入力画像と背景画像を上記縮小係数で縮小して縮小入力画像と縮小背景画像を作成する手段と、上記縮小入力画像と上記縮小背景画像とで差分処理し差分画像を作成する手段と、上記差分画像を二値化処理し二値化画像を作成する手段と、上記二値化画像から物体を認識する手段を備えたものである。
また、上記発明の映像処理装置において、上記縮小係数を算出する手段は、上記物体検知範囲内の上記検出したい物体の最小の大きさになる地点を選択し、選択した最小地点の物体の画素のかたまりから上記縮小係数を算出するものである。
また、本発明の映像処理方法は、監視領域内を撮像するカメラから入力された入力画像を画像処理によって検出し物体認識方法を用いて、該監視領域内を監視する映像処理方法において、上記カメラの設置情報、上記監視領域内の物体検知範囲、及び検出したい物体の実サイズの入力を受け付けるステップと、入力された上記カメラの設置情報、上記監視領域内の物体検知範囲、及び検出したい物体の実サイズから縮小係数を算出するステップと、上記入力画像と背景画像を上記縮小係数で縮小して縮小入力画像と縮小背景画像を作成するステップと、上記縮小入力画像と上記縮小背景画像とを差分処理し差分画像を作成するステップと、上記差分画像を二値化処理し二値化画像を作成するステップと、上記二値化画像から物体を認識するステップを備えたものである
さらに、上記発明の映像処理方法において、上記縮小係数を算出するステップは、上記物体検知範囲内の上記検出したい物体の最小の大きさになる地点を選択し、選択した最小地点の物体の画素のかたまりから上記縮小係数を算出するものである。
本発明によれば、作業量をあまり増加せずに、適切な画像縮小係数になるように、設定値を少しずつ変え、また、手前と奥で物体の大きさが大きく変わるような環境でも、物体検出が可能とする物体検出方法及び映像監視装置を提供することができる。即ち、画像縮小係数が設置環境に応じて適切な値に自動的に設定されるため、検知精度を保ったまま、高速に処理することができる。
本発明の映像処理装置の実施形態を図1によって説明する。図1は、本発明の映像処理装置を使用する監視システムの一実施例の構成を示すブロック図である。101は監視領域内を撮像するカメラ、102は映像処理装置(画像処理装置)、115はビデオモニタである。また画像処理装置102において、103は画像処理装置の処理可能なフォーマットに変換する画像処理インターフェース(画像処理I/F)、104は画像間の演算若しくは画像の格納(保存、記録、若しくは書込み)に使用される画像メモリ、110はプログラムメモリ、111はワークメモリ、112はCPU( Central Processing Unit )、113は画像出力インターフェース(画像出力I/F)である。また更に、画像メモリ104において、105は背景画像の格納(保存、記録、若しくは書込み)を行う背景メモリ、106は画像入力I/F103から入力された画像データを複数フレーム分格納する入力メモリ、107は縮小された背景画像と縮小された入力画像を格納(保存、記録、若しくは書込み)を行う縮小画像メモリ、108は画像間の演算に用いる処理用メモリ、109は表示メモリである。また114はデータバスであり、データバス114を介して結合されている各構成要素間でのデータ転送に使用するものである。
図1において、カメラ101は、監視領域内を撮像し、撮像した画像を映像信号に変換して画像処理装置102に伝送する。伝送に使用する回線は、例えば、専用のネットワーク回線、ケーブル回線等であり、有線若しくは無線のどちらか、又は両方を使っても良い。
画像処理装置102では、画像入力I/F103がカメラ101から伝送された映像信号を受信し、アナログの映像信号をデジタル信号に変換(A/D変換)し、映像信号を0〜255の256階調の輝度信号に変換するなどの処理を行い、画像処理装置の処理可能なフォーマットの画像データに変換する。この画像データは、画像メモリ104に出力され、画像メモリ104内の入力メモリ106に格納される。
また、画像メモリ104は、画像入力I/F103から入力された画像データを入力メモリ106に格納する。
CPU112は、プログラムメモり110に格納されているプログラムに従って、データバス114を介して結合されるユニットと相互にアクセスし、画像処理装置102を制御する。例えば、CPU112は、ワークメモり111、画像メモり104を用いて画像解析を行う。
画像出力I/F113は、画像メモリ104内の表示メモリ109に格納されている画像データ(デジタルの映像信号)をアナログ信号に変換(D/A変換)して、変換したアナログの映像信号をビデオモニタ115に出力する。
ビデオモニタ115は、画像出力I/F113から入力された映像信号を、表示画面に表示する。
カメラ101は、図1の実施例では、固定カメラである。固定カメラとは、カメラ等の撮像装置を設置する時に、カメラの俯角、カメラの高さ、及びカメラの水平角、及びズーム倍率が、所定の値で設定されているカメラである。
しかし、本願の実施例は、固定カメラに限るものではなく、遠隔操作によって、パン操作(カメラの水平角の変更操作)、チルト操作(カメラの垂直方向(俯角)の変更操作)、ズーム倍率若しくは焦点距離の変更や、場合によっては、カメラの高さの変更が随時可能なカメラであっても良い。
このような視野角等の画角が変更されるカメラの場合には、図2等に後述する本発明の物体検出方法の処理動作を説明するためのフローチャートにおけるカメラの設置条件の設定値を、変更の都度、変えることで可能である。なお、図1には、ユーザが画像処理装置102を操作するために用いる入力装置(例えば、マウス等のポインティングデバイス、キーボード、等、若しくは、専用の入力装置)を図示していない。しかし、このような入力装置を使用することは、極めて一般的なことであるので、省略している。
本発明の物体検出方法の実施形態を、更に、図1〜図6によって説明する。
図2は、本発明の物体検出方法の処理動作を説明するためのフローチャートである。また、図3は、本発明の物体検出方法の原理を説明するための模式図である。
図3において、301は予め背景メモリ105に格納されている背景画像、302はカメラ101から入力され、入力メモリ106に格納された入力画像、303は縮小画像メモリに格納された背景画像301の縮小画像、304は縮小画像メモリに格納された入力画像302の縮小画像、305は縮小入力画像304から縮小背景画像303の輝度を画素毎に差分をとった差分画像である。
背景画像301と入力画像302は、画素数が横640×縦480である。また縮小画像303と縮小画像304は、画素数が横320×縦240である。
差分画像305は、入力画像と同様に、各画素毎に256階調の輝度差がある画像として表されるが、図3では表示し難いので、ハッチングで模式的に示している。
306は、各画素毎に差分画像305の輝度値について、所定のしきい値によって2値化処理し、しきい値以下の画素の輝度値を“0”、しきい値以上の画素の輝度値を“255”(0〜255ビットの256階調の場合)に変換した二値化画像(ダブルハッチング部分は輝度値が“0”、その他は輝度値が“255”)である。
307は、二値化画像306中の輝度値が“255”のノイズ画像領域、308は、二値化画像306から所定の画素サイズ以下の大きさのノイズ画像領域307を除去したノイズ除去画像である。なお、ノイズ画像領域307とは、1画素〜数画素(所定の画素サイズ)で構成される画素のかたまりである。
309は、ノイズ除去後に残った輝度値が“255”の領域で検出物体として認識される画像領域である。
310は、ノイズ除去画像308で残った輝度値が“255”の画像に番号付を行ったラベリング画像で、図3中では、2か所のノイズ画像領域307と画像領域309のうち、画像領域309の1かたまりだけ残ったので、1番目の輝度値が“255”の画像領域として、“N1”が付されている。
311は、ラベリングされた画像のサイズを測定した物体認識画像である。例えば、ラベリングされた認識画像N1は、それぞれ、その画素の大きさを画素数で表現され格納される。また、認識された物体の大きさは、例えばこのように、物体の領域を囲む矩形をとって、矩形の水平方向の大きさWと垂直方向画素数の大きさHとする。この時、画素数のデータの他画面の4点の位置座標(例えば、(W,H))も、メモリに格納される。
なお、図3で示した各画像の大きさは、説明上、大きく示したり、小さく示しているが、実際の画像の大きさに、絶対的及び相対的に即したものではない。
図4は、本発明のカメラ設置条件の設定方法の一実施例を説明するための図である。101はカメラ、401はカメラ101の俯角、402はカメラ101の設置高さ(水平な地面404からの距離)、403はカメラ101の水平方向の視野角、404は監視領域内の水平な地面である。図4では、地面404に対して水平方向で、真横からカメラ101を見た場合(若しくは、カメラ101の光軸を垂直方向に切ったような場合)の図を模式的に表している。また、図4と後述する図5では、簡略化のために、カメラ101以外の構成(例えば、カメラ101を取付け及び支持するポール等の支持部、電源ケーブル、その他のアクセサリ、等)は図示していない。また、カメラ101が撮像する画像の視野の中でカメラ101から最も近い場所までの水平距離をLで表わし、カメラ101から最も遠い場所までの水平距離をLで表わしている。
図5は、本発明のカメラ設置条件の設定方法の一実施例を説明するための図である。図5は、図4が真横から見た場合の図に対して、真上から見た図で、点P1、P2、P3、及びP4で囲まれた四角形は、点P1−P2を結ぶ直線が図4の水平距離L、点P3−P4を結ぶ直線が図4の水平距離Lを表す。また501はカメラ101の視野角、500はカメラ101の地面404の撮像領域であり、直線Zを通る断面が図4である。
なお、カメラの垂直方向の視野角501は、使用するカメラ101のアスペクト比(縦横比)によって決定される。例えば、縦3に対して横の比率の素子を使用する場合、カメラ101の水平方向の視野角403の75%となる。なお、ズーム倍率は、撮像領域501内の距離L〜L間に存在する若しくは進入すると想定される被写体を、焦点距離内で撮像可能な所定の値に固定される。
図6は、カメラ101が撮像した監視領域の画像の一例をビデオモニタ115に表示した図である。600はビデオモニタ115の表示画面に表示された画像(表示画像)、601は表示された画像600を見ながらユーザが設定した物体検知範囲(斜線部)である。
後述する図8と同様に、1画面(1フレーム)の画像の画素数は、横(x座標)640画素、縦(y座標)480画素である。このとき、一番左上隅の画素の位置座標(x,y)が(0,0)、一番右上隅の画素の位置座標が(640,0)、一番左下隅の画素の位置座標が(0,480)、一番右下隅の画素の位置座標が(640,480)である。また例えば、位置座標の原点(0,0)は、一番画面の左上隅の画素である。
まず、図2の設置条件設定ステップ201では、カメラ101の設置条件として、カメラの俯角401、カメラの高さ402、カメラの水平方向の視野角403をユーザ若しくは管理者(以降、ユーザと称する)の指定によって設定する処理を実行する。ただし、図1の実施例のように、カメラ101が固定カメラである場合には、カメラを設置した時の設定値を図示しない入力装置を介して入力するか、若しくは、既に物体検出の処理プログラムに書込まれて、入力不要となっていても良い。
次に、物体検知範囲設定ステップ202では、ユーザの指定によって、図6に示すような物体検知範囲601を設定する処理を実行する。物体検知範囲とは、設定された範囲内についてだけ、物体検出処理を行う監視領域内の一部の領域をいう。
物体検知範囲601は、本例では多角形で表現したが、四角形、円形等であっても良い。多角形で指定する場合には、ユーザが検知範囲を構成する各頂点を指定する方法が一般的である。更に、物体検知範囲は複数の領域であっても良い。
物体検知範囲設定ステップ202は省略することも可能である。即ち、ユーザが物体検知範囲を設定しないで、次のステップに移った場合は、画面全体を物体検知範囲とする。若しくは、処理プログラム自体から物体検知範囲設定ステップ202を削除しても良い。この場合にも、画面全体を物体検知範囲とする。なお、ここで、画面全体とは、監視領域内を撮像するカメラ101が撮像できる最大の視野範囲であり、図6では表示画像600がそれにあたる。
次に、実サイズ設定ステップ203では、ユーザの指定により、検出したい物体(被検出物体)の実サイズを設定する処理を実行する。例えば、立っている成人を検出したい場合には、幅(W)“0.5[m]”、高さ(H)“1.7[m]”と設定する。この場合、検出対象である人は、例えば、立っている成人であり、監視領域内を通過すると想定される成人の幅(W)と高さ(H)の平均値、等の代表値である。ここで、幅(W)は画面(表示画像600)の横方向の大きさ、高さ(H)は、画面(表示画像600)の方向の大きさである。
ただし、実際には、物体を検出する時には、設定された幅(W)と高さ(H)に対して自動的に最小値/最大値を算出するため、設定するサイズはおおまかで良い。例えば、幅(W)“0.5[m]”、高さ(H)“1.7[m]”の場合には、幅(W)“0.3〜0.8[m]”、高さ(H)“1〜2.5[m]”のように、所定の範囲を定める。このような所定の範囲は、例えば、監視領域内を通過すると想定される成人の幅(W)と高さ(H)の統計を取り、例えば、正規分布から標準偏差等のデータの散布度を求めて決定する。
次に、縮小係数算出ステップ204では、設置条件設定ステップ201、物体検知範囲設定ステップ202、及び実サイズ設定ステップ203で設定されたカメラの俯角401、カメラの高さ402、カメラの水平方向の視野角403、カメラの垂直方向の視野501、物体検知範囲601、検知物体の幅(W)、及び検知物体の高さ(H)から、画像の縮小係数を決定する(詳細は、後述する)処理を実行する。
そして背景画像作成ステップ205では、物体の存在しない背景画像の作成を行い、作成した画像を背景メモリ105に格納し、背景画像301とする処理を実行する。
入力画像取込ステップ206は、カメラ101が撮像した最新の画像を取込み、入力画像302として入力メモリ106に格納する処理を実行する。なお、カメラ101は、例えば、1[s]間に30フレームの画像を、撮像及び出力している。しかし、入力画像の取込は、これらカメラ101から出力された全ての画像ではない。例えば、60フレームに1フレーム(若しくは2[s]に1画像)、例えば、100フレームに1フレームの画像を取込み、取込んだ画像を対象に画像処理を行う。
画像縮小ステップ207は、背景メモリ105に格納されている背景画像301と、入力メモリ106に格納されている入力画像302を、画像縮小係数算出ステップ204で得られた画像縮小係数を用いて縮小し、縮小した背景画像(縮小背景画像)303と縮小した入力画像(縮小入力画像)304を作成する。作成された縮小背景画像303と縮小入力画像304は、縮小画像メモリ107に格納される。
差分ステップ208では、縮小画像メモリ107に格納されている縮小背景画像301と縮小入力画像304の画素毎の差分を画面全体について算出し、差分画像305を作成する処理を実行する。
二値化ステップ209では、差分ステップ208で作成された差分画像305を画素毎にしきい値処理し、差分値がしきい値未満の画素を輝度値“0”、しきい値以上の画素を輝度値“255”(1画素の輝度値は“0”から“255”の256階調で表現)とした二値化画像306を作成する処理を画面全体について実行する。
この二値化画像306において、輝度値が“0”となった画素の領域は物体が検出されなかった領域で、輝度値が“255”になった画素の領域(画素のかたまり)が検出物体が有る(検出すべき物体の候補)と考えられる画素の領域である。
次に、ノイズ除去ステップ210では、ノイズ除去処理を行う。ノイズ除去処理とは、撮像される画素の領域の大きさによって、検出された物体(二値化画像において輝度値が255になった画素領域、即ち検出すべき物体の候補)を検出すべき物体か否かを決定する処理である。
二値化画像306において、輝度値が255になった検出物体が有ると考えられる画素のかたまりには、検出しなくても良い物体もあるかもしれない。例えば、人を検出したいのに、猫等の小動物や落葉等を検出してしまうことも考えられる。また、実際の画像撮像時に発生するノイズ等もある。このため、次に述べるノイズ除去の処理を実行して、不要な画素のかたまりを検出すべき物体の候補から除外する必要がある。
即ち、ノイズ除去ステップ210では、二値化処理ステップ209で得られた二値化画像306から、実サイズ設定ステップ203で設定された被検出物体の実サイズ(例えば、幅“0.3〜0.8[m]”、高さ“1〜2.5[m]”)に相当する画素数(幅と高さ)の範囲内に入っていない画素のかたまりをノイズ領域307として除去し、ノイズ除去画像308を作成する処理を実行する。
ラベリングステップ211では、ノイズ除去ステップ210で作成されたノイズ除去画像308を用いて物体の番号付けの処理を実行する。即ち、作成されたノイズ除去画像308の輝度値が255の画素のかたまりそれぞれについて、番号を付け(ラベリングし)、それぞれの画素のかたまりを区別できるようにする処理を実行する。即ち、それぞれの画素のかたまりに図3のラベリング画像310に示すように“N1”、等を関連づける処理を実行する(以降、例えば、2番目の画素のかたまりには“N2”、3番目の画素のかたまりには“N3”、‥‥‥)。番号付けの結果、ラベリング画像310が作成される。
ラベリングステップ211により、ノイズ除去画像308で得られた物体領域309に対して、例えば“N1”という番号が付けられる。
物体追跡ステップ212では、1フレーム前の物体と現在のフレームでの物体の関連付けを行い、物体の軌跡情報を取得する処理を実行する。
物体認識ステップ213では、ラベリングステップ211で得られた物体N1に対して、物体の幅(W)と物体の高さ(H)を算出し、算出した物体の幅と高さをもとに、認識したい物体か否かを判断し、認識したい物体のみを抽出する処理を実行する。
物体有無判断ステップ214では、物体認識処理ステップ213の判断結果を用いて認識物体の有無を判断する処理を実行する。物体有りと判断された場合には、警報ステップ215に移行する。
物体有りと判断する場合には、物体認識処理ステップ213で認識したい物体と判断された物体(例えば、物体N1)の画素のかたまりが、物体検知範囲設定ステップ202で設定された物体検知範囲内に有るか否かで判断する。もし、物体検知範囲が設定されていない場合には、画面全体が物体検知範囲となるので、物体認識処理ステップ213で認識したい物体と判断された物体(例えば、物体N1)の画素のかたまりは、すべて、物体有りと判断されることになる。
物体検知範囲に有るか否かを判断する場合には、物体認識処理ステップ213で認識したい物体と判断された物体の画素のかたまりの、カメラ101に一番近い画素が物体検知範囲に有るか否かで判断する。なぜなら、検出物体は地面(地表)に沿って移動すると想定しており、また、カメラが撮像した画像は、カメラからの距離は画面の下側ほど近くなるからである。
警報ステップ215では、外部等に警報の出力を行う。また物体無しと判断された場合には、背景画像更新ステップ216に移行する。
背景画像更新処理ステップ216では、背景画像の更新を行い、得られた画像を背景メモリ105に格納し、入力画像取込みステップ206に戻り、入力画像取込みステップ206以降の処理を再度実行する。
なお、警報ステップ215では、警報だけでなく、検出された物体を画像を、別のモニタに表示したり、保存したり、所定のクライアントに伝送しても良いし、それらの少なくともいずれか1つを実行しても良い。また、背景画像更新ステップ216は省略したり、ユーザが適宜手動で設定しても良い。また、検出された物体の表示、保存、若しくは、伝送する画像は、縮小前の画像であっても、縮小後の画像でも、他の形式の画像でも良い。
なお更に、本発明では、物体追跡ステップ212、物体認識ステップ213、警報ステップ215、及び背景画像更新ステップ216では、検出した物体については、従来の一般的な追跡処理を実行しても良い。
次に上記実施例で説明した縮小係数算出ステップ204の詳細について、図1〜図6の他に、更に、図7と図8を使って説明する。
図7は、本発明の画像縮小係数の算出方法の処理動作の一実施例を説明するためのフローチャートである。また図8は、本発明の画像縮小係数の算出方法の一実施例を説明するための図である。図8は、図6の物体検知範囲601を座標で表して説明している図である。600は表示された画像、601は表示された画像600を見ながらユーザが設定した物体検知範囲、801a、801b、801c、801dは物体検知範囲601内の各地点、802は物体検知範囲601の一番遠方の境界線(物体検知範囲最小Yを表す仮想ライン)、803a、803b、803c、803dは人物である。ここで、人物803a、803b、803c、803dは、画面の位置座標によって、人物の幅(W)や高さ(H)が相対的に変化することを示すために配置したサンプル画像である。
図7の物体検知範囲判定ステップ701では、物体検知範囲設定ステップ202で物体検知範囲601があるか否かを判定する。物体検知範囲101があった場合には、物体検知範囲内最小/最大位置算出ステップ702を実行し、最小X位置、最大X位置、最小Y位置、最大Y位置を得、物体の幅/高さ算出ステップ704に進む。また、物体検知範囲601が設定されていなかった場合には、全監視領域最小/最大位置算出ステップ703に進む。
最小X位置とは、物体検知範囲601内で、カメラ101からの一番遠い地点の画素のx座標であり、最小Y位置とは、物体検知範囲601内で、カメラ101からの一番遠い地点の画素のy座標である。また、最大X位置とは、物体検知範囲601内で、カメラ101からの一番近い地点の画素のx座標であり、最大Y位置とは、物体検知範囲601内で、カメラ101からの一番近い地点の画素のy座標である。
全監視領域最小/最大位置算出ステップ703では、最小X位置のx座標を“0”、最大X位置のx座標を“640”(=画像サイズW)、最小Y位置のy座標を“130”、最大Y位置のy座標を“480”(=画像サイズH)とする。そして、物体の幅/高さ算出ステップ704に進む。
ここで、最小X位置−最大X位置を画像サイズWとしたのは、検出物体が地面(地表)に対して水平な位置に対しては遠近差が少なく、縮小係数を変更する要素があまりないからである。これに対して、最小Y位置が“0”とせず、“130”としたのは、図8の場合において、監視領域の遠方の(地面が終わる)境界(図6若しくは図8の境界802参照)がy座標で130であることから決定している。即ち、物体検知範囲601が設定されていなくても、検出される物体若しくは検出しなければならない物体が、その境界より遠方(y座標で“130”〜“0”)には存在しない(若しくは存在しても検出対象ではない)からである。
物体の幅/高さ算出ステップ704では、地点801a、801b、801c、及び801dにおいて、検出物体の実サイズ設定ステップ203で設定された大きさ、例えば、幅0.5m、高さ1.7mを、画素数に変換し、最小/最大の幅/高さ地点選択ステップ705に進む。
画像上での物体の幅、高さ、面積、等を実座標での値に変換する方式については、例えば、特開平7−37063号公報、特開2005−057743号公報等に記載されているような一般的な手法を用いる。
最小/最大の幅/高さ地点選択ステップ705では、物体の幅/高さ算出ステップ704で得られた、地点801a、801b、801c、及び801dのそれぞれにおける幅(画素数)、高さ(画素数)の大小判定を行い、最も小さな幅及び高さを持つ地点を選択し、縮小係数算出ステップ706に進む。
図8の実施例の場合には、地点801a若しくは地点801cが選択される。例えば、地点801aが選択され、最小幅W0minと最大高さH0minが決定される。
縮小係数算出ステップ706では、最小/最大幅・最小/最大高さ算出ステップ705で得られた最小幅W0min、最小高さH0minを用いて、縮小係数幅W、縮小係数幅Hを算出する。
縮小係数幅/高さ算出ステップ706で用いる係数Kは、任意の数(例えば、“1.5”、“2”等)、検出可能な幅W、及び高さHを画素数で設定する。
例えば、画像処理装置が検出可能な最小の幅を10画素、検出可能な最小高さを20画素とした場合に、選択された最も小さな幅及び高さを持つ地点での検出したい物体の最小幅W0minが40画素であれば、縮小係数を“2”とする。
縮小係数幅/高さ判定ステップ707では、縮小係数幅/高さ算出ステップ706で得られた、縮小係数幅W、縮小係数高さHの大小判定を行う。
縮小係数幅Wが縮小係数高さHより小さい場合には、縮小係数W決定ステップ708に進み、縮小係数幅Wが縮小係数高さHより大きいか若しくは等しい場合には、縮小係数H決定ステップ709に進む。
縮小係数W決定ステップ708では、縮小係数Rを縮小係数幅Wに決定して処理を終了する(図2のステップ208に進む)。
縮小係数H決定ステップ709では、縮小係数Rを縮小係数高さHに決定して処理を終了する(図2のステップ208に進む)。
このように、図7の実施例では、検知精度を保持するため、小さい方を選択する。
以上説明したように、本発明は、侵入物認識画像処理における画像縮小係数を算出する手法である。上記実施例によれば、設定された撮像条件、検知範囲、検出物体の実サイズ等のパラメータから、画像縮小係数を自動的に決定する。これにより、精度を落とすことなく、かつ最大限高速に処理することを可能とした。
即ち、上記実施例によれば、画像縮小係数を設置環境に応じて適切な値に自動的に設定するため、検知精度を保ったまま、高速に処理することができる。
上述の実施例では、背景画像と入力画像との差分処理(背景差分処理)を行ってから二値化処理を行った。しかし、背景差分処理ではなく、入力画像間で差分処理(フレーム間差分)を行ってから二値化処理を行って、物体検出を行っても良い。
なお、上述の実施例においては、視野角を設定するが、レンズの焦点距離、カメラのCCDサイズから視野角を算出可能であるため、レンズの焦点距離、CCDサイズを設定する方法でも良い。
また、図4及び図5に示す実施例では、カメラ101と点P1、及びカメラ101とP2との距離、並びにカメラ101と点P3、及びカメラ101とP4との距離が共に等しい場合には、図7の縮小係数算出ステップ204において、横方向(x座標)のパラメータは考慮する必要がない。従って、その場合には、x座標について、処理を省略しても良い。
また更に、カメラ101の設置できる場所は、監視領域によっては制約があり、理想的な条件で設置できない。例えば、地面が水平であることは少ない。また更に、監視領域の地形によっては、カメラ101そのものを、その光軸を中心として回転させる必要がある。従って、図4と図5及びその説明では省略しているが、図7の処理では、カメラの画角の回転も考慮し、地面をできるだけ水平に撮像できるようにするために、カメラ101そのものを、その光軸を中心として回転させても良い。
また、上述の実施例において、監視領域を撮像するカメラはアナログの映像信号を出力するカメラであった。しかし、カメラはこれに限定するわけではなく、デジタルの映像信号を出力するカメラであっても良い。またカメラは1台ではなく、2台以上あっても良く、アナログ信号を出力するカメラとデジタル信号を出力するカメラが混在した監視システムでも良い。
更に、カメラから出力される映像信号がデジタル信号であっても、カメラから画像処理装置(映像処理装置)に伝送するために、さまざまな加工が施されているため、画像処理装置の画像入力I/Fは、A/D変換こそする必要はしないが、画像処理装置の処理可能なフォーマットに変換するために必要である。
本発明の映像監視装置の一実施例の構成を示すブロック図。 本発明の物体検出方法の処理動作を説明するためのフローチャート。 本発明の物体検出方法の原理を説明するための模式図。 本発明のカメラ設置条件の設定方法の一実施例を説明するための図。 本発明のカメラ設置条件の設定方法の一実施例を説明するための図。 本発明の物体検知範囲の設定方法の一実施例を説明するための図。 本発明の画像縮小係数の算出方法の処理動作の一実施例を説明するためのフローチャート。 本発明の画像縮小係数の算出方法の一実施例を説明するための図。
符号の説明
101:カメラ、 102:画像処理装置102、103:画像処理I/F、 104:画像メモリ、 105:背景メモリ、 106:入力メモリ、 107:縮小画像メモリ、 108:処理用メモリ、 109:表示メモリ、 110:プログラムメモリ、 111:ワークメモリ、 112:CPU、 113:画像出力I/F、 114:データバス、 115:ビデオモニタ、 301:背景画像、 302:入力画像、 303:縮小背景画像、 304:縮小入力画像、 305:差分画像、 306:二値化画像、 307:ノイズ画像領域、 308:ノイズ除去画像、 309:検出物体として認識される画像領域、 310:ラベリング画像、 311:物体認識画像、 401:カメラの俯角、 402:カメラの設置高さ、 403:カメラ水平方向の視野角、 404:地面、 500:撮像領域、 501:視野角、 600:監視領域の画像、 601:物体検知範囲、 801a、801b、801c、801d:物体検知範囲内の各地点、 802:物体検知範囲の境界線、 803a、803b、803c、803d:人物。

Claims (4)

  1. 監視領域内を撮像するカメラから入力された入力画像を画像処理によって検出し物体認識方法を用いて、該監視領域内を監視する映像処理装置において、
    上記カメラの設置情報、上記監視領域内の物体検知範囲、及び検出したい物体の実サイズの入力を受け付ける手段と、入力された上記カメラの設置情報、上記監視領域内の物体検知範囲、及び検出したい物体の実サイズから縮小係数を算出する手段と、上記入力画像と背景画像を上記縮小係数で縮小して縮小入力画像と縮小背景画像を作成する手段と、上記縮小入力画像と上記縮小背景画像と差分処理し差分画像を作成する手段と、上記差分画像を二値化処理し二値化画像を作成する手段と、上記二値化画像から物体を認識する手段を備えたことを特徴とする映像処理装置。
  2. 上記縮小係数を算出する手段は、上記物体検知範囲内の上記検出したい物体の最小の大きさになる地点を選択し、選択した最小地点の物体の画素のかたまりから上記縮小係数を算出することを特徴とする請求項1記載の映像処理装置。
  3. 監視領域内を撮像するカメラから入力された入力画像を画像処理によって検出し物体認識方法を用いて、該監視領域内を監視する映像処理方法において、
    上記カメラの設置情報、上記監視領域内の物体検知範囲、及び検出したい物体の実サイズの入力を受け付けるステップと、入力された上記カメラの設置情報、上記監視領域内の物体検知範囲、及び検出したい物体の実サイズから縮小係数を算出するステップと、上記入力画像と背景画像を上記縮小係数で縮小して縮小入力画像と縮小背景画像を作成するステップと、上記縮小入力画像と上記縮小背景画像とを差分処理し差分画像を作成するステップと、上記差分画像を二値化処理し二値化画像を作成するステップと、上記二値化画像から物体を認識するステップを備えたことを特徴とする映像処理方法。
  4. 上記縮小係数を算出するステップは、上記物体検知範囲内の上記検出したい物体の最小の大きさになる地点を選択し、選択した最小地点の物体の画素のかたまりから上記縮小係数を算出することを特徴とする請求項3記載の映像処理方法。
JP2007286086A 2007-11-02 2007-11-02 映像処理装置及び映像処理方法 Active JP5055092B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007286086A JP5055092B2 (ja) 2007-11-02 2007-11-02 映像処理装置及び映像処理方法
US12/261,365 US8134614B2 (en) 2007-11-02 2008-10-30 Image processing apparatus for detecting an image using object recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007286086A JP5055092B2 (ja) 2007-11-02 2007-11-02 映像処理装置及び映像処理方法

Publications (2)

Publication Number Publication Date
JP2009117956A JP2009117956A (ja) 2009-05-28
JP5055092B2 true JP5055092B2 (ja) 2012-10-24

Family

ID=40641497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007286086A Active JP5055092B2 (ja) 2007-11-02 2007-11-02 映像処理装置及び映像処理方法

Country Status (2)

Country Link
US (1) US8134614B2 (ja)
JP (1) JP5055092B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012002951A (ja) * 2010-06-15 2012-01-05 Ricoh Co Ltd 撮像装置、合焦位置検出方法および合焦位置検出プログラム
US9218364B1 (en) * 2011-01-28 2015-12-22 Yahoo! Inc. Monitoring an any-image labeling engine
US9037600B1 (en) 2011-01-28 2015-05-19 Yahoo! Inc. Any-image labeling engine
CN103002195B (zh) * 2011-09-09 2016-03-30 中磊电子(苏州)有限公司 运动检测方法及运动检测装置
KR20130137927A (ko) * 2012-06-08 2013-12-18 엘지전자 주식회사 영상표시장치 및 그 동작방법
US9633272B2 (en) 2013-02-15 2017-04-25 Yahoo! Inc. Real time object scanning using a mobile phone and cloud-based visual search engine
JP2015080048A (ja) * 2013-10-15 2015-04-23 住友電気工業株式会社 カメラ装置、監視システム、これに用いるプログラム、及び撮像方法
KR102310286B1 (ko) * 2014-11-07 2021-10-07 현대모비스 주식회사 특정물체 감지 장치 및 특정물체 감지 방법
JP6589321B2 (ja) * 2015-03-24 2019-10-16 富士通株式会社 システム、検索方法およびプログラム
KR102537416B1 (ko) * 2016-06-03 2023-05-26 우트쿠 부육사힌 3d 이미지를 캡처 및 생성하기 위한 시스템 및 방법
JP7460561B2 (ja) 2021-02-03 2024-04-02 ソニーセミコンダクタソリューションズ株式会社 撮像装置および画像処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5122825A (en) * 1987-08-12 1992-06-16 Minolta Camera Kabushiki Kaisha Zoom camera
JPH09251542A (ja) * 1996-03-15 1997-09-22 Toshiba Corp 人物動作解析方式
US6882740B1 (en) * 2000-06-09 2005-04-19 The Ohio State University Research Foundation System and method for determining a seed vigor index from germinated seedlings by automatic separation of overlapped seedlings
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
JP2004094518A (ja) * 2002-08-30 2004-03-25 Oki Electric Ind Co Ltd 人物追跡装置、人物追跡方法及びプログラム
JP2005012548A (ja) 2003-06-19 2005-01-13 Mega Chips Corp 動き検出装置、方法および監視システム
JP4444746B2 (ja) 2003-07-22 2010-03-31 株式会社日立国際電気 物体追尾方法及び物体追尾装置
JP2006165666A (ja) * 2004-12-02 2006-06-22 Matsushita Electric Ind Co Ltd 監視カメラ、監視画像モニタ装置、監視画像蓄積装置及び監視システム
JP2006245746A (ja) * 2005-03-01 2006-09-14 Hitachi Kokusai Electric Inc 監視システム
JP4325596B2 (ja) * 2005-07-28 2009-09-02 日本ビクター株式会社 ネットワーク監視カメラシステム

Also Published As

Publication number Publication date
US20090128652A1 (en) 2009-05-21
US8134614B2 (en) 2012-03-13
JP2009117956A (ja) 2009-05-28

Similar Documents

Publication Publication Date Title
JP5055092B2 (ja) 映像処理装置及び映像処理方法
KR101687530B1 (ko) 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체
JP4643766B1 (ja) 移動体検出装置及び移動体検出方法
CN106488115B (zh) 用于追踪并传感追踪目标的图像传感设备的控制装置及方法
CN104811660A (zh) 控制装置及控制方法
CN110557607B (zh) 图像处理设备、信息处理设备、信息处理方法和记录介质
JP5183152B2 (ja) 画像処理装置
JP2022167992A (ja) 物体追跡装置、物体追跡方法、およびプログラム
JP2007219603A (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
JPH1169342A (ja) 侵入物体追尾画像処理システム
JP6991045B2 (ja) 画像処理装置、画像処理装置の制御方法
JP2001319279A (ja) 侵入物体監視方法及び侵入物体監視システム
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
TW202001783A (zh) 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體
JP2004228770A (ja) 画像処理システム
JP2008217330A (ja) 速度推定方法および速度推定プログラム
JP3625442B2 (ja) 物体検出方法及び物体検出装置並びに物体検出プログラム
JP6987532B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN110647792B (zh) 信息处理设备、控制方法和存储介质
US20210074002A1 (en) Motion Image Integration Method and Motion Image Integration System Capable of Merging Motion Object Images
JP2021022783A (ja) 制御装置、追尾システム、制御方法、及びプログラム
JP2016051236A (ja) 画像処理装置、画像処理方法およびそれを用いた検査方法。
KR102589150B1 (ko) 누적 차영상을 이용한 원거리 객체 검지 시스템
JP7004786B1 (ja) 検出装置及び検出方法
JP7176719B2 (ja) 検出装置、検出システム、検出方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120730

R150 Certificate of patent or registration of utility model

Ref document number: 5055092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250