JP2004007174A - Image processing system, image processing method and image processing program - Google Patents

Image processing system, image processing method and image processing program Download PDF

Info

Publication number
JP2004007174A
JP2004007174A JP2002159358A JP2002159358A JP2004007174A JP 2004007174 A JP2004007174 A JP 2004007174A JP 2002159358 A JP2002159358 A JP 2002159358A JP 2002159358 A JP2002159358 A JP 2002159358A JP 2004007174 A JP2004007174 A JP 2004007174A
Authority
JP
Japan
Prior art keywords
detection
image
image data
image processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002159358A
Other languages
Japanese (ja)
Inventor
Yoshihiko Suzuki
鈴木 美彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002159358A priority Critical patent/JP2004007174A/en
Publication of JP2004007174A publication Critical patent/JP2004007174A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To properly specify the existing region of an object to be monitored in accordance with situations. <P>SOLUTION: This image processing system is provided with a first detecting means 11 for detecting an object region by calculating inter-frame difference from image data obtained by an image acquiring means 10 which fetches image data to be monitored from a camera, a second detecting means 12 for detecting the object region by calculating a background difference from the image data, and a selecting means 14 for selecting either the detected region only from the first detecting means 11 or the detected regions from the first and second detecting means 11 and 12 to be used on the basis of the evaluation result of an evaluating means 13 which evaluates the congesting conditions of objects to be monitored based on results obtained from the first detecting means 11 and the second detecting means 12, and evaluates the quality of the image data based on a video signal. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、道路監視システムや侵入監視システムなどに用いると好適な画像処理システム、画像処理方法、画像処理プログラムに関するものである。
【0002】
【従来の技術】
従来、道路監視や侵入監視の分野においては、カメラにより監視対象を撮像して得られた画像を画像処理して渋滞や事故の検出、或いは侵入者の検出が行われている。
【0003】
従来、画像処理を行って物体(本明細書においては、人も含んで用いる)を検出する手法としては、背景差分処理とフレーム間差分処理という手法が知られている。
【0004】
上記の背景差分処理は、背景画像を正常に作成できる場合には、監視対象物の輪郭を正確に検出することができるという利点がある。しかし、例えば道路が混雑し(渋滞を含む)路面が車両に覆い隠されている場合には、背景画像を正常に作成できず、車両の検出が上手くできないという問題がある。
【0005】
上記に対してフレーム間差分では、輝度の変化やノイズに強くある程度動きの大きい物体ならば環境の変化に影響を受けずに、適切に物体検出を行える。しかし、停止した物体を検出できないという問題点を有している。
【0006】
そこで、上記2つの手法を組み合わせて用いる画像処理システムが検討され、このようなシステムとしては、特開2000−175174号公報、特開平7−334683号公報、特開平6−325157号公報及び特開平6−266841号などに記載のものがある。
【0007】
ところで、明るさが時間と共に変化する外界の環境では時間に応じて周囲環境が変化するため、この時間的な明るさの変化に対応した画像処理の手法が求められる。また、照明がまばらで空間的に明るさの分布があるトンネル内のような環境においては、空間的な明るさの分布に対応した画像処理の手法が求められるものである。
【0008】
【発明が解決しようとする課題】
上記に示した公知のシステムにおいては、このような環境を考慮したものではなく、十分なものとは言えない。本発明は係る現状に鑑みてなされたもので、その目的は、上記2つの画像処理の手法の長所と短所を見極めた上で、様々な状況に応じて画像処理の手法を適切に選択する処理を行い、切り換えを行うことにより状況に合致して適切に監視対象物の存在領域を特定することのできる画像処理システム、画像処理法及び画像処理プログラムを提供することである。
【0009】
【課題を解決するための手段】
本発明に係る画像処理システムは、カメラにより得られる監視対象画像データを取り込む画像取得手段と、前記画像取得手段により取り込まれた画像データについてフレーム間差分を行って物体領域検出を行う第1の検出手段と、前記画像取得手段により取り込まれた画像データについて背景差分を行って物体領域検出を行う第2の検出手段と、前記第1の検出手段と前記第2の検出手段により得られた結果に基づいて監視対象の混雑状態を評価すると共に、前記カメラから得られた画像データの品質を映像信号に基づき評価する評価手段と、前記評価手段による評価結果に基づいて前記第1の検出手段のみにより得られる検出領域を用いるかまたは前記第1の検出手段及び前記第2の検出手段により得られる検出領域を用いるかの選択を行う選択手段とを具備することを特徴とする。
【0010】
本発明に係る画像処理システムでは、更に前記選択手段により選択された検出領域について選択・組み合わせを行って領域形状の適正化を行う適正化手段を具備することを特徴とする。
【0011】
本発明に係る画像処理システムは、前記第1の検出手段においては、差を求めるフレームの間隔を変えて、前記第2の検出手段においては背景画像を変えて、複数の検出領域を求める一方、前記適正化手段においては、この複数の検出領域について選択・組み合わせを行って領域形状の適正化を行うことを特徴としている。
【0012】
本発明に係る画像処理方法は、カメラにより得られる監視対象画像データを取り込む画像取得ステップと、前記画像取得ステップにより取り込まれた画像データについてフレーム間差分を行って物体領域検出を行う第1の検出ステップと、前記画像取得ステップにより取り込まれた画像データについて背景差分を行って物体領域検出を行う第2の検出ステップと、前記第1の検出ステップと前記第2の検出ステップにより得られた結果に基づいて監視対象の混雑状態を評価すると共に、前記カメラから得られた画像データの品質を映像信号に基づき評価する評価ステップと、前記評価ステップによる評価結果に基づいて前記第1の検出ステップのみにより得られる検出領域を用いるかまたは前記第1の検出ステップ及び前記第2の検出ステップにより得られる検出領域を用いるかの選択を行う選択ステップとを具備することを特徴とする。
【0013】
本発明に係る画像処理方法では、更に前記選択ステップにより選択された検出領域について選択・組み合わせを行って領域形状の適正化を行う適正化ステップを具備することを特徴とする。
【0014】
本発明に係る画像処理方法では、前記第1の検出ステップにおいては、差を求めるフレームの間隔を変えて、前記第2の検出ステップにおいては背景画像を変えて、複数の検出領域を求める一方、前記適正化ステップにおいては、この複数の検出領域について選択・組み合わせを行って領域形状の適正化を行うことを特徴とする。
【0015】
本発明に係る画像処理プログラムは、主メモリに格納されたプログラムに基づき中央処理装置が処理を行って結果を得るコンピュータに用いられる画像処理プログラムにおいて、前記中央処理装置に対し、カメラにより得られる監視対象画像データを取り込む画像取得ステップと、前記画像取得ステップにより取り込まれた画像データについてフレーム間差分を行って物体領域検出を行う第1の検出ステップと、前記画像取得ステップにより取り込まれた画像データについて背景差分を行って物体領域検出を行う第2の検出ステップと、前記第1の検出ステップと前記第2の検出ステップにより得られた結果に基づいて監視対象の混雑状態を評価すると共に、前記カメラから得られた画像データの品質を映像信号に基づき評価する評価ステップと、前記評価ステップによる評価結果に基づいて前記第1の検出ステップのみにより得られる検出領域を用いるかまたは前記第1の検出ステップ及び前記第2の検出ステップにより得られる検出領域を用いるかの選択を行う選択ステップとを実行させることを特徴とする。
【0016】
本発明に係る画像処理プログラムでは、更に前記選択ステップにより選択された検出領域について選択・組み合わせを行って領域形状の適正化を行う適正化ステップを実行させることを特徴とする。
【0017】
本発明に係る画像処理プログラムでは、前記第1の検出ステップにおいては、差を求めるフレームの間隔を変えて、前記第2の検出ステップにおいては背景画像を変えて、複数の検出領域を求める一方、前記適正化ステップにおいては、この複数の検出領域について選択・組み合わせを行って領域形状の適正化を行うことを特徴とする。
【0018】
【発明の実施の形態】
以下添付図面を参照して、本発明に係る画像処理システム、画像処理方法、画像処理プログラムの実施の形態を説明する。図1には、画像処理装置の構成が示されている。この画像処理装置は、図2に示される監視システムの画像処理部計算機2により実現される。
【0019】
図2に示されるように監視システムは、ネットワーク1を介して画像処理部計算機2、統合処理部計算機3、事象判定部計算機4及び表示等を行う報知盤5−1〜5−nが接続されている。画像処理部計算機2には、カメラ6−1〜6−m(mは整数)が接続されている。
【0020】
上記システムにおいては、次のように動作がなされる。カメラ6−1〜6−mが監視対象物の撮像を行って、画像データを画像処理部計算機2へ送る。画像処理部計算機2は、後に述べるように監視対象物の存在領域の特定などを実行し、処理結果情報を統合処理部計算機3へ送る。統合処理部計算機3は画像処理部計算機2から送られた情報に基づき、例えばカメラ6−1〜6−mのいずれにより得られた画像データについて画像処理部計算機2が処理を行った結果をどのように用いるかを決定する等、次の事象判定に必要な画像データを抽出し或いは組み合わせる等の処理を行う。その結果は統合処理部計算機3から事象判定部計算機4へ送られる。事象判定部計算機4は送られた画像データ及び統合処理部計算機3が処理した結果を用い、発生した事象の判定を行う。ここにおいて事象とは、例えば道路監視システムにおいては、事故の発生、落下物の発生、渋滞、火災等である。
【0021】
事象判定部計算機4は判定した結果に基づき、報知盤5−1〜5−nのいずれにどのような内容の情報を送るか等を判定してネットワーク1を介して必要な情報を必要な報知盤へ送出する。斯して報知盤5−1〜5−nによって、所要の情報の報知がなされる。
【0022】
上記の画像処理部計算機2においては、図1に示される各手段により画像処理装置が構成される。この画像処理装置は、画像取得手段10、第1の検出手段11、第2の検出手段12、評価手段13、選択手段14及び適正化手段15を具備している。画像取得手段10は、カメラ6−1〜6−mから監視対象画像データを取り込むものであり、第1の検出手段11と第2の検出手段12へ出力するためにコンピュータ処理可能な画像データに変換している。第1の検出手段11は、画像取得手段10により取り込まれた画像データについてフレーム間差分を行って物体領域検出を行うものである。第2の検出手段12は、画像取得手段10により取り込まれた画像データについて背景差分を行って物体領域検出を行うものである。
【0023】
また、評価手段13は、第1の検出手段11と第2の検出手段12により得られた結果に基づいて監視対象の混雑状態(道路監視であれば渋滞、侵入監視の場合には多数の人の存在)を評価すると共に、カメラ6−1〜6−mから得られた画像データの品質を映像信号に基づき評価するものである。選択手段14は、評価手段13による評価結果に基づいて第1の検出手段11のみにより得られる検出領域を用いるかまたは第1の検出手段11及び第2の検出手段12により得られる検出領域を用いるかの選択を行うものである。更に、適正化手段15は、選択手段14により選択された検出領域について選択・組み合わせを行って領域形状の適正化を行うものである。
【0024】
上記の画像処理装置を構成する画像処理部計算機2は、例えばパーソナルコンピュータやワークステーションその他の計算機により構成され、例えば、図3に示すような構成要素からなっている。すなわち、図3の計算機は、装置を統括制御するCPU51を有し、このCPU51に上記CPU51が用いるプログラム及びデータ等の情報が記憶される主記憶装置52が接続されている。更に、CPU51には、システムバス53を介してキーボード制御部54、表示制御部55、プリンタ制御部56、通信インタフェース57、マウス制御部58、磁気ディスク制御部59が接続されている。キーボード制御部54には各種情報をキー入力可能なキーボード入力装置60が接続され、表示制御部55には情報を表示するためのCRT表示装置61が接続され、プリンタ制御部56には情報を印字出力するためのプリンタ装置62が接続され、通信インタフェース57には回線を介して通信を行うための通信処理部63が接続され、マウス制御部58にはポインティングディバイスであるマウス64が接続され、磁気ディスク制御部59には補助記憶装置である磁気ディスク装置65が接続されている。なお、画像処理部計算機2には、CPU51、主記憶装置52、磁気ディスク制御部59、磁気ディスク装置65、通信インタフェース57、通信処理部63が少なくとも設けられる。また、必要に応じてフレキシブルディスクドライブ、磁気カード或いはICカードリーダ、MO(光磁気ディスク)ドライブ等が設けられる。
【0025】
そして、図1に示した各手段は、CPU51が図4に示されるフローチャートに対応するプログラムにより本発明に係る画像処理方法を行うことで実現されるので、このフローチャートにより本発明に係る画像処理装置の動作を説明する。上記フローチャートに対応するプログラムは、本発明に係る画像処理プログラムであり、例えば磁気ディスク装置65に格納されており、主メモリを構成する主記憶装置52へ読み出されて実行される。まず、動作が開始され、カメラ6−1〜6−mから画像データの取り込みを行う(S1:画像取得手段10)。
【0026】
次に、1フレームずつの画像データを順次に得て、フレーム間差分により物体の存在領域の検出を実行する(S2)と共に、並行して、背景画像データと順次に得られるフレーム画像データとの差分を得て物体の存在領域の検出を実行する(S3)。
【0027】
ステップS2においてフレーム差分が行われ、ステップS3において背景差分が行われている間に、監視対象の混雑状態の評価と共に、カメラ6−1〜6−mから得られた映像信号に基づく画像データの品質評価を行うことにより、2種類の差分について評価を与える(S4)。つまり、この状況下においては、フレーム間差分のみによる結果を用いるのが良いのか、フレーム間差分と背景差分による結果を用いるのが良いのかを評価する。
【0028】
上記のステップS4における評価に基づいて、フレーム間差分のみによる結果か、フレーム間差分と背景差分による結果かの選択を行い(S5)、選択した差分による結果に係る物体の検出領域について最適化する処理を行い(S6)、最適化により得られた物体の検出領域を車両情報として出力する(S7)。
【0029】
上記におけるステップS2〜S7までの処理の詳細を示すと図5乃至図9のフローチャートのようになる。以下に、詳細を説明する。フレーム間差分処理(S2)と背景差分処理(S3)は、図5のフローチャートに示すように、異なる結果が得られるような複数のフレーム間差分処理(S2−1〜S2−n)を行うと共に、異なる結果が得られるような複数の背景差分処理(S3−1〜S3−n)を行っている。具体的には、複数のフレーム間差分処理(S2−1〜S2−n)においては、各処理において差を求めるフレームの間隔が異なるか又は2値化の際の閾値が異なるようにして、異なる結果得る。また、複数の背景差分処理(S3−1〜S3−n)においては、各処理において背景画像が異なるか又は2値化の際の閾値が異なるようにして、異なる結果得る。
【0030】
各フレーム間差分処理(S2−1〜S2−n)は、処理手順は同じであるので、フレーム間差分処理(S2−1)を代表として説明する。まず、定められているフレーム間隔の画像データについて差分処理を行う(S21)。このステップS21における差分の結果は多値(例えば、256階調)であるから、所定の閾値により2値化を行い2値化画像を得る(S22)。2値化画像により得られる物体の輪郭に相当する領域を物体存在領域として検出し(S23)次の処理へ渡す。
【0031】
また、背景差分処理(S3−1〜S3−n)は、処理手順は同じであるので、背景差分処理(S3−1)を代表として説明する。まず、背景画像データの作成を行う(S31)。次に、現在到来の1フレームの画像データについて上記で作成した背景画像データとの差分処理を行う(S32)。このステップS32における差分の結果は多値(例えば、256階調)であるから、所定の閾値により2値化を行い2値化画像を得る(S33)。2値化画像により得られる物体の輪郭に相当する領域を物体存在領域として検出し(S34)次の処理へ渡す。
【0032】
以上説明したようなステップS2、S3における処理に続いて、図4に示されたステップS4における評価にあっては、図6に示される詳細処理がなされる。まず、混雑しているかを上記ステップS2、S3において求めた検出領域を用いて判定する(S11)。このステップS11における判定は道路監視においては渋滞が発生しているか否かであり、侵入監視においては多数の人が監視エリアに存在しているか否かである。具体的には、画像内に複数の検出領域の存在が認められるときや検出領域が重なっている場合などに、混雑していると判定することができる。
【0033】
上記ステップS11において混雑していると判定すると、図7に示す処理へと移行するが、混雑していないと判定すると、映像の状態を映像信号を入力してS/N比の検出(所定以上のS/N比)やコントラスト(上下輝度の差が所定以上)により映像状態が明瞭であるか不明瞭であるかを検出する(S12)。このステップS12において不明瞭であることが検出されると、車両情報の検出が不能であることを出力して(S13)処理を終了する。また、映像の状態が明瞭であることが検出されると、図8に示し処理へと移行する。
【0034】
図7に示す処理は、フレーム間差分のみによる結果を用いた処理であり、図8に示す処理は、フレーム間差分と背景差分の両方による結果を用いた処理である。上記図6のステップS11において混雑の有無を検出して、混雑している場合には監視領域が物体により覆われ、背景差分によって得られる結果が意味を持たなくなることに鑑み、図7に示すフレーム間差分のみによる結果を用いた処理へ進むようにして、適切な処理を保証している。また、上記図6のステップS12において映像状態を検出して、映像が不明瞭であることにより如何なる処理も意味を持たない場合に処理を行わずに不要な負荷発生を回避している。
【0035】
次に、図7に示すフレーム間差分のみによる結果を用いた処理を説明する。まず、フレーム間差分によって得られた検出領域の取得を行う(S41)。図5のフローチャートに示すように、異なる結果が得られるような複数のフレーム間差分処理(S2−1〜S2−n)が行われているので、複数の検出領域が得られている。そこで、これらの検出領域について比較選択、組み合わせを行って最適な領域を選択する(S42)。この一例として、本願発明者が既に提示した特願2002−106681号に開示の技術を用いることができる。
【0036】
現在の1フレームにおいて実際に例えば車両が存在する領域が、図9(a)、図10(a)、図11(a)において、太枠にて囲った領域であるとする。フレーム間差分処理(S2−1〜S2−n)のいずれかの結果が例えば図9(a)に示すように、「1」が集合した領域として特定される。そこで、図9(b)に示すような領域が監視対象物の検出領域とされる。また、フレーム間差分処理(S2−1〜S2−n)の別の結果が例えば図10(a)に示すように、「1」が集合した領域として特定される。そこで、図10(b)に示すような領域が監視対象物の検出領域とされる。さらに、フレーム間差分処理(S2−1〜S2−n)の更に別の結果が例えば図11(a)に示すように、「1」が集合した領域として特定される。そこで、図11(b)に示すような領域が監視対象物の検出領域とされる。
【0037】
このようにフレーム間差分処理(S2−1〜S2−n)が3通りとされている場合には、ここにおける監視対象物の複数(ここでは3通り)の領域を合成する。ここの合成処理においては、まずは、単純にOR(論理和)演算による合成を行う。図9(b)と図10(b)と図11(b)に示される領域が抽出されているときには、上記OR(論理和)演算により図12に示されるように例えば車両である監視対象物の領域が特定される。
【0038】
上記のようにして図7におけるステップS42にて最適な検出領域が得られると、この結果をフレーム間差分の検出領域情報として出力する(S43)。この特定領域の情報は、画像処理部計算機2が用いて本例における車両の位置を特定し必要な処理に用いる他、統合処理部計算機3と事象判定部計算機4へ送り、事象判定に用いられることになる。
【0039】
次に、図8に示すフレーム間差分と背景差分の両方による結果を用いた処理を説明する。まず、背景差分によって得られた検出領域の取得を行う(S51)。図5のフローチャートに示すように、異なる結果が得られるような複数の背景差分処理(S3−1〜S3−n)が行われているので、複数の検出領域が得られている。次に、フレーム間差分によって得られた検出領域の取得を行う(S52)。図5のフローチャートに示すように、異なる結果が得られるような複数のフレーム間差分処理(S2−1〜S2−n)が行われているので、複数の検出領域が得られている。
【0040】
そこで、これら2方式による複数の検出領域を合成する(S53)。この合成の手法も様々考え得るが、例えば、単なる論理積を求める。フレーム間差分によりn領域が求まり、背景差分によりn領域が求められているのであれば、例えばn×nの合成結果を得ておくようにする。
【0041】
次に、図13に示すステップ54へ進む。このステップS54においては、図8における処理において作成したフレーム間差分のみにより求めた検出領域と、背景差分処理のみより求めた検出領域と、フレーム間差分と背景差分処理とによる検出領域を合成した検出領域のいずれが最適であるかを、例えば、各検出領域と予め保持されている車種毎の領域サンプルとのマッチングが最も得られるものを検出するなどして求める。
【0042】
上記ステップS54において、フレーム間差分のみにより求めた検出領域が最適であることが検出された場合には、異なる結果が得られるような複数のフレーム間差分処理(S2−1〜S2−n)が行われているので、複数の検出領域が得られているので、これらの検出領域に関して図9〜図12により説明した手法を用いて最適領域を求める(S55)。また、ステップS54において背景差分処理のみより求めた検出領域が最適であることが検出された場合には、異なる結果が得られるような複数の背景差分処理(S3−1〜S3−n)が行われているので、これらの検出領域に関して図9〜図12により説明した手法を用いて最適領域を求める(S56)。更に、フレーム間差分と背景差分処理とによる検出領域を合成した検出領域が最適であることが検出された場合には、図8のステップS53の説明において述べた通り、複数の検出領域が得られているので、これらに関しても、図9〜図12により説明した手法を用いて最適領域を求める(S57)。
【0043】
斯してこのステップS54以降における処理によって、フレーム間差分のみにより求めた検出領域と、背景差分処理のみより求めた検出領域と、フレーム間差分と背景差分処理とによる検出領域を合成した検出領域のいずれが最適であるかに応じて所定の手法による領域が選択される上に、それぞの手法が選択された場合に更にその中において領域の比較選択、組み合わせ及び最適領域の選択がなされ、最も好適な領域が選択されるようになる。
【0044】
なお、以上の実施の形態においては、図4における最適化処理(S6)において図9〜図12により説明した如き処理を行うようにしたが、係る処理は行わずに、ステップS2,S3及びステップS53により得られる複数の領域から1つを選択するようにしても良い。
【0045】
【発明の効果】
以上説明したように本発明によれば、フレーム間差分と背景差分により得られた結果に基づいて監視対象の混雑状態を評価すると共に、カメラから得られた画像データの品質を映像信号に基づき評価し、評価結果に基づいてフレーム間差分のみにより得られる検出領域を用いるかまたはフレーム間差分及び背景差分により得られる検出領域を用いるかの選択を行って、検出領域を得るようにしているので、明るさが時間と共に変化する外界の環境や照明がまばらで空間的に明るさの分布があるトンネル内のような環境に応じて、適切に監視対象物の存在領域を特定し、物体の種別や状況を画像認識する場合に高精度な結果を保証することができる。
【図面の簡単な説明】
【図1】本発明に係る画像処理装置の機能構成を示すブロック図。
【図2】本発明に係る画像処理装置を用いて構成した道路監視システムの構成図。
【図3】本発明に係る画像処理装置の実際上の構成例を示すブロック図。
【図4】本発明に係る画像処理装置の動作を説明するためのフローチャート。
【図5】図4に示すフローチャートの要部を詳細に示したフローチャート。
【図6】図4に示すフローチャートの要部を詳細に示したフローチャート。
【図7】図4に示すフローチャートの要部を詳細に示したフローチャート。
【図8】図4に示すフローチャートの要部を詳細に示したフローチャート。
【図9】本発明に係る画像処理装置による画像処理を説明するための領域特定処理結果の要部を示す図。
【図10】本発明に係る画像処理装置による画像処理を説明するための領域特定処理結果の要部を示す図。
【図11】本発明に係る画像処理装置による画像処理を説明するための領域特定処理結果の要部を示す図。
【図12】本発明に係る画像処理装置による複数の領域特定処理結果を合成して最終的な監視対象物の領域を得る処理を示す図。
【図13】図4に示すフローチャートの要部を詳細に示したフローチャート。
【符号の説明】
1 ネットワーク
2 画像処理部計算機
3 統合処理部計算機
4 事象判定部計算機
5−1〜5−n 報知盤
6−1〜6−m カメラ
10 画像取得手段
11 第1の検出手段
12 第2の検出手段
13 評価手段
14 選択手段
15 適正化手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing system, an image processing method, and an image processing program suitable for use in a road monitoring system, an intrusion monitoring system, and the like.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in the field of road monitoring and intrusion monitoring, an image obtained by capturing an image of an object to be monitored by a camera is subjected to image processing to detect a traffic jam, an accident, or an intruder.
[0003]
2. Description of the Related Art Conventionally, as a method of detecting an object (including a person in the present specification) by performing image processing, there are known methods of a background difference process and an inter-frame difference process.
[0004]
The above-described background subtraction processing has an advantage that the contour of the monitoring target can be accurately detected when the background image can be created normally. However, for example, when the road is congested (including traffic congestion) and the road surface is covered by the vehicle, there is a problem that the background image cannot be created normally and the vehicle cannot be detected well.
[0005]
On the other hand, with the inter-frame difference, an object can be appropriately detected without being affected by a change in the environment, if the object is strong against a change in luminance or noise and has a relatively large movement. However, there is a problem that a stopped object cannot be detected.
[0006]
Therefore, an image processing system using a combination of the above two methods has been studied. Examples of such a system include JP-A-2000-175174, JP-A-7-334683, JP-A-6-325157 and JP-A-6-325157. No. 6,266,841 and the like.
[0007]
By the way, in an external environment in which the brightness changes with time, the surrounding environment changes with time, so an image processing method corresponding to the temporal change in brightness is required. In an environment such as a tunnel with sparse lighting and a spatial distribution of brightness, an image processing method corresponding to the spatial brightness distribution is required.
[0008]
[Problems to be solved by the invention]
The above-mentioned known system does not take such an environment into consideration and is not sufficient. The present invention has been made in view of the current situation, and has as its object to determine the advantages and disadvantages of the above two image processing methods and to appropriately select an image processing method according to various situations. The present invention provides an image processing system, an image processing method, and an image processing program that can appropriately specify a region where a monitoring target exists in accordance with a situation by performing the switching.
[0009]
[Means for Solving the Problems]
An image processing system according to the present invention includes: an image acquisition unit that captures monitoring target image data obtained by a camera; and a first detection that performs an inter-frame difference on the image data captured by the image acquisition unit to detect an object region. Means, a second detection means for performing object subtraction by performing background subtraction on the image data captured by the image acquisition means, and a result obtained by the first detection means and the second detection means. An evaluation unit that evaluates the congestion state of the monitoring target based on the video signal, and evaluates the quality of image data obtained from the camera based on a video signal, and only the first detection unit based on an evaluation result by the evaluation unit. A selection is made as to whether to use the detection area obtained or to use the detection area obtained by the first detection means and the second detection means. Characterized by comprising a selection means.
[0010]
The image processing system according to the present invention is characterized by further comprising an optimizing means for selecting and combining the detection areas selected by the selecting means and optimizing the area shape.
[0011]
In the image processing system according to the present invention, in the first detection unit, a plurality of detection areas are obtained by changing an interval between frames for obtaining a difference, and in the second detection unit, by changing a background image. The optimizing means is characterized by selecting and combining the plurality of detection areas to optimize the area shape.
[0012]
An image processing method according to the present invention includes an image acquisition step of capturing monitoring target image data obtained by a camera, and a first detection of performing an inter-frame difference on the image data captured by the image acquisition step to detect an object area. Step, a second detection step of performing object subtraction by performing background subtraction on the image data captured by the image acquisition step, and a result obtained by the first detection step and the second detection step. An evaluation step of evaluating the congestion state of the monitoring target based on the video signal, and evaluating the quality of image data obtained from the camera based on a video signal, and only the first detection step based on the evaluation result of the evaluation step. The obtained detection area is used or the first detection step and the second detection step are used. Characterized by comprising a selection step of performing one of selecting using the detection region obtained by.
[0013]
The image processing method according to the present invention is characterized by further comprising an optimizing step of selecting and combining the detection areas selected in the selecting step to optimize the area shape.
[0014]
In the image processing method according to the present invention, in the first detection step, a plurality of detection areas are obtained by changing a frame interval for obtaining a difference, and in the second detection step, changing a background image. In the optimizing step, the plurality of detection areas are selected and combined to optimize the area shape.
[0015]
An image processing program according to the present invention is an image processing program used in a computer that performs processing by a central processing unit based on a program stored in a main memory and obtains a result. An image acquisition step of capturing target image data, a first detection step of performing an inter-frame difference on the image data captured by the image acquisition step to detect an object area, and an image data captured by the image acquisition step. A second detection step of detecting an object area by performing background subtraction, and evaluating a congestion state of a monitoring target based on a result obtained by the first detection step and the second detection step; Evaluation step for evaluating the quality of image data obtained from Selecting whether to use a detection area obtained only by the first detection step or to use a detection area obtained by the first detection step and the second detection step based on the evaluation result of the evaluation step. And a selecting step of performing the following.
[0016]
The image processing program according to the present invention is further characterized by executing an optimizing step of optimizing an area shape by selecting and combining the detection areas selected in the selecting step.
[0017]
In the image processing program according to the present invention, in the first detection step, a plurality of detection areas are obtained by changing a frame interval for obtaining a difference, and in the second detection step, changing a background image. In the optimizing step, the plurality of detection areas are selected and combined to optimize the area shape.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of an image processing system, an image processing method, and an image processing program according to the present invention will be described with reference to the accompanying drawings. FIG. 1 shows the configuration of the image processing apparatus. This image processing apparatus is realized by the image processing unit computer 2 of the monitoring system shown in FIG.
[0019]
As shown in FIG. 2, the monitoring system is connected via a network 1 to an image processing unit computer 2, an integrated processing unit computer 3, an event determination unit computer 4, and notification boards 5-1 to 5-n for performing display and the like. ing. The cameras 6-1 to 6-m (m is an integer) are connected to the image processing unit computer 2.
[0020]
In the above system, the operation is performed as follows. The cameras 6-1 to 6-m capture images of the monitoring target and send image data to the image processing unit computer 2. The image processing unit computer 2 specifies the area where the monitoring target exists, as described later, and sends processing result information to the integrated processing unit computer 3. Based on the information sent from the image processing unit computer 2, the integrated processing unit computer 3 determines, for example, a result of the image processing unit computer 2 processing the image data obtained by any of the cameras 6-1 to 6 -m. For example, the image data necessary for the next event determination is extracted or combined. The result is sent from the integrated processing unit computer 3 to the event determination unit computer 4. The event determination unit computer 4 determines the event that has occurred using the sent image data and the result processed by the integration processing unit computer 3. Here, the event is, for example, occurrence of an accident, occurrence of a falling object, traffic congestion, fire, and the like in a road monitoring system.
[0021]
The event determination unit computer 4 determines which information is to be sent to any of the notification boards 5-1 to 5-n based on the determination result, and notifies the necessary information via the network 1 to the required information. Send to the board. Thus, the notification boards 5-1 to 5-n provide notification of required information.
[0022]
In the image processing unit computer 2 described above, an image processing device is configured by each unit shown in FIG. This image processing apparatus includes an image acquisition unit 10, a first detection unit 11, a second detection unit 12, an evaluation unit 13, a selection unit 14, and an optimization unit 15. The image acquisition unit 10 captures monitoring target image data from the cameras 6-1 to 6-m, and converts the image data into computer-processable image data for output to the first detection unit 11 and the second detection unit 12. Converting. The first detection unit 11 performs an inter-frame difference on the image data captured by the image acquisition unit 10 to detect an object area. The second detection unit 12 performs background subtraction on the image data captured by the image acquisition unit 10 to detect an object area.
[0023]
Further, the evaluation unit 13 determines the congestion state of the monitoring target (congestion in the case of road monitoring, and a large number of persons in the case of intrusion monitoring) based on the results obtained by the first detection unit 11 and the second detection unit 12. And the quality of image data obtained from the cameras 6-1 to 6-m is evaluated based on the video signal. The selection unit 14 uses a detection area obtained only by the first detection unit 11 based on the evaluation result by the evaluation unit 13 or uses a detection area obtained by the first detection unit 11 and the second detection unit 12. To make a selection. Further, the optimizing unit 15 selects and combines the detection regions selected by the selecting unit 14 to optimize the region shape.
[0024]
The image processing unit computer 2 that constitutes the image processing apparatus described above is configured by, for example, a personal computer, a workstation, or another computer, and includes, for example, the components illustrated in FIG. In other words, the computer shown in FIG. 3 has a CPU 51 that controls the entire apparatus, and is connected to a main storage device 52 that stores information such as programs and data used by the CPU 51. Further, a keyboard control unit 54, a display control unit 55, a printer control unit 56, a communication interface 57, a mouse control unit 58, and a magnetic disk control unit 59 are connected to the CPU 51 via a system bus 53. The keyboard control unit 54 is connected with a keyboard input device 60 capable of inputting various information by keys, the display control unit 55 is connected with a CRT display device 61 for displaying information, and the printer control unit 56 is printed with information. A printer device 62 for output is connected, a communication interface 57 is connected to a communication processing unit 63 for performing communication via a line, a mouse control unit 58 is connected to a mouse 64 as a pointing device, The magnetic disk device 65, which is an auxiliary storage device, is connected to the disk control unit 59. The image processing unit computer 2 includes at least a CPU 51, a main storage device 52, a magnetic disk control unit 59, a magnetic disk device 65, a communication interface 57, and a communication processing unit 63. Further, a flexible disk drive, a magnetic card or IC card reader, an MO (magneto-optical disk) drive, and the like are provided as needed.
[0025]
Each unit shown in FIG. 1 is realized by the CPU 51 executing the image processing method according to the present invention by a program corresponding to the flowchart shown in FIG. Will be described. The program corresponding to the above-described flowchart is an image processing program according to the present invention, which is stored in, for example, the magnetic disk device 65 and is read out and executed by the main storage device 52 constituting the main memory. First, the operation is started, and image data is taken in from the cameras 6-1 to 6-m (S1: image acquisition means 10).
[0026]
Next, image data for each frame is sequentially obtained, and the presence area of the object is detected based on the inter-frame difference (S2). In addition, the background image data and the frame image data obtained sequentially are concurrently obtained. The difference is obtained, and the detection of the existing area of the object is executed (S3).
[0027]
While the frame difference is performed in step S2 and the background difference is performed in step S3, the evaluation of the congestion state of the monitoring target and the evaluation of the image data based on the video signals obtained from the cameras 6-1 to 6-m are performed. By performing the quality evaluation, the two types of differences are evaluated (S4). That is, in this situation, it is evaluated whether it is better to use the result based on the inter-frame difference alone or whether it is better to use the result based on the inter-frame difference and the background difference.
[0028]
Based on the evaluation in the above step S4, a selection is made between a result based on only the inter-frame difference or a result based on the inter-frame difference and the background difference (S5), and the detection area of the object related to the result based on the selected difference is optimized. The processing is performed (S6), and the detection area of the object obtained by the optimization is output as vehicle information (S7).
[0029]
The details of the processing of steps S2 to S7 above are as shown in the flowcharts of FIGS. The details will be described below. The inter-frame difference process (S2) and the background difference process (S3) perform a plurality of inter-frame difference processes (S2-1 to S2-n) that can obtain different results, as shown in the flowchart of FIG. , A plurality of background difference processes (S3-1 to S3-n) that can obtain different results. Specifically, in a plurality of inter-frame difference processes (S2-1 to S2-n), the intervals between frames for which a difference is determined in each process are different, or the thresholds for binarization are different, so that different processes are performed. Results. In the plurality of background difference processes (S3-1 to S3-n), different results are obtained by setting different background images or different threshold values for binarization in each process.
[0030]
Since the processing procedure of each of the inter-frame difference processing (S2-1 to S2-n) is the same, the inter-frame difference processing (S2-1) will be described as a representative. First, difference processing is performed on image data at a predetermined frame interval (S21). Since the result of the difference in step S21 is multi-valued (for example, 256 gradations), binarization is performed using a predetermined threshold to obtain a binarized image (S22). An area corresponding to the contour of the object obtained from the binarized image is detected as an object existing area (S23) and passed to the next processing.
[0031]
The background difference processing (S3-1 to S3-n) has the same processing procedure, and therefore the background difference processing (S3-1) will be described as a representative. First, background image data is created (S31). Next, a difference process is performed between the currently arriving one-frame image data and the background image data created above (S32). Since the result of the difference in step S32 is multi-valued (for example, 256 gradations), binarization is performed using a predetermined threshold to obtain a binarized image (S33). An area corresponding to the contour of the object obtained from the binarized image is detected as an object existing area (S34) and passed to the next processing.
[0032]
Subsequent to the processing in steps S2 and S3 as described above, in the evaluation in step S4 shown in FIG. 4, the detailed processing shown in FIG. 6 is performed. First, it is determined whether or not there is congestion using the detection areas obtained in steps S2 and S3 (S11). The determination in step S11 is whether or not traffic congestion has occurred in road monitoring, and whether or not many people are present in the monitoring area in intrusion monitoring. Specifically, when the presence of a plurality of detection regions in the image is recognized or when the detection regions overlap, it can be determined that the image is congested.
[0033]
If it is determined in step S11 that there is congestion, the process proceeds to the processing shown in FIG. 7. If it is determined that there is no congestion, the state of the image is input as a video signal to detect the S / N ratio (predetermined or higher). It is detected whether the image state is clear or unclear based on the S / N ratio) and the contrast (the difference between the upper and lower luminance is equal to or more than a predetermined value) (S12). If it is detected in this step S12 that the vehicle is unclear, it is output that the vehicle information cannot be detected (S13), and the process ends. When it is detected that the state of the video is clear, the processing shifts to the processing shown in FIG.
[0034]
The process illustrated in FIG. 7 is a process using the result based on only the inter-frame difference, and the process illustrated in FIG. 8 is a process using the result based on both the inter-frame difference and the background difference. The presence or absence of congestion is detected in step S11 of FIG. 6 described above, and if congestion occurs, the monitoring area is covered with an object, and in view of the fact that the result obtained by the background difference becomes meaningless, the frame shown in FIG. Proper processing is assured by proceeding to processing using the result based only on the inter-difference. Further, the image state is detected in step S12 in FIG. 6 described above, and when the image is unclear, no processing is performed when any processing has no meaning, thereby avoiding generation of an unnecessary load.
[0035]
Next, a description will be given of a process using a result based on only the inter-frame difference shown in FIG. First, a detection area obtained by the inter-frame difference is obtained (S41). As shown in the flowchart of FIG. 5, since a plurality of inter-frame difference processes (S2-1 to S2-n) that can obtain different results are performed, a plurality of detection regions are obtained. Therefore, an optimum area is selected by performing comparison selection and combination of these detection areas (S42). As an example of this, the technology disclosed in Japanese Patent Application No. 2002-106681 already presented by the present inventor can be used.
[0036]
In FIG. 9A, FIG. 10A, and FIG. 11A, an area where a vehicle actually exists in one current frame is an area surrounded by a thick frame. One of the results of the inter-frame difference processing (S2-1 to S2-n) is specified as a region where "1" is gathered, for example, as shown in FIG. Therefore, an area as shown in FIG. 9B is set as a detection area of the monitoring target. Further, another result of the inter-frame difference processing (S2-1 to S2-n) is specified as a region where "1" is gathered, for example, as shown in FIG. Therefore, an area as shown in FIG. 10B is set as a detection area of the monitoring target. Further, still another result of the inter-frame difference processing (S2-1 to S2-n) is specified as a region where "1" is gathered, for example, as shown in FIG. Therefore, an area as shown in FIG. 11B is set as a monitoring target detection area.
[0037]
When there are three types of inter-frame difference processing (S2-1 to S2-n), a plurality of (here, three) regions of the monitoring target are combined. In the synthesis processing here, first, synthesis is simply performed by an OR (logical sum) operation. When the regions shown in FIGS. 9 (b), 10 (b) and 11 (b) have been extracted, as shown in FIG. Is specified.
[0038]
When an optimal detection area is obtained in step S42 in FIG. 7 as described above, the result is output as detection area information of an inter-frame difference (S43). The information of the specific area is used by the image processing unit computer 2 to specify the position of the vehicle in this example and use it for necessary processing, and is also sent to the integrated processing unit computer 3 and the event determination unit computer 4 to be used for event determination. Will be.
[0039]
Next, processing using the results of both the inter-frame difference and the background difference shown in FIG. 8 will be described. First, the detection area obtained by the background difference is obtained (S51). As shown in the flowchart of FIG. 5, since a plurality of background subtraction processes (S3-1 to S3-n) that can obtain different results are performed, a plurality of detection regions are obtained. Next, a detection area obtained by the inter-frame difference is obtained (S52). As shown in the flowchart of FIG. 5, since a plurality of inter-frame difference processes (S2-1 to S2-n) that can obtain different results are performed, a plurality of detection regions are obtained.
[0040]
Therefore, a plurality of detection areas by these two methods are synthesized (S53). Although various methods of this combination can be considered, for example, a simple logical product is obtained. If the n regions are obtained by the inter-frame difference and the n regions are obtained by the background difference, for example, an nxn synthesis result is obtained.
[0041]
Next, the routine proceeds to step 54 shown in FIG. In this step S54, the detection area obtained by only the inter-frame difference created in the processing in FIG. 8, the detection area obtained only by the background difference processing, and the detection area obtained by combining the detection area by the inter-frame difference and the background difference processing Which of the regions is optimal is determined by, for example, detecting a region that best obtains matching between each detection region and a previously held region sample for each vehicle type.
[0042]
In step S54, when it is detected that the detection region obtained only by the inter-frame difference is optimal, a plurality of inter-frame difference processes (S2-1 to S2-n) that obtain different results are performed. Since the detection has been performed, a plurality of detection regions have been obtained, and an optimum region is obtained for these detection regions by using the method described with reference to FIGS. 9 to 12 (S55). If it is detected in step S54 that the detection area obtained only by the background difference processing is optimal, a plurality of background difference processings (S3-1 to S3-n) that obtain different results are performed. Therefore, an optimum area is determined for these detection areas using the method described with reference to FIGS. 9 to 12 (S56). Further, when it is detected that the detection area obtained by combining the detection areas obtained by the inter-frame difference and the background difference processing is optimal, a plurality of detection areas are obtained as described in the description of step S53 in FIG. Therefore, with respect to these, the optimum area is determined using the method described with reference to FIGS. 9 to 12 (S57).
[0043]
Thus, by the processing after step S54, the detection area obtained by only the inter-frame difference, the detection area obtained by only the background difference processing, and the detection area obtained by combining the detection area by the inter-frame difference and the background difference processing are obtained. In addition to selecting a region by a predetermined method according to which one is optimal, when each of the methods is selected, comparison and selection of regions, combination and selection of an optimal region are further performed among them. A suitable region will be selected.
[0044]
In the above-described embodiment, the optimization processing (S6) in FIG. 4 performs the processing as described with reference to FIGS. 9 to 12. However, the processing is not performed, and steps S2, S3, and S3 are performed. One may be selected from the plurality of regions obtained in S53.
[0045]
【The invention's effect】
As described above, according to the present invention, the congestion state of the monitoring target is evaluated based on the results obtained from the inter-frame difference and the background difference, and the quality of image data obtained from the camera is evaluated based on the video signal. Then, based on the evaluation result, the detection area is obtained by selecting whether to use the detection area obtained only by the inter-frame difference or to use the detection area obtained by the inter-frame difference and the background difference. Depending on the external environment where the brightness changes with time or the environment such as a tunnel with sparse lighting and spatial brightness distribution, the area where the monitoring target exists is appropriately specified, and the type of the object and When the situation is image-recognized, a highly accurate result can be guaranteed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a functional configuration of an image processing apparatus according to the present invention.
FIG. 2 is a configuration diagram of a road monitoring system configured using the image processing device according to the present invention.
FIG. 3 is a block diagram showing a practical configuration example of an image processing apparatus according to the present invention.
FIG. 4 is a flowchart for explaining the operation of the image processing apparatus according to the present invention.
FIG. 5 is a flowchart showing details of a main part of the flowchart shown in FIG. 4;
FIG. 6 is a flowchart showing details of a main part of the flowchart shown in FIG. 4;
FIG. 7 is a flowchart showing details of a main part of the flowchart shown in FIG. 4;
FIG. 8 is a flowchart showing details of a main part of the flowchart shown in FIG. 4;
FIG. 9 is a diagram showing a main part of an area specifying process result for describing image processing by the image processing apparatus according to the present invention.
FIG. 10 is a diagram showing a main part of an area specifying process result for describing image processing by the image processing apparatus according to the present invention.
FIG. 11 is a diagram showing a main part of an area specifying process result for describing image processing by the image processing apparatus according to the present invention.
FIG. 12 is a diagram showing a process for obtaining a final monitoring target object region by combining a plurality of region specifying processing results by the image processing apparatus according to the present invention.
FIG. 13 is a flowchart showing details of a main part of the flowchart shown in FIG. 4;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Network 2 Image processing part computer 3 Integration processing part computer 4 Event determination part computer 5-1 to 5-n Notification board 6-1 to 6-m Camera 10 Image acquisition means 11 First detection means 12 Second detection means 13 evaluation means 14 selection means 15 optimizing means

Claims (9)

カメラにより得られる監視対象画像データを取り込む画像取得手段と、
前記画像取得手段により取り込まれた画像データについてフレーム間差分を行って物体領域検出を行う第1の検出手段と、
前記画像取得手段により取り込まれた画像データについて背景差分を行って物体領域検出を行う第2の検出手段と、
前記第1の検出手段と前記第2の検出手段により得られた結果に基づいて監視対象の混雑状態を評価すると共に、前記カメラから得られた画像データの品質を映像信号に基づき評価する評価手段と、
前記評価手段による評価結果に基づいて前記第1の検出手段のみにより得られる検出領域を用いるかまたは前記第1の検出手段及び前記第2の検出手段により得られる検出領域を用いるかの選択を行う選択手段と
を具備することを特徴とする画像処理システム。
Image acquisition means for capturing monitoring target image data obtained by the camera,
A first detection unit that performs an inter-frame difference on the image data captured by the image acquisition unit to detect an object region;
A second detection unit that performs object subtraction by performing background subtraction on the image data captured by the image acquisition unit;
Evaluating means for evaluating the congestion state of the monitoring target based on the results obtained by the first detecting means and the second detecting means and evaluating the quality of image data obtained from the camera based on a video signal When,
Based on the evaluation result by the evaluation means, a selection is made as to whether to use a detection area obtained only by the first detection means or to use a detection area obtained by the first detection means and the second detection means. An image processing system comprising: a selection unit.
前記選択手段により選択された検出領域について選択・組み合わせを行って領域形状の適正化を行う適正化手段を
具備することを特徴とする請求項1に記載の画像処理システム。
2. The image processing system according to claim 1, further comprising an optimizing unit that selects and combines the detection regions selected by the selecting unit to optimize the region shape. 3.
前記第1の検出手段においては、差を求めるフレームの間隔を変えて、前記第2の検出手段においては背景画像を変えて、複数の検出領域を求める一方、
前記適正化手段においては、この複数の検出領域について選択・組み合わせを行って領域形状の適正化を行うことを特徴とする請求項2に記載の画像処理システム。
In the first detecting means, the interval between frames for obtaining the difference is changed, and in the second detecting means, the background image is changed to obtain a plurality of detection areas.
The image processing system according to claim 2, wherein the optimizing unit selects and combines the plurality of detection areas to optimize the area shape.
カメラにより得られる監視対象画像データを取り込む画像取得ステップと、
前記画像取得ステップにより取り込まれた画像データについてフレーム間差分を行って物体領域検出を行う第1の検出ステップと、
前記画像取得ステップにより取り込まれた画像データについて背景差分を行って物体領域検出を行う第2の検出ステップと、
前記第1の検出ステップと前記第2の検出ステップにより得られた結果に基づいて監視対象の混雑状態を評価すると共に、前記カメラから得られた画像データの品質を映像信号に基づき評価する評価ステップと、
前記評価ステップによる評価結果に基づいて前記第1の検出ステップのみにより得られる検出領域を用いるかまたは前記第1の検出ステップ及び前記第2の検出ステップにより得られる検出領域を用いるかの選択を行う選択ステップと
を具備することを特徴とする画像処理方法。
An image acquisition step of capturing monitoring target image data obtained by a camera;
A first detection step of performing an inter-frame difference on the image data captured in the image acquisition step to detect an object area;
A second detection step of performing a background subtraction on the image data captured in the image acquisition step to detect an object area;
An evaluation step of evaluating the congestion state of the monitoring target based on the results obtained in the first detection step and the second detection step, and evaluating the quality of image data obtained from the camera based on a video signal When,
Based on the evaluation result of the evaluation step, a selection is made as to whether to use a detection area obtained only by the first detection step or to use a detection area obtained by the first detection step and the second detection step. And a selecting step.
前記選択ステップにより選択された検出領域について選択・組み合わせを行って領域形状の適正化を行う適正化ステップを
具備することを特徴とする請求項4に記載の画像処理方法。
5. The image processing method according to claim 4, further comprising an optimization step of selecting and combining the detection areas selected in the selection step to optimize an area shape.
前記第1の検出ステップにおいては、差を求めるフレームの間隔を変えて、前記第2の検出ステップにおいては背景画像を変えて、複数の検出領域を求める一方、
前記適正化ステップにおいては、この複数の検出領域について選択・組み合わせを行って領域形状の適正化を行うことを特徴とする請求項5に記載の画像処理方法。
In the first detection step, a plurality of detection areas are obtained by changing an interval between frames for obtaining a difference, and in the second detection step, by changing a background image.
6. The image processing method according to claim 5, wherein in the optimizing step, the plurality of detection areas are selected and combined to optimize the area shape.
主メモリに格納されたプログラムに基づき中央処理装置が処理を行って結果を得るコンピュータに用いられる画像処理プログラムにおいて、
前記中央処理装置に対し、
カメラにより得られる監視対象画像データを取り込む画像取得ステップと、
前記画像取得ステップにより取り込まれた画像データについてフレーム間差分を行って物体領域検出を行う第1の検出ステップと、
前記画像取得ステップにより取り込まれた画像データについて背景差分を行って物体領域検出を行う第2の検出ステップと、
前記第1の検出ステップと前記第2の検出ステップにより得られた結果に基づいて監視対象の混雑状態を評価すると共に、前記カメラから得られた画像データの品質を映像信号に基づき評価する評価ステップと、
前記評価ステップによる評価結果に基づいて前記第1の検出ステップのみにより得られる検出領域を用いるかまたは前記第1の検出ステップ及び前記第2の検出ステップにより得られる検出領域を用いるかの選択を行う選択ステップと
を実行させることを特徴とする画像処理プログラム。
In an image processing program used in a computer that performs processing by a central processing unit based on a program stored in a main memory and obtains a result,
For the central processing unit,
An image acquisition step of capturing monitoring target image data obtained by a camera;
A first detection step of performing an inter-frame difference on the image data captured in the image acquisition step to detect an object area;
A second detection step of performing a background subtraction on the image data captured in the image acquisition step to detect an object area;
An evaluation step of evaluating the congestion state of the monitoring target based on the results obtained in the first detection step and the second detection step, and evaluating the quality of image data obtained from the camera based on a video signal When,
Based on the evaluation result of the evaluation step, a selection is made as to whether to use a detection area obtained only by the first detection step or to use a detection area obtained by the first detection step and the second detection step. An image processing program for executing a selecting step.
前記選択ステップにより選択された検出領域について選択・組み合わせを行って領域形状の適正化を行う適正化ステップ
を実行させることを特徴とする請求項7に記載の画像処理プログラム。
The computer-readable storage medium according to claim 7, further comprising executing an optimization step of selecting and combining the detection areas selected in the selection step to optimize an area shape.
前記第1の検出ステップにおいては、差を求めるフレームの間隔を変えて、前記第2の検出ステップにおいては背景画像を変えて、複数の検出領域を求める一方、
前記適正化ステップにおいては、この複数の検出領域について選択・組み合わせを行って領域形状の適正化を行うことを特徴とする請求項8に記載の画像処理方法。
In the first detection step, a plurality of detection areas are obtained by changing an interval between frames for obtaining a difference, and in the second detection step, by changing a background image.
9. The image processing method according to claim 8, wherein in the optimizing step, the plurality of detection areas are selected and combined to optimize the area shape.
JP2002159358A 2002-05-31 2002-05-31 Image processing system, image processing method and image processing program Withdrawn JP2004007174A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002159358A JP2004007174A (en) 2002-05-31 2002-05-31 Image processing system, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002159358A JP2004007174A (en) 2002-05-31 2002-05-31 Image processing system, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2004007174A true JP2004007174A (en) 2004-01-08

Family

ID=30429160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002159358A Withdrawn JP2004007174A (en) 2002-05-31 2002-05-31 Image processing system, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2004007174A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006080761A (en) * 2004-09-08 2006-03-23 Nissan Motor Co Ltd Vehicle detector
JP2012253723A (en) * 2011-06-07 2012-12-20 Panasonic Corp Image display device and image display method
JP2017151582A (en) * 2016-02-23 2017-08-31 Kddi株式会社 Image analyzer, program, and method for tracking person shown in photographed camera image
JP2018091688A (en) * 2016-12-01 2018-06-14 国立大学法人山口大学 Object detection device
JP2019125269A (en) * 2018-01-18 2019-07-25 Kddi株式会社 Method and device suitable for foreground/background separation
WO2022009668A1 (en) * 2020-07-08 2022-01-13 オムロン株式会社 Human body detection device and human body detection method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006080761A (en) * 2004-09-08 2006-03-23 Nissan Motor Co Ltd Vehicle detector
JP2012253723A (en) * 2011-06-07 2012-12-20 Panasonic Corp Image display device and image display method
CN103688292A (en) * 2011-06-07 2014-03-26 松下电器产业株式会社 Image display apparatus and image display method
US9600732B2 (en) 2011-06-07 2017-03-21 Panasonic Intellectual Property Management Co., Ltd. Image display apparatus and image display method
JP2017151582A (en) * 2016-02-23 2017-08-31 Kddi株式会社 Image analyzer, program, and method for tracking person shown in photographed camera image
JP2018091688A (en) * 2016-12-01 2018-06-14 国立大学法人山口大学 Object detection device
JP2019125269A (en) * 2018-01-18 2019-07-25 Kddi株式会社 Method and device suitable for foreground/background separation
WO2022009668A1 (en) * 2020-07-08 2022-01-13 オムロン株式会社 Human body detection device and human body detection method
JP2022015222A (en) * 2020-07-08 2022-01-21 オムロン株式会社 Human body detection apparatus and human body detection method
JP7413942B2 (en) 2020-07-08 2024-01-16 オムロン株式会社 Human body detection device and human body detection method

Similar Documents

Publication Publication Date Title
US8159537B2 (en) Video surveillance equipment and video surveillance system
US8243987B2 (en) Object tracking using color histogram and object size
US8964030B2 (en) Surveillance camera system having camera malfunction detection function to detect types of failure via block and entire image processing
JP4203736B2 (en) Image motion detection apparatus and computer program
CN110348312A (en) A kind of area video human action behavior real-time identification method
KR102195706B1 (en) Method and Apparatus for Detecting Intruder
JP2765674B2 (en) Data supply device
JP5274216B2 (en) Monitoring system and monitoring method
KR100696728B1 (en) Apparatus and method for sending monitoring information
JP2006352644A (en) Image abnormality detecting device of surveillance camera
US11336869B2 (en) Motion detection methods and motion sensors capable of more accurately detecting true motion event
JP2007148988A (en) Face authentication unit, face authentication method, and entrance/exit management device
US20220004748A1 (en) Video display method, device and system, and video camera
KR102101623B1 (en) Method and apparatus for detecting informal situation using image
CN112104869A (en) Video big data storage and transcoding optimization system
KR20160093253A (en) Video based abnormal flow detection method and system
US8311345B2 (en) Method and system for detecting flame
JP2004007174A (en) Image processing system, image processing method and image processing program
US9001207B1 (en) Apparatus and method for motion detection in video
JP4607394B2 (en) Person detection system and person detection program
JPH09293141A (en) Mobile object detection device
JP4612522B2 (en) Change area calculation method, change area calculation device, change area calculation program
JP2004007246A (en) Image processing system, image processing method, and image processing program
JP2019161362A (en) Monitoring system
JP6784254B2 (en) Retained object detection system, retained object detection method and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802