JP2013186635A - 物体検知装置、物体検知方法及びプログラム - Google Patents

物体検知装置、物体検知方法及びプログラム Download PDF

Info

Publication number
JP2013186635A
JP2013186635A JP2012050396A JP2012050396A JP2013186635A JP 2013186635 A JP2013186635 A JP 2013186635A JP 2012050396 A JP2012050396 A JP 2012050396A JP 2012050396 A JP2012050396 A JP 2012050396A JP 2013186635 A JP2013186635 A JP 2013186635A
Authority
JP
Japan
Prior art keywords
image
correction
object detection
input image
contrast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012050396A
Other languages
English (en)
Other versions
JP2013186635A5 (ja
JP5950628B2 (ja
Inventor
Miyuki Fujii
幸 藤井
Wataru Ito
渡 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2012050396A priority Critical patent/JP5950628B2/ja
Priority to GB1415683.0A priority patent/GB2514301B/en
Priority to US14/378,388 priority patent/US9443150B2/en
Priority to PCT/JP2012/081144 priority patent/WO2013132711A1/ja
Publication of JP2013186635A publication Critical patent/JP2013186635A/ja
Publication of JP2013186635A5 publication Critical patent/JP2013186635A5/ja
Application granted granted Critical
Publication of JP5950628B2 publication Critical patent/JP5950628B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】全体的又は部分的に画像のコントラストが低下した状況でも、安定して物体を検知することが可能な技術を提案する。
【解決手段】物体検知処理部13の前段に前処理部12を追加し、前処理部12によって得られた補正画像(入力画像に対してコントラスト強調を行なった画像)を、物体検知処理部13における入力画像として提供することで、霧や降雨等で画面全体のコントラストが低下した状況でも物体を検知し易くする。更に、物体検知処理部13においては、前処理部12による補正画像だけでなく、その補正(コントラスト強調)に関する画像特性を含む補正特性情報23を用いて物体検知を行うことで、コントラスト強調により強調されたノイズによる影響の低減を図る。
【選択図】図1

Description

本発明は、監視領域を撮像した画像に基づいて、監視領域内に現れた物体を検知する技術に関する。
従来より、監視領域を撮像するカメラからの映像信号に基づく入力画像を侵入検知装置にて解析し、監視領域内に現れた物体を検知することで、監視領域に対する侵入物(侵入者を含む)の有無を監視することが行なわれている。
従来の侵入検知装置について説明する。
侵入検知装置は、例えば、カメラから得られたアナログの映像信号をデジタルに変換(A/D変換)し、所定の階調数の輝度信号で表現された入力画像を得る画像入力I/F、画像間の演算及び画像の格納に用いられる画像メモリ、画像解析処理を行うCPU(Central Processing Unit)、外部からのコマンド信号等の受信や外部へのアラーム信号等の送信を行う入出力I/F、CPUの作業領域となるワークメモリ、上記画像解析処理のプログラムを格納したプログラムメモリ、画像メモリに格納されたデジタルの画像をアナログの映像信号に変換(D/A変換)し、外部(例えば、監視用のモニタ)へ出力する画像出力I/F、これらの機能部でデータの転送を行うデータバスを有するコンピュータにより実現される。
侵入検知装置は、まず、侵入検知に用いる背景画像の作成を行う。背景画像は、カメラから画像入力I/Fを介して所定のフレーム間隔毎に得られる複数の入力画像を用いて作成される。具体的には、時間的に異なる複数の入力画像の加重平均を取ることにより、検出の目的となる物体(侵入物)の存在しない状態の画像を作成する。
背景画像の作成完了後、カメラから映像信号(入力画像)を取り込む毎に、下記の物体検出処理、映像表示処理を繰り返し行う。また、侵入物(侵入者を含む)を検知した場合は、警報処理を行う。
物体検出処理では、作成しておいた背景画像と新たに取り込んだ入力画像との差分を算出して差分画像(入力画像−背景画像)を作成し、差分画像を予め定められた二値化しきい値で二値化して二値画像を作成し、二値画像に含まれるノイズ(数画素のかたまり)を除去してノイズ除去画像を作成し、ノイズ除去画像に残っている画素のかたまりを物体と見做して物体(かたまり)毎にラベル付けし、各物体の幅、高さ、面積を算出する。そして、ラベル付けした物体毎に、物体の大きさ、滞在時間、移動距離等に基づいて、物体の種別を判別して当該物体が人(侵入者)か否かを判定し、侵入者と判定された場合に、パトライト(登録商標)を点灯する、ブザーを鳴らす、サーバに通知する等、外部機器により警報出力を行う警報処理を実施する。また、時々刻々と変化する映像状態に追従するため、入力画像をカメラから取り込むたびに背景画像の更新を行う。
映像表示処理では、カメラから取り込んだ入力画像を、監視員が監視するモニタ等に画像出力I/Fを介して出力して表示させる。また、侵入者ありの場合には「侵入者検知」の文字や検知箇所を示すマーカー等を入力画像に重畳したもの(侵入者情報付き画像)をモニタへ出力する。
ここで、物体検知に関して種々の発明がこれまでに提案されており、例えば、特許文献1には、明るさの定常的或いは一時的な変化や、葉や水面の動き、雪や雨による減衰等、複雑な外乱の下での複合的な警備システムや交通解析に適用する場合を考慮した物体検出方法の発明が開示されている。
特開2009−117956号公報
上記説明した方式では、カメラから得られた映像信号(入力画像)をそのまま処理するため、霧や降雨等によって画像全体のコントラストが低下した場合や、暗い場所に背景とのコントラスト差が少ない黒い服の人が入った場合などには、背景と物体との間の輝度差が二値化しきい値以下となって物体の見逃しにつながる懸念がある。そこで、このような状況でも、安定して物体を検知することが可能な技術が望まれている。
ここで、コントラストが全体的に低下した場合に画像を補正する方法として、コントラスト強調がある。コントラスト強調を行う利点としては、侵入物を検出し易い画像が得られることにあるが、一方、画像上のノイズも強調されてしまうため誤報が増加するという欠点もある。したがって、強調されたノイズに対する誤報を抑制する工夫が必要となる。
また、暗い場所に暗い物体が存在する等のように局所的にコントラストが低下した場合には、入力画像の全体に対するコントラスト強調では対応できないため、局所的なコントラスト強調も行う必要がある。しかしながら、全体的又は局所的なコントラスト強調を行う場合には、コントラスト強調をOFF(停止)からON(起動)にした瞬間やON(起動)からOFF(停止)にした瞬間では、フレーム間での輝度レベルの変化が大きくなり、物体領域だけでなく建造物等の背景部分でもレベル差が発生してしまうので、背景部分と物体部分の境界が認識できずに物体のサイズを正しく認識できなくて物体を見逃してしまうという問題や、背景部分の差分が物体のサイズと同様であった場合に誤報が増加するという問題など発生する。したがって、建造物等の背景部分での差分がなるべく発生しないようにする工夫が必要となる。
本発明は、上記のような事情に鑑みて為されたものであり、全体的又は部分的に画像のコントラストが低下した状況でも、安定して物体を検知することが可能な技術を提案することを目的とする。
本発明は、監視領域を撮像するカメラからの入力画像に基づいて、監視領域内に現れた物体を検知する物体検知装置において、入力画像に対してコントラストを強調する補正を行う前処理手段と、前記前処理手段による補正後の入力画像と、当該補正に関する画像特性を含む補正特性情報とを用いて、監視領域内に現れた物体の検知を行う物体検知手段と、を備えたことを特徴とする物体検知装置である。また、本発明は、このような物体検知装置により実施される方法やそのプログラムなど、他の態様によっても実現することができる。
すなわち、本発明では、物体検知処理の前段に前処理を追加しており、前処理によって得られた補正画像(入力画像に対してコントラスト強調を行なった画像)を、侵入検知処理における入力画像として提供することで、霧や降雨等で画面全体のコントラストが低下した状況でも物体を検知し易くしている。更に、物体検知処理においては、前処理による補正画像だけでなく、その補正(コントラスト強調)に関する画像特性を含む補正特性情報を用いて物体検知を行うことで、コントラスト強調により強調されたノイズによる影響の低減を図る。
このような構成により、全体的又は部分的に画像のコントラストが低下した状況でも、安定して物体を検知することが可能になる。
また、本発明では、前処理は、物体検知処理によって検知された物体の位置に基づいて、入力画像に対する補正を行う。すなわち、物体検知の結果を利用して補正が必要な領域を求め、これを基にして入力画像に対する補正(コントラスト強調)を行うことで、暗い場所に黒い物体など局所的にコントラストが低下した状況にも対応できるようにし、失報や誤報を抑制した物体検知を実現する。
また、本発明では、物体検知処理は、入力画像を取り込む毎に、物体の検知における入力画像との比較対象となる背景画像を更新しており、前処理は、物体検知処理における背景画像の更新率に応じて入力画像の補正量を調整する。すなわち、前処理は、物体検知処理における背景の学習速度を表す背景更新率を参照して、1フレームでの入力画像の補正量(コントラスト強調の程度)を物体検知処理における背景画像の学習速度で追従できる程度に留めることで、建造物等の背景部分に対するレベル差(輝度差)が少ない画像を補正画像として生成する。これにより、コントラスト強調をOFF(停止)からON(起動)にした瞬間やON(起動)からOFF(停止)にした瞬間など、フレーム間で輝度レベルが急激に変化した場合にも対応することが可能になる。
ここで、より具体的な構成として、本発明では、補正特性情報は、補正後の入力画像における各輝度レベルの出現頻度を輝度レベル毎に累積した累積頻度における、累積頻度の立ち下がり部分の輝度レベルと立ち上がり部分の輝度レベルの間の幅の最大値である最大レベル幅を含み、物体検知処理は、当該最大レベル幅に基づいて決定される二値化しきい値を用いて補正後の入力画像を二値化して、物体の検知に用いる。ここで、最大レベル幅は、入力画像の補正(コントラスト強調)によって発生する最大のノイズレベルを表しており、この最大レベル幅に基づく二値化しきい値によって二値化された補正後の入力画像を用いて物体検知を行うことで、コントラスト強調により強調されたノイズによる影響を低減することが可能になる。
また、本発明では、最大レベル幅に基づく二値化しきい値によって二値化された補正後の入力画像(実施例における二値画像A)と、当該二値化しきい値より低い二値化しきい値によって二値化された補正後の入力画像(実施例における二値画像B)との差分画像(実施例における二値画像C)に基づいて、補正が必要な領域を決定する。これにより、局所的に低コントラスト状態が発生している部分に対してコントラスト強調を施すことが可能となる。
本発明によれば、全体的又は部分的に画像のコントラストが低下した状況でも、安定して物体を検知することが可能になる。
本発明の一実施例に係る侵入検知システムの構成の例を示す図である。 本例に係る侵入検知装置のハードウェア構成の例を示す図である。 本例に係る前処理部の処理フローの例を示す図である。 本例に係る基本的なコントラスト強調の様子を示す図である。 本例に係る侵入検知処理部の処理フローの例を示す図である。 本例に係る補正必要領域算出処理の処理フローの例を示す図である。
本発明の一実施例について図面を参照して説明する。
図1には、本発明の一実施例に係る侵入検知システムの構成の例を示してある。
本例の侵入検知システムでは、監視領域を撮影するカメラ11から映像信号21を得て所定のフレーム間隔毎の入力画像を取得し、入力画像を前処理部12でコントラスト強調し、その結果として得られた補正画像22を侵入検知処理部13で解析することで、監視領域に対する侵入物の検知精度の向上を図る。また、前処理部12から侵入検知処理部13に対して補正特性情報23を出力し、侵入検知処理部13から前処理部12に対して補正したい領域情報24を出力することにより、侵入物の失報や誤報を抑制した侵入検知が可能な構成とする。
なお、以下では、検知対象の侵入物として人(侵入者)を例に説明するが、他の物体の侵入検知であっても構わない。
前処理部12及び侵入検知処理部13の構成について説明する。
図2には、前処理部12と侵入検知処理部13を一体に備えた侵入検知装置(本発明に係る物体検知装置の一例)のハードウェア構成の例を示してある。なお、前処理部12と侵入検知処理部13の各々を、互いに通信可能な別体の装置に設ける構成としてもよい。
本例の侵入検知装置は、カメラ11から得られたアナログの映像信号21をデジタルに変換(A/D変換)し、所定の階調数(本例では、0〜255の256階調)の輝度信号で表現された入力画像を得る画像入力I/F31、画像間の演算及び画像の格納に用いられる画像メモリ32、画像解析処理(前処理部12及び侵入検知処理部13による処理内容を含む)を行うCPU(Central Processing Unit)33、外部からのコマンド信号等の受信や外部へのアラーム信号等の送信を行う入出力I/F34、CPU33の作業領域となるワークメモリ35、上記画像解析処理のプログラムを格納したプログラムメモリ36、画像メモリ32に格納されたデジタルの画像をアナログの映像信号に変換(D/A変換)し、外部(例えば、監視用のモニタ)へ出力する画像出力I/F37、これらの機能部31〜37間でデータの転送を行うデータバス38を有するコンピュータにより実現される。
前処理部12の動作について、図3に例示する処理フローを参照して説明する。
前処理部12は、まず、入力画像取込処理(ステップS11)で、カメラ11からの映像信号21を画像入力I/F部31でA/D変換して得られる入力画像を、画像メモリ32内の入力画像メモリ領域に格納する。
次に、初回判定処理(ステップS12)で、初回(1回目)の処理か否か(例えば、電源がOFFからONに切り替わった瞬間の処理か否か)を判定する。
初回判定処理(ステップS12)で初回と判定された場合には、補正ベース画像(全体)登録処理(ステップS13)、背景更新率要求コマンド出力処理(ステップS14)、補正領域初期化処理(ステップS15)を実行する。一方、初回判定処理(ステップS12)で初回でないと判定された場合には、これらの処理(ステップS13〜S15)はスキップする。
補正ベース画像(全体)登録処理(ステップS13)では、画像メモリ32内の入力画像メモリ領域に格納されている入力画像を、画像メモリ32内の補正ベース画像(全体)メモリ領域にコピーすることにより、補正ベース画像(全体)を得る。
背景更新率要求コマンド出力処理(ステップS14)では、侵入検知処理部13に対して、背景更新率要求コマンドを出力する。
補正領域初期化処理(ステップS15)では、後述するコントラスト補正処理(ステップS21)の対象となる補正領域として、画面全体を設定する。なお、ここでいう画面は、入力画像に対応する。
その後、背景更新率登録済み判定処理(ステップS16)で、背景更新率要求コマンド出力処理(ステップS14)で出力した背景更新率要求コマンドに対して、侵入検知処理部13からの応答があったか否かを判定する。
背景更新率登録済み判定処理(ステップS16)で侵入検知処理部13から応答がなかったと判定された場合には、出力画像作成(補正なし)処理(ステップS26)を実行する。
出力画像作成(補正なし)処理(ステップS26)では、画像メモリ32内の入力画像メモリ領域に格納されている入力画像を、画像メモリ32内の出力画像メモリ領域にコピーすることにより、出力画像を得る。出力画像作成(補正なし)処理(ステップS26)の後は、後述する映像出力処理(ステップS23)へ移行する。
一方、背景更新率登録済み判定処理(ステップS16)で侵入検知処理部13から応答があったと判定された場合には、背景更新率登録処理(ステップS17)を実行する。
背景更新率登録処理(ステップS17)では、侵入検知処理部13から応答された背景更新率を登録する。なお、背景更新率が登録済みの場合には、背景更新率登録処理(ステップS17)はスキップする。
その後、補正領域受信判定処理(ステップS18)で、侵入検知処理部13から補正したい領域情報24を受信したか否かを判定する。
補正領域受信判定処理(ステップS18)で侵入検知処理部13から補正したい領域情報24を受信したと判定された場合には、補正ベース画像(補正領域のみ)登録処理(ステップS19)、補正領域登録処理(ステップS20)を実行する。
補正ベース画像(補正領域のみ)登録処理(ステップS19)では、補正ベース画像(全体)登録処理(ステップS13)で得られた補正ベース画像(全体)のうち、補正したい領域情報24で示された補正領域の部分のみを切り出して、画像メモリ32内の補正ベース画像(補正領域のみ)用メモリ領域にコピーすることにより、補正ベース画像(補正領域のみ)を得る。なお、前回の入力画像に対して後述のコントラスト補正処理(ステップS21)で画面全体のコントラスト補正が行われていた場合には、その結果に対して補正領域の部分の切り出しが行なわれて補正ベース画像(補正領域のみ)が得られる。
補正領域登録処理(ステップS20)では、後述するコントラスト補正処理(ステップS21)の対象となる補正領域として、補正したい領域情報24で示された補正領域を登録する。
その後、コントラスト補正処理(ステップS21)で、補正領域登録処理(ステップS20)で登録した補正領域、補正ベース画像(全体)登録処理(ステップS13)で登録した補正ベース画像(全体)、補正ベース画像(補正領域のみ)登録処理(ステップS19)で登録した補正ベース画像(補正領域のみ)、入力画像取込処理(ステップS11)で取り込んだ入力画像、背景更新率登録処理(ステップS17)で登録した背景更新率の各データを用いてコントラストの補正(強調)を行い、その結果であるコントラスト補正画像を得る。処理の詳細については後述する。
そして、出力画像作成処理(ステップS22)で、コントラスト補正処理(ステップS21)で得られたコントラスト補正画像を、画像メモリ32内の出力画像メモリ領域にコピーすることにより、出力画像を得る。
その後、映像出力処理(ステップS23)で、画像メモリ32内の出力画像メモリ領域に格納されている出力画像(コントラスト補正画像又は入力画像)を、補正画像22として侵入検知処理部13に出力する。
その後、コマンド出力間隔判断処理(ステップS24)で、前回のコマンド送信からの経過時間を判断する。
コマンド出力間隔判断処理(ステップS24)で前回のコマンド送信からの経過時間が規定時間(T秒)未満と判断された場合には、入力画像取込処理(ステップS11)に戻る。
一方、コマンド出力間隔判断処理(ステップS24)で前回のコマンド送信からの経過時間が規定時間(T秒)以上と判断された場合には、補正特性情報出力処理(ステップS25)を実行した後に、入力画像取込処理(ステップS11)に戻る。
補正特性情報出力処理(ステップS25)では、侵入検知処理部13に対して補正特性情報23を出力する。補正特性情報23には、後述するように、コントラストの補正(強調)に関する画像特性を示す情報が格納される。なお、1フレーム間での輝度レベルの変化の割合は少ないことや、コマンド送受信に負荷をかけないこと等を考慮すれば、補正特性情報23の出力は数秒間に1回で十分と考えられる。
コントラスト補正処理(ステップS21)の詳細について、図4を用いて説明する。
図4には、基本的なコントラスト強調の様子を示してある。
まず、図4(a)に例示するコントラスト強調前の入力画像に対して、輝度レベル(本例では、0〜255の256階調)毎に出現頻度(該当する画素の数)を算出することにより、図4(b)に例示するヒストグラムを得る。
次に、このヒストグラムについて、輝度レベル毎に累積頻度を算出する。
輝度レベル毎の累積頻度は、以下のようにして計算される。ここで、以下の各式における()内の数値は輝度レベルを表している。
累積頻度(0)=輝度(0)の頻度
累積頻度(1)=輝度(0)の頻度+輝度(1)の頻度
・・・・
累積頻度(127)=輝度(0)の頻度〜輝度(127)の頻度の合計
・・・・
累積頻度(255)=輝度(0)の頻度〜輝度(255)の頻度の合計
輝度レベル毎の累積頻度をグラフ化したものが、図4(c)に例示する累積頻度グラフとなる。
次に、輝度レベル毎の累積頻度から、累積頻度の最小値と最大値を算出する。最小値は、累積頻度(0)より大きくなる立ち上がりの部分の値(累積頻度)であり、最大値は、累積頻度=画像サイズ(幅×高さ)となる最初の部分の値(累積頻度)である。この累積頻度の最小値と最大値により、入力画像における輝度レベルの偏りを判断できる。
例えば、図4(a)のように霧等によってコントラストが低下している場合には、図4(b)や(c)のように輝度レベルが高い部分(輝度レベル=255に近い部分)に偏った頻度分布となる。また、暗闇等によってコントラストが低下している場合には、輝度レベルが低い部分(輝度レベル=0に近い部分)に偏った頻度分布となる。
次に、上記の手順により得られた、輝度レベル毎の累積頻度、累積頻度の最小値及び最大値を用いて、入力画像の画素毎に輝度値(輝度レベル)を(式1)により変換することで、コントラスト強調を行う。
Figure 2013186635
ここで、I[i,j]は、コントラスト強調前の各画素の輝度値であり、O[i,j]は、コントラスト強調後の各画素の輝度値である。また、D(I[i,j])は、I[i,j]の輝度値の累積頻度であり、Dmin(H)は、累積頻度の最小値であり、Diffは、累積頻度の最大値−累積頻度の最小値である。
上記の(式1)によりコントラスト強調を行うと、図4(d)に例示するヒストグラムが得られる。すなわち、或る輝度レベルの付近に偏っていた頻度分布を、輝度レベルの取り得る範囲全体に分散した頻度分布に均すことができる。その結果、図4(e)に例示するように、コントラストが低かった(輝度差が小さい)建物や物体(人物)の部分について、コントラストを強調(輝度差を拡大)することが可能となる。
また、上記の(式1)によりコントラスト強調を行う対象の範囲(i,jの範囲)を画面全体とすれば、全体的なコントラスト強調を行うことが可能となり、対象の範囲を画面の一部とすれば、局所的なコントラスト強調を行うことが可能となる。
コントラスト補正処理(ステップS21)では、図3を参照して説明した処理(コントラストの強調)を、侵入検知処理部13からの補正したい領域情報24に基づいて行う。すなわち、補正したい領域情報24で示された各補正領域に対してコントラスト強調を実施し、その結果である各補正領域のコントラスト強調後画像を入力画像にコピーすることで、画面の全体又は一部に対してコントラスト強調を施した結果であるコントラスト補正画像(補正画像22)を得ることが可能となる。
また、補正領域として、画面の全体と一部とを混在して指定されてもよく、この場合には、例えば、画面全体に対するコントラスト強調と画面の一部に対するコントラスト強調とをそれぞれ実行し、画面全体のコントラスト強調後画像を入力画像にコピー(全体置換)した後、画面の一部のコントラスト強調後画像を該当する画面部分にコピー(部分置換)することで、画面全体のコントラスト強調と画面の一部のコントラスト強調とを施したコントラスト補正画像(補正画像22)を得ることができる。なお、入力画像の状態によっては、まず、画面全体に対するコントラスト強調を行い、その結果である画面全体のコントラスト強調後画像に対して更に画面の一部のコントラスト強調を行なってコントラスト補正画像(補正画像22)を作成したほうが、後段の侵入検知処理部13による侵入検知に適している場合もある。
ここで、コントラスト強調をOFF(停止)からON(起動)にした瞬間やON(起動)からOFF(停止)にした瞬間では、侵入者が存在する部分だけでなく、建物などの背景部分でも輝度レベルが大きく変化する。そこで、本例では、コントラスト強調後画像を単純にコピーしてコントラスト補正画像(補正画像22)を得るのではなく、補正ベース画像とコントラスト強調後画像との加重平均を下記(式2)により算出してコントラスト補正画像(補正画像22)を作成し、これを侵入検知処理部13による侵入検知に用いるようにすることで、建物などの背景に対する誤検知の防止を図っている。なお、補正ベース画像としては、対象となる補正領域に応じて補正ベース画像(全体)又は補正ベース画像(補正領域のみ)が選択的に用いられる。
コントラスト補正画像=補正ベース画像×(1−背景更新率)
+コントラスト強調後画像×背景更新率 ・・・(式2)
すなわち、背景更新率が大きいほどコントラスト強調後画像の寄与率を高めたコントラスト補正画像を作成する。
また、本例では、補正特性情報出力処理(ステップS25)において、コントラスト補正画像(補正画像22)に対して再度ヒストグラムを作成し、累積頻度が生じていない区間の幅(累積頻度の立ち下がり部分と立ち上がり部分の間の幅)の最大値である最大レベル幅を算出する。最大レベル幅は、図4(d)に示すように、ヒストグラム強調によって発生する最大のノイズレベルを表しており、補正特性情報23に格納して侵入検知処理部13へ出力され、侵入検知処理部13による処理における二値化しきい値の決定に用いられる。
また、補正特性情報23には、コントラストの補正(強調)に関する画像特性を示す情他の報として、最小輝度、最大輝度、最大レベル差なども格納される。ここで、最小輝度は、コントラスト強調前において累積頻度が最小値となる輝度レベルであり、最大輝度は、コントラスト強調前において累積頻度が最大値となる輝度レベルである。また、最大レベル差は、コントラスト補正画像(補正画像22)とコントラスト強調後画像との差分における輝度レベルの最大値である。
侵入検知処理部13の動作について、図5に例示する処理フローを参照して説明する。
侵入検知処理部13は、まず、背景画像作成処理(ステップS31)で、侵入検知に用いる背景画像の作成を行う。背景画像は、時間的に異なる複数の入力画像(補正画像22)の加重平均を取ることにより、検出の目的となる物体(侵入物)の存在しない状態の画像を作成する。背景画像の作成は、例えば、特開2009−282975号公報に開示された技術を用いることで作成することができる。
背景画像作成処理(ステップS31)による背景画像の作成完了後、入力画像取込み処理(ステップS32)で、新たな入力画像(補正画像22)の取り込みを行う。
その後、背景更新率要求コマンド受信判定処理(ステップS33)で、前処理部12から背景更新率要求コマンドを受信したか否かを判定する。
背景更新率要求コマンド受信判定処理(ステップS33)で背景更新率要求コマンドを受信したと判定された場合には、背景更新率応答コマンド出力処理(ステップS34)を実行する。一方、背景更新率要求コマンド受信判定処理(ステップS33)で背景更新率要求コマンドを受信しなかったと判定された場合には、背景更新率応答コマンド出力処理(ステップS34)はスキップする。
背景更新率応答コマンド出力処理(ステップS34)では、背景更新率要求コマンドに対する応答として、前処理部12に対して背景更新率を通知する。背景更新率要求コマンドは、前処理部12が起動したときに1回のみ出力されるため、背景更新率応答コマンド出力処理(ステップS34)は前処理部12が起動する間隔(基本的には1回のみ)で実行される。ここで、背景更新率は、前回の背景更新率要求コマンドの時点における背景画像と現時点(今回の背景更新率要求コマンドの時点)における背景画像とを比較して算出される値であり、各々の背景画像の相違の程度を表す。
また、補正特性情報受信判定処理(ステップS35)で、前処理部12から補正特性情報23を受信したか否かを判定する。
補正特性情報受信判定処理(ステップS35)で補正特性情報23を受信したと判定された場合には、二値化しきい値登録処理(ステップS36)を実行する。一方、補正特性情報受信判定処理(ステップS35)で補正特性情報23を受信しなかったと判定された場合には、二値化しきい値登録処理(ステップS36)はスキップする。
二値化しきい値登録処理(ステップS36)では、二値化しきい値として、補正特性情報23で示された最大レベル幅を登録する。二値化しきい値を最大レベル幅に設定することで、ノイズレベル以上のしきい値で二値化することになるため、ノイズの影響を排除することが可能となる。物体の検出レベルはノイズレベル以上に強調されているため、本処理による見逃しの影響はない。なお、本例では、最大レベル幅そのものを二値化しきい値としているが、これに限定するものではなく、最大レベル幅に所定の係数を乗ずる等して調整した値を用いてもよく、ノイズの影響を有効に排除することが可能であればよい。
その後、差分処理(ステップS37)、二値化処理(ステップS38)、ノイズ除去処理(ステップS39)、ラベリング処理(ステップS40)を実行する。
差分処理(ステップS37)では、背景画像作成処理(ステップS31)で得られた背景画像と、入力画像取込み処理(ステップS32)で得られた入力画像(補正画像22)との差分を算出し、差分画像(入力画像−背景画像)を作成する。入力画像(補正画像22)と背景画像との差分は、符号付きで算出してもよく、絶対値として算出してもよい。なお、後述の背景画像更新処理(ステップS44)が実施された場合には、背景画像更新処理(ステップS44)による更新後の背景画像を用いて差分画像が作成される。
二値化処理(ステップS38)では、差分処理(ステップS37)で得られた差分画像を、二値化しきい値登録処理(ステップS36)で登録された二値化しきい値により二値化して、二値画像を作成する。すなわち、二値化しきい値未満の画素の輝度値を0、二値化しきい値以上の画素の輝度値を255として、二値画像を作成する。
ノイズ除去処理(ステップS39)では、二値化処理(ステップS38)で作成された二値画像に含まれるノイズを除去し、ノイズ除去画像を作成する。本例では、二値画像に含まれる画素のかたまりのうち、所定の画素数未満のものをノイズとして除去する。
ラベリング処理(ステップS40)では、ノイズ除去処理(ステップS39)で作成されたノイズ除去画像に残っている画素のかたまりを物体と見做して物体(かたまり)毎にラベル付け(識別情報を付与)し、各物体の幅、高さ、面積を算出する。
その後、物体判定処理(ステップS41)で、ラベリング処理(ステップS40)で得られた物体毎に、物体の大きさ、滞在時間、移動距離等に基づいて、その物体の種別を判別する。なお、物体の大きさは、例えば、ラベリング処理(ステップS40)で得られた物体の幅、高さ、面積に基づいて特定できる。また、物体の滞在時間は、例えば、時間的に異なる複数の入力画像のうち当該物体が検出された入力画像の数(フレーム数)に基づいて特定できる。また、物体の移動距離は、例えば、時間的に異なる複数の入力画像における当該物体の位置情報に基づいて特定できる。
次に、侵入者判定処理(ステップS42)で、物体判定処理(ステップS41)で判別された物体が人(侵入者)か否かを判定し、侵入者と判定された場合には、警報処理(ステップS43)で、パトライト(登録商標)を点灯する、ブザーを鳴らす、サーバに通知する等、外部機器により警報出力を行う。
その後、背景画像更新処理(ステップS44)、映像表示処理(ステップS45)、補正必要領域算出処理(ステップS46)を実行する。
背景画像更新処理(ステップS44)では、背景画像の更新を行う。背景画像の更新は、時々刻々と変化する映像状態に追従するため、入力画像(補正画像22)を取り込むたびに実行される。
映像表示処理(ステップS45)では、入力画像(補正画像22)を画像出力I/F37によりD/A変換し、監視員が監視するモニタ等に出力して表示させる。また、侵入者ありの場合には「侵入者検知」の文字や検知箇所を示すマーカー等を入力画像(補正画像22)に重畳したもの(侵入者情報付き画像)をモニタへ出力する。
補正必要領域算出処理(ステップS46)では、暗い部分に黒い服の人が存在する等の理由により局所的に低コントラストの状態になっている領域の有無を調べ、該当する領域(低コントラスト状態の領域)の情報を、補正したい領域情報24に格納して前処理部12に対して送信する。これにより、局所的に低コントラスト状態が発生している部分に対してコントラスト強調を施すことが可能となる。
補正必要領域算出処理(ステップS46)の詳細について、図6に例示する処理フローを参照して説明する。
まず、補正必要性判定処理(ステップS51)で、コントラストの補正(コントラスト強調)を画面全体に施す必要性の有無を判定する。具体的には、補正特性情報23で示された最小輝度と最大輝度の差分である輝度差を算出し、輝度差が小さく(すなわち、輝度差が所定の基準差分値未満であり)、且つ、補正領域として画面全体が登録されていない場合に、画面全体のコントラスト補正が必要と判定する。
補正必要性判定処理(ステップS51)で画面全体のコントラスト補正が必要と判定された場合には、補正領域数インクリメント処理(ステップS52)、全体補正領域登録処理(ステップS53)を実行する。一方、補正必要性判定処理(ステップS51)で画面全体のコントラスト補正が必要でないと判定された場合には、補正領域数インクリメント処理(ステップS52)、全体補正領域登録処理(ステップS53)はスキップする。
補正領域数インクリメント処理(ステップS52)では、補正領域数nをインクリメント(+1)する。なお、補正領域数nには初期値として0が設定されている。
全体補正領域登録処理(ステップS53)では、n番目の補正領域として画面全体を登録する。
なお、図6の処理フローには示していないが、補正領域として画面全体が既に登録されている状態において、最小輝度と最大輝度の輝度差が小さくなかった場合(すなわち、輝度差が所定の基準差分値以上の場合)には、補正領域から画面全体を削除し、補正領域数をデクリメント(−1)する。
次に、二値化しきい値登録処理(ステップS54)、二値化処理(ステップS55)、補正領域抽出処理(ステップS56)、ラベリング処理(ステップS57)を実行する。
二値化しきい値登録処理(ステップS54)では、補正必要領域を算出するのに必要な最小しきい値を予め設定しておき、この最小しきい値を二値化しきい値として登録する。最小しきい値としては、二値化しきい値登録処理(ステップS36)で登録した二値化しきい値より低い(小さい)値が用いられる。
二値化処理(ステップS55)では、差分処理(ステップS37)で得られた差分画像を、二値化しきい値登録処理(ステップS55)で登録された二値化しきい値により二値化して、二値画像を作成する。すなわち、二値化しきい値未満の画素の輝度値を0、二値化しきい値以上の画素の輝度値を255として、二値画像を作成する。
補正領域抽出処理(ステップS56)では、二値化処理(ステップS38)で作成された二値画像を二値画像Aとし、二値化処理(ステップS56)で作成された二値画像を二値画像Bとして、二値画像Aと二値画像Bの差分を算出し、二値画像Aと二値画像Bの差分画像である二値画像Cを作成する。
ラベリング処理(ステップS57)では、補正領域抽出処理(ステップS56)で得られた二値画像Cに対してラベリング処理を行い、二値画像Cに含まれる画素のかたまりを物体と見做して物体(かたまり)毎にラベル付け(識別情報を付与)し、その物体の幅、高さ、面積を算出する。
その後、処理回数判定処理(ステップS58)で、ラベリング後処理回数を0に初期化して、ラベリング後処理回数がラベリング個数より小さいか否かを判定する。ここで、ラベリング個数は、ラベリング処理(ステップS57)でラベリングした物体の数である。また、ラベリング後処理回数は、後続の補正領域判定処理(ステップS59)を実行する毎にインクリメント(+1)される。すなわち、処理回数判定処理(ステップS58)では、ラベリングした全ての物体に対して補正領域判定処理(ステップS59)を行なったか否かを判定する。
処理回数判定処理(ステップS58)でラベリング後処理回数がラベリング個数より小さい(未処理のものが存在する)と判定された場合には、補正領域判定処理(ステップS59)を実行する。
補正領域判定処理(ステップS59)では、ラベリング処理(ステップS57)でラベリングされた物体毎に、コントラストの補正(コントラスト)を施す必要性の有無を判定する。具体的には、ラベリング処理(ステップS57)で得られた面積が大きく(すなわち、面積が所定の基準面積値以上であり)、且つ、補正領域として登録されていない場合に、その物体の画像部分について局所的なコントラスト補正が必要と判定する。
補正領域判定処理(ステップS59)で局所的なコントラスト補正が必要と判定された場合には、更に、補正領域インクリメント処理(ステップS60)、局所補正領域登録処理(ステップS61)を実行する。
補正領域数インクリメント処理(ステップS60)では、補正領域数nをインクリメント(+1)する。
局所補正領域登録処理(ステップS61)では、n番目の補正領域(局所補正領域)として、ラベリング処理(ステップS57)で得られた幅、高さを±規定値(α%)分だけ広げた領域(拡張領域)を登録する。
なお、図6の処理フローには示していないが、局所補正領域登録処理(ステップS61)で登録された補正領域に関し、ラベリング処理(ステップS57)で得られた物体の画素数が小さい(すなわち、画素数が所定の基準画素数未満)の状態が規定時間(数秒)継続した場合には、その物体に対応する領域(拡張領域)を補正領域から削除し、補正領域数をデクリメント(−1)する。
処理回数判定処理(ステップS58)でラベリング後処理回数がラベリング個数より大きいと判定された場合、すなわち、ラベリングされた全ての物体に対して補正領域判定処理(ステップS59)を実行した場合には、補正領域追加/削除判定処理(ステップS62)を実行する。
補正領域追加/削除判定処理(ステップS62)では、前処理フレーム(前回処理した入力画像)の補正領域数と、現処理フレーム(現在処理中の入力画像)の補正領域数とを比較し、補正領域数の変化の有無を判定する。
補正領域追加/削除判定処理(ステップS62)で補正領域数に変化があったと判定された場合には、補正領域情報出力処理(ステップS64)を実行する。一方、補正領域追加/削除判定処理(ステップS62)で補正領域数に変化がなかったと判定された判定された場合には、補正領域情報出力処理(ステップS64)はスキップする。
補正領域情報出力処理(ステップS64)では、前処理部12に対し、補正したい領域情報24として、補正領域として登録されている領域の情報を送信する。
以上の処理により、侵入検知に適したコントラスト強調が可能となる。
ここで、本発明に係るシステムや装置などの構成としては、必ずしも以上に示したものに限られず、種々な構成が用いられてもよい。また、本発明は、例えば、本発明に係る処理を実行する方法或いは方式や、このような方法や方式を実現するためのプログラムや当該プログラムを記録する記録媒体などとして提供することも可能であり、また、種々なシステムや装置として提供することも可能である。
また、本発明の適用分野としては、必ずしも以上に示したものに限られず、本発明は、種々な分野に適用することが可能なものである。
また、本発明に係るシステムや装置などにおいて行われる各種の処理としては、例えばプロセッサやメモリ等を備えたハードウェア資源においてプロセッサがROM(Read Only Memory)に格納された制御プログラムを実行することにより制御される構成が用いられてもよく、また、例えば当該処理を実行するための各機能手段が独立したハードウェア回路として構成されてもよい。
また、本発明は上記の制御プログラムを格納したフロッピー(登録商標)ディスクやCD(Compact Disc)−ROM等のコンピュータにより読み取り可能な記録媒体や当該プログラム(自体)として把握することもでき、当該制御プログラムを当該記録媒体からコンピュータに入力してプロセッサに実行させることにより、本発明に係る処理を遂行させることができる。
11:カメラ、 12:前処理部、 13:侵入検知処理部、
21:映像信号(入力画像)、 22:補正画像、 23:補正特性情報、 24:補正したい領域情報、
31:画像入力I/F、 32:画像メモリ、 33:CPU、 34:入出力I/F、 35:ワークメモリ、 36:プログラムメモリ、 37:画像出力I/F、 38:データバス

Claims (9)

  1. 監視領域を撮像するカメラからの入力画像に基づいて、監視領域内に現れた物体を検知する物体検知装置において、
    入力画像に対してコントラストを強調する補正を行う前処理手段と、
    前記前処理手段による補正後の入力画像と、当該補正に関する画像特性を含む補正特性情報とを用いて、監視領域内に現れた物体の検知を行う物体検知手段と、
    を備えたことを特徴とする物体検知装置。
  2. 監視領域を撮像するカメラからの入力画像に基づいて、監視領域内に現れた物体を検知する物体検知装置により実施される方法において、
    入力画像に対してコントラストを強調する補正を行う前処理ステップと、
    前記前処理手段による補正後の入力画像と、当該補正に関する画像特性を含む補正特性情報とを用いて、監視領域内に現れた物体の検知を行う物体検知ステップと、
    を有することを特徴とする物体検知方法。
  3. 監視領域を撮像するカメラからの入力画像に基づいて、監視領域内に現れた物体を検知する物体検知装置のコンピュータに、
    入力画像に対してコントラストを強調する補正を行う前処理機能と、
    前記前処理機能による補正後の入力画像と、当該補正に関する画像特性を含む補正特性情報とを用いて、監視領域内に現れた物体の検知を行う物体検知機能と、
    を実現させるためのプログラム。
  4. 請求項1に記載の物体検知装置において、
    前記前処理手段は、前記物体検知手段により検知された物体の位置に基づいて、入力画像に対する補正を行う、
    ことを特徴とする物体検知装置。
  5. 請求項2に記載の物体検知方法において、
    前記前処理ステップは、前記物体検知ステップにより検知された物体の位置に基づいて、入力画像に対する補正を行う、
    ことを特徴とする物体検知方法。
  6. 請求項3に記載のプログラムにおいて、
    前記前処理機能は、前記物体検知手段により検知された物体の位置に基づいて、入力画像に対する補正を行う、
    ことを特徴とするプログラム。
  7. 請求項1に記載の物体検知装置において、
    前記物体検知手段は、入力画像を取り込む毎に、物体の検知における入力画像との比較対象となる背景画像を更新しており、
    前記前処理手段は、前記物体検知手段における背景画像の更新率に応じて入力画像の補正量を調整する、
    ことを特徴とする物体検知装置。
  8. 請求項2に記載の物体検知方法において、
    前記物体検知ステップは、入力画像を取り込む毎に、物体の検知における入力画像との比較対象となる背景画像を更新しており、
    前記前処理ステップは、前記物体検知ステップにおける背景画像の更新率に応じて入力画像の補正量を調整する、
    ことを特徴とする物体検知装置。
  9. 請求項3に記載のプログラムにおいて、
    前記物体検知機能は、入力画像を取り込む毎に、物体の検知における入力画像との比較対象となる背景画像を更新しており、
    前記前処理機能は、前記物体検知機能における背景画像の更新率に応じて入力画像の補正量を調整する、
    ことを特徴とするプログラム。
JP2012050396A 2012-03-07 2012-03-07 物体検知装置、物体検知方法及びプログラム Active JP5950628B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012050396A JP5950628B2 (ja) 2012-03-07 2012-03-07 物体検知装置、物体検知方法及びプログラム
GB1415683.0A GB2514301B (en) 2012-03-07 2012-11-30 Object detection device, object detection method and program
US14/378,388 US9443150B2 (en) 2012-03-07 2012-11-30 Device and method for detecting objects from a video signal
PCT/JP2012/081144 WO2013132711A1 (ja) 2012-03-07 2012-11-30 物体検知装置、物体検知方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012050396A JP5950628B2 (ja) 2012-03-07 2012-03-07 物体検知装置、物体検知方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2013186635A true JP2013186635A (ja) 2013-09-19
JP2013186635A5 JP2013186635A5 (ja) 2015-04-16
JP5950628B2 JP5950628B2 (ja) 2016-07-13

Family

ID=49116210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012050396A Active JP5950628B2 (ja) 2012-03-07 2012-03-07 物体検知装置、物体検知方法及びプログラム

Country Status (4)

Country Link
US (1) US9443150B2 (ja)
JP (1) JP5950628B2 (ja)
GB (1) GB2514301B (ja)
WO (1) WO2013132711A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017047494A1 (ja) * 2015-09-18 2017-03-23 株式会社日立国際電気 画像処理装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160371847A1 (en) * 2014-07-24 2016-12-22 Bonanza.com, LLC Background profiles
US20170034459A1 (en) * 2015-07-30 2017-02-02 Motorola Mobility Llc Electronic Device with Image Correction System and Methods Therefor
US11516385B2 (en) * 2020-12-09 2022-11-29 Microsoft Technology Licensing, Llc Dynamic quality proxy plural camera image blending
CN112530216B (zh) * 2020-12-16 2022-06-21 北京新大陆时代教育科技有限公司 一种沉浸式虚实交互的实训系统及其方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140370A (ja) * 2006-08-10 2008-06-19 Northrop Grumman Corp ステレオカメラ侵入検知システム
JP2009100256A (ja) * 2007-10-17 2009-05-07 Hitachi Kokusai Electric Inc 物体検知装置
JP2010193438A (ja) * 2009-01-23 2010-09-02 Hitachi Kokusai Electric Inc パラメータ設定方法及び該方法を用いた監視装置
JP2011028348A (ja) * 2009-07-22 2011-02-10 Secom Co Ltd 対象物検知装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2828345B2 (ja) * 1990-12-06 1998-11-25 日本無線株式会社 侵入者監視システム
JPH08171689A (ja) 1994-12-19 1996-07-02 Kansai Electric Power Co Inc:The 変化領域検出装置
JP2001197483A (ja) * 2000-01-12 2001-07-19 Yokogawa Electric Corp 画像処理手段を用いた設備監視システム
JP4613558B2 (ja) 2003-09-16 2011-01-19 パナソニック電工株式会社 画像を用いた人体検知装置
KR100763239B1 (ko) * 2006-06-27 2007-10-04 삼성전자주식회사 디스플레이되는 영상의 시인성 향상을 위한 영상 처리 장치및 방법
WO2009079644A2 (en) * 2007-12-18 2009-06-25 Brijot Imaging Systems, Inc. Software methodology for autonomous concealed object detection and threat assessment
JP5023203B2 (ja) * 2010-08-24 2012-09-12 株式会社東芝 画像補正装置及び補正パラメータ作成装置
JP5719141B2 (ja) * 2010-10-28 2015-05-13 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
US20130170760A1 (en) * 2011-12-29 2013-07-04 Pelco, Inc. Method and System for Video Composition
US9530221B2 (en) * 2012-01-06 2016-12-27 Pelco, Inc. Context aware moving object detection
JP5948983B2 (ja) * 2012-03-09 2016-07-06 オムロン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US10373470B2 (en) * 2013-04-29 2019-08-06 Intelliview Technologies, Inc. Object detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140370A (ja) * 2006-08-10 2008-06-19 Northrop Grumman Corp ステレオカメラ侵入検知システム
JP2009100256A (ja) * 2007-10-17 2009-05-07 Hitachi Kokusai Electric Inc 物体検知装置
JP2010193438A (ja) * 2009-01-23 2010-09-02 Hitachi Kokusai Electric Inc パラメータ設定方法及び該方法を用いた監視装置
JP2011028348A (ja) * 2009-07-22 2011-02-10 Secom Co Ltd 対象物検知装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017047494A1 (ja) * 2015-09-18 2017-03-23 株式会社日立国際電気 画像処理装置
JPWO2017047494A1 (ja) * 2015-09-18 2018-07-12 株式会社日立国際電気 画像処理装置

Also Published As

Publication number Publication date
WO2013132711A1 (ja) 2013-09-12
US9443150B2 (en) 2016-09-13
JP5950628B2 (ja) 2016-07-13
GB2514301B (en) 2016-06-22
GB2514301A (en) 2014-11-19
US20150043775A1 (en) 2015-02-12
GB201415683D0 (en) 2014-10-22

Similar Documents

Publication Publication Date Title
US7778445B2 (en) Method and system for the detection of removed objects in video images
JP5241782B2 (ja) カメラ異常検出装置を有する監視カメラシステム
JP4811653B2 (ja) 物体検出装置
US7982774B2 (en) Image processing apparatus and image processing method
JP4203736B2 (ja) 画像の動き検出装置及びコンピュータプログラム
JP5950628B2 (ja) 物体検知装置、物体検知方法及びプログラム
JP5388829B2 (ja) 侵入物体検知装置
US10679377B2 (en) Object detection system and method, and computer readable recording medium
JP2013065151A (ja) 画像処理装置、画像処理方法、および、プログラム
JP2007180933A (ja) 画像センサ
JP2013033317A (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2010015469A (ja) 静止領域検出方法とその装置、プログラム及び記録媒体
JP5142416B2 (ja) 物体検出装置
JP2001160146A (ja) 画像認識方法および画像認識装置
JPH0779429A (ja) 画像監視装置
JPH1093957A (ja) 移動物体検出方法、装置、システム、および記憶媒体
JP5710230B2 (ja) 監視システムおよび監視方法
JP3736836B2 (ja) 物体検出方法及び物体検出装置及びプログラム
JP2002218443A (ja) 侵入物体検出のためのしきい値を自動的に決定する侵入物体検出方法及び侵入物体監視装置
JP2002150440A (ja) 監視対象物検出装置
JP6124739B2 (ja) 画像センサ
EP3543903A1 (en) Image processing apparatus and method, and storage medium storing instruction
JP2004128648A (ja) 侵入物体追尾方法
CN110300253B (zh) 图像处理装置和方法及存储指令的存储介质
JP2000341677A (ja) 画像監視装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160607

R150 Certificate of patent or registration of utility model

Ref document number: 5950628

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250