JP2010271939A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2010271939A
JP2010271939A JP2009123412A JP2009123412A JP2010271939A JP 2010271939 A JP2010271939 A JP 2010271939A JP 2009123412 A JP2009123412 A JP 2009123412A JP 2009123412 A JP2009123412 A JP 2009123412A JP 2010271939 A JP2010271939 A JP 2010271939A
Authority
JP
Japan
Prior art keywords
image data
pixels
density
image
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009123412A
Other languages
English (en)
Other versions
JP5272890B2 (ja
Inventor
Nobuhiro Tsunashima
宣浩 綱島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009123412A priority Critical patent/JP5272890B2/ja
Priority to US12/779,105 priority patent/US8433139B2/en
Priority to CN2010101803165A priority patent/CN101895673B/zh
Publication of JP2010271939A publication Critical patent/JP2010271939A/ja
Application granted granted Critical
Publication of JP5272890B2 publication Critical patent/JP5272890B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/45Analysis of texture based on statistical description of texture using co-occurrence matrix computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/1961Movement detection not involving frame subtraction, e.g. motion detection on the basis of luminance changes in the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】画像データから映像内に侵入する物体を検知する際、検知対象とする物体の検知漏れや誤検知を低減することが可能な画像処理装置、画像処理方法及びプログラムを提供すること。
【解決手段】画像データから画像データの画素ごとの特徴量を算出する特徴量算出部120と、特徴量を用いて、同一の特徴量を有する画素を抽出して、同一の特徴量を有する画素からなる密集度判定用画像データを生成し、密集度判定用画像データにおける画素の分散度合いを示す密集度を判定する密集度判定部130と、密集度の判定に応じて、密集度判定用画像データにおける画素から画素の集合を算出する画素集合算出部140とを有することを特徴とする。
【選択図】図1

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
監視カメラ(ITVカメラ)などの映像撮影手段が撮影した映像に含まれる人や車等の物体を監視したり追跡したりするためには、まず映像中の物体が検出される必要がある。例えば、監視カメラを用いた監視装置において、カメラによって立ち入り禁止区域等の監視したい場所を撮影し、映像に含まれる物体の有無を検知し、撮影している監視場所に物体(不審物)が侵入してきた場合に警告を発するシステムが構築されている。
その際、映像中にある物体が侵入してくると、物体領域の明るさ、即ち、画像中の物体領域の輝度値が変化する。従って、映像内で輝度値に差異が生じる領域を差異領域として検出することで、物体の検知が可能になる。しかし、このような時間的な輝度値の変化を基にした手法では、海、砂漠、草原などを監視場所としている場合、検知対象としている船舶、人、車等の物体以外の水、砂、草も動いているため、検知対象の物体以外のものを誤って検知してしまうという問題があった。
特許文献1は、海、砂漠、草原など主に自然現象などによって撮影画面に揺らぎが生じるような場所を監視対象とする監視カメラによって得られる画像データから、不審者又は不審物等の侵入を安定して行う技術である。
特開2008−46769号公報
特許文献1の技術は、画像の同時生起確率行列を使用したテクスチャ解析手法の一種である。注目画素とその周辺画素との輝度値の組み合わせを複数生成し、輝度値の組み合わせの頻度を算出する。そして、画像全体の中で輝度値の組み合わせの頻度の少ない画素からなる領域を異物として判断して、物体を検知している。
しかし、特許文献1の技術では、画像データから作成した同時生起確率行列に対する閾値処理のみを用いている。例えば、ある輝度値の組み合わせの頻度が閾値を超えたとき、その輝度値の組み合わせの画素は、背景であると判断し、反対に閾値を超えない画素は、映像に侵入した物体であると判断する。そのため、局所的に同じ模様を持つ領域が密集して発生した場合、その領域の輝度値の組み合わせの頻度が設定してある所定の閾値を越えてしまう。そのため、物体の検知漏れが生じてしまう場合がある。
また、画面内に水平線や地平線、又は雲と空との境界などの境界部分が含まれる場合、これらの境界部分は画像全体の中で非常に狭い領域である。そのため、画像全体の中で例えば一方は海となり他方は空となる輝度値の組み合わせは非常に少ない。その結果、特許文献1の技術では、単純に閾値処理を行っているため、例えば水平線部分を異物として判断してしまい、物体の誤検知が生じてしまう。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、画像データから映像内に侵入する物体を検知する際、検知対象とする物体の検知漏れや誤検知を低減することが可能な、新規かつ改良された画像処理装置、画像処理方法及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、画像データから画像データの画素ごとの特徴量を算出する特徴量算出部と、特徴量を用いて、同一の特徴量を有する画素を抽出して、同一の特徴量を有する画素からなる密集度判定用画像データを生成し、密集度判定用画像データにおける画素の分散度合いを示す密集度を判定する密集度判定部と、密集度の判定に応じて、密集度判定用画像データにおける画素から画素の集合を算出する画素集合算出部とを有する、画像処理装置が提供される。
上記特徴量は、異なる2つの画素の輝度値の組み合わせの頻度による同時生起確率行列であってもよい。
上記密集度判定部は、密集度判定用画像データにおける画素の位置の分散値を算出し、位置の分散値に基づいて、密集度判定用画像データにおける画素が画像データの全体に分布しているか、又は画像データの一部にのみ密集しているかを判定し、画素集合部は、密集度判定用画像データにおける画素が画像データの一部にのみ密集していると判定されたとき、密集度判定用画像データにおける画素の集合を算出してもよい。
上記密集度判定部は、密集度判定用画像データの全体における画素の画像全体の密集度と、密集度判定用画像データの画素の局所的な密集度を算出し、画像全体の密集度と、局所的な密集度を比較して、密集度判定用画像データにおける画素が画像データの全体に分布しているか、又は画像データの一部にのみ密集しているかを判定し、画素集合部は、密集度判定用画像データにおける画素が画像データの一部にのみ密集していると判定されたとき、密集度判定用画像データにおける画素の集合を算出してもよい。
密集度判定部は、異なる2つの画素の輝度値の組み合わせの頻度が2つの閾値の間にあるとき、密集度判定用画像データにおける画素の分散度合いを示す密集度を判定してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、特徴量算出部が画像データから画像データの画素ごとの特徴量を算出するステップと、密集度判定部が特徴量を用いて、同一の特徴量を有する画素を抽出して、同一の特徴量を有する画素からなる密集度判定用画像データを生成し、密集度判定用画像データにおける画素の分散度合いを示す密集度を判定するステップと、画素集合算出部が密集度の判定に応じて、密集度判定用画像データにおける画素から画素の集合を算出するステップとを有する画像処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、特徴量算出部が画像データから画像データの画素ごとの特徴量を算出する手順、密集度判定部が特徴量を用いて、同一の特徴量を有する画素を抽出して、同一の特徴量を有する画素からなる密集度判定用画像データを生成し、密集度判定用画像データにおける画素の分散度合いを示す密集度を判定する手順、画素集合算出部が密集度の判定に応じて、密集度判定用画像データにおける画素から画素の集合を算出する手順をコンピュータに実行させるためのプログラムが提供される。
本発明によれば、画像データから映像内に侵入する物体を検知する際、検知対象とする物体の検知漏れや誤検知を低減することができる。
本発明の第1の実施形態に係る画像処理装置100を示すブロック図である。 同実施形態に係る画像処理装置100の動作を示すフローチャートである。 図3(A)は、入力画像200を示す説明図であり、同時生起確率行列を示す説明図である。 画像保存部110(RAM)の内部に格納されている画像データ200を示す説明図である。 配列データ300を模式的に示す説明図である。 画像フラグビットマップデータの一部を拡大したものである。 図7(A)は、同時生起確率行列300を示す説明図であり、図7(B)は、画像フラグビットマップデータ402を示す説明図である。 図8(A)は、同時生起確率行列300を示す説明図であり、図8(B)は、画像フラグビットマップデータ404を示す説明図である。 平滑化を行なった画像を模式的に示す説明図である。 本発明の第2の実施形態に係る画像処理装置100の動作を示すフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施の形態
2.第2の実施の形態
<1.第1の実施形態>
[画像処理装置100の構成]
まず、本発明の第1の実施形態に係る画像処理装置100の構成について説明する。図1は、本実施形態に係る画像処理装置100を示すブロック図である。
画像処理装置100は、撮像カメラ10から画像データを受けて、監視場所の映像に侵入してきた物体(例えば不審物など)を検知する。また、画像処理装置100は、物体の検知の有無を知らせる2値信号(アラーム)、又は所定の処理を施した画像信号を出力する。出力された画像信号は、例えばHDD等の大容量ストレージや、通信回線等を介して他のホスト装置に送られる。
撮像カメラ10(映像入力手段)は、例えばCCD撮像素子又はCMOS撮像素子等を有し、画像信号を出力する。撮像カメラ10は、例えば海、砂漠、草原など自然現象などによって撮影画面に揺らぎが生じるような場所を監視対象とする監視カメラである。
画像処理装置100は、撮像カメラ10と共に設置される。撮像カメラ10及び画像処理装置100は、例えば海を監視する場合は沿岸に設置される。
撮像カメラ10は、図示しないモータ等の駆動機構を備えて、監視領域が広範囲となるように往復駆動してもよい。撮像カメラ10は、遠方の物体を捉えるため、ズーム倍率が高く設定される場合がある。この場合、撮像カメラ10の撮影角度(画角)は狭くなるため、撮像カメラ10を往復駆動する必要がある。撮像カメラ10が往復駆動すると、直前の静止画像と現在の静止画像とを比較して、画像データ同士の相違点に基づいて侵入してきた物体を検知する方法は、有効ではない。一方、本実施形態によれば、撮像カメラ10が往復駆動している場合でも、侵入してくる物体を適切に検知することができる。
画像処理装置100は、主にマイクロコンピュータよりなる。図示しないが、マイクロコンピュータは、CPU、ROM、RAMなどから構成される。そして、マイクロコンピュータは、撮像カメラ10から得られる画像データを用いて所定の処理をする。また、マイクロコンピュータは、出力インターフェースを介して所定の信号(2値信号や画像信号等)を出力する。
画像処理装置100は、例えば、画像保存部110、特徴量算出部120、密集度判定部130、画素集合算出部140などからなる。画像処理装置100は、実体がRAMである画像保存部110を除いて、各部はマイクロコンピュータ上にて実行されるソフトウェアプログラムである。これらソフトウェアはROMに格納されている。
画像保存部110は、撮像カメラ10から得られる画像信号を一時的に静止画像として保持する。
特徴量算出部120は、画像保存部110内の静止画像データを読み出し、静止画像データに基づいて、特徴量データを作成する。特徴量算出部120は、同時生起確率などの特徴量を算出して、密集度判定部130に送る。特徴量データは、後述する同時生起確率行列による配列データなどによって作成される。
密集度判定部130は、特徴量算出部113にて作成された配列データを基に、静止画像データ中の物体を特定するビットマップデータを作成する。密集度判定部130は、分散値などの局在性や分散度合いを表す数値を算出し、画像の各画素が物体であるか、又は背景であるかの判定を行う。
画素集合算出部140は、物体として判定された画素情報を受けて、画素集合を算出する。画素集合算出部140は、密集度判定部130で作成されたビットマップデータから、静止画像データ中に占める物体と推測される画像部分の総面積と、中心座標を算出する。画素集合算出部140は、求められた画素集合のサイズや位置を記録装置や警報装置などに送る。
[画像処理装置100の動作]
次に、本実施形態に係る画像処理装置100の動作について説明する。図2は、本実施形態に係る画像処理装置100の動作を示すフローチャートである。
まず、撮像カメラ10から画像データが入力される(ステップS101)。次に、画像保存部110に画像データが一時的に保存された後、特徴量算出部120に画像データが入力される。そして、特徴量算出部120が、入力画像に対して、画像全体、又は予め指定した画像の一部分の領域の特徴量を算出する(ステップS102)。
特徴量としては、本実施形態では、例えば同時生起確率行列が用いられる。同時生起確率行列を算出するには、まず、図3(A)のように、画像200中のある注目画素P1に対して、Δx,Δyだけ離れた別の画素P2を選択する。図3(A)は、入力画像200を示す説明図である。
画像中にある注目画素P1の輝度値がg1、別の画素P2の輝度値がg2とする。例えば、画像の輝度レベルを8bit(0〜255)とすると、g1とg2は、図3(B)に示すように、画像の輝度レベルを縦軸及び横軸とした2次元空間の1点として表現できる。この2次元空間を同時生起確率行列と呼ぶ。図3(B)は、同時生起確率行列を示す説明図である。
同時生起確率行列は、画像200中の任意の2点の輝度値の組み合わせの生起確率を表している。例えば、図4のようなシーンに船230が写っている場合について考える。図4は、画像保存部110(RAM)の内部に格納されている画像データ200を示す説明図である。図4の画像データ200は、入力画像ビットマップデータであり、画像保存部110(RAM)の入力画像ビットマップデータ保存領域に格納されている。入力画像ビットマップデータは、撮像カメラ10で撮影された静止画像データである。各々の画素は、例えば0〜255の輝度を表すデータを有する。図4の画像では、空210と、海220と、監視場所の映像に侵入する物体(不審物)である船230が写っている。
図5は、配列データ300を模式的に示す説明図である。配列データは、画像保存部110(RAM)の配列データ領域に格納される。画像保存部110(RAM)の内部は、実際には図5に示すような形状になっていないが、ソフトウェアプログラムにて仮想的に図5に示すような形状に構築されているとして示したものである。
図5において、配列データ300は同時生起確率行列をベースとする。同時生起確率行列は、縦kと横lがそれぞれ0〜255までの256個の要素よりなる正方行列である。この縦kと横lは画像データの輝度に相当する。この行列上の各々の要素に立方体が積み上がっている。
図5の(k、l)[1]とは、k番目の行でl番目の列の行列要素よりなる配列データの1番目の配列要素である。同様に、(k、l)[2]とは、k行l列の行列要素よりなる配列データの2番目の配列要素である。配列データ(k、l)は5個の配列要素を持ち、(k、l)[5]まで存在している。図5の(k、l−1)[1]とは、k番目の行でl−1番目の列の行列要素よりなる配列データの1番目の配列要素である。同様に、(k、l−5)[1]とは、k行l−5列の行列要素よりなる配列データの1番目の配列要素である。同様に、(k−3、l)[1]とは、k−3行l列の行列要素よりなる配列データの1番目の配列要素である。
図3に示すように、画像200中にある注目画素P1の輝度値がg1、別の画素P2の輝度値がg2であるとき、同時生起確率行列のg1とg2に対応する1点に1を投票する。この処理を画像中の任意の画素に対して行うことで、図5に示すような画像全体又は予め指定した画像の一部分の領域の同時生起確率行列を求めることができる。
例えば、図4に示した入力画像ビットマップデータ200中の広い面積を示す背景部分は、同一となる輝度値の組み合わせが多く発生するため、同時生起確率行列上で1箇所に集中する。例えば、図5においては、図4の入力画像ビットマップデータ200の一部分、例えば空210(又は海220)の一部分に該当する画像データが、配列データ300の積み上がっている立方体にそれぞれ対応する。図4の画像200内では空210(又は海220)が大部分を占めているので、同時生起確率行列は、空210(又は海220)の部分の輝度値の組み合わせの生起確率が高まる。
一方で、船230の部分の輝度値の組み合わせの生起確率は低いままである。なお、海220の波が高い場合も、その波の輝度値が画像内で繰り返し出現していれば生起確率は高くなる。そのため、波を映像に侵入してきた物体であると誤検知することはない。
次に、作成した同時生起確率行列の各生起確率の画像内での分布について考える。
具体的には、ある生起確率を表す輝度値の組み合わせ(g1,g2)を持つ画素を画像上にプロットする。例えば、図7のように船の部分の輝度値の組み合わせを持つ画素をプロットすると、図6や図7(B)に示すように画像402上に船430の領域が再現される。
図6は、画像フラグビットマップデータの一部を拡大したものである。各画素は、1ビットからなる。各画素は、ある生起確率を表す輝度値の組み合わせ(g1,g2)を持てば、ビットの値が1となり、ある生起確率を表す輝度値の組み合わせ(g1,g2)を持たなければ、ビットの値が0となる。図7(A)は、同時生起確率行列300を示す説明図である。図7(B)は、画像フラグビットマップデータ402を示す説明図である。
一方、図8のように波の部分の輝度値の組み合わせを持つ画素をプロットすると、図8(B)に示すように画像404上に波の部分が再現される。図8(A)は、同時生起確率行列300を示す説明図である。図8(B)は、画像フラグビットマップデータ404を示す説明図である。なお、実際には船も波の一様なテクスチャを持っているわけではないので、図7(B)や図8(B)では、実際には船又は波の一部分のみが再現される。
次に、特徴量、例えば同時生起確率行列が求められた後は、プロットされた画像の局在性を算出し、密集度を判定する(ステップS103)。プロットされた画素が画像全体、又は画像の広い範囲に分布していれば、これらの画素は画像の模様の一部であると考えられる。一方で、プロットされた画素が画像の一部にのみ密集していると、これは映像に侵入して来た検知対象物体であるといえる。
そこで、まず、プロットされた画像の局在性を算出する。
ここでいう局在性とは、プロットされた画素が画像の一部にのみ密集して局在しているのか、それとも画像全体に分布しているのかを表す数値指標である。数値指標は、例えばプロットされた画素の「位置の分散値」がある。プロットされた画素が画像の一部にのみ密集していれば、分散値は低くなる。逆に、プロットされた画素が画像全体に分布していれば、分散値は大きくなる。
分散値(V)は次式によって求められる。

Figure 2010271939
ここで、i,jは同時生起確率行列の2次元座標である。Cは同時生起確率行列の値である。x,yは入力画像の座標を表し、g1(x,y),g2(x,y)は上記した同時生起確率を求めた入力画像の輝度値である。xa,yaはx,yそれぞれの位置平均値を表す。
上記数式を用いた結果、画像の一部にのみ密集度が高いため、分散値(V)が小さければ物体、密集度が低く分散値(V)が大きければ背景とすることができる。
このような処理を全ての同時生起確率行列の2次元座標i,jに対して行う。そして、ある輝度の組み合わせについて、密集度が高いと判定された場合(ステップS104)、映像に侵入してきた物体であると判定される。そして、その輝度の組み合わせを持つ全ての画素を画像上にプロットし、ラベリングなどの手法を用いて画素集合を算出する(ステップS105)。ここで求められた画素集合を物体領域として、その位置やサイズなどの情報を物体情報として出力する(ステップS106)。ステップS104において、密集度が低いと判定された場合は、背景であると判断し、物体は検知されなかったとして処理を終了する。
上述のプロットされた画素の「位置の分散値」を用いた「局在性の数値指標」によれば、画像の一部にのみ密集度が高い輝度の組み合わせについて、その輝度の組み合わせを持つ画素を、映像に侵入してきた物体であると判定する。その結果、物体の検知漏れを防ぐことができる。
また、本実施形態には検知漏れを防ぐ効果だけでなく、水平線部分の誤検知を防ぐ効果もある。同時生起確率行列を求めた場合、水平線は領域としては非常に狭い部分であるので、画像全体の中では、海と空の輝度値の組み合わせは非常に少ないといえる。そのため、従来技術のように単純に閾値処理を行うと、水平線部分に誤検知が生じてしまう。しかし、上述したような分散値による密集度判定を行うと、横に長い水平線の部分は密集度が低く分散値が大きくなる。従って、横に長い水平線の部分は、物体として判定されることはない。その結果、横に長い水平線の部分の誤検知を低減することができる。同様の効果は、水平線だけでなく雲のような長い境界線を持つ領域の誤検知低減にも効果がある。
ところで、上述したプロットされた画素の「位置の分散値」を用いた「局在性の数値指標」は、画像内に1つの物体のみ存在する場合に有効に働く。しかし、画像に2つ以上の物体が存在する場合は、分散値が大きくなってしまう。そのため、従来技術と同じような検知漏れが生じる可能性がある。
そこで、ステップS103において密集度を判定する際、プロットされた画像の局在性を算出する方法について、上述した方法と別の方法について説明する。即ち、局在性を表す「別の数値指標」の計算方法について説明する。
まず、次式によって画像全体の密集度(Ma)を求める。

Ma(i,j)=C(i,j)/N

ここで、i,jは同時生起確率行列の2次元座標である。Cは同時生起確率行列の値、Nは入力画像の画素数である。
次に、局所的な密集度(Ml)を求める。密集度を求める方法としては、いろいろな手法があるが、ここでは、距離による重みづけ手法について説明する。
Figure 2010271939
ここで、x,yは入力画像上の密集度を求めたい座標、g1,g2は上述した同時生起確率を求めた画像の輝度値である。
これを任意のm,nについて計算してその和を求める。m,nはそれぞれ画像の横、縦の座標を表す変数である。また、g()はガウス関数のような平滑化関数である。即ちこの式はプロットされた画素に重み付けによる平滑化を行い、その画素ごとの累積値を算出するものである。
このような方式を用いると図9のように、画像が密集している場合は高い分布(図9(A))を、画素が分散している場合は低い分布を示す(図9(B))。図9は、平滑化を行なった画像を模式的に示す説明図である。
Ma(i,j)は画像全体の密集度、Ml(x,y)は画素ごとの密集度なので、この2つの値を比較して、差が小さければ背景、大きければ物体とすることができる。比較の方法としては、例えば、2つの値の比(S)を用いる。

S=Ml(x,y)/Ma(i,j)

とする。局在性が高いとMlの値が大きくなるので、Sが大きくなる。逆に局在性が低いとSの値が小さくなる。そこで、Sがあらかじめ設定してある閾値よりも大きいかどうかの判定を行う。これにより、背景か又は物体かを判定できる。
このような処理を全ての画素に対して行う。そして、画素単位で求められた物体部分の集合を求める(ステップS105)。これについては、例えば、ラベリングなどの手法を用いればよい。ここで求められた画素集合を物体領域として、その位置やサイズなどの情報を物体情報として出力する(ステップS106)。
<2.第2の実施形態>
次に、本発明の第2の実施形態に係る画像処理装置について説明する。本実施形態に係る画像処理装置の構成は、図1を用いて説明した第1の実施形態の画像処理装置と同様であるため、詳細な説明は省略する。
本実施形態に係る画像処理装置の動作について説明する。図10は、本実施形態に係る画像処理装置100の動作を示すフローチャートである。
まず、撮像カメラ10から画像データが入力される(ステップS301)。次に、画像保存部110に画像データが一時的に保存された後、特徴量算出部120に画像データが入力される。そして、特徴量算出部120が、入力画像に対して、画像全体、又は予め指定した画像の一部分の領域の特徴量を算出する(ステップS302)。特徴量としては、本実施形態では、第1の実施形態と同様に、例えば同時生起確率行列が用いられる。
特徴量、例えば同時生起確率行列が求められた後は、密集度判定部130が輝度値の組み合わせの頻度の高低を判定する(ステップS303)。そして、その結果に応じて、物体の検知処理を変える。第1の実施形態では、同時生起確率行列を元にプロットされた画素の密集度を用いて物体の有無の判定を行った。しかし、第1の実施形態の処理を全ての画素に対して行うと、処理時間がかかってしまう。そこで、2段階の閾値処理を用いることにする。
まず、同時生起確率行列に対して、2つの閾値を設定する。1つ目の閾値では、明らかに値が低い、つまり、背景ではなく物体であると思われる画素の選択に用いる。次に2つ目の閾値については、閾値以下の場合は、第1の実施形態のような密集度判定によって物体か背景かの判定処理を行う。また、2つ目の閾値を超えた場合は、密集度判定を行わずに背景であると判断する。なお、1つ目の閾値は2つ目の閾値より低く設定する。
即ち、まず、輝度値の組み合わせの頻度が1つ目の閾値より値が低いため、当該画素が明らかに背景ではないか否かを判断する(ステップS304)。輝度値の組み合わせの頻度が1つ目の閾値より値が低く、背景ではなく物体であると判断される場合は、ステップS308に移行する。
また、輝度値の組み合わせの頻度が1つ目の閾値以上であり、更に2つ目の閾値以下であるか否かを判断する(ステップS305)。輝度値の組み合わせの頻度が1つ目の閾値以上であり、更に2つ目の閾値以下である場合は、当該画素が背景か物体かが判別しにくいようなときである。この場合は、第1の実施形態のような密集度判定によって物体か背景かの判定処理を行う(ステップS306)。
そして、ステップS304で、輝度値の組み合わせの頻度が1つ目の閾値より値が低い判定された場合や、ステップS306で、ある輝度の組み合わせについて、密集度が高いと判定された場合(ステップS307)は、映像に侵入してきた物体であると判定される。この場合、その輝度の組み合わせを持つ全ての画素を画像上にプロットし、ラベリングなどの手法を用いて画素集合を算出する(ステップS308)。ここで求められた画素集合を物体領域として、その位置やサイズなどの情報を物体情報として出力する(ステップS309)。
一方、ステップS305において、輝度値の組み合わせの頻度が2つ目の閾値を超えた場合は、密集度判定を行わずに背景であると判断し、物体は検知されなかったとして処理を終了する。また、ステップS307において、密集度が低いと判定された場合も、背景であると判断し、物体は検知されなかったとして処理を終了する。
以上のように、本発明の第1の実施形態や第2の実施形態によれば、画像の特徴量である同時生起確率行列を用いて画像の密集度を判定することで、1枚の画像から検知漏れの少ない物体検知処理が可能になる。また、水平線や雲の境界のような部分領域の誤検知低減の効果がある。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例即ち修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 撮像カメラ
100 画像処理装置
110 画像保存部
120 特徴量算出部
130 密集度判定部
140 画素集合算出部

Claims (7)

  1. 画像データから前記画像データの画素ごとの特徴量を算出する特徴量算出部と、
    前記特徴量を用いて、同一の特徴量を有する画素を抽出して、前記同一の特徴量を有する画素からなる密集度判定用画像データを生成し、前記密集度判定用画像データにおける画素の分散度合いを示す密集度を判定する密集度判定部と、
    前記密集度の判定に応じて、前記密集度判定用画像データにおける画素から画素の集合を算出する画素集合算出部と
    を有する、画像処理装置。
  2. 前記特徴量は、異なる2つの画素の輝度値の組み合わせの頻度による同時生起確率行列である、請求項1に記載の画像処理装置。
  3. 前記密集度判定部は、前記密集度判定用画像データにおける画素の位置の分散値を算出し、前記位置の分散値に基づいて、前記密集度判定用画像データにおける画素が前記画像データの全体に分布しているか、又は前記画像データの一部にのみ密集しているかを判定し、
    前記画素集合部は、前記密集度判定用画像データにおける画素が前記画像データの一部にのみ密集していると判定されたとき、前記密集度判定用画像データにおける画素の集合を算出する、請求項1又は2に記載の画像処理装置。
  4. 前記密集度判定部は、前記密集度判定用画像データの全体における画素の画像全体の密集度と、前記密集度判定用画像データの画素の局所的な密集度を算出し、
    前記画像全体の密集度と、前記局所的な密集度を比較して、前記密集度判定用画像データにおける画素が前記画像データの全体に分布しているか、又は前記画像データの一部にのみ密集しているかを判定し、
    前記画素集合部は、前記密集度判定用画像データにおける画素が前記画像データの一部にのみ密集していると判定されたとき、前記密集度判定用画像データにおける画素の集合を算出する、請求項1又は2に記載の画像処理装置。
  5. 前記密集度判定部は、前記異なる2つの画素の輝度値の組み合わせの頻度が前記2つの閾値の間にあるとき、前記密集度判定用画像データにおける画素の分散度合いを示す密集度を判定する、請求項2〜4のいずれか1項に記載の画像処理装置。
  6. 特徴量算出部が画像データから前記画像データの画素ごとの特徴量を算出するステップと、
    密集度判定部が前記特徴量を用いて、同一の特徴量を有する画素を抽出して、前記同一の特徴量を有する画素からなる密集度判定用画像データを生成し、前記密集度判定用画像データにおける画素の分散度合いを示す密集度を判定するステップと、
    画素集合算出部が前記密集度の判定に応じて、前記密集度判定用画像データにおける画素から画素の集合を算出するステップと
    を有する、画像処理方法。
  7. 特徴量算出部が画像データから前記画像データの画素ごとの特徴量を算出する手順、
    密集度判定部が前記特徴量を用いて、同一の特徴量を有する画素を抽出して、前記同一の特徴量を有する画素からなる密集度判定用画像データを生成し、前記密集度判定用画像データにおける画素の分散度合いを示す密集度を判定する手順、
    画素集合算出部が前記密集度の判定に応じて、前記密集度判定用画像データにおける画素から画素の集合を算出する手順
    をコンピュータに実行させるためのプログラム。
JP2009123412A 2009-05-21 2009-05-21 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP5272890B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009123412A JP5272890B2 (ja) 2009-05-21 2009-05-21 画像処理装置、画像処理方法及びプログラム
US12/779,105 US8433139B2 (en) 2009-05-21 2010-05-13 Image processing apparatus, image processing method and program for segmentation based on a degree of dispersion of pixels with a same characteristic quality
CN2010101803165A CN101895673B (zh) 2009-05-21 2010-05-14 图像处理装置、图像处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009123412A JP5272890B2 (ja) 2009-05-21 2009-05-21 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2010271939A true JP2010271939A (ja) 2010-12-02
JP5272890B2 JP5272890B2 (ja) 2013-08-28

Family

ID=43104726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009123412A Expired - Fee Related JP5272890B2 (ja) 2009-05-21 2009-05-21 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US8433139B2 (ja)
JP (1) JP5272890B2 (ja)
CN (1) CN101895673B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110135158A1 (en) * 2009-12-08 2011-06-09 Nishino Katsuaki Image processing device, image processing method and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094886B1 (en) * 2009-10-07 2012-01-10 Sandia Corporation Thermal wake/vessel detection technique
JP2019021991A (ja) * 2017-07-12 2019-02-07 オリンパス株式会社 撮像素子、撮像装置、撮像プログラム、撮像方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH103546A (ja) * 1996-06-17 1998-01-06 Olympus Optical Co Ltd 画像処理装置
JP2008217494A (ja) * 2007-03-05 2008-09-18 Sharp Corp 画像処理方法、画像処理プログラムおよび画像処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3569992B2 (ja) * 1995-02-17 2004-09-29 株式会社日立製作所 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム
US6532301B1 (en) * 1999-06-18 2003-03-11 Microsoft Corporation Object recognition with occurrence histograms
US6847733B2 (en) * 2001-05-23 2005-01-25 Eastman Kodak Company Retrieval and browsing of database images based on image emphasis and appeal
US7280673B2 (en) * 2003-10-10 2007-10-09 Intellivid Corporation System and method for searching for changes in surveillance video
JP4830712B2 (ja) 2006-08-11 2011-12-07 ソニー株式会社 画像処理装置
SG140573A1 (en) * 2006-08-31 2008-03-28 Sony Corp Image-processing apparatus, image processing method and image processing program
CN100495438C (zh) * 2007-02-09 2009-06-03 南京大学 一种基于视频监控的运动目标检测与识别方法
CN100596192C (zh) * 2007-09-17 2010-03-24 深圳先进技术研究院 一种基于视频的智能数人系统及其处理方法
US8036468B2 (en) * 2007-12-24 2011-10-11 Microsoft Corporation Invariant visual scene and object recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH103546A (ja) * 1996-06-17 1998-01-06 Olympus Optical Co Ltd 画像処理装置
JP2008217494A (ja) * 2007-03-05 2008-09-18 Sharp Corp 画像処理方法、画像処理プログラムおよび画像処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110135158A1 (en) * 2009-12-08 2011-06-09 Nishino Katsuaki Image processing device, image processing method and program
US8630453B2 (en) * 2009-12-08 2014-01-14 Sony Corporation Image processing device, image processing method and program

Also Published As

Publication number Publication date
JP5272890B2 (ja) 2013-08-28
CN101895673B (zh) 2012-12-12
US20100296743A1 (en) 2010-11-25
CN101895673A (zh) 2010-11-24
US8433139B2 (en) 2013-04-30

Similar Documents

Publication Publication Date Title
CN102348128B (zh) 具有摄像机异常检测装置的监视用摄像机系统
CN104966304B (zh) 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法
KR101223424B1 (ko) 비디오 모션 검출
US8094936B2 (en) Method and apparatus to segment motion area in real-time to detect motion in surveillance camera system
US20120274776A1 (en) Fault tolerant background modelling
JP5478047B2 (ja) 映像データ圧縮前処理方法およびこれを用いた映像データ圧縮方法と映像データ圧縮システム
JP2008192131A (ja) 特徴レベル・セグメンテーションを実行するシステムおよび方法
CN110008795B (zh) 图像目标追踪方法及其系统与计算机可读取记录介质
JP4839442B2 (ja) 画像処理システム、画像処理方法、及びプログラム
JP4764487B2 (ja) 映像監視システム
JP2012089929A (ja) 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム
JP5290227B2 (ja) 対象物検知装置及びその学習装置
JP2011123563A (ja) 画像処理装置、画像処理方法及びプログラム
KR102127276B1 (ko) 복수의 고해상도 카메라들을 이용한 파노라마 영상 감시 시스템 및 그 방법
CN109685062B (zh) 一种目标检测方法、装置、设备及存储介质
JP2007226681A (ja) 流水領域検出システム、流水領域検出方法、及びプログラム
JP2011123742A (ja) 侵入物体検知装置
KR101861245B1 (ko) 멀티 센서 cctv 파노라마 영상에서 움직임 검출 시스템 및 방법
JP5272890B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2006318064A (ja) 画像センサ
JP4171310B2 (ja) 侵入物体検出方法及び侵入物体検出装置
JP7078295B2 (ja) 変状検出装置、変状検出方法、及びプログラム
TWI476735B (zh) 攝影機異常種類辨識方法及可偵測攝影異常的監視主機
JP4612522B2 (ja) 変化領域計算方法、変化領域計算装置、変化領域計算プログラム
JP2019161362A (ja) 監視システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130429

LAPS Cancellation because of no payment of annual fees