JP2011053959A - 画像処理装置、被写体判別方法、プログラム及び記憶媒体 - Google Patents

画像処理装置、被写体判別方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
JP2011053959A
JP2011053959A JP2009202856A JP2009202856A JP2011053959A JP 2011053959 A JP2011053959 A JP 2011053959A JP 2009202856 A JP2009202856 A JP 2009202856A JP 2009202856 A JP2009202856 A JP 2009202856A JP 2011053959 A JP2011053959 A JP 2011053959A
Authority
JP
Japan
Prior art keywords
subject
image
reliability
detection window
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009202856A
Other languages
English (en)
Other versions
JP5483961B2 (ja
Inventor
Satoru Yashiro
哲 八代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009202856A priority Critical patent/JP5483961B2/ja
Priority to US12/874,046 priority patent/US8873859B2/en
Publication of JP2011053959A publication Critical patent/JP2011053959A/ja
Application granted granted Critical
Publication of JP5483961B2 publication Critical patent/JP5483961B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】効率よく被写体を検出し、かつ、検出漏れを低減することを目的とする。
【解決手段】画像を入力する画像入力手段と、入力された画像上で検出ウィンドウを走査する走査手段と、検出ウィンドウ内の複数の領域のうち、第1の領域内から得られる複数の特徴量に基づいて検出ウィンドウ内のパターンが被写体か否かに係る被写体信頼度を算出し、被写体信頼度が閾値以上である場合にはパターンを被写体と判別し、被写体信頼度が閾値以上でない場合には複数の領域のうち、第2の領域内から得られる複数の特徴量に基づいてパターンが被写体か否かの判別を行なう判別手段と、を有する、ことによって課題を解決する。
【選択図】図1

Description

本発明は、画像処理装置、被写体判別方法、プログラム及び記憶媒体に関する。
検出対象の一部が遮蔽されている場合でも検出を可能にする技術が知られている(特許文献1参照)。この技術では、パターンの切り出し位置をずらす等により検出対象の一部を隠蔽した対象物で判別器を学習させて、複数の判別器を生成している。また、この技術では、これらの判別器を並列的に適用することで検出対象の一部が遮蔽されている場合の検出を可能としている。
特開2007−47965号公報
例えば、通路の天井に監視カメラ設置し、通路を歩行する人物を斜め上から撮影した映像を得て、人物の検出に適用する場合を考える。監視カメラから得られる映像は、混雑度が増すに連れて歩行者の頭部に比べて人の重なりにより下半身領域に隠蔽が発生する確率が高くなる。また、カメラ直下からカメラの視界内にフレームインする人物は頭部からフレームインするため、歩行者全身の下部ほど隠蔽の発生確率が高くなる傾向がある。
上述した従来の技術では、1つのパターンに対して隠蔽箇所に対応した複数の判別器による判別が必要である。そのため、処理コストが高く、効率よく被写体を検出する事ができない。また、上述した従来の技術では、隠蔽の発生確率が被写体の場所によって異なる場合に関して何も開示されていない。
本発明はこのような問題点に鑑みなされたもので、効率よく被写体を検出し、かつ、検出漏れを低減することを目的とする。
そこで、本発明の画像処理装置は、画像を入力する画像入力手段と、入力された画像上で検出ウィンドウを走査する走査手段と、前記検出ウィンドウ内の複数の領域のうち、第1の領域内から得られる複数の特徴量に基づいて前記検出ウィンドウ内のパターンが被写体か否かに係る被写体信頼度を算出し、前記被写体信頼度が閾値以上である場合には前記パターンを被写体と判別し、前記被写体信頼度が閾値以上でない場合には前記複数の領域のうち、第2の領域内から得られる複数の特徴量に基づいて前記パターンが被写体か否かの判別を行なう判別手段と、を有する。
本発明によれば、効率よく被写体を検出し、かつ、検出漏れを低減することができる。
画像処理装置のハードウェア構成の一例を示す図(その1)である。 画像処理装置の機能構成の一例を示した図である。 画像からの検出対象である被写体と検出ウィンドウとの一例を示す図である。 被写体判別処理の一例を示すフローチャートである。 縮小及び走査の一例を示す図である。 第1判別部の一例を示す図である。 判別情報のデータ構造の一例を示す図である。 弱判別部の一例を示す図である。 第1判別部及び第2判別部の機械学習の一例を示すフローチャートである。 画像処理装置のハードウェア構成の一例を示す図(その2)である。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
(ハードウェア構成)
図1は、画像処理装置(コンピュータ)のハードウェア構成の一例を示す図(その1)である。
CPU201は、ROM202やRAM203に格納されたプログラムに従って命令を実行する。
ROM202は、不揮発性メモリであり、本実施形態のプログラムやその他の制御に必要なプログラム、データを格納する。
RAM203は、揮発性メモリであり、フレーム画像データやパターン判別結果等の一時的なデータを記憶する。
HDD204は、2次記憶装置であり、画像情報や被写体、非被写体のサンプルパターン等を記憶する。これらの情報はプログラムの実行時にCPU201によってRAM203に転送され、利用する。なお、本実施形態のプログラムは、HDD204等に記憶されていてもよい。
画像入力装置205は、デジタルビデオカメラやネットワークカメラ、スキャナ等であり、画像を入力する。
入力装置206は、キーボードやマウス等であり、オペレータからの入力を行う。
表示装置207は、ブラウン管CRTや液晶ディスプレイ等である。
ネットワークI/F208は、インターネットやイントラネット等のネットワークと接続を行うモデムやLAN等である。ネットワークI/F208を介してネットワークカメラ等の画像入力装置を接続して、画像を入力するようにしてもよい。
バス209は、これらの構成要素を相互に接続して、データの入出力を行う。
本画像処理装置の後述する機能は、オペレーティングとしてWINDOWS(登録商標) XPがインストールされ、その上で動作するアプリケーションとして実装されている。
CPU201が、プログラムを実行することによって、後述する画像処理装置の機能の一部、又は全て、及び後述するフローチャートの各ステップの処理が実現される。
(概略構成)
図2は、画像処理装置の機能構成の一例を示した図である。
画像入力部101は、画像入力装置205によって入力された画像を、後述する画像縮小部102に渡す。
画像縮小部102は、所定の大きさの検出ウィンドウで様々なサイズの被写体を検出するため、入力画像を段階的に縮小する。
走査部103は、後述する図5に示すように、縮小された画像上で検出ウィンドウをラスタスキャンする。
第1判別部104は、検出ウィンドウ上のパターンが被写体であるか否かを判別する。このとき、第1判別部104は、隠蔽の発生確率(被写体隠蔽発生確率)が少ない人物の上半身の領域(第1の領域)に限定した局所領域で前記判別を行い、被写体信頼度を出力する。
第2判別部105は、第1判別部104と同様に検出ウィンドウ上のパターンが被写体で否かを判別する。このとき、第2判別部105は、隠蔽の発生確率(被写体隠蔽発生確率)が多い人物の全身の領域(第2の領域)の局所領域によって判別を行い、被写体信頼度を出力する。
被写体信頼度補正部106は、第1判別部104の出力した被写体信頼度に対して補正を行う。
統合部107は、被写体と判別された複数の検出ウィンドウ位置が同一の被写体を指し示すものかどうかを判別し、被写体ごとにグルーピングを行い、被写体の位置としてまとめる。
(検出対象と検出ウィンドウ)
図3は、画像からの検出対象である被写体と検出ウィンドウとの一例を示す図である。
被写体301は、直立又は歩行する人物である。検出ウィンドウ302は、被写体の全身を含む所定の大きさの矩形である。上半身領域303は、検出ウィンドウの上半分の領域である。
上半身領域303は、天井にカメラを置いて人物を撮影した場合に、人の重なり等による隠蔽確率が他の領域より低くなる領域である。
(概略処理フロー)
次に本実施形態の処理の流れについて図4のフローチャートを用いて説明する。
本実施形態では被写体の一例として歩行者を検出する画像処理装置を挙げて説明する。 図4は、被写体判別処理の一例を示すフローチャートである。
まず、ステップS401にて、画像入力部101は、画像入力装置205から入力された各フレーム画像データをRAM203に読み込む。
ここで読み込まれた画像データは、例えば8ビットの画素により構成される2次元配列のデータであり、R、G、B、3つの面により構成される。このとき、画像データがMPEG,MotionJPEG等の方式により圧縮されている場合、画像入力部101は、画像データを所定の解凍方式にしたがって解凍し、RGB各画素により構成される画像データとする。さらに、本実施形態では画像入力部101は、RGBデータを輝度データに変換し、輝度画像データを以後の処理に適用するものとし、RAM203に格納する。
画像データとしてYCrCbのデータを入力する場合、画像入力部101は、Y成分をそのまま輝度データとしてもよい。
なお、本実施形態は、RGBデータに限定されるものではなく。各画素におけるカメラと被写体との距離を示す距離画像や赤外線センサによる強度画像でもよい。また、画像入力部101が明るさやコントラスト調整等の正規化、色変換処理を行い、ぼかし、先鋭化等の画像処理を行った1つ又は異なる画像処理を適用した複数の画像データであってもよい。
次に、ステップS402にて、画像縮小部102は、画像データを所定の倍率に順次段階的に縮小する。これは、本実施形態では様々な大きさの被写体の検出に対応するため複数のサイズの画像データに対して順次検出を行うようにしたためである。図5は、縮小及び走査の一例を示す図である。図5における縮小画像501、502及び503は、本処理によって出力された画像である。本実施形態では、画像縮小部102は、画像データを1/1.2倍ずつ縮小し、縮小画像503の幅が上半身領域303の幅より小さくなるか、縮小画像503の高さが上半身領域303の高さの小さくなるまで縮小を繰り返す。
次に、ステップS403にて、走査部103は、縮小された輝度画像データ上に検出ウィンドウ302を設定し、照合パターンを抽出する。図5には、走査部103が検出ウィンドウ302を走査する様子が示されている。本実施形態では走査部103は、縦横4画素おきにラスタスキャンするものとする。
次に、ステップS404にて、第1判別部104は、照合パターンの第1判別処理を行う。ここで第1判別部104は、隠蔽確率の低い上半身領域内(第1の領域内)の局所領域だけを用いて被写体であるか否かの判別を行う。第1判別部104は、被写体でないと判別した場合は、ステップS409に進む。第1判別部104は、被写体であると判別した場合には判別の結果として、被写体信頼度を出力し、ステップS405へ進む。
ステップS405にて、第1判別部104は、被写体信頼度が所定の閾値以上であるか否かを判定する。第1判別部104は、被写体信頼度が所定の閾値以上である場合、ステップS406に進む。ステップS406にて、被写体信頼度補正部106は、被写体信頼度を補正する。本来、被写体信頼度は第2判別処理を行って求めるべきであるが、処理の高速化のため、被写体であることを確定して第2判別処理を省略するようにした。本ステップは、ことによって生じる誤差を最小限に抑えるための処理である。
被写体信頼度補正部106は、予め隠れのない被写体画像における上半身の被写体信頼度と全身の被写体信頼度との統計的な関係から(式1)による近似式を求めておく。
f(x) = αx + β (式1)
xは、第1判別部104が出力する上半身の被写体信頼度である。α、βは、近似パラメータである。また、βは、上半身の被写体信頼度が全身の被写体信頼度の最大値を常に上回るように十分大きな値としてもよい。
一方、第1判別部104は、被写体信頼度が所定の閾値以上でない場合、ステップS407に進む。ステップS407にて、第2判別部105は、照合パターンの第2判別処理を行う。ステップS407とステップS404との違いは、隠蔽確率の高い領域を含む検出ウィンドウ全体(第2の領域内)の局所領域を用いる点である。第2判別部105は、被写体でないと判別した場合は、ステップS409に進む。第2判別部105は、被写体であると判別した場合は、判別の結果として、被写体信頼度を出力し、ステップS408へ進む。なお、第2判別部105は、ステップS404の結果に、第2判別部105の各弱判別器の出力を累積したものを被写体信頼度として出力する。
ステップS408にて、例えば統合部107は、被写体信頼度と、検出ウィンドウの位置とを対応付けてRAM203に記憶する。
次に、ステップS409にて、例えば統合部107は、全ての縮小画像・位置において検出ウィンドウを走査したかを判別し、終了であればステップS410へ、そうでない場合はステップS403へ進み処理を繰り返す。
ステップS410にて、統合部107は、統合処理を行う。
統合部107は、統合処理として、ステップS408で記憶した、被写体と判別した複数の検出ウィンドウの位置について、同一の被写体を指す検出ウィンドウを1つにまとめる処理を行う。即ち、統合部107は、被写体と判別された複数の検出ウィンドウ位置が同一の被写体を指し示すものかどうかを判別し、被写体ごとにグルーピングを行い、被写体の位置としてまとめる。
任意の2つの検出ウィンドウ位置が同一の被写体を指し示すものかどうかを判別するには、統合部107は、検出ウィンドウの上部の頂点座標間の平均距離を求め、検出ウィンドウの幅との比が閾値以下である場合とする。統合部107は、これを全ての被写体と判定した検出ウィンドウ位置の組で行ない、同一の被写体を指し示す検出ウィンドウ同士をグループ化する。
次に、統合部107は、各グループで位置の統合と信頼度の統合とを行って被写体の位置としてまとめる。
統合部107は、位置の統合を、グループ化した各検出ウィンドウの座標平均とする。また、統合部107は、被写体信頼度の統合を、各検出ウィンドウの被写体信頼度の最大値を採用する。
統合部107は、統合処理に、meanshiftクラスタリング法を用いてもよい。より具体的に説明すると、統合部107は、まず、被写体と判別された検出ウィンドウの各々を1つのクラスタとする。そして、統合部107は、クラスタ間の距離関数を定義する。距離は、例えば検出ウィンドウの上部の頂点座標間の平均距離等である。次に統合部107は、任意の2つのクラスタ間の距離が所定の閾値より小さな場合に位置を統合して1つのクラスタへ統合する処理を統合対象がなくなるまで繰り返す。統合部107は、統合対象がなくなった場合、閾値を少しずつ大きくして再度結合を試みる事を繰り返す。位置の統合をする際、統合部107は、クラスタのメンバ数に基づいた重み付け平均を行うが、更に被写体信頼度による重み付けを行うと、被写体の位置を精度よく特定する事ができる。
(判別部)
次に、第1判別部104における処理の詳細を、図6を用いて説明する。図6は、第1判別部の一例を示す図である。
第1判別部104は、複数の弱判別部602、603、604から構成される。複数の弱判別部602、603、604は直列に接続される。最初の弱判別部602は、入力されたパターンデータが被写体であるか否かを判別し、被写体であった場合にのみ後段の弱判別部603で同じパターンデータが被写体であるか否かの判別を行う。そして、最後の弱判別部604で被写体であると判別された場合に、第1判別部の判別結果が被写体であるとなる。各弱判別部は同様な構成であり、判別情報が異なるのみである。判別情報は機械学習によって求められ、RAM203等に構成される判別情報格納部601に格納される。また、第2判別部105は、第1判別部104と同じ構成であり、判別情報や弱判別部の個数が異なるのみである。
次に判別情報格納部601に格納される判別情報について図7を用いて説明する。
図7は、判別情報のデータ構造の一例を示す図である。
701は、弱判別部の数である。弱判別情報702及び弱判別情報703は、1つの弱判別部に関する情報であり、701に格納された弱判別部の数分だけ同様な構造の情報が並ぶ。先頭の弱判別情報702は、弱判別部602のための判別情報である。また最後の弱判別情報703は、弱判別部604のための判別情報である。
704〜707は、1つの弱判別部に関する詳細な情報である。
704は、局所領域情報であり、検出ウィンドウ内における矩形の局所領域の位置とサイズとである。
705は、射影係数であり、特徴ベクトルとの内積によって判別空間へ射影するための基底ベクトルである。
706は、被写体信頼度変換定数であり、スカラー特徴量を2段階に量子化するための閾値と、各段階とに対応する被写体信頼度である。
707は、非被写体閾値であり、被写体信頼度が非被写体か否かを判別するための閾値である。
(弱判別部)
次に弱判別部602について、図8を用いて説明する。図8は、弱判別部の一例を示す図である。
弱判別部602は、特徴量算出部801、被写体信頼度変換部802、比較部803から構成される。
特徴量算出部801は、検出ウィンドウ内のパターン画像から特徴量を算出する。
特徴量算出部801における特徴量抽出方法としては、histogram of gradientsと呼ばれる特徴量(HOG特徴量)によって人体を検出する技術が知られている(米国特許第237387号明細書(以下、技術1という))。
技術1におけるHOG特徴量は、各画素における勾配の強さと方向を求めておき、所定の局所領域の画素について、勾配強さを方向別に投票する事により、局所領域の方向別の勾配強さを求めるものである。また、技術1では、照明に対してロバストにするため、全方向の勾配の強さの総和で割ることで正規化している。
特徴量算出部801は、局所領域を縦横2等分割して4個の同じ面積の小領域に分割し、方向数を9方向に量子化することで、局所領域1つにつき36次元の特徴ベクトルを得ることができる。特徴量算出部801は、局所領域を局所領域情報704に基づいて決定する。特徴ベクトルは、射影係数705との内積によってスカラー値となる。射影係数705は、特徴ベクトルの次元数と等しいベクトルである。
また、特徴量算出部801は、射影係数705のベクトルのうち1要素のみを1、他は0にして、36次元の特徴ベクトルから判別精度のよい1次元のみを選択してスカラー特徴量を得てもよい。
また、パターン画像が輝度でなくRGB等複数のチャネルを持つ場合、特徴量算出部801は、各チャネルでの分散を正規化した上で画素ごとに最大勾配となるチャネルを選択して勾配の強さとすればよい。局所領域の分割数や方向の量子化数のパラメータは本実施形態に限ったものではなく、複数の異なる局所領域における特徴量を結合して特徴ベクトルとする等、様々なバリエーションがある。
また、特徴量算出方法は本実施形態に限ったものではない。例えば、特徴量算出部801は、Haarライクな特徴量を利用することができる。また、上述した特許文献1では多重解像度化したパターン上の任意の2点の輝度差を利用している。特徴量算出部801は、このような特許文献1の技術を用いてもよい。
被写体信頼度変換部802は、特徴量算出部801の出力するスカラー値を被写体信頼度へ変換する。被写体信頼度変換定数706には閾値tと被写体信頼度加算値としてα、βとを格納しておく。被写体信頼度変換部802は、前段の弱判別部が出力した被写体信頼度に対し、特徴量算出部801の出力する値が閾値tより小さい場合はαを、そうでない場合にはβを加えて出力する。出力した被写体信頼度は、比較部803へ入力する他、後段の弱判別部へ引継ぐ。
被写体信頼度変換部802のその他の処理方法として、リアルアダブーストと呼ばれる改良技術が知られている。これは、特徴量算出部801の出力するスカラー値を32段階等多段階に量子化し、ルックアップテーブルを使って各段階に対応する被写体信頼度へ変換するものである。被写体信頼度変換部802は、このような処理で特徴量を被写体信頼度へ変換してもよい。
比較部803は、被写体信頼度変換部802が出力した被写体信頼度と閾値とを大小比較する。比較部803は、被写体信頼度が非被写体閾値707よりも低い場合には被写体でないと確定し、判別処理を打ち切る。比較部803は、そうでない場合には直列に接続された後段の弱判別部によって更に判別を続ける。
また、全ての弱判別部で閾値との比較をしないよう、判別部を構成してもよい。また、いくつかの弱判別部をまとめたものをステージと呼び、ステージを直列に接続して判別部を構成するようにしてもよい。そして、各ステージの最後の弱判別部においてのみ被写体信頼度と閾値と比較するよう判別部を構成してもよい。このような構成とした場合、判別部は、比較の結果、被写体であると判別された場合は、判別を打ち切る。そして、判別部は、累積した被写体信頼度を0にリセットして次のステージの弱判別部による判別処理を続ける。
(機械学習方法)
次に、第1判別部104、及び、第2判別部105の機械学習方法について説明する。
機械学習には、まず、学習サンプルを用意する。例えば、CPU201は、検出ウィンドウのサイズに等しい被写体を含んだ被写体サンプル画像と、被写体を含まない非被写体サンプル画像とからなる学習サンプルをHDD204等から取得する。被写体検出の判別は被写体か非被写体かの2クラスの判別問題であるので、被写体サンプル画像は"被写体"であり、非被写体サンプル画像は"非被写体"というようにクラスとの関係付けが行われている。
CPU201は、被写体サンプル画像において、被写体の位置、サイズを正規化する必要がある。即ち、CPU201は、人物の頭頂部及びかかとの2点を基準にし、被写体サンプル画像間で高さが同じ位置になるように揃える。また、CPU201は、全身の重心が左右中央になるように揃える。CPU201は、被写体を含まない画像からランダムな位置で切り出した画像を非被写体サンプル画像として用いる。また、被写体は隠れのない画像とする。
これらの学習サンプルの画像は、被写体を検出するときに判別部に入力するパターンと同じチャネル構成である必要がある。本実施形態では輝度画像とする。
次に、図9を用いて学習の流れを説明する。図9は、第1判別部及び第2判別部の機械学習の一例を示すフローチャートである。
機械学習の処理を開始すると、まず、ステップS901にて、CPU201は、局所領域の選択範囲を設定する。ここでは、CPU201は、被写体隠蔽発生確率の低い領域を設定する。
ここで、被写体隠蔽発生確率について説明する。被写体隠蔽発生確率とは、検出ウィンドウの所定の位置又は領域において、被写体が隠蔽される確率である。被写体の隠蔽された領域とは、画像の端にかかった被写体の画像外の部分や、他の被写体と重なったために隠れた領域や、柱等の構造物や机等物の陰に隠れた領域等である。通常身に着けている服や手荷物等は隠蔽された領域ではないものとする。
次に、被写体隠蔽発生確率の求め方について説明する。まず、CPU201は、被写体を含む画像を収集する。このとき、カメラを設置する場所や時間帯、ズームや画角、レンズ等のカメラパラメータを、実際に被写体を検出する際と同様な条件にしておく事が望ましい。次に、CPU201は、被写体を含む領域を被写体サンプル画像と同様に被写体位置、サイズを正規化して切り出した画像へ変換する。これらの画像は検出ウィンドウのサイズに等しい。次に、CPU201は、この画像の画素値を被写体が隠蔽された領域であれば1、そうでない場合は0として2値化する。
先述した隠れの定義についてはあくまで一例であるが、学習サンプルの被写体サンプル画像の選別基準とは統一しておく必要がある。被写体サンプル画像には、同じ定義を適用して隠れのない画像を用いる。
検出ウィンドウ内の所望の位置における被写体隠蔽発生確率は、これら複数の2値化した画像の、所望の位置に対応する画素値の総和である。また、CPU201は、検出ウィンドウの所望の領域内の各画素の被写体隠蔽発生確率を平均することで、当該領域における被写体隠蔽発生確率を求めることができる。
本実施形態では検出ウィンドウを上下で2分割し、上半分の領域における被写体隠蔽発生確率と下半分の領域における被写体隠蔽発生確率とに基づいて、被写体隠蔽発生確率の低い上半身領域を設定している。なお、CPU201は、更に細かい領域に分割するようにしてもよい。
次に、ステップS902にて、CPU201は、第1判別部104を学習する。
CPU201は、第1判別部104の学習をブースティングによる機械学習で行う。
即ち、CPU201は、サンプルに対して重みを設定し、弱判別部のパラメータを総当りで適用して、サンプル重みつきの判別エラー評価を行い、最も判別精度のよいパラメータを決定する。次に、CPU201は、弱判別部を追加するときには、エラーとなったサンプルの重みを相対的に大きくして、組み合わせたときに最も判別精度のよくなるパラメータを求め、弱判別部を追加する処理を行う。ここで、検出ウィンドウ上の様々な位置、サイズの矩形の局所領域におけるHaar特徴量から最も判別率のよい局所領域を選択する技術がある。しかしながら本実施形態ではHaar特徴量に替えて、特徴量算出部801によって特徴量を求める。射影係数705は線形サポートベクターマシンによって得ることができる。
本実施形態では、CPU201は、検出ウィンドウの全体から局所領域を選択するのではなく、ステップS901で設定された領域のみに限定して最も判別率のよい局所領域を選択する。
ステップS903にて、CPU201は、弱判別器を追加する度に予め設定した所望の判別精度に達しているか否か、判別を行い、所望の判別精度に達するまでステップ902の弱判別器の追加を繰り返す。CPU201は、判別精度ではなく、弱判別器の個数を基準に終了判別してもよい。
所望の判別精度に達した場合、CPU201は、ステップS904に進み、局所領域の選択範囲を被写体隠蔽発生確率のより高い領域へ拡張する。本実施形態では、CPU201は、局所領域の選択範囲を上半身領域から全身領域へ拡張するものとする。
次にステップS905に進み、CPU201は、ステップS902と同様に第2判別部105を学習する。第2判別部105では被写体隠蔽発生確率の高い領域を含んだ全身領域から判別性能のよい局所領域を選択する点が第1判別部104とは異なる。
ステップS906にて、CPU201は、第2判別部105の弱判別器を追加する度に予め設定した所望の判別精度に達しているか否か判別を行い、所望の判別精度に達するまでステップS905の弱判別器の追加を繰り返す。
本実施形態では、CPU201は、局所領域の選択範囲を2段階で拡張したが、段階数を更に増やしてもよい。
また、本実施形態では、局所領域が全てステップS901で設定された領域内に含まれるものを選択基準とするが、これに限ったものではない。例えば局所領域の面積の一定の割合以上がステップS901で設定された領域内であれば選択する等の基準であってもよい。
また、ブースティングによる機械学習はサンプルの重み更新方法を改良したジェントルアダブーストや、特徴量から被写体信頼度への変換精度を向上したリアルアダブースト等の改良技術が提案されているが、何れの場合でも本実施形態を適用する事ができる。
また、機械学習は、ブースティング以外にも、サポートベクターマシンやニューラルネットワーク等を組み合わせて行ってもよい。
また、機械学習は、一般的な条件の下で予め事前に行って、その結果得られる判別情報を提供しても、カメラを設置後に、設置したカメラから得られる映像を用いて行ってもよい。後者の場合は、機械学習を本実施形態における画像処理装置で行う必要はない。画像入力装置205から入力した画像をネットワークI/F208を経由して機械学習サーバーに送付し、機械学習サーバーにて機械学習を行い、その結果を判別情報格納部601に格納すればよい。
<実施形態2>
図10は、画像処理装置のハードウェア構成の一例を示す図(その2)である。実施形態1と共通する部分には同じ番号を付与している。
ブロック構成としてはプログラムを記録したDVD又はCDのような光ディスク212を追加し、ドライブI/F210にCD/DVDドライブ等の外部記憶入出力装置211が接続されているところが実施形態1と異なる。
プログラムを記録した光ディスク212が外部記憶入出力装置211に挿入されるとCPU201は記憶媒体からプログラムを読み取って、RAM203に展開することで、実施形態1と同様の処理を実現することができる。
<実施形態3>
実施形態1、実施形態2では人物領域の検出を行うものとして説明を行ったが、上述した各実施形態の処理は、人物以外の任意の物体に対して適用可能である。例えば、生物、顔、自動車等がある。工業、流通分野等では生産物、部品、流通物品等の同定や検査等に適用できる。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
以上、上述した各実施形態によれば、被写体の隠蔽確率の低い領域から判別を行うので、効率よく被写体を検出し、かつ、検出漏れを低減することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
201 CPU

Claims (8)

  1. 画像を入力する画像入力手段と、
    入力された画像上で検出ウィンドウを走査する走査手段と、
    前記検出ウィンドウ内の複数の領域のうち、第1の領域内から得られる複数の特徴量に基づいて前記検出ウィンドウ内のパターンが被写体か否かに係る被写体信頼度を算出し、前記被写体信頼度が閾値以上である場合には前記パターンを被写体と判別し、前記被写体信頼度が閾値以上でない場合には前記複数の領域のうち、第2の領域内から得られる複数の特徴量に基づいて前記パターンが被写体か否かの判別を行なう判別手段と、
    を有する、画像処理装置。
  2. 前記第1の領域は、前記第2の領域より被写体隠蔽発生確率が低い領域である、請求項1記載の画像処理装置。
  3. 前記第1の領域は人物の上半身の領域であり、前記第2の領域は人物の全身の領域である、請求項1記載の画像処理装置。
  4. 前記判別手段で被写体と判別した同一のパターンに関する複数の位置の前記検出ウィンドウを、各検出ウィンドウの位置と、各検出ウィンドウ内の領域内から得られた複数の特徴量に基づいて算出された前記被写体信頼度と、に基づいて統合する統合手段を更に有する、請求項1乃至3の何れか1項記載の画像処理装置。
  5. 前記判別手段で前記第1の領域内から得られる複数の特徴量に基づいて算出された被写体信頼度が閾値以上であった場合、前記被写体信頼度を補正する補正手段を更に有する、請求項1乃至4の何れか1項記載の画像処理装置。
  6. 画像処理装置における被写体判別方法であって、
    画像を入力する画像入力ステップと、
    入力された画像上で検出ウィンドウを走査する走査ステップと、
    前記検出ウィンドウ内の複数の領域のうち、第1の領域内から得られる複数の特徴量に基づいて前記検出ウィンドウ内のパターンが被写体か否かに係る被写体信頼度を算出し、前記被写体信頼度が閾値以上である場合には前記パターンを被写体と判別し、前記被写体信頼度が閾値以上でない場合には前記複数の領域のうち、第2の領域内から得られる複数の特徴量に基づいて前記パターンが被写体か否かの判別を行なう判別ステップと、
    を含む、被写体判別方法。
  7. コンピュータを、
    画像を入力する画像入力手段と、
    入力された画像上で検出ウィンドウを走査する走査手段と、
    前記検出ウィンドウ内の複数の領域のうち、第1の領域内から得られる複数の特徴量に基づいて前記検出ウィンドウ内のパターンが被写体か否かに係る被写体信頼度を算出し、前記被写体信頼度が閾値以上である場合には前記パターンを被写体と判別し、前記被写体信頼度が閾値以上でない場合には前記複数の領域のうち、第2の領域内から得られる複数の特徴量に基づいて前記パターンが被写体か否かの判別を行なう判別手段と、
    して機能させるプログラム。
  8. 請求項7記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2009202856A 2009-09-02 2009-09-02 画像処理装置、被写体判別方法、プログラム及び記憶媒体 Expired - Fee Related JP5483961B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009202856A JP5483961B2 (ja) 2009-09-02 2009-09-02 画像処理装置、被写体判別方法、プログラム及び記憶媒体
US12/874,046 US8873859B2 (en) 2009-09-02 2010-09-01 Apparatus and method that determines whether a pattern within the detection window is a subject based on characteristic amounts obtained from within a first region

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009202856A JP5483961B2 (ja) 2009-09-02 2009-09-02 画像処理装置、被写体判別方法、プログラム及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2011053959A true JP2011053959A (ja) 2011-03-17
JP5483961B2 JP5483961B2 (ja) 2014-05-07

Family

ID=43625023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009202856A Expired - Fee Related JP5483961B2 (ja) 2009-09-02 2009-09-02 画像処理装置、被写体判別方法、プログラム及び記憶媒体

Country Status (2)

Country Link
US (1) US8873859B2 (ja)
JP (1) JP5483961B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250734A (ja) * 2012-05-31 2013-12-12 Denso Corp 人検出装置
JP2014527655A (ja) * 2011-07-14 2014-10-16 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフトBayerische Motoren Werke Aktiengesellschaft ポータブル端末用の歩行者の足取り認識方法および装置
JP2014229303A (ja) * 2013-05-20 2014-12-08 三菱電機株式会社 シーン内の物体を検出する方法
US8970714B2 (en) 2011-05-31 2015-03-03 Canon Kabushiki Kaisha Image capturing apparatus, image processing apparatus, and method thereof
JP2016162105A (ja) * 2015-02-27 2016-09-05 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
JP2017032591A (ja) * 2011-08-19 2017-02-09 国立大学法人京都大学 信号分析装置、信号分析方法及びコンピュータプログラム
JP2018165966A (ja) * 2017-03-28 2018-10-25 セコム株式会社 物体検出装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101595547B1 (ko) * 2010-11-20 2016-02-18 주식회사 고영테크놀러지 검사방법
US9336302B1 (en) 2012-07-20 2016-05-10 Zuci Realty Llc Insight and algorithmic clustering for automated synthesis
JP6428144B2 (ja) * 2014-10-17 2018-11-28 オムロン株式会社 エリア情報推定装置、エリア情報推定方法、および空気調和装置
CN106803056B (zh) * 2015-11-26 2020-11-06 华为技术有限公司 一种肢体关系的估计方法及装置
JP6672915B2 (ja) * 2016-03-15 2020-03-25 オムロン株式会社 物体検出装置、物体検出方法、及び、プログラム
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
CN112215242A (zh) * 2020-10-21 2021-01-12 北京三快在线科技有限公司 基于区域分割的遮挡检测的方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259847A (ja) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd 自動追尾装置及び自動追尾方法
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2007128262A (ja) * 2005-11-02 2007-05-24 Omron Corp 顔照合装置
JP2007142527A (ja) * 2005-11-15 2007-06-07 Hitachi Ltd 移動体監視システム、移動体特徴量算出装置およびカメラ間移動体照合追跡装置
JP2007310805A (ja) * 2006-05-22 2007-11-29 Matsushita Electric Ind Co Ltd 物体認識装置
JP2008033424A (ja) * 2006-07-26 2008-02-14 Canon Inc 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2009075868A (ja) * 2007-09-20 2009-04-09 Toshiba Corp 画像から対象を検出する装置、方法およびプログラム
JP2009146026A (ja) * 2007-12-12 2009-07-02 Fujitsu Ltd ロボットの対面者の状態変化判断方法、情報処理装置及びプログラム
WO2009098894A1 (ja) * 2008-02-06 2009-08-13 Panasonic Corporation 電子カメラおよび画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3086406B2 (ja) * 1995-10-04 2000-09-11 オプテックス株式会社 受動型赤外線式人体検知装置
WO2005086079A1 (en) * 2004-03-02 2005-09-15 Sarnoff Corporation Method and apparatus for differentiating pedestrians, vehicles, and other objects
JP4708909B2 (ja) 2005-08-09 2011-06-22 富士フイルム株式会社 デジタル画像の対象物検出方法および装置並びにプログラム
US8018494B2 (en) * 2006-01-10 2011-09-13 Panasonic Corporation Color correction device, color correction method, dynamic camera color correction device, and video search device using the same
US20070237387A1 (en) 2006-04-11 2007-10-11 Shmuel Avidan Method for detecting humans in images

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259847A (ja) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd 自動追尾装置及び自動追尾方法
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2007128262A (ja) * 2005-11-02 2007-05-24 Omron Corp 顔照合装置
JP2007142527A (ja) * 2005-11-15 2007-06-07 Hitachi Ltd 移動体監視システム、移動体特徴量算出装置およびカメラ間移動体照合追跡装置
JP2007310805A (ja) * 2006-05-22 2007-11-29 Matsushita Electric Ind Co Ltd 物体認識装置
JP2008033424A (ja) * 2006-07-26 2008-02-14 Canon Inc 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2009075868A (ja) * 2007-09-20 2009-04-09 Toshiba Corp 画像から対象を検出する装置、方法およびプログラム
JP2009146026A (ja) * 2007-12-12 2009-07-02 Fujitsu Ltd ロボットの対面者の状態変化判断方法、情報処理装置及びプログラム
WO2009098894A1 (ja) * 2008-02-06 2009-08-13 Panasonic Corporation 電子カメラおよび画像処理方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8970714B2 (en) 2011-05-31 2015-03-03 Canon Kabushiki Kaisha Image capturing apparatus, image processing apparatus, and method thereof
JP2014527655A (ja) * 2011-07-14 2014-10-16 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフトBayerische Motoren Werke Aktiengesellschaft ポータブル端末用の歩行者の足取り認識方法および装置
JP2017032591A (ja) * 2011-08-19 2017-02-09 国立大学法人京都大学 信号分析装置、信号分析方法及びコンピュータプログラム
JP2013250734A (ja) * 2012-05-31 2013-12-12 Denso Corp 人検出装置
JP2014229303A (ja) * 2013-05-20 2014-12-08 三菱電機株式会社 シーン内の物体を検出する方法
JP2016162105A (ja) * 2015-02-27 2016-09-05 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
JP2018165966A (ja) * 2017-03-28 2018-10-25 セコム株式会社 物体検出装置

Also Published As

Publication number Publication date
US8873859B2 (en) 2014-10-28
US20110052076A1 (en) 2011-03-03
JP5483961B2 (ja) 2014-05-07

Similar Documents

Publication Publication Date Title
JP5483961B2 (ja) 画像処理装置、被写体判別方法、プログラム及び記憶媒体
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
US8254643B2 (en) Image processing method and device for object recognition
US8144943B2 (en) Apparatus and method for detecting specific subject in image
KR102199094B1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
JP2007128480A (ja) 画像認識装置
US9633284B2 (en) Image processing apparatus and image processing method of identifying object in image
US10181075B2 (en) Image analyzing apparatus,image analyzing, and storage medium
JP5290227B2 (ja) 対象物検知装置及びその学習装置
JP6095817B1 (ja) 物体検出装置
US20160086058A1 (en) Information processing apparatus and control method thereof
WO2010131435A1 (en) Pattern recognition apparatus and method therefor configured to recognize object and another lower-order object
US8913782B2 (en) Object detection apparatus and method therefor
US20190042869A1 (en) Image processing apparatus and control method therefor
WO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
US8482812B2 (en) Image processing apparatus for detecting object from image and method thereof
US8526738B2 (en) Information processing apparatus including a plurality of multi-stage connected information processing units
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2007115109A (ja) 画像処理装置および方法、プログラム、並びに記録媒体
JP2012150730A (ja) 特徴抽出装置、特徴抽出方法、特徴抽出プログラム、および画像処理装置
JP2013011950A (ja) 画像処理装置、画像処理方法及びプログラム
CN104778468B (zh) 图像处理装置、图像处理方法以及监控设备
KR101621157B1 (ko) Mct를 이용한 얼굴 인식 장치 및 그 방법
JP5702960B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2012226403A (ja) 画像領域追跡装置、画像領域追跡方法、および、コンピュータ・プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130708

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131030

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140218

R151 Written notification of patent or utility model registration

Ref document number: 5483961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees