JP2011053959A - 画像処理装置、被写体判別方法、プログラム及び記憶媒体 - Google Patents
画像処理装置、被写体判別方法、プログラム及び記憶媒体 Download PDFInfo
- Publication number
- JP2011053959A JP2011053959A JP2009202856A JP2009202856A JP2011053959A JP 2011053959 A JP2011053959 A JP 2011053959A JP 2009202856 A JP2009202856 A JP 2009202856A JP 2009202856 A JP2009202856 A JP 2009202856A JP 2011053959 A JP2011053959 A JP 2011053959A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- reliability
- detection window
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【解決手段】画像を入力する画像入力手段と、入力された画像上で検出ウィンドウを走査する走査手段と、検出ウィンドウ内の複数の領域のうち、第1の領域内から得られる複数の特徴量に基づいて検出ウィンドウ内のパターンが被写体か否かに係る被写体信頼度を算出し、被写体信頼度が閾値以上である場合にはパターンを被写体と判別し、被写体信頼度が閾値以上でない場合には複数の領域のうち、第2の領域内から得られる複数の特徴量に基づいてパターンが被写体か否かの判別を行なう判別手段と、を有する、ことによって課題を解決する。
【選択図】図1
Description
上述した従来の技術では、1つのパターンに対して隠蔽箇所に対応した複数の判別器による判別が必要である。そのため、処理コストが高く、効率よく被写体を検出する事ができない。また、上述した従来の技術では、隠蔽の発生確率が被写体の場所によって異なる場合に関して何も開示されていない。
(ハードウェア構成)
図1は、画像処理装置(コンピュータ)のハードウェア構成の一例を示す図(その1)である。
CPU201は、ROM202やRAM203に格納されたプログラムに従って命令を実行する。
ROM202は、不揮発性メモリであり、本実施形態のプログラムやその他の制御に必要なプログラム、データを格納する。
RAM203は、揮発性メモリであり、フレーム画像データやパターン判別結果等の一時的なデータを記憶する。
HDD204は、2次記憶装置であり、画像情報や被写体、非被写体のサンプルパターン等を記憶する。これらの情報はプログラムの実行時にCPU201によってRAM203に転送され、利用する。なお、本実施形態のプログラムは、HDD204等に記憶されていてもよい。
入力装置206は、キーボードやマウス等であり、オペレータからの入力を行う。
表示装置207は、ブラウン管CRTや液晶ディスプレイ等である。
ネットワークI/F208は、インターネットやイントラネット等のネットワークと接続を行うモデムやLAN等である。ネットワークI/F208を介してネットワークカメラ等の画像入力装置を接続して、画像を入力するようにしてもよい。
バス209は、これらの構成要素を相互に接続して、データの入出力を行う。
本画像処理装置の後述する機能は、オペレーティングとしてWINDOWS(登録商標) XPがインストールされ、その上で動作するアプリケーションとして実装されている。
図2は、画像処理装置の機能構成の一例を示した図である。
画像入力部101は、画像入力装置205によって入力された画像を、後述する画像縮小部102に渡す。
画像縮小部102は、所定の大きさの検出ウィンドウで様々なサイズの被写体を検出するため、入力画像を段階的に縮小する。
走査部103は、後述する図5に示すように、縮小された画像上で検出ウィンドウをラスタスキャンする。
第1判別部104は、検出ウィンドウ上のパターンが被写体であるか否かを判別する。このとき、第1判別部104は、隠蔽の発生確率(被写体隠蔽発生確率)が少ない人物の上半身の領域(第1の領域)に限定した局所領域で前記判別を行い、被写体信頼度を出力する。
被写体信頼度補正部106は、第1判別部104の出力した被写体信頼度に対して補正を行う。
統合部107は、被写体と判別された複数の検出ウィンドウ位置が同一の被写体を指し示すものかどうかを判別し、被写体ごとにグルーピングを行い、被写体の位置としてまとめる。
図3は、画像からの検出対象である被写体と検出ウィンドウとの一例を示す図である。
被写体301は、直立又は歩行する人物である。検出ウィンドウ302は、被写体の全身を含む所定の大きさの矩形である。上半身領域303は、検出ウィンドウの上半分の領域である。
上半身領域303は、天井にカメラを置いて人物を撮影した場合に、人の重なり等による隠蔽確率が他の領域より低くなる領域である。
次に本実施形態の処理の流れについて図4のフローチャートを用いて説明する。
本実施形態では被写体の一例として歩行者を検出する画像処理装置を挙げて説明する。 図4は、被写体判別処理の一例を示すフローチャートである。
まず、ステップS401にて、画像入力部101は、画像入力装置205から入力された各フレーム画像データをRAM203に読み込む。
ここで読み込まれた画像データは、例えば8ビットの画素により構成される2次元配列のデータであり、R、G、B、3つの面により構成される。このとき、画像データがMPEG,MotionJPEG等の方式により圧縮されている場合、画像入力部101は、画像データを所定の解凍方式にしたがって解凍し、RGB各画素により構成される画像データとする。さらに、本実施形態では画像入力部101は、RGBデータを輝度データに変換し、輝度画像データを以後の処理に適用するものとし、RAM203に格納する。
画像データとしてYCrCbのデータを入力する場合、画像入力部101は、Y成分をそのまま輝度データとしてもよい。
なお、本実施形態は、RGBデータに限定されるものではなく。各画素におけるカメラと被写体との距離を示す距離画像や赤外線センサによる強度画像でもよい。また、画像入力部101が明るさやコントラスト調整等の正規化、色変換処理を行い、ぼかし、先鋭化等の画像処理を行った1つ又は異なる画像処理を適用した複数の画像データであってもよい。
次に、ステップS403にて、走査部103は、縮小された輝度画像データ上に検出ウィンドウ302を設定し、照合パターンを抽出する。図5には、走査部103が検出ウィンドウ302を走査する様子が示されている。本実施形態では走査部103は、縦横4画素おきにラスタスキャンするものとする。
ステップS405にて、第1判別部104は、被写体信頼度が所定の閾値以上であるか否かを判定する。第1判別部104は、被写体信頼度が所定の閾値以上である場合、ステップS406に進む。ステップS406にて、被写体信頼度補正部106は、被写体信頼度を補正する。本来、被写体信頼度は第2判別処理を行って求めるべきであるが、処理の高速化のため、被写体であることを確定して第2判別処理を省略するようにした。本ステップは、ことによって生じる誤差を最小限に抑えるための処理である。
被写体信頼度補正部106は、予め隠れのない被写体画像における上半身の被写体信頼度と全身の被写体信頼度との統計的な関係から(式1)による近似式を求めておく。
f(x) = αx + β (式1)
xは、第1判別部104が出力する上半身の被写体信頼度である。α、βは、近似パラメータである。また、βは、上半身の被写体信頼度が全身の被写体信頼度の最大値を常に上回るように十分大きな値としてもよい。
ステップS408にて、例えば統合部107は、被写体信頼度と、検出ウィンドウの位置とを対応付けてRAM203に記憶する。
次に、ステップS409にて、例えば統合部107は、全ての縮小画像・位置において検出ウィンドウを走査したかを判別し、終了であればステップS410へ、そうでない場合はステップS403へ進み処理を繰り返す。
統合部107は、統合処理として、ステップS408で記憶した、被写体と判別した複数の検出ウィンドウの位置について、同一の被写体を指す検出ウィンドウを1つにまとめる処理を行う。即ち、統合部107は、被写体と判別された複数の検出ウィンドウ位置が同一の被写体を指し示すものかどうかを判別し、被写体ごとにグルーピングを行い、被写体の位置としてまとめる。
任意の2つの検出ウィンドウ位置が同一の被写体を指し示すものかどうかを判別するには、統合部107は、検出ウィンドウの上部の頂点座標間の平均距離を求め、検出ウィンドウの幅との比が閾値以下である場合とする。統合部107は、これを全ての被写体と判定した検出ウィンドウ位置の組で行ない、同一の被写体を指し示す検出ウィンドウ同士をグループ化する。
次に、統合部107は、各グループで位置の統合と信頼度の統合とを行って被写体の位置としてまとめる。
統合部107は、位置の統合を、グループ化した各検出ウィンドウの座標平均とする。また、統合部107は、被写体信頼度の統合を、各検出ウィンドウの被写体信頼度の最大値を採用する。
統合部107は、統合処理に、meanshiftクラスタリング法を用いてもよい。より具体的に説明すると、統合部107は、まず、被写体と判別された検出ウィンドウの各々を1つのクラスタとする。そして、統合部107は、クラスタ間の距離関数を定義する。距離は、例えば検出ウィンドウの上部の頂点座標間の平均距離等である。次に統合部107は、任意の2つのクラスタ間の距離が所定の閾値より小さな場合に位置を統合して1つのクラスタへ統合する処理を統合対象がなくなるまで繰り返す。統合部107は、統合対象がなくなった場合、閾値を少しずつ大きくして再度結合を試みる事を繰り返す。位置の統合をする際、統合部107は、クラスタのメンバ数に基づいた重み付け平均を行うが、更に被写体信頼度による重み付けを行うと、被写体の位置を精度よく特定する事ができる。
次に、第1判別部104における処理の詳細を、図6を用いて説明する。図6は、第1判別部の一例を示す図である。
第1判別部104は、複数の弱判別部602、603、604から構成される。複数の弱判別部602、603、604は直列に接続される。最初の弱判別部602は、入力されたパターンデータが被写体であるか否かを判別し、被写体であった場合にのみ後段の弱判別部603で同じパターンデータが被写体であるか否かの判別を行う。そして、最後の弱判別部604で被写体であると判別された場合に、第1判別部の判別結果が被写体であるとなる。各弱判別部は同様な構成であり、判別情報が異なるのみである。判別情報は機械学習によって求められ、RAM203等に構成される判別情報格納部601に格納される。また、第2判別部105は、第1判別部104と同じ構成であり、判別情報や弱判別部の個数が異なるのみである。
図7は、判別情報のデータ構造の一例を示す図である。
701は、弱判別部の数である。弱判別情報702及び弱判別情報703は、1つの弱判別部に関する情報であり、701に格納された弱判別部の数分だけ同様な構造の情報が並ぶ。先頭の弱判別情報702は、弱判別部602のための判別情報である。また最後の弱判別情報703は、弱判別部604のための判別情報である。
704〜707は、1つの弱判別部に関する詳細な情報である。
704は、局所領域情報であり、検出ウィンドウ内における矩形の局所領域の位置とサイズとである。
705は、射影係数であり、特徴ベクトルとの内積によって判別空間へ射影するための基底ベクトルである。
706は、被写体信頼度変換定数であり、スカラー特徴量を2段階に量子化するための閾値と、各段階とに対応する被写体信頼度である。
707は、非被写体閾値であり、被写体信頼度が非被写体か否かを判別するための閾値である。
次に弱判別部602について、図8を用いて説明する。図8は、弱判別部の一例を示す図である。
弱判別部602は、特徴量算出部801、被写体信頼度変換部802、比較部803から構成される。
特徴量算出部801は、検出ウィンドウ内のパターン画像から特徴量を算出する。
特徴量算出部801における特徴量抽出方法としては、histogram of gradientsと呼ばれる特徴量(HOG特徴量)によって人体を検出する技術が知られている(米国特許第237387号明細書(以下、技術1という))。
技術1におけるHOG特徴量は、各画素における勾配の強さと方向を求めておき、所定の局所領域の画素について、勾配強さを方向別に投票する事により、局所領域の方向別の勾配強さを求めるものである。また、技術1では、照明に対してロバストにするため、全方向の勾配の強さの総和で割ることで正規化している。
また、特徴量算出部801は、射影係数705のベクトルのうち1要素のみを1、他は0にして、36次元の特徴ベクトルから判別精度のよい1次元のみを選択してスカラー特徴量を得てもよい。
また、パターン画像が輝度でなくRGB等複数のチャネルを持つ場合、特徴量算出部801は、各チャネルでの分散を正規化した上で画素ごとに最大勾配となるチャネルを選択して勾配の強さとすればよい。局所領域の分割数や方向の量子化数のパラメータは本実施形態に限ったものではなく、複数の異なる局所領域における特徴量を結合して特徴ベクトルとする等、様々なバリエーションがある。
被写体信頼度変換部802は、特徴量算出部801の出力するスカラー値を被写体信頼度へ変換する。被写体信頼度変換定数706には閾値tと被写体信頼度加算値としてα、βとを格納しておく。被写体信頼度変換部802は、前段の弱判別部が出力した被写体信頼度に対し、特徴量算出部801の出力する値が閾値tより小さい場合はαを、そうでない場合にはβを加えて出力する。出力した被写体信頼度は、比較部803へ入力する他、後段の弱判別部へ引継ぐ。
比較部803は、被写体信頼度変換部802が出力した被写体信頼度と閾値とを大小比較する。比較部803は、被写体信頼度が非被写体閾値707よりも低い場合には被写体でないと確定し、判別処理を打ち切る。比較部803は、そうでない場合には直列に接続された後段の弱判別部によって更に判別を続ける。
また、全ての弱判別部で閾値との比較をしないよう、判別部を構成してもよい。また、いくつかの弱判別部をまとめたものをステージと呼び、ステージを直列に接続して判別部を構成するようにしてもよい。そして、各ステージの最後の弱判別部においてのみ被写体信頼度と閾値と比較するよう判別部を構成してもよい。このような構成とした場合、判別部は、比較の結果、被写体であると判別された場合は、判別を打ち切る。そして、判別部は、累積した被写体信頼度を0にリセットして次のステージの弱判別部による判別処理を続ける。
次に、第1判別部104、及び、第2判別部105の機械学習方法について説明する。
機械学習には、まず、学習サンプルを用意する。例えば、CPU201は、検出ウィンドウのサイズに等しい被写体を含んだ被写体サンプル画像と、被写体を含まない非被写体サンプル画像とからなる学習サンプルをHDD204等から取得する。被写体検出の判別は被写体か非被写体かの2クラスの判別問題であるので、被写体サンプル画像は"被写体"であり、非被写体サンプル画像は"非被写体"というようにクラスとの関係付けが行われている。
CPU201は、被写体サンプル画像において、被写体の位置、サイズを正規化する必要がある。即ち、CPU201は、人物の頭頂部及びかかとの2点を基準にし、被写体サンプル画像間で高さが同じ位置になるように揃える。また、CPU201は、全身の重心が左右中央になるように揃える。CPU201は、被写体を含まない画像からランダムな位置で切り出した画像を非被写体サンプル画像として用いる。また、被写体は隠れのない画像とする。
次に、図9を用いて学習の流れを説明する。図9は、第1判別部及び第2判別部の機械学習の一例を示すフローチャートである。
機械学習の処理を開始すると、まず、ステップS901にて、CPU201は、局所領域の選択範囲を設定する。ここでは、CPU201は、被写体隠蔽発生確率の低い領域を設定する。
ここで、被写体隠蔽発生確率について説明する。被写体隠蔽発生確率とは、検出ウィンドウの所定の位置又は領域において、被写体が隠蔽される確率である。被写体の隠蔽された領域とは、画像の端にかかった被写体の画像外の部分や、他の被写体と重なったために隠れた領域や、柱等の構造物や机等物の陰に隠れた領域等である。通常身に着けている服や手荷物等は隠蔽された領域ではないものとする。
先述した隠れの定義についてはあくまで一例であるが、学習サンプルの被写体サンプル画像の選別基準とは統一しておく必要がある。被写体サンプル画像には、同じ定義を適用して隠れのない画像を用いる。
検出ウィンドウ内の所望の位置における被写体隠蔽発生確率は、これら複数の2値化した画像の、所望の位置に対応する画素値の総和である。また、CPU201は、検出ウィンドウの所望の領域内の各画素の被写体隠蔽発生確率を平均することで、当該領域における被写体隠蔽発生確率を求めることができる。
本実施形態では検出ウィンドウを上下で2分割し、上半分の領域における被写体隠蔽発生確率と下半分の領域における被写体隠蔽発生確率とに基づいて、被写体隠蔽発生確率の低い上半身領域を設定している。なお、CPU201は、更に細かい領域に分割するようにしてもよい。
CPU201は、第1判別部104の学習をブースティングによる機械学習で行う。
即ち、CPU201は、サンプルに対して重みを設定し、弱判別部のパラメータを総当りで適用して、サンプル重みつきの判別エラー評価を行い、最も判別精度のよいパラメータを決定する。次に、CPU201は、弱判別部を追加するときには、エラーとなったサンプルの重みを相対的に大きくして、組み合わせたときに最も判別精度のよくなるパラメータを求め、弱判別部を追加する処理を行う。ここで、検出ウィンドウ上の様々な位置、サイズの矩形の局所領域におけるHaar特徴量から最も判別率のよい局所領域を選択する技術がある。しかしながら本実施形態ではHaar特徴量に替えて、特徴量算出部801によって特徴量を求める。射影係数705は線形サポートベクターマシンによって得ることができる。
本実施形態では、CPU201は、検出ウィンドウの全体から局所領域を選択するのではなく、ステップS901で設定された領域のみに限定して最も判別率のよい局所領域を選択する。
所望の判別精度に達した場合、CPU201は、ステップS904に進み、局所領域の選択範囲を被写体隠蔽発生確率のより高い領域へ拡張する。本実施形態では、CPU201は、局所領域の選択範囲を上半身領域から全身領域へ拡張するものとする。
次にステップS905に進み、CPU201は、ステップS902と同様に第2判別部105を学習する。第2判別部105では被写体隠蔽発生確率の高い領域を含んだ全身領域から判別性能のよい局所領域を選択する点が第1判別部104とは異なる。
ステップS906にて、CPU201は、第2判別部105の弱判別器を追加する度に予め設定した所望の判別精度に達しているか否か判別を行い、所望の判別精度に達するまでステップS905の弱判別器の追加を繰り返す。
また、本実施形態では、局所領域が全てステップS901で設定された領域内に含まれるものを選択基準とするが、これに限ったものではない。例えば局所領域の面積の一定の割合以上がステップS901で設定された領域内であれば選択する等の基準であってもよい。
また、ブースティングによる機械学習はサンプルの重み更新方法を改良したジェントルアダブーストや、特徴量から被写体信頼度への変換精度を向上したリアルアダブースト等の改良技術が提案されているが、何れの場合でも本実施形態を適用する事ができる。
また、機械学習は、ブースティング以外にも、サポートベクターマシンやニューラルネットワーク等を組み合わせて行ってもよい。
また、機械学習は、一般的な条件の下で予め事前に行って、その結果得られる判別情報を提供しても、カメラを設置後に、設置したカメラから得られる映像を用いて行ってもよい。後者の場合は、機械学習を本実施形態における画像処理装置で行う必要はない。画像入力装置205から入力した画像をネットワークI/F208を経由して機械学習サーバーに送付し、機械学習サーバーにて機械学習を行い、その結果を判別情報格納部601に格納すればよい。
図10は、画像処理装置のハードウェア構成の一例を示す図(その2)である。実施形態1と共通する部分には同じ番号を付与している。
ブロック構成としてはプログラムを記録したDVD又はCDのような光ディスク212を追加し、ドライブI/F210にCD/DVDドライブ等の外部記憶入出力装置211が接続されているところが実施形態1と異なる。
プログラムを記録した光ディスク212が外部記憶入出力装置211に挿入されるとCPU201は記憶媒体からプログラムを読み取って、RAM203に展開することで、実施形態1と同様の処理を実現することができる。
実施形態1、実施形態2では人物領域の検出を行うものとして説明を行ったが、上述した各実施形態の処理は、人物以外の任意の物体に対して適用可能である。例えば、生物、顔、自動車等がある。工業、流通分野等では生産物、部品、流通物品等の同定や検査等に適用できる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (8)
- 画像を入力する画像入力手段と、
入力された画像上で検出ウィンドウを走査する走査手段と、
前記検出ウィンドウ内の複数の領域のうち、第1の領域内から得られる複数の特徴量に基づいて前記検出ウィンドウ内のパターンが被写体か否かに係る被写体信頼度を算出し、前記被写体信頼度が閾値以上である場合には前記パターンを被写体と判別し、前記被写体信頼度が閾値以上でない場合には前記複数の領域のうち、第2の領域内から得られる複数の特徴量に基づいて前記パターンが被写体か否かの判別を行なう判別手段と、
を有する、画像処理装置。 - 前記第1の領域は、前記第2の領域より被写体隠蔽発生確率が低い領域である、請求項1記載の画像処理装置。
- 前記第1の領域は人物の上半身の領域であり、前記第2の領域は人物の全身の領域である、請求項1記載の画像処理装置。
- 前記判別手段で被写体と判別した同一のパターンに関する複数の位置の前記検出ウィンドウを、各検出ウィンドウの位置と、各検出ウィンドウ内の領域内から得られた複数の特徴量に基づいて算出された前記被写体信頼度と、に基づいて統合する統合手段を更に有する、請求項1乃至3の何れか1項記載の画像処理装置。
- 前記判別手段で前記第1の領域内から得られる複数の特徴量に基づいて算出された被写体信頼度が閾値以上であった場合、前記被写体信頼度を補正する補正手段を更に有する、請求項1乃至4の何れか1項記載の画像処理装置。
- 画像処理装置における被写体判別方法であって、
画像を入力する画像入力ステップと、
入力された画像上で検出ウィンドウを走査する走査ステップと、
前記検出ウィンドウ内の複数の領域のうち、第1の領域内から得られる複数の特徴量に基づいて前記検出ウィンドウ内のパターンが被写体か否かに係る被写体信頼度を算出し、前記被写体信頼度が閾値以上である場合には前記パターンを被写体と判別し、前記被写体信頼度が閾値以上でない場合には前記複数の領域のうち、第2の領域内から得られる複数の特徴量に基づいて前記パターンが被写体か否かの判別を行なう判別ステップと、
を含む、被写体判別方法。 - コンピュータを、
画像を入力する画像入力手段と、
入力された画像上で検出ウィンドウを走査する走査手段と、
前記検出ウィンドウ内の複数の領域のうち、第1の領域内から得られる複数の特徴量に基づいて前記検出ウィンドウ内のパターンが被写体か否かに係る被写体信頼度を算出し、前記被写体信頼度が閾値以上である場合には前記パターンを被写体と判別し、前記被写体信頼度が閾値以上でない場合には前記複数の領域のうち、第2の領域内から得られる複数の特徴量に基づいて前記パターンが被写体か否かの判別を行なう判別手段と、
して機能させるプログラム。 - 請求項7記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009202856A JP5483961B2 (ja) | 2009-09-02 | 2009-09-02 | 画像処理装置、被写体判別方法、プログラム及び記憶媒体 |
US12/874,046 US8873859B2 (en) | 2009-09-02 | 2010-09-01 | Apparatus and method that determines whether a pattern within the detection window is a subject based on characteristic amounts obtained from within a first region |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009202856A JP5483961B2 (ja) | 2009-09-02 | 2009-09-02 | 画像処理装置、被写体判別方法、プログラム及び記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011053959A true JP2011053959A (ja) | 2011-03-17 |
JP5483961B2 JP5483961B2 (ja) | 2014-05-07 |
Family
ID=43625023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009202856A Expired - Fee Related JP5483961B2 (ja) | 2009-09-02 | 2009-09-02 | 画像処理装置、被写体判別方法、プログラム及び記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8873859B2 (ja) |
JP (1) | JP5483961B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013250734A (ja) * | 2012-05-31 | 2013-12-12 | Denso Corp | 人検出装置 |
JP2014527655A (ja) * | 2011-07-14 | 2014-10-16 | バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフトBayerische Motoren Werke Aktiengesellschaft | ポータブル端末用の歩行者の足取り認識方法および装置 |
JP2014229303A (ja) * | 2013-05-20 | 2014-12-08 | 三菱電機株式会社 | シーン内の物体を検出する方法 |
US8970714B2 (en) | 2011-05-31 | 2015-03-03 | Canon Kabushiki Kaisha | Image capturing apparatus, image processing apparatus, and method thereof |
JP2016162105A (ja) * | 2015-02-27 | 2016-09-05 | 富士通株式会社 | 画像処理プログラム、画像処理装置、及び画像処理方法 |
JP2017032591A (ja) * | 2011-08-19 | 2017-02-09 | 国立大学法人京都大学 | 信号分析装置、信号分析方法及びコンピュータプログラム |
JP2018165966A (ja) * | 2017-03-28 | 2018-10-25 | セコム株式会社 | 物体検出装置 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101595547B1 (ko) * | 2010-11-20 | 2016-02-18 | 주식회사 고영테크놀러지 | 검사방법 |
US9336302B1 (en) | 2012-07-20 | 2016-05-10 | Zuci Realty Llc | Insight and algorithmic clustering for automated synthesis |
JP6428144B2 (ja) * | 2014-10-17 | 2018-11-28 | オムロン株式会社 | エリア情報推定装置、エリア情報推定方法、および空気調和装置 |
CN106803056B (zh) * | 2015-11-26 | 2020-11-06 | 华为技术有限公司 | 一种肢体关系的估计方法及装置 |
JP6672915B2 (ja) * | 2016-03-15 | 2020-03-25 | オムロン株式会社 | 物体検出装置、物体検出方法、及び、プログラム |
US11205103B2 (en) | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
CN112215242A (zh) * | 2020-10-21 | 2021-01-12 | 北京三快在线科技有限公司 | 基于区域分割的遮挡检测的方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006259847A (ja) * | 2005-03-15 | 2006-09-28 | Matsushita Electric Ind Co Ltd | 自動追尾装置及び自動追尾方法 |
JP2007042072A (ja) * | 2005-07-05 | 2007-02-15 | Omron Corp | 追跡装置 |
JP2007128262A (ja) * | 2005-11-02 | 2007-05-24 | Omron Corp | 顔照合装置 |
JP2007142527A (ja) * | 2005-11-15 | 2007-06-07 | Hitachi Ltd | 移動体監視システム、移動体特徴量算出装置およびカメラ間移動体照合追跡装置 |
JP2007310805A (ja) * | 2006-05-22 | 2007-11-29 | Matsushita Electric Ind Co Ltd | 物体認識装置 |
JP2008033424A (ja) * | 2006-07-26 | 2008-02-14 | Canon Inc | 画像処理装置、画像処理方法、プログラム及び記憶媒体 |
JP2009075868A (ja) * | 2007-09-20 | 2009-04-09 | Toshiba Corp | 画像から対象を検出する装置、方法およびプログラム |
JP2009146026A (ja) * | 2007-12-12 | 2009-07-02 | Fujitsu Ltd | ロボットの対面者の状態変化判断方法、情報処理装置及びプログラム |
WO2009098894A1 (ja) * | 2008-02-06 | 2009-08-13 | Panasonic Corporation | 電子カメラおよび画像処理方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3086406B2 (ja) * | 1995-10-04 | 2000-09-11 | オプテックス株式会社 | 受動型赤外線式人体検知装置 |
WO2005086079A1 (en) * | 2004-03-02 | 2005-09-15 | Sarnoff Corporation | Method and apparatus for differentiating pedestrians, vehicles, and other objects |
JP4708909B2 (ja) | 2005-08-09 | 2011-06-22 | 富士フイルム株式会社 | デジタル画像の対象物検出方法および装置並びにプログラム |
US8018494B2 (en) * | 2006-01-10 | 2011-09-13 | Panasonic Corporation | Color correction device, color correction method, dynamic camera color correction device, and video search device using the same |
US20070237387A1 (en) | 2006-04-11 | 2007-10-11 | Shmuel Avidan | Method for detecting humans in images |
-
2009
- 2009-09-02 JP JP2009202856A patent/JP5483961B2/ja not_active Expired - Fee Related
-
2010
- 2010-09-01 US US12/874,046 patent/US8873859B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006259847A (ja) * | 2005-03-15 | 2006-09-28 | Matsushita Electric Ind Co Ltd | 自動追尾装置及び自動追尾方法 |
JP2007042072A (ja) * | 2005-07-05 | 2007-02-15 | Omron Corp | 追跡装置 |
JP2007128262A (ja) * | 2005-11-02 | 2007-05-24 | Omron Corp | 顔照合装置 |
JP2007142527A (ja) * | 2005-11-15 | 2007-06-07 | Hitachi Ltd | 移動体監視システム、移動体特徴量算出装置およびカメラ間移動体照合追跡装置 |
JP2007310805A (ja) * | 2006-05-22 | 2007-11-29 | Matsushita Electric Ind Co Ltd | 物体認識装置 |
JP2008033424A (ja) * | 2006-07-26 | 2008-02-14 | Canon Inc | 画像処理装置、画像処理方法、プログラム及び記憶媒体 |
JP2009075868A (ja) * | 2007-09-20 | 2009-04-09 | Toshiba Corp | 画像から対象を検出する装置、方法およびプログラム |
JP2009146026A (ja) * | 2007-12-12 | 2009-07-02 | Fujitsu Ltd | ロボットの対面者の状態変化判断方法、情報処理装置及びプログラム |
WO2009098894A1 (ja) * | 2008-02-06 | 2009-08-13 | Panasonic Corporation | 電子カメラおよび画像処理方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8970714B2 (en) | 2011-05-31 | 2015-03-03 | Canon Kabushiki Kaisha | Image capturing apparatus, image processing apparatus, and method thereof |
JP2014527655A (ja) * | 2011-07-14 | 2014-10-16 | バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフトBayerische Motoren Werke Aktiengesellschaft | ポータブル端末用の歩行者の足取り認識方法および装置 |
JP2017032591A (ja) * | 2011-08-19 | 2017-02-09 | 国立大学法人京都大学 | 信号分析装置、信号分析方法及びコンピュータプログラム |
JP2013250734A (ja) * | 2012-05-31 | 2013-12-12 | Denso Corp | 人検出装置 |
JP2014229303A (ja) * | 2013-05-20 | 2014-12-08 | 三菱電機株式会社 | シーン内の物体を検出する方法 |
JP2016162105A (ja) * | 2015-02-27 | 2016-09-05 | 富士通株式会社 | 画像処理プログラム、画像処理装置、及び画像処理方法 |
JP2018165966A (ja) * | 2017-03-28 | 2018-10-25 | セコム株式会社 | 物体検出装置 |
Also Published As
Publication number | Publication date |
---|---|
US8873859B2 (en) | 2014-10-28 |
US20110052076A1 (en) | 2011-03-03 |
JP5483961B2 (ja) | 2014-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5483961B2 (ja) | 画像処理装置、被写体判別方法、プログラム及び記憶媒体 | |
JP6088792B2 (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
US8254643B2 (en) | Image processing method and device for object recognition | |
US8144943B2 (en) | Apparatus and method for detecting specific subject in image | |
KR102199094B1 (ko) | 관심객체 검출을 위한 관심영역 학습장치 및 방법 | |
JP2007128480A (ja) | 画像認識装置 | |
US9633284B2 (en) | Image processing apparatus and image processing method of identifying object in image | |
US10181075B2 (en) | Image analyzing apparatus,image analyzing, and storage medium | |
JP5290227B2 (ja) | 対象物検知装置及びその学習装置 | |
JP6095817B1 (ja) | 物体検出装置 | |
US20160086058A1 (en) | Information processing apparatus and control method thereof | |
WO2010131435A1 (en) | Pattern recognition apparatus and method therefor configured to recognize object and another lower-order object | |
US8913782B2 (en) | Object detection apparatus and method therefor | |
US20190042869A1 (en) | Image processing apparatus and control method therefor | |
WO2012046426A1 (ja) | 物体検出装置、物体検出方法および物体検出プログラム | |
US8482812B2 (en) | Image processing apparatus for detecting object from image and method thereof | |
US8526738B2 (en) | Information processing apparatus including a plurality of multi-stage connected information processing units | |
JP6511950B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2007115109A (ja) | 画像処理装置および方法、プログラム、並びに記録媒体 | |
JP2012150730A (ja) | 特徴抽出装置、特徴抽出方法、特徴抽出プログラム、および画像処理装置 | |
JP2013011950A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN104778468B (zh) | 图像处理装置、图像处理方法以及监控设备 | |
KR101621157B1 (ko) | Mct를 이용한 얼굴 인식 장치 및 그 방법 | |
JP5702960B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2012226403A (ja) | 画像領域追跡装置、画像領域追跡方法、および、コンピュータ・プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130708 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131030 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20131217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140218 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5483961 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |