JP2017016593A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2017016593A
JP2017016593A JP2015135680A JP2015135680A JP2017016593A JP 2017016593 A JP2017016593 A JP 2017016593A JP 2015135680 A JP2015135680 A JP 2015135680A JP 2015135680 A JP2015135680 A JP 2015135680A JP 2017016593 A JP2017016593 A JP 2017016593A
Authority
JP
Japan
Prior art keywords
image processing
parts
processing apparatus
model
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015135680A
Other languages
English (en)
Other versions
JP6639123B2 (ja
JP2017016593A5 (ja
Inventor
浩一 馬養
Koichi Umakai
浩一 馬養
優和 真継
Masakazu Matsugi
優和 真継
雅人 青葉
Masahito Aoba
雅人 青葉
康生 片野
Yasuo Katano
康生 片野
貴之 猿田
Takayuki Saruta
貴之 猿田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015135680A priority Critical patent/JP6639123B2/ja
Priority to US15/194,304 priority patent/US10216979B2/en
Publication of JP2017016593A publication Critical patent/JP2017016593A/ja
Publication of JP2017016593A5 publication Critical patent/JP2017016593A5/ja
Application granted granted Critical
Publication of JP6639123B2 publication Critical patent/JP6639123B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 画像から検出対象物体のパーツ位置を精度よく検出できるようにすること。【解決手段】 本発明は、予め学習されたモデルを用いて、対象物体の複数のパーツそれぞれの候補領域を検出して、検出した候補領域に基づいて複数のパーツから相対的に信頼性が高い高信頼パーツと、相対的に信頼性の低い非高信頼パーツとを選択する。そして、高信頼パーツに基づいて非高信頼パーツを再配置し、モデルを再構築する。そして、このモデルにより対象物体の複数のパーツの位置を検出する。【選択図】 図1

Description

本発明は、画像中の対象物体のパーツの位置を検出する技術に関する。
非特許文献1には、対象物(オブジェクト)の検出、およびその姿勢を推定するための変形可能パーツモデルが提案されている。この技術では、1つのオブジェクトがツリーモデルの組み合わせで表現され、ツリーのノードがオブジェクトの部分的な領域(部位)とその部位の姿勢(部分姿勢)とをモデル化したもの(パーツモデル)に対応する。各パーツモデルは、オブジェクトの検出時に予め定めた範囲で位置変動が許されており、オブジェクト検出時に各部分姿勢も確定するため、オブジェクトの姿勢推定も同時に行うことになる。以下、このようなモデルを変形パーツモデルとも記載する。
変形パーツモデルを利用する技術として、特許文献1がある。特許文献1には、オブジェクトの変化が画像の特徴量へ与える影響を低減するために、学習画像に共通して存在する「変化のない部分領域」を選択し、利用する。学習時には、次のステップでこの部分領域を選択する。すなわち、(1)正規化された各学習画像から勾配画像を生成し、(2)勾配画像の平均画像として勾配平均画像を生成し、(3)勾配平均画像の画素値が極大となる画素を中心とする部分領域を選択する。
特開2009−151445号公報
P.Felzenszwalb,D.McAllester,D.Ramanan,"A Discriminatively Trained,Multiscale,Deformable Part Model," IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2008. N.Dalal,B.Triggs,"Histograms of oriented gradients for human detection," In CVPR,2005. Y.Yang and D. Ramanan,"Articulated pose estimation with flexible mixtures−of−parts," IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2011. Viola, P and Jones,M,"Rapid object detection using a boosted cascade of simple features",CVPR,vol.1,pp.511−518,2001. R.Achanta,A.Shaji,K.Smith,A.Lucchi,P.Fua,S.Susstrunk,"SLIC Superpixels Compared to State−of−the−Art Superpixel Methods," IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.34,No.11,2012.
しかしながら、特許文献1の技術では、車載カメラで撮影した歩行者のようにある程度その形状が決まっており、部分領域の相対位置や方向に大きな変化がない被写体(オブジェクト)の場合には有効である。しかし、様々な活動を行っている人物のように、同一カテゴリのオブジェクト間で全体的な形状の変化が大きい、あるいは全体形状は似ているが部分領域の相対位置や方向に変化のある被写体の場合には十分に対応できない。これは、若干の部分姿勢の違いで、例えば四肢のような部分領域の相対位置が容易に変化し、学習画像から検出に利用可能な部分領域を十分に選択できないためである。そして、このようにできていなかった。そこで、本発明は、学習画像から部分領域が十分に選択できていない場合であっても、オブジェクトのパーツ位置を精度よく検出することを目的とする。
以上の課題を解決するために、本発明は、複数のパーツにより構成される対象物体を含む画像を取得する取得手段と、予め学習されたモデルを用いて、前記対象物体の複数のパーツそれぞれの候補領域を検出する第1の検出手段と、前記第1の検出手段により検出された候補領域に基づいて、前記複数のパーツから相対的に信頼性が高い第1のパーツと相対的に信頼性の低い第2のパーツとを選択する選択手段と、前記選択手段により選択された第1のパーツに基づいて前記第2のパーツの位置を決定することにより、前記モデルを再構築する再構築手段と、前記再構築手段により再構築されたモデルを用いて、前記対象物体の複数のパーツの位置を検出する第2の検出手段と、を有することを特徴とする。
以上の構成によれば、本発明では、オブジェクトのパーツ位置を精度よく検出することが可能になる。
第1の実施形態に関わる画像処理装置の概略ブロック図。 第1の実施形態におけるオブジェクトの検出処理を示すフローチャート。 第1の実施形態に関わるパーツの再配置処理を示すフローチャート。 第2の実施形態に関わる画像処理装置の機能構成を示す概略ブロック図。 第2の実施形態におけるオブジェクトの検出処理を示すフローチャート。 第3の実施形態におけるオブジェクトの検出処理を示すフローチャート。 第4の実施形態におけるオブジェクトの検出処理を示すフローチャート。 第1の実施形態におけるオブジェクトの検出処理の概念を説明する図。
[第1の実施形態]
以下、本発明の第1の実施形態について説明する。本実施形態では、対象物をオブジェクト、対象物の一部である部位をパーツ、対象物の各部位の位置関係を姿勢、全体的な姿勢をポーズと表現することもある。具体的なパーツの例としては、人体部位としての頭、胴、左右の上腕(肩−肘)、左右の前腕および手(肘−手の先)、左右の大腿(腰−膝)、左右の下腿および足(膝−足の先)等が挙げられる。また、本実施形態では、検出対象とするオブジェクトは人体として説明するが、本発明はこれに限らず、関節などの接続点により接続される複数の部位から構成され、それらの部位が同一カテゴリにおいて共通して存在する多関節物体でもよく、人体である必要はない。また、人体ではそれぞれの部位は隣接する接続点の間に存在するが、部位を接続点の周辺領域に存在するように構成してもよい。
図1は、本実施形態に関わる画像処理装置の概略ブロック図を示しており、図1(a)が画像処理装置100の機能構成を示す概略ブロック図である。図1(a)において、画像処理装置100は、記憶部101、学習部110、検出部120により構成される。学習部110は、学習データ取得部111、モデル学習部112、出力部113により構成される。また、検出部120は、検出データ取得部121、候補検出部122、高信頼パーツ選択部123、モデル再構築部124、パーツ検出部125により構成される。本実施形態の画像処理装置100によるオブジェクト検出処理の動作は、学習部110による学習処理と検出部120による検出処理に分けられる。この二つの処理は連続して行われる必要はなく、また一度学習処理を実行しておけば、検出処理のみを任意のタイミングで行うことも可能である。
図1(b)は、本実施形態に関わる画像処理装置100のハードウェア構成を示す概略ブロック図である。CPU(CentralProcessingUnit)1は、ROM(ReadOnlyMemory)3またはHD(ハードディスク)4に記憶されているプログラムに基づき処理を実行する。これによって、後述する画像処理装置100の機能及びフローチャートに係る処理が実現される。RAM(RandomAccessMemory)2は、CPU1がプログラムを実行する際に利用されるデータ等を記憶する。ROM3は、画像処理装置100が起動された際に読み込まれるブートプログラム等を記憶する。HD4は、本実施形態にかかるプログラム等を記憶する。なお、説明の簡略化のため省略してあるが、画像処理装置100は、撮影装置(カメラ)等の外部装置との通信等を司るインターフェースに関するハードウェアを有し、カメラにより撮影された画像を取り込み、HD4に記憶することができる。
図1(a)に戻り、学習部110が備える各機能部の詳細について説明する。学習データ取得部111は、学習データとして学習画像(正例画像群および負例画像群)と正例関心領域情報を取得する。正例画像群は人体(オブジェクト)が写った複数の画像から成る画像群、負例画像群は人体が写っていない画像群である。また、正例関心領域情報とは、各正例画像に対する検出対象となるオブジェクトに関する情報のことであり、本実施形態では正例画像内の人体の各パーツ領域を示すパーツ領域情報となる。
次に、モデル学習部112は、オブジェクト検出に用いるモデルとして1以上のモデルを生成、学習する。本実施形態では、モデル学習部112が生成するモデルとして非特許文献1に開示されたモデルを利用する。非特許文献1のモデルは、1つのオブジェクトがツリーモデルの組み合わせで表現され、ツリーのノードがオブジェクトの部分的な領域(部位)とその部位の姿勢(部分姿勢)とをモデル化したもの(パーツモデル)に対応する。本実施形態のモデル学習部112が生成するモデルも、ルートモデルとパーツモデルとから成り、ルートモデルは検出対象となるオブジェクト全体をモデル化したものである。パーツモデルは複数の矩形領域から成り、オブジェクトの部分領域をモデル化する。パーツモデルを生成する解像度は、ルートモデルの2倍の解像度に設定される。特徴量には、エッジ構成の特徴を用い、具体的には、非特許文献2に開示される、輝度勾配に基づいて抽出されるHOG特徴を利用する。オブジェクトの検出時には、パーツモデルごとに検出スコアを算出し、それらの総計スコアに基づいて検出を行う。スコアの算出には数1式で表される識別関数を利用する。
Figure 2017016593

ただし、数1式の第1項は学習によって得られるルートモデルおよびパーツモデルの重みベクトルFと画像から得られた特徴ベクトルφ(H,p)とから計算されるスコアを表す。以下の説明では、ルートモデルあるいはパーツモデルの重みベクトルFは、ルートフィルタあるいはパーツフィルタと称す。特徴ベクトルφ(H,p)は、各モデルに対応した解像度の画像内の矩形領域においてHOG特徴を走査順に連結して得られるベクトルである。なお、以下の説明では、ルートモデルに対応する矩形領域をルート領域、パーツモデルに対応する矩形領域をパーツ領域と称す。
特徴ベクトルφ(H,p)において、Hは非特許文献2に記載のHOG特徴ピラミッドを表す。pは以下の数2式で構成され、i=0の場合はルート矩形領域、i>0の場合はパーツ矩形領域を表す。なお、lはHOG特徴ピラミッドHの階層を表すインデクス、(x,y)はパーツ矩形領域pのl上での中心座標である。
=(x,y,l) ・・・数2式
数1式の第2項は、パーツモデルの位置変動に関するコスト関数に相当する。コスト関数は、パーツフィルタのルートフィルタに対する相対的な位置関係に基づいて定義されている。ここで、aおよびbは学習によって得られるコスト関数の係数である。また、x’とy’は、定義されるパーツ領域のルート領域に対する正規化した相対位置の変動を表し、数3式で定義される。
(x’,y’)=((x,y)−2(x,y)+v)/s ・・・数3式
ただし、(x,y)はルート境界矩形の中心座標、vはルートモデルの基準中心座標とパーツモデルの基準中心座標との相対的な位置関係を表す。後述するが、基準中心座標は学習時に隠れ変数として決定される。また、sはpに対応するパーツ領域のサイズである。なお、右辺の分子の第2項目の“2”は、ルートフィルタの座標スケールをパーツフィルタの座標スケールに合致させるための係数である。
モデル学習部112によるモデルの学習では、数1式を数4式で表現したときのβとzとを求める。
Figure 2017016593

ただし、
β=(F,...,F,a,b,...,a,b) ・・・数5式
Figure 2017016593

である。
ここで、zは学習によって同時に決定されるルートモデルおよびパーツモデルの基準配置(基準中心座標、基準スケール)を表す隠れ変数であり、以下の数7式で表される。
z=(p,...,p) ・・・数7式
最後に、モデル学習部112で生成したモデルは出力部113に渡される。そして、出力部113は学習したモデルを記憶部101に格納する。以上が、本実施形態の学習部110による学習処理である。
次に、検出部120によって、検出対象の画像からオブジェクトを検出する検出処理について説明する。図2は、本実施形態に関わる画像処理装置の検出処理を示すフローチャートである。ここでは、検出部120が備える各機能部の処理の詳細について、図2のフローチャートを参照しつつ説明する。
まず、ステップS201において、検出データ取得部121は、検出対象画像を取得する。次に、ステップS202において、候補検出部122は学習部110で生成、学習した1つあるいは複数のモデルを記憶部101から読込む。次に、ステップS203において、候補検出部122は、ステップS202で読込んだモデルを判別するためのモデルインデクスkを0に初期化する。そして、ステップS204において、候補検出部122は、モデルインデクスkを調べて全てのモデルに対する処理が完了したかを判定し、処理が未完了の場合は処理をステップS205に進め、処理が完了した場合は処理をステップS208に進める。
ステップS205では、候補検出部122は、ステップS202で読込んだモデルに基づき、非特許文献1に記載の手法により、検出スコアを算出して、オブジェクトを構成する各パーツについて、その候補の領域を複数検出する。このように、本実施形態の候補検出部122は、オブジェクトのパーツの候補領域を検出する第1の検出部として機能する。なお、本実施形態では、対象とするパーツの確からしさを示す検出スコアを算出する際、記憶部101より評価スコア算出器を読み出し、その評価スコア算出器のスコアも考慮する。
ここで、評価スコア算出器について説明する。本実施形態では、高信頼パーツを選択する際にそのパーツの信頼性を評価する指標の1つとして肌属性を利用するため、その肌属性に係るスコアを算出する算出器として、肌属性ごとの生成モデルに基づいて生成された肌属性識別器を用いる。本実施形態において、肌属性は肌種別、光源種別、反射強度の組み合わせとして表現する。ここでは肌種別として黒人、白人、黄色人種の3種類、光源種別として太陽光、蛍光灯、白熱灯、LEDの4種類、反射強度として陰なし、薄い影、濃い陰の3種類を考える。そのため、肌属性は合計で36種となる。肌属性識別器では、以下の数8式に従い、最尤推定により肌属性ごとにガウス分布を生成する。
Figure 2017016593

ただし、cは肌属性を区別するための肌属性インデクス、P(c)は肌属性cの事前確率、φ は肌属性cごとに与えられた肌属性に関わる特徴量であり、ここではRGB値から成るベクトルである。また、μとΣはそれぞれ肌属性特徴量(RGB値から成るベクトル)の平均および分散共分散である。そして、本実施形態の評価スコアは、以下の数9式として表わされる。
Figure 2017016593

ここで、cは肌属性インデクス、pは着目パーツ領域(ここではインデクスiを持つものとする)、jはp内部のピクセルを表すインデクス、Mはp内部の総ピクセル数である。また、P(c)は肌属性cの事前確率、φ’ ijは着目パーツi内部のピクセルj上で算出された肌属性特徴量、P(φ’ ij|c)は肌属性特徴量φ ijの肌属性インデクスcに対する尤度である。本実施形態では、検出時の識別関数として以下の数10式を用いる。
Figure 2017016593

ここで、第1項のsigmoid(x)は、以下の数11式で表されるシグモイド関数である。
Figure 2017016593

また、wとwは以下の数12式を満たす重み配分係数である。
+w=1 ・・・数12式
すなわち、数10式では、肌属性を考慮しない値(第1項)と肌属性を考慮した値(第2項)とを正規化し、その重み付き和を計算することになる。この式では、肌属性の合致度に応じて検出スコアがかさ上げされる。そのため、肌属性の影響がないか、あるいは肌属性の影響が小さい場合には、非特許文献1と同様に、HOG特徴に基づいて検出スコアを算出することになる。ステップS205において、候補検出部122は、数10式の識別関数の出力値が予め定めた閾値以上となるパーツ構成を候補として検出する。一般的に、各パーツについてパーツ構成候補は複数検出される。なお、非特許文献1では検出した複数のパーツ構成候補に対してNMS(Non Maximum Supression)処理を行っているが、本実施形態では、複数検出したパーツ構成候補を後段の処理で利用するため、この処理を行わない。
続いて、ステップS206で、候補検出部122は、ステップS205で検出したパーツ構成候補を記憶部101に格納する。その後、ステップS207にて、モデルインデクスkのインクリメントを行う。
次に、ステップS208において、高信頼パーツ選択部123は高信頼パーツの選択を行う。本実施形態では、オブジェクトを構成するパーツごとに、ステップS205で検出された複数のパーツ構成候補の位置の変動を調べることで、高信頼パーツを選択する。具体的には、モデルごとに検出された複数のパーツ構成候補を用いて、各パーツのパーツ位置の平均および分散共分散行列を算出する。そして、分散共分散行列の所定の要素値が予め定めた閾値以下(第1の閾値以下)となる場合に、そのパーツを高信頼パーツとして選択し、複数のパーツ構成候補のうち検出スコアが最も高いパーツ構成候補をその高信頼パーツのパーツ領域とする。ここでは、パーツ位置をパーツ領域の重心とする。なお、高信頼パーツの選択手法としては様々考えられ、例えば、検出スコアが所定の閾値以上(第2の閾値以上)となるパーツ構成候補を有するパーツについては、高信頼パーツとして選択するようにしてもよい。その他の高信頼パーツの選択手法については後述する。また、候補検出部122は、高信頼パーツ以外のパーツを非高信頼パーツとして選択する。
次に、ステップS209とステップS210において、モデル再構築部124は、高信頼パーツを基準に非高信頼パーツの位置を変更して、非高信頼パーツを再配置する。これにより、モデル再構築部124は、オブジェクト検出用のモデルを再構築する。まず、ステップS209では、高信頼パーツ選択部123は、ステップS208で選択された高信頼パーツ、および非高信頼パーツを再配置する。
ここで、図3を用いて、モデル再構築部124によるステップS209の処理の詳細を説明する。図3は、モデル再構築部124により実行されるパーツの再配置処理を示すフローチャートである。まず、ステップS301では、パーツを再配置するための座標空間を再配置モデル空間として準備する。次に、ステップS302では、図2のステップS208で高信頼パーツ選択部123により選択された高信頼パーツに対し、パーツインデクスpを付与する。
次に、ステップS303において、pを0に初期化する。続いて、ステップS304において、高信頼パーツ(p=0)を再配置モデル空間の原点に仮配置する。その後、ステップS305で、パーツインデクスpをインクリメントする。ステップS306では、全ての高信頼パーツの仮配置が完了したかをチェックする。未完了の場合には処理をステップS307に処理を移し、完了した場合は処理をステップS309に移す。
ステップS307では、高信頼パーツ(p>0)について、高信頼パーツ(p=0)とステップS208で算出した高信頼パーツ(p>0)との平均位置との差分ベクトルを算出し、再配置モデル空間上で原点を差分ベクトルの始点とした位置に仮配置を行う。ステップS308では、パーツインデクスpのインクリメントを行う。そして、ステップS309で、高信頼パーツのパーツインデクスpを0に初期化する。ステップS310では、全ての高信頼パーツに対する処理が完了したかをチェックする。未完了の場合は処理をステップS311に移し、完了した場合は処理をステップS313に移す。
ステップS311では、ステップS307で仮配置された高信頼パーツを利用して、非高信頼パーツを仮配置するためのデータ収集を行う。本実施形態では、まず、高信頼パーツpについて、ステップS208で高信頼パーツpの選択に用いたパーツ構成候補(複数)を準備する。次に、高信頼パーツpの各パーツ構成候補を調べ、高信頼パーツp(すなわち検出スコアが最も高いパーツ構成候補)とその他のパーツ構成候補p’とを特定し、高信頼パーツとパーツ構成候補p’との重複率を調べる。そして、データ収集対象には、高信頼パーツp(検出スコアが最も高いパーツ構成候補)も含め、重複率が所定の閾値以上(第4の閾値以上)となるパーツ構成候補p’をデータ収集対象として抽出する。なお、本実施形態では、重複率が0.5以上となるパーツ構成候補p’をデータ収集対象として抽出する。また、重複率の計算には、以下の数13式を用いる。
Ov=(R(p)∩R(p’))/(R(p)∪R(p’)) ・・・数13式
ただし、R(p)は着目高信頼パーツpのパーツ領域、R(p’)は着目高信頼パーツpに対して特定したパーツ構成候補p’のパーツ領域である。記号∩はR(p)とR(p’)とが重なる領域を示し、記号∪はR(p)とR(p’)の少なくともどちらかに含まれる領域を示す。
そして、データ収集対象として抽出したパーツ構成候補に対して、非高信頼パーツそれぞれについて位置の平均および分散共分散行列を算出する。ここでは、各非高信頼パーツについて、注目する非高信頼パーツのルート側に最も近い高信頼パーツからデータ収集対象として抽出したパーツ構成候補に対して位置の平均および分散共分散行列を算出する。
ステップS312では、パーツインデクスpのインクリメントを行う。ステップS313では、非高信頼パーツの仮配置を行う。本実施形態では、各非高信頼パーツをステップS311で算出した分散共分散行列の要素値の最大値が最小となる場合の平均位置に仮配置する。ここで、モデルが複数ある場合、パーツ構成候補はモデルごとに抽出されるので、同一の非高信頼パーツが複数仮配置される可能性がある。もし複数仮配置された場合は、分散共分散行列の要素値が最も小さい仮配置を選択する。
ステップS314では、再配置モデル空間上に仮配置したパーツの本配置を行う。まず、ステップS307で仮配置した高信頼パーツとステップS313で仮配置した非高信頼パーツを全て含むように外接矩形を設置する。次に、再配置モデル空間の原点を、x座標およびy座標の両方が最小値となる外接矩形の頂点に移動する。このときの各パーツの座標を本配置したパーツ座標とする。その後、必要に応じて本配置したパーツ座標系をステップS202で読み込んだモデルの座標系に合致させる。座標系の合致とは、ピクセル座標からHOG特徴算出時のモデル座標への変換などである。以上の処理により、ステップS209におけるパーツの再配置が行われる。
図2のフローチャートに戻り、ステップS210では、モデル再構築部124が、ステップS209で再配置したパーツを基にモデルパラメータを再設定する。再設定するモデルパラメータは、数1式〜数3式で規定されるパーツモデルの重みベクトルF、矩形領域p、コスト関数の係数a及びb、ルートモデルの基準中心座標とパーツモデルの基準中心座標との相対的な位置関係を表す2次元ベクトルvである。これらの値として、高信頼パーツあるいは非高信頼パーツごとに、そのパーツを抽出したモデルの値を再設定する。
最後に、ステップS211において、パーツ検出部125は、本発明の第2の検出部として機能し、ステップS209およびステップS210で再構築したモデルを用い、ステップS205と同様にしてオブジェクトを構成するパーツ構成候補を複数検出する。ここでは、パーツ検出部125は、評価スコア算出器の算出スコアを考慮する。そして、パーツ検出部125は、NMS(Non Maximum Supression)処理を行い、最終的なパーツの位置を検出する。以上で、本実施形態に関わる検出処理が終了する。
図8は、上述した本実施形態に関わるオブジェクトの検出処理を概念的に説明する図である。図8(a)は、検出データ取得部121がステップS201で取得する検出対象画像の一例を示すものである。この画像には検出すべき対象物体(人体)が含まれ、ここでは、右足を挙げたポーズをとっている。次に、図8(b)は、候補検出部122が予め学習されたモデルを用いて検出されるパーツ構成候補に対応する各パーツ領域を矩形で示しており、矩形内に記載される数字は各パーツのパーツインデクスである。上述したとおり、候補検出部122は通常、各パーツに対応してパーツ構成候補を複数検出するが、ここでは図面の複雑化を避けるために、各パーツのパーツ領域のみを図示している。
次に、図8(c)は、高信頼パーツ選択部123が、各パーツについて検出されたパーツ構成候補の位置変動に基づいて高信頼パーツを選択する例を示すものである。ここでは、p=16,17のインデクスで示されるパーツが高信頼パーツとして選択されている例を示している。本実施形態では、パーツ構成候補の検出スコアは肌属性の合致度に応じてスコアがかさ上げされるため、高信頼パーツとして選択されやすい。ここでも、左上腕の肌の露出したところが高信頼パーツとして選択されている。
図8(d)は、モデル再構築部124により再構築されたモデルを用いて、パーツ検出部125が最終的な対象物体(人体)のパーツ(部位)の位置を検出した結果を示すものである。例えば、片足をあげてポーズする学習画像が少ない場合、図8(b)に示すように、両足それぞれに対応するパーツの位置を正確に検出出来ない場合がある。これに対して、本実施形態によれば、高信頼パーツに基づいてモデルを再構築し、パーツ位置を検出するようにしているので、図8(d)に示すように各パーツの位置を精度よく検出することができるようになる。
以上のように、本実施形態では、まず、学習部110により1以上のモデルを予め生成、学習する。検出部120は、学習したモデルを用いて、対象物体のパーツ(人体の部位)の候補となる候補領域(パーツ構成候補)を検出する。そして、対象物体のパーツの中から、エッジ構成(HOG特徴)、肌属性の評価の観点から相対的に信頼性が高いと判断されるパーツを高信頼パーツ(第1のパーツ)として選択する。より具体的には、各パーツについて、1以上のモデルを用い、エッジ構成(HOG特徴)、肌属性の評価スコアに基づき検出される複数のパーツ領域の候補の位置の変動が少ないものを高信頼パーツとして選択する。
その後、信頼性が相対的に低い非高信頼パーツ(第2のパーツ)について、高信頼パーツを基準に再配置する。これにより、対象物体を検出するための検出用モデルを再構築する。最後に再構築した検出用モデルに基づいて検出対象の画像において人体パーツの領域を検出することで人体の姿勢を推定する。そのため、本実施形態では、学習画像に含まれないポーズでも推定精度が向上するため、対象物体のパーツの位置を精度よく検出することができる。
[第1の実施形態における変形例]
本実施形態では、画像処理装置100において、学習部110と検出部120との両方を備えるように構成したが、学習部110と検出部120とを別々の画像処理装置として構成してもよい。ただし、この場合は学習部110と検出部120との両方が記憶部101にアクセスできるよう構成する必要がある。
また、本実施形態では肌属性特徴量としてRGB値から成るベクトルを用いたが、肌属性を表現できれば必ずしもRGB値である必要はない。YCbCrやYUVといった他の色空間から得られる値で肌属性特徴量を収集するように構成してもよい。あるいは、肌属性を表現できれば輝度情報や赤外線情報など色空間以外の情報を用いてもよい。
また、本実施形態では、ステップS205で検出したパーツ構成候補を、ステップS206において記憶部101に格納するよう構成した。しかし、ステップS205で検出したパーツ構成候補を後段の処理で参照できるようにすれば記憶部101に格納する必要はない。例えば、メモリ上に保持しておくように構成してもよい。
また、本実施形態では、パーツ領域の候補を検出する際、数10式では肌属性の合致度に応じてスコアがかさ上げされるため、選択された高信頼パーツでは肌が露出している可能性が高い。そのため、高信頼パーツを肌が露出したパーツとして検出し、他の処理に用いるようにしてもよい。
また、本実施形態では、モデル学習部112および候補検出部122による処理に非特許文献1の手法を用いたが、変形パーツモデルに基づくオブジェクト検出方式であれば、他の従来方式を用いてもよい。例えば、非特許文献3に開示される方法を利用可能である。なお、非特許文献3におけるパーツ構成は木構造を採用している。そのため、ステップS313では、木構造のパーツ構成上で隣接する高信頼パーツ間に位置する非高信頼パーツの一部を線形補間等の補間により仮配置するように構成してもよい。全ての非高信頼パーツを線形補間する場合は、ステップS309からステップS312の処理は省略可能である。
また、上述のステップS208では、各パーツの確からしさを評価する指標としてエッジ構成と肌属性を用いてパーツ構成候補を検出し、各パーツにおけるパーツ構成候補の位置変動を調べることで高信頼パーツを選択するようにした。しかし、高信頼パーツを選択する手法としては、他にも様々な方法を用いることが可能である。例えば、検出対象の画像を複数のセグメントに分割し、各セグメントの特徴量を抽出する手段を設けて、そのセグメンテーション情報を評価指標として利用するようにしてもよい。例えば、まず、非特許文献5に開示された手法でセグメンテーションを行い、パーツと重なるセグメントから色特徴としてRGBヒストグラムを算出してベクトル表現する。そして、ベクトルの平均と分散共分散行列を算出し、分散共分散行列の所定の要素値が予め定めた閾値以上(第3の閾値以上)になる場合に、そのパーツを高信頼パーツとして選択することもできる。
また、別の方法として、赤外線情報を利用してよい。例えば、赤外線強度の高い領域と重なるパーツは肌が露出している領域と重なるものと判断し、高信頼パーツとして選択するようにしてもよい。
また、別の方法として、パーツ領域内のテクスチャの類似性を利用してもよい。例えば、様々なスケールでパーツ領域内の輝度パターンをベクトル化して、平均と分散共分散行列を算出し、分散共分散行列の所定の要素値が予め定めた閾値以上になる場合にそのパーツを高信頼パーツとして選択することもできる。あるいは、既存技術を使ってテクスチャを表現する特徴量を算出し、特徴量同士の類似性に基づいて高信頼パーツを選択するようにしてもよい。
また、別の方法として、特定領域に対する所定の評価指標の観測確率を計測するようにしてもよい。具体的な観測確率として、例えば、評価指標としてパーツ構成候補内の対応するパーツ位置を用いる場合、まず、パーツ別にラベル番号を設定する。次に、S205で検出したパーツ構成候補それぞれについて各パーツの内部領域内の画素にそのラベル番号を設定する。画素ごとに各ラベル番号の設定回数をカウントし、パーツ構成候補数に対するカウント数の割合が所定の閾値を超えた画素を高信頼パーツの領域として抽出する。特定の高信頼パーツの領域が複数ある場合には、例えば最も大きい領域を採用するようにすればよい。
また、別の方法として、特定領域に対する各パーツへの投票値を計測するようにしてもよい。例えば、評価指標としてパーツ構成候補内の対応するパーツ位置を用いる場合、まず、画像を所定サイズの矩形にグリッド分割するとともにパーツ別のラベル番号を設定する。次に、S205で検出したパーツ構成候補それぞれについて各パーツが重なるグリッドごとに、そのパーツのラベル番号に対して重なり割合を投票(積算)していく。最後に、各グリッドについてラベル番号ごとに積算された投票値を調べ、投票値が最大かつ所定の閾値以上となった場合に、そのグリッドはそのラベル番号のパーツに属するものと判定する。
また、別の方法として、特定領域に対する所定の評価指標の信頼度を計測するようにしてもよい。例えば、評価指標としてパーツ位置とパーツ領域内部のRGBヒストグラムをベクトル化した色特徴とし、その信頼度としてパーツ位置の変動に加えてパーツ別の色特徴の尤度を用いることができる。この場合は、予めパーツ別に色特徴について生成モデルを学習しておく。そして、ステップS208では、まず、S205で検出したパーツ構成候補それぞれについてパーツごとにパーツ領域から色特徴を生成し、生成した色特徴と学習したモデルとを用いて色特徴の尤度を算出する。尤度の平均が所定の閾値以上となり、かつパーツ位置から算出した分散共分散行列の所定の要素値が予め定めた閾値以下となるパーツが存在した場合、そのパーツを高信頼パーツとして選択する。
また、別の方法として、パーツ間の相対的な距離を評価指標として、距離の変動を調べることで高信頼パーツを選択するようにしてもよい。例えば、パーツ間の相対的な距離の平均と分散とを算出し、分散が予め定めた閾値以下となる場合に、そのパーツを高信頼パーツとして選択することができる。
また、別の方法として、頭部や上腕部等に相当する特定パーツの特定姿勢における検出器を予め用意しておき、そのパーツ検出器の出力が所定の閾値以上のときに、そのパーツを高信頼パーツとしてもよい。この構成の詳細については、第2の実施形態として詳細に説明する。なお、この構成を採用する場合には、ステップS209で非高信頼パーツを配置する際、左右対称のパーツに関して、高信頼パーツの一部の左右属性を対象軸に反転して別途仮配置するようにしてもよい。例えば、高信頼パーツが右前腕領域に相当するパーツとして仮配置された場合に、左前腕領域に相当するパーツとしても別途仮配置するように構成する。これにより、仮に左右属性を間違えて仮配置した場合でも、正しいモデルが再構築される可能性を高められる。
また、別の方法として、ステップS205で検出したパーツ構成候補から識別関数の出力値を基準に高信頼パーツを選択するようにしてもよい。例えば、S205で検出したパーツ構成候補についてパーツ別にスコア分布を作成し、スコア分布の標準偏差σが3倍以上、かつ最大値となるスコアを持つパーツを高信頼パーツとして選択する方法がある。ここで、パーツ別のスコアは、例えば、数10式に倣って以下の数13式のように定義すればよい。ただし、iは着目しているパーツのインデクスである。
Figure 2017016593

[第2の実施形態]
次に、本発明の第2の実施形態を説明する。上述の第1の実施形態では、検出したパーツのそれぞれについて、複数の評価指標に基づき、誤検出の可能性が低いと判断されるパーツを高信頼パーツとして選択するように構成した。本実施形態では、パーツの一部の検出に専用の検出器を用いることにより、高信頼パーツを選択する構成について説明する。なお、第1の実施形態で既に説明した構成については同一の符号を付し、その説明を省略する。
図4は、本実施形態に関わる画像処理装置100の概略ブロック図である。同図において、本実施形態の画像処理装置100が、第1の実施形態と異なる点は、特定パーツ検出部421が追加されていることである。本実施形態の画像処理装置100の処理の詳細については、図5を用いて説明する。
図5は、本実施形態におけるオブジェクトの検出処理を示すフローチャートである。ステップS501において、検出データ取得部121は、第1の実施形態1と同様に検出対象画像を取得する。そして、検出データ取得部121は、取得した検出対象画像を特定パーツ検出部421に渡す。そして、候補検出部122により実行されるステップS202の処理およびそれ以降の処理と、特定パーツ検出部421により実行されるステップS502の処理とが並行して実行される。ここでは、ステップS502の処理をステップS202からステップS503の前までの処理と並行して行うようにしているが、ステップS202からステップS503の前までの処理を行った後、ステップS502の処理を行うようにしてもよい。なお、図5に示すステップS202からステップS207までの処理は、第1の実施形態と同じ処理である。
ステップS502では、特定パーツ検出部421が予め決められている特定のパーツについて専用の検出器を用いて検出する。本実施形態では、顔に相当するパーツを既存の顔検出器を用いて検出する。顔検出器は様々な方法が提案されているが、ここでは非特許文献4の方法を用いる。
次に、ステップS503において、高信頼パーツ選択部123は、顔に相当するパーツとして、ステップS502において最も信頼度の高い検出結果を高信頼パーツとして選択する。また更に、第1の実施形態と同様にして、高信頼パーツを選択する。これ以降の処理は、第1の実施形態と同様である。
なお、上述の説明では、ステップS503において、ステップS502の検出結果の中から最も信頼度の高い検出結果を高信頼パーツとして選択するように構成したが、ステップS502の検出結果を評価指標の一部として用いるようにしてもよい。例えば、ステップS205と同様にして、ステップS502の検出結果を評価指標の一部とした識別関数を定義し、その識別関数の出力値が予め定めた閾値以上になったときに高信頼パーツとして選択するよう構成する。その識別関数としては、例えば以下の数14式を用いることができる。
Figure 2017016593

ただし、S(p)はステップS502の顔検出器から検出結果として出力される数値、pは検出結果として出力される領域に対応する着目パーツ領域(ここではインデクスiを持つものとする)である。なお、pの選択には上述の数13式を用い、顔検出器が検出結果として出力する領域と最も重複率の高いパーツ領域を選択する。また、w、w、wは数16式を満たす重み配分係数である。
+w+w=1 ・・・数16式
以上のように、本実施形態では、第1の実施形態と同様にして高信頼パーツを選択するのに加えて、一部の特定パーツ(本実施形態の場合、顔)の検出に専用の検出器を用い、そのパーツを高信頼パーツとして選択する。これにより、高信頼パーツをさらに正確に選択できるようになり、オブジェクトのパーツ位置を精度よく検出することが可能になる。
[第3の実施形態]
次に、本発明の第3の実施形態について説明する。本実施形態は、パーツ構成候補の検出、高信頼パーツの選択、あるいはモデルの再構築において、パーツ間の制約を考慮するものである。なお、第1、第2の実施形態で既に説明した構成については同一の符号を付し、その説明は省略する。
本実施形態に関わる画像処理装置100の構成は、第1の実施形態で説明した図1と同様であるため説明は省略する。ただし、学習部110による学習処理は、第1の実施形態と異なっている。本実施形態のモデル学習部112は、第1の実施形態で説明した学習に加え、パーツ同士の共起を算出する。本実施形態では、共起の算出には非特許文献3に記載の方法を用いる。すなわち、パーツの角度を表すタイプt∈{1,・・・,T}を導入し、隣接するパーツiとパーツj間で角度の共起に関するスコアを以下の数17式で表したときのb tiおよびbij ti,tjを算出する。
Figure 2017016593

ここで、b tiはパーツiがタイプtとなる度合いを数値化したものであり、bij ti,tjはパーツiがタイプt、パーツjがタイプtとなる度合いを数値化したものである。また、VとEはパーツ構造をグラフ構造と捉えたときに、グラフのノード(V)とエッジ(E)に相当することを示す。b tiおよびbij ti,tjは、学習部110の学習データ取得部111が取得する正例関心領域情報として与えられたタイプ情報から統計的に算出される。出力部113は、モデル学習部112が第1の実施形態と同様にして学習したモデルと、上述のようにして算出したb tiおよびbij ti,tjを記憶部101に格納する。
次に、画像処理装置100の検出部120の処理の詳細について、図6を用いて説明する。図6は、本実施形態におけるオブジェクトの検出処理を示すフローチャートである。図6のステップ番号が図2に示した第1の実施形態と同じステップについては、第1の実施形態と同様の処理であるため説明を省略する。本実施形態の検出処理において、ステップS601では、検出データ取得部121が記憶部101に格納された1以上のモデルと、b ti及びbij ti,tjとを読込み、取得する。
ステップS602の処理は、第1の実施形態のステップS205とほぼ同様の処理であるが、本実施形態では評価指標としてパーツ間の共起を追加する。すなわち、検出時の識別関数として数18式を用いる。
Figure 2017016593

次に、ステップS603において、高信頼パーツ選択部123は高信頼パーツの選択を行う。ステップS603における処理は、第1の実施形態のステップS208とほぼ同様の処理であるが、評価指標としてパーツ間の共起も考慮する。すなわち、隣接パーツとなるパーツiのタイプtとパーツjのタイプtとの組み合わせに投票を行い、各組み合わせに対して投票確率を算出する。そして、高信頼パーツ選択部123は、隣接パーツの分散共分散行列の所定の要素値が予め定めた閾値以下となり、かつ投票確率が所定の閾値以上となった場合に、その隣接パーツそれぞれを高信頼パーツとして選択する。
次に、ステップS604とステップS210において、モデル再構築部124は、オブジェクト検出用のモデルを再構築する。ステップS604の処理は、第1の実施形態のステップS209とほぼ同じ処理であるが、以下の点で第1の実施形態と異なる。第1の実施形態のステップS209では、同一の非高信頼パーツが複数仮配置された場合に、分散共分散行列の要素値が最も小さい仮配置を選択するように処理を行った。これに対し、本実施形態のステップS604では、非高信頼パーツが複数仮配置された場合、隣接するパーツ間の共起の合計が最も大きくなる仮配置を選択する。
ステップS605では、パーツ検出部125が、ステップS604およびステップS210で再構築したモデルを用いて、ステップS602と同様にオブジェクトを構成するパーツ構成候補を複数検出する。ただし、ここでは評価スコア算出器のスコアを考慮するとともに、NMS(Non Maximum Supression)処理も行う。以上により、本実施形態の検出処理が完了する。
なお、上述の説明では、候補検出部122、高信頼パーツ選択部123、モデル再構築部124の全ての処理において共起を考慮するようにしたが、一部の機能部の処理のみで共起を考慮するよう構成してもよい。また、本実施形態では、パーツ間の制約を考慮する方法として共起を用いる方法を採用したが、他の方法でパーツ間の制約を考慮するようにしてもよい。さらに、パーツ同士の共起の表現方法としては、非特許文献3に記載された方法に限られず、他の共起の表現方法を用いてもよい。
以上のように、本実施形態では、パーツ構成候補の検出、高信頼パーツの選択、あるいはモデルの再構築において、パーツ間の制約を考慮するようにしたので、オブジェクトのパーツ位置を精度よく検出することが可能になる。
[第4の実施形態]
次に、本発明の第4の実施形態について説明する。本実施形態は、反復的に高信頼パーツを選択することでモデルを再構築するものである。なお、第1〜第3の実施形態において既に説明した構成については同一の符号を付し、その説明を省略する。
本実施形態の画像処理装置100の概略ブロック図は、図1に示した第1の実施形態と同様であるため説明を省略する。ここで、本実施形態の画像処理装置100による検出処理について、図7を用いて説明する。図7は、本実施形態におけるオブジェクトの検出処理を示すフローチャートである。図7のステップ番号が図2に示した第1の実施形態と同じステップについては、第1の実施形態と同様の処理であるため説明を省略する。
ステップS701では、高信頼パーツ選択部123が高信頼パーツの選択を行う。第1の実施形態と異なるのは、高信頼パーツであると既に特定されたパーツ以外のパーツについて、改めて高信頼パーツか否かの選択を行う点にある。高信頼パーツの選択方法自体は、第1の実施形態で示した方法と同様である。
次に、ステップS702において、モデル再構築部124は、ステップS701で新たに選択された高信頼パーツと前回選択された高信頼パーツに差分があるか否かを判定する。差分がある場合は処理をステップS209に移し、差分がない、もしくは所定数以下となる場合は処理をステップS211に移す。
ステップS903における処理は、第1の実施形態のステップS210における処理とほぼ同様であり、第1の実施形態同様にモデルパラメータの再設定を行う。第1の実施形態と異なる点は、本実施形態ではモデルパラメータの再設定が完了したら、ステップS203に処理を移す点にある。
最後に、ステップS211で、パーツ検出部125は、第1の実施形態と同様にステップS209およびS903で再構築したモデルを用い、オブジェクトを構成するパーツ構成候補を複数検出する。
なお、本実施形態では、高信頼パーツ選択部123は、既に高信頼パーツと選択したパーツ以外のパーツについてのみ、改めて高信頼パーツか否かの選択を行うように構成した。しかし、既に高信頼パーツと選択したか否かに関わらず、全てのパーツを対象にして高信頼パーツの選択を行うようにしてもよい。
以上のように、本実施形態では、選択される高信頼パーツの差異が所定値以下に収まるまで、繰り返し高信頼パーツを選択することによりモデルを再構築するようにしたので、オブジェクトのパーツ位置を精度よく検出することが可能になる。
[その他の実施形態]
本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
100 画像処理装置
101 記憶部
110 学習部
111 学習データ取得部
112 モデル学習部
113 出力部
120 検出部
121 検出データ取得部
122 候補検出部
123 高信頼パーツ選択部
124 モデル再構築部
125 パーツ検出部

Claims (20)

  1. 複数のパーツにより構成される対象物体を含む画像を取得する取得手段と、
    予め学習されたモデルを用いて、前記対象物体の複数のパーツそれぞれの候補領域を検出する第1の検出手段と、
    前記第1の検出手段により検出された候補領域に基づいて、前記複数のパーツから相対的に信頼性が高い第1のパーツと相対的に信頼性の低い第2のパーツとを選択する選択手段と、
    前記選択手段により選択された第1のパーツに基づいて前記第2のパーツの位置を決定することにより、前記モデルを再構築する再構築手段と、
    前記再構築手段により再構築されたモデルを用いて、前記対象物体の複数のパーツの位置を検出する第2の検出手段と、
    を有することを特徴とする画像処理装置。
  2. 前記選択手段は、前記複数のパーツそれぞれについて検出された候補領域の位置の変動に基づいて、前記第1のパーツと前記第2のパーツとを選択することを特徴とする請求項1に記載の画像処理装置。
  3. 前記選択手段は、前記複数のパーツそれぞれについて検出された候補領域の分散共分散行列を算出し、当該分散共分散行列の所定の要素値が第1の閾値以下となるパーツを第1のパーツとして選択することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第1の検出手段は、前記候補領域の確からしさを示すスコアを算出し、
    前記選択手段は、前記スコアが第2の閾値以上の候補領域を含むパーツを前記第1のパーツとして選択することを特徴とする請求項1に記載の画像処理装置。
  5. 前記画像を複数のセグメントに分割し、分割したセグメントの特徴量を抽出する抽出手段を更に有し、
    前記選択手段は、前記抽出した特徴量の分散共分散行列の所定の要素値が第3の閾値以上となるパーツを前記第1のパーツとして選択することを特徴とする請求項1に記載の画像処理装置。
  6. 前記抽出手段は、前記特徴量としてRGBヒストグラムを抽出することを特徴する請求項5に記載の画像処理装置。
  7. 前記再構築手段は、前記第1のパーツについて検出された前記候補領域のうちの所定の候補領域に対する位置の平均および分散共分散行列に基づいて、前記第2のパーツの位置を決定することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記第1の検出手段は、前記候補領域の確からしさを示すスコアを算出し、
    前記所定の候補領域は、前記第1のパーツについて検出された前記候補領域のうちスコアが最も高い候補領域と、当該候補領域との重複率が第4の閾値以上の候補領域とからなることを特徴とする請求項7に記載の画像処理装置。
  9. 前記再構築手段は、前記第1のパーツに基づく補間により前記第2のパーツの位置を決定することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  10. 前記再構築手段は、前記第1のパーツと左右対称の関係にある前記第2のパーツについて、当該第1のパーツを対象軸に対して反転させることにより前記第2のパーツの位置を決定することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  11. 前記第1の検出手段は、特定のパーツの領域を検出する検出器を用いて前記特定のパーツの領域を検出し、
    前記選択手段は、前記検出器を用いて検出された前記特定のパーツを前記第1のパーツとして選択することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12. 前記特定のパーツは人体の顔であることを特徴とする請求項11に記載の画像処理装置。
  13. 前記第1の検出手段、前記選択手段、前記再構築手段のうち少なくとも1つの手段は、前記複数のパーツにおける制約に基づいて処理を実行することを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
  14. 前記複数のパーツにおける制約は、前記パーツ同士の共起により表現されることを特徴とする請求項13に記載の画像処理装置。
  15. 前記選択手段により選択される前記第1のパーツの差異が所定数以下となるまで、前記第1の検出手段、前記選択手段、前記再構築手段、前記第2の検出手段により処理を繰り返すことを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
  16. 学習データを用いて、前記モデルを予め学習するための学習手段を更に有することを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。
  17. 前記対象物体は1以上の接続点を持つ多関節物体であり、前記パーツは隣接する前記接続点の間に存在することを特徴とする請求項1から16のいずれか1項に記載の画像処理装置。
  18. 前記対象物体は人体であり、前記パーツは前記人体の部位であることを特徴とする請求項1から17のいずれか1項に記載の画像処理装置。
  19. 複数のパーツにより構成される対象物体を含む画像を取得するステップと、
    予め学習されたモデルを用いて、前記対象物体の複数のパーツそれぞれの候補領域を検出するステップと、
    前記検出された候補領域に基づいて、前記複数のパーツから相対的に信頼性が高い第1のパーツと相対的に信頼性の低い第2のパーツとを選択するステップと、
    前記選択された第1のパーツに基づいて前記第2のパーツの位置を決定することにより、前記モデルを再構築するステップと、
    前記再構築されたモデルを用いて、前記対象物体の複数のパーツの位置を検出するステップと、
    を有することを特徴とする画像処理方法。
  20. コンピュータを、請求項1から18のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2015135680A 2015-07-06 2015-07-06 画像処理装置、画像処理方法、及びプログラム Expired - Fee Related JP6639123B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015135680A JP6639123B2 (ja) 2015-07-06 2015-07-06 画像処理装置、画像処理方法、及びプログラム
US15/194,304 US10216979B2 (en) 2015-07-06 2016-06-27 Image processing apparatus, image processing method, and storage medium to detect parts of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015135680A JP6639123B2 (ja) 2015-07-06 2015-07-06 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2017016593A true JP2017016593A (ja) 2017-01-19
JP2017016593A5 JP2017016593A5 (ja) 2018-08-16
JP6639123B2 JP6639123B2 (ja) 2020-02-05

Family

ID=57731264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015135680A Expired - Fee Related JP6639123B2 (ja) 2015-07-06 2015-07-06 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10216979B2 (ja)
JP (1) JP6639123B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200045884A (ko) * 2018-10-23 2020-05-06 주식회사 케이티 볼류메트릭 비디오 생성 방법, 장치 및 컴퓨터 판독가능 매체
US10868957B2 (en) 2018-10-18 2020-12-15 Samsung Electronics Co., Ltd. Apparatus and method for processing image to reconstruct image
WO2021229627A1 (ja) * 2020-05-11 2021-11-18 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
WO2022168441A1 (ja) * 2021-02-05 2022-08-11 ソニーグループ株式会社 推論装置、推論方法およびプログラム
WO2022168442A1 (ja) * 2021-02-05 2022-08-11 ソニーグループ株式会社 推論装置、推論方法およびプログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6126437B2 (ja) 2013-03-29 2017-05-10 キヤノン株式会社 画像処理装置および画像処理方法
JP6639123B2 (ja) * 2015-07-06 2020-02-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6977624B2 (ja) * 2018-03-07 2021-12-08 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム
KR102654003B1 (ko) * 2018-12-21 2024-04-04 주식회사 히타치하이테크 화상 인식 장치 및 방법
JP7263074B2 (ja) * 2019-03-22 2023-04-24 キヤノン株式会社 情報処理装置、及びその制御方法、プログラム、記憶媒体
CN109993742B (zh) * 2019-04-04 2020-03-17 哈尔滨工业大学 基于对角导数算子的桥梁裂缝快速识别方法
CN110245662B (zh) * 2019-06-18 2021-08-10 腾讯科技(深圳)有限公司 检测模型训练方法、装置、计算机设备和存储介质
WO2021054217A1 (ja) * 2019-09-20 2021-03-25 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7377078B2 (ja) * 2019-11-21 2023-11-09 キヤノン株式会社 画像処理装置および画像処理方法、ならびに撮像装置
CN111582177A (zh) * 2020-05-09 2020-08-25 北京爱笔科技有限公司 一种图像检测方法和相关装置
CN112633275B (zh) * 2020-12-22 2023-07-18 航天信息股份有限公司 一种基于深度学习的多票据混拍图像校正方法及系统
CN114495291B (zh) * 2022-04-01 2022-07-12 杭州魔点科技有限公司 活体检测的方法、系统、电子装置和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015028702A (ja) * 2013-07-30 2015-02-12 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2015102913A (ja) * 2013-11-21 2015-06-04 キヤノン株式会社 姿勢推定装置及び姿勢推定方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070047790A1 (en) * 2005-08-30 2007-03-01 Agfa-Gevaert N.V. Method of Segmenting Anatomic Entities in Digital Medical Images
US8165359B2 (en) * 2005-08-30 2012-04-24 Agfa Healthcare N.V. Method of constructing gray value or geometric models of anatomic entity in medical image
JP4894747B2 (ja) 2007-12-19 2012-03-14 株式会社豊田中央研究所 部分領域検出装置、対象物識別装置、及びプログラム
US9754154B2 (en) * 2013-02-15 2017-09-05 Microsoft Technology Licensing, Llc Identification using depth-based head-detection data
US9955140B2 (en) * 2015-03-11 2018-04-24 Microsoft Technology Licensing, Llc Distinguishing foreground and background with inframed imaging
JP6639123B2 (ja) * 2015-07-06 2020-02-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US20170213081A1 (en) * 2015-11-19 2017-07-27 Intelli-Vision Methods and systems for automatically and accurately detecting human bodies in videos and/or images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015028702A (ja) * 2013-07-30 2015-02-12 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2015102913A (ja) * 2013-11-21 2015-06-04 キヤノン株式会社 姿勢推定装置及び姿勢推定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山内悠嗣,外2名: "画像からの統計的学習手法に基づく人検出", 電子情報通信学会論文誌(J96−D)第9号, vol. 第J96-D巻, JPN6019016221, 1 September 2013 (2013-09-01), JP, pages 2017 - 2040, ISSN: 0004030566 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10868957B2 (en) 2018-10-18 2020-12-15 Samsung Electronics Co., Ltd. Apparatus and method for processing image to reconstruct image
KR20200045884A (ko) * 2018-10-23 2020-05-06 주식회사 케이티 볼류메트릭 비디오 생성 방법, 장치 및 컴퓨터 판독가능 매체
KR102187926B1 (ko) 2018-10-23 2020-12-07 주식회사 케이티 볼류메트릭 비디오 생성 방법, 장치 및 컴퓨터 판독가능 매체
WO2021229627A1 (ja) * 2020-05-11 2021-11-18 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
JPWO2021229627A1 (ja) * 2020-05-11 2021-11-18
JP7233610B2 (ja) 2020-05-11 2023-03-06 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
WO2022168441A1 (ja) * 2021-02-05 2022-08-11 ソニーグループ株式会社 推論装置、推論方法およびプログラム
WO2022168442A1 (ja) * 2021-02-05 2022-08-11 ソニーグループ株式会社 推論装置、推論方法およびプログラム

Also Published As

Publication number Publication date
US10216979B2 (en) 2019-02-26
US20170011523A1 (en) 2017-01-12
JP6639123B2 (ja) 2020-02-05

Similar Documents

Publication Publication Date Title
JP6639123B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN108052896B (zh) 基于卷积神经网络与支持向量机的人体行为识别方法
CN105740780B (zh) 人脸活体检测的方法和装置
CN105612554B (zh) 用于表征通过视频医疗设备获取的图像的方法
CN106295124B (zh) 多种图像检测技术综合分析基因子图相似概率量的方法
JP6032921B2 (ja) 物体検出装置及びその方法、プログラム
JP2018156668A (ja) 学習が強化されたアトラスベース自動輪郭抽出方法及び装置
US9639748B2 (en) Method for detecting persons using 1D depths and 2D texture
Morris A pyramid CNN for dense-leaves segmentation
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
CN111126240B (zh) 一种三通道特征融合人脸识别方法
JP2019109709A (ja) 画像処理装置、画像処理方法およびプログラム
JP2003517910A (ja) 心臓磁気共鳴画像において学習ベースでオブジェクトを検出する方法
JP2014505952A (ja) 画像品質の評価
EP1618532A2 (en) Method and system for determining object pose from images
JP2006252559A (ja) 画像において対象物の位置を特定する方法および対象物の画像を相異なる画像カテゴリに分類する方法
JP2012053756A (ja) 画像処理装置及び画像処理方法
KR20130048076A (ko) 얼굴 인식 장치 및 그 제어방법
Demirkus et al. Hierarchical temporal graphical model for head pose estimation and subsequent attribute classification in real-world videos
US20170053172A1 (en) Image processing apparatus, and image processing method
KR20130059212A (ko) 지역적 특징의 통계적 학습을 통한 강건한 얼굴인식방법
Li et al. Sublingual vein extraction algorithm based on hyperspectral tongue imaging technology
CN116664585B (zh) 基于深度学习的头皮健康状况检测方法及相关装置
JP6486084B2 (ja) 画像処理方法、画像処理装置、及びプログラム
CN111104857A (zh) 一种基于步态能量图的身份识别方法及系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191224

R151 Written notification of patent or utility model registration

Ref document number: 6639123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees