JP6977337B2 - 部位認識方法、装置、プログラム、及び撮像制御システム - Google Patents

部位認識方法、装置、プログラム、及び撮像制御システム Download PDF

Info

Publication number
JP6977337B2
JP6977337B2 JP2017130202A JP2017130202A JP6977337B2 JP 6977337 B2 JP6977337 B2 JP 6977337B2 JP 2017130202 A JP2017130202 A JP 2017130202A JP 2017130202 A JP2017130202 A JP 2017130202A JP 6977337 B2 JP6977337 B2 JP 6977337B2
Authority
JP
Japan
Prior art keywords
image
score
site
input image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017130202A
Other languages
English (en)
Other versions
JP2019012497A (ja
Inventor
聡 田辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017130202A priority Critical patent/JP6977337B2/ja
Priority to US16/008,089 priority patent/US10796186B2/en
Publication of JP2019012497A publication Critical patent/JP2019012497A/ja
Application granted granted Critical
Publication of JP6977337B2 publication Critical patent/JP6977337B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

開示の技術は、部位認識方法、部位認識装置、部位認識プログラム、及び撮像制御システムに関する。
カメラで撮像された画像から、対象物に含まれる部位を認識する技術が存在する。例えば、デジタル画像信号をフレーム単位での画像データとして記憶するバッファメモリ部と、その画像データから対象物(動画像領域)を抽出し、シルエット画像を生成する形状生成部とを備える時系列画像解析装置が提案されている。また、この装置は、シルエット画像を対象物の各部位の形状に対応する幾何学的なモデル形状や動作による形状変化の情報が記憶される対象物モデル部を備える。この装置は、さらに、形状生成部と対象物モデル部の出力から対象物の各部位の位置や傾斜角のパラメータを概念的に算出するパラメータ算出部と、算出されたパラメータ群全体をシルエット画像群に整合させる整合部と出力部とを備える。
また、物体を撮影した画像を取得する画像入力部と、姿勢ごとに複数の部位の配置を規定する姿勢情報を保持する姿勢情報データベースとを備える姿勢推定装置が提案されている。また、この装置は、画像における複数の部位の配置と、姿勢情報との間で、部位ごとの相関度を算出するフィッティング部を備える。また、この装置は、姿勢情報に含まれる部位のそれぞれの平行線成分に基づいて算出された、姿勢ごとに部位のそれぞれの位置の推定の難しさの度合いである推定難度を保持する難度情報テーブルを備える。さらに、この装置は、相関度に対して、推定難度に基づく重み付けを適用し、重み付けされた相関度に基づいて、物体の姿勢の推定を行う姿勢推定部を備える。
また、関節を有する物体の姿勢状態を高精度に推定することができる姿勢状態推定装置が提案されている。この装置は、関節により接続された複数の部位を有する物体を撮影した画像データに基づいて物体の姿勢状態の推定を行う装置である。また、この装置は、画像データから、少なくとも2つ以上の部位について、各部位が位置することの尤もらしさの分布を示す尤度マップを生成する尤度マップ生成部と、姿勢状態に予め対応付けられた尤度マップである学習尤度マップとを備える。さらに、この装置は、画像データに基づいて生成された尤度マップである推定尤度マップとの一致度が高いとき、その学習尤度マップと対応付けられた姿勢状態を、物体の姿勢状態として推定する姿勢状態推定部を備える。
特開平8−214289号公報 特開2013−125402号公報 国際公開第2012/077287号
例えば、カメラで撮像された画像から、人などの対象物について、頭、右手、左手等の各部位を認識する場合、画像から所定サイズの部分画像を切り出し、部位検出器などを利用して、その部分画像が対象の部位を示す画像である確率を算出することが考えられる。
しかし、画像内に対象物がどの程度の大きさで撮像されるかが不定の場合、切り出した部分画像に背景などの余分な物が写り込んでいたり、部位を認識するために必要な部分が含まれていなかったりする可能性がある。このような場合、部位の認識精度が低下する。
開示の技術は、一つの側面として、画像から精度良く部位を認識することを目的とする。
開示の技術は、一つの態様として、入力画像の各位置を基準に大きさが異なる複数の部分画像を切り出す。そして、各部分画像の大きさに対応し、かつ部分画像が予め定めた複数の部位の各々を示す画像である確率の各々を出力する部位検出器の各々を用いて、切り出した前記複数の部分画像の各々について出力される確率を統合したスコアを、前記各位置について算出する。さらに、第1の部位について算出された前記スコアを、該第1の部位に隣接する第2の部位との相対位置関係に基づいて修正し、修正された前記各位置についてのスコアに基づいて、前記入力画像中から前記複数の部位の各々を認識する。
開示の技術は、一つの側面として、画像から精度良く部位を認識することができる、という効果を有する。
第1実施形態に係る部位認識装置の機能ブロック図である。 部位認識装置の処理を説明するための図である。 複数のパッチ画像を切出す理由を説明するための図である。 部位検出器の一例を示す図である。 各部位のヒートマップの一例の概略図である。 部位間の相対位置関係に基づくスコアの修正を説明するための図である。 第1実施形態に係る部位認識装置として機能するコンピュータの概略構成を示すブロック図である。 部位認識処理の一例を示す図である。 比較手法1、比較手法2、及び本実施形態の手法の各々を用いて作成したヒートマップの一例を示す図である。 比較手法、本実施形態の手法1、及び本実施形態の手法2の各々により特定した部位毎の位置座標を、隣接部位間で接続して、人体画像に対応付けて画像化した一例を示す図である。 第2実施形態に係る撮像制御システムの適用場面を説明するための図である。 第2実施形態に係る撮像制御システムの概略構成を示すブロック図である。 第2実施形態に係る部位認識装置として機能するコンピュータの概略構成を示すブロック図である。 撮像制御処理の一例を示すフローチャートである。 誤認識される可能性がある入力画像の一例を示す図である。 全体画像内での対象物が小さい場合の一例を示す図である。
以下、図面を参照して開示の技術に係る実施形態の一例を詳細に説明する。
<第1実施形態>
図1に示すように、第1実施形態に係る部位認識装置10は、例えばカメラなどで撮像された動画像をフレーム毎に入力画像40として受け付け、入力画像40における対象物の各部位の位置座標を特定した認識結果42を出力する。本実施形態では、対象物が人であり、頭、右手、左手等の予め定めた人体の各パーツを認識対象の部位とする場合について説明する。
部位認識装置10は、機能部として、切出部12と、作成部14と、修正部16と、特定部18とを含む。作成部14は、開示の技術の算出部の一例である。また、部位認識装置10の所定の記憶領域には、複数の部位検出器30、及び部位間相対係数32が記憶される。以下、各機能部について詳述する。
切出部12は、入力画像40の各位置を基準に大きさが異なる複数のパッチ画像を切り出す。なお、パッチ画像は開示の技術の部分画像の一例である。例えば、切出部12は、入力画像40の各画素(x,y)を中心として、サイズ番号k(k=0,1,2,・・・,K(K−1はサイズの種類数))で識別される各サイズ(以下、「サイズk」という)の領域をパッチ画像として切り出す。
より具体的には、切出部12は、図2中のAに示すように、入力画像40の各画素を中心に、例えば、32×32画素、64×32画素、32×64画素、64×64画素の各サイズの領域をパッチ画像44の各々として切り出すことができる。なお、上記のサイズは一例であり、これらに限定されるものではなく、また、サイズの種類数も4種類に限定されず、2又は3種類でもよいし、5種類以上でもよい。
ここで、切出部12が、大きさが異なる複数のパッチ画像を切り出す理由について説明する。入力画像40内に対象物である人がどの程度の大きさで撮像されているかが不定の場合には、以下のような問題が生じる。例えば、図3に示すように、固定の1種類のサイズのパッチ画像として、入力画像40に対するサイズが比較的小さいパッチ画像144Aを切り出す場合と、比較的大きいパッチ画像144Bを切り出す場合とを考える。なお、図3の例は、認識対象部位が人の頭である場合を示している。
入力画像40における対象物を示す領域の割合が少ない場合、すなわち入力画像40内の対象物が小さい場合は、図3の上図に示すように、小さいサイズのパッチ画像144Aでは、頭を包含する適切な領域を切り出すことができる。一方、大きいサイズのパッチ画像144Bでは、頭以外の身体の部位や背景なども多く含む領域を切り出すことになる。この場合、パッチ画像144Bに含まれる頭以外の部位や背景の影響により、パッチ画像144Bが示す部位が頭であると認識されない可能性が高まる。
一方、入力画像40における対象物を示す領域の割合が多い場合、すなわち入力画像40内の対象物が大きい場合は、図3の下図に示すように、大きいサイズのパッチ画像144Bでは、頭を包含する適切な領域を切り出すことができる。一方、小さいサイズのパッチ画像144Aでは、頭の一部の領域しか切り出せない。この場合、パッチ画像144Aが頭であると認識するための情報が不足することになり、パッチ画像144Aが示す部位が頭であると認識されない可能性が高まる。
これを解決するために、例えば、入力画像40内で人が存在する領域を認識して、人が存在する領域のサイズを正規化する処理を加えることで、人の大きさを一定に保つということが考えられる。しかし、例えば、人が正面を向いている場合には精度良く人が存在する領域を認識可能であるが、人が横向きの場合や、障害物に体の一部が隠れてしまっている場合などは、人が存在する領域を精度良く認識することは困難である。
そこで、本実施形態の切出部12は、入力画像40内における対象物の大きさに依存せず、その対象物に含まれる認識対象の部位を適切に包含する領域をパッチ画像として切り出し可能とするために、大きさが異なる複数のパッチ画像44を切り出すものである。
作成部14は、切出部12により切り出された複数のパッチ画像44の各々を、図2のBに示すように、各パッチ画像44のサイズに対応した部位検出器30に入力する。すなわち、サイズkのパッチ画像44は、サイズkの画像を入力及び処理可能な部位検出器30に入力される。
部位検出器30は、入力されたパッチ画像44が予め定めた部位を示す画像である確率を出力する。本実施形態では、サイズkに対応した部位検出器30は、サイズkのパッチ画像44の各画素(x,y)について、各パッチ画像44が部位pを示す画像である確率P(p|(x,y,k))を出力する関数である。なお、x=0,1,2,・・・,xmax(xmaxはパッチ画像44のx座標の最大値)、y=0,1,2,・・・,ymax(ymaxはパッチ画像44のy座標の最大値)、k=0,1,2,・・・,K、p=右手、頭、・・・、左手である。例えば、部位検出器30として、図4に示すような、Convolution Neural Networks(CNN)を適用することができる。
作成部14は、入力画像40の画素(x,y)を中心に切り出された複数のパッチ画像44の各々を入力として、各パッチ画像44のサイズに対応した部位検出器30の各々から出力された確率の各々を統合したスコアを部位毎に算出する。作成部14は、例えば、k=0,1,2,・・・,Kの各P(p|(x,y,k))の和、最大値、平均等をスコアP(p|(x,y))として算出することができる。そして、作成部14は、図2のCに示すように、入力画像40の各画素位置に対応する画素に、入力画像40の画素(x,y)について算出されたスコアP(p|(x,y))を格納したヒートマップH(p)を部位p毎に作成する。部位pのヒートマップH(p)は、下記(1)式で定義される2次元ベクトルである。
Figure 0006977337
例えば、作成部14は、図5に示すように、各画素(x,y)にP(左手|(x,y))が格納されたヒートマップH(左手)、P(頭|(x,y))が格納されたH(頭)、・・・、P(右手|(x,y))が格納されたH(右手)を作成する。なお、各図に概略的に示すヒートマップH(p)では、各画素の濃度が濃いほど高いスコアが格納されていることを表す。
修正部16は、作成部14により作成された各部位pのヒートマップH(p)の各画素のスコアP(p|(x,y))を、隣接する部位間の相対位置関係の整合性が取れるように修正する(図2中のD)。以下では、スコア修正後の部位pのヒートマップH(p)をスコアマップS(p)という。
具体的には、修正部16は、部位pに隣接する部位qについての部位pに対する相対位置毎の存在確率を示す確率分布モデルを用いる。そして、修正部16は、部位pの位置に対する部位qの存在確率が高い位置における部位qのヒートマップH(q)のスコアが高いほど、部位pの位置に対応するスコアマップのスコアが高くなるように、ヒートマップの各スコアを修正する。
例えば、図6に示すように、右肘のヒートマップH(右肘)において、スコアが同等の画素Aと画素Bとが離れた位置に存在し、右肘の位置座標の候補が複数存在しているとする。このとき、部位間の相対的な距離が離れ過ぎていたり、近過ぎたりする場合は不適切であるから、右肘と隣接する右肩のヒートマップH(右肩)において、スコアが高い画素Cとの相対位置関係を考慮することで、右肘の位置座標の候補を絞ることができる。例えば、画素Cの位置が右肩である確率が高く、画素Cとの位置関係に基づくと、右肘の位置は、画素Bの位置より画素Aの位置である確率が高いとする。この場合には、修正部16は、図6の下図に示すように、右肘のヒートマップH(p)の画素Aのスコアが高くなるように修正して、スコアマップS(p)とする。
上記のような修正を実現するための一例について説明する。部位pのスコアマップS(p)を、例えば、混合ガウス分布を用いて、下記(2)式及び(3)式のように定義する。
Figure 0006977337
ここで、S(x,y)は、スコアマップS(p)の(x,y)成分、H(x,y)は、(1)式に示すヒートマップH(p)の(x,y)成分、A(p)は、部位pに隣接する部位qの集合(例えば、p=右肘の場合、q={右手、右肩})である。また、aq,g及びcq,g(q∈A(p))は、部位間相対係数32であり、混合ガウス分布の形状を定める係数である。混合ガウス分布の形状は、上述したように、部位pと部位qとの相対位置関係における部位qの存在確率に基づいて定める。なお、gは、混合ガウス分布に含まれるガウス分布の数である。また、(z,w)は、ヒートマップH(q)の画素のうち、(3)式にスコアを反映させる画素、ヒートマップH(p)の画素(x,y)に対応するヒートマップH(q)の画素を基準とした所定範囲に含まれる画素である。
なお、(3)式では、第1項と第2項との和をとっているが、第1項と第2項との積や重み付和により、スコアマップS(p)のスコアを算出してもよい。
特定部18は、修正部16で修正された各部位pのスコアマップS(p)に基づいて、入力画像40中から部位pを認識する。具体的には、特定部18は、スコアマップS(p)から、下記(4)式に示す、最大のスコアを持つ画素の位置座標(x,y)を、入力画像40における部位pの位置座標として特定する。
Figure 0006977337
特定部18は、部位p毎に特定した位置座標(x,y)の集合を認識結果42として出力する(図2中のE)。
部位認識装置10は、例えば図7に示すコンピュータ50で実現することができる。コンピュータ50は、Central Processing Unit(CPU)51と、一時記憶領域としてのメモリ52と、不揮発性の記憶部53とを備える。また、コンピュータ50は、表示装置、出力装置等の入出力装置が接続される入出力インターフェース(I/F)54と、記憶媒体59に対するデータの読み込み及び書き込みを制御するRead/Write(R/W)部55とを含む。また、コンピュータ50は、インターネット等のネットワークに接続される通信I/F56を備える。CPU51、メモリ52、記憶部53、入出力装置54、R/W部55、及び通信I/F56は、バス57を介して互いに接続される。
記憶部53は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を、部位認識装置10として機能させるための部位認識プログラム60が記憶される。部位認識プログラム60は、切出プロセス62と、作成プロセス64と、修正プロセス66と、特定プロセス68とを有する。また、記憶部53は、各サイズkのパッチ画像44に対応した複数の部位検出器30、及び部位間相対係数32が記憶される情報記憶領域80を有する。
CPU51は、部位認識プログラム60を記憶部53から読み出してメモリ52に展開し、部位認識プログラム60が有するプロセスを順次実行する。CPU51は、切出プロセス62を実行することで、図1に示す切出部12として動作する。また、CPU51は、作成プロセス64を実行することで、図1に示す作成部14として動作する。また、CPU51は、修正プロセス66を実行することで、図1に示す修正部16として動作する。また、CPU51は、特定プロセス68を実行することで、図1に示す特定部18として動作する。また、CPU51は、情報記憶領域80から複数の部位検出器30、及び部位間相対係数32を読み出して、メモリ52に展開する。これにより、部位認識プログラム60を実行したコンピュータ50が、部位認識装置10として機能することになる。なお、プログラムを実行するCPU51はハードウェアである。
次に、第1実施形態に係る部位認識装置10の作用について説明する。入力画像40が部位認識装置10に入力されると、部位認識装置10が、図8に示す部位認識処理を実行する。なお、部位認識処理は、開示の技術の部位認識方法の一例である。
図8に示す部位認識処理のステップS11で、切出部12が、入力画像40の各画素(x,y)を中心とするサイズk(k=0,1,2,・・・,K)の領域をパッチ画像44として切り出す。
次に、ステップS12で、作成部14が、サイズkのパッチ画像44を、サイズkに対応した部位検出器30にそれぞれ入力する。そして、作成部14は、サイズkに対応した部位検出器30の出力として、サイズkのパッチ画像44の各画素(x,y)について、パッチ画像44が部位pを示す画像である確率P(p|(x,y,k))を得る。
次に、ステップS13で、作成部14が、サイズkに対応した部位検出器30から出力された確率P(p|(x,y,k))の各々を統合したスコアP(p|(x,y))を部位p毎に算出する。そして、(1)式に示すように、作成部14は、入力画像40の各画素位置に対応する画素に、入力画像40の画素(x,y)について算出されたスコアP(p|(x,y))を格納したヒートマップH(p)を部位p毎に作成する。
次に、ステップS14で、修正部16が、各部位pのヒートマップH(p)の各画素のスコアP(p|(x,y))を、例えば(3)式に従って、隣接する部位間の相対位置関係の整合性が取れるように修正し、(2)式に示すようなスコアマップS(p)を作成する。なお、作成したスコアマップS(p)の成分S(x,y)を、(3)式におけるH(x,y)として、本ステップの処理を所定回数繰り返してもよい。これにより、スコアがより精度良く修正される。
次に、ステップS15で、特定部18が、各部位pのスコアマップS(p)から、(4)式に示す、最大のスコアを持つ画素の位置座標(x,y)を、入力画像40における部位pの位置座標として特定する。
次に、ステップS16で、特定部18が、部位p毎に特定した位置座標(x,y)の集合を認識結果42として出力する。そして、処理はステップS11に戻る。
なお、第1実施形態では、スコアマップから各部位の位置座標を特定する場合について説明したが、スコアマップを作成することなく、ヒートマップから各部位の位置座標を特定してもよい。
以上説明したように、第1実施形態に係る部位認識装置10は、入力画像から複数のサイズのパッチ画像を切り出す。これにより、部位認識装置10は、入力画像における各部位の大きさに依存することなく、適切に部位を包含したパッチ画像を切り出せる可能性が高まる。そして、部位認識装置10は、各サイズに対応した部位検出器に各パッチ画像を入力して、各パッチ画像が各部位を示す画像である確率を算出する。さらに、部位認識装置10は、各部位検出器により算出された確率を統合した各画素のスコアを用いて、入力画像における部位を認識する。これにより、部位認識精度を向上させることができる。
また、部位認識装置10は、部位間の相対位置関係に基づいて、各画素に対応するスコアを修正し、修正したスコアに基づいて、各部位の位置座標を特定する。これにより、部位認識精度をより向上させることができる。
ここで、図9に、対象部位を左手とするヒートマップについて、比較手法1、比較手法2、及び本実施形態の手法の各々を用いて作成したヒートマップの一例を示す。なお、比較手法1は、64×64画素の単一のパッチ画像でヒートマップを作成する手法、比較手法2は、64×32画素の単一のパッチ画像でヒートマップを作成する手法である。また、本実施形態の手法としては、64×64画素、32×64画素、64×32画素、32×32画素の4つのパッチ画像でヒートマップを作成する場合を適用している。図9に示すように、比較手法1及び比較手法2の場合に比べ、本実施形態の手法により作成したヒートマップの方が、スコアの高い画素の領域が集中しており、精度良く左手の位置座標を特定できることが分かる。
また、図10に、比較手法、本実施形態の手法1、及び本実施形態の手法2の各々により特定した部位毎の位置座標を、隣接部位間で接続して、人体画像に対応付けて画像化した例を示す。なお、比較手法は、単一のパッチ画像から作成したヒートマップに基づいて各部位の位置座標を特定する手法である。また、本実施形態の手法1は、複数サイズのパッチ画像から作成したヒートマップに基づいて各部位の位置座標を特定する手法である。また、本実施形態の手法2は、複数サイズのパッチ画像から作成したヒートマップを、部位間の相対位置関係に基づいて修正したスコアマップに基づいて各部位の位置座標を特定する手法である。図10に示すように、比較手法よりも本実施形態の手法1の方が精度良く、また、本実施形態の手法1よりも本実施形態の手法2の方が精度良く各部位の位置座標が特定できていることが分かる。
<第2実施形態>
次に、第2実施形態について説明する。第2実施形態では、例えば、図11に示すように、駐車場や敷地内に侵入した不審者を撮像するカメラシステムなどに適用可能な撮像制御システムについて説明する。
図12に示すように、撮像制御システム200は、カメラ35と、部位認識装置210とを含む。部位認識装置210は、機能部として、取得部20と、制御部22とを含み、特定部18に替えて特定部218を含む点が、第1実施形態における部位認識装置10と異なる。
取得部20は、カメラ35で撮像され、出力された動画像データの各フレーム画像を取得する。取得部20は、カメラ35の倍率が初期値に設定されている状態で撮像された動画像データのフレーム画像を取得した場合には、取得したフレーム画像を入力画像40(全体画像)として切出部12に受け渡す。また、取得部20は、カメラ35の倍率が拡大された倍率(詳細は後述)に設定されている状態で撮像された動画像データのフレーム画像を取得した場合には、全体画像と共に、特定部218から出力される認識結果と対応付けて出力する。
特定部218は、修正部16によりスコアマップS(p)が作成された複数の部位pのうち、特定の部位p’についてのスコアマップS(p’)の最大スコアが所定の閾値以上か否かを判定する。特定部218は、最大スコアが所定の閾値以上の場合には、最大スコアが格納された画素の位置座標(xp’,yp’)を、特定部位p’の位置座標として特定する。特定部218は、特定した特定部位p’の位置座標(xp’,yp’)を認識結果242として出力すると共に、制御部22へ通知する。なお、認識結果242には、特定部位p’ の位置座標(x,y)だけでなく、第1実施形態と同様に、他の部位pの位置座標(x,y)を含めてもよい。
制御部22は、特定部218から通知された位置座標(xp’,yp’)と、予め保持している、カメラ35の画素数や設置位置の情報とに基づいて、特定部位p’がカメラ35の画角にいっぱいに収まるように、カメラ35の倍率及び角度を制御する。具体的には、制御部22は、通知された位置座標(xp’,yp’)を中心として、特定部位p’を示す範囲として予め定めた領域がカメラ35の画角となるような倍率、及び撮像方向を実現するカメラ35の角度(パン角及びチルト角)を算出する。制御部22は、算出した倍率及び角度をカメラ35に設定する。これにより、設定された倍率及び角度となるようにカメラ35の駆動部が駆動し、カメラ35により特定部位p’の拡大画像が撮像される。
なお、特定部位p’は、撮像制御システム200の用途に応じて予め定めておく。例えば、防犯対策のためのカメラシステムに撮像制御システム200を適用する場合、不審者の顔や、凶器等を持っている可能性がある手元の画像が重要であるため、特定部位p’として、頭や手を定めておけばよい。
部位認識装置210は、第1実施形態と同様に、コンピュータ50で実現することができる。例えば図13に示すように、コンピュータ50の入出力I/F54にはカメラ35が接続される。また、コンピュータ50は、通信I/F56を介して、例えば警備会社などに設置された外部装置と接続される。
記憶媒体としての記憶部53には、コンピュータ50を、部位認識装置210として機能させるための部位認識プログラム260が記憶される。部位認識プログラム260は、切出プロセス62と、作成プロセス64と、修正プロセス66と、特定プロセス268と、取得プロセス70と、制御プロセス72とを有する。
CPU51は、部位認識プログラム260を記憶部53から読み出してメモリ52に展開し、部位認識プログラム260が有するプロセスを順次実行する。CPU51は、特定プロセス268を実行することで、図12に示す特定部218として動作する。また、CPU51は、取得プロセス70を実行することで、図12に示す取得部20として動作する。また、CPU51は、制御プロセス72を実行することで、図12に示す制御部22として動作する。他のプロセスについては、第1実施形態における部位認識プログラム60と同様である。これにより、部位認識プログラム260を実行したコンピュータ50が、部位認識装置210として機能することになる。
次に、第2実施形態に係る撮像制御システム200の作用について説明する。撮像制御システム200の開始が指示されると、部位認識装置210が、図14に示す撮像制御処理を実行する。なお、撮像制御処理は、開示の技術の部位認識処理の一例である。
ステップS21で、制御部22が、カメラ35の倍率及び角度を初期値に設定し、カメラ35に撮像の開始を指示する。これにより、カメラ35が設定された倍率及び角度で撮像を開始し、動画像データを出力する。
次に、ステップS22で、取得部20が、カメラ35から出力された動画像データのフレーム画像を1つ取得し、入力画像40(全体画像)として切出部12に受け渡す。
次に、ステップS23で、部位認識処理が実行される。部位認識処理は、第1実施形態における部位認識処理(図8)のステップS11〜S14と同様である。
次に、ステップS24で、特定部218が、修正部16によりスコアマップS(p)が作成された複数の部位pのうち、特定の部位p’についてのスコアマップS(p’)の最大スコアが所定の閾値以上か否かを判定する。最大スコアが閾値以上の場合には、処理はステップS25へ移行し、閾値未満の場合には、処理はステップS21に戻る。
ステップS25では、特定部218が、スコアマップS(p’)において最大スコアが格納された画素の位置座標(xp’,yp’)を、特定部位p’の位置座標として特定する。特定部218は、特定した特定部位p’の位置座標(xp’,yp’)を制御部22へ通知する。
次に、ステップS26で、制御部22が、特定部218から通知された位置座標(xp’,yp’)を中心として、特定部位p’に応じた領域がカメラ35の画角となるような倍率及び角度を算出し、算出した倍率及び角度をカメラ35に設定する。これにより、設定された倍率及び角度となるようにカメラ35の駆動部が駆動し、カメラ35により特定部位p’の拡大画像が撮像され、出力される。
次に、ステップS27で、取得部20が、カメラ35から出力された特定部位p’の拡大画像を取得する。
次に、ステップS28で、特定部218が、上記ステップS25で特定した特定部位p’の位置座標(xp’,yp’)を認識結果242として出力する。また、取得部20が、上記ステップS22で取得した全体画像と、上記ステップS27で取得した特定部位p’の拡大画像とを、特定部218から出力される認識結果242と対応付けて出力する。
次に、ステップS29で、制御部22が、カメラ35の倍率を初期値に戻し、処理はステップS22に戻る。ここで、カメラ35の角度は上記ステップS25で設定された角度のままとする。これにより、前のフレーム画像で認識された特定部位p’を含む同一の対象物が、次のフレーム画像においても検出される可能性が高く、対象物の追跡が可能となる。なお、対象物の追跡処理としては、上記の例に限定されず、フレーム画像間で特徴点を対応付けるなど、従来既知の手法を適用することができる。
以上説明したように、第2実施形態に係る撮像制御システム200によれば、第1実施形態と同様の部位認識処理により、精度良く対象物の各部位を認識することができる。例えば、図15に示すような対象物とは異なる物体の一部が対象物の部位として誤認識されることを抑制できる。そして、撮像制御システム200は、精度良く認識された部位のうち、特定部位が拡大して撮像されるようにカメラの倍率及び角度を制御する。そのため、例えば、図16に示すように、全体画像内での対象物が小さい場合でも、特定部位の拡大画像として、解像度の高い画像を出力することができる。これにより、例えば、部位認識装置から出力される対象部位の拡大画像を目視して監視したり、画像解析して不審者等を特定したりする場合などに、解像度の高い画像を用いることができる。
なお、上記各実施形態では、認識対象の部位が人体の各パーツである場合について説明したが、これに限定されない。
また、上記各実施形態では、部位認識プログラム60、260が記憶部53に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。
以上の各実施形態に関し、更に以下の付記を開示する。
(付記1)
入力画像の各位置を基準に大きさが異なる複数の部分画像を切り出し、
各部分画像の大きさに対応し、かつ部分画像が予め定めた部位を示す画像である確率を出力する部位検出器の各々を用いて、切り出した前記複数の部分画像の各々について出力される確率を統合したスコアを、前記各位置について算出し、
算出された前記各位置についてのスコアに基づいて、前記入力画像中から前記部位を認識する
ことを含む処理をコンピュータが実行する部位認識方法。
(付記2)
前記入力画像の各位置に対応する画素に、前記各位置について算出されたスコアを格納したヒートマップを作成し、
前記入力画像中から前記部位を認識する処理として、前記ヒートマップにおいて、前記スコアが最大の画素の座標を、前記部位の位置座標として特定する
付記1に記載の部位認識方法。
(付記3)
前記部位検出器は、前記部分画像が予め定めた複数の部位の各々である確率の各々を出力し、
第1の部位について算出された前記スコアを、該第1の部位に隣接する第2の部位との相対位置関係に基づいて修正する
付記2に記載の部位認識方法。
(付記4)
前記第2の部位についての前記第1の部位に対する相対位置毎の存在確率を示す確率分布モデルを用いて、前記第1の部位の位置に対する前記第2の部位の存在確率が高い位置における該第2の部位の前記スコアが高いほど、前記第1の部位の位置に対応する前記ヒートマップのスコアが高くなるように修正する付記3に記載の部位認識方法。
(付記5)
入力画像の各位置を基準に大きさが異なる複数の部分画像を切り出す切出部と、
各部分画像の大きさに対応し、かつ部分画像が予め定めた部位を示す画像である確率を出力する部位検出器の各々を用いて、前記切出部により切り出された前記複数の部分画像の各々について出力される確率を統合したスコアを、前記各位置について算出する算出部と、
算出された前記各位置についてのスコアに基づいて、前記入力画像中から前記部位を認識する特定部と、
を含む部位認識装置。
(付記6)
前記算出部は、前記入力画像の各位置に対応する画素に、前記各位置について算出されたスコアを格納したヒートマップを作成し、
前記特定部は、前記ヒートマップにおいて、前記スコアが最大の画素の座標を、前記部位の位置座標として特定する
付記5に記載の部位認識装置。
(付記7)
前記部位検出器は、前記部分画像が予め定めた複数の部位の各々である確率の各々を出力し、
前記算出部により第1の部位について算出された前記スコアを、該第1の部位に隣接する第2の部位との相対位置関係に基づいて修正する修正部をさらに含む
付記6に記載の部位認識装置。
(付記8)
前記修正部は、前記第2の部位についての前記第1の部位に対する相対位置毎の存在確率を示す確率分布モデルを用いて、前記第1の部位の位置に対する前記第2の部位の存在確率が高い位置における該第2の部位の前記スコアが高いほど、前記第1の部位の位置に対応する前記ヒートマップのスコアが高くなるように修正する付記7に記載の部位認識装置。
(付記9)
入力画像の各位置を基準に大きさが異なる複数の部分画像を切り出し、
各部分画像の大きさに対応し、かつ部分画像が予め定めた部位を示す画像である確率を出力する部位検出器の各々を用いて、切り出した前記複数の部分画像の各々について出力される確率を統合したスコアを、前記各位置について算出し、
算出された前記各位置についてのスコアに基づいて、前記入力画像中から前記部位を認識する
ことを含む処理をコンピュータに実行させるための部位認識プログラム。
(付記10)
前記入力画像の各位置に対応する画素に、前記各位置について算出されたスコアを格納したヒートマップを作成し、
前記入力画像中から前記部位を認識する処理として、前記ヒートマップにおいて、前記スコアが最大の画素の座標を、前記部位の位置座標として特定する
付記9に記載の部位認識プログラム。
(付記11)
前記部位検出器は、前記部分画像が予め定めた複数の部位の各々である確率の各々を出力し、
第1の部位について算出された前記スコアを、該第1の部位に隣接する第2の部位との相対位置関係に基づいて修正する
付記10に記載の部位認識プログラム。
(付記12)
前記第2の部位についての前記第1の部位に対する相対位置毎の存在確率を示す確率分布モデルを用いて、前記第1の部位の位置に対する前記第2の部位の存在確率が高い位置における該第2の部位の前記スコアが高いほど、前記第1の部位の位置に対応する前記ヒートマップのスコアが高くなるように修正する付記11に記載の部位認識プログラム。
(付記13)
倍率及び撮像方向を変更可能な撮像装置と、
付記5〜付記8のいずれか1項に記載の部位認識装置と、
前記入力画像中から認識された部位のうち、特定の部位を含む所定範囲の入力画面に占める割合が予め定めた閾値以上となるように、前記撮像装置の倍率及び撮像方向の少なくとも一方を制御する制御部と、
を含む撮像制御システム。
10、210 部位認識装置
12 切出部
14 作成部
16 修正部
18、218 特定部
20 取得部
22 制御部
30 部位検出器
32 部位間相対係数
35 カメラ
40 入力画像
42、242 認識結果
44 パッチ画像
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
59 記憶媒体
60、260 部位認識プログラム
200 撮像制御システム

Claims (6)

  1. 入力画像の各位置を基準に大きさが異なる複数の部分画像を切り出し、
    各部分画像の大きさに対応し、かつ部分画像が予め定めた複数の部位の各々を示す画像である確率の各々を出力する部位検出器の各々を用いて、切り出した前記複数の部分画像の各々について出力される確率を統合したスコアを、前記各位置について算出し、
    第1の部位について算出された前記スコアを、該第1の部位に隣接する第2の部位との相対位置関係に基づいて修正し、
    修正された前記各位置についてのスコアに基づいて、前記入力画像中から前記複数の部位の各々を認識する
    ことを含む処理をコンピュータが実行する部位認識方法。
  2. 前記入力画像の各位置に対応する画素に、前記各位置について算出されたスコアを格納したヒートマップを作成し、
    前記入力画像中から前記部位を認識する処理として、前記ヒートマップにおいて、前記スコアが最大の画素の座標を、前記部位の位置座標として特定する
    請求項1に記載の部位認識方法。
  3. 前記第2の部位についての前記第1の部位に対する相対位置毎の存在確率を示す確率分布モデルを用いて、前記第1の部位の位置に対する前記第2の部位の存在確率が高い位置における該第2の部位の前記スコアが高いほど、前記第1の部位の位置に対応する前記ヒートマップのスコアが高くなるように修正する請求項に記載の部位認識方法。
  4. 入力画像の各位置を基準に大きさが異なる複数の部分画像を切り出す切出部と、
    各部分画像の大きさに対応し、かつ部分画像が予め定めた複数の部位の各々を示す画像である確率の各々を出力する部位検出器の各々を用いて、切り出した前記複数の部分画像の各々について出力される確率を統合したスコアを、前記各位置について算出する算出部と、
    第1の部位について算出された前記スコアを、該第1の部位に隣接する第2の部位との相対位置関係に基づいて修正し、修正された前記各位置についてのスコアに基づいて、前記入力画像中から前記複数の部位の各々を認識する特定部と、
    を含む部位認識装置。
  5. 入力画像の各位置を基準に大きさが異なる複数の部分画像を切り出し、
    各部分画像の大きさに対応し、かつ部分画像が予め定めた複数の部位の各々を示す画像である確率の各々を出力する部位検出器の各々を用いて、切り出した前記複数の部分画像の各々について出力される確率を統合したスコアを、前記各位置について算出し、
    第1の部位について算出された前記スコアを、該第1の部位に隣接する第2の部位との相対位置関係に基づいて修正し、
    修正された前記各位置についてのスコアに基づいて、前記入力画像中から前記複数の部位の各々を認識する
    ことを含む処理をコンピュータに実行させるための部位認識プログラム。
  6. 倍率及び撮像方向を変更可能な撮像装置と、
    請求項4に記載の部位認識装置と、
    前記入力画像中から認識された部位のうち、特定の部位を含む所定範囲の入力画面に占める割合が予め定めた閾値以上となるように、前記撮像装置の倍率及び撮像方向の少なくとも一方を制御する制御部と、
    を含む撮像制御システム。
JP2017130202A 2017-07-03 2017-07-03 部位認識方法、装置、プログラム、及び撮像制御システム Active JP6977337B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017130202A JP6977337B2 (ja) 2017-07-03 2017-07-03 部位認識方法、装置、プログラム、及び撮像制御システム
US16/008,089 US10796186B2 (en) 2017-07-03 2018-06-14 Part recognition method, information processing apparatus, and imaging control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017130202A JP6977337B2 (ja) 2017-07-03 2017-07-03 部位認識方法、装置、プログラム、及び撮像制御システム

Publications (2)

Publication Number Publication Date
JP2019012497A JP2019012497A (ja) 2019-01-24
JP6977337B2 true JP6977337B2 (ja) 2021-12-08

Family

ID=64734886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017130202A Active JP6977337B2 (ja) 2017-07-03 2017-07-03 部位認識方法、装置、プログラム、及び撮像制御システム

Country Status (2)

Country Link
US (1) US10796186B2 (ja)
JP (1) JP6977337B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10796157B2 (en) * 2018-03-13 2020-10-06 Mediatek Inc. Hierarchical object detection and selection
US10635917B1 (en) * 2019-01-30 2020-04-28 StradVision, Inc. Method and device for detecting vehicle occupancy using passenger's keypoint detected through image analysis for humans' status recognition
JP7124746B2 (ja) * 2019-02-12 2022-08-24 コニカミノルタ株式会社 物体の部分位置推定プログラム、物体の部分位置推定用ニューラルネットワーク構造、物体の部分位置推定方法、および物体の部分位置推定装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3780017B2 (ja) 1994-12-06 2006-05-31 オリンパス株式会社 時系列画像解析装置及びその解析方法
GB2395264A (en) * 2002-11-29 2004-05-19 Sony Uk Ltd Face detection in images
JP2007025902A (ja) * 2005-07-13 2007-02-01 Canon Inc 画像処理装置、画像処理方法
JP4863937B2 (ja) * 2007-06-25 2012-01-25 株式会社ソニー・コンピュータエンタテインメント 符号化処理装置および符号化処理方法
JP2010160640A (ja) * 2009-01-07 2010-07-22 Seiko Epson Corp 画像処理装置、プリンター、画像処理方法および画像処理プログラム
JP5837508B2 (ja) 2010-12-09 2015-12-24 パナソニック株式会社 姿勢状態推定装置および姿勢状態推定方法
JP5877053B2 (ja) 2011-12-14 2016-03-02 パナソニック株式会社 姿勢推定装置および姿勢推定方法
JP5801237B2 (ja) * 2012-03-29 2015-10-28 パナソニック株式会社 部位推定装置、部位推定方法、および部位推定プログラム
JP6032921B2 (ja) * 2012-03-30 2016-11-30 キヤノン株式会社 物体検出装置及びその方法、プログラム
JP6433149B2 (ja) * 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム
JP6235414B2 (ja) * 2014-06-06 2017-11-22 株式会社デンソーアイティーラボラトリ 特徴量演算装置、特徴量演算方法、及び特徴量演算プログラム
US9798949B1 (en) * 2015-03-19 2017-10-24 A9.Com, Inc. Region selection for image match
US20180314908A1 (en) * 2017-05-01 2018-11-01 Symbol Technologies, Llc Method and apparatus for label detection

Also Published As

Publication number Publication date
JP2019012497A (ja) 2019-01-24
US20190005344A1 (en) 2019-01-03
US10796186B2 (en) 2020-10-06

Similar Documents

Publication Publication Date Title
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4177826B2 (ja) 画像処理装置および画像処理方法
CN109934847B (zh) 弱纹理三维物体姿态估计的方法和装置
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
KR100651034B1 (ko) 대상 물체 검출 시스템 및 그 방법
JP5001930B2 (ja) 動作認識装置及び方法
JP6977337B2 (ja) 部位認識方法、装置、プログラム、及び撮像制御システム
JP6444283B2 (ja) 姿勢判定装置
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
KR102295183B1 (ko) Cctv 프로젝션 모델을 이용한 cctv 영상의 객체 추적 방법
JP2009003866A (ja) 顔認証装置
JP4578864B2 (ja) 自動追尾装置及び自動追尾方法
JP6799325B2 (ja) 画像補正装置、画像補正方法、注目点認識装置、注目点認識方法及び異常検知システム
JP5082955B2 (ja) 車両検出装置および方法、並びに、プログラム
JP2010039617A (ja) 対象物追跡装置及びプログラム
KR101290517B1 (ko) 촬영장치 및 이의 대상 추적방법
CN113033348A (zh) 行人重识别的俯视图像校正方法、存储介质和电子设备
CN113033353A (zh) 基于俯视图像的行人轨迹生成方法、存储介质和电子设备
JP6393495B2 (ja) 画像処理装置および物体認識方法
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
KR101828710B1 (ko) 객체 가려짐 검출 장치 및 그 방법
JP6555940B2 (ja) 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
JP5643147B2 (ja) 動きベクトル検出装置、動きベクトル検出方法及び動きベクトル検出プログラム
CN113033350A (zh) 基于俯视图像的行人重识别方法、存储介质和电子设备
JP2007257489A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211025

R150 Certificate of patent or registration of utility model

Ref document number: 6977337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150