JP2019133331A - 画像認識装置、画像認識方法、および、画像認識プログラム - Google Patents

画像認識装置、画像認識方法、および、画像認識プログラム Download PDF

Info

Publication number
JP2019133331A
JP2019133331A JP2018013933A JP2018013933A JP2019133331A JP 2019133331 A JP2019133331 A JP 2019133331A JP 2018013933 A JP2018013933 A JP 2018013933A JP 2018013933 A JP2018013933 A JP 2018013933A JP 2019133331 A JP2019133331 A JP 2019133331A
Authority
JP
Japan
Prior art keywords
candidate
candidates
estimated value
joint
joint candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018013933A
Other languages
English (en)
Other versions
JP6939608B2 (ja
Inventor
大気 関井
Taiki Sekii
大気 関井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018013933A priority Critical patent/JP6939608B2/ja
Priority to US16/211,772 priority patent/US10861182B2/en
Publication of JP2019133331A publication Critical patent/JP2019133331A/ja
Application granted granted Critical
Publication of JP6939608B2 publication Critical patent/JP6939608B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数の物体が写された画像から検出された部位候補のマッチング精度を向上させる。【解決手段】画像認識装置100は、第1部位候補3−1〜3−3と第2部位候補4−1〜4−3とを組み合わせて、第1部位候補と第2部位候補とのペアを複数生成する生成部と、複数のペアのそれぞれについて、第1部位候補と第2部位候補とが繋がっている推定を示す第1推定値を算出する第1算出部と、既にマッチングされており、繋がっている推定を示す第2推定値である部位候補どうしの一方であって、第1部位候補および第2部位候補のいずれとも異なる部位候補2−1が、第1部位候補または第2部位候補と繋がっている状態において、第2推定値を重み付けとして、第1推定値を修正する処理を、複数のペアのそれぞれについて実行する修正部と、修正した第1推定値を基にして、第1部位候補と第2部位候補とをマッチングするマッチング部と、を備える。【選択図】図17

Description

本発明は、画像に写された複数の物体を認識する技術に関する。
深層学習を用いて、画像に写された複数の人物のそれぞれの姿勢を推定することが試みられている。姿勢推定の手法の1つとして、ボトムアップアプローチと称される手法がある(例えば、非特許文献1参照)。ボトムアップアプローチは、(1)複数の人物が写された画像から、姿勢推定に必要な複数種類の関節候補(例えば、首関節候補、左肩関節候補、右肩関節候補、左肘関節候補、右肘関節候補、左手首関節候補、右手首関節候補、左股関節候補、右股関節候補、左膝関節候補、右膝関節候補、左足首関節候補、右足首関節候補)を検出し、(2)検出した複数種類の関節候補を繋ぎ合わせて、人物の姿勢を推定する処理を、複数の人物のそれぞれについて実行する。
ヂゥー・ツァオ(Zhe Cao)、他3名、「パートアフィニティフィールドを用いたリアルタイム複数人2D姿勢推定(Realtime Multi−Person 2D Pose Estimation using Part Affinity Fields)」、[online ]、p.2、[平成30年1月10日検索]、インターネット〈URL:https://arxiv.org/pdf/1611.08050〉
ボトムアップアプローチでは、関節候補が人物毎に区別されていないので、複数種類の関節候補を繋ぎ合わせるための前提として、関節候補のマッチングがされる。例えば、人物Aの左肘関節を示す左肘関節候補、人物Bの左肘関節を示す左肘関節候補、人物Aの左手首関節を示す左手首関節候補、人物Bの左手首関節を示す左手首関節候補が検出されたとする。関節候補のマッチングにより、人物Aの左肘関節を示す左肘関節候補と人物Aの左手首関節を示す左手首関節候補とが繋がれ、人物Bの左肘関節を示す左肘関節候補と人物Bの左手首関節を示す左手首関節候補とが繋がれる。
しかし、検出された関節候補には、人物の関節でない物が含まれていることがある。例えば、画像に、複数の人物と、机上に置かれた左手の手袋と、が含まれる場合、机の天板の1つの角部が左肘関節候補、左手の手袋の口部が左手首関節候補として検出される可能性がある。関節候補のマッチングにより、人物Aの左肘関節を示す左肘関節候補と左手の手袋の口部を示す左手首関節候補とが繋がれ、机の天板の1つの角部を示す左肘関節候補と人物Aの左手首関節を示す左手首関節候補とが繋がれてしまうと、姿勢推定の精度が低下する。
関節候補のマッチングを例にして説明したが、ボトムアップアプローチを例えば、複数の人物の顔認識に適用した場合、目候補と鼻候補、鼻候補と口候補、目候補と耳候補とがマッチングされることになる。本明細書において、マッチングの対象(例えば、関節候補、顔のパーツ候補)の総称を部位候補と記載する。
本発明の目的は、複数の物体が写された画像から検出された部位候補のマッチング精度を向上させることができる画像認識装置、画像認識方法、および、画像認識プログラムを提供することである。
本発明の第1局面に係る画像認識装置は、複数の部位を有する物体が複数写された画像から、前記部位の候補となる部位候補を複数検出する処理を、複数の前記部位のそれぞれについて実行する検出部と、マッチングの対象となる前記部位候補の一方である第1部位候補と他方である第2部位候補とにおいて、複数の前記第1部位候補と複数の前記第2部位候補とを組み合わせて、前記第1部位候補と前記第2部位候補とのペアを複数生成する生成部と、複数の前記ペアのそれぞれについて、前記第1部位候補と前記第2部位候補とが繋がっている推定を示す値である第1推定値を算出する第1算出部と、既にマッチングされており、繋がっている推定を示す値が第2推定値である前記部位候補どうしの一方であって、前記第1部位候補および前記第2部位候補のいずれとも異なる前記部位候補が、前記第1部位候補または前記第2部位候補と繋がっている場合、前記第2推定値を重み付けとして、前記第1推定値を修正する処理を、複数の前記ペアのそれぞれについて実行する修正部と、複数の前記ペアのそれぞれの修正した前記第1推定値を基にして、複数の前記第1部位候補と複数の前記第2部位候補とをマッチングするマッチング部と、を備える。
物体は、例えば、人物、人型ロボット、動物、顔である。部位は、姿勢認識の場合、関節であり、顔認識の場合、顔のパーツ(目、鼻、口、耳)である。
第1推定値、第2推定値は、例えば、尤度、確率である。
第2推定値は、既にマッチングされている部位候補どうしが繋がっている推定を示す値である。詳しく説明すると、左肘関節候補が第1部位候補であり、左手首関節候補が第2部位候補であり、左肩関節候補と左肘関節候補とが既にマッチングされている部位候補どうしであり、左肩関節候補が部位候補どうしの一方であるとする。この場合、左肩関節候補(部位候補どうしの一方)は、左肘関節候補(第1部位候補)および左手首関節候補(第2部位候補)のいずれとも異なり、かつ、左肘関節候補(第1部位候補)と繋がっている。この左肩関節候補と左肘関節候補とが繋がっている推定を示す値が第2推定値である。
修正部は、第2推定値を重み付けとして、第1推定値を修正する。例えば、修正部は、第1推定値と第2推定値とを乗算した値を、修正した第1推定値にしてもよいし、第1推定値と第2推定値とを加算した値を、修正した第1推定値にしてもよい。
検出された部位候補に、検出対象となる部位(例えば、関節)と無関係な部位(例えば、左手の手袋の口部、机の天板の1つの角部)が含まれることがある。無関係部位は検出対象部位との関連性が弱いので、無関係部位を示す部位候補と検出対象部位を示す部位候補とのペアの第1推定値は、通常、低い値となる。しかしながら、このペアの第1推定値が、偶然に、大きな値になることがある。例えば、机上に置かれた左手の手袋に対して、机の天板の1つの角部が左肘関節候補、その手袋の口部が左手首関節候補として検出され、かつ、机の近くに立っている人物の左肘関節が左肘関節候補、左手首関節が左手首関節候補として検出される。この場合、例えば、机の近くに立っている人物の左肘関節を示す左肘関節候補と左手の手袋の口部を示す左手首関節候補との第1推定値が、偶然、大きな値になることがある。このため、第1推定値を用いて部位候補のマッチングがされると、無関係部位を示す部位候補と関節を示す部位候補とが繋げられることがある。
無関係部位どうしは、関連性が弱いので、既にマッチングされた無関係部位どうしの繋がりの推定を示す第2推定値は、通常、低く、または、極端に低い。このため、仮に、検出対象部位と無関係部位とのペアの第1推定値が大きくても、第2推定値を重み付けとして、修正した第1推定値は、小さく、または、極端に小さくなる。従って、修正した第1推定値を用いて、部位候補のマッチングがされれば、無関係部位を示す部位候補と検出対象部位を示す部位候補とが繋げられることを防ぐことができる。以上説明したように、本発明の第1局面に係る画像認識装置によれば、複数の物体が写された画像から検出された部位候補のマッチング精度を向上させることができる。
上記構成において、複数の前記部位の繋がりの関係を示す繋がり情報を予め記憶する第1記憶部と、前記生成部は、前記第1記憶部に記憶されている前記繋がり情報を用いて、前記検出部によって検出された前記部位候補の中で、前記第1部位候補と前記第2部位候補との関係を有する2種類の前記部位候補を特定する。
繋がり情報は、部位が、首関節、左肩関節、左肘関節、左手首関を例にすると、首関節と左肩関節とが繋がっており、左肩関節と左肘関節とが繋がっており、左肘関節と左手首関節とが繋がっていることを示す情報である。首関節と左肩関節とが第1部位候補と第2部位候補との関係を有し、左肩関節候補と左肘関節候補とが第1部位候補と第2部位候補との関係を有し、左肘関節候補と左手首関節候補が第1部位候補と第2部位候補との関係を有する。
この構成によれば、検出部によって検出された部位候補のうち、第1部位候補および第2部位候補となる2種類の部位候補を特定することができる。
上記構成において、第2記憶部と、前記マッチングによって1つに繋げられた複数の前記部位候補を、1つの前記物体が有する複数の前記部位として、前記第2記憶部に記憶させる処理を、複数の前記物体のそれぞれについて実行する記憶処理部と、をさらに備える。
マッチングによって1つに繋げられた複数の部位候補(例えば、首関節候補、左肩関節候補、左肘関節候補、左手首関節候補)は、1つの物体が有する複数の部位を示し、例えば、この物体の姿勢推定に用いることができる。この構成によれば、画像に写された複数の物体のそれぞれについて、1つに繋げられた複数の部位候補を第2記憶部に記憶する。従って、これらを、例えば、画像に写された複数の物体のそれぞれの姿勢推定に用いることができる。
本発明の第2局面に係る画像認識方法は、複数の部位を有する物体が複数写された画像から、前記部位の候補となる部位候補を複数検出する処理を、複数の前記部位のそれぞれについて実行する検出ステップと、マッチングの対象となる前記部位候補の一方である第1部位候補と他方である第2部位候補とにおいて、複数の前記第1部位候補と複数の前記第2部位候補とを組み合わせて、前記第1部位候補と前記第2部位候補とのペアを複数生成する生成ステップと、複数の前記ペアのそれぞれについて、前記第1部位候補と前記第2部位候補とが繋がっている推定を示す値である第1推定値を算出する第1算出ステップと、既にマッチングされており、繋がっている推定を示す値が第2推定値である前記部位候補どうしの一方であって、前記第1部位候補および前記第2部位候補のいずれとも異なる前記部位候補が、前記第1部位候補または前記第2部位候補と繋がっている場合、前記第2推定値を重み付けとして、前記第1推定値を修正する処理を、複数の前記ペアのそれぞれについて実行する修正ステップと、複数の前記ペアのそれぞれの修正した前記第1推定値を基にして、複数の前記第1部位候補と複数の前記第2部位候補とをマッチングするマッチングステップと、を備える。
本発明の第2局面に係る画像認識方法は、本発明の第1局面に係る画像認識装置を方法の観点から規定しており、本発明の第1局面に係る画像認識装置と同様の作用効果を有する。
本発明の第3局面に係る画像認識プログラムは、複数の部位を有する物体が複数写された画像から、前記部位の候補となる部位候補を複数検出する処理を、複数の前記部位のそれぞれについて実行する検出ステップと、マッチングの対象となる前記部位候補の一方である第1部位候補と他方である第2部位候補とにおいて、複数の前記第1部位候補と複数の前記第2部位候補とを組み合わせて、前記第1部位候補と前記第2部位候補とのペアを複数生成する生成ステップと、複数の前記ペアのそれぞれについて、前記第1部位候補と前記第2部位候補とが繋がっている推定を示す値である第1推定値を算出する第1算出ステップと、既にマッチングされており、繋がっている推定を示す値が第2推定値である前記部位候補どうしの一方であって、前記第1部位候補および前記第2部位候補のいずれとも異なる前記部位候補が、前記第1部位候補または前記第2部位候補と繋がっている場合、前記第2推定値を重み付けとして、前記第1推定値を修正する処理を、複数の前記ペアのそれぞれについて実行する修正ステップと、複数の前記ペアのそれぞれの修正した前記第1推定値を基にして、複数の前記第1部位候補と複数の前記第2部位候補とをマッチングするマッチングステップと、をコンピュータに実行させる。
本発明の第3局面に係る画像認識プログラムは、本発明の第1局面に係る画像認識装置をプログラムの観点から規定しており、本発明の第1局面に係る画像認識装置と同様の作用効果を有する。
本発明によれば、複数の物体が写された画像から検出された部位候補のマッチング精度を向上させることができる。
実施形態に係る画像認識装置の機能ブロック図である。 左腕の姿勢推定の対象となる複数の人物が写された画像の一例の模式図である。 繋がり情報の一例を説明する説明図である。 合成画像の一例を示す模式図である。 ベクトル場の一部の一例を説明する説明図である。 首関節候補、左肩関節候補、左肘関節候補、左手首関節候補において、2種類の部位候補となる組み合わせを説明する説明図である。 第1推定値の具体例を説明する説明図である。 第1推定値の具体例を説明する説明図である。 第1推定値の具体例を説明する説明図である。 比較例において、左肘関節候補と左手首関節候補との組み合わせの1つ目を説明する説明図である。 同2つ目を説明する説明図である。 同3つ目を説明する説明図である。 同4つ目を説明する説明図である。 同5つ目を説明する説明図である。 同6つ目を説明する説明図である。 左肩関節候補と左肘関節候補とが既にマッチングされており、左肘関節候補と左手首関節候補とがまだマッチングされていない状態を説明する説明図である。 修正した第1推定値の具体例を説明する説明図である。 修正した第1推定値の具体例を説明する説明図である。 修正した第1推定値の具体例を説明する説明図である。 実施形態において、左肘関節候補と左手首関節候補との組み合わせの1つ目を説明する説明図である。 同2つ目を説明する説明図である。 同3つ目を説明する説明図である。 同4つ目を説明する説明図である。 同5つ目を説明する説明図である。 同6つ目を説明する説明図である。 実施形態に係る画像認識装置が関節候補をマッチングする処理について説明するフローチャートである。 首関節候補と左肩関節候補とのマッチングの結果を示す説明図である。 左肩関節候補と左肘関節候補とのマッチングの結果を示す説明図である。 左肘関節候補と左手首関節候補とのマッチングの結果を示す説明図である。 図1に示す画像認識装置のハードウェア構成を示すブロック図である。
以下、図面に基づいて本発明の実施形態を詳細に説明する。各図において、同一符号を付した構成は、同一の構成であることを示し、その構成について、既に説明している内容については、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し(例えば、左手首関節候補4)、個別の構成を指す場合には添え字を付した参照符号で示す(例えば、左手首関節候補4−1)。
図1は、実施形態に係る画像認識装置100の機能ブロック図である。画像認識装置100は、機能ブロックとして、本体部30と、入力部40と、出力部50と、を備える。
本体部30は、深層学習を実行できるコンピューターである。本体部30は、深層学習を用いて、画像に写された複数の人物のそれぞれの姿勢を推定する。実施形態では、左腕の姿勢推定を例にして説明するが、これに限定されず、例えば、全身の姿勢推定でもよいし、上半身の姿勢推定でもよいし、下半身の姿勢推定でもよい。
本体部30は、機能ブロックとして、制御処理部31と、記憶部32と、部位候補検出部33と、部位関連度算出部34と、ペア生成部35と、第1推定値算出部36と、第1推定値修正部37と、マッチング部38と、を備える。
制御処理部31は、本体部30の各部(記憶部32、部位候補検出部33、部位関連度算出部34、ペア生成部35、第1推定値算出部36、第1推定値修正部37、マッチング部38)を当該各部の機能に応じてそれぞれ制御するための装置である。
記憶部32は、画像認識装置100が実行する処理および制御に必要な各種の画像、データ、情報等を記憶する。記憶部32は、機能ブロックとして、画像記憶部321と、繋がり情報記憶部322と、マッチング結果記憶部323と、を備える。
画像記憶部321は、左腕の姿勢推定の対象となる複数の人物が写された画像10が予め記憶されている。図2は、画像10の一例の模式図である。図2に示す画像10には、人物5、人物6、机7、椅子8、および、机7の上に置かれた左手の手袋9が写されている。
画像10は、複数の部位を有する物体が複数写された画像である。物体は、例えば、人物、人型ロボット、動物、顔である。部位は、姿勢認識の場合、関節であり、顔認識の場合、顔のパーツ(目、鼻、口、耳)である。
図1を参照して、繋がり情報記憶部322(第1記憶部)は、繋がり情報60を予め記憶する。繋がり情報60は、左腕の姿勢推定に必要な複数の関節について、これらの関節の繋がりの関係を示す情報である。左腕の姿勢推定に必要な複数の関節は、首関節、左肩関節、左肘関節、左手首関節である。繋がり情報60は、首関節と左肩関節とが繋がっており、左肩関節と左肘関節とが繋がっており、左肘関節と左手首関節とが繋がっていることを示す情報である。図3は、繋がり情報60の一例を説明する説明図である。図3に示す繋がり情報60は、ノードとなる4つの関節(首関節、左肩関節、左肘関節、左手首関節)と、首関節と左肩関節とを繋ぐエッジと、左肩関節と左肘関節とを繋ぐエッジと、左肘関節と左手首関節とを繋ぐエッジと、により構成される。
図1を参照して、マッチング結果記憶部323(第2記憶部)は、関節候補どうしがマッチングされた結果を、画像に写された複数の人物毎に記憶する。これについては、後でさらに詳しく説明する。
部位候補検出部33(検出部)は、CNN(Convolutional Neural Network)を用いて、画像10から、首関節の候補となる首関節候補、左肩関節の候補となる左肩関節候補、左肘関節の候補となる左肘関節候補、左手首関節の候補となる左手首関節候補を、それぞれ、複数検出し、検出したこれらの関節候補(部位候補)を、画像10に合成した合成画像11(Part Confidence Map)を生成する。部位候補検出部33は、例えば、非特許文献1に開示されたPart Confidence Mapsの生成と同様の方法を用いて、合成画像11を生成する。
図4は、合成画像11の一例を示す模式図である。図4に示す合成画像11において、各関節候補が示す部位は、以下の通りである。
首関節候補1−1は、人物5の首関節を示す。
首関節候補1−2は、人物6の首関節を示す。
首関節候補1−3は、椅子8の1つ脚の下端部を示す。
左肩関節候補2−1は、人物5の左肩関節を示す。
左肩関節候補2−2は、人物6の左肩関節を示す。
左肩関節候補2−3は、机7の1つの脚の下端部を示す。
左肘関節候補3−1は、人物5の左肘関節を示す。
左肘関節候補3−2は、人物6の左肘関節を示す。
左肘関節候補3−3は、机7の天板の1つの角部を示す。
左手首関節候補4−1は、人物5の左手首関節を示す。
左手首関節候補4−2は、人物6の左手首関節を示す。
左手首関節候補4−3は、左手の手袋9の口部を示す。
以上説明したように、部位候補検出部33は、複数の部位を有する物体が複数写された画像10から、部位の候補となる部位候補を複数検出する処理を、複数の部位のそれぞれについて実行する。実施形態において、部位は関節であり、物体は人物であり、部位候補は関節候補である。
図1を参照して、部位関連度算出部34は、CNNを用いて、画像10から、関節候補(部位候補)どうしの繋がりを示すベクトル場(Part Affinity Fields)を算出する。図5は、ベクトル場の一部70の一例を説明する説明図である。図5に示すベクトル場の一部70は、図4に示す左肩関節候補2−2と左肘関節候補3−2との繋がりを示す。部位関連度算出部34は、例えば、非特許文献1に開示されたPart Affinity Fieldsの算出と同様の方法を用いて、ベクトル場を算出する。
図1を参照して、ペア生成部35(生成部)は、繋がり情報記憶部322に記憶されている繋がり情報60を用いて、部位候補検出部33によって検出された部位候補(関節候補)の中で、第1部位候補と第2部位候補との関係を有する2種類の部位候補を特定する。第1部位候補は、マッチングの対象となる部位候補(関節候補)の一方であり、第2部位候補(関節候補)は、その他方である。
図3、図4および図6を用いて、ペア生成部35の機能について、詳しく説明する。図6は、首関節候補1、左肩関節候補2、左肘関節候補3、左手首関節候補4において、2種類の部位候補(関節候補)となる組み合わせを説明する説明図である。2種類の部位候補は、首関節候補1(第1部位候補)および左肩関節候補2(第2部位候補)であり、左肩関節候補2(第1部位候補)および左肘関節候補3(第2部位候補)であり、左肘関節候補3(第1部位候補)および左手首関節候補4(第2部位候補)である。
ペア生成部35は、首関節候補1−1〜1−3(複数の第1部位候補)と左肩関節候補2−1〜2−3(複数の第2部位候補)とを組み合わせて、首関節候補1と左肩関節候補2とのペアを複数生成する。生成されるペアは、以下の9個である。
首関節候補1−1と左肩関節候補2−1とのペア
首関節候補1−1と左肩関節候補2−2とのペア
首関節候補1−1と左肩関節候補2−3とのペア
首関節候補1−2と左肩関節候補2−1とのペア
首関節候補1−2と左肩関節候補2−2とのペア
首関節候補1−2と左肩関節候補2−3とのペア
首関節候補1−3と左肩関節候補2−1とのペア
首関節候補1−3と左肩関節候補2−2とのペア
首関節候補1−3と左肩関節候補2−3とのペア
ペア生成部35は、左肩関節候補2−1〜2−3(複数の第1部位候補)と左肘関節候補3−1〜3−3(複数の第2部位候補)とを組み合わせて、左肩関節候補2と左肘関節候補3とのペアを複数生成する。生成されるペアは、以下の9個である。
左肩関節候補2−1と左肘関節候補3−1とのペア
左肩関節候補2−1と左肘関節候補3−2とのペア
左肩関節候補2−1と左肘関節候補3−3とのペア
左肩関節候補2−2と左肘関節候補3−1とのペア
左肩関節候補2−2と左肘関節候補3−2とのペア
左肩関節候補2−2と左肘関節候補3−3とのペア
左肩関節候補2−3と左肘関節候補3−1とのペア
左肩関節候補2−3と左肘関節候補3−2とのペア
左肩関節候補2−3と左肘関節候補3−3とのペア
ペア生成部35は、左肘関節候補3−1〜3−3(複数の第1部位候補)と左手首関節候補4−1〜4−3(複数の第2部位候補)とを組み合わせて、左肘関節候補3と左手首関節候補4とのペアを複数生成する。生成されるペアは、以下の9個である。
左肘関節候補3−1と左手首関節候補4−1とのペア
左肘関節候補3−1と左手首関節候補4−2とのペア
左肘関節候補3−1と左手首関節候補4−3とのペア
左肘関節候補3−2と左手首関節候補4−1とのペア
左肘関節候補3−2と左手首関節候補4−2とのペア
左肘関節候補3−2と左手首関節候補4−3とのペア
左肘関節候補3−3と左手首関節候補4−1とのペア
左肘関節候補3−3と左手首関節候補4−2とのペア
左肘関節候補3−3と左手首関節候補4−3とのペア
図1を参照して、第1推定値算出部36(第1算出部)は、部位候補検出部33が生成した合成画像11と部位関連度算出部34が算出した上述したベクトル場とを用いて、図6に示す複数のペアのそれぞれについて、第1部位候補と第2部位候補とが繋がっている推定を示す値である第1推定値を算出する。非特許文献1には、この算出方法の一例が開示されている。ここでは第1推定値を尤度とする。左肘関節候補3と左手首関節候補4とのペアを例にして、第1推定値の具体例を図7〜図9に示す。
図7を参照して、左肘関節候補3−1と左手首関節候補4−1とのペアの第1推定値は、0.6であり、左肘関節候補3−1と左手首関節候補4−2とのペアの第1推定値は、0.5であり、左肘関節候補3−1と左手首関節候補4−3とのペアの第1推定値は、0.03である。
図8を参照して、左肘関節候補3−2と左手首関節候補4−1とのペアの第1推定値は、0.5であり、左肘関節候補3−2と左手首関節候補4−2とのペアの第1推定値は、0.55であり、左肘関節候補3−2と左手首関節候補4−3とのペアの第1推定値は、0.25である。
図9を参照して、左肘関節候補3−3と左手首関節候補4−1とのペアの第1推定値は、0.05であり、左肘関節候補3−3と左手首関節候補4−2とのペアの第1推定値は、0.6であり、左肘関節候補3−3と左手首関節候補4−3とのペアの第1推定値は、0.2である。
第1推定値を用いて、複数の第1部位候補と複数の第2部位候補とのマッチングがされると、検出対象となる部位(例えば、左肘関節、左手首関節)と無関係な部位(例えば、図4に示す左手の手袋9の口部、机7の天板の1つの角部)が、検出対象となる部位と繋がれることがある。これを比較例を用いて詳しく説明する。比較例は、第1推定値を用いて、左肘関節候補3−1〜3−3(複数の第1部位候補)と左手首関節候補4−1〜4−3(複数の第2部位候補)とをマッチングする。比較例において、左肘関節候補3−1〜3−3と左手首関節候補4−1〜4−3との組み合わせは、図10〜図15に示す6通りがある。
図10は、比較例において、左肘関節候補3−1〜3−3と左手首関節候補4−1〜4−3との組み合わせの1つ目を説明する説明図である。図11は、同2つ目を説明する説明図である。図12は、同3つ目を説明する説明図である。図13は、同4つ目を説明する説明図である。図14は、同5つ目を説明する説明図である。図15は、同6つ目を説明する説明図である。これらの図中の数字は、第1推定値(左肘関節候補3と左手首関節候補4とが繋がっている推定を示す値)を示している。
図10は、左肘関節候補3−1と左手首関節候補4−1とが繋がれ、左肘関節候補3−2と左手首関節候補4−2とが繋がれ、左肘関節候補3−3と左手首関節候補4−3とが繋がれる場合である。図11は、左肘関節候補3−1と左手首関節候補4−2とが繋がれ、左肘関節候補3−2と左手首関節候補4−1とが繋がれ、左肘関節候補3−3と左手首関節候補4−3とが繋がれる場合である。図12は、左肘関節候補3−1と左手首関節候補4−3とが繋がれ、左肘関節候補3−2と左手首関節候補4−2とが繋がれ、左肘関節候補3−3と左手首関節候補4−1とが繋がれる場合である。
図13は、左肘関節候補3−1と左手首関節候補4−1とが繋がれ、左肘関節候補3−2と左手首関節候補4−3とが繋がれ、左肘関節候補3−3と左手首関節候補4−2とが繋がれる場合である。図14は、左肘関節候補3−1と左手首関節候補4−2とが繋がれ、左肘関節候補3−2と左手首関節候補4−3とが繋がれ、左肘関節候補3−3と左手首関節候補4−1とが繋がれる場合である。図15は、左肘関節候補3−1と左手首関節候補4−3とが繋がれ、左肘関節候補3−2と左手首関節候補4−1とが繋がれ、左肘関節候補3−3と左手首関節候補4−2とが繋がれる場合である。
図10〜図15で示される第1推定値は、図7〜図9で示される第1推定値から選択されている。図10を例にして説明する。図10を参照して、左肘関節候補3−1と左手首関節候補4−1とのペアの第1推定値0.6は、図7に示す第1推定値0.6である。左肘関節候補3−2と左手首関節候補4−2とのペアの第1推定値0.55は、図8に示す第1推定値0.55である。左肘関節候補3−3と左手首関節候補4−3とのペアの第1推定値0.2は、図9に示す第1推定値0.2である。
図10に示す組み合わせの場合、第1推定値の合計が、1.35である。図11に示す組み合わせの場合、第1推定値の合計が、1.2である。図12に示す組み合わせの場合、第1推定値の合計が、0.63である。図13に示す組み合わせの場合、第1推定値の合計が、1.45である。図14に示す組み合わせの場合、第1推定値の合計が、0.8である。図15に示す組み合わせの場合、第1推定値の合計が、1.13である。
第1推定値の合計が1番大きい組み合わせが、マッチングとして採用される。ここでは、図13に示す組み合わせが、マッチングとして採用される。図4および図13を参照して、左肘関節候補3−2(人物6の左肘関節)と左手首関節候補4−3(左手の手袋9の口部)とが繋がれ、左肘関節候補3−3(机7の天板の1つの角部)と左手首関節候補4−2(人物6の左手首関節)とが繋がれている。これは、図9に示すように、左肘関節候補3−3と左手首関節候補4−2とのペアの第1推定値が比較的大きいからである。
そこで、実施形態は、修正した第1推定値を用いてマッチングをする。図1を参照して、第1推定値修正部37(修正部)は、既にマッチングされており、繋がっている推定を示す値が第2推定値である部位候補どうしの一方であって、第1部位候補および第2部位候補のいずれとも異なる部位候補が、第1部位候補または第2部位候補と繋がっている場合、第2推定値を重み付けとして、第1推定値を修正する処理を、複数のペアのそれぞれについて実行する。以下、詳しく説明する。
第2推定値は、既にマッチングされている部位候補どうしが繋がっている推定を示す値である。比較例を用いて第2推定値について説明すると、上述したように、比較例では、図13に示す組み合わせが、マッチングとして採用される。左肘関節候補3−1と左手首関節候補4−1とのペアの第1推定値0.6、左肘関節候補3−2と左手首関節候補4−3とのペアの第1推定値0.25、左肘関節候補3−3と左手首関節候補4−2とのペアの第1推定値0.6が、それぞれ、第2推定値となる。すなわち、マッチングされた部位候補どうしが繋がっている推定を示す値は、マッチング前が第1推定値であり、マッチング後が第2推定値となる。
第2推定値について、図16を用いてさらに説明する。図16は、左肩関節候補2と左肘関節候補3とが既にマッチングされており、左肘関節候補3と左手首関節候補4とがまだマッチングされていない状態を説明する説明図である。左肘関節候補3が第1部位候補であり、左手首関節候補4が第2部位候補であり、左肩関節候補2と左肘関節候補3とが既にマッチングされている部位候補どうしであり、左肩関節候補2が部位候補どうしの一方である。この場合、左肩関節候補2(部位候補どうしの一方)は、左肘関節候補3(第1部位候補)および左手首関節候補4(第2部位候補)のいずれとも異なり、かつ、左肘関節候補3(第1部位候補)と繋がっている。この左肩関節候補2と左肘関節候補3とが繋がっている推定を示す値が第2推定値である。すなわち、左肩関節候補2−1と左肘関節候補3−1とのペアの第1推定値0.7、左肩関節候補2−2と左肘関節候補3−2とのペアの第1推定値0.9、左肩関節候補2−3と左肘関節候補3−3とのペアの第1推定値0.01が、それぞれ第2推定値である。
なお、既にマッチングされている部位候補どうしが2以上ある場合、いずれの部位候補どうしでもよい。例えば、首関節候補1(図6)と左肩関節候補2とが既にマッチングされている部位候補どうしであり、かつ、左肩関節候補2と左肘関節候補3とが既にマッチングされている部位候補どうしとする。この場合、首関節候補1と左肩関節候補2とが繋がっている推定を示す値を第2推定値にしてもよいし、左肩関節候補2と左肘関節候補3とが繋がっている推定を示す値を第2推定値にしてもよい。
部位候補どうしの一方が、第1部位候補または第2部位候補と繋がっているのは、直接的でもよいし、間接的でもよい。例えば、既にマッチングによって、右肩関節候補(不図示)と首関節候補1とが繋がっており、首関節候補1と左肩関節候補2とが繋がっており、左肩関節候補2と左肘関節候補3とが繋がっているとする。この場合、左肩関節候補2(部位候補どうしの一方)は、左肘関節候補3(第1部位候補)と直接的に繋がっており、首関節候補1(部位候補どうしの一方)は、左肘間接候補3(第1部位候補)と間接的に繋がっており、右肩関節候補(部位候補どうしの一方)は、左肘間接候補3(第1部位候補)と間接的に繋がっている。
部位候補どうしの一方(左肩関節候補2)が、第1部位候補(左肘関節候補3)と繋がっている場合で説明したが、左手首関節候補4が第1部位候補とし、左肘関節候補3が第2部位候補とした場合、部位候補どうしの一方(左肩関節候補2)は、左肘関節候補3(第2部位候補)と繋がっていることになる。
図1を参照して、第1推定値修正部37は、第2推定値を重み付けとして、第1推定値を修正する処理を、ペア生成部35が生成した複数のペアのそれぞれについて実行する。実施形態では、第1推定値と第2推定値とを乗算した値を、修正した第1推定値にするが、これに限定されず、例えば、第1推定値と第2推定値とを加算した値を、修正した第1推定値にしてもよい。
図17〜図19を用いて、修正した第1推定値の具体例を説明する。首関節候補1と左肩関節候補2とは、既にマッチングされており、左肩関節候補2と左肘関節候補3とは、既にマッチングされている。左肘関節候補3と左手首関節候補4とは、まだマッチングされていない。首関節候補1と左肩関節候補2との繋がりを示す値、左肩関節候補2と左肘関節候補3との繋がりを示す値は、それぞれ、第2推定値である。第1推定値修正部37は、後者の第2推定値と第1推定値とを乗算して、第1推定値を修正する。
図17を参照して、左肘関節候補3−1と左手首関節候補4−1とのペアの第1推定値は、0.6であり、修正した第1推定値は、0.42である。左肘関節候補3−1と左手首関節候補4−2とのペアの第1推定値は、0.5であり、修正した第1推定値は、0.35である。左肘関節候補3−1と左手首関節候補4−3とのペアの第1推定値は、0.03であり、修正した第1推定値は、0.021である。
図18を参照して、左肘関節候補3−2と左手首関節候補4−1とのペアの第1推定値は、0.5であり、修正した第1推定値は、0.45である。左肘関節候補3−2と左手首関節候補4−2とのペアの第1推定値は、0.55であり、修正した第1推定値は、0.495である。左肘関節候補3−2と左手首関節候補4−3とのペアの第1推定値は、0.25であり、修正した第1推定値は、0.225である。
図19を参照して、左肘関節候補3−3と左手首関節候補4−1とのペアの第1推定値は、0.05であり、修正した第1推定値は、0.0005である。左肘関節候補3−3と左手首関節候補4−2とのペアの第1推定値は、0.6であり、修正した第1推定値は、0.006である。左肘関節候補3−3と左手首関節候補4−3とのペアの第1推定値は、0.2であり、修正した第1推定値は、0.002である。
図1を参照して、マッチング部38は、上記複数のペアのそれぞれの修正した第1推定値を基にして、複数の第1部位候補との前記第2部位候補とをマッチングする。図20〜図25を用いて、マッチングについて詳しく説明する。
図20は、実施形態において、左肘関節候補3−1〜3−3と左手首関節候補4−1〜4−3との組み合わせの1つ目を説明する説明図である。図21は、同2つ目を説明する説明図である。図22は、同3つ目を説明する説明図である。図23は、同4つ目を説明する説明図である。図24は、同5つ目を説明する説明図である。図25は、同6つ目を説明する説明図である。これらの図中の数字は、修正した第1推定値を示している。
図20は、図10と同じく、左肘関節候補3−1と左手首関節候補4−1とが繋がれ、左肘関節候補3−2と左手首関節候補4−2とが繋がれ、左肘関節候補3−3と左手首関節候補4−3とが繋がれる場合である。図21は、図11と同じく、左肘関節候補3−1と左手首関節候補4−2とが繋がれ、左肘関節候補3−2と左手首関節候補4−1とが繋がれ、左肘関節候補3−3と左手首関節候補4−3とが繋がれる場合である。図22は、図12と同じく、左肘関節候補3−1と左手首関節候補4−3とが繋がれ、左肘関節候補3−2と左手首関節候補4−2とが繋がれ、左肘関節候補3−3と左手首関節候補4−1とが繋がれる場合である。
図23は、図13と同じく、左肘関節候補3−1と左手首関節候補4−1とが繋がれ、左肘関節候補3−2と左手首関節候補4−3とが繋がれ、左肘関節候補3−3と左手首関節候補4−2とが繋がれる場合である。図24は、図14と同じく、左肘関節候補3−1と左手首関節候補4−2とが繋がれ、左肘関節候補3−2と左手首関節候補4−3とが繋がれ、左肘関節候補3−3と左手首関節候補4−1とが繋がれる場合である。図25は、図15と同じく、左肘関節候補3−1と左手首関節候補4−3とが繋がれ、左肘関節候補3−2と左手首関節候補4−1とが繋がれ、左肘関節候補3−3と左手首関節候補4−2とが繋がれる場合である。
図20〜図25で示される第1推定値は、図17〜図19で示される推定値から選択されている。図20を例にして説明する。図20を参照して、左肘関節候補3−1と左手首関節候補4−1とのペアの修正した第1推定値0.42は、図17に示す修正した第1推定値0.42である。左肘関節候補3−2と左手首関節候補4−2とのペアの修正した第1推定値0.495は、図18に示す修正した第1推定値0.495である。左肘関節候補3−3と左手首関節候補4−3とのペアの修正した第1推定値0.002は、図19に示す修正した第1推定値0.002である。
図20に示す組み合わせの場合、修正した第1推定値の合計が、0.917である。図21に示す組み合わせの場合、修正した第1推定値の合計が、0.802である。図22に示す組み合わせの場合、修正した第1推定値の合計が、0.5165である。図23に示す組み合わせの場合、修正した第1推定値の合計が、0.651である。図24に示す組み合わせの場合、修正した第1推定値の合計が、0.5755ある。図25に示す組み合わせの場合、修正した第1推定値の合計が、0.477である。
修正した第1推定値の合計が1番大きい組み合わせが、マッチングとして採用される。ここでは、図20に示す組み合わせが、マッチングとして採用される。図4および図20を参照して、左肘関節候補3−1(人物5の左肘関節)と左手首関節候補4−1(人物5の左手首関節)とが繋がれ、左肘関節候補3−2(人物6の左肘関節)と左手首関節候補4−2(人物6の左手首関節)とが繋がれ、左肘関節候補3−3(机7の天板の1つの角部)と左手首関節候補4−3(左手の手袋9の口部)とが繋がれている。図13に示す比較例と異なり、実施形態では、関節と無関係な部位(机7の上に置かれた左手の手袋9、机7の天板の角部の1つ)を示す関節候補(左肘関節候補3−3、左手首関節候補4−3)が、関節(人物6の左肘関節、左手首関節)を示す関節候補(左肘関節候補3−2、左手首関節候補4−2)と繋げられることを防ぐことができている。
この理由について説明する。無関係部位は、関節との関連性が弱いので、無関係部位を示す関節候補と関節を示す関節候補とのペアの第1推定値は、通常、低い値となる。しかしながら、このペアの第1推定値が、偶然に、大きな値になることがある。例えば、図4および図9を参照して、左肘関節候補3−3(机7の天板の1つの角部)と左手首関節候補4−2(人物6の左手首関節)とのペアの第1推定値は、0.6である。このため、第1推定値を用いて関節候補のマッチングがされると、図13に示すように、無関係部位を示す関節候補と関節を示す関節候補とが繋げられることがある。
無関係部位どうしは、関連性が弱いので、既にマッチングされた無関係部位どうしの繋がりの推定を示す第2推定値は、通常、低く、または、極端に低い。例えば、図17〜図19に示すように、首関節候補1−3(椅子8の1つの脚の下端部)と左肩関節候補2−3(机7の1つの脚の下端部)との繋がりの推定を示す第2推定値は、0.006であり、左肩関節候補2−3と左肘関節候補3−3(机7の天板の1つの角部)との繋がりの推定を示す第2推定値は、0.01である。このため、仮に、関節と無関係部位とのペアの第1推定値が大きくても、第2推定値と第1推定値とを乗算した値(修正した第1推定値)は、小さく、または、極端に小さくなる。従って、修正した第1推定値を用いて、関節候補のマッチングがされれば、無関係部位を示す関節候補(左肘関節候補3−3、左手首関節候補4−3)と、関節を示す関節候補(左肘関節候補3−2、左手首関節候補4−2)とが繋げられることを防ぐことができる。以上説明したように、実施形態によれば、複数の人物が写された画像10から検出された関節候補のマッチング精度を向上させることができる。
実施形態に係る画像認識装置100が関節候補をマッチングする処理について説明する。図26は、この処理を説明するフローチャートである。図1および図26を参照して、ユーザが入力部40を操作して、図2に示す画像10を選択し、関節候補のマッチングをする命令を入力する。これにより、制御処理部31は、画像記憶部321に記憶されている画像10を読み出し、部位候補検出部33および部位関連度算出部34へ送る(ステップS1)。
送られてきた画像10は、部位候補検出部33と部位関連度算出部34とでパラレルに処理される。部位候補検出部33は、送られてきた画像10を基にして、合成画像11(図4)を生成し、部位関連度算出部34は、送られてきた画像10を基にして、ベクトル場を算出する(ステップS2)。ベクトル場の一部70の具体例が図5に示されている。
部位候補検出部33は、合成画像11を生成する前提として、画像10から、図4に示す首関節候補1、左肩関節候補2、左肘関節候補3、左手首節候補4をそれぞれ複数検出する。
ペア生成部35は、これらの検出された関節候補と、繋がり情報記憶部322に記憶されている繋がり情報60と、を用いて、関節候補(部位候補)のペアを生成する(ステップS3)。上述したように、ペア生成部35は、首関節候補1と左肩関節候補2とのペアを9個、左肩関節候補2と左肘関節候補3とのペアを9個、左肘関節候補3と左手首関節候補4とのペアを9個生成する(図6)。
第1推定値算出部36は、これらのペアのそれぞれについて、第1推定値を算出する(ステップS4)。
最初にマッチングされる組み合わせが、首関節候補1と左肩関節候補2とであり、次にマッチングされる組み合わせが、左肩関節候補2と左肘関節候補3とであり、最後にマッチングされる組み合わせが、左肘関節候補3と左手首関節候補4とであるとする。マッチング部38は、首関節候補1と左肩関節候補2とをマッチングする前に、既にマッチングされている部位候補(関節候補)どうしがあるか否かを判断する(ステップS5)。この時点では、既にマッチングされている部位候補どうしがないので(ステップS5でNo)、マッチング部38は、首関節候補1と左肩関節候補2とのペア9個のそれぞれの第1推定値を用いて、首関節候補1(部位候補)と左肩関節候補2(部位候補)とをマッチングする(ステップS6)。図27は、このマッチングの結果を示す説明図である。首関節候補1−1と左肩関節候補2−1とが繋げられ、首関節候補1−2と左肩関節候補2−2とが繋げられ、首関節候補1−3と左肩関節候補2−3とが繋げられている。図中の数値(0.8,0.7,0.006)は、第2推定値である。
マッチング部38は、マッチングされていない部位候補(関節候補)どうしがあるか否かを判断する(ステップS7)。左肩関節候補2と左肘関節候補3とがマッチングされておらず、左肘関節候補3と左手首関節候補4とがマッチングされていない。よって、マッチング部38は、マッチングされていない部位候補どうしがあると判断し(ステップS7でYes)、ステップS5に戻る。
マッチング部38は、左肩関節候補2と左肘関節候補3とをマッチングする前に、既にマッチングされている部位候補(関節候補)どうしがあるか否かを判断する(ステップS5)。首関節候補1と左肩関節候補2とが既にマッチングされている。そこで、マッチング部38は、既にマッチングされている部位候補(関節候補)どうしがあると判断し(ステップS5でYes)、第1推定値修正部37に、第1推定値を修正する命令をする。
これにより、第1推定値修正部37は、左肩関節候補2と左肘関節候補3とのペア9個のそれぞれの第1推定値を修正する(ステップS8)。修正に用いる第2推定値は、図27に示す首関節候補1と左肩関節候補2とが繋がっている推定を示す3つの第2推定値0.8,0.7,0.006である。
マッチング部38は、左肩関節候補2と左肘関節候補3とのペア9個のそれぞれの修正した第1推定値を用いて、左肩関節候補2(第1部位候補)と左肘関節候補3(第2部位候補)とをマッチングする(ステップS9)。図28は、このマッチングの結果を示す説明図である。左肩関節候補2−1と左肘関節候補3−1とが繋げられ、左肩関節候補2−2と左肘関節候補3−2とが繋げられ、左肩関節候補2−3と左肘関節候補3−3とが繋げられている。図中の数値(0.8,0.7,0.006,0.7,0.9,0.01)は、第2推定値である。
マッチング部38は、マッチングされていない部位候補(関節候補)どうしがあるか否かを判断する(ステップS7)。左肘関節候補3と左手首関節候補4とがマッチングされていない。よって、マッチング部38は、マッチングされていない部位候補どうしがあると判断し(ステップS7でYes)、ステップS5に戻る。
マッチング部38は、左肘関節候補3と左手首関節候補4とをマッチングする前に、既にマッチングされている部位候補(関節候補)どうしがあるか否かを判断する(ステップS5)。首関節候補1と左肩関節候補2とが既にマッチングされており、左肩関節候補2と左肘関節候補3とが既にマッチングされている(図28)。そこで、マッチング部38は、既にマッチングされている部位候補(関節候補)どうしがあると判断し(ステップS5でYes)、第1推定値修正部37に、第1推定値を修正する命令をする。
これにより、第1推定値修正部37は、左肘関節候補3と左手首関節候補4とのペア9個のそれぞれの第1推定値を修正する(ステップS8)。修正に用いる第2推定値は、図28に示す左肩関節候補2と左肘関節候補3とが繋がっている推定を示す3つの第2推定値0.7,0.9,0.01である。なお、首関節候補1と左肩関節候補2とが繋がっている推定を示す3つの第2推定値0.8,0.7,0.006でもよい。
マッチング部38は、左肘関節候補3と左手首関節候補4とのペア9個のそれぞれの修正した第1推定値を用いて、左肘関節候補3(第1部位候補)と左手首関節候補4(第2部位候補)とをマッチングする(ステップS9)。図29は、このマッチングの結果を示す説明図である。左肘関節候補3−1と左手首関節候補4−1とが繋げられ、左肘関節候補3−2と左手首関節候補4−2とが繋げられ、左肘関節候補3−3と左手首関節候補4−3とが繋げられている。図中の数値(0.8,0.7,0.006,0.7,0.9,0.01,0.42,0.495,0.002)は、第2推定値である。
マッチング部38は、マッチングされていない部位候補(関節候補)どうしがあるか否かを判断する(ステップS7)。マッチングされていない部位候補どうしはない。よって、マッチング部38は、マッチングされていない部位候補どうしがないと判断し(ステップS7でNo)、マッチングを完了する(ステップS10)。図29を参照して、マッチングによって、首関節候補1−1と左肩関節候補2−1と左肘関節候補3−1と左手首関節候補4−1とが1つに繋がれ(1つに繋げられた4つの関節候補)、首関節候補1−2と左肩関節候補2−2と左肘関節候補3−2と左手首関節候補4−2とが1つに繋がれ(1つに繋げられた4つの関節候補)、首関節候補1−3と左肩関節候補2−3と左肘関節候補3−3と左手首関節候補4−3とが1つに繋がれている(1つに繋げられた4つの関節候補)。1つに繋げられた4つの関節候補が3つできている。
制御処理部31(記憶処理部)は、これらの1つに繋げられた4つの関節候補を分類する(ステップS11)。詳しく説明すると、制御処理部31は、1つに繋げられた4つの関節候補(首関節候補1−1、左肩関節候補2−1、左肘関節候補3−1、左手首関節候補4−1)を1つの人物が有する4つの関節候補、1つに繋げられた4つの関節候補(首関節候補1−2、左肩関節候補2−2、左肘関節候補3−2、左手首関節候補4−2)を1つの人物が有する4つの関節候補、1つに繋げられた4つの関節候補(首関節候補1−3、左肩関節候補2−3、左肘関節候補3−3、左手首関節候補4−3)を1つの人物が有する4つの関節候補に、それぞれ分類し、マッチング結果記憶部323に記憶させる。なお、制御処理部31(記憶処理部)は、1つに繋げられた4つの関節候補において、第2推定値を合計し、合計した値が所定のしきい値以下の場合、人物と関連性がないと見なし、分類の対象から除外してもよい。図29の場合、1つに繋げられた4つの関節候補(首関節候補1−3、左肩関節候補2−3、左肘関節候補3−3、左手首関節候補4−3)が分類の対象から除外される。
このように、制御処理部31(記憶処理部)は、マッチングによって1つに繋げられた複数の部位候補を、1つの物体が有する複数の部位として、マッチング結果記憶部323(第2記憶部)に記憶させる処理を、複数の物体のそれぞれについて実行する。
マッチングによって1つに繋げられた4つの関節候補は、1人の人物が有する4つの関節(首関節、左肩関節、左肘関節、左手首関節)を示し、この人物の左腕の姿勢推定に用いることができる。実施形態によれば、画像10に写された複数の人物のそれぞれについて、1つに繋げられた4つの関節候補をマッチング結果記憶部323に記憶する。従って、これらを、画像10に写された複数の人物のそれぞれの左腕の姿勢推定に用いることができる。
図30は、図1に示す画像認識装置100のハードウェア構成を示すブロック図である。画像認識装置100は、CPU(Central Processing Unit)100a、GPU(Graphics Processing Unit)100b、RAM(Random Access Memory)100c、ROM(Read Only Memory)100d、HDD(Hard Disk Drive)100e、液晶ディスプレイ100f、キーボード等100g、および、これらを接続するバス100hを備える。
図1および図30を参照して、液晶ディスプレイ100fは、出力部50を実現するハードウェアである。液晶ディスプレイ100fの替わりに、有機ELディスプレイ(Organic Light Emitting Diode display)、プラズマディスプレイ等でもよい。キーボード等100gは、入力部40を実現するハードウェアである。キーボードの替わりに、タッチパネルでもよい。
HDD100eは、記憶部32を実現するハードウェアである。また、HDD100eには、制御処理部31、部位候補検出部33、部位関連度算出部34、ペア生成部35、第1推定値算出部36、第1推定値修正部37、マッチング部38について、これらの機能ブロックをそれぞれ実現するためのプログラムが格納されている。これらのプログラムは、機能ブロックの定義を用いて表現される。部位候補検出部33および部位候補検出プログラムを例にして説明する。部位候補検出部33は、複数の部位(例えば、関節)を有する物体(例えば、人物)が複数写された画像から、前記部位の候補となる部位候補を複数検出する処理を、複数の前記部位のそれぞれについて実行する。部位候補検出プログラムは、複数の部位(例えば、関節)を有する物体(例えば、人物)が複数写された画像から、前記部位の候補となる部位候補を複数検出する処理を、複数の前記部位のそれぞれについて実行するプログラムである。
これらのプログラムは、HDD100eに予め記憶されているが、これに限定されない。例えば、これらのプログラムを記録している記録媒体(例えば、磁気ディスク、光学ディスクのような外部記録媒体)が用意されており、この記録媒体に記憶されているプログラムがHDD100eに記憶されてもよい。また、これらのプログラムは、画像認識装置100とネットワーク接続されたサーバに格納されており、ネットワークを介して、これらのプログラムがHDD100eに送られ、HDD100eに記憶されてもよい。これらのプログラムは、HDD100eの替わりにROM100dに記憶してもよい。画像認識装置100は、HDD100eの替わりに、フラッシュメモリを備え、これらのプログラムはフラッシュメモリに記憶してもよい。
CPU100aは、これらのプログラムを、HDD100eから読み出してRAM100cに展開させ、展開されたプログラムを実行することによって、制御処理部31、部位候補検出部33、部位関連度算出部34、ペア生成部35、第1推定値算出部36、第1推定値修正部37、マッチング部38が実現される。但し、これらの機能について、各機能の一部又は全部は、CPU100aによる処理に替えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に替えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。
CPU100aによって実行されるこれらのプログラム(部位候補検出プログラム等)のフローチャートが、図26のフローチャートである。
GPU100bは、例えば、CPU100aの制御の下で、深層学習(例えば、CNN)に必要な各種処理(例えば、画像処理)を実行する。
実施形態は、複数の人物のそれぞれの関節候補のマッチングを例にして説明したが、本発明は、これに限定されず、複数の人型ロボットのそれぞれの関節候補のマッチング、複数の動物のそれぞれの関節候補のマッチングに適用できる。また、関節候補のマッチングに限らず、複数の顔のそれぞれの認識において、顔のパーツ(目、鼻、口、耳)のマッチングにも適用することが可能である。
1,1−1〜1−3 首関節候補
2,2−1〜2−3 左肩関節候補
3,3−1〜3−3 左肘関節候補
4,4−1〜4−3 左手首関節候補
5,6 人物
7 机
8 椅子
9 左手の手袋
10 画像
11 合成画像
70 ベクトル場の一部
100 画像認識装置

Claims (6)

  1. 複数の部位を有する物体が複数写された画像から、前記部位の候補となる部位候補を複数検出する処理を、複数の前記部位のそれぞれについて実行する検出部と、
    マッチングの対象となる前記部位候補の一方である第1部位候補と他方である第2部位候補とにおいて、複数の前記第1部位候補と複数の前記第2部位候補とを組み合わせて、前記第1部位候補と前記第2部位候補とのペアを複数生成する生成部と、
    複数の前記ペアのそれぞれについて、前記第1部位候補と前記第2部位候補とが繋がっている推定を示す値である第1推定値を算出する第1算出部と、
    既にマッチングされており、繋がっている推定を示す値が第2推定値である前記部位候補どうしの一方であって、前記第1部位候補および前記第2部位候補のいずれとも異なる前記部位候補が、前記第1部位候補または前記第2部位候補と繋がっている場合、前記第2推定値を重み付けとして、前記第1推定値を修正する処理を、複数の前記ペアのそれぞれについて実行する修正部と、
    複数の前記ペアのそれぞれの修正した前記第1推定値を基にして、複数の前記第1部位候補と複数の前記第2部位候補とをマッチングするマッチング部と、を備える画像認識装置。
  2. 前記修正部は、前記第1推定値と前記第2推定値とを乗算した値を、修正した前記第1推定値にする、請求項1に記載の画像認識装置。
  3. 複数の前記部位の繋がりの関係を示す繋がり情報を予め記憶する第1記憶部と、
    前記生成部は、前記第1記憶部に記憶されている前記繋がり情報を用いて、前記検出部によって検出された前記部位候補の中で、前記第1部位候補と前記第2部位候補との関係を有する2種類の前記部位候補を特定する、請求項1または2に記載の画像認識装置。
  4. 第2記憶部と、
    前記マッチングによって1つに繋げられた複数の前記部位候補を、1つの前記物体が有する複数の前記部位として、前記第2記憶部に記憶させる処理を、複数の前記物体のそれぞれについて実行する記憶処理部と、をさらに備える請求項1〜3のいずれか一項に記載の画像認識装置。
  5. 複数の部位を有する物体が複数写された画像から、前記部位の候補となる部位候補を複数検出する処理を、複数の前記部位のそれぞれについて実行する検出ステップと、
    マッチングの対象となる前記部位候補の一方である第1部位候補と他方である第2部位候補とにおいて、複数の前記第1部位候補と複数の前記第2部位候補とを組み合わせて、前記第1部位候補と前記第2部位候補とのペアを複数生成する生成ステップと、
    複数の前記ペアのそれぞれについて、前記第1部位候補と前記第2部位候補とが繋がっている推定を示す値である第1推定値を算出する第1算出ステップと、
    既にマッチングされており、繋がっている推定を示す値が第2推定値である前記部位候補どうしの一方であって、前記第1部位候補および前記第2部位候補のいずれとも異なる前記部位候補が、前記第1部位候補または前記第2部位候補と繋がっている場合、前記第2推定値を重み付けとして、前記第1推定値を修正する処理を、複数の前記ペアのそれぞれについて実行する修正ステップと、
    複数の前記ペアのそれぞれの修正した前記第1推定値を基にして、複数の前記第1部位候補と複数の前記第2部位候補とをマッチングするマッチングステップと、を備える画像認識方法。
  6. 複数の部位を有する物体が複数写された画像から、前記部位の候補となる部位候補を複数検出する処理を、複数の前記部位のそれぞれについて実行する検出ステップと、
    マッチングの対象となる前記部位候補の一方である第1部位候補と他方である第2部位候補とにおいて、複数の前記第1部位候補と複数の前記第2部位候補とを組み合わせて、前記第1部位候補と前記第2部位候補とのペアを複数生成する生成ステップと、
    複数の前記ペアのそれぞれについて、前記第1部位候補と前記第2部位候補とが繋がっている推定を示す値である第1推定値を算出する第1算出ステップと、
    既にマッチングされており、繋がっている推定を示す値が第2推定値である前記部位候補どうしの一方であって、前記第1部位候補および前記第2部位候補のいずれとも異なる前記部位候補が、前記第1部位候補または前記第2部位候補と繋がっている場合、前記第2推定値を重み付けとして、前記第1推定値を修正する処理を、複数の前記ペアのそれぞれについて実行する修正ステップと、
    複数の前記ペアのそれぞれの修正した前記第1推定値を基にして、複数の前記第1部位候補と複数の前記第2部位候補とをマッチングするマッチングステップと、をコンピュータに実行させる画像認識プログラム。
JP2018013933A 2018-01-30 2018-01-30 画像認識装置、画像認識方法、および、画像認識プログラム Active JP6939608B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018013933A JP6939608B2 (ja) 2018-01-30 2018-01-30 画像認識装置、画像認識方法、および、画像認識プログラム
US16/211,772 US10861182B2 (en) 2018-01-30 2018-12-06 Image recognition device, image recognition method, and computer-readable recording medium having image recognition program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018013933A JP6939608B2 (ja) 2018-01-30 2018-01-30 画像認識装置、画像認識方法、および、画像認識プログラム

Publications (2)

Publication Number Publication Date
JP2019133331A true JP2019133331A (ja) 2019-08-08
JP6939608B2 JP6939608B2 (ja) 2021-09-22

Family

ID=67391557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018013933A Active JP6939608B2 (ja) 2018-01-30 2018-01-30 画像認識装置、画像認識方法、および、画像認識プログラム

Country Status (2)

Country Link
US (1) US10861182B2 (ja)
JP (1) JP6939608B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021193553A (ja) * 2020-05-25 2021-12-23 ジック アーゲー カメラ及び画像データ処理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228304A1 (en) * 2022-05-25 2023-11-30 Nec Corporation Key-point associating apparatus, key-point associating method, and non-transitory computer-readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005351814A (ja) * 2004-06-11 2005-12-22 Konica Minolta Holdings Inc 検出装置および検出方法
JP2007094906A (ja) * 2005-09-29 2007-04-12 Toshiba Corp 特徴点検出装置および方法
JP2018013999A (ja) * 2016-07-21 2018-01-25 日本電信電話株式会社 姿勢推定装置、方法、及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4689758B1 (ja) * 2010-04-22 2011-05-25 株式会社市川ソフトラボラトリー 画像一致点検出装置、画像一致点検出方法および記録媒体
WO2012077286A1 (ja) * 2010-12-09 2012-06-14 パナソニック株式会社 物体検出装置および物体検出方法
US9449392B2 (en) * 2013-06-05 2016-09-20 Samsung Electronics Co., Ltd. Estimator training method and pose estimating method using depth image
JP6433149B2 (ja) * 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005351814A (ja) * 2004-06-11 2005-12-22 Konica Minolta Holdings Inc 検出装置および検出方法
JP2007094906A (ja) * 2005-09-29 2007-04-12 Toshiba Corp 特徴点検出装置および方法
JP2018013999A (ja) * 2016-07-21 2018-01-25 日本電信電話株式会社 姿勢推定装置、方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021193553A (ja) * 2020-05-25 2021-12-23 ジック アーゲー カメラ及び画像データ処理方法
JP7221329B2 (ja) 2020-05-25 2023-02-13 ジック アーゲー カメラ及び画像データ処理方法
US11941859B2 (en) 2020-05-25 2024-03-26 Sick Ag Camera and method for processing image data

Also Published As

Publication number Publication date
US20190236801A1 (en) 2019-08-01
JP6939608B2 (ja) 2021-09-22
US10861182B2 (en) 2020-12-08

Similar Documents

Publication Publication Date Title
CN111488824B (zh) 运动提示方法、装置、电子设备和存储介质
KR20210011425A (ko) 이미지 처리 방법 및 디바이스, 이미지 장치, 및 저장 매체
Chaudhari et al. Yog-guru: Real-time yoga pose correction system using deep learning methods
JP2019016106A (ja) 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム
JP7015152B2 (ja) キーポイントデータに関する加工装置、方法及びプログラム
US11335025B2 (en) Method and device for joint point detection
JP2019191974A (ja) 情報処理装置、情報処理プログラム、及び、情報処理方法
JP2015028702A (ja) 情報処理装置、情報処理方法およびプログラム
JP6939608B2 (ja) 画像認識装置、画像認識方法、および、画像認識プログラム
Gouidis et al. Accurate hand keypoint localization on mobile devices
CN110738650A (zh) 一种传染病感染识别方法、终端设备及存储介质
JP2019219989A (ja) 姿勢推定装置、姿勢推定方法、およびプログラム
KR20230080938A (ko) 컨볼루션 블록 어텐션 모듈을 이용한 동작 인식 및 분류 방법 및 장치
US20230289998A1 (en) Object recognition device, object recognition method, and recording medium
WO2019022829A1 (en) HUMAN FEEDBACK IN A 3D MODEL ADJUSTMENT
CN116092120B (zh) 基于图像的动作确定方法、装置、电子设备及存储介质
JP2017158644A (ja) 測定装置、測定方法及び測定プログラム
US20220415085A1 (en) Method of machine learning and facial expression recognition apparatus
US20220139061A1 (en) Model training method and apparatus, keypoint positioning method and apparatus, device and medium
JP2020140283A (ja) 情報処理装置、情報処理方法、および、コンピュータプログラム
CN110781857A (zh) 运动监控方法、装置、系统和存储介质
CN111428665B (zh) 一种信息确定方法、设备及计算机可读存储介质
CN111161408A (zh) 一种实现增强现实的方法及其应用、计算设备
JP2019192192A (ja) 情報処理装置、情報処理プログラム、及び、情報処理方法
KR20210076559A (ko) 인체 모델의 학습 데이터를 생성하는 장치, 방법 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R150 Certificate of patent or registration of utility model

Ref document number: 6939608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150