JP7255742B2 - 姿勢特定装置、姿勢特定方法、及びプログラム - Google Patents

姿勢特定装置、姿勢特定方法、及びプログラム Download PDF

Info

Publication number
JP7255742B2
JP7255742B2 JP2022500765A JP2022500765A JP7255742B2 JP 7255742 B2 JP7255742 B2 JP 7255742B2 JP 2022500765 A JP2022500765 A JP 2022500765A JP 2022500765 A JP2022500765 A JP 2022500765A JP 7255742 B2 JP7255742 B2 JP 7255742B2
Authority
JP
Japan
Prior art keywords
basic
points
basic pattern
point
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022500765A
Other languages
English (en)
Other versions
JP2022539841A (ja
Inventor
ヤドン パン
祥治 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2022539841A publication Critical patent/JP2022539841A/ja
Application granted granted Critical
Publication of JP7255742B2 publication Critical patent/JP7255742B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

本開示は、姿勢特定装置、姿勢特定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体に関する。
複数の人間にそれぞれ対応する複数の人画像を含む画像において、各人間の姿勢(pose)を特定する技術が提案されている(例えば、特許文献1)。特許文献1に開示されている技術では、画像において人間の複数の部位ポイント(a plurality of body region points)を検出し、検出された複数の部位ポイントの中から人間の頭を特定することによって、画像中の人を特定する。そして、特定された人間の頭に他の検出部位ポイントを対応付けることによって、人間の姿勢を特定している。
米国特許出願公開第2018/0293753号明細書
しかしながら、特許文献1に開示されている技術では、頭のみに基づいて画像中の人を特定するので、例えば画像の解像度が低い場合等には、特定精度が低下する可能性がある。
本開示の目的は、複数の人画像を含む画像における人の特定精度を向上させることができる、姿勢特定装置、姿勢特定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体を提供することにある。
第1の態様にかかる姿勢特定装置は、複数の人間にそれぞれ対応する複数の人画像を含む画像において、人間についての所定の複数の部位ポイントに関して検出された複数の検出ポイントのそれぞれの前記画像における位置及び部位種別に関する情報を取得する取得手段と、
各検出ポイントを前記複数の人間のいずれかに分類することによって、各人間の姿勢を特定する制御手段と、
を具備し、
前記制御手段は、前記複数の検出ポイントから、各人間についての基本パタンを抽出する基本パタン抽出手段を含み、
前記基本パタンは、基準部位種別に対応する基準部位ポイント、及び、複数の基本部位ポイントを含み、
前記複数の基本部位ポイントは、前記基準部位種別と異なり且つ互いに異なる、複数の基本部位種別に対応する。
第2の態様にかかる姿勢特定方法は、複数の人間にそれぞれ対応する複数の人画像を含む画像において、人間についての所定の複数の部位ポイントに関して検出された複数の検出ポイントのそれぞれの前記画像における位置及び部位種別に関する情報を取得すること、及び
各検出ポイントを前記複数の人間のいずれかに分類することによって、各人間の姿勢を特定すること、
を含み、
前記各人間の姿勢を特定することは、前記複数の検出ポイントから、各人間についての基本パタンを抽出することを含み、
前記基本パタンは、基準部位種別に対応する基準部位ポイント、及び、複数の基本部位ポイントを含み、
前記複数の基本部位ポイントは、前記基準部位種別と異なり且つ互いに異なる、複数の基本部位種別に対応する。
第3の態様にかかる非一時的なコンピュータ可読媒体は、複数の人間にそれぞれ対応する複数の人画像を含む画像において、人間についての所定の複数の部位ポイントに関して検出された複数の検出ポイントのそれぞれの前記画像における位置及び部位種別に関する情報を取得すること、及び
各検出ポイントを前記複数の人間のいずれかに分類することによって、各人間の姿勢を特定すること、
を含む、処理を姿勢特定装置に実行させ、
前記各人間の姿勢を特定することは、前記複数の検出ポイントから、各人間についての基本パタンを抽出することを含み、
前記基本パタンは、基準部位種別に対応する基準部位ポイント、及び、複数の基本部位ポイントを含み、
前記複数の基本部位ポイントは、前記基準部位種別と異なり且つ互いに異なる、複数の基本部位種別に対応する、
プログラムを格納している。
本開示により、複数の人画像を含む画像における人の特定精度を向上させることができる、姿勢特定装置、姿勢特定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体を提供することができる。
第1実施形態における姿勢特定装置の一例を示すブロック図である。 第2実施形態における姿勢特定装置の一例を示すブロック図である。 人間についての所定の複数の部位ポイントの一例を示す図である。 第2実施形態における姿勢特定装置の処理動作の一例を示すフローチャートである。 基本パタンの抽出処理の説明に供する図である。 基本パタン候補のタイプを説明する図である。 基本長の算出の説明に供する図である。 グルーピングルールテーブルの一例を示す図である。 中間領域の説明に供する図である。 姿勢特定装置のハードウェア構成例を示す図である。
以下、図面を参照しつつ、実施形態について説明する。なお、実施形態において、同一又は同等の要素には、同一の符号を付し、重複する説明は省略される。
<第1実施形態>
図1は、第1実施形態における姿勢特定装置の一例を示すブロック図である。図1において姿勢特定装置10は、取得部11と、制御部12とを有している。
取得部11は、「複数の検出ポイント」のそれぞれの画像における位置及び部位種別に関する情報を取得する。「複数の検出ポイント」は、例えば、ニューラルネットワーク(不図示)によって、複数の人間にそれぞれ対応する複数の人画像を含む画像において、人間についての所定の複数の部位ポイント(body region points)に関して検出された、部位ポイントである。部位ポイントは、キーポイント(key point)と呼ばれることがある。
制御部12は、各検出ポイントを複数の人間のいずれかに分類することによって、各人間の姿勢を特定する。ここで、制御部12は、取得部11にて取得された複数の検出ポイントから、各人間についての「基本パタン(basic pattern)」を抽出する、基本パタン抽出部15を含む。「基本パタン」は、「基準部位種別」に対応する「基準部位ポイント(reference body region point)」、及び、基準部位種別と異なり且つ互いに異なる複数の基本部位種別に対応する、複数の基本部位ポイント(base body region points)を含んでいる。
例えば、「基本パタン」は、次の2つの組み合わせのうちの少なくとも1つを含んでいる。1つ目の組み合わせは、基準部位種別としての首に対応する基準部位ポイントと基本部位種別としての左肩及び左耳にそれぞれ対応する2つの基本部位ポイントとの組み合わせである。2つ目の組み合わせは、基準部位種別としての首に対応する基準部位ポイントと基本部位種別としての右肩及び右耳にそれぞれ対応する2つの基本部位ポイントとの組み合わせである。すなわち、「基本パタン」は、画像において、人間の体の中で最も安定的に検出可能なコア部分に対応している。なお、以下では、「基本パタン」をコア(core)と呼ぶことがある。
以上のように第1実施形態によれば、姿勢特定装置10にて基本パタン抽出部15は、取得部11にて取得された複数の検出ポイントから、各人間についての「基本パタン」を抽出する。「基本パタン」は、「基準部位種別」に対応する「基準部位ポイント」、及び、基準部位種別と異なり且つ互いに異なる複数の基本部位種別に対応する、複数の基本部位ポイントを含んでいる。
この姿勢特定装置10の構成により、3つ以上の部位ポイントを含む上記の基本パタンを、人間の「コア部分」として抽出することができる。これにより、画像に含まれる人を特定する精度を向上させることができる。
<第2実施形態>
第2実施形態は、上記の基本パタンの抽出の詳細に関する。
<姿勢特定装置の構成例>
図2は、第2実施形態における姿勢特定装置の一例を示すブロック図である。図2において姿勢特定装置20は、取得部11と、制御部21とを有している。
取得部11は、上記の通り、「複数の検出ポイント」のそれぞれの画像における位置及び部位種別に関する情報を取得する。「複数の検出ポイント」は、例えば、ニューラルネットワーク(不図示)によって、複数の人間にそれぞれ対応する複数の人画像を含む画像において、「人間についての所定の複数の部位ポイント(body region points)」に関して検出された、部位ポイントである。
図3は、人間についての所定の複数の部位ポイントの一例を示す図である。図3において、人間についての「所定の複数の部位ポイント」は、部位ポイントN0~N17,M0~M9を含んでいる。図3に示すように、部位ポイントN0は、首に対応する。部位ポイントN1は、右肩に対応する。部位ポイントN2は、左肩に対応する。部位ポイントN3は、右耳に対応する。部位ポイントN4は、左耳に対応する。部位ポイントN5は、鼻に対応する。部位ポイントN6は、右目に対応する。部位ポイントN7は、左目に対応する。部位ポイントN8は、右肘に対応する。部位ポイントN9は、右手首に対応する。部位ポイントN10は、左肘に対応する。部位ポイントN11は、左手首に対応する。部位ポイントN12は、右腰に対応する。部位ポイントN13は、左腰に対応する。部位ポイントN14は、右膝に対応する。部位ポイントN15は、左膝に対応する。部位ポイントN16は、右足首に対応する。部位ポイントN17は、左足首に対応する。また、部位ポイントM0は、部位ポイントN1と部位ポイントN12との中間ポイント(mid-point)、つまり右胸に対応する。部位ポイントM1は、部位ポイントN2と部位ポイントN13との中間ポイント、つまり左胸に対応する。部位ポイントM2は、部位ポイントN1と部位ポイントN8との中間ポイント、つまり右上腕に対応する。部位ポイントM3は、部位ポイントN8と部位ポイントN9との中間ポイント、つまり右前腕に対応する。部位ポイントM4は、部位ポイントN2と部位ポイントN10との中間ポイント、つまり左上腕に対応する。部位ポイントM5は、部位ポイントN10と部位ポイントN11との中間ポイント、つまり左前腕に対応する。部位ポイントM6は、部位ポイントN12と部位ポイントN14との中間ポイント、つまり右大腿に対応する。部位ポイントM7は、部位ポイントN14と部位ポイントN16との中間ポイント、つまり右下腿に対応する。部位ポイントM8は、部位ポイントN13と部位ポイントN15との中間ポイント、つまり左大腿に対応する。部位ポイントM9は、部位ポイントN15と部位ポイントN17との中間ポイント、つまり左下腿に対応する。
すなわち、「所定の複数の部位ポイント」は、中間ポイントを含まない、部位ポイントN0~N17から成る「第1のグループ」と、中間ポイントである、部位ポイントM0~M9から成る「第2のグループ」とを含んでいる。
従って、画像中に全身が映り込んでいる5人の人画像が含まれていれば、取得部11は、各セットが部位ポイントN0~N17,M0~M9に対応する検出ポイントの位置及び部位種別を含む5セット分の情報を取得する可能性がある。
図2の説明に戻り、制御部21は、各検出ポイントを複数の人間のいずれかに分類することによって、各人間の姿勢を特定する。
例えば、制御部21は、基本パタン抽出部25と、グルーピング部26とを有する。
基本パタン抽出部25は、取得部11にて取得された複数の検出ポイントから、各人間についての「基本パタン(basic pattern)」を抽出する。
例えば、基本パタン抽出部25は、図2に示すように、基本パタン候補特定部25Aと、基本長算出部25Bと、基本パタン形成部25Cとを有している。
基本パタン候補特定部25Aは、基準部位種別に対応する複数の検出ポイントと各基本部位種別に対応する複数の検出ポイントとの間の複数の組み合わせのうちで、画像において距離の近い検出ポイントの組み合わせを、同一の基本パタン候補に分類することにより、複数の「基本パタン候補」を特定する。ここで、例えば、「基準部位種別」は、首であり、「基本部位種別」は、右肩、左肩、右耳、左耳のそれぞれである。例えば、基本パタン候補特定部25Aは、首に対応する1つの検出ポイントについて、右肩に対応する複数の検出ポイントの中から、該首に対応する1つの検出ポイントからの距離が最も近い、右肩に対応する1つの検出ポイントを選択する。この選択は、首に対応する各検出ポイントについて行われる。そして、基本パタン候補特定部25Aは、首に対応する複数の検出ポイントに対して、右肩に対応する同じ検出ポイントが選択された場合、該首に対応する複数の検出ポイントの中から、該右肩に対応する同じ検出ポイントからの距離が最も近い、首に対応する1つの検出ポイントを選択する。すなわち、基本パタン候補特定部25Aは、MLMD(Mutual-Local-Minimum-Distance)アルゴリズムを用いて処理を行っている。これにより、首に対応する1つの検出ポイントと右肩に対応する1つの検出ポイントとが選択され、これらは同一の「基本パタン候補」に分類される。以上で説明した処理が、左肩、右耳、左耳のそれぞれについても行われる。
基本パタン形成部25Cは、基本パタン候補特定部25Aにて特定された複数の基本パタン候補に対して「最適化処理」を施すことにより、複数の人間についての複数の基本パタンを形成する。
「最適化処理」は、次の処理を含む。第1の処理は、基準部位種別に対応する複数の検出ポイントを含む1つの基本パタン候補を切断して、それぞれが基準部位種別に対応する1つの検出ポイントを含む複数の基本パタン候補に変換する、処理である。すなわち、1つの基本パタン候補の中に、首に対応する複数の検出ポイントが含まれる場合、該1つの基本パタン候補を分断して、それぞれが首に対応する1つの検出ポイントを含む複数の基本パタン候補に変換する。
第2の処理は、各基本パタン候補において、各基本パタン候補に含まれ且つ基本部位種別に対応する検出ポイントであって、基準部位種別に対応する検出ポイントからの距離が「各基本パタン候補についての基本長(base length)」よりも長い、検出ポイントを、各基本パタン候補から除く、処理である。
第3の処理は、「第1部位種別グループ」に対応する3つの検出ポイントの組み合わせ、及び、「第2部位種別グループ」に対応する3つの検出ポイントの組み合わせのいずれも含まない、基本パタン候補を除く、処理である。例えば、「第1部位種別グループ」は、首、左肩、及び左耳であり、「第2部位種別グループ」は、首、右肩、及び右耳である。
基本長算出部25Bは、上記の第1の処理が完了した時点で、「各基本パタン候補についての基本長」を算出する。この「各基本パタン候補についての基本長」の算出については、後に詳しく説明する。
グルーピング部26は、基本パタン抽出部25にて抽出された複数の人間についての複数の基本パタンに含まれない検出ポイント(つまり、「グルーピング対象ポイント」)を、複数の基本パタンをそれぞれ含む複数の「人グループ」のいずれかに対応付ける。このグルーピング処理は、例えば、次の「グルーピング基準」が用いられる。該基準は、グルーピング対象ポイントと各人グループに含まれる「所定の部位ポイント」との間の距離と各人グループの基本パタンに対応する「基本長に基づく許容最大長」との大小関係、及び、グルーピング対象ポイントと各人グループに含まれる上記の所定の部位ポイントとの間の中点を含む「所定の中間領域」に中間ポイントに対応する検出ポイントが存在するか否か、である。このグルーピング処理は、基本パタンからの距離が近い部位種別の検出ポイントから段階的に行われる。すなわち、例えば、最初に、腰に対応する検出ポイントが、グルーピング対象ポイントとして設定されて、複数の人グループのいずれかに対応づけられる。このときに用いられる上記の「所定の部位ポイント」及び「中間ポイント」は、例えば、それぞれ、各人グループに含まれる肩に対応する部位ポイント、及び胸に対応する部位ポイントである。そして、次に、膝に対応する検出ポイントが、グルーピング対象ポイントとして設定されて、複数の人グループのいずれかに対応づけられる。このときに用いられる上記の「所定の部位ポイント」及び「中間ポイント」は、例えば、それぞれ、各人グループに含まれる腰に対応する部位ポイント、及び大腿に対応する部位ポイントである。このグルーピング処理については、後に詳しく説明する。
<姿勢特定装置の動作例>
以上の構成を有する姿勢特定装置20の処理動作の一例について説明する。図4は、第2実施形態における姿勢特定装置の処理動作の一例を示すフローチャートである。
〈情報の取得処理〉
取得部11は、「複数の検出ポイント」のそれぞれの画像における位置及び部位種別に関する情報を取得する(ステップS11)。
〈基本パタンの抽出処理〉
基本パタン抽出部25は、取得部11にて取得された複数の検出ポイントから、各人間についての「基本パタン(basic pattern)」を抽出する(ステップS12)。
図5は、基本パタンの抽出処理の説明に供する図である。
まず、基本パタンの抽出処理は、図5に示すグラフGからスタートする。グラフGは、「部位種別ペア」のグループScに対応する全ての検出ポイントペアを含んでいる。グループScは、首と右肩とのペア、首と左肩とのペア、首と右耳とのペア、首と左耳とのペア、右肩と右耳とのペア、及び、左肩と左耳とのペアをグループ要素としている。
そして、基本パタン候補特定部25Aは、各部位種別ペアについてMLMDアルゴリズムを用いた処理を行ってグラフG-subを得て、グラフG-subにおいて首に対応する各検出ポイントを頂点とする三角形を含んでいる塊を「基本パタン候補」として特定する。
図6は、基本パタン候補のタイプを説明する図である。基本パタン候補のタイプとしては、図6に示すように、TA,TB,TC,TD,TEの5つタイプが存在する可能性がある。図5では、これらの5つのタイプの基本パタン候補をまとめて「Cores-α」と記載している。ここで、例えば、正面を向いている人に対応する基本パタン候補は、タイプTAとなる可能性が高い。オクルージョン等に起因して、タイプTB,TC,TDの基本パタン候補が存在する。
そして、基本パタン形成部25Cは、「Cores-α」に対して、最適化処理を施すことにより、複数の基本パタンを形成する。
最適化処理にて、まず、基本パタン形成部25Cは、図5に示すタイプTEの基本パタン候補が首に対応する2つの検出ポイントを含んでいるので、タイプTEの基本パタン候補を、それぞれが首に対応する1つの検出ポイントを含む2つの基本パタン候補に分断する(上記の第1の処理)。これにより、タイプTBの基本パタン候補及びタイプTCの基本パタン候補が得られる。この結果、タイプTA,TB,TC,TDのいずれかに対応する基本パタン候補が残る。
そして、基本長算出部25Bは、タイプTA,TB,TC,TDのいずれかに対応する各基本パタン候補についての「基本長」を算出する。この「基本長」は、人体の大きさの基準となる長さである。
図7は、基本長の算出の説明に供する図である。まず、基本長算出部25Bは、各基本パタン候補について、長さLa,Lb,Lcを算出する。
図7に示すように、長さLaは、基本パタン候補における、首に対応する部位ポイントN0と右肩に対応する部位ポイントN1との距離、又は、首に対応する部位ポイントN0と左肩に対応する部位ポイントN2との間の距離として算出される。具体的には、基本パタン候補に右肩に対応する部位ポイントN1及び左肩に対応する部位ポイントN2の両方が含まれる場合、長さLaは、首に対応する部位ポイントN0と右肩に対応する部位ポイントN1との距離、及び、首に対応する部位ポイントN0と左肩に対応する部位ポイントN2との間の距離のうちの小さい方と等しくなる。基本パタン候補に右肩に対応する部位ポイントN1が含まれる一方で左肩に対応する部位ポイントN2が含まれない場合、長さLaは、首に対応する部位ポイントN0と右肩に対応する部位ポイントN1との距離となる。また、基本パタン候補に左肩に対応する部位ポイントN2が含まれる一方で右肩に対応する部位ポイントN1が含まれない場合、長さLaは、首に対応する部位ポイントN0と左肩に対応する部位ポイントN2との距離となる。
図7に示すように、長さLbは、基本パタン候補における、首に対応する部位ポイントN0と右耳に対応する部位ポイントN3との距離、又は、首に対応する部位ポイントN0と左耳に対応する部位ポイントN4との間の距離として算出される。
図7に示すように、長さLcは、胸に対応する検出ポイントが存在する場合、基本パタン候補における首に対応する部位ポイントN0とこの部位ポイントN0から最も近い右胸に対応する部位ポイントM0との距離、又は、基本パタン候補における首に対応する部位ポイントN0とこの部位ポイントN0から最も近い左胸に対応する部位ポイントM1との距離として算出される。また、胸に対応する検出ポイントが存在しない場合、長さLcは、Lc=La+Lb+1によって算出される。
そして、基本長算出部25Bは、算出された長さLa,Lb,Lcに基づいて、各基本パタン候補の基本長を算出する。基本長算出部25Bは、「Lc」と「La+Lb」との大小関係、及び「Lb」と「La×2」との大小関係に応じて、異なる算出方法によって基本長を算出する。図7に示すように、例えば、「Lc」が「La+Lb」以下であり且つ「Lb」が「La×2」以下である場合、基本長は、「Lc」となる。また、「Lc」が「La+Lb」以下であり且つ「Lb」が「La×2」より大きい場合、基本長は、「Lc×1.17」となる。また、「Lc」が「La+Lb」より大きく且つ「Lb」が「La×2」以下である場合、基本長は、「La+Lb」となる。また、「Lc」が「La+Lb」より大きく且つ「Lb」が「La×2」より大きい場合、基本長は、「Lb×1.7」となる。ここで、横向きの人に対応する基本パタン候補については、「Lb」が「La×2」より大きくなる傾向がある。また、前向き又は後ろ向きの人に対応する基本パタン候補については、「Lb」が「La×2」以下となる傾向がある。また、画像の下の方に写っている人に対応する基本パタン候補については、その人の胸が写っていないケースがある。このケースでは、「Lc」が「La+Lb」よりも大きくなる傾向がある。
図5の説明に戻り、基本パタン形成部25Cは、各基本パタン候補において、各基本パタン候補に含まれ且つ基本部位種別に対応する検出ポイントであって、基準部位種別に対応する検出ポイントからの距離が「各基本パタン候補についての基本長」よりも長い、検出ポイントを、各基本パタン候補から除く(上記の第2の処理)。これにより、例えば、図6に示す三角形を2つ有するタイプTAの基本パタン候補において、一方の三角形に含まれる耳に対応する検出ポイントが首に対応する検出ポイントから遠い場合、この耳に対応する検出ポイントは、基本パタン候補から除外される。これにより、タイプTAの基本パタン候補は、タイプTCの基本パタン候補に変わる。また、例えば、三角形を2つ有するタイプTAの基本パタン候補において、一方の三角形に含まれる肩に対応する検出ポイントが首に対応する検出ポイントから遠い場合、この肩に対応する検出ポイントは、基本パタン候補から除外される。これにより、タイプTAの基本パタン候補は、タイプTBの基本パタン候補に変わる。ここで、この基本パタン形成部25Cの結果として、三角形を1つも含まない基本パタン候補が現れる可能性がある。
基本パタン形成部25Cは、「第1部位種別グループ」に対応する3つの検出ポイントの組み合わせ、及び、「第2部位種別グループ」に対応する3つの検出ポイントの組み合わせのいずれも含まない、基本パタン候補を除く(上記の第3の処理)。「第1部位種別グループ」は、首、左肩、及び左耳であり、「第2部位種別グループ」は、首、右肩、及び右耳である。すなわち、この基本パタン形成部25Cによって、上記の三角形を1つも含まない基本パタン候補が除外される。そして、この段階では、図5に示すように、TA,TB,TC,TDの4つタイプの基本パタン候補が残っている可能性がある。これらの残った基本パタン候補が、「基本パタン」である。図5では、これらの4つのタイプの基本パタンをまとめて「Cores」と記載している。
〈グルーピング処理〉
グルーピング部26は、基本パタン抽出部25にて抽出された複数の人間についての複数の基本パタンに含まれない検出ポイント(つまり、「グルーピング対象ポイント」)を、複数の基本パタンをそれぞれ含む複数の「人グループ」のいずれかに対応付ける(ステップS13)。
具体的には、グルーピング部26は、グルーピング対象の部位種別を、所定の「対応付け順序(order of association)」に従って、順次選択する。図8は、グルーピングルールテーブルの一例を示す図である。図8に示すように、対応付け順序の1番目は、「肩-肘」のリンクなので、グルーピング対象の部位種別として、「肘」が最初に選択される。
そして、グルーピング対象の部位種別が選択されると、ステージ1の処理及びステージ2の処理が実行される。すなわち、グルーピング対象部位種別毎に、ステージ1の処理及びステージ2の処理が実行される。
まず、ステージ1の処理について説明する。
まず、グルーピング部26は、複数の人グループの右肩に対応する複数の検出ポイントと右肘に対応する複数の検出ポイント(つまり、グルーピング対象ポイント)との間の全ての組み合わせについて、距離(以下では、「リンク距離」と呼ぶことがある)を算出する。また、グルーピング部26は、各組み合わせについて、「肩-肘」リンクの「許容最大長」を算出する。この「許容最大長」は、各組み合わせに含まれる右肩に対応する検出ポイントが含まれる基本パタンの基本長に基づいて算出される。例えば、図8に示すように、「肩-肘」リンクの「許容最大長」は、「1.5×基本長」によって算出される。
そして、グルーピング部26は、リンク距離が許容最大長より大きい組み合わせを除外して、残った組み合わせを「候補リンク」とする。
そして、各候補リンクについて、「中間領域」を算出する。図9は、中間領域の説明に供する図である。図9に示すように、候補リンクに対応する中間領域は、該候補リンクの2つの検出ポイントNi,Njの中点M’を中心とする楕円形の領域である。図9に示す例では、中間領域の長軸の長さRmajorは、「リンク距離×0.75」であり、短軸の長さRminorは、「リンク距離×0.35」である。
そして、グルーピング部26は、候補リンクの中間領域に「中間ポイントM」が存在するか否かを判定する。候補リンクが「右肩-右肘」リンクである場合、「中間ポイント」は、右上腕に対応する検出ポイントである。なお、図8に示されるように、「肩-肘」リンクは、項目「Requiring mid-point」が「yes」となっているため、この「中間ポイント」を用いた判定が行われている。
そして、グルーピング部26は、中間領域に中間ポイントが存在しない候補リンクを除外する。そして、残った候補リンクの中に同じグルーピング対象ポイントを含む候補リンクが複数存在する場合、その複数の候補リンクのうちでリンク距離が最も小さいもの以外を除外する。そして、グルーピング部26は、残った候補リンクを「最終候補リンク」とする。最終候補リンクに含まれるグルーピング対象ポイントは、該最終候補リンクのもう1つの検出ポイントが既に含まれている人グループに対応付けられる(に含められる)。
次に、ステージ2の処理について説明する。ステージ1の処理において、いずれの人グループに対しても対応付けられなかった、右肘に対応する検出ポイントが存在する可能性がある。また、ステージ1の処理において、いずれの右肘に対応する検出ポイントに対しても対応付けられなかった人グループが存在する可能性がある。ステージ2の処理では、これらの右肘に対応する検出ポイント及び人グループの右肩に対応する検出ポイントを用いて、ステージ1の処理と同様の処理を繰り返す。ただし、ステージ2の処理では、上記の「中間ポイント」を用いた判定処理は行われない。
以上のように「右肩-右肘」リンクについてステージ1の処理及びステージ2の処理が完了すると、次に、「左肩-左肘」リンクについてステージ1の処理及びステージ2の処理が行われる。そして、次に、「対応付け順序(order of association)」に従って、「肘-手首」リンク等についてステージ1の処理及びステージ2の処理が順次行われる。ここで、図8に示されるように、「首-鼻」リンク及び「鼻-目」リンクは、項目「Requiring mid-point」が「no」となっているため、この「中間ポイント」を用いた判定はステージ1の処理において行われない。このため、ステージ2の処理は省略されてもよい。
なお、以上の説明では、「中間ポイント」を用いた判定を行うものとして説明を行ったが、これに限定されるものではなく、「中間ポイント」を用いた判定は、行われなくてもよい。すなわち、上記の「グルーピング基準」は、グルーピング対象ポイントと各人グループに含まれる「所定の部位ポイント」との間の距離と各人グループの基本パタンに対応する「基本長に基づく許容最大長」との大小関係であってもよい。
<姿勢特定装置の有用性>
COCO検証セット2014(COCO validation set 2014)における低解像度の複数の人画像を含む画像を用いて、姿勢特定装置20によって人の姿勢の特定を行った。ここでの「低解像度の人画像」は、ニューラルネットワーク(不図示)に入力された、人の「境界ボックス(bounding box)」が4000ピクセル未満である、画像である。そして、正しくグルーピングされた人グループの数、及び、間違ってグルーピングされた人グループの数を、手作業でカウントした。ここで、「正しくグルーピングされること」は、一の人について目に見える全ての部位ポイントが検出され、且つ、該検出された部位ポイントの全てが、同じ人グループにグルーピングされることである。「間違ってグルーピングされること」は、一の人についての複数の検出ポイントが複数の人グループにグルーピングされることである。カーネギーメロン大学(CMU)で開発された「オープン姿勢(OpenPose)」を用いた場合と比較すると、正しくグルーピングされた人グループの数は77%増加し、間違ってグルーピングされた人グループの数は、40%減少した。
<他の実施形態>
図10は、姿勢特定装置のハードウェア構成例を示す図である。図10において姿勢特定装置100は、プロセッサ101と、メモリ102とを有している。プロセッサ101は、例えば、マイクロプロセッサ、MPU(Micro Processing Unit)、又はCPU(Central Processing Unit)であってもよい。プロセッサ101は、複数のプロセッサを含んでもよい。メモリ102は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ102は、プロセッサ101から離れて配置されたストレージを含んでもよい。この場合、プロセッサ101は、図示されていないI/Oインタフェースを介してメモリ102にアクセスしてもよい。
第1実施形態及び第2実施形態の姿勢特定装置10,20は、それぞれ、図10に示したハードウェア構成を有することができる。第1実施形態及び第2実施形態の姿勢特定装置10,20の取得部11と、制御部12,21とは、プロセッサ101がメモリ102に記憶されたプログラムを読み込んで実行することにより実現されてもよい。プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、姿勢特定装置10,20に供給することができる。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。さらに、非一時的なコンピュータ可読媒体の例は、CD-ROM(Read Only Memory)、CD-R、CD-R/Wを含む。さらに、非一時的なコンピュータ可読媒体の例は、半導体メモリを含む。半導体メモリは、例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によって姿勢特定装置10,20に供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムを姿勢特定装置10,20に供給できる。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
複数の人間にそれぞれ対応する複数の人画像を含む画像において、人間についての所定の複数の部位ポイントに関して検出された複数の検出ポイントのそれぞれの前記画像における位置及び部位種別に関する情報を取得する取得手段と、
各検出ポイントを前記複数の人間のいずれかに分類することによって、各人間の姿勢を特定する制御手段と、
を具備し、
前記制御手段は、前記複数の検出ポイントから、各人間についての基本パタンを抽出する基本パタン抽出手段を含み、
前記基本パタンは、基準部位種別に対応する基準部位ポイント、及び、複数の基本部位ポイントを含み、
前記複数の基本部位ポイントは、前記基準部位種別と異なり且つ互いに異なる、複数の基本部位種別に対応する、
姿勢特定装置。
(付記2)
前記基本パタン抽出手段は、
前記基準部位種別に対応する複数の検出ポイントと各基本部位種別に対応する複数の検出ポイントとの間の複数の組み合わせのうちで、前記画像において距離の近い検出ポイントの組み合わせを、同一の基本パタン候補に分類することにより、複数の基本パタン候補を特定する基本パタン候補特定手段と、
前記特定された複数の基本パタン候補に対して最適化処理を施すことにより、前記複数の人間についての複数の基本パタンを形成する基本パタン形成手段と、
を具備する、
付記1記載の姿勢特定装置。
(付記3)
前記最適化処理は、
前記基準部位種別に対応する複数の検出ポイントを含む1つの基本パタン候補を分断して、それぞれが前記基準部位種別に対応する1つの検出ポイントを含む複数の基本パタン候補に変換すること、
各基本パタン候補において、各基本パタン候補に含まれ且つ前記基本部位種別に対応する検出ポイントであって、前記基準部位種別に対応する検出ポイントからの距離が各基本パタン候補についての基本長よりも長い、検出ポイントを、各基本パタン候補から除くこと、及び、
第1部位種別グループに対応する3つの検出ポイントの組み合わせ、及び、第2部位種別グループに対応する3つの検出ポイントの組み合わせのいずれも含まない、基本パタン候補を除くこと、
を含む、
付記2記載の姿勢特定装置。
(付記4)
前記基準部位種別は、首であり、
前記基本部位種別は、左肩、右肩、左耳、及び右耳のそれぞれであり、
前記第1部位種別グループは、首、左肩、及び左耳であり、
前記第2部位種別グループは、首、右肩、及び右耳である、
付記3記載の姿勢特定装置。
(付記5)
前記制御手段は、抽出された前記複数の人間についての複数の基本パタンに含まれない検出ポイントであるグルーピング対象ポイントを、前記複数の基本パタンをそれぞれ含む複数の人グループのいずれかに対応付ける、グルーピング手段を具備し、
前記グルーピング手段は、前記グルーピング対象ポイントと各人グループに含まれる所定の部位ポイントとの間の距離と、各人グループの基本パタンに対応する基本長に基づく許容最大長とに基づいて、前記グルーピング対象ポイントを前記複数の人グループのいずれかに対応付ける、
付記1から4のいずれか1項に記載の姿勢特定装置。
(付記6)
前記所定の複数の部位ポイントは、所定の複数の部位種別に対応する第1グループの複数の部位ポイントと、特定の2つの部位種別に対応する2つの部位ポイントの中間ポイントに対応する第2グループの部位ポイントを含み、
前記制御手段は、
抽出された前記複数の人間についての複数の基本パタンに含まれない検出ポイントであるグルーピング対象ポイントを、グルーピング基準に基づいて、前記複数の基本パタンをそれぞれ含む複数の人グループのいずれかに対応付ける、グルーピング手段を具備し、
前記グルーピング基準は、前記グルーピング対象ポイントと各人グループに含まれる所定の部位ポイントとの間の距離と各人グループの基本パタンに対応する基本長に基づく許容最大長との大小関係、及び、前記グルーピング対象ポイントと各人グループに含まれる前記所定の部位ポイントとの間の中点を含む所定の中間領域に前記中間ポイントに対応する検出ポイントが存在するか否か、である、
付記1から4のいずれか1項に記載の姿勢特定装置。
(付記7)
前記グルーピング手段によるグルーピング処理の初期段階において、前記複数の基本パタンに含まれない検出ポイントである前記グルーピング対象ポイントは、部位種別としての腰に対応する部位ポイントであり、前記中間ポイントは、部位種別としての胸に対応する部位ポイントである、
付記6に記載の姿勢特定装置。
(付記8)
前記制御手段は、前記基準部位種別としての首に対応する基準部位ポイントと、前記基本部位種別としての肩に対応する基本部位ポイントと、前記部位種別としての胸に対応する部位ポイントとに基づいて、前記各基本パタンに対応する基本長を算出する基本長算出手段を具備する
付記5又は6に記載の姿勢特定装置。
(付記9)
前記基本パタンは、前記基準部位種別としての首に対応する基準部位ポイントと前記基本部位種別としての左肩及び左耳にそれぞれ対応する2つの基本部位ポイントとの組み合わせ、及び、前記基準部位種別としての首に対応する基準部位ポイントと前記基本部位種別としての右肩及び右耳にそれぞれ対応する2つの基本部位ポイントとの組み合わせのうちの少なくとも一方を含む、
付記1記載の姿勢特定装置。
(付記10)
複数の人間にそれぞれ対応する複数の人画像を含む画像において、人間についての所定の複数の部位ポイントに関して検出された複数の検出ポイントのそれぞれの前記画像における位置及び部位種別に関する情報を取得すること、及び
各検出ポイントを前記複数の人間のいずれかに分類することによって、各人間の姿勢を特定すること、
を含み、
前記各人間の姿勢を特定することは、前記複数の検出ポイントから、各人間についての基本パタンを抽出することを含み、
前記基本パタンは、基準部位種別に対応する基準部位ポイント、及び、複数の基本部位ポイントを含み、
前記複数の基本部位ポイントは、前記基準部位種別と異なり且つ互いに異なる、複数の基本部位種別に対応する、
姿勢特定方法。
(付記11)
複数の人間にそれぞれ対応する複数の人画像を含む画像において、人間についての所定の複数の部位ポイントに関して検出された複数の検出ポイントのそれぞれの前記画像における位置及び部位種別に関する情報を取得すること、及び
各検出ポイントを前記複数の人間のいずれかに分類することによって、各人間の姿勢を特定すること、
を含む、処理を姿勢特定装置に実行させ、
前記各人間の姿勢を特定することは、前記複数の検出ポイントから、各人間についての基本パタンを抽出することを含み、
前記基本パタンは、基準部位種別に対応する基準部位ポイント、及び、複数の基本部位ポイントを含み、
前記複数の基本部位ポイントは、前記基準部位種別と異なり且つ互いに異なる、複数の基本部位種別に対応する、
プログラムが格納された非一時的なコンピュータ可読媒体。
10 姿勢特定装置
11 取得部
12 制御部
15 基本パタン抽出部
20 姿勢特定装置
21 制御部
25 基本パタン抽出部
25A 基本パタン候補特定部
25B 基本長算出部
25C 基本パタン形成部
26 グルーピング部

Claims (10)

  1. 複数の人物を含む画像において、前記人物の所定の部を示す複数の部位ポイントのうち、複数の検出された部位ポイントである検出ポイントそれぞれの前記画像における位置及び部位種別に関する情報を取得する取得手段と、
    前記検出ポイントそれぞれを前記複数の人物のいずれかに分類することによって、前記複数の人物の姿勢を特定する制御手段と、
    を具備し、
    前記制御手段は、複数の前記検出ポイントから、前記人物毎に基本パタンを抽出する基本パタン抽出手段を含み、
    前記基本パタンは、基準部位種別に対応する基準部位ポイント、及び、複数の基本部位ポイントを含み、
    前記複数の基本部位ポイントは、前記基準部位種別と異なり且つ互いに異なる、複数の基本部位種別に対応する、
    姿勢特定装置。
  2. 前記基本パタン抽出手段は、
    前記基準部位種別に対応する複数の検出ポイントと前記基本部位種別それぞれに対応する複数の検出ポイントとの間の複数の組み合わせのうち、前記画像において距離の近い検出ポイントの組み合わせを、同一の基本パタン候補に分類することにより、複数の基本パタン候補を特定する基本パタン候補特定手段と、
    前記特定された基本パタン候補それぞれに対して最適化処理を施すことにより、前記人物毎の基本パタンを形成する基本パタン形成手段と、
    を具備する、
    請求項1記載の姿勢特定装置。
  3. 前記最適化処理は、
    前記基準部位種別に対応する複数の検出ポイントを含む1つの基本パタン候補を分断して、それぞれが前記基準部位種別に対応する1つの検出ポイントを含む複数の基本パタン候補に変換すること、
    前記基本パタン候補それぞれを処理対象としたとき、前記処理対象の基本パタン候補において、前記処理対象の基本パタン候補に含まれ且つ前記基本部位種別に対応する検出ポイントであって、前記基準部位種別に対応する検出ポイントからの距離が前記処理対象の基本パタン候補についての基本長よりも長い、検出ポイントを、前記処理対象の基本パタン候補から除くこと、及び、
    第1部位種別グループに対応する3つの検出ポイントの組み合わせ、及び、第2部位種別グループに対応する3つの検出ポイントの組み合わせのいずれも含まない、基本パタン候補を除くこと、
    を含む、
    請求項2記載の姿勢特定装置。
  4. 前記基準部位種別は、首であり、
    前記基本部位種別は、左肩、右肩、左耳、及び右耳のそれぞれであり、
    前記第1部位種別グループは、首、左肩、及び左耳であり、
    前記第2部位種別グループは、首、右肩、及び右耳である、
    請求項3記載の姿勢特定装置。
  5. 前記制御手段は、抽出された前記複数の人物の複数の基本パタンに含まれない検出ポイントであり且つグルーピング対象の検出ポイントであるグルーピング対象ポイントを、前記複数の基本パタンをそれぞれ含む複数の人グループのいずれかに対応付ける、グルーピング手段を具備し、
    前記グルーピング手段は、前記グルーピング対象ポイントと前記人グループそれぞれに含まれる所定の部位ポイントとの間の距離と、前記人グループそれぞれの基本パタンに対応する基本長に基づく許容最大長とに基づいて、前記グルーピング対象ポイントを前記複数の人グループのいずれかに対応付ける、
    請求項1から4のいずれか1項に記載の姿勢特定装置。
  6. 前記所定の部位を示す複数の部位ポイントは、所定の複数の部位種別に対応する第1グループの複数の部位ポイントと、特定の2つの部位種別に対応する2つの部位ポイントの中間ポイントに対応する第2グループの部位ポイントを含み、
    前記制御手段は、
    抽出された前記複数の人物の複数の基本パタンに含まれない検出ポイントであり且つグルーピング対象の検出ポイントであるグルーピング対象ポイントを、グルーピング基準に基づいて、前記複数の基本パタンをそれぞれ含む複数の人グループのいずれかに対応付ける、グルーピング手段を具備し、
    前記グルーピング基準は、前記グルーピング対象ポイントと前記人グループそれぞれに含まれる所定の部位ポイントとの間の距離と前記人グループそれぞれの基本パタンに対応する基本長に基づく許容最大長との大小関係、及び、前記グルーピング対象ポイントと前記人グループそれぞれに含まれる前記所定の部位ポイントとの間の中点を含む所定の中間領域に前記中間ポイントに対応する検出ポイントが存在するか否か、である、
    請求項1から4のいずれか1項に記載の姿勢特定装置。
  7. 前記グルーピング手段によるグルーピング処理の初期段階において、前記複数の基本パタンに含まれない検出ポイントである前記グルーピング対象ポイントは、部位種別としての腰に対応する部位ポイントであり、前記中間ポイントは、部位種別としての胸に対応する部位ポイントである、
    請求項6に記載の姿勢特定装置。
  8. 前記制御手段は、前記基準部位種別としての首に対応する基準部位ポイントと、前記基本部位種別としての肩に対応する基本部位ポイントと、前記部位種別としての胸に対応する部位ポイントとに基づいて、前記各基本パタンに対応する基本長を算出する基本長算出手段を具備する
    請求項5又は6に記載の姿勢特定装置。
  9. 複数の人物を含む画像において、前記人物の所定の部を示す複数の部位ポイントのうち、複数の検出された部位ポイントである検出ポイントそれぞれの前記画像における位置及び部位種別に関する情報を取得すること、及び
    前記検出ポイントそれぞれを前記複数の人物のいずれかに分類することによって、前記複数の人物の姿勢を特定すること、
    を含み、
    前記複数の人物の姿勢を特定することは、複数の前記検出ポイントから、前記人物毎に基本パタンを抽出することを含み、
    前記基本パタンは、基準部位種別に対応する基準部位ポイント、及び、複数の基本部位ポイントを含み、
    前記複数の基本部位ポイントは、前記基準部位種別と異なり且つ互いに異なる、複数の基本部位種別に対応する、
    姿勢特定方法。
  10. 複数の人物を含む画像において、前記人物の所定の部位ポイントを示す複数の部位ポイントのうち、複数の検出された部位ポイントである検出ポイントそれぞれの前記画像における位置及び部位種別に関する情報を取得すること、及び
    前記検出ポイントそれぞれを前記複数の人物のいずれかに分類することによって、前記複数の人物の姿勢を特定すること、
    を含む、処理を姿勢特定装置に実行させ、
    前記複数の人物の姿勢を特定することは、複数の前記検出ポイントから、前記人物毎に基本パタンを抽出することを含み、
    前記基本パタンは、基準部位種別に対応する基準部位ポイント、及び、複数の基本部位ポイントを含み、
    前記複数の基本部位ポイントは、前記基準部位種別と異なり且つ互いに異なる、複数の基本部位種別に対応する、
    プログラム。
JP2022500765A 2019-07-22 2019-07-22 姿勢特定装置、姿勢特定方法、及びプログラム Active JP7255742B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/028644 WO2021014530A1 (en) 2019-07-22 2019-07-22 Pose identifying apparatus, pose identifying method, and non-transitory computer readable medium

Publications (2)

Publication Number Publication Date
JP2022539841A JP2022539841A (ja) 2022-09-13
JP7255742B2 true JP7255742B2 (ja) 2023-04-11

Family

ID=74193501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022500765A Active JP7255742B2 (ja) 2019-07-22 2019-07-22 姿勢特定装置、姿勢特定方法、及びプログラム

Country Status (3)

Country Link
US (2) US12033353B2 (ja)
JP (1) JP7255742B2 (ja)
WO (1) WO2021014530A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007102537A1 (ja) 2006-03-07 2007-09-13 Osaka University 姿勢推定装置および方法
JP2012133666A (ja) 2010-12-22 2012-07-12 Sogo Keibi Hosho Co Ltd 部位認識装置、部位認識方法、及び部位認識プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014104360A1 (ja) * 2012-12-28 2014-07-03 株式会社東芝 動作情報処理装置及び方法
JP2015061577A (ja) * 2013-01-18 2015-04-02 株式会社東芝 動作情報処理装置
JP6188332B2 (ja) * 2013-01-21 2017-08-30 東芝メディカルシステムズ株式会社 医用画像表示装置及びプログラム
JP2015061579A (ja) * 2013-07-01 2015-04-02 株式会社東芝 動作情報処理装置
US10430966B2 (en) 2017-04-05 2019-10-01 Intel Corporation Estimating multi-person poses using greedy part assignment
US11475630B2 (en) * 2018-10-17 2022-10-18 Midea Group Co., Ltd. System and method for generating acupuncture points on reconstructed 3D human body model for physical therapy

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007102537A1 (ja) 2006-03-07 2007-09-13 Osaka University 姿勢推定装置および方法
JP2012133666A (ja) 2010-12-22 2012-07-12 Sogo Keibi Hosho Co Ltd 部位認識装置、部位認識方法、及び部位認識プログラム

Also Published As

Publication number Publication date
JP2022539841A (ja) 2022-09-13
US12033353B2 (en) 2024-07-09
US20220277482A1 (en) 2022-09-01
WO2021014530A1 (en) 2021-01-28
US20240312057A1 (en) 2024-09-19

Similar Documents

Publication Publication Date Title
US10380759B2 (en) Posture estimating apparatus, posture estimating method and storing medium
US10776978B2 (en) Method for the automated identification of real world objects
JP2021111114A (ja) 学習データ生成プログラム、学習データ生成方法及び推定装置
US10467463B2 (en) Personalized exercise service providing method and apparatus thereof
JP6897793B2 (ja) 人物照合装置、方法、及びプログラム
JP6265499B2 (ja) 特徴量抽出装置及び場所推定装置
CN111709296A (zh) 一种景别识别方法、装置、电子设备及可读存储介质
US11663731B2 (en) Determining method, information processing apparatus, and recording medium
US20160203357A1 (en) Feature point location estimation device, feature point location estimation method, and feature point location estimation program
JP7255742B2 (ja) 姿勢特定装置、姿勢特定方法、及びプログラム
US20220222975A1 (en) Motion recognition method, non-transitory computer-readable recording medium and information processing apparatus
JP6579353B1 (ja) 情報処理装置、情報処理方法、寸法データ算出装置、及び製品製造装置
WO2020261404A1 (ja) 人物状態検出装置、人物状態検出方法及びプログラムが格納された非一時的なコンピュータ可読媒体
KR20160147466A (ko) 맞춤형 인체 모델링 장치 및 방법
JP7323079B2 (ja) 姿勢特定装置、姿勢特定方法、及びプログラム
US20230046705A1 (en) Storage medium, determination device, and determination method
US20230368409A1 (en) Storage medium, model training method, and model training device
EP4053790A1 (en) Image processing device, image processing method, and non-transitory computer readable medium whereon image processing program is stored
JP7311046B2 (ja) 判定プログラム、判定装置、および判定方法
US20240281984A1 (en) Motion data generation device, motion data generation method, and recording medium
US20220398867A1 (en) Information processing apparatus and facial expression determination method
US20230316798A1 (en) Method and system for human re-identification, and non-transitory computer-readable storage medium
US20240242375A1 (en) Computer-readable recording medium storing estimation program, estimation method, and information processing device
KR102507892B1 (ko) 객체 상태 인식 방법, 장치 및 컴퓨터 프로그램
JP6593830B1 (ja) 情報処理装置、情報処理方法、寸法データ算出装置、及び製品製造装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R151 Written notification of patent or utility model registration

Ref document number: 7255742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151