JP2022510417A - 関節のある身体姿勢を検出するシステムおよび方法 - Google Patents

関節のある身体姿勢を検出するシステムおよび方法 Download PDF

Info

Publication number
JP2022510417A
JP2022510417A JP2021531830A JP2021531830A JP2022510417A JP 2022510417 A JP2022510417 A JP 2022510417A JP 2021531830 A JP2021531830 A JP 2021531830A JP 2021531830 A JP2021531830 A JP 2021531830A JP 2022510417 A JP2022510417 A JP 2022510417A
Authority
JP
Japan
Prior art keywords
map
partial
image content
body posture
joints
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021531830A
Other languages
English (en)
Other versions
JP7241876B2 (ja
Inventor
ペスカル ダン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Everseen Ltd
Original Assignee
Everseen Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Everseen Ltd filed Critical Everseen Ltd
Publication of JP2022510417A publication Critical patent/JP2022510417A/ja
Application granted granted Critical
Publication of JP7241876B2 publication Critical patent/JP7241876B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)
  • Studio Devices (AREA)

Abstract

イメージコンテンツから関節のある身体姿勢を検出するシステムは、イメージコンテンツを取り込む撮像モジュールと、イメージコンテンツのトップダウンビューを取得し、機械学習アルゴリズムを使用して、トップダウンビューを処理し、関節のある身体姿勢を検出するように動作可能なプロセッサとを含み、関節のある身体姿勢は複数の関節を含んでいる。処理は、関節のある身体姿勢の各関節に対応する部分信頼度マップを作成することと、イメージコンテンツのトップダウンビューに部分信頼度マップを投影することによってヒートマップを生成することと、各身体部分に対応する部分親和性マップを作成することと、イメージコンテンツのトップダウンビューに部分親和性マップを投影してベクトルマップを生成することと、ヒートマップとベクトルマップを使用し、関節のある身体姿勢に対応する身体フレームワークを生成することと、を含む。

Description

本開示は、概して、関節のある身体姿勢の検出に、より具体的には、イメージコンテンツから関節のある身体姿勢を検出するシステムに関する。さらに、本開示はまた、イメージコンテンツから関節のある身体姿勢を検出する方法に関する。
技術の進歩に伴い、姿勢推定は非常に重要になっている。姿勢推定は、人間活動の解析、研究用動物の活動の解析など、様々なアプリケーションに貢献している。さらに、姿勢推定は盗難などの万引き犯による非合法活動を検出することによりビデオ監視を支援し、これにより、店員に注意を促し盗難を防止する。さらに、姿勢推定は、知的運転者支援システム、必要な人間用の生活支援システム、ビデオゲーム、理学療法などに利用されている。さらに、姿勢推定は、スポーツ、軍事、医療、ロボット工学などの分野で積極的に使用されている。
概して、人間はそれぞれ、異なる身体構造、異なる体型、異なる肌の色などを有しているので、姿勢検出は困難なタスクである。さらに、人間の異なるタイプの衣服は、姿勢の推定を複雑にする。従来、1人用の姿勢推定方法が、姿勢推定に使用されていた。1人用の姿勢推定方法は、画像内の各人物を1人ずつ検出する人物検出器を含み、これにより時間のかかるプロセスとなっている。さらに、画像の背景から人物をセグメント化することは過酷なタスクであるため、画像内の複数の人物の検出は困難である。特に、人々の数が増えるにつれて、人間の姿勢のリアルタイム推定の複雑さは増し、これにより、姿勢推定のリアルタイム性能は大きな課題となっている。
さらに、現在使用されている姿勢推定技術は、偽の実在につながる可能性があり、すなわち、人間の像などの非人間を人間として検出する可能性がある。通常、使用される姿勢推定技術は、姿勢推定を実行する必要のある領域の限られた視野を提供する水平視線カメラ設定を利用している。
したがって、前述の議論に照らして、姿勢検出技術に関連付けられた前述の欠点を克服する必要がある。
本開示の第1の態様によれば、イメージコンテンツから関節のある身体姿勢を検出するシステムが提供される。システムは、イメージコンテンツを取り込む撮像モジュールと、撮像モジュールに通信可能に結合されたプロセッサと、を含み得る。プロセッサは、イメージコンテンツのトップダウンビューを取得して、機械学習アルゴリズムを使用して、トップダウンビューを処理し、イメージコンテンツに対応する関節のある身体姿勢を検出するように動作可能である。処理は、関節のある身体姿勢の各関節に対応する部分信頼度マップを作成すること、およびイメージコンテンツのトップダウンビューに部分信頼度マップを投影することによってヒートマップを生成すること、を含み得る。処理は、関節のある身体姿勢の各関節に関連付けられた各身体部分に対応する部分親和性マップを作成すること、およびイメージコンテンツのトップダウンビューに部分親和性マップを投影することによってベクトルマップを生成すること、をさらに含み得る。処理は、関節のある身体姿勢を検出するために、ヒートマップおよびベクトルマップを使用して、関節のある身体姿勢に対応する身体フレームワークを生成すること、をさらに含み得る。
本開示の第2の態様によれば、イメージコンテンツから関節のある身体姿勢を検出する方法が提供される。方法は、イメージコンテンツのトップダウンビューを取得すること、および、機械学習アルゴリズムを使用して、トップダウンビューを処理し、イメージコンテンツに対応する関節のある身体姿勢を検出することを含み得る。処理は、関節のある身体姿勢の各関節に対応する部分信頼度マップを作成すること、およびイメージコンテンツのトップダウンビューに部分信頼度マップを投影することによってヒートマップを生成すること、を含み得る。処理は、関節のある身体姿勢の各関節に関連付けられた各身体部分に対応する部分親和性マップを作成すること、およびイメージコンテンツのトップダウンビューに部分親和性マップを投影することによってベクトルマップを生成すること、をさらに含み得る。処理は、関節のある身体姿勢を検出するために、ヒートマップおよびベクトルマップを使用して、関節のある身体姿勢に対応する身体フレームワークを生成すること、をさらに含み得る。
本開示の第3の態様によれば、イメージコンテンツから関節のある身体姿勢を検出するためのコンピュータプログラム製品が提供される。コンピュータプログラム可能製品は、プロセッサによって実行されると、プロセッサに、イメージコンテンツのトップダウンビューを取得させ、機械学習アルゴリズムを使用して、トップダウンビューを処理し、イメージコンテンツに対応する関節のある身体姿勢を検出させるような、一連の命令を含み、関節のある身体姿勢は複数の関節を含む。処理は、関節のある身体姿勢の各関節に対応する部分信頼度マップを作成すること、およびイメージコンテンツのトップダウンビューに部分信頼度マップを投影することによってヒートマップを生成すること、を含み得る。処理は、関節のある身体姿勢の各関節に関連付けられた各身体部分に対応する部分親和性マップを作成すること、およびイメージコンテンツのトップダウンビューに部分親和性マップを投影することによってベクトルマップを生成すること、をさらに含み得る。処理は、関節のある身体姿勢を検出するために、ヒートマップおよびベクトルマップを使用して、関節のある身体姿勢に対応する身体フレームワークを生成することを、さらに含み得る。
本開示の特徴は、添付の特許請求の範囲によって定義される本開示の範囲から逸脱することなく、様々な組み合わせで組み合わせることが可能であることが理解されるであろう。
上記の概要、および以下の例示的な実施形態の詳細な説明は、添付の図面と併せて読むとよりよく理解される。本開示を説明する目的のために、本開示の例示的な構造が、図面に示されている。しかしながら、本開示は、本明細書で開示される特定の方法および手段に限定されない。さらに、当業者は、図面が縮尺通りではないことを理解するであろう。可能であれば常に、同様の要素は、同一の番号によって示されている。
本開示の実施形態は、以下の図を参照して、例としてのみ説明される。
図1は、本開示の一実施形態による、イメージコンテンツから関節のある身体姿勢を検出するシステムのブロック図である。 図2は、本開示の例示的な実施形態による、関節のある身体姿勢を検出するシステムによって取得されるイメージコンテンツの図である。 図3は、本開示の例示的な実施形態による、関節のある身体姿勢を検出するために作成された複数の部分信頼度マップの図である。 図4Aは、本開示の例示的な実施形態による、関節のある身体姿勢を検出するために作成された複数の部分親和性マップの図である。 図4Bは、本開示の例示的な実施形態による、関節のある身体姿勢を検出するために作成された複数の部分親和性マップの図である。 図5は、本開示の例示的な実施形態による、図2のイメージコンテンツにおける関節のある身体姿勢に対応する身体フレームワークの図である。 図6は、本開示の一実施形態による、イメージコンテンツから関節のある身体姿勢を検出する方法のステップを示す。
付随する図面において、下線のある番号は、下線のある番号が位置付けられる項目、または下線のある番号が隣接している項目を表すために利用される。下線のない番号は、下線のない番号を項目にリンクする線によって識別される項目に関する。番号に、下線がなく、関連する矢印によって付随された場合に、下線のない番号は、矢印が向いている一般的な項目を識別するために使用される。
以下の詳細な説明は、本開示の実施形態およびそれらを実施できるやり方を示す。本開示を実施するいくつかのモードが開示されているが、当業者は、本開示を実施または実践するための他の実施形態も可能であることを認識するであろう。
本開示は、イメージコンテンツのトップダウンビューを利用し、トップダウンビューによって提供される拡張図の助けを借りて、正確に関節のある身体姿勢を検出する、イメージコンテンツから関節のある身体姿勢を検出するシステムおよび方法を提供する。さらに、システムは、イメージコンテンツ内の人間および/または動物の身体ごとに関連付けられた、異なる身体構造、異なる体型、異なる肌色の影響を考慮して、イメージコンテンツ内の、複数の人体、動物体、またはその両方の関節のある身体姿勢を検出することが可能である。さらに、システムは、複数の関節のある身体姿勢の検出が同時に行われるため、時間効率の高いプロセスを提供する。さらに、システムは、リアルタイムの身体の数が増加した場合でも、各身体を正確に検出することにより、リアルタイムの関節のある身体姿勢検出が直面する複雑さの軽減を可能にする。
図1を参照すると、本開示によるイメージコンテンツから関節のある身体姿勢を検出するシステム100のブロック図が示されている。システム100は、イメージコンテンツを取り込む撮像モジュール102を含む。イメージコンテンツは、画像、ビデオ、およびグラフィックス交換フォーマット(GIF)ベースのコンテンツのうちの少なくとも1つを含む。撮像モジュール102は、1つまたは複数の画像の形式でイメージコンテンツを取り込むように構成され、画像は、姿勢が検出され得る少なくとも1つの身体を含む。さらに、イメージコンテンツは、様々な姿勢における関節のある身体を描写する一連のフレームを含むビデオの形式であってもよい。さらに、イメージコンテンツは、本質的に反復的な複数のフレームを含むGIFを含んでいてもよく、複数のフレームは、少なくとも1つの関節のある身体姿勢を含む。
撮像モジュール102は、撮像デバイス、プロセッサ、およびメモリを備える。任意選択で、撮像デバイスは、限定されないが、CCTV(closed-circuit television)カメラ、高解像度(HD)カメラ、非HDカメラ、ハンドヘルドカメラ、カメラ、パトカーカメラ、無人航空機(UAV)に利用されているカメラを含む。特に、1つまたは複数の撮像デバイスが、イメージコンテンツを取り込むおよび/または記録するために、撮像モジュール102内で使用され得る。任意選択で、撮像モジュール102は、イメージコンテンツを取り込むおよび/または記録するように構成されたリモートデバイスに通信可能に結合される。リモートデバイスは、限定されないが、スマートフォン、デジタルカメラ、ラップトップコンピュータ、パーソナルコンピュータ、およびタブレットコンピュータを含む。さらに、撮像モジュール102は、撮像モジュール102によって受信および/または取り込まれたイメージコンテンツを処理するように構成されたプロセッサを備える。本開示を通じて、「プロセッサ」という用語は、システム100を動かす命令に応答し処理するように動作可能な計算要素に関連する。任意選択で、プロセッサは、限定されないが、マイクロプロセッサ、マイクロコントローラ、複合命令セットコンピューティング(CISC)マイクロプロセッサ、縮小命令セット(RISC)マイクロプロセッサ、超長命令語(VLIW)マイクロプロセッサ、またはその他の任意のタイプの処理回路を含む。さらに、「プロセッサ」という用語は、1つまたは複数の個々のプロセッサ、処理装置、および他の処理装置によって共有され得る撮像モジュール102に関連付けられた様々な要素を指し得る。処理されたイメージコンテンツはさらに、撮像モジュール102のメモリに格納される。本明細書で使用される「メモリ」という用語は、コンピュータがデータまたはソフトウェアを任意の期間保存できる、電気回路、磁気ディスク、仮想メモリ、または光ディスクなどの揮発性または持続性媒体に関する。任意選択で、メモリは、物理記憶媒体などの不揮発性大容量記憶装置を含む。
図2は、撮像モジュール102の設定中に、垂直視線に焦点を合わせることにより、撮像モジュール102によって生成された例示的なイメージコンテンツ200を示す。イメージコンテンツ200は、CCTV、トップダウンビューを取り込むために高所で利用されるカメラなどの撮像デバイスによって直接取得され得る。一例では、CCTVはホテルのロビーなどのエリア内の監視に利用されている。別の例では、カメラは野球場の各選手のトップダウンビューを取り込むために野球場内の高所で利用される。一実施形態では、トップダウンビューは、イメージコンテンツの複数のビューを処理し、トップダウンビューを取得することによって取得され得る。一実施形態では、イメージコンテンツの複数のビューは、背面ビュー、正面ビュー、上面ビュー、底面ビュー、左側面ビュー、右側面ビュー、および斜視ビューを含む。
図1に戻って参照すると、システム100は、イメージコンテンツ200などのイメージコンテンツのグラウンドトゥルース(GT)を生成するグラウンドトゥルース生成モジュール104をさらに含む。GT生成モジュール104は、情報を格納、処理、および/または共有するように構成されたプログラム可能および/または非プログラム可能コンポーネントを含む構造および/またはモジュールに関する。
GTラベルの第1の部分は、部分信頼度マップ(PCM)を含み、PCMは、関節がイメージコンテンツ200の関節のある身体姿勢のどこに位置するか、および関節位置の周りのどのくらいの領域が「GT」と見なされるかを定義する。一例では、PCMは、関節位置が実際にイメージコンテンツ200のどこに位置するかのアノテーションを含む。関節のタイプ(例えば、左肩、右肘、頭など)ごとに、GT生成モジュール104は、ラベルマトリックスを生成し得る。一例では、ラベルマトリックスは(46×46)ラベルマトリックスであり得る。
本開示の一実施形態では、PCMを生成するために、GT生成モジュール104は、最初に関節アノテーションのそれぞれの位置(x,y)を決定し、決定された位置をより低い解像度の値にスケーリングし、次に、決定された位置の周りにガウス分布などの正規分布を適用するように構成される。決定された位置の周りの分布の長さは「GT」と見なされ、値、シグマによって示される。
図3は、イメージコンテンツ200のために生成された第1から第14の部分信頼度マップ(PCM)302aから302h(以下、まとめてPCM302と呼ぶ)の例を示す。各PCM302は、イメージコンテンツ200の関節のある身体姿勢の各関節のための2次元の解剖学的キーポイントの位置のグラフ表示を参照する。関節のある身体は、各PCM302を計算するためにバックグラウンドからセグメント化され、関節のある身体の各関節は対応するPCM302を作成するために識別される。一例では、イメージコンテンツ200がサッカーをしている2人のプレーヤーを含む場合、膝、肘、肩、手首などのプレーヤーのそれぞれの各関節が識別され、PCMが各関節に対して作成され得る。PCM302が生成されると、対応するイメージコンテンツ200のトップダウンビューにPCM302を投影することによって、ヒートマップを作成し得る。ヒートマップにおいて、PCM302内の検出された関節は、関節のある身体のそれぞれの関節の領域に重ね合わされ得る。領域は、それぞれの関節の正確な位置を含み得る。
GTラベルの第2の部分は部分親和性フィールド(PAF)を含み、各PAFはイメージコンテンツ200の関節のある身体姿勢の関節接続を定義する。関節接続の例は、限定されないが、頭頸部接続、右肘右肩接続、右肘右肩接続を含む。関節接続ごとに、GT生成モジュール104は2つのラベルマトリックスを生成するように構成され、1つはX方向用のラベルマトリックス、もう1つはY方向用のラベルマトリックスである。一例では、各ラベルマトリックスは(46x46)ラベルマトリックスである
ラベルマトリックスを生成するために、GT生成モジュール104は、2つの関節位置、例えば、頭および首の関節位置を取り、2つの関節位置の間に線を引いて、関節接続を生成する。その後、GT生成モジュール104は、関節接続に対応する、XおよびY方向のそれぞれにおける点のセットを計算する。点のセットは、2つの関節間の線分の距離閾値内にある1つまたは複数の点を含む。
図4Aおよび4Bは、本開示の例示的な実施形態による、イメージコンテンツ200に対して生成された例示的なPAF400aおよび400bの例示である。本明細書で使用されるPAFは、関節のある身体の各関節接続に関連付けられた2次元ベクトル場を指す。一例として、人体では、肘と手首が前腕を介して接続されている。したがって、PAFは、関節のある身体姿勢を検出するために作成された前腕に対応する。関節接続(肘-手首、膝-足首など)用のPAFを作成するために、x軸とy軸に対応する2つのマトリックスを生成し得る。その後、関節接続間の線分が計算され、線分は関節接続を結ぶ領域(前腕など)に対応し得る。
イメージコンテンツに対してPAF400aおよび400bが生成されると、ベクトルマップは、イメージコンテンツ200のトップダウンビューにPAF400aおよび400bを投影することによって、生成され得る。したがって、PAF400aおよび400bのそれぞれの検出された関節接続は、関節のある身体のそれぞれの関節接続の正確な位置に重ね合わされる。
イメージコンテンツ200の場合、対応するPCMおよびPAFが組み合わされて、画像関連ラベルを形成する。ラベルは、イメージコンテンツ200のグラウンドトゥルースである。
本開示の一実施形態では、GT生成モジュール104は、イメージコンテンツ200と同様のイメージコンテンツを含む複数のデータセットを使用して、姿勢推定ニューラルネットワーク106用のグラウンドトゥルースを生成するように構成される。複数のタイプのデータセットの場合、GT生成モジュール104は、共通の骨格構造を定義するように構成され得る。さらに、可能な限り最高のグラウンドトゥルースを構築するために、データセットは事前に検証される。さらに、データセットのイメージコンテンツは、コントラストと明るさを調整するために前処理され得る。また、データセットのイメージコンテンツを、回転、平行移動、スケーリング、ズームなどの拡張機能(augmentations)を適用することによって、増やし得る。
図1に戻ると、システム100は、イメージコンテンツのトップダウンビューを処理するための畳み込みニューラルネットワークである姿勢推定ニューラルネットワーク106をさらに含む。本明細書で使用される「ニューラルネットワーク」という用語は、処理要素の高度に相互接続されたネットワークを含むことができ、それぞれ、任意選択でローカルメモリに関連付けられる。一例では、ニューラルネットワークは、コホーネンマップ、多層パーセプトロンなどであり得る。さらに、ニューラルネットワークの処理要素は、「人工ニューラルユニット」、「人工ニューロン」、「ニューラルユニット」、「ニューロン」、「ノード」など、とすることができる。さらに、ニューロンは、入力または1つもしくは複数の他のニューロンからデータを受信し、データを処理し、処理されたデータを出力またはさらに1つもしくは複数の他のニューロンに送信できる。ニューラルネットワークまたはその1つもしくは複数のニューロンは、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせのいずれかで生成でき、その後、ニューラルネットワークをトレーニングできる。畳み込みニューラルネットワークは、入力層、複数の隠れ層、および出力層から成ることを理解されるだろう。さらに、畳み込みニューラルネットワークの複数の隠れ層は、通常、畳み込み層、プーリング層、全結合層、および正規化層からなる。任意選択で、Visual Geometry Group 19 (VGG19)モデルが畳み込みニューラルネットワークアーキテクチャとして使用される。VGG19モデルは、与えられた画像データ内のオブジェクトを分類するように構成されている。一例では、車、芝生に座っている人間、犬を含む画像を、VGG19畳み込みニューラルネットワークに与える。VGG19は与えられた画像から、車、人、犬を識別および分類する。同様に、VGG19モデルは、関節のある身体姿勢の検出のために、イメージコンテンツ内の関節のある身体を識別するようにトレーニングされる。特に、複数の関節のある身体が識別され得る、および関節のある身体のそれぞれに関連付けられた姿勢が検出され得る。VGG19モデルは、その入力レイヤーを介してイメージコンテンツを受け取るように構成されている。さらに、イメージコンテンツは、さらに処理するために隠れ層に渡される。隠れ層は、畳み込み層の複数のセットを含むことが理解されるであろう。
姿勢推定ニューラルネットワーク106は、イメージコンテンツ200、およびイメージコンテンツ200のためのGTデータに基づいて、イメージコンテンツ200の予測ラベル108を生成するように構成される。イメージコンテンツ200の場合、予測ラベル108は、複数のシグマ値でのPCM、および複数の閾値でのPAFを含む。
本開示の一実施形態では、姿勢推定ニューラルネットワーク106は、複数のシグマ値のためのイメージコンテンツ200用のPCMを作成するように構成される。各関節(左肩、右肘、頭など)のPCMは、マトリックスを生成することによって作成される。さらに、マトリックスを生成するために、各関節のx-yの位置が取得される。さらに、正規分布(ガウス分布など)が関節の周囲に適用される。さらに、関節周囲の正規分布の量に応じて、値「シグマ」がPCMに割り当てられる。特に、関節周囲の正規分布が大きいほど、シグマの値は大きくなる。
本開示の別の実施形態では、姿勢推定ニューラルネットワーク106は、複数の閾値に対してPAFを作成するように構成される。各関節接続のPAFは、2つのマトリックスを生成することによって作成される。さらに、2つのマトリックス、X方向の1つのマトリックスともう1つのY方向のマトリックス、を生成するために、2つのスケーリングされた関節接続(頭―首など)が考慮される。さらに、関節接続間の線分が計算され、関節接続に対応する点のセットが計算される。さらに、PAF内の線分(すなわち、2つの関節を接続する線)からの点のセットのそれぞれの距離に応じて、「閾」値がPAFに割り当てられる。
システム100は、予測ラベル108から、イメージコンテンツ200の各関節の複数の関節位置(x、y)を抽出するように構成された関節抽出モジュール110をさらに含む。複数の関節位置は、それぞれPCMおよびPAFの複数のシグマおよび閾値に対応する。
システムは、イメージコンテンツ200の対応する複数の関節位置に基づいて複数の骨格構造(以下、推定骨格とも呼ばれる)を構築するように構成された骨格構造構築モジュール112をさらに含む。複数の骨格構造は、それぞれPCMおよびPAFの複数のシグマおよび閾値に対応する。
図5を参照すると、本開示の例示的な実施形態による、イメージコンテンツ200のための骨格構造構築モジュール112によって生成された身体フレームワーク500の図が示されている。身体フレームワーク500は、検出された関節および検出された関節接続から構築された骨格構造に対応する。検出された関節のある身体姿勢は、関節のある身体に重ねられた身体フレームワーク500として表示され得る。
図1に戻ると、システム100は、リアルタイムで検出された関節のある身体姿勢を見ることを視聴者に可能にさせるためのディスプレイデバイス114をさらに含み得る。ディスプレイデバイス114の例は、限定されないが、液晶ディスプレイ(LDC)デバイス、発光ダイオード(LED)ベースのディスプレイ、有機LED(OLED)ベースのディスプレイデバイス、およびマイクロOLEDベースのディスプレイデバイスを含む。
本開示の一実施形態では、骨格構造構築モジュール112によって生成された骨格構造は、姿勢推定ニューラルネットワーク106のトレーニングのためにトレーニングモジュール116によってさらに使用される。トレーニングモジュール116は、推定骨格をGT骨格と比較し、一致する関節点の数、および一致する骨格の数を決定する。姿勢推定ニューラルネットワーク106のトレーニングプロセスは、イメージコンテンツ200のための骨格構造を所定の回数正確に生成可能になるまで実行される、ことが理解されよう。
本開示の一実施形態では、イメージコンテンツ200について、トレーニングモジュール116は、定義されたPCM(すなわち、グラウンドトゥルースのPCM)を、姿勢推定ニューラルネットワーク106によって生成された複数の予測PCMのそれぞれと比較するように構成される。さらに、グラウンドトゥルースPCMと最もよく一致する予測PCMが選択される。さらに、選択されたPCM部分信頼度マップに対応するシグマ値(すなわち、真のシグマ値)が、イメージコンテンツ200に割り当てられる。本開示の別の実施形態では、イメージコンテンツ200について、システム100は、定義されたPAF(すなわち、GTのPAF)を、予測されたPAFのそれぞれと比較して、複数の閾値から真の閾値を選択するように動作可能である。さらに、グラウンドトゥルースと最も一致する部分親和性フィールドが選択される。さらに、選択された部分親和性フィールドに対応する閾値(すなわち、真の閾値)が、イメージコンテンツ200に割り当てられる。
一例では、関節抽出モジュール110によって出力されたヒートマップは、点(ヒートマップ上の各円の中心)を比較し、それらを照合することによって、グラウンドトゥルースヒートマップと比較される。2つの点が同じ位置にある場合、またはx軸もしくはy軸で最大1ピクセルの違いがあるが、両方にはない場合、2つの点は一致すると見なされる。次に、推論の出力、すなわち、骨格構造構築モジュール112によって生成された骨格が、グラウンドトゥルース骨格と比較される。2つの骨格は、それらの間で一致する点の数を最大にし、残りの点の間の距離を最小にすることによって一致する。点は上記のように一致する。この比較に基づいて、一致した骨格の数および骨格(一致していない)の残りの数などのメトリックが決定される。
図6を参照すると、本開示の一実施形態による、イメージコンテンツから関節のある身体姿勢を検出するための方法のステップが示されている。ステップ602にて、イメージコンテンツのトップダウンビューが取得される。ステップ604にて、機械学習アルゴリズムを使用して、トップダウンビューが処理され、イメージコンテンツに対応する関節のある身体姿勢が検出される。ステップ604は、関節のある身体姿勢の各関節に対応する部分信頼度マップを作成することと、イメージコンテンツのトップダウンビューに部分信頼度マップを投影することによってヒートマップを生成することと、関節のある身体姿勢の各関節に関連付けられた各身体部分に対応する部分親和性フィールドを作成することと、イメージコンテンツのトップダウンビューに部分親和性フィールドを投影してベクトルマップを生成することと、関節のある身体姿勢を検出するために、ヒートマップとベクトルマップを使用し、関節のある身体姿勢に対応する身体フレームワークを生成することと、をさらに含む。
上記で説明された本開示の実施形態に対する変更は、付随する特許請求の範囲によって定義される本開示の範囲から逸脱することなく可能である。本開示を説明および請求するために使用される「~を含む(including)」、「~を備える(comprising)」、「~を組み込む(incorporating)」、「~からなる(consisting of)」、「~を有する(have)」、「~である(is)」などの表現は、非排他式にみなされることが意図されており、すなわち、明示的に説明されていない項目、コンポーネント、または要素もまた存在することが可能である。単数形への言及もまた、複数形に関するようにみなされる。

Claims (19)

  1. イメージコンテンツから関節のある身体姿勢を検出するシステムであって、
    前記イメージコンテンツを取り込む撮像モジュールと、
    前記撮像モジュールと通信可能に結合されたプロセッサであって、前記プロセッサは、
    前記イメージコンテンツのトップダウンビューを取得し、
    機械学習アルゴリズムを使用して、前記トップダウンビューを処理し、前記イメージコンテンツに対応する前記関節のある身体姿勢を検出することであって、前記関節のある身体姿勢は複数の関節を含むように動作可能であり、前記処理は、
    前記関節のある身体姿勢の各関節に対応する部分信頼度マップを作成することと、
    前記イメージコンテンツの前記トップダウンビューに前記部分信頼度マップを投影することによってヒートマップを生成することと、
    前記関節のある身体姿勢の前記各関節に関連付けられた各身体部分に対応する部分親和性マップを作成することと、
    前記イメージコンテンツの前記トップダウンビューに前記部分親和性マップを投影することによってベクトルマップを生成することと、
    前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する身体フレームワークを生成することと、
    を含む、前記プロセッサと、
    を備えた、システム。
  2. 前記撮像モジュールが、撮像デバイスと、プロセッサと、メモリとを含む、請求項1に記載のシステム。
  3. 前記イメージコンテンツは、画像、ビデオ、グラフィックス交換フォーマット(GIF)ベースのコンテンツの少なくとも1つを含む、請求項1に記載のシステム。
  4. 前記システムは、前記機械学習アルゴリズムのトレーニングをさらに備え、前記システムは、
    前記撮像モジュールから定義された部分信頼度マップおよび定義された部分親和性マップを受信し、
    複数のシグマ値に対する前記部分信頼度マップを作成し、
    複数の閾値に対する前記部分親和性マップを作成し、
    前記複数のシグマ値に対する前記部分信頼度マップを前記定義された部分信頼度マップと比較して、前記複数のシグマ値から真のシグマ値を選択し、
    前記複数の閾値に対する前記部分親和性マップを前記定義された部分親和性マップと比較して、前記複数の閾値から真の閾値を選択し、
    前記真のシグマ値の前記部分信頼度マップを使用して前記ヒートマップを生成し、および前記真の閾値の前記部分親和性マップを使用して前記ベクトルマップを生成し、
    前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する前記身体フレームワークを生成する、
    ように動作可能である、請求項1に記載のシステム。
  5. 前記システムは、処理の前に、前記イメージコンテンツの前記トップダウンビューの解像度を下げることを備える、請求項1に記載のシステム。
  6. 前記トップダウンビューを取得することは、
    前記トップダウンビューの形式で前記イメージコンテンツを受信すること、または、
    前記イメージコンテンツの複数のビューを処理し、前記トップダウンビューを取得すること、
    の1つを含む、請求項1に記載のシステム。
  7. 前記イメージコンテンツの前記複数のビューは、背面ビュー、正面ビュー、上面ビュー、下面ビュー、左側面ビュー、右側面ビュー、斜視ビューを含む、請求項6に記載のシステム。
  8. 前記システムは、前記検出された関節のある身体姿勢を見るためのディスプレイデバイスをさらに備える、請求項1に記載のシステム。
  9. イメージコンテンツから関節のある身体姿勢を検出する方法であって、
    前記イメージコンテンツのトップダウンビューを取得すること、および
    機械学習アルゴリズムを使用して、前記トップダウンビューを処理し、前記イメージコンテンツに対応する前記関節のある身体姿勢を検出することであって、前記関節のある身体姿勢は複数の関節を含み、前記処理は
    前記関節のある身体姿勢の各関節に対応する部分信頼度マップを作成することと、
    前記イメージコンテンツの前記トップダウンビューに前記部分信頼度マップを投影することによってヒートマップを生成することと、
    前記関節のある身体姿勢の前記各関節に関連付けられた各身体部分に対応する部分親和性マップを作成することと、
    前記イメージコンテンツの前記トップダウンビューに前記部分親和性マップを投影することによってベクトルマップを生成することと、
    前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する身体フレームワークを生成することと、
    を含む、ことを備える方法。
  10. 前記方法は、畳み込みニューラルネットワークを利用して前記部分信頼度マップおよび前記部分親和性マップを作成することを備える、請求項9に記載の方法。
  11. 前記方法はさらに前記機械学習アルゴリズムのトレーニングを備え、前記方法は、
    定義された部分信頼度マップおよび定義された部分親和性マップを受信することと、
    複数のシグマ値に対する前記部分信頼度マップを作成することと、
    複数の閾値に対する前記部分親和性マップを作成することと、
    前記複数のシグマ値に対する前記部分信頼度マップを前記定義された部分信頼度マップと比較して、前記複数のシグマ値から真のシグマ値を選択することと、
    前記複数の閾値に対する前記部分親和性マップを前記定義された部分親和性マップと比較して、前記複数の閾値から真の閾値を選択することと、
    前記真のシグマ値の前記部分信頼度マップを使用して前記ヒートマップを、および前記真の閾値の前記部分親和性マップを使用して前記ベクトルマップを、生成することと、
    前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する前記身体フレームワークを生成することと、
    を備える、請求項9に記載の方法。
  12. 前記方法は、処理の前に、前記イメージコンテンツの前記トップダウンビューの解像度を下げることを備える、請求項9に記載の方法。
  13. 前記トップダウンビューを取得することは、
    前記トップダウンビューの形式で前記イメージコンテンツを受信すること、または、
    前記イメージコンテンツの複数のビューを処理し、前記トップダウンビューを取得すること、
    の1つを含む、請求項9に記載の方法。
  14. 前記イメージコンテンツの前記複数のビューは、背面ビュー、正面ビュー、上面ビュー、下面ビュー、左側面ビュー、右側面ビュー、斜視ビューを含む、請求項13に記載の方法。
  15. イメージコンテンツから関節のある身体姿勢を検出するコンピュータプログラム可能製品であって、前記コンピュータプログラム可能製品は、一連の命令を含み、前記一連の命令は、プロセッサによって実行されると、前記プロセッサに
    前記イメージコンテンツのトップダウンビューを取得させ、および
    機械学習アルゴリズムを使用して、前記トップダウンビューを処理させ、前記イメージコンテンツに対応する前記関節のある身体姿勢を検出させることであって、前記関節のある身体姿勢は複数の関節を含み、前記処理は
    前記関節のある身体姿勢の各関節に対応する部分信頼度マップを作成することと、
    前記イメージコンテンツの前記トップダウンビューに前記部分信頼度マップを投影することによってヒートマップを生成することと、
    前記関節のある身体姿勢の前記各関節に関連付けられた各身体部分に対応する部分親和性マップを作成することと、
    前記イメージコンテンツの前記トップダウンビューに前記部分親和性マップを投影することによってベクトルマップを生成することと、
    前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する身体フレームワークを生成することと、
    を含む、ことをさせる、
    コンピュータプログラム可能製品。
  16. 前記一連の命令がプロセッサによって実行されると、前記プロセッサに、畳み込みニューラルネットワークを利用して前記部分信頼度マップおよび前記部分親和性マップを作成させる、請求項15に記載のコンピュータプログラム可能製品。
  17. 前記一連の命令は、プロセッサによって実行されると、前記プロセッサに
    定義された部分信頼度マップおよび定義された部分親和性マップを受信し、
    複数のシグマ値に対する前記部分信頼度マップを作成させ、
    複数の閾値に対する前記部分親和性マップを作成させ、
    前記複数のシグマ値に対する前記部分信頼度マップを前記定義された部分信頼度マップと比較して、前記複数のシグマ値から真のシグマ値を選択させ、
    前記複数の閾値に対する前記部分親和性マップを前記定義された部分親和性マップと比較して、前記複数の閾値から真の閾値を選択させ、
    前記真のシグマ値の前記部分信頼度マップを使用して前記ヒートマップを、および前記真の閾値の前記部分親和性マップを使用して前記ベクトルマップを、生成させ、
    前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する前記身体フレームワークを生成させる、
    請求項15に記載のコンピュータプログラム可能製品。
  18. 前記トップダウンビューを取得することは、
    前記トップダウンビューの形式で前記イメージコンテンツを受信すること、または、
    前記イメージコンテンツの複数のビューを処理し、前記トップダウンビューを取得すること、
    の1つを含む、請求項15に記載のコンピュータプログラム可能製品。
  19. 前記イメージコンテンツの前記複数のビューは、背面ビュー、正面ビュー、上面ビュー、下面ビュー、左側面ビュー、右側面ビュー、斜視ビューを含む、請求項18に記載のコンピュータプログラム可能製品。
JP2021531830A 2018-12-03 2019-10-18 関節のある身体姿勢を検出するシステムおよび方法 Active JP7241876B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/207,296 2018-12-03
US16/207,296 US10937185B2 (en) 2018-12-03 2018-12-03 System and method to detect articulate body pose
PCT/IB2019/058911 WO2020115579A1 (en) 2018-12-03 2019-10-18 System and method to detect articulate body pose

Publications (2)

Publication Number Publication Date
JP2022510417A true JP2022510417A (ja) 2022-01-26
JP7241876B2 JP7241876B2 (ja) 2023-03-17

Family

ID=68343184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021531830A Active JP7241876B2 (ja) 2018-12-03 2019-10-18 関節のある身体姿勢を検出するシステムおよび方法

Country Status (12)

Country Link
US (1) US10937185B2 (ja)
EP (1) EP3891651A1 (ja)
JP (1) JP7241876B2 (ja)
KR (1) KR102598762B1 (ja)
CN (1) CN113168521A (ja)
AU (1) AU2019394188B2 (ja)
BR (1) BR112021008816A2 (ja)
CA (1) CA3121119C (ja)
CL (1) CL2021001455A1 (ja)
CO (1) CO2021008155A2 (ja)
MX (1) MX2021006521A (ja)
WO (1) WO2020115579A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6965803B2 (ja) * 2018-03-20 2021-11-10 株式会社Jvcケンウッド 認識装置、認識方法及び認識プログラム
JP7201946B2 (ja) * 2019-05-16 2023-01-11 日本電信電話株式会社 骨格情報判定装置、骨格情報判定方法及びコンピュータプログラム
US20200394384A1 (en) * 2019-06-14 2020-12-17 Amarjot Singh Real-time Aerial Suspicious Analysis (ASANA) System and Method for Identification of Suspicious individuals in public areas
CN111489379B (zh) * 2020-06-28 2020-10-02 中国科学院自动化研究所南京人工智能芯片创新研究院 一种引入运动学约束的3d网络进行手部姿态估计的方法及系统
EP4177770A4 (en) * 2020-07-01 2023-06-07 NEC Corporation IMAGE PROCESSING DEVICE AND METHOD, AND PROGRAM
US20220122360A1 (en) * 2020-10-21 2022-04-21 Amarjot Singh Identification of suspicious individuals during night in public areas using a video brightening network system
CN112418120B (zh) * 2020-11-27 2021-09-28 湖南师范大学 基于峰值置信图的人群检测方法
CN112183506A (zh) * 2020-11-30 2021-01-05 成都市谛视科技有限公司 一种人体姿态生成方法及其系统
CN113343762B (zh) * 2021-05-07 2022-03-29 北京邮电大学 人体姿态估计分组模型训练方法、姿态估计方法及装置
CN113658235B (zh) * 2021-08-06 2022-08-09 北京理工大学 基于vgg网络与高斯差分网络的光学遥感影像精确配准方法
WO2023214293A1 (en) 2022-05-04 2023-11-09 Everseen Limited System and method for adaptive orchestrated process parallelization

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206259A (ja) * 2012-03-29 2013-10-07 Panasonic Corp 部位推定装置、部位推定方法、および部位推定プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4332649B2 (ja) * 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
ES2790885T3 (es) * 2005-03-29 2020-10-29 Sportvu Ltd Seguimiento de objetos en tiempo real y captura de movimiento en eventos deportivos
US8131011B2 (en) * 2006-09-25 2012-03-06 University Of Southern California Human detection and tracking system
US9355305B2 (en) 2010-10-08 2016-05-31 Panasonic Corporation Posture estimation device and posture estimation method
US9477908B2 (en) * 2014-04-10 2016-10-25 Disney Enterprises, Inc. Multi-level framework for object detection
US9582718B1 (en) * 2015-06-30 2017-02-28 Disney Enterprises, Inc. Method and device for multi-target tracking by coupling multiple detection sources
GB201613138D0 (en) * 2016-07-29 2016-09-14 Unifai Holdings Ltd Computer vision systems
US10902243B2 (en) * 2016-10-25 2021-01-26 Deep North, Inc. Vision based target tracking that distinguishes facial feature targets
CN109154979A (zh) * 2016-10-26 2019-01-04 奥康科技有限公司 用于分析图像和提供反馈的可佩戴设备和方法
CN110291788B (zh) * 2017-02-20 2022-03-08 索尼公司 图像处理设备和图像处理方法
US10430966B2 (en) * 2017-04-05 2019-10-01 Intel Corporation Estimating multi-person poses using greedy part assignment
CN109918975B (zh) * 2017-12-13 2022-10-21 腾讯科技(深圳)有限公司 一种增强现实的处理方法、对象识别的方法及终端
CN108038465A (zh) * 2017-12-25 2018-05-15 深圳市唯特视科技有限公司 一种基于合成数据集的三维多人物姿态估计
US20200145623A1 (en) * 2018-11-07 2020-05-07 Avigilon Corporation Method and System for Initiating a Video Stream

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206259A (ja) * 2012-03-29 2013-10-07 Panasonic Corp 部位推定装置、部位推定方法、および部位推定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHE CAO ET AL.: "Realtime Multi-person 2D Pose Estimation Using Part Affinity Fields", 2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN6022034545, 21 July 2017 (2017-07-21), US, pages 1302 - 1310, XP055707263, ISSN: 0004855193, DOI: 10.1109/CVPR.2017.143 *

Also Published As

Publication number Publication date
WO2020115579A1 (en) 2020-06-11
KR102598762B1 (ko) 2023-11-03
KR20210095941A (ko) 2021-08-03
JP7241876B2 (ja) 2023-03-17
MX2021006521A (es) 2021-07-07
AU2019394188B2 (en) 2022-06-02
US20200175713A1 (en) 2020-06-04
CN113168521A (zh) 2021-07-23
CA3121119C (en) 2023-08-29
CA3121119A1 (en) 2020-06-11
BR112021008816A2 (pt) 2021-08-10
US10937185B2 (en) 2021-03-02
CO2021008155A2 (es) 2021-06-30
EP3891651A1 (en) 2021-10-13
AU2019394188A1 (en) 2021-06-03
CL2021001455A1 (es) 2021-11-26

Similar Documents

Publication Publication Date Title
JP7241876B2 (ja) 関節のある身体姿勢を検出するシステムおよび方法
Tapu et al. A smartphone-based obstacle detection and classification system for assisting visually impaired people
Elmadany et al. Information fusion for human action recognition via biset/multiset globality locality preserving canonical correlation analysis
Wang et al. Lying pose recognition for elderly fall detection
Xiong et al. S3D-CNN: skeleton-based 3D consecutive-low-pooling neural network for fall detection
WO2020225562A1 (en) Processing captured images
Nishi et al. Generation of human depth images with body part labels for complex human pose recognition
Chen et al. Combining unsupervised learning and discrimination for 3D action recognition
Liu et al. Driver pose estimation using recurrent lightweight network and virtual data augmented transfer learning
Abobakr et al. Body joints regression using deep convolutional neural networks
Asif et al. Sshfd: Single shot human fall detection with occluded joints resilience
Batool et al. Telemonitoring of daily activities based on multi-sensors data fusion
Fei et al. Flow-pose Net: An effective two-stream network for fall detection
CN114724251A (zh) 一种在红外视频下基于骨架序列的老人行为识别方法
Colantonio et al. Object tracking in a stereo and infrared vision system
Park et al. Understanding human interactions with track and body synergies (TBS) captured from multiple views
Yuan et al. Thermal Infrared Target Tracking: A Comprehensive Review
Yu et al. Applications of deep learning for top-view omnidirectional imaging: A survey
Uddin et al. A thermal camera-based activity recognition using discriminant skeleton features and rnn
Ruget et al. Real-time, low-cost multi-person 3D pose estimation
Ramanathan et al. Combining pose-invariant kinematic features and object context features for rgb-d action recognition
Osigbesan et al. Vision-based fall detection in aircraft maintenance environment with pose estimation
Mohamed et al. Human motion analysis, recognition and understanding in computer vision: A review
Datta et al. Linearized motion estimation for articulated planes
Yang et al. Ego-downward and ambient video based person location association

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230307

R150 Certificate of patent or registration of utility model

Ref document number: 7241876

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150