JP7173341B2 - 人物状態検出装置、人物状態検出方法及びプログラム - Google Patents

人物状態検出装置、人物状態検出方法及びプログラム Download PDF

Info

Publication number
JP7173341B2
JP7173341B2 JP2021528721A JP2021528721A JP7173341B2 JP 7173341 B2 JP7173341 B2 JP 7173341B2 JP 2021528721 A JP2021528721 A JP 2021528721A JP 2021528721 A JP2021528721 A JP 2021528721A JP 7173341 B2 JP7173341 B2 JP 7173341B2
Authority
JP
Japan
Prior art keywords
person
height
dimensional
state detection
skeletal structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021528721A
Other languages
English (en)
Other versions
JPWO2020261404A5 (ja
JPWO2020261404A1 (ja
Inventor
登 吉田
祥治 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020261404A1 publication Critical patent/JPWO2020261404A1/ja
Publication of JPWO2020261404A5 publication Critical patent/JPWO2020261404A5/ja
Application granted granted Critical
Publication of JP7173341B2 publication Critical patent/JP7173341B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Description

本発明は、人物状態検出装置、人物状態検出方法及びプログラムが格納された非一時的なコンピュータ可読媒体に関する。
近年、監視システム等において、監視カメラの画像から人物の姿勢や行動等の状態を検出する技術が利用されている。人物の姿勢の検出に関連する技術として、例えば、特許文献1及び2が知られている。特許文献1には、人物の画像領域の時間的な変化から、人物の姿勢を認知する技術が開示されている。特許文献2には、距離画像における3次元人物領域の高さ、幅および奥行きから、人物の姿勢を判定する技術が開示されている。なお、その他に、人物の骨格推定に関連する技術として、非特許文献1が知られている。
特開2010-237873号公報 特開2008-146583号公報
Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh, "Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, P. 7291-7299
上記のように、特許文献1では、人物の画像領域の変化に基づいて人物の姿勢を検出しているが、直立状態の画像を必須としているため、人物の姿勢によっては精度よく検出することができない。また、特許文献2では、距離画像の3次元情報の取得を前提としている。このため、関連する技術では、人物を撮像した2次元画像から精度よく人物の状態を検出することが困難であるという問題がある。
本開示は、このような課題に鑑み、人物の状態の検出精度を向上することが可能な人物状態検出装置、人物状態検出方法及びプログラムが格納された非一時的なコンピュータ可読媒体を提供することを目的とする。
本開示に係る人物状態検出装置は、人物を撮像した2次元画像を取得する取得手段と、前記取得された2次元画像に基づいて前記人物の2次元骨格構造を検出する骨格構造検出手段と、前記検出された2次元骨格構造に基づいて2次元画像空間上の前記人物の直立時の高さを推定する推定手段と、前記推定された直立時の高さと前記2次元画像における前記人物の領域の高さに基づいて前記人物の状態を検出する状態検出手段と、を備えるものである。
本開示に係る人物状態検出方法は、人物を撮像した2次元画像を取得し、前記取得された2次元画像に基づいて前記人物の2次元骨格構造を検出し、前記検出された2次元骨格構造に基づいて2次元画像空間上の前記人物の直立時の高さを推定し、前記推定された直立時の高さと前記2次元画像における前記人物の領域の高さに基づいて前記人物の状態を検出するものである。
本開示に係る人物状態検出プログラムは、人物を撮像した2次元画像を取得し、前記取得された2次元画像に基づいて前記人物の2次元骨格構造を検出し、前記検出された2次元骨格構造に基づいて2次元画像空間上の前記人物の直立時の高さを推定し、前記推定された直立時の高さと前記2次元画像における前記人物の領域の高さに基づいて前記人物の状態を検出する、処理を、コンピュータに実行させるための人物状態検出プログラムである。
本開示によれば、人物の状態の検出精度を向上することが可能な人物状態検出装置、人物状態検出方法及びプログラムが格納された非一時的なコンピュータ可読媒体を提供することができる。
関連する監視方法を示すフローチャートである。 実施の形態に係る人物状態検出装置の概要を示す構成図である。 実施の形態1に係る人物状態検出装置の構成を示す構成図である。 実施の形態1に係る人物状態検出方法を示すフローチャートである。 実施の形態1に係る身長画素数算出方法を示すフローチャートである。 実施の形態1に係る人体モデルを示す図である。 実施の形態1に係る骨格構造の検出例を示す図である。 実施の形態1に係る骨格構造の検出例を示す図である。 実施の形態1に係る骨格構造の検出例を示す図である。 実施の形態2に係る人体モデルを示す図である。 実施の形態2に係る身長画素数算出方法を示すフローチャートである。 実施の形態2に係る骨格構造の検出例を示す図である。 実施の形態2に係る身長画素数算出方法を説明するためのヒストグラムである。 実施の形態3に係る身長画素数算出方法を示すフローチャートである。 実施の形態3に係る骨格構造の検出例を示す図である。 実施の形態3に係る3次元人体モデルを示す図である。 実施の形態3に係る身長画素数算出方法を説明するための図である。 実施の形態3に係る身長画素数算出方法を説明するための図である。 実施の形態3に係る身長画素数算出方法を説明するための図である。 実施の形態に係るコンピュータのハードウェアの概要を示す構成図である。
以下、図面を参照して実施の形態について説明する。各図面においては、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略される。
(実施の形態に至る検討)
近年、機械学習を活用した画像認識技術が様々なシステムに応用されている。一例として、監視カメラの画像により監視を行う監視システムについて検討する。
図1は、関連する監視システムにおける監視方法を示している。図1に示すように、監視システムは、監視カメラから画像を取得し(S101)、取得した画像の中から人物を検知し(S102)、人物の状態認識及び属性認識(S103)を行う。例えば、人物の状態として人物の姿勢や行動(振る舞い、動線)等を認識し、人物の属性として人物の年齢や性別、身長等を認識する。また、監視システムでは、認識した人物の状態や属性からデータ分析を行い(S104)、分析結果に基づき対処等のアクチュエーションを行う(S105)。例えば、認識した姿勢や行動等からアラート表示を行ったり、認識した身長等の属性の人物の監視を行う。
この例の状態認識のように、人物の姿勢や行動、特に監視システムでは通常とは異なる姿勢や行動を監視カメラ映像から検知したい需要が高まっている。例えば、姿勢や行動には、しゃがみ込み、寝込み、転倒等が含まれる。
発明者らは、画像から人物の姿勢や行動等の状態を検出する方法を検討したところ、関連する技術では、簡易に検出することは困難であり、また、必ずしも精度よく検出することができないという課題を見出した。近年のディープラーニングの発展により、検知対象の姿勢等を撮影した映像を大量に集めて学習させることで上記の姿勢等を検知することは可能である。しかしながら、この学習データを集めることが困難であり、コストも高い。また、例えば人物の体の一部が隠れていたりすると、人物の状態を検出できない場合がある。
そこで、発明者らは、人物の状態検出に、機械学習を用いた骨格推定技術を利用する方法を検討した。例えば、非特許文献1に開示されたOpenPose等のように、関連する骨格推定技術では、様々なパターンの正解付けされた画像データを学習することで、人物の骨格を推定する。以下の実施の形態では、このような骨格推定技術を活用することで、簡易に人物の状態を検出し、また、検出精度を向上することを可能とする。
なお、OpenPose等の骨格推定技術により推定される骨格構造は、関節等の特徴的な点である「キーポイント」と、キーポイント間のリンクを示す「ボーン(ボーンリンク)」とから構成される。このため、以下の実施の形態では、骨格構造について「キーポイント」と「ボーン」という用語を用いて説明するが、特に限定されない限り、「キーポイント」は人物の「関節」に対応し、「ボーン」は人物の「骨」に対応している。
(実施の形態の概要)
図2は、実施の形態に係る人物状態検出装置10の概要を示している。図2に示すように、人物状態検出装置10は、取得部11、骨格構造検出部12、推定部13、状態検出部14を備えている。
取得部11は、人物を撮像した2次元画像を取得する。骨格構造検出部12は、取得部11により取得された2次元画像に基づいて人物の2次元骨格構造を検出する。推定部13は、骨格構造検出部12により検出された2次元骨格構造に基づいて2次元画像空間上の人物の直立時の高さを推定する。状態検出部14は、推定部13により推定された直立時の高さと2次元画像における人物の領域の高さに基づいて人物の姿勢や行動等の状態を検出する。
このように実施の形態では、2次元画像から人物の2次元骨格構造を検出し、この2次元骨格構造に基づいて推定された2次元画像空間上の人物の直立時の高さと画像中の人物の高さから人物の状態を検出することで、簡易に検出することができ、また、人物の姿勢に依らず、精度よく検出することができる。
(実施の形態1)
以下、図面を参照して実施の形態1について説明する。図3は、本実施の形態に係る人物状態検出装置100の構成を示している。人物状態検出装置100は、カメラ200とともに人物状態検出システム1を構成する。例えば、人物状態検出装置100及び人物状態検出システム1は、図1のような監視システムにおける監視方法に適用され、人物の姿勢や行動等の状態を検出し、その検出に応じたアラームの表示等が行われる。なお、カメラ200を人物状態検出装置100の内部に設けてもよい。
図3に示すように、人物状態検出装置100は、画像取得部101、骨格構造検出部102、身長算出部103、人物領域算出部104、状態検出部105、記憶部106を備えている。なお、各部(ブロック)の構成は一例であり、後述の方法(動作)が可能であれば、その他の各部で構成されてもよい。また、人物状態検出装置100は、例えば、プログラムを実行するパーソナルコンピュータやサーバ等のコンピュータ装置で実現されるが、1つの装置で実現してもよいし、ネットワーク上の複数の装置で実現してもよい。
記憶部106は、人物状態検出装置100の動作(処理)に必要な情報(データ)を記憶する。例えば、記憶部106は、フラッシュメモリなどの不揮発性メモリやハードディスク装置等である。記憶部106は、画像取得部101が取得した画像や、骨格構造検出部102が処理した画像、機械学習用のデータ等を記憶する。なお、記憶部106は、外付けやネットワーク上の外部の記憶装置としてもよい。すなわち、人物状態検出装置100は、外部の記憶装置から必要な画像や機械学習用のデータ等を取得してもよい。
画像取得部101は、通信可能に接続されたカメラ200から、カメラ200が撮像した2次元の画像を取得する。カメラ200は、人物を撮像する監視カメラ等の撮像部であり、画像取得部101は、人物を撮像した画像をカメラ200から取得する。
骨格構造検出部102は、取得された2次元の画像に基づき、画像内の人物の2次元の骨格構造を検出する。骨格構造検出部102は、機械学習を用いた骨格推定技術を用いて、認識される人物の関節等の特徴に基づき人物の骨格構造を検出する。骨格構造検出部102は、例えば、非特許文献1のOpenPose等の骨格推定技術を用いる。
身長算出部(身長推定部)103は、検出された2次元の骨格構造に基づき、2次元の画像内の人物の直立時の高さ(身長画素数という)を算出(推定)する。身長画素数は、2次元の画像における人物の身長(2次元画像空間上の人物の全身の長さ)であるとも言える。身長算出部103は、検出された骨格構造の各ボーンの長さ(2次元画像空間上の長さ)から身長画素数(ピクセル数)を求める。本実施の形態では、骨格構造の各ボーンのうち、頭部から足部までのボーンの長さを合計することで、身長画素数を求める。骨格構造検出部102(骨格推定技術)が頭頂と足元を出力しない場合は、必要に応じて定数を乗じて補正することもできる。
人物領域算出部104は、取得された2次元の画像に基づき、画像内の人物の高さ(人物領域高さという)を算出する。人物領域算出部104は、画像内の人物領域を抽出し、その人物領域の縦方向の高さ(画素数)を算出する。例えば、人物がしゃがみ込んでいる場合、その状態の頭頂から足先までの画素数を算出する。
状態検出部105は、算出された身長画素数と人物領域高さに基づき、人物の状態を検出する。この例では、人物の状態として、直立やしゃがみ込み、寝込み等の姿勢を検出する。状態検出部105は、人物の状態として姿勢の時間的な変化から行動(転倒等)を検出してもよい。状態検出部105は、身長画素数と人物領域高さの比率を求め、その比率から人物の姿勢を検出する。
図4及び図5は、本実施の形態に係る人物状態検出装置100の動作を示している。図4は、人物状態検出装置100における画像取得から状態検出までの流れを示し、図5は、図4の身長画素数算出処理(S203)の流れを示している。
図4に示すように、人物状態検出装置100は、カメラ200から画像を取得する(S201)。画像取得部101は、骨格構造や人物領域の検出のために人物を撮像した画像を取得する。
続いて、人物状態検出装置100は、取得した人物の画像に基づいて人物の骨格構造を検出する(S202)。図6は、このとき検出する人体モデル300の骨格構造を示しており、図7~図9は、骨格構造の検出例を示している。骨格構造検出部102は、OpenPose等の骨格推定技術を用いて、2次元の画像から図6のような人体モデル(2次元骨格モデル)300の骨格構造を検出する。人体モデル300は、人物の関節等のキーポイントと、各キーポイントを結ぶボーンから構成された2次元モデルである。
骨格構造検出部102は、例えば、画像の中からキーポイントとなり得る特徴点を抽出し、キーポイントの画像を機械学習した情報を参照して、人物の各キーポイントを検出する。図6の例では、人物のキーポイントとして、頭A1、首A2、右肩A31、左肩A32、右肘A41、左肘A42、右手A51、左手A52、右腰A61、左腰A62、右膝A71、左膝A72、右足A81、左足A82を検出する。さらに、これらのキーポイントを連結した人物の骨として、頭A1と首A2を結ぶボーンB1、首A2と右肩A31及び左肩A32をそれぞれ結ぶボーンB21及びボーンB22、右肩A31及び左肩A32と右肘A41及び左肘A42をそれぞれ結ぶボーンB31及びボーンB32、右肘A41及び左肘A42と右手A51及び左手A52をそれぞれ結ぶボーンB41及びボーンB42、首A2と右腰A61及び左腰A62をそれぞれ結ぶボーンB51及びボーンB52、右腰A61及び左腰A62と右膝A71及び左膝A72をそれぞれ結ぶボーンB61及びボーンB62、右膝A71及び左膝A72と右足A81及び左足A82をそれぞれ結ぶボーンB71及びボーンB72を検出する。
図7は直立した状態の人物を検出する例である。図7では、直立した人物が正面から撮像されており、正面から見たボーンB1、ボーンB51及びボーンB52、ボーンB61及びボーンB62、ボーンB71及びボーンB72がそれぞれ重ならずに検出され、右足のボーンB61及びボーンB71は左足のボーンB62及びボーンB72よりも多少折れ曲がっている。図8はしゃがみ込んでいる状態の人物を検出する例である。図8では、しゃがみ込んでいる人物が右側から撮像されており、右側から見たボーンB1、ボーンB51及びボーンB52、ボーンB61及びボーンB62、ボーンB71及びボーンB72がそれぞれ検出され、右足のボーンB61及びボーンB71と左足のボーンB62及びボーンB72は大きく折れ曲がり、かつ、重なっている。図9は寝込んでいる状態の人物を検出する例である。図9では、寝込んでいる人物が左斜め前から撮像されており、左斜め前から見たボーンB1、ボーンB51及びボーンB52、ボーンB61及びボーンB62、ボーンB71及びボーンB72がそれぞれ検出され、右足のボーンB61及びボーンB71と左足のボーンB62及びボーンB72は折れ曲がり、かつ、重なっている。
続いて、人物状態検出装置100は、検出された骨格構造に基づいて身長画素数(H1)算出処理を行う(S203)。身長画素数算出処理では、図5に示すように、身長算出部103は、各ボーンの長さを取得し(S211)、取得した各ボーンの長さを合計する(S212)。身長算出部103は、人物の頭部から足部の2次元の画像上のボーンの長さを取得し、身長画素数を求める。すなわち、骨格構造を検出した画像から、図6のボーンのうち、ボーンB1(長さL1)、ボーンB51(長さL21)、ボーンB61(長さL31)及びボーンB71(長さL41)、もしくは、ボーンB1(長さL1)、ボーンB52(長さL22)、ボーンB62(長さL32)及びボーンB72(長さL42)の各長さ(画素数)を取得する。各ボーンの長さは、2次元の画像における各キーポイントの座標から求めることができる。これらを合計した、L1+L21+L31+L41、もしくは、L1+L22+L32+L42に補正定数を乗じた値を身長画素数(H1)として算出する。両方の値を算出できる場合、例えば、長い方の値を身長画素数とする。すなわち、各ボーンは正面から撮像された場合が画像中での長さが最も長くなり、カメラに対して奥行き方向に傾くと短く表示される。従って、長いボーンの方が正面から撮像されている可能性が高く、真実の値に近いと考えられる。このため、長い方の値を選択することが好ましい。
図7の例では、ボーンB1、ボーンB51及びボーンB52、ボーンB61及びボーンB62、ボーンB71及びボーンB72がそれぞれ重ならずに検出されている。これらのボーンの合計である、L1+L21+L31+L41、及び、L1+L22+L32+L42を求め、例えば、検出されたボーンの長さが長い左足側のL1+L22+L32+L42に補正定数を乗じた値を身長画素数とする。
図8の例では、ボーンB1、ボーンB51及びボーンB52、ボーンB61及びボーンB62、ボーンB71及びボーンB72がそれぞれ検出され、右足のボーンB61及びボーンB71と左足のボーンB62及びボーンB72が重なっている。これらのボーンの合計である、L1+L21+L31+L41、及び、L1+L22+L32+L42を求め、例えば、検出されたボーンの長さが長い右足側のL1+L21+L31+L41に補正定数を乗じた値を身長画素数とする。
図9の例では、ボーンB1、ボーンB51及びボーンB52、ボーンB61及びボーンB62、ボーンB71及びボーンB72がそれぞれ検出され、右足のボーンB61及びボーンB71と左足のボーンB62及びボーンB72が重なっている。これらのボーンの合計である、L1+L21+L31+L41、及び、L1+L22+L32+L42を求め、例えば、検出されたボーンの長さが長い左足側のL1+L22+L32+L42に補正定数を乗じた値を身長画素数とする。
一方、図4のように、人物状態検出装置100は、カメラ200から取得した画像に基づき、画像内の人物領域高さ(H2)を算出する(S204)。人物領域算出部104は、画像内の人物領域の高さ方向の上端と下端を検出し、その高さ(画素数)を算出する。人物領域の高さは、画像における人物領域端部(高さ方向の上端と下端)の座標から求めることができる。
図7では、人物が直立した状態で、正面から人物の全体が写っている。この例では、人物領域端部として、人物の頭部上端(頭頂)から足部下端(左足先)までの長さを人物領域高さ(H2)とする。図8では、人物がしゃがみ込んだ状態で、右側方から人物の全体が写っている。この例では、人物領域の端部として、人物の頭部上端(頭頂)から足部下端(右足指の付け根)までの長さを人物領域高さ(H2)とする。図では、人物が寝込んだ状態で、左前方から人物の全体が写っている。この例では、人物領域端部として、人物の頭部上端(頭頂)から足部下端(右膝)までの長さを人物領域高さ(H2)とする。
続いて、人物状態検出装置100は、身長画素数(H1)と人物領域高さ(H2)に基づき、人物の状態を検出する(S205~S208)。状態検出部105は、身長画素数(H1)と人物領域高さ(H2)との比、すなわち、H2/H1を求める(S205)。この例では、H2/H1と閾値(0.5=1/2と0.2=1/5)の比較により、直立状態、しゃがみ込み状態、寝込み状態を検出する。なお、閾値は一例であり、これに限られない。また、その他の閾値により、両手を挙げた状態(例えば、H2/H1=1以上の場合)やイスに座っている状態(例えば、H2/H1=0.5~0.7の場合)を検出してもよい。
状態検出部105は、H2/H1が0.5より大きい場合、人物が直立していると検出する(S206)。例えば、図7において、H1=L1+L22+L32+L42=100画素とし、頭部上端から足部下端までのH2=110画素とすると、H2/H1=110/100=1.1であり、人物が直立していると判断する。
また、状態検出部105は、H2/H1が0.5以下で0.2より大きい場合、人物はしゃがみ込んでいると検出する(S207)。例えば、図8において、H1=L1+L21+L31+L41=110画素、頭部上端から足部下端までのH2=50画素とすると、H2/H1=50/110=0.45であり、人物がしゃがみ込んでいると判断する。
また、状態検出部105は、例えばH2/H1が0.2以下の場合、人物は寝込んでいると検出する(S208)。例えば、図9において、H1=L1+L22+L32+L42=110画素、頭部上端から足部下端までのH2=20画素とすると、H2/H1=20/110=0.18であり、人物が寝込んでいると判断する。
以上のように、本実施の形態では、2次元画像から人物の骨格構造を検出し、検出した骨格構造から求めた身長画素数(2次元画像空間上の直立時の高さ)と画像中の人物領域の高さの比率に基づいて、人物の状態を検出する。これにより、複雑な計算や機械学習を利用することなく、高さの比率のみでよいため、簡易に人物の状態を検出することができる。例えば、骨格推定技術を用いて骨格構造を検出することで、学習データを集めることなく、人物の状態を検知できる。また、人物の骨格構造の情報を用いるため、人物の姿勢にかかわらず、人物の状態を検出することができる。
さらに、本実施の形態では、推定する身長として、検出した骨格構造のボーン(骨)の長さを合計することで身長画素数を求める。頭から足までのボーン(骨)の長さを合計することで身長を求めることができるため、簡易な方法で身長を推定し、人物の状態を検出できる。また、機械学習を用いた骨格推定技術により、少なくとも頭から足までの骨格を検出できればよいため、しゃがみ込んでいる状態など、必ずしも人物の全体が画像に写っていない場合でも精度よく身長を推定し、人物の状態を検出できる。
(実施の形態2)
次に、実施の形態2について説明する。本実施の形態では、実施の形態1の身長画素数算出処理において、各ボーンの長さと全身の長さ(2次元画像空間上の身長)との関係を示す人体モデルを用いて、身長画素数を算出する。身長画素数算出処理以外については、実施の形態1と同様である。
図10は、本実施の形態で用いる、2次元画像空間上の各ボーンの長さと2次元画像空間上の全身の長さとの関係を示す人体モデル(2次元骨格モデル)301である。図10に示すように、平均的な人物の各ボーンの長さと全身の長さとの関係(全身の長さに対する各ボーンの長さの割合)を、人体モデル301の各ボーンに対応付ける。例えば、頭のボーンB1の長さは全身の長さ×0.2(20%)であり、右手のボーンB41の長さは全身の長さ×0.15(15%)であり、右足のボーンB71の長さは全身の長さ×0.25(25%)である。このような人体モデル301の情報を記憶部106に記憶しておくことで、各ボーンの長さから平均的な全身の長さを求めることができる。平均的な人物の人体モデルの他に、年代、性別、国籍等の人物の属性ごとに人体モデルを用意してもよい。これにより、人物の属性に応じて適切に全身の長さ(身長)を求めることができる。
図11は、本実施の形態に係る身長画素数算出処理であり、実施の形態1における図4の身長画素数算出処理(S203)の流れを示している。本実施の形態の身長画素数算出処理では、図11に示すように、身長算出部103は、各ボーンの長さを取得する(S301)。身長算出部103は、実施の形態1のように検出された骨格構造において、全てのボーンの長さ(2次元画像空間上の長さ)を取得する。図12は、しゃがみ込んでいる状態の人物を右斜め後ろから撮像し、骨格構造を検出した例である。この例では、人物の顔や左側面が写っていないことから、頭のボーンと左腕及び左手のボーンが検出できていない。このため、検出されているボーンB21、B22、B31、B41、B51、B52、B61、B62、B71、B72の各長さを取得する。
続いて、身長算出部103は、人体モデルに基づき、各ボーンの長さから身長画素数を算出する(S302)。身長算出部103は、図10のような、各ボーンと全身の長さとの関係を示す人体モデル301を参照し、各ボーンの長さから身長画素数を求める。例えば、右手のボーンB41の長さが全身の長さ×0.15であるため、ボーンB41の長さ/0.15によりボーンB41に基づいた身長画素数を求める。また、右足のボーンB71の長さが全身の長さ×0.25であるため、ボーンB71の長さ/0.25によりボーンB71に基づいた身長画素数を求める。
このとき参照する人体モデルは、例えば、平均的な人物の人体モデルであるが、年代、性別、国籍等の人物の属性に応じて人体モデルを選択してもよい。例えば、撮像した画像に人物の顔が写っている場合、顔に基づいて人物の属性を識別し、識別した属性に対応する人体モデルを参照する。属性ごとの顔を機械学習した情報を参照し、画像の顔の特徴から人物の属性を認識することができる。また、画像から人物の属性が識別できない場合に、平均的な人物の人体モデルを用いてもよい。
また、ボーンの長さから算出した身長画素数をカメラパラメータにより補正してもよい。カメラパラメータは、画像の撮像パラメータであり、例えば、カメラパラメータは、カメラ200の姿勢、位置、撮像角度、焦点距離等である。カメラ200により、予め長さが分かっている物体を撮像し、その画像からカメラパラメータを求めることができる。例えばカメラを高い位置において、人物を見下ろすように撮影した場合、二次元骨格構造において肩幅のボーン等の横の長さはカメラの俯角の影響を受けないが、首‐腰のボーン等の縦の長さは、カメラの俯角が大きくなる程小さくなる。そうすると、肩幅のボーン等の横の長さから算出した身長画素数が実際より大きくなる傾向がある。そこで、カメラパラメータを活用すると、人物がどの程度の角度でカメラに見下ろされているかがわかるため、この俯角の情報を使って正面から撮影したような二次元骨格構造に補正することができる。これによって、より正確に身長画素数を算出できる。
続いて、身長算出部103は、身長画素数の最適値を算出する(S303)。身長算出部103は、ボーンごとに求めた身長画素数から身長画素数の最適値を算出する。例えば、図13に示すような、ボーンごとに求めた身長画素数のヒストグラムを生成し、その中で大きい身長画素数を選択する。つまり、複数のボーンに基づいて求められた複数の身長画素数の中で他よりも長い身長画素数を選択する。例えば、上位30%を有効な値とし、図13ではボーンB71、B61、B51による身長画素数を選択する。選択した身長画素数の平均を最適値として求めてもよいし、最も大きい身長画素数を最適値としてもよい。2次元画像のボーンの長さから身長を求めるため、ボーンを正面からできていない場合、すなわち、ボーンがカメラから見て奥行き方向に傾いて撮像された場合、ボーンの長さが正面から撮像した場合よりも短くなる。そうすると、身長画素数が大きい値は、身長画素数が小さい値よりも、正面から撮像された可能性が高く、より尤もらしい値となることから、より大きい値を最適値とする。
以上のように、本実施の形態では、2次元画像空間上のボーン(骨)と全身の長さとの関係を示す人体モデルを用いて、検出した骨格構造のボーン(骨)に基づき身長画素数を求めることで、人物の身長を推定し、実施の形態1と同様に人物の状態を検出する。これにより、頭から足までの全ての骨格が得られない場合でも、一部のボーン(骨)から身長を推定し、人物の状態を検出することができる。特に、複数のボーン(骨)から求められた身長(身長画素数)のうち、より大きい値を採用することで、精度よく身長を推定し、人物の状態を検出することができる。
(実施の形態3)
次に、実施の形態3について説明する。本実施の形態では、実施の形態1の身長画素数算出処理において、3次元人体モデルを2次元骨格構造にフィッティング(あてはめる)することで、身長画素数を算出する。身長画素数算出処理以外については、実施の形態1と同様である。
図14は、本実施の形態に係る身長画素数算出処理であり、実施の形態1における図4の身長画素数算出処理(S203)の流れを示している。本実施の形態の身長画素数算出処理では、図14に示すように、身長算出部103は、まず、カメラ200の撮像した画像に基づき、カメラパラメータを算出する(S401)。カメラパラメータは、上記実施の形態2と同様に、画像の撮像パラメータである。身長算出部103は、カメラ200が撮像した複数の画像の中から、予め長さが分かっている物体を抽出し、抽出した物体の大きさ(画素数)からカメラパラメータを求める。なお、カメラパラメータを予め求めておき、求めておいたカメラパラメータを必要に応じて取得してもよい。
続いて、身長算出部103は、3次元人体モデルの配置及び高さを調整する(S402)。身長算出部103は、実施の形態1のように検出された2次元骨格構造に対し、身長画素数算出用の3次元人体モデルを用意し、カメラパラメータに基づいて、同じ2次元画像内に配置する。具体的には、カメラパラメータと、2次元骨格構造から、「実世界におけるカメラと人物の相対的な位置関係」を特定する。例えば、仮にカメラの位置を座標(0,0,0)としたときに、人物が立っている(または座っている)位置の座標(x,y,z)を特定する。そして、特定した人物と同じ位置(x,y,z)に3次元人体モデルを配置して撮像した場合の画像を想定することで、2次元骨格構造と3次元人体モデルを重ね合わせる。
図15は、しゃがみ込んでいる人物を左斜め前から撮像し、2次元骨格構造401を検出した例である。2次元骨格構造401は、2次元の座標情報を有する。なお、全てのボーンを検出していることが好ましいが、一部のボーンが検出されていなくてもよい。この2次元骨格構造401に対し、図16のような、3次元人体モデル402を用意する。3次元人体モデル(3次元骨格モデル)402は、3次元の座標情報を有し、2次元骨格構造401と同じ形状の骨格のモデルである。そして、図17のように、検出した2次元骨格構造401に対し、用意した3次元人体モデル402を配置し重ね合わせる。また、重ね合わせるとともに、3次元人体モデル402の高さを2次元骨格構造401に合うように調整する。
なお、このとき用意する3次元人体モデル402は、図17のように、2次元骨格構造401の姿勢に近い状態のモデルでもよいし、直立した状態のモデルでもよい。例えば、機械学習を用いて2次元画像から3次元空間の姿勢を推定する技術を用いて、推定した姿勢の3次元人体モデル402を生成してもよい。2次元画像の関節と3次元空間の関節の情報を学習することで、2次元画像から3次元の姿勢を推定することができる。
続いて、身長算出部103は、3次元人体モデルを2次元骨格構造にフィッティングする(S403)。身長算出部103は、図18のように、3次元人体モデル402を2次元骨格構造401に重ね合わせた状態で、3次元人体モデル402と2次元骨格構造401の姿勢が一致するように、3次元人体モデル402を変形させる。すなわち、3次元人体モデル402の身長、体の向き、関節の角度を調整し、2次元骨格構造401との差異がなくなるように最適化する。例えば、3次元人体モデル402の関節を、人の可動範囲で回転させていき、また、3次元人体モデル402の全体を回転させたり、全体のサイズを調整する。なお、3次元人体モデルと2次元骨格構造のフィッティング(あてはめ)は、2次元空間(2次元座標)上で行う。すなわち、2次元空間に3次元人体モデルを写像し、変形させた3次元人体モデルが2次元空間(画像)でどのように変化するかを考慮して、3次元人体モデルを2次元骨格構造に最適化する。
続いて、身長算出部103は、フィッティングさせた3次元人体モデルの身長画素数を算出する(S404)。身長算出部103は、図19のように、3次元人体モデル402と2次元骨格構造401の差異がなくなり、姿勢が一致すると、その状態の3次元人体モデル402の身長画素数を求める。最適化された3次元人体モデル402を直立させた状態として、カメラパラメータに基づき、2次元空間上の全身の長さを求める。例えば、3次元人体モデル402を直立させた場合の頭から足までのボーンの長さ(画素数)により身長画素数を算出する。実施の形態1と同様に、3次元人体モデル402の頭部から足部までのボーンの長さを合計してもよい。
以上のように、本実施の形態では、カメラパラメータに基づいて3次元人体モデルを2次元骨格構造にフィッティングさせて、その3次元人体モデルに基づいて身長画素数を求めることで、人物の身長を推定し、実施の形態1と同様に人物の状態を検出する。これにより、全てのボーン(骨)が正面に写っていない場合、すなわち、全てのボーン(骨)が斜めに映っているため誤差が大きい場合でも、精度よく身長を推定し、人物の状態を検出できる。なお、実施の形態1~3の方法が適用可能な場合、全ての方法(またはいずれかを組み合わせた方法)を用いて身長を推定してもよい。その場合、人物の平均的な身長に近い方を最適値としてもよい。
なお、上述の実施形態における各構成は、ハードウェア又はソフトウェア、もしくはその両方によって構成され、1つのハードウェア又はソフトウェアから構成してもよいし、複数のハードウェア又はソフトウェアから構成してもよい。人物状態検出装置10及び100の機能(処理)を、図20に示すような、CPU(Central Processing Unit)等のプロセッサ21及び記憶装置であるメモリ22を有するコンピュータ20により実現してもよい。例えば、メモリ22に実施形態における方法を行うためのプログラム(人物状態検出プログラム)を格納し、各機能を、メモリ22に格納されたプログラムをプロセッサ21で実行することにより実現してもよい。
これらのプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
また、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記では人物の状態を検出したが、骨格構造を有する人物以外の動物(哺乳類、爬虫類、鳥類、両生類、魚類等)の状態を検出してもよい。
以上、実施の形態を参照して本開示を説明したが、本開示は上記実施の形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
人物を撮像した2次元画像を取得する取得手段と、
前記取得された2次元画像に基づいて前記人物の2次元骨格構造を検出する骨格構造検出手段と、
前記検出された2次元骨格構造に基づいて2次元画像空間上の前記人物の直立時の高さを推定する推定手段と、
前記推定された直立時の高さと前記2次元画像における前記人物の領域の高さに基づいて前記人物の状態を検出する状態検出手段と、
を備える、人物状態検出装置。
(付記2)
前記状態検出手段は、前記人物の直立時の高さと前記人物の領域の高さの比率に基づいて、前記人物の状態を検出する、
付記1に記載の人物状態検出装置。
(付記3)
前記状態検出手段は、前記比率と所定の閾値との比較結果に基づいて、前記人物が直立している状態であると検出する、
付記2に記載の人物状態検出装置。
(付記4)
前記状態検出手段は、前記比率と所定の閾値との比較結果に基づいて、前記人物がしゃがみ込んでいる状態であると検出する、
付記2に記載の人物状態検出装置。
(付記5)
前記状態検出手段は、前記比率と所定の閾値との比較結果に基づいて、前記人物が寝込んでいる状態であると検出する、
付記2に記載の人物状態検出装置。
(付記6)
前記推定手段は、前記2次元骨格構造に含まれる2次元画像空間上の骨の長さに基づいて、前記人物の直立時の高さを推定する、
付記1乃至5のいずれかに記載の人物状態検出装置。
(付記7)
前記推定手段は、前記2次元骨格構造に含まれる足部から頭部までの前記骨の長さの合計に基づいて、前記人物の直立時の高さを推定する、
付記6に記載の人物状態検出装置。
(付記8)
前記推定手段は、前記骨の長さと2次元画像空間上の前記人物の全身の長さとの関係を示す2次元骨格モデルに基づいて、前記人物の直立時の高さを推定する、
付記6に記載の人物状態検出装置。
(付記9)
前記推定手段は、前記2次元画像の撮像パラメータに基づいて前記2次元骨格構造にフィッティングさせた3次元骨格モデルに基づいて、前記人物の直立時の高さを推定する、
付記1乃至5のいずれかに記載の人物状態検出装置。
(付記10)
人物を撮像した2次元画像を取得し、
前記取得された2次元画像に基づいて前記人物の2次元骨格構造を検出し、
前記検出された2次元骨格構造に基づいて2次元画像空間上の前記人物の直立時の高さを推定し、
前記推定された直立時の高さと前記2次元画像における前記人物の領域の高さに基づいて前記人物の状態を検出する、
人物状態検出方法。
(付記11)
前記状態の検出では、前記人物の直立時の高さと前記人物の領域の高さの比率に基づいて、前記人物の状態を検出する、
付記10に記載の人物状態検出方法。
(付記12)
人物を撮像した2次元画像を取得し、
前記取得された2次元画像に基づいて前記人物の2次元骨格構造を検出し、
前記検出された2次元骨格構造に基づいて2次元画像空間上の前記人物の直立時の高さを推定し、
前記推定された直立時の高さと前記2次元画像における前記人物の領域の高さに基づいて前記人物の状態を検出する、
処理を、コンピュータに実行させるための人物状態検出プログラム。
(付記13)
前記状態の検出では、前記人物の直立時の高さと前記人物の領域の高さの比率に基づいて、前記人物の状態を検出する、
付記12に記載の人物状態検出プログラム。
(付記14)
カメラと人物状態検出装置とを備え、
前記人物状態検出装置は、
前記カメラから人物を撮像した2次元画像を取得する取得手段と、
前記取得された2次元画像に基づいて前記人物の2次元骨格構造を検出する骨格構造検出手段と、
前記検出された2次元骨格構造に基づいて2次元画像空間上の前記人物の直立時の高さを推定する推定手段と、
前記推定された直立時の高さと前記2次元画像における前記人物の領域の高さに基づいて前記人物の状態を検出する状態検出手段と、
を備える、人物状態検出システム。
(付記15)
前記状態検出手段は、前記人物の直立時の高さと前記人物の領域の高さの比率に基づいて、前記人物の状態を検出する、
付記14に記載の人物状態検出システム。
1 人物状態検出システム
10 人物状態検出装置
11 取得部
12 骨格構造検出部
13 推定部
14 状態検出部
20 コンピュータ
21 プロセッサ
22 メモリ
100 人物状態検出装置
101 画像取得部
102 骨格構造検出部
103 身長算出部
104 人物領域算出部
105 状態検出部
106 記憶部
200 カメラ
300、301 人体モデル
401 2次元骨格構造
402 3次元人体モデル

Claims (10)

  1. 人物を撮像した2次元画像を取得する取得手段と、
    前記取得された2次元画像に基づいて前記人物の2次元骨格構造を検出する骨格構造検出手段と、
    前記検出された2次元骨格構造に基づいて2次元画像空間上の前記人物の直立時の高さを推定する推定手段と、
    前記推定された直立時の高さと前記2次元画像における前記人物の領域の高さに基づいて前記人物の状態を検出する状態検出手段と、
    を備える、人物状態検出装置。
  2. 前記状態検出手段は、前記人物の直立時の高さと前記人物の領域の高さの比率に基づいて、前記人物の状態を検出する、
    請求項1に記載の人物状態検出装置。
  3. 前記状態検出手段は、前記比率と所定の閾値との比較結果に基づいて、前記人物がしゃがみ込んでいる状態であると検出する、
    請求項2に記載の人物状態検出装置。
  4. 前記状態検出手段は、前記比率と所定の閾値との比較結果に基づいて、前記人物が寝込んでいる状態であると検出する、
    請求項2に記載の人物状態検出装置。
  5. 前記推定手段は、前記2次元骨格構造に含まれる2次元画像空間上の骨の長さに基づいて、前記人物の直立時の高さを推定する、
    請求項1乃至4のいずれか一項に記載の人物状態検出装置。
  6. 前記推定手段は、前記2次元骨格構造に含まれる足部から頭部までの前記骨の長さの合計に基づいて、前記人物の直立時の高さを推定する、
    請求項5に記載の人物状態検出装置。
  7. 前記推定手段は、前記骨の長さと2次元画像空間上の前記人物の全身の長さとの関係を示す2次元骨格モデルに基づいて、前記人物の直立時の高さを推定する、
    請求項5に記載の人物状態検出装置。
  8. 前記推定手段は、前記2次元画像の撮像パラメータに基づいて前記2次元骨格構造にフィッティングさせた3次元骨格モデルに基づいて、前記人物の直立時の高さを推定する、
    請求項1乃至4のいずれか一項に記載の人物状態検出装置。
  9. 人物を撮像した2次元画像を取得し、
    前記取得された2次元画像に基づいて前記人物の2次元骨格構造を検出し、
    前記検出された2次元骨格構造に基づいて2次元画像空間上の前記人物の直立時の高さを推定し、
    前記推定された直立時の高さと前記2次元画像における前記人物の領域の高さに基づいて前記人物の状態を検出する、
    人物状態検出方法。
  10. 人物を撮像した2次元画像を取得し、
    前記取得された2次元画像に基づいて前記人物の2次元骨格構造を検出し、
    前記検出された2次元骨格構造に基づいて2次元画像空間上の前記人物の直立時の高さを推定し、
    前記推定された直立時の高さと前記2次元画像における前記人物の領域の高さに基づいて前記人物の状態を検出する、
    処理をコンピュータに実行させるためのプログラム。
JP2021528721A 2019-06-26 2019-06-26 人物状態検出装置、人物状態検出方法及びプログラム Active JP7173341B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/025276 WO2020261404A1 (ja) 2019-06-26 2019-06-26 人物状態検出装置、人物状態検出方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Publications (3)

Publication Number Publication Date
JPWO2020261404A1 JPWO2020261404A1 (ja) 2020-12-30
JPWO2020261404A5 JPWO2020261404A5 (ja) 2022-03-01
JP7173341B2 true JP7173341B2 (ja) 2022-11-16

Family

ID=74060835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021528721A Active JP7173341B2 (ja) 2019-06-26 2019-06-26 人物状態検出装置、人物状態検出方法及びプログラム

Country Status (3)

Country Link
US (1) US20220366716A1 (ja)
JP (1) JP7173341B2 (ja)
WO (1) WO2020261404A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209288A1 (ja) * 2021-03-29 2022-10-06 Necソリューションイノベータ株式会社 算出装置
WO2022209287A1 (ja) * 2021-03-29 2022-10-06 Necソリューションイノベータ株式会社 算出装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017503225A (ja) 2013-10-24 2017-01-26 アリ コードAli Kord モーションキャプチャシステム
WO2019064375A1 (ja) 2017-09-27 2019-04-04 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP6529062B1 (ja) 2019-02-27 2019-06-12 株式会社 テクノミライ デジタルアキュレート・セキュリティシステム、方法及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3103308A1 (de) * 1981-01-31 1982-08-26 Dynamit Nobel Ag, 5210 Troisdorf Verfahren zur herstellung von (alpha)-hydroximethylenarylessigestern
BRPI0917864A2 (pt) * 2008-08-15 2015-11-24 Univ Brown aparelho e método para estimativa da forma corporal
TWI438702B (zh) * 2011-05-04 2014-05-21 Univ Nat Chiao Tung 影像環境邊界之動態設定方法及人員活動內容之即時判定方法
US9292923B2 (en) * 2013-03-06 2016-03-22 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor environments
US10482613B2 (en) * 2017-07-06 2019-11-19 Wisconsin Alumni Research Foundation Movement monitoring system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017503225A (ja) 2013-10-24 2017-01-26 アリ コードAli Kord モーションキャプチャシステム
WO2019064375A1 (ja) 2017-09-27 2019-04-04 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP6529062B1 (ja) 2019-02-27 2019-06-12 株式会社 テクノミライ デジタルアキュレート・セキュリティシステム、方法及びプログラム

Also Published As

Publication number Publication date
WO2020261404A1 (ja) 2020-12-30
US20220366716A1 (en) 2022-11-17
JPWO2020261404A1 (ja) 2020-12-30

Similar Documents

Publication Publication Date Title
US9031286B2 (en) Object detection device and object detection method
US20220383653A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program
JP6525635B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11298050B2 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
JP2012123667A (ja) 姿勢推定装置および姿勢推定方法
JP7173341B2 (ja) 人物状態検出装置、人物状態検出方法及びプログラム
JP7224832B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7197011B2 (ja) 身長推定装置、身長推定方法及びプログラム
JP7419999B2 (ja) 情報処理装置および情報処理方法
US11182636B2 (en) Method and computing device for adjusting region of interest
JP2011209794A (ja) 対象物認識システム及び該システムを利用する監視システム、見守りシステム
JP7396364B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN117238031A (zh) 一种虚拟人的动作捕捉方法与系统
CN113272864A (zh) 信息处理装置、信息处理方法和程序
JP7420146B2 (ja) カメラ校正装置、カメラ校正方法及びカメラ校正プログラム
US11263780B2 (en) Apparatus, method, and program with verification of detected position information using additional physical characteristic points
JP7283571B2 (ja) 人物状態検出装置、人物状態検出方法及びプログラム
Hung et al. Detecting fall incidents of the elderly based on human-ground contact areas
WO2020090188A1 (en) Methods and apparatus to cluster and collect head-toe lines for automatic camera calibration
JP7302741B2 (ja) 画像選択装置、画像選択方法、およびプログラム
WO2022249278A1 (ja) 画像処理装置、画像処理方法、およびプログラム
CN111435535A (zh) 一种关节点信息的获取方法及装置
WO2022249331A1 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2023152841A1 (ja) 画像処理システム、画像処理方法及び非一時的なコンピュータ可読媒体
Niżałowska et al. Indoor head detection and tracking on RGBD images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R151 Written notification of patent or utility model registration

Ref document number: 7173341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151