JP7120690B2 - Joint position estimation device, joint position estimation method and program - Google Patents

Joint position estimation device, joint position estimation method and program Download PDF

Info

Publication number
JP7120690B2
JP7120690B2 JP2021505611A JP2021505611A JP7120690B2 JP 7120690 B2 JP7120690 B2 JP 7120690B2 JP 2021505611 A JP2021505611 A JP 2021505611A JP 2021505611 A JP2021505611 A JP 2021505611A JP 7120690 B2 JP7120690 B2 JP 7120690B2
Authority
JP
Japan
Prior art keywords
image data
unit
human body
area
joint position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021505611A
Other languages
Japanese (ja)
Other versions
JPWO2020184066A1 (en
Inventor
夏美 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Publication of JPWO2020184066A1 publication Critical patent/JPWO2020184066A1/en
Application granted granted Critical
Publication of JP7120690B2 publication Critical patent/JP7120690B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像データから関節位置を推定する関節位置推定装置および関節位置推定方法に関し、さらには、これらを実現するためのプログラムに関する。
The present invention relates to a joint position estimating device and a joint position estimating method for estimating joint positions from image data, and further to a program for realizing these.

従来、人物を撮像装置で撮像し、その人物の姿勢、人物が行う動作(ジェスチャなど)を推定する様々な技術が提案されている。例えば、非特許文献1には、人物の関節位置を推定して、人物の姿勢を推定する技術が開示されている。非特許文献1では、深度画像から人物の人体部位を推定し、その推定結果を用いて関節位置推定器により関節位置を推定している。 2. Description of the Related Art Conventionally, various techniques have been proposed for capturing an image of a person with an imaging device and estimating the posture of the person and the motions (gestures, etc.) of the person. For example, Non-Patent Document 1 discloses a technique for estimating the joint positions of a person and estimating the posture of the person. In Non-Patent Document 1, human body parts are estimated from a depth image, and joint positions are estimated by a joint position estimator using the estimation results.

高橋龍平、“特別研究報告書 CNNによる深度画像を用いた視点不変な人物姿勢推定”、平成30年2月8日、インターネット<URL:http://www.mm.media.kyoto-u.ac.jp/wp-content/uploads/2018/02/2017-b-takahashi.pdf>Ryuhei Takahashi, “Special Research Report: Human Posture Estimation with Invariant Viewpoint Using Depth Image by CNN”, February 8, 2018, Internet <URL: http://www.mm.media.kyoto-u.ac .jp/wp-content/uploads/2018/02/2017-b-takahashi.pdf>

しかしながら、非特許文献1では、人体部位の推定を精度よく行わないと、関節位置の推定精度が低下するという問題点があった。 However, in Non-Patent Document 1, there is a problem that the accuracy of estimating joint positions decreases unless human body parts are estimated accurately.

本発明の目的の一例は、関節位置を精度よく推定できる、関節位置推定装置、関節位置推定方法およびプログラムを提供することにある。
An example of an object of the present invention is to provide a joint position estimating device, a joint position estimating method, and a program capable of accurately estimating joint positions.

上記目的を達成するため、本発明の一側面における関節位置推定装置は、
画像データを取得する画像データ取得部と、
前記画像データ取得部が取得した画像データから人体部位を推定する推定部と、
前記推定部が複数の人体部位を推定した場合、前記推定部が推定した人体部位の領域、および、前記人体部位の領域以外の領域それぞれに対して、一または複数の画素にマーキングするマーキング部と、
前記マーキング部によるマーキング後の画像データに対して、分水嶺アルゴリズムを適用して、前記画像データ内の領域を複数に分割する分割部と、
前記分割部が分割した領域のうち、関節に隣接する人体部位に対応する2つの領域から、関節位置を計算する計算部と、
を備える。
In order to achieve the above object, a joint position estimation device according to one aspect of the present invention includes:
an image data acquisition unit that acquires image data;
an estimation unit that estimates a human body part from the image data acquired by the image data acquisition unit;
a marking unit that, when the estimating unit estimates a plurality of human body parts, marks one or more pixels in each of the human body part area estimated by the estimating unit and the area other than the human body part area; ,
a dividing unit that applies a watershed algorithm to the image data after marking by the marking unit and divides the area in the image data into a plurality;
a calculation unit that calculates a joint position from two regions corresponding to human body parts adjacent to the joint, among the regions divided by the dividing unit;
Prepare.

また、上記目的を達成するため、本発明の一側面における関節位置推定方法は、
画像データを取得するステップと、
前記画像データに対して、人体部位を推定するステップと、
前記画像データに対して複数の人体部位を推定した場合、推定した人体部位の領域、および、前記人体部位の領域以外の領域それぞれに対して、一または複数の画素にマーキングするステップと、
マーキング後の画像データに対して、分水嶺アルゴリズムを適用して、前記画像データ内の領域を複数に分割するステップと、
分割した領域のうち、関節に隣接する人体部位に対応する2つの領域から、関節位置を計算するステップと、
を備える。
Further, in order to achieve the above object, a joint position estimation method according to one aspect of the present invention includes:
obtaining image data;
estimating a human body part for the image data;
when a plurality of human body parts are estimated for the image data, marking one or more pixels in each of the estimated human body part area and the area other than the human body part area;
applying a watershed algorithm to the image data after marking to divide a region in the image data into a plurality;
a step of calculating a joint position from two regions corresponding to human body parts adjacent to the joint among the divided regions;
Prepare.

更に、上記目的を達成するため、本発明の一側面におけるプログラムは、画像データを取得するコンピュータに、
前記画像データに対して、人体部位を推定するステップと、
複数の人体部位を推定した場合、推定した人体部位の領域、および、前記人体部位の領域以外の領域それぞれに対して、一または複数の画素にマーキングするステップと、
マーキング後の画像データに対して、分水嶺アルゴリズムを適用して、前記画像データ内の領域を複数に分割するステップと、
分割した領域のうち、関節に隣接する人体部位に対応する2つの領域から、関節位置を計算するステップと、
を実行させる命令を含む。
Furthermore, in order to achieve the above object, a program according to one aspect of the present invention provides a computer that acquires image data,
estimating a human body part for the image data;
when a plurality of human body parts are estimated, marking one or more pixels in each of the estimated human body part area and the area other than the human body part area;
applying a watershed algorithm to the image data after marking to divide a region in the image data into a plurality;
a step of calculating a joint position from two regions corresponding to human body parts adjacent to the joint among the divided regions;
contains instructions to execute

以上のように本発明によれば、関節位置を精度よく推定できる。 As described above, according to the present invention, joint positions can be accurately estimated.

図1は、実施形態1における関節位置推定装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a joint position estimation device according to Embodiment 1. FIG. 図2は、関節位置推定装置の構成を具体的に示すブロック図である。FIG. 2 is a block diagram specifically showing the configuration of the joint position estimation device. 図3は、画像データ一例を示す図である。FIG. 3 is a diagram showing an example of image data. 図4は、特徴ベクトル計算部が求めた特徴量を示す図である。FIG. 4 is a diagram showing feature amounts obtained by the feature vector calculator. 図5は、図4に示す推定部による推定結果に対して設定した領域を示す図である。5 is a diagram showing regions set for the estimation result by the estimation unit shown in FIG. 4. FIG. 図6は、マーキング部によるマーキング結果を示す図である。FIG. 6 is a diagram showing a marking result by the marking unit. 図7は、分割部による領域分割結果を示す図である。FIG. 7 is a diagram showing a result of segmentation by the segmentation unit. 図8は、計算部による計算方法を説明するための図である。FIG. 8 is a diagram for explaining a calculation method by a calculation unit; 図9は、関節位置推定装置による動作を示すフロー図である。FIG. 9 is a flow chart showing operations by the joint position estimation device. 図10は、実施形態における関節位置推定装置を実現するコンピュータの一例を示すブロック図である。FIG. 10 is a block diagram showing an example of a computer that implements the joint position estimation device according to the embodiment.

以下、本発明における一実施形態の関節位置推定装置および関節位置推定方法について、図1~図10を参照しながら説明する。 A joint position estimation device and a joint position estimation method according to an embodiment of the present invention will be described below with reference to FIGS. 1 to 10. FIG.

[装置構成]
図1は、実施形態1における関節位置推定装置1の概略構成を示すブロック図である。
[Device configuration]
FIG. 1 is a block diagram showing a schematic configuration of a joint position estimation device 1 according to Embodiment 1. As shown in FIG.

関節位置推定装置1は、画像データから、人体の部位(例えば手のひらと前腕など)を推定して、推定した人体部位から関節の位置を計算する装置である。この関節位置推定装置1は、画像データ取得部2、推定部3、マーキング部4、分割部5、および計算部6を備えている。 The joint position estimation device 1 is a device that estimates parts of a human body (for example, palms and forearms) from image data and calculates joint positions from the estimated parts of the human body. This joint position estimation device 1 includes an image data acquisition unit 2 , an estimation unit 3 , a marking unit 4 , a division unit 5 and a calculation unit 6 .

画像データ取得部2は画像データを取得する。 The image data acquisition unit 2 acquires image data.

推定部3は、画像データ取得部2が取得した画像データから人体部位を推定する。 The estimation unit 3 estimates a human body part from the image data acquired by the image data acquisition unit 2 .

マーキング部4は、推定部3が複数の人体部位を推定した場合、推定部3が推定した人体部位の領域、および、その人体部位の領域以外の領域それぞれに対して、一または複数の画素にマーキングする。 When the estimating unit 3 estimates a plurality of human body parts, the marking unit 4 adds one or more pixels to each of the human body part area estimated by the estimating unit 3 and the area other than the human body part area. to mark.

分割部5は、マーキング部4によるマーキング後の画像データに対して、分水嶺アルゴリズムを適用して、画像データ内の領域を複数に分割する。 The dividing unit 5 applies a watershed algorithm to the image data after marking by the marking unit 4 to divide the image data into a plurality of regions.

計算部6は、分割部5が分割した領域のうち、関節に隣接する人体部位に対応する2つの領域から、関節位置を計算する。 The calculation unit 6 calculates the joint position from two regions corresponding to human body parts adjacent to the joint among the regions divided by the division unit 5 .

このように、本実施形態においては、人体部位の推定した結果に対してマーキングをし、分水嶺アルゴリズムを適用している。このため、マーキングを精度よく行うことができ、その結果を入力として、分水嶺アルゴリズムを適用することで、画像データの領域分割を精度よく行える。その結果、関節に隣接する人体部位の領域も精度よく推定できるため、信頼度の高い、関節(手首)の位置の計算結果が得られる。 As described above, in the present embodiment, marking is applied to the results of estimating human body parts, and the watershed algorithm is applied. Therefore, marking can be performed with high accuracy, and by using the result as an input and applying the watershed algorithm, the image data can be segmented with high accuracy. As a result, the region of the human body part adjacent to the joint can also be estimated with high accuracy, so that a highly reliable calculation result of the joint (wrist) position can be obtained.

続いて、図2を参照して、本実施形態における関節位置推定装置1の構成をより具体的に説明する。図2は、関節位置推定装置1の構成を具体的に示すブロック図である。 Next, with reference to FIG. 2, the configuration of the joint position estimation device 1 according to this embodiment will be described more specifically. FIG. 2 is a block diagram specifically showing the configuration of the joint position estimation device 1. As shown in FIG.

関節位置推定装置1は、上記した画像データ取得部2、推定部3、マーキング部4、分割部5、および計算部6に加え、領域設定部7を備えている。 The joint position estimating device 1 includes an area setting unit 7 in addition to the image data acquiring unit 2, the estimating unit 3, the marking unit 4, the dividing unit 5, and the calculating unit 6 described above.

画像データ取得部2は画像データ50を取得する。画像データ取得部2は、有線または無線LAN(Local Area Network)等のネットワークを介して、画像データ50を取得してもよいし、近距離無線通信などにより画像データ50を取得してもよい。また、関節位置推定装置1には撮像装置が直接接続され、または、関節位置推定装置1は撮像装置を備え、画像データ取得部2は、その撮像装置から画像データ50を取得してもよい。 The image data acquisition unit 2 acquires image data 50 . The image data acquisition unit 2 may acquire the image data 50 via a network such as a wired or wireless LAN (Local Area Network), or may acquire the image data 50 by short-range wireless communication or the like. An imaging device may be directly connected to the joint position estimating device 1, or the joint position estimating device 1 may include an imaging device, and the image data acquisition unit 2 may acquire the image data 50 from the imaging device.

図3は、画像データ50の一例を示す図である。画像データ50は、人体の前腕から指にかけて撮像された画像である。本実施形態における画像データ50は、画素毎の深度が付加された画像データ(以下、TOF画像と言う)である。TOF画像は、撮像装置から撮像対象までの距離を示す情報(深度情報)が各画素に対応づけられた画像である。なお、画像データ50は、TOF画像に限定されるものではなく、2次元画像であってもよい。 FIG. 3 is a diagram showing an example of the image data 50. As shown in FIG. The image data 50 is an image captured from the forearm to the finger of the human body. The image data 50 in this embodiment is image data to which the depth of each pixel is added (hereinafter referred to as TOF image). A TOF image is an image in which information (depth information) indicating the distance from an imaging device to an imaging target is associated with each pixel. Note that the image data 50 is not limited to a TOF image, and may be a two-dimensional image.

また、画像データ50は、人物の全体像が撮像された画像であってもよい。この場合、例えば画像データ取得部2が、人物の全体像が撮像された画像から関節を含む部位(例えば、手全体)を推定して、その部位の画像データを抽出するようにしてもよい。そして、以降の処理は、抽出した画像データに対して行われるようにしてもよい。 Also, the image data 50 may be an image in which a full image of a person is captured. In this case, for example, the image data acquisition unit 2 may estimate a part including joints (for example, the entire hand) from an image of the whole person and extract the image data of that part. Then, subsequent processing may be performed on the extracted image data.

推定部3は、画像データ50に写っている人体部位の種別(前腕、指など)を推定する。推定部3は、特徴ベクトル計算部31と、推定実行部32とを有している。 The estimating unit 3 estimates the type of the human body part (forearm, finger, etc.) shown in the image data 50 . The estimation unit 3 has a feature vector calculation unit 31 and an estimation execution unit 32 .

特徴ベクトル計算部31は、画像データ50の画素ごとに特徴量(特徴ベクトル)を求める。図4は、特徴ベクトル計算部31が求めた特徴量を示す図である。図4に示すように、特徴ベクトル計算部31は、各特徴量51、52、53、54を求める。推定実行部32は、ニューラルネットワークなどによる機械学習を行い、その学習モデル60を用いて、特徴ベクトル計算部31が求めた特徴量から、画像データ50に写っている物体の種別を推定する。図4の場合、推定実行部32は、特徴量51は前腕の特徴量であり、特徴量52は手のひらの特徴量であり、特徴量53は指の特徴量であると推定する。また、推定実行部32は、特徴量54は、人体部位以外であり、背景に写った物体の特徴量であると推定する。なお、図4では、特徴ベクトル計算部31が求めた特徴量の理解のために、図3で示す人体部位を破線で示している。 The feature vector calculator 31 obtains a feature quantity (feature vector) for each pixel of the image data 50 . FIG. 4 is a diagram showing feature amounts obtained by the feature vector calculator 31. As shown in FIG. As shown in FIG. 4, the feature vector calculation unit 31 obtains feature amounts 51, 52, 53, and 54, respectively. The estimation execution unit 32 performs machine learning using a neural network or the like, and uses the learning model 60 to estimate the type of the object appearing in the image data 50 from the feature amount obtained by the feature vector calculation unit 31 . In the case of FIG. 4, the estimation execution unit 32 estimates that the feature amount 51 is the feature amount of the forearm, the feature amount 52 is the feature amount of the palm, and the feature amount 53 is the feature amount of the finger. In addition, the estimation execution unit 32 estimates that the feature amount 54 is a feature amount of an object other than a human body part and captured in the background. In FIG. 4, the human body parts shown in FIG. 3 are indicated by dashed lines for understanding of the feature amount obtained by the feature vector calculator 31. As shown in FIG.

なお、画像データ50がTOF画像であることにより、推定部3での人体部位の推定精度は高くなる。例えば、画像データ50が関節を含む画像である場合、関節が曲げられた姿勢であっても、特徴ベクトル計算部31は、画素ごとの深度情報を利用することで、特徴量を精度よく求めることができる。その結果、推定実行部32による人体部位の推定精度は高くなる。 Since the image data 50 is a TOF image, the estimation accuracy of the human body part in the estimating section 3 is improved. For example, when the image data 50 is an image including joints, the feature vector calculation unit 31 uses the depth information for each pixel to obtain the feature quantity with high accuracy even if the joints are bent. can be done. As a result, the estimation accuracy of the human body part by the estimation execution unit 32 is improved.

領域設定部7は、推定部3が推定した人体部位のうち、関節に隣接する人体部位である前腕および手のひらを包含する領域を設定する。図5は、図4に示す推定部3による推定結果に対して設定した領域55を示す図である。図5では、領域55は、指の特徴量53を包含しているが、少なくとも、関節(手首)に隣接する前腕の特徴量51、および手のひらの特徴量52を包含していればよい。領域55を設定することで、以降の処理において、不要な領域に対して処理が行われないようにできる。 The area setting unit 7 sets an area including the forearm and the palm, which are human body parts adjacent to joints, among the human body parts estimated by the estimating part 3 . FIG. 5 is a diagram showing a region 55 set for the estimation result by the estimation unit 3 shown in FIG. In FIG. 5, the area 55 includes the feature amount 53 of the finger, but it should include at least the feature amount 51 of the forearm adjacent to the joint (wrist) and the feature amount 52 of the palm. By setting the area 55, it is possible to prevent unnecessary areas from being processed in subsequent processes.

マーキング部4は、領域設定部7が設定した領域55内の一または複数の画素をマーキングする。図6は、マーキング部4によるマーキング結果を示す図である。マーキング部4は、領域55内において、関節(手首)に隣接する人体部位(前腕、手のひら)と、人体部位以外の領域(背景)に対して初期マーキングする。図6に示すマーキング56は、前腕の特徴量51に対して設定した初期マーキングである。マーキング57は、手のひらの特徴量52に対して設定した初期マーキングである。マーキング58は、背景の領域に対して設定した初期マーキングを示す。 The marking unit 4 marks one or more pixels within the area 55 set by the area setting unit 7 . 6A and 6B are diagrams showing marking results by the marking unit 4. FIG. The marking unit 4 initially marks the human body parts (forearm, palm) adjacent to the joint (wrist) and the area (background) other than the human body parts in the area 55 . Markings 56 shown in FIG. 6 are initial markings set for the feature amount 51 of the forearm. A marking 57 is an initial marking set for the palm feature amount 52 . Markings 58 indicate the initial markings set for the background area.

マーキング部4は、前腕の特徴量51、および、手のひらの特徴量52に対して初期マーキングする場合、他の領域との境界に近いとノイズが影響するため、ノイズの影響を防ぐために、各特徴量の領域の中心部をマーキングする。また、マーキング部4は、背景の領域に対して初期マーキングする場合、マーキング56、57より一定距離範囲外の位置にマーキングする。なお、マーキング部4は、一画素のみをマーキングしてもよいが、後述する分水嶺アルゴリズムにおいて、TOF画像の深度値の変化が滑らかではない場合、マーキングした領域が広がらないことがある。したがって、マーキング部4は、複数の画素をマーキングすることが好ましい。 When initial marking is performed on the feature amount 51 of the forearm and the feature amount 52 of the palm, the marking unit 4 may be affected by noise if it is close to the boundary with other areas. Mark the center of the volume area. When the marking unit 4 performs initial marking on the background area, the marking unit 4 marks a position outside the predetermined distance range from the markings 56 and 57 . Note that the marking unit 4 may mark only one pixel, but in the watershed algorithm described later, if the change in the depth value of the TOF image is not smooth, the marked area may not expand. Therefore, it is preferable that the marking section 4 marks a plurality of pixels.

分割部5は、マーキング部4が設定したマーキング56、57、58を入力とする分水嶺アルゴリズムを適用して、領域設定部7が設定した領域55を複数の領域に分割する。分水嶺アルゴリズムでは、マーキング56、57、58を、画素値(深度値)の極小値(または極大値)として、領域を広げつつ画素値の極大値(または極小値)となる点を求めていく。その極大値となる点を境界として、画素値(深度値)が近い領域を一つの領域とする。図7は、分割部5による領域分割結果を示す図である。図7では、領域55は、前腕領域59Aと、手のひら領域59Bと、背景領域59Cとに分割されている。 The dividing unit 5 applies a watershed algorithm to which the markings 56, 57, and 58 set by the marking unit 4 are input, and divides the region 55 set by the region setting unit 7 into a plurality of regions. In the watershed algorithm, the markings 56, 57, and 58 are the minimum values (or maximum values) of the pixel values (depth values), and the point that becomes the maximum value (or minimum value) of the pixel values is sought while expanding the area. A region having a close pixel value (depth value) is defined as one region with the point of the maximum value as a boundary. 7A and 7B are diagrams showing the results of region division by the division unit 5. FIG. In FIG. 7, region 55 is divided into forearm region 59A, palm region 59B, and background region 59C.

なお、分水嶺アルゴリズムでは、必ずしもマーキング数と同じ数の領域に分割されるわけではなく、図7において、4つ以上の領域に分割される場合もある。また、分割部5は、深度値を用いてマーキングした領域を広げているが、画像データ50の各画素の情報であれば、輝度値などを用いてもよい。 In addition, in the watershed algorithm, the area is not always divided into the same number of areas as the number of markings, and in FIG. 7, the area may be divided into four or more areas. Moreover, although the dividing unit 5 widens the marked area using the depth value, the brightness value or the like may be used as long as it is information of each pixel of the image data 50 .

計算部6は、分割部5が分割した領域のうち、人体部位に対応する2つの領域59A、59Bから、関節位置を計算する。図8は、計算部6による計算方法を説明するための図である。計算部6は、領域59A、59Bそれぞれに対してラベリング処理を行い、各領域の輪郭を取得する。図8では、輪郭は概略的に示している。図8に示すように、領域59Aと、領域59Bとが離れている場合、計算部6は、2つの領域59A、59Bにおいて、互いに最も近くなる座標位置59A1、59B1を求める。計算部6は、座標位置59A1、59B1を繋ぐ最短直線Lを包含する領域59Dを計算して、関節位置とする。なお、2つの領域59A、59Bの輪郭が重なる場合、計算部6は、重なり部分を関節位置としてもよい。 The calculation unit 6 calculates the joint positions from the two regions 59A and 59B corresponding to the human body parts among the regions divided by the division unit 5 . FIG. 8 is a diagram for explaining a calculation method by the calculation unit 6. FIG. The calculation unit 6 performs labeling processing on each of the regions 59A and 59B, and acquires the contour of each region. In FIG. 8 the contour is shown schematically. As shown in FIG. 8, when the area 59A and the area 59B are separated, the calculation unit 6 obtains the coordinate positions 59A1 and 59B1 that are closest to each other in the two areas 59A and 59B. The calculator 6 calculates a region 59D that includes the shortest straight line L connecting the coordinate positions 59A1 and 59B1, and sets it as the joint position. In addition, when the contours of the two regions 59A and 59B overlap, the calculation unit 6 may set the overlapping portion as the joint position.

[動作説明]
次に、本実施形態における関節位置判定装置の動作について図9を用いて説明する。図9は、関節位置推定装置1による動作を示すフロー図である。以下の説明においては、適宜図1~図8を参酌する。また、本実施形態では、関節位置推定装置を動作させることによって、関節位置推定法が実施される。よって、本実施形態における関節位置推定方法の説明は、以下の関節位置推定装置の動作説明に代える。
[Description of operation]
Next, the operation of the joint position determination device according to this embodiment will be described with reference to FIG. FIG. 9 is a flow chart showing the operation of the joint position estimation device 1. As shown in FIG. In the following description, FIGS. 1 to 8 will be referred to as appropriate. Further, in this embodiment, the joint position estimation method is implemented by operating the joint position estimation device. Therefore, the description of the joint position estimation method in this embodiment is replaced with the description of the operation of the joint position estimation device below.

まず、前提として、撮像装置で関節を含む人体部位が撮像され、その画像データが関節位置推定装置1に入力されるものとする。 First, as a premise, it is assumed that an image of a human body part including joints is imaged by an imaging device, and that image data is input to the joint position estimation device 1 .

上述の前提において、画像データ取得部2は入力された画像データを取得する(S1)。次に、推定部3の特徴ベクトル計算部31は、画像データ50の画素ごとに特徴量51~54(図4参照)を求める(S2)。そして、推定部3の推定実行部32は、特徴ベクトル計算部31が求めた特徴量から、その特徴量をもつ物体の種別を認識し、画像データ50内における人体部位を推定する(S3)。 On the premise described above, the image data acquisition unit 2 acquires input image data (S1). Next, the feature vector calculator 31 of the estimator 3 obtains feature quantities 51 to 54 (see FIG. 4) for each pixel of the image data 50 (S2). Then, the estimation execution unit 32 of the estimation unit 3 recognizes the type of the object having the feature amount from the feature amount obtained by the feature vector calculation unit 31, and estimates the human body part in the image data 50 (S3).

続いて、領域設定部7は、位置推定対象の関節に隣接する、推定部3が推定した人体部位を包含する領域55(図5参照)を設定する(S4)。マーキング部4は、領域設定部7が設定した領域55内において、初期マーキングする(S5)。S5では、マーキング部4は、位置推定対象の関節(手首)に隣接する前腕のマーキング56(図6参照)、および、手のひらのマーキング57と、人体部位以外の領域(背景)のマーキング58とを設定する。 Subsequently, the region setting unit 7 sets a region 55 (see FIG. 5) adjacent to the joint whose position is to be estimated and which includes the human body part estimated by the estimation unit 3 (S4). The marking unit 4 performs initial marking within the area 55 set by the area setting unit 7 (S5). In S5, the marking unit 4 creates a forearm marking 56 (see FIG. 6) adjacent to the joint (wrist) whose position is to be estimated, a palm marking 57, and a region (background) marking 58 other than the human body part. set.

分割部5は、マーキング56、57、58を入力とする分水嶺アルゴリズムを適用して、S4で設定した領域55を複数の領域59A、59B、59C(図7参照)に分割する(S6)。そして、計算部6は、分割部5が分割した領域のうち、人体部位に対応する2つの領域59A、59Bから、関節位置を計算する(S7)。 The division unit 5 applies the watershed algorithm with the markings 56, 57, and 58 as inputs to divide the area 55 set in S4 into a plurality of areas 59A, 59B, and 59C (see FIG. 7) (S6). Then, the calculation unit 6 calculates the joint positions from the two regions 59A and 59B corresponding to the human body parts among the regions divided by the division unit 5 (S7).

[本実施形態による効果]
以上のように本実施形態によれば、画像データ50から人体部位を推定し、推定結果に対して初期マーキングしている。このため、画像データ50において、マーキングする対象領域、例えば前腕または手のひらの形状が、複雑な形状であっても、初期マーキングを精度よく行える。その初期マーキングを入力として、分水嶺アルゴリズムを利用することで、関節に隣接する部位である、前腕および手のひらの2つの領域の推定精度は高くなる。前腕または手のひらの一方の領域が明確に判断できないと、2つの領域の間にある関節(手首)の位置を精度よく計算できないが、2つの領域を精度よく推定することで、信頼度の高い関節(手首)の位置の計算結果を得ることができる。
[Effects of this embodiment]
As described above, according to the present embodiment, the human body part is estimated from the image data 50, and initial marking is performed on the estimation result. Therefore, in the image data 50, even if the target area to be marked, for example, the shape of the forearm or palm has a complicated shape, the initial marking can be performed with high accuracy. Using the initial markings as input and using the watershed algorithm, the two regions adjacent to the joints, the forearm and the palm, are more accurately estimated. If one region of the forearm or palm cannot be determined clearly, the position of the joint (wrist) between the two regions cannot be calculated with high accuracy. (Wrist) position can be calculated.

また、関節、例えば手首の位置が決まると、手首の先にある指の位置を推定しやすくなり、また、手の動作、手の姿勢も推定しやすくなる。その結果、手を動かしたジェスチャーを認識する装置などに適用することができる。 Further, once the positions of the joints, for example, the wrists are determined, it becomes easier to estimate the positions of the fingers at the tip of the wrist, and it becomes easier to estimate the motions and postures of the hands. As a result, it can be applied to a device that recognizes a gesture of moving a hand.

[プログラム]
本発明の実施形態におけるプログラムは、コンピュータに、図9に示すステップS1~S7を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施形態における関節位置推定装置と関節位置推定方法とを実現することができる。この場合、コンピュータのプロセッサは、画像データ取得部2、推定部3、マーキング部4、分割部5および計算部6として機能し、処理を行なう。
[program]
The program in the embodiment of the present invention may be any program that causes a computer to execute steps S1 to S7 shown in FIG. By installing this program in a computer and executing it, the joint position estimation device and the joint position estimation method in this embodiment can be realized. In this case, the processor of the computer functions as an image data acquisition section 2, an estimation section 3, a marking section 4, a division section 5 and a calculation section 6, and performs processing.

また、本実施形態では、画像データ取得部2、推定部3、マーキング部4、分割部5および計算部6は、コンピュータに備えられたハードディスク等の記憶装置に、これらを構成するデータファイルを格納することによって、またはこのデータファイルが格納された記録媒体をコンピュータと接続された読取装置に搭載することによって実現されている。 Further, in this embodiment, the image data acquisition unit 2, the estimation unit 3, the marking unit 4, the division unit 5, and the calculation unit 6 store data files constituting them in a storage device such as a hard disk provided in the computer. or by loading a recording medium storing this data file into a reading device connected to a computer.

また、本実施形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、画像データ取得部2、推定部3、マーキング部4、分割部5および計算部6のいずれかとして機能しても良い。 Also, the program in this embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as one of the image data acquiring unit 2, the estimating unit 3, the marking unit 4, the dividing unit 5, and the calculating unit 6, respectively.

[物理構成]
ここで、本実施形態におけるプログラムを実行することによって、関節位置推定装置1を実現するコンピュータについて図10を用いて説明する。図10は、本実施形態における関節位置推定装置1を実現するコンピュータの一例を示すブロック図である。
[Physical configuration]
Here, a computer that implements the joint position estimation device 1 by executing the program in this embodiment will be described with reference to FIG. 10 . FIG. 10 is a block diagram showing an example of a computer that implements the joint position estimation device 1 according to this embodiment.

図10に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、またはCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。 As shown in FIG. 10 , computer 110 includes CPU 111 , main memory 112 , storage device 113 , input interface 114 , display controller 115 , data reader/writer 116 and communication interface 117 . These units are connected to each other via a bus 121 so as to be able to communicate with each other. Note that the computer 110 may include a GPU (Graphics Processing Unit) or an FPGA (Field-Programmable Gate Array) in addition to the CPU 111 or instead of the CPU 111 .

CPU111は、記憶装置113に格納された、本実施形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。 The CPU 111 expands the programs (codes) in the present embodiment stored in the storage device 113 into the main memory 112 and executes them in a predetermined order to perform various calculations. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). Also, the program in this embodiment is provided in a state stored in a computer-readable recording medium 120 . Note that the program in this embodiment may be distributed on the Internet connected via the communication interface 117 .

また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。 Further, as a specific example of the storage device 113, in addition to a hard disk drive, a semiconductor storage device such as a flash memory can be cited. Input interface 114 mediates data transmission between CPU 111 and input devices 118 such as a keyboard and mouse. The display controller 115 is connected to the display device 119 and controls display on the display device 119 .

データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。 Data reader/writer 116 mediates data transmission between CPU 111 and recording medium 120 , reads programs from recording medium 120 , and writes processing results in computer 110 to recording medium 120 . Communication interface 117 mediates data transmission between CPU 111 and other computers.

また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、またはCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。 Specific examples of the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital); magnetic recording media such as flexible disks; An optical recording medium such as a ROM (Compact Disk Read Only Memory) can be used.

なお、本実施形態における関節位置推定装置1は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、関節位置推定装置1は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 Note that the joint position estimation device 1 according to the present embodiment can also be realized by using hardware corresponding to each part instead of a computer in which a program is installed. Furthermore, the joint position estimation device 1 may be partially realized by a program and the rest by hardware.

上述した実施形態の一部又は全部は、以下に記載する(付記1)~(付記15)によって表現することができるが、以下の記載に限定されるものではない。 Some or all of the above-described embodiments can be expressed by (Appendix 1) to (Appendix 15) described below, but are not limited to the following description.

(付記1)
画像データを取得する画像データ取得部と、
前記画像データ取得部が取得した画像データから人体部位を推定する推定部と、
前記推定部が複数の人体部位を推定した場合、前記推定部が推定した人体部位の領域、および、前記人体部位の領域以外の領域それぞれに対して、一または複数の画素にマーキングするマーキング部と、
前記マーキング部によるマーキング後の画像データに対して、分水嶺アルゴリズムを適用して、前記画像データ内の領域を複数に分割する分割部と、
前記分割部が分割した領域のうち、関節に隣接する人体部位に対応する2つの領域から、関節位置を計算する計算部と、
を備える、関節位置推定装置。
(Appendix 1)
an image data acquisition unit that acquires image data;
an estimation unit that estimates a human body part from the image data acquired by the image data acquisition unit;
a marking unit that, when the estimating unit estimates a plurality of human body parts, marks one or more pixels in each of the human body part area estimated by the estimating unit and the area other than the human body part area; ,
a dividing unit that applies a watershed algorithm to the image data after marking by the marking unit and divides the area in the image data into a plurality;
a calculation unit that calculates a joint position from two regions corresponding to human body parts adjacent to the joint, among the regions divided by the dividing unit;
A joint position estimation device comprising:

(付記2)
付記1に記載の関節位置推定装置であって、
関節に隣接する、前記推定部が推定した人体部位を包含する領域を設定する領域設定部、
をさらに備え、
前記マーキング部は、前記領域設定部が設定した領域内でマーキングし、
前記分割部は、前記領域設定部が設定した領域を複数に分割する、
関節位置推定装置。
(Appendix 2)
The joint position estimation device according to appendix 1,
an area setting unit that sets an area adjacent to the joint and containing the human body part estimated by the estimation unit;
further comprising
The marking unit marks within the area set by the area setting unit,
The division unit divides the area set by the area setting unit into a plurality of areas.
Joint position estimator.

(付記3)
付記1または付記2に記載の関節位置推定装置であって、
前記画像データは、画素毎の深度が付加された画像データである、
関節位置推定装置。
(Appendix 3)
The joint position estimation device according to Appendix 1 or Appendix 2,
wherein the image data is image data to which a depth for each pixel is added;
Joint position estimator.

(付記4)
付記1から付記3までのいずれか一つに記載の関節位置推定装置であって、
前記分割部は、前記マーキング部がマーキングした画素と、画素値が前記画素の所定範囲内である画素とを同じ領域として、領域を複数に分割する、
関節位置推定装置。
(Appendix 4)
The joint position estimation device according to any one of appendices 1 to 3,
The dividing unit divides the area into a plurality of areas, with the pixels marked by the marking unit and the pixels whose pixel values are within a predetermined range of the pixels being the same area.
Joint position estimator.

(付記5)
付記1から付記4までのいずれか一つに記載の関節位置推定装置であって、
前記計算部は、前記2つの領域間が最小距離となる前記2つの領域それぞれにおける位置を基準として、関節位置を計算する、
関節位置推定装置。
(Appendix 5)
The joint position estimation device according to any one of appendices 1 to 4,
The calculation unit calculates the joint position based on the position in each of the two regions where the distance between the two regions is the minimum,
Joint position estimator.

(付記6)
画像データを取得するステップと、
取得した画像データに対して、人体部位を推定するステップと、
複数の人体部位を推定した場合、推定した人体部位の領域、および、前記人体部位の領域以外の領域それぞれに対して、一または複数の画素にマーキングするステップと、
マーキング後の画像データに対して、分水嶺アルゴリズムを適用して、前記画像データ内の領域を複数に分割するステップと、
分割した領域のうち、関節に隣接する人体部位に対応する2つの領域から、関節位置を計算するステップと、
を備える、関節位置推定方法。
(Appendix 6)
obtaining image data;
a step of estimating a human body part for the acquired image data;
when a plurality of human body parts are estimated, marking one or more pixels in each of the estimated human body part area and the area other than the human body part area;
applying a watershed algorithm to the image data after marking to divide a region in the image data into a plurality;
a step of calculating a joint position from two regions corresponding to human body parts adjacent to the joint among the divided regions;
A joint position estimation method comprising:

(付記7)
付記6に記載の関節位置推定方法であって、
関節に隣接する、推定した人体部位を包含する領域を設定するステップ、
をさらに備え、
前記一または複数の画素にマーキングするステップでは、設定した領域内でマーキングし、
前記画像データ内の領域を複数に分割するステップでは、設定した領域を複数に分割する、
関節位置推定方法。
(Appendix 7)
The joint position estimation method according to appendix 6,
setting a region adjacent to the joint and containing the estimated body part;
further comprising
In the step of marking one or more pixels, marking is performed within a set area;
In the step of dividing the region in the image data into a plurality of regions, the set region is divided into a plurality of regions.
Joint position estimation method.

(付記8)
付記6または付記7に記載の関節位置推定方法であって、
前記画像データは、画素毎の深度が付加された画像データである、
関節位置推定方法。
(Appendix 8)
The joint position estimation method according to appendix 6 or appendix 7,
wherein the image data is image data to which a depth for each pixel is added;
Joint position estimation method.

(付記9)
付記6から付記8までのいずれか一つに記載の関節位置推定方法であって、
前記画像データ内の領域を複数に分割するステップでは、マーキングした画素と、画素値が前記画素の所定範囲内である画素とを同じ領域として、領域を複数に分割する、
関節位置推定方法。
(Appendix 9)
The joint position estimation method according to any one of appendices 6 to 8,
In the step of dividing the region in the image data into a plurality of regions, the marked pixels and the pixels whose pixel values are within a predetermined range of the pixels are defined as the same region, and the region is divided into a plurality of regions.
Joint position estimation method.

(付記10)
付記6から付記9までのいずれか一つに記載の関節位置推定方法であって、
前記関節位置を計算するステップでは、前記2つの領域間が最小距離となる前記2つの領域それぞれにおける位置を基準として、関節位置を計算する、
関節位置推定方法。
(Appendix 10)
The joint position estimation method according to any one of appendices 6 to 9,
In the step of calculating the joint position, the joint position is calculated based on the position in each of the two regions where the distance between the two regions is the minimum,
Joint position estimation method.

(付記11)
画像データを取得するコンピュータに、
前記画像データに対して、人体部位を推定するステップと、
複数の人体部位を推定した場合、推定した人体部位の領域、および、前記人体部位の領域以外の領域それぞれに対して、一または複数の画素にマーキングするステップと、
マーキング後の画像データに対して、分水嶺アルゴリズムを適用して、前記画像データ内の領域を複数に分割するステップと、
分割した領域のうち、関節に隣接する人体部位に対応する2つの領域から、関節位置を計算するステップと、
を実行させる命令を含む、プログラム。
(Appendix 11)
In the computer that acquires the image data,
estimating a human body part for the image data;
when a plurality of human body parts are estimated, marking one or more pixels in each of the estimated human body part area and the area other than the human body part area;
applying a watershed algorithm to the image data after marking to divide a region in the image data into a plurality;
a step of calculating a joint position from two regions corresponding to human body parts adjacent to the joint among the divided regions;
A program containing instructions to cause a

(付記12)
付記11に記載のプログラムであって、
記コンピュータに、
関節に隣接する、推定された人体部位を包含する領域を設定するステップ、
を実行させる命令をさらに含み、
前記前記一または複数の画素にマーキングするステップでは、設定された領域内でマーキングし、
前記画像データ内の領域を複数に分割するステップでは、設定された領域を複数に分割する、
プログラム
(Appendix 12)
The program according to Supplementary Note 11,
to the computer;
setting a region adjacent to the joint that encompasses the estimated body part;
further comprising an instruction to cause the
In the step of marking the one or more pixels, marking within a set area;
In the step of dividing the region in the image data into a plurality of regions, the set region is divided into a plurality of regions.
program .

(付記13)
付記11または付記12に記載のプログラムであって、
前記画像データは、画素毎の深度が付加された画像データである、
プログラム
(Appendix 13)
The program according to Supplementary Note 11 or Supplementary Note 12,
wherein the image data is image data to which a depth for each pixel is added;
program .

(付記14)
付記11から付記13までのいずれか一つに記載のプログラムであって、
前記画像データ内の領域を複数に分割するステップでは、マーキングされた画素と、画素値が前記画素の所定範囲内である画素とを同じ領域として、領域を複数に分割する、
プログラム
(Appendix 14)
The program according to any one of appendices 11 to 13,
In the step of dividing the region in the image data into a plurality of regions, the marked pixels and the pixels whose pixel values are within a predetermined range of the pixels are defined as the same region, and the region is divided into a plurality of regions.
program .

(付記15)
付記11から付記14までのいずれか一つに記載のプログラムであって、
前記関節位置を計算するステップでは、前記2つの領域間が最小距離となる前記2つの領域それぞれにおける位置を基準として、関節位置を計算する、
プログラム
(Appendix 15)
The program according to any one of appendices 11 to 14,
In the step of calculating the joint position, the joint position is calculated based on the position in each of the two regions where the distance between the two regions is the minimum,
program .

以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

この出願は、2019年3月13日に出願された日本出願特願2019-46390を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority based on Japanese Patent Application No. 2019-46390 filed on March 13, 2019, and the entire disclosure thereof is incorporated herein.

本発明は、関節位置を精度よく推定できる。 The present invention can accurately estimate joint positions.

1 :関節位置推定装置
2 :画像データ取得部
3 :推定部
4 :マーキング部
5 :分割部
6 :計算部
7 :領域設定部
31 :特徴ベクトル計算部
32 :推定実行部
50 :画像データ
60 :学習モデル
51、52、53、54 :特徴量
55 :領域
56、57、58 :マーキング
1: joint position estimation device 2: image data acquisition unit 3: estimation unit 4: marking unit 5: division unit 6: calculation unit 7: region setting unit 31: feature vector calculation unit 32: estimation execution unit 50: image data 60: Learning models 51, 52, 53, 54: Feature amount 55: Regions 56, 57, 58: Marking

Claims (7)

画像データを取得する画像データ取得と、
前記画像データ取得が取得した画像データから人体部位を推定する推定と、
前記推定が複数の人体部位を推定した場合、前記推定が推定した人体部位の領域、および、前記人体部位の領域以外の領域それぞれに対して、一または複数の画素にマーキングするマーキングと、
前記マーキングによるマーキング後の画像データに対して、分水嶺アルゴリズムを適用して、前記画像データ内の領域を複数に分割する分割と、
前記分割が分割した領域のうち、関節に隣接する人体部位に対応する2つの領域から、関節位置を計算する計算と、
を備える、関節位置推定装置。
an image data acquisition unit that acquires image data;
an estimation unit that estimates a human body part from the image data acquired by the image data acquisition unit ;
a marking unit that, when the estimating unit estimates a plurality of human body parts, marks one or more pixels in each of the human body part area estimated by the estimating unit and the area other than the human body part area; ,
a dividing unit that applies a watershed algorithm to the image data after marking by the marking unit and divides the area in the image data into a plurality;
a calculation unit that calculates a joint position from two regions corresponding to human body parts adjacent to the joint, among the regions divided by the dividing unit ;
A joint position estimation device comprising:
請求項1に記載の関節位置推定装置であって、
関節に隣接する、前記推定が推定した人体部位を包含する領域を設定する領域設定
をさらに備え、
前記マーキングは、前記領域設定が設定した領域内でマーキングし、
前記分割は、前記領域設定が設定した領域を複数に分割する、
関節位置推定装置。
The joint position estimation device according to claim 1,
an area setting unit that sets an area adjacent to the joint and containing the human body part estimated by the estimation unit ;
further comprising
The marking unit marks within the area set by the area setting unit ,
The division unit divides the area set by the area setting unit into a plurality of areas.
Joint position estimator.
請求項1または請求項2に記載の関節位置推定装置であって、
前記画像データは、画素毎の深度が付加された画像データである、
関節位置推定装置。
The joint position estimation device according to claim 1 or claim 2,
wherein the image data is image data to which a depth for each pixel is added;
Joint position estimator.
請求項1から請求項3までのいずれか一つに記載の関節位置推定装置であって、
前記分割は、前記マーキングがマーキングした画素と、画素値が前記画素の所定範囲内である画素とを同じ領域として、領域を複数に分割する、
関節位置推定装置。
The joint position estimation device according to any one of claims 1 to 3,
The dividing unit divides the area into a plurality of areas, with the pixels marked by the marking unit and the pixels whose pixel values are within a predetermined range of the pixels being the same area.
Joint position estimator.
請求項1から請求項4までのいずれか一つに記載の関節位置推定装置であって、
前記計算は、前記2つの領域間が最小距離となる前記2つの領域それぞれにおける位置を基準として、関節位置を計算する、
関節位置推定装置。
The joint position estimation device according to any one of claims 1 to 4,
The calculation unit calculates the joint position based on the position in each of the two regions where the distance between the two regions is the minimum,
Joint position estimator.
画像データを取得し、
前記画像データに対して、人体部位を推定し、
前記画像データに対して複数の人体部位を推定した場合、推定した人体部位の領域、および、前記人体部位の領域以外の領域それぞれに対して、一または複数の画素にマーキングし、
マーキング後の画像データに対して、分水嶺アルゴリズムを適用して、前記画像データ内の領域を複数に分割し、
分割した複数の領域のうち、関節に隣接する人体部位に対応する2つの領域から、関節位置を計算する、
関節位置推定方法。
get the image data,
estimating a human body part for the image data;
When a plurality of human body parts are estimated for the image data, marking one or more pixels in each of the estimated human body part area and the area other than the human body part area,
Applying a watershed algorithm to the image data after marking to divide the area in the image data into a plurality,
Calculating joint positions from two regions corresponding to human body parts adjacent to joints among the plurality of divided regions;
Joint position estimation method.
画像データを取得するコンピュータに、 In the computer that acquires the image data,
前記画像データに対して、人体部位を推定させ、 estimating a human body part for the image data;
複数の人体部位が推定された場合、推定された人体部位の領域、および、前記人体部位の領域以外の領域それぞれに対して、一または複数の画素にマーキングさせ、 When a plurality of human body parts are estimated, one or more pixels are marked for each of the estimated human body part area and the area other than the human body part area,
前記マーキング後の画像データに対して、分水嶺アルゴリズムを適用して、前記画像データ内の領域を複数に分割させ、 Applying a watershed algorithm to the image data after marking to divide the area in the image data into a plurality,
分割された領域のうち、関節に隣接する人体部位に対応する2つの領域から、関節位置を計算させる、 calculating joint positions from two regions corresponding to human body parts adjacent to joints among the divided regions;
命令を実行させるプログラム。 A program that executes instructions.
JP2021505611A 2019-03-13 2020-02-14 Joint position estimation device, joint position estimation method and program Active JP7120690B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019046390 2019-03-13
JP2019046390 2019-03-13
PCT/JP2020/005836 WO2020184066A1 (en) 2019-03-13 2020-02-14 Joint position estimation device, joint position estimation method, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JPWO2020184066A1 JPWO2020184066A1 (en) 2021-11-11
JP7120690B2 true JP7120690B2 (en) 2022-08-17

Family

ID=72427251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021505611A Active JP7120690B2 (en) 2019-03-13 2020-02-14 Joint position estimation device, joint position estimation method and program

Country Status (3)

Country Link
JP (1) JP7120690B2 (en)
CN (1) CN113330482A (en)
WO (1) WO2020184066A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195599A (en) 2000-01-14 2001-07-19 Nippon Telegr & Teleph Corp <Ntt> Method and device for processing image, and image processing program storage medium
JP2017116403A (en) 2015-12-24 2017-06-29 トヨタ自動車株式会社 Attitude estimation device, attitude estimation method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7916126B2 (en) * 2007-06-13 2011-03-29 Apple Inc. Bottom-up watershed dataflow method and region-specific segmentation based on historic data to identify patches on a touch sensor panel
CN103210421B (en) * 2010-12-09 2016-03-02 松下电器产业株式会社 Article detection device and object detecting method
CN103003846B (en) * 2011-01-26 2016-07-06 松下知识产权经营株式会社 Articulation region display device, joint area detecting device, joint area degree of membership calculation element, pass nodular region affiliation degree calculation element and joint area display packing
CN102609683B (en) * 2012-01-13 2014-02-05 北京邮电大学 Automatic labeling method for human joint based on monocular video
CN103198492A (en) * 2013-03-28 2013-07-10 沈阳航空航天大学 Human motion capture method
JP2016091108A (en) * 2014-10-30 2016-05-23 パナソニックIpマネジメント株式会社 Human body portion detection system and human body portion detection method
CN107451568A (en) * 2017-08-03 2017-12-08 重庆邮电大学 Use the attitude detecting method and equipment of depth convolutional neural networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195599A (en) 2000-01-14 2001-07-19 Nippon Telegr & Teleph Corp <Ntt> Method and device for processing image, and image processing program storage medium
JP2017116403A (en) 2015-12-24 2017-06-29 トヨタ自動車株式会社 Attitude estimation device, attitude estimation method, and program

Also Published As

Publication number Publication date
WO2020184066A1 (en) 2020-09-17
JPWO2020184066A1 (en) 2021-11-11
CN113330482A (en) 2021-08-31

Similar Documents

Publication Publication Date Title
CN111492367B (en) Method and apparatus for generating three-dimensional gestures of a hand
KR101606628B1 (en) Pointing-direction detecting device and its method, program and computer readable-medium
JP6918053B2 (en) Digital ink smoothing and GPU-enabled rendering
KR20210060554A (en) Face landmark detection method and device, computer device, and storage medium
US10565791B2 (en) Tracking rigged polygon-mesh models of articulated objects
US20150310617A1 (en) Display control device and display control method
JP7192143B2 (en) Method and system for object tracking using online learning
JP4938748B2 (en) Image recognition apparatus and program
KR20200115729A (en) Method and apparatus of analyzing golf motion
US10146375B2 (en) Feature characterization from infrared radiation
JP7402623B2 (en) Filter processing device and its control method
JP2017130042A (en) Video processing apparatus, video processing method, and program
JP7003617B2 (en) Estimator, estimation method, and estimation program
JP6501806B2 (en) INFORMATION PROCESSING APPARATUS, OPERATION DETECTING METHOD, AND COMPUTER PROGRAM
JP7120690B2 (en) Joint position estimation device, joint position estimation method and program
JP6892155B2 (en) Human body part estimation device, human body part estimation method, and program
JP7254262B2 (en) Work estimating device, work estimating method, and work estimating program
Hachaj et al. RMoCap: an R language package for processing and kinematic analyzing motion capture data
KR20220086971A (en) Method and apparatus of tracking hand joint
US11080875B2 (en) Shape measuring apparatus, shape measuring method, non-transitory computer readable medium storing program
KR101373397B1 (en) Sampling method for random sample consensus based on constraint satisfaction problem in augmented reality
JP6273686B2 (en) Image processing apparatus, image processing method, and image processing program
JP2017027115A (en) Method for pointing by gesture
WO2019186833A1 (en) Image processing device, image processing method, and computer-readable recording medium
WO2022181251A1 (en) Articulation point detection device, articulation point detection method, and computer-readable recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220728

R150 Certificate of patent or registration of utility model

Ref document number: 7120690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150