JP2023085658A - Feature-point position estimation device, feature-point position estimation method and program - Google Patents

Feature-point position estimation device, feature-point position estimation method and program Download PDF

Info

Publication number
JP2023085658A
JP2023085658A JP2021199806A JP2021199806A JP2023085658A JP 2023085658 A JP2023085658 A JP 2023085658A JP 2021199806 A JP2021199806 A JP 2021199806A JP 2021199806 A JP2021199806 A JP 2021199806A JP 2023085658 A JP2023085658 A JP 2023085658A
Authority
JP
Japan
Prior art keywords
feature point
body feature
ellipse
coordinate values
dimensional coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021199806A
Other languages
Japanese (ja)
Inventor
智宏 牛久保
Tomohiro Ushikubo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anima Corp
Original Assignee
Anima Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anima Corp filed Critical Anima Corp
Priority to JP2021199806A priority Critical patent/JP2023085658A/en
Publication of JP2023085658A publication Critical patent/JP2023085658A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

To estimate a position of a body feature point.SOLUTION: A feature-point position estimation device for estimating three-dimensional coordinates of a prescribed feature point of a body located at a target segment of an object, includes: a position input part for inputting three-dimensional coordinate values of a first body feature point for identifying a position in a first side of the target segment of the object and of a second body feature point for identifying a position in a second side, and three-dimensional coordinate values of a plurality of body surface points of the object; a plane calculation part for calculating a plane in a three-dimensional space passing through the first body feature point, the plane perpendicular to a straight line connecting the first body feature point and the second body feature point; an extraction part for extracting a plurality of body surface points on the plane, a distance of which from the plane is a prescribed range out of the plurality of body surface points; an approximation part for approximating the plurality of body surface points on the plane to a space ellipse on a three-dimensional space; a condition input part for inputting conditions representing at which point on the space ellipse the prescribed body feature point is located; and a position estimation part for estimating the three-dimensional coordinate values of the prescribed body feature point on the basis of, the space ellipse and conditions.SELECTED DRAWING: Figure 2

Description

本開示は、身体特徴点の位置を推定するための技術に関する。 The present disclosure relates to techniques for estimating the positions of body feature points.

従来、リハビリテーション医療や整形外科治療等において、被験者の運動を計測し解析するため、モーションキャプチャによる三次元動作解析が行われている。三次元動作解析において運動を評価する手法の一つとして、マーカーレスモーションキャプチャによる動作解析手法が知られている。マーカーレスモーションキャプチャとしては、例えば、距離画像センサ(深度センサ)により赤外線レーザーを対象に照射することで対象までの距離を測定するTOF(Time of Flight)方式を用いて、対象までの距離の情報を持つ深度画像(距離画像)を取得し、取得された深度画像から対象の関節位置等を導出(推定)する手法が知られている(非特許文献1)。また、Kinect(登録商標)をモーションキャプチャ装置として用いて深度画像から対象の関節位置等を推定する手法は、非特許文献2にも記載されている。 Conventionally, in rehabilitation medicine, orthopedic treatment, etc., three-dimensional motion analysis using motion capture has been performed in order to measure and analyze the motion of a subject. A motion analysis method using markerless motion capture is known as one of the methods for evaluating motion in three-dimensional motion analysis. As markerless motion capture, for example, a distance image sensor (depth sensor) is used to measure the distance to the target by irradiating the target with an infrared laser, and the TOF (Time of Flight) method is used to obtain information on the distance to the target. There is known a method of acquiring a depth image (distance image) having , and deriving (estimating) the joint positions of a target from the acquired depth image (Non-Patent Document 1). Also, Non-Patent Document 2 describes a method of estimating joint positions of a target from depth images using Kinect (registered trademark) as a motion capture device.

マーカーレスモーションキャプチャでは、光学式のモーションキャプチャや慣性式のモーションキャプチャとは異なり、人やモノ等の対象物に対してマーカーやセンサの貼付が不要である。そのため、煩雑な計測準備を行う必要がなく、また、被験者の自然な動きを計測することが可能となるため、マーカーレスモーションキャプチャは様々な場面で有用性の高い手法として用いられている。例えば、マーカーレスモーションキャプチャを用いることで、距離画像に基づき骨格情報を推定する方法が提案されており(特許文献1)、マーカーレスモーションキャプチャの臨床現場での活用も期待されている(非特許文献3)。 Unlike optical motion capture and inertial motion capture, markerless motion capture does not require attachment of markers or sensors to objects such as people or objects. Therefore, there is no need to perform complicated measurement preparations, and since it is possible to measure the subject's natural movements, markerless motion capture is used as a highly useful technique in various situations. For example, a method of estimating skeletal information based on distance images using markerless motion capture has been proposed (Patent Document 1), and the use of markerless motion capture in clinical settings is also expected (non-patent Reference 3).

特許第6617830号Patent No. 6617830

西林孝,“Kinectの仕組みとナチュラルユーザインタフェース”,映像情報メディア学会誌 Vоl.66 No.9 2012,p.755-759Takashi Nishibayashi, “Mechanism of Kinect and Natural User Interface”, Journal of the Institute of Image Information and Television Engineers Vol. 66 No. 9 2012, p. 755-759 “Azure Kinect DKのドキュメント”,[online],Microsoft,[令和3年10月27日検索],インターネット<URL:https://docs.microsoft.com/ja-jp/azure/Kinect-dk/>“Azure Kinect DK Document”, [online], Microsoft, [searched on October 27, 2021], Internet <URL: https://docs.microsoft.com/ja-jp/azure/Kinect-dk/ > 春名弘一,外3名,“マーカーレスモーションキャプチャによる三次元動作解析の応用例”,日本義肢装具学会誌 Vоl.35 No.1 2019,p.17-23Koichi Haruna, 3 others, "Application example of 3D motion analysis by markerless motion capture", Journal of Japanese Society of Prosthetics and Orthotics Vol. 35 No. 1 2019, p. 17-23

上述の通り、マーカーレスモーションキャプチャによる動作解析手法では、距離画像センサにより深度画像が取得されることで、対象物(被験者)の関節等の身体特徴点の位置(3次元位置座標)を取得することが可能である。 As described above, in the motion analysis method using markerless motion capture, a depth image is acquired by a depth image sensor, and the positions (three-dimensional position coordinates) of body feature points such as joints of the object (subject) are acquired. Is possible.

しかし、距離画像センサでは、距離画像センサ内で予め定められた関節や骨等の身体特徴点の位置座標を取得(出力)することが可能である一方、距離画像センサ内で予め定められていない身体特徴点についての位置を取得することは困難である。そのため、距離画像センサ内で定められた身体特徴点の3次元位置座標のみでは、所望する関節角度を算出できない場合があるという問題がある。 However, while the distance image sensor can acquire (output) the position coordinates of predetermined body feature points such as joints and bones in the distance image sensor, there is no predetermined position coordinate in the distance image sensor. Obtaining locations for body feature points is difficult. Therefore, there is a problem that the desired joint angle cannot be calculated only with the three-dimensional position coordinates of the body feature points determined in the range image sensor.

例えば、下肢においては、通常、距離画像センサ内で予め定められた身体特徴点である膝関節、足関節及びつま先の3次元位置座標が距離画像センサから出力される。これらの身体特徴点の3次元位置座標によれば、投影角を用いて足関節の底屈・背屈の角度及び内転・外転の角度を算出することは可能である一方、足関節の内反・外反の角度を正しく算出することは困難である。足関節の内反・外反の角度を算出するためには、例えば、体節間(体節の座標系間)のオイラー角を用いることが可能である。しかし、足関節とつま先の3次元位置座標しか出力されない足部のように2つの身体特徴点の位置座標しか出力されない体節では、座標系を生成(特定)することができず、オイラー角(内反・外反の角度)を算出することは困難である。 For example, in the case of the lower limbs, the range image sensor normally outputs three-dimensional position coordinates of knee joints, ankle joints, and toes, which are predetermined body feature points in the range image sensor. According to the three-dimensional positional coordinates of these body feature points, it is possible to calculate the angles of plantar flexion/dorsiflexion and the angles of adduction/abduction of the ankle joint using projection angles. It is difficult to correctly calculate the varus/valgus angle. In order to calculate the varus/valgus angle of the ankle joint, it is possible to use, for example, Euler angles between body segments (between body segment coordinate systems). However, in a body segment where only the position coordinates of two body feature points are output, such as the foot, where only the three-dimensional position coordinates of the ankle joint and the toe are output, the coordinate system cannot be generated (identified), and the Euler angles ( varus-valgus angle) is difficult to calculate.

本開示は、上記した問題に鑑み、身体特徴点の位置を推定することを課題とする。 An object of the present disclosure is to estimate the positions of body feature points in view of the above problems.

本開示の一例は、
対象物の対象の体節に位置する所定の身体特徴点の3次元座標値を推定する特徴点位置推定装置であって、
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力手段と、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出手段と、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出手段と、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似手段と、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力手段と、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定手段と、
を備える特徴点位置推定装置である。人間の四肢等の体表面は楕円に近似可能であることから、本開示では、体表(体表点の集まり)を楕円により近似することとする。
An example of this disclosure is:
A feature point position estimation device for estimating a three-dimensional coordinate value of a predetermined body feature point located in a target segment of an object,
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; position input means for inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. Plane calculation means for calculating using three-dimensional coordinate values of body feature points;
extracting means for extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
approximation means for approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
condition input means for inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
position estimating means for estimating three-dimensional coordinate values of the predetermined body feature points based on the spatial ellipse and the conditions;
It is a feature point position estimation device comprising: Since a body surface such as human limbs can be approximated to an ellipse, in the present disclosure, the body surface (a collection of body surface points) is approximated by an ellipse.

1つの態様では、前記近似手段は、前記空間楕円上の点の3次元座標値を取得可能な方程式を求める。 In one aspect, the approximation means obtains an equation capable of obtaining three-dimensional coordinate values of points on the spatial ellipse.

1つの態様では、前記近似手段は、前記空間楕円上の点の3次元座標値を取得可能な方程式として、3次元空間上に移動することで前記空間楕円と一致する2次元空間の楕円の方程式と、該2次元空間の楕円上の点を前記空間楕円上の点に変換する変換方程式を求める。 In one aspect, the approximation means is an equation of a two-dimensional space ellipse that matches the space ellipse by moving on the three-dimensional space as an equation capable of acquiring three-dimensional coordinate values of points on the space ellipse. Then, a transformation equation for transforming a point on the ellipse in the two-dimensional space to a point on the space ellipse is obtained.

1つの態様では、前記位置推定手段は、入力された前記条件に対応する前記2次元空間の楕円上の座標値を前記変換方程式に入力することで、前記所定の身体特徴点の3次元座標値を推定する。 In one aspect, the position estimating means inputs the coordinate values on the ellipse in the two-dimensional space corresponding to the input condition into the transformation equation, thereby obtaining the three-dimensional coordinate values of the predetermined body feature point. to estimate

1つの態様では、前記条件は、前記第一身体特徴点を通り、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面における対象の体節の体表の形状を楕円で近似すると想定した場合に、前記第三身体特徴点が該楕円のどの位置に存在するかに基づき決定された条件である。 In one aspect, the condition is such that the shape of the body surface of the target body segment on a plane passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is an ellipse. This is a condition determined based on the position of the third body feature point on the ellipse when it is assumed that the approximation is performed by .

1つの態様では、前記条件は、前記所定の身体特徴点が、前記空間楕円の頂点の何れかであることを示す条件である。 In one aspect, the condition is a condition indicating that the predetermined body feature point is any vertex of the spatial ellipse.

1つの態様では、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値は、対象物の予め定められた身体特徴点の3次元座標値を測定する三次元計測装置において取得された座標値である。 In one aspect, the three-dimensional coordinate values of the first body feature point and the second body feature point are obtained by a three-dimensional measuring device that measures the three-dimensional coordinate values of predetermined body feature points of an object. are coordinate values.

1つの態様では、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値と、推定された前記所定の身体特徴点の3次元座標値を用いて、前記対象の体節の直交座標系を生成する座標系生成手段を更に備える。 In one aspect, using the three-dimensional coordinate values of the first body feature point and the second body feature point and the estimated three-dimensional coordinate value of the predetermined body feature point, It further comprises coordinate system generating means for generating a coordinate system.

1つの態様では、前記対象の体節の直交座標系と他の直交座標系とのオイラー角を算出することで、前記対象の体節の運動に伴う関節角度を算出する角度算出手段を更に備える。 In one aspect, the apparatus further comprises angle calculation means for calculating the joint angle associated with the movement of the target body segment by calculating the Euler angle between the Cartesian coordinate system of the target body segment and another Cartesian coordinate system. .

1つの態様では、前記対象の体節は、複数の対象の体節のうちの一つであり、
前記位置入力手段、前記平面算出手段、前記近似手段、前記条件入力手段、前記特徴点位置推定手段及び座標系生成手段は夫々、前記対象の体節に加え、複数の対象の体節のうちの該対象の体節とは異なる他の体節について処理を行い、
前記角度算出手段は、前記対象の体節の直交座標系と前記他の体節の直交座標系とのオイラー角を算出することで、該対象の体節の運動に伴う関節角度を算出する。
In one aspect, the body segment of the subject is one of a plurality of body segments of the subject;
Each of the position input means, the plane calculation means, the approximation means, the condition input means, the feature point position estimation means, and the coordinate system generation means, in addition to the target body segment, performing processing on other body segments different from the body segment of the subject;
The angle calculation means calculates a joint angle associated with the movement of the target body segment by calculating an Euler angle between the orthogonal coordinate system of the target body segment and the orthogonal coordinate system of the other body segment.

1つの態様では、前記体節は、足部であり、
前記第一身体特徴点は、つま先であり、
前記第二身体特徴点は、足関節であり、
前記所定の身体特徴点は、前記足部のつま先側の幅方向の端部である。
In one aspect, the segment is the foot,
the first body feature point is a toe;
the second body feature point is an ankle joint;
The predetermined physical feature point is the widthwise end of the foot on the toe side.

1つの態様では、前記所定の身体特徴点は、第五中足骨であり、
前記条件は、前記所定の身体特徴点である第五中足骨が、前記空間楕円の長軸の外側方向の頂点であることを示す条件であり、
前記位置推定手段は、前記所定の身体特徴点である第五中足骨の3次元座標値を推定する。
In one aspect, the predetermined body landmark is the fifth metatarsal,
The condition is a condition indicating that the fifth metatarsal bone, which is the predetermined physical feature point, is the vertex in the lateral direction of the major axis of the spatial ellipse;
The position estimation means estimates a three-dimensional coordinate value of the fifth metatarsal bone, which is the predetermined physical feature point.

本発明は、
対象物の対象の体節に位置する所定の身体特徴点の3次元座標値を推定するコンピューターが、
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力ステップと、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出ステップと、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出ステップと、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似ステップと、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力ステップと、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定ステップと、
を実行する特徴点位置推定方法、として規定され得る。
The present invention
A computer for estimating three-dimensional coordinate values of predetermined body feature points located in target body segments of an object,
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; a position input step of inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. a plane calculation step of calculating using the three-dimensional coordinate values of the body feature points;
an extracting step of extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
an approximation step of approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
a condition input step of inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
a position estimation step of estimating a three-dimensional coordinate value of the predetermined body feature point based on the spatial ellipse and the condition;
can be defined as a feature point location estimation method that performs

本発明は、
対象物の対象の体節に位置する所定の身体特徴点の3次元座標値を推定するコンピューターを、
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力手段と、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出手段と、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出手段と、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似手段と、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力手段と、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定手段と、
として機能させるためのプログラム、として規定され得る。
The present invention
a computer for estimating three-dimensional coordinate values of predetermined body feature points located on target body segments of an object;
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; position input means for inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. Plane calculation means for calculating using three-dimensional coordinate values of body feature points;
extracting means for extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
approximation means for approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
condition input means for inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
position estimating means for estimating three-dimensional coordinate values of the predetermined body feature points based on the spatial ellipse and the conditions;
can be defined as a program for functioning as

本開示は、装置、システム、コンピューターによって実行される方法またはコンピューターに実行させるプログラムとして把握することが可能である。また、本開示は、そのようなプログラムをコンピューター、その他の装置、機械等が読み取り可能な記録媒体に記録したものとしても把握できる。ここで、コンピューター等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的または化学的作用によって蓄積し、コンピューター等から読み取ることができる記録媒体をいう。 The present disclosure can be understood as an apparatus, a system, a computer-executed method, or a computer-executed program. The present disclosure can also be understood as recording such a program in a recording medium readable by a computer, other device, machine, or the like. Here, a computer-readable recording medium is a recording medium that stores information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read by a computer, etc. say.

本開示によれば、身体特徴点の位置を推定することが可能となる。 According to the present disclosure, it is possible to estimate the positions of body feature points.

実施形態に係るシステムの構成を示す概略図である。1 is a schematic diagram showing the configuration of a system according to an embodiment; FIG. 実施形態に係る特徴点位置推定装置の機能構成の概略を示す図である。It is a figure which shows the outline of a functional structure of the feature point position estimation apparatus which concerns on embodiment. 実施形態に係る足部の一例を示す図である。It is a figure which shows an example of the leg|foot part which concerns on embodiment. 実施形態に係る関節角度算出の一例を示す図である。It is a figure which shows an example of joint angle calculation which concerns on embodiment. 実施形態に係る特徴点位置推定処理の流れの概要を示すフローチャートである。4 is a flowchart showing an overview of the flow of feature point position estimation processing according to the embodiment; 実施形態に係る角度算出処理の流れの概要を示すフローチャートである。6 is a flowchart showing an overview of the flow of angle calculation processing according to the embodiment;

以下、本開示に係る装置、方法及びプログラムの実施の形態を、図面に基づいて説明する。但し、以下に説明する実施の形態は、実施形態を例示するものであって、本開示に係る装置、方法及びプログラムを以下に説明する具体的構成に限定するものではない。実施にあたっては、実施の態様に応じた具体的構成が適宜採用され、また、種々の改良や変形が行われてよい。 Hereinafter, embodiments of an apparatus, a method, and a program according to the present disclosure will be described based on the drawings. However, the embodiment described below is an example of the embodiment, and does not limit the device, method, and program according to the present disclosure to the specific configurations described below. For implementation, a specific configuration may be appropriately adopted according to the mode of implementation, and various improvements and modifications may be made.

本実施形態では、本開示に係る装置、方法及びプログラムを、被験者の足部における身体特徴点の位置を推定する特徴点位置推定装置において実施した場合の実施の形態について説明する。但し、本開示に係る装置、方法及びプログラムは、対象物の任意の身体特徴点の位置を推定するための技術について広く用いることが可能であり、本開示の適用対象は、実施形態において示した例に限定されない。 In this embodiment, an embodiment will be described in which the device, method, and program according to the present disclosure are implemented in a feature point position estimation device that estimates the positions of body feature points on the feet of a subject. However, the device, method, and program according to the present disclosure can be widely used for techniques for estimating the position of any body feature point of an object, and the application target of the present disclosure is shown in the embodiment Examples are not limiting.

<システムの構成>
図1は、本実施形態に係るシステムの構成を示す概略図である。図1に示すように、本実施形態に係るシステム9は、対象物の体表点(観測点)の座標データ(2次元の画像座標と奥行き情報)や関節等の身体特徴点の位置の座標データ(3次元座標)を取得(計測)する三次元計測装置3と、三次元計測装置3により取得された座標データを記録し、当該座標データを用いることで、目的とする身体特徴点(標点)の位置を推定する特徴点位置推定装置1とからなる。ここで、対象物とは、被験者等の人に限定されるものではなく、骨や関節等の身体特徴点を有するものであれば、任意の動物やロボット等であってよい。本実施形態では、対象物を被験者(人)とする場合について例示する。なお、本実施形態における身体特徴点は、骨や関節等の対象物の骨格に関する特徴点を意味し、頭、肩、体幹、腰(骨盤)、手先、つま先、四肢の関節等に例示される。
<System configuration>
FIG. 1 is a schematic diagram showing the configuration of a system according to this embodiment. As shown in FIG. 1, a system 9 according to the present embodiment includes coordinate data (two-dimensional image coordinates and depth information) of body surface points (observation points) of an object and coordinates of positions of body feature points such as joints. A three-dimensional measuring device 3 that acquires (measures) data (three-dimensional coordinates) and the coordinate data acquired by the three-dimensional measuring device 3 are recorded. and a feature point position estimating device 1 for estimating the positions of points). Here, the object is not limited to a person such as a subject, and may be any animal, robot, or the like as long as it has a physical characteristic point such as a bone or a joint. In this embodiment, a case where the subject is a subject (person) will be exemplified. Note that the body feature points in the present embodiment refer to feature points related to the skeleton of an object such as bones and joints, and are exemplified by the head, shoulders, trunk, hips (pelvis), fingers, toes, joints of limbs, and the like. be.

三次元計測装置3は、対象物(被験者)までの距離の情報を持つ画像(画像中の各画素に奥行き方向の距離情報を持つ画像)である距離画像(深度画像)を取得する距離画像センサ(深度センサ)と、対象物(被験者)の予め定めされた身体特徴点(関節等)の位置(3次元座標値)を取得する位置取得部を備える。なお、三次元計測装置3は、対象物(被験者)の色画像(RGB画像)を取得するビデオカメラ(カラーカメラ(RGBカメラ))を備えてもよい。例えば、三次元計測装置3は、距離画像センサ及びビデオカメラを備えるモーションキャプチャ装置であるKinect(登録商標)に例示される。但し、三次元計測装置3は、Kinectに限定されるものではなく、関節等の身体特徴点の位置を取得する装置であれば任意の装置であってよい。また、三次元計測装置3の具体的なハードウェア構成に関しては、実施の態様に応じて適宜省略や置換、追加が可能である。 The three-dimensional measuring device 3 is a distance image sensor that acquires a distance image (depth image), which is an image having distance information to an object (subject) (an image having distance information in the depth direction for each pixel in the image). (depth sensor) and a position acquisition unit that acquires the position (three-dimensional coordinate value) of a predetermined physical feature point (joint or the like) of the object (subject). Note that the three-dimensional measuring device 3 may include a video camera (color camera (RGB camera)) that acquires a color image (RGB image) of the object (subject). For example, the three-dimensional measuring device 3 is exemplified by Kinect (registered trademark), which is a motion capture device equipped with a distance image sensor and a video camera. However, the three-dimensional measuring device 3 is not limited to Kinect, and may be any device as long as it acquires the positions of body feature points such as joints. Further, the specific hardware configuration of the three-dimensional measurement device 3 can be appropriately omitted, replaced, or added according to the mode of implementation.

距離画像センサは、対象物上の観測点までの距離(奥行き)を測定することが可能なセンサであり、主に、赤外線を照射する投光器及び反射した赤外線を受光するカメラ(赤外線カメラ)を備える。なお、本実施形態における対象物の観測点とは、距離画像センサにより距離が測定される対象物の表面(体表)上の点であり、距離画像センサにより取得される距離画像の各画素に対応する点である。距離画像センサでは、主に、TOF方式又はパターン照射方式により対象物(観測点)までの距離が測定される。TOF方式は、照射(投射)した赤外線レーザーが対象物(観測点)まで往復するのにかかる時間(照射してから反射光を受信するまでの時間)に基づき、対象物(観測点)までの距離を測定する方式である。パターン照射方式は、特定のパターンを持つ赤外線レーザーを照射し、反射光のパターンの歪みを解析することで、対象物(観測点)までの距離を測定する方式である。本実施形態において、距離画像センサが対象物までの距離を測定する方式には、任意の方式が用いられてよい。 A range image sensor is a sensor that can measure the distance (depth) to an observation point on an object, and is mainly equipped with a projector that emits infrared rays and a camera (infrared camera) that receives the reflected infrared rays. . Note that the observation point of the object in this embodiment is a point on the surface (body surface) of the object whose distance is measured by the distance image sensor, and each pixel of the distance image acquired by the distance image sensor This is a corresponding point. A distance image sensor mainly measures the distance to an object (observation point) by a TOF method or a pattern irradiation method. The TOF method is based on the time it takes for the irradiated (projected) infrared laser to make a round trip to the object (observation point) (the time from irradiation to receiving the reflected light), and the distance to the object (observation point). This is a method for measuring distance. The pattern irradiation method measures the distance to an object (observation point) by irradiating an infrared laser with a specific pattern and analyzing the distortion of the reflected light pattern. In this embodiment, any method may be used as the method for the distance image sensor to measure the distance to the object.

距離画像センサは、対象物までの距離を測定することで、画像の各画素の画素値として、各画素に対応する点(観測点)の距離画像センサ(カメラ)からの距離の情報(デプス値)を持つ距離画像を取得(撮影)する。距離画像には、各観測点についての、uv直交座標系の2次元の画像座標値(距離画像内の位置座標)(u,v)と、当該2次元の画像座標値(u,v)に対応する距離画像センサからの距離(デプス値)dが含まれる。距離dは、距離画像センサと対象物との間の距離である。以下、(u,v,d)を、各観測点(画素)についての「2次元座標値」と称する。 A range image sensor measures the distance to an object and converts the pixel value of each pixel in the image into the distance information (depth value ) is acquired (captured). In the range image, for each observation point, two-dimensional image coordinate values (position coordinates in the range image) (u, v) in the uv orthogonal coordinate system and the two-dimensional image coordinate values (u, v) The distance (depth value) d from the corresponding range image sensor is included. The distance d is the distance between the range image sensor and the object. Hereinafter, (u, v, d) will be referred to as "two-dimensional coordinate values" for each observation point (pixel).

位置取得部は、距離画像センサにより取得された距離画像に基づき、三次元計測装置(距離画像センサ)において予め定められた身体特徴点(関節や骨等)の位置(3次元座標値(X,Y,Z))を取得する。位置取得部は、例えば、予め定められた身体特徴点である、頭、肩、体幹、腰(骨盤)、手先、つま先、四肢の関節等の複数の身体特徴点(例えば、25箇所の身体特徴点)の3次元座標値を取得する。本実施形態では、足部における身体特徴点を推定するため、位置取得部により、少なくとも足関節及びつま先(第二中足骨付近)の3次元座標値が取得されることとする。なお、本実施形態では、三次元計測装置3(位置取得部)において、第二中足骨の骨頭付近をつま先としてつま先の3次元座標値が取得される例を示すが、第二中足骨付近以外の部位(例えば、第三中足骨付近)をつま先とすることでつま先の3D座標値が取得されてもよい。 The position acquisition unit obtains the position (three-dimensional coordinate value (X c , Y c , Z c )). The position acquisition unit obtains, for example, a plurality of body feature points (for example, 25 body feature points) such as head, shoulders, trunk, hips (pelvis), fingertips, toes, joints of limbs, etc., which are predetermined body feature points. 3D coordinate values of feature points). In this embodiment, in order to estimate body feature points on the foot, the position acquisition unit acquires the three-dimensional coordinate values of at least the ankle joint and the toe (near the second metatarsal bone). In the present embodiment, an example is shown in which the three-dimensional measuring device 3 (position acquisition unit) acquires the three-dimensional coordinate values of the toe with the vicinity of the head of the second metatarsal bone as the toe. The 3D coordinate values of the toe may be acquired by using a site other than the vicinity (for example, the vicinity of the third metatarsal bone) as the toe.

なお、距離画像に基づき、三次元計測装置3において予め定められた身体特徴点の位置を取得する方法は、種々の任意の方法が用いられてよい。例えば、特許文献1に開示された方法や、学習済みモデル(識別器)に対象物の距離情報を入力することで推定する方法等が用いられてよい。また、位置取得部により取得される3次元座標値(X,Y,Z)は、距離画像センサ(赤外線カメラ)を原点とした3次元直交座標系(距離画像センサの3次元座標系)における座標値である。 Various arbitrary methods may be used as a method for acquiring the positions of predetermined body feature points in the three-dimensional measuring device 3 based on the distance image. For example, a method disclosed in Patent Document 1, a method of estimating by inputting distance information of a target object to a trained model (classifier), or the like may be used. Further, the three-dimensional coordinate values (X c , Y c , Z c ) acquired by the position acquisition unit are in a three-dimensional orthogonal coordinate system (three-dimensional coordinate system of the range image sensor) with the range image sensor (infrared camera) as the origin. ).

三次元計測装置3が対象物のRGB画像を取得するビデオカメラを備える場合、位置取得部により取得された身体特徴点の位置がRGB画像上に描画されるようにしてもよい。但し、距離画像センサ(赤外線カメラ)及びビデオカメラは、夫々、独立した2次元座標系に関連付けられている。換言すると、距離画像は、距離画像(距離画像センサ)の2次元座標系によって規定され、RGB画像は、RGB画像(ビデオカメラ)の2次元座標系によって規定される。また、3次元座標系についても同様である。そのため、位置取得部により取得された3次元座標値をRGB画像上に描画する場合は、座標系間で座標を変換可能な変換関数を用いることで、身体特徴点の位置の3次元座標値をRGB画像上の座標値に変換することが必要となる。なお、座標系の交換については、非特許文献2においても記載されており、任意の座標変換が行われてよい。 If the three-dimensional measuring device 3 is equipped with a video camera that acquires an RGB image of the object, the position of the body feature point acquired by the position acquiring unit may be drawn on the RGB image. However, the range image sensor (infrared camera) and video camera are each associated with an independent two-dimensional coordinate system. In other words, the range image is defined by the two-dimensional coordinate system of the range image (range image sensor), and the RGB image is defined by the two-dimensional coordinate system of the RGB image (video camera). The same applies to the three-dimensional coordinate system. Therefore, when the three-dimensional coordinate values acquired by the position acquiring unit are drawn on an RGB image, the three-dimensional coordinate values of the positions of the body feature points are obtained by using a conversion function capable of converting coordinates between coordinate systems. Conversion to coordinate values on an RGB image is required. The exchange of coordinate systems is also described in Non-Patent Document 2, and any coordinate transformation may be performed.

これより、本実施形態に係るシステム9は、上述した三次元計測装置3を備えることで、対象物(被験者)の表面(体表)上の複数の観測点についての2次元座標値(u,v,d)と、対象物(被験者)の予め定められた身体特徴点の位置についての3次元座標値(X,Y,Z)を取得する。 From this, the system 9 according to the present embodiment is provided with the three-dimensional measuring device 3 described above, so that the two-dimensional coordinate values (u, v, d) and three-dimensional coordinate values (X c , Y c , Z c ) for the positions of predetermined body feature points of the object (subject) are acquired.

なお、三次元計測装置3における各種計算は、プロセッサ及びメモリ等を備えるコンピューターによって実行される。例えば、三次元計測装置3は、カメラやセンサ等によって取得された情報を取り込む入力部、入力部により取り込まれた情報及び処理部で計算された情報を記憶する記憶部、入力部により取り込まれた情報に対して各種処理を施すための処理部等を備える。これらの機能部(入力部、記憶部、処理部)の各機能は、汎用プロセッサによって実行されるが、これらの機能の一部または全部は、1または複数の専用プロセッサによって実行されてもよい。また、これらの機能の一部または全部は、クラウド技術等を用いて、遠隔地に設置された装置や、分散設置された複数の装置によって実行されてもよい。 Various calculations in the three-dimensional measuring device 3 are executed by a computer including a processor, memory, and the like. For example, the three-dimensional measuring device 3 includes an input unit that captures information acquired by a camera, a sensor, etc., a storage unit that stores information captured by the input unit and information calculated by the processing unit, and a storage unit that stores information captured by the input unit. A processing unit and the like are provided for performing various types of processing on information. Each function of these functional units (input unit, storage unit, processing unit) is executed by a general-purpose processor, but part or all of these functions may be executed by one or more dedicated processors. Also, part or all of these functions may be executed by a remotely installed device or a plurality of distributed devices using cloud technology or the like.

特徴点位置推定装置1は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、EEPROM(Electrically Erasable and Programmable Read Only Memory)やHDD(Hard Disk Drive)等の記憶装置14、NIC(Network Interface Card)等の通信装置15、キーボード等の入力装置16及びディスプレイ等の出力装置17等を備えるコンピューターである。但し、特徴点位置推定装置1の具体的なハードウェア構成に関しては、実施の態様に応じて適宜省略や置換、追加が可能である。また、特徴点位置推定装置1は、単一の筐体からなる装置に限定されない。特徴点位置推定装置1は、所謂クラウドや分散コンピューティングの技術等を用いた、複数の装置によって実現されてよい。 The feature point position estimation device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, and an EEPROM (Electrically Erasable and Programmable Read Only Memory). , HDD (Hard Disk Drive), etc. , a communication device 15 such as a NIC (Network Interface Card), an input device 16 such as a keyboard, and an output device 17 such as a display. However, the specific hardware configuration of the feature point position estimation device 1 can be appropriately omitted, replaced, or added according to the mode of implementation. Moreover, the feature point position estimation device 1 is not limited to a device consisting of a single housing. The feature point position estimation device 1 may be realized by a plurality of devices using so-called cloud or distributed computing technology.

特徴点位置推定装置1は、三次元計測装置3において取得された、対象物(被験者)の表面(体表)上の観測点の座標位置及び当該対象物の予め定められた身体特徴点の座標位置に基づき、所望の(所定の)身体特徴点の位置を推定する装置である。本実施形態では、特徴点位置推定装置1において、被験者の足関節及びつま先の座標位置と、足部の複数の体表点(観測点)の座標位置に基づき、足部にある第五中足骨の位置を推定する場合について例示する。なお、本実施形態では、別装置(別筐体)である特徴点位置推定装置1と三次元計測装置3を例示するが、この例に限定されず、システム9は、特徴点位置推定装置1が備える機能と三次元計測装置3が備える機能を備える一の装置(筐体)を備えるようにしてよい。 The feature point position estimation device 1 is the coordinate position of the observation point on the surface (body surface) of the object (subject) and the coordinates of the predetermined body feature points of the object, which are acquired by the three-dimensional measurement device 3. A device for estimating the position of a desired (predetermined) body feature point based on the position. In this embodiment, in the feature point position estimation device 1, based on the coordinate positions of the ankle joints and toes of the subject and the coordinate positions of a plurality of body surface points (observation points) of the foot, A case of estimating the position of a bone is illustrated. In this embodiment, the feature point position estimation device 1 and the three-dimensional measurement device 3, which are separate devices (separate housings), are exemplified. and the functions of the three-dimensional measuring device 3 may be provided.

図2は、本実施形態に係る特徴点位置推定装置の機能構成の概略を示す図である。特徴点位置推定装置1は、記憶装置14に記録されているプログラムが、RAM13に読み出され、CPU11によって実行されて、特徴点位置推定装置1に備えられた各ハードウェアが制御されることで、位置入力部21、記憶部22、条件入力部23、平面算出部24、抽出部25、近似部26、位置推定部27、座標系生成部28及び角度算出部29を備える装置として機能する。なお、本実施形態及び後述する他の実施形態では、特徴点位置推定装置1の備える各機能は、汎用プロセッサであるCPU11によって実行されるが、これらの機能の一部又は全部は、1又は複数の専用プロセッサによって実行されてもよい。また、特徴点位置推定装置1が備える各機能部は、単一の筐体からなる装置(1の装置)に実装されるものに限定されず、遠隔に及び/又は分散して(例えば、クラウド上に)実装されてもよい。 FIG. 2 is a diagram showing an outline of the functional configuration of the feature point position estimation device according to this embodiment. In the feature point position estimation device 1, a program recorded in the storage device 14 is read out to the RAM 13, executed by the CPU 11, and each hardware provided in the feature point position estimation device 1 is controlled. , a position input unit 21 , a storage unit 22 , a condition input unit 23 , a plane calculation unit 24 , an extraction unit 25 , an approximation unit 26 , a position estimation unit 27 , a coordinate system generation unit 28 and an angle calculation unit 29 . In addition, in this embodiment and other embodiments described later, each function provided in the feature point position estimation device 1 is executed by the CPU 11, which is a general-purpose processor. may be executed by a dedicated processor of In addition, each functional unit provided in the feature point position estimation device 1 is not limited to being implemented in a device consisting of a single housing (one device), but is remotely and/or distributed (for example, cloud above) may be implemented.

位置入力部21は、被験者の体表上の複数の観測点及び当該被験者の三次元計測装置3(距離画像センサ)において予め定められている(設定されている)身体特徴点の座標データを入力する。具体的には、位置入力部21は、被験者の複数の体表点(観測点)の3次元座標値と、三次元計測装置3において予め定められた身体特徴点のうち当該被験者の当該対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値を入力する。ここで、人体は、主に、頭部、体幹部(体幹上部、体幹中部、体幹下部)、上腕部、前腕部、手部、大腿部、下腿部、足部等の複数の体節(部位)に分類され、体節間には体節同士を連結する関節が存在する。以下、位置を推定したい(所望の)身体特徴点(以下、「第三身体特徴点」と称する)が位置する体節を「対象の体節」と称する。 The position input unit 21 inputs coordinate data of a plurality of observation points on the subject's body surface and predetermined (set) body feature points in the three-dimensional measuring device 3 (distance image sensor) of the subject. do. Specifically, the position input unit 21 inputs the three-dimensional coordinate values of a plurality of body surface points (observation points) of the subject and the target of the subject among the predetermined body feature points in the three-dimensional measuring device 3. Three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment and a second body feature point specifying the position of the second side of the body segment are entered. Here, the human body mainly includes a plurality of parts such as the head, trunk (upper trunk, middle trunk, lower trunk), upper arm, forearm, hand, thigh, lower leg, and foot. There are joints between the body segments that connect the body segments. Hereinafter, the segment where the (desired) body feature point whose position is to be estimated (hereinafter referred to as the "third body feature point") is located is referred to as the "target body segment".

位置入力部21は、まず、少なくとも対象の体節における被験者の複数の体表点についての2次元座標値(u,v,d)を三次元計測装置3から取得する。本実施形態では、位置入力部21は、第五中足骨(第三身体特徴点)が位置する足部(対象の体節)における被験者の複数の体表点についての2次元座標値を取得する。そして、位置入力部21は、後述する記憶部22に記憶された変換関数を用いることで、被験者の体表点についての2次元座標値(u,v,d)を、距離画像センサの3次元座標系の座標値(3次元座標値(X,Y,Z))に変換する。これより、位置入力部21は、被験者の体表点のうち少なくとも対象の体節における複数の体表点についての3次元座標値を取得(入力)する。なお、2次元座標値から3次元座標値に変換する方法には任意の方法が用いられてよく、例えば、DLT法(Direct Linear Transformation method)等が用いられてよい。 The position input unit 21 first acquires, from the three-dimensional measuring device 3, two-dimensional coordinate values (u, v, d) of at least a plurality of body surface points of the subject in the target segment. In the present embodiment, the position input unit 21 acquires two-dimensional coordinate values for a plurality of body surface points of the subject on the foot (target segment) where the fifth metatarsal (third body feature point) is located. do. Then, the position input unit 21 converts the two-dimensional coordinate values (u, v, d) of the subject's body surface points to the three-dimensional coordinates of the distance image sensor by using a conversion function stored in the storage unit 22, which will be described later. Convert to coordinate system coordinate values (three-dimensional coordinate values (X c , Y c , Z c )). Accordingly, the position input unit 21 acquires (inputs) three-dimensional coordinate values of at least a plurality of body surface points of the target body segment among the body surface points of the subject. Note that any method may be used as a method for converting from two-dimensional coordinate values to three-dimensional coordinate values, and for example, the DLT method (Direct Linear Transformation method) may be used.

また、位置入力部21は、三次元計測装置3から、対象物(被験者)の対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の位置についての3次元座標値(X,Y,Z)を取得することで入力する。本実施形態では、位置取入力21は、少なくとも、第五中足骨(第三身体特徴点)が位置する足部(対象の体節)の第一側の位置を特定するつま先と足部の第二側の位置を特定する足関節の3次元座標値を入力する場合について例示する。なお、第三身体特徴点により近接する身体特徴点を第一身体特徴点とし、近接しない身体特徴点を第二身体特徴点とする。そのため、本実施形態では、第一身体特徴点を第五中足骨に近接するつま先とし、第二身体特徴点を足関節とする。以下、位置入力部21により入力される、第一身体特徴点の3次元座標値をP((P=(p1x,p1y,p1z))とし、第二身体特徴点の3次元座標値をP((P=(p2x,p2y,p2z))とする。 In addition, the position input unit 21 receives from the three-dimensional measuring device 3 a first body feature point that specifies the position of the first side of the body segment of the object (subject) and a second body feature point that specifies the position of the second side. Input is performed by acquiring three-dimensional coordinate values (X c , Y c , Z c ) for the positions of body feature points. In this embodiment, the locating input 21 is at least the position of the toe and foot that specifies the position of the first side of the foot (target segment) where the fifth metatarsal (third body feature point) is located. A case of inputting the three-dimensional coordinate values of the ankle joint specifying the position of the second side will be exemplified. A body feature point that is closer to the third body feature point is set as the first body feature point, and a body feature point that is not closer is set as the second body feature point. Therefore, in this embodiment, the first body feature point is the toe close to the fifth metatarsal, and the second body feature point is the ankle joint. Hereinafter, let the three-dimensional coordinate value of the first body feature point input by the position input unit 21 be P 1 ((P 1 =(p 1x , p 1y , p 1z ))), and the three-dimensional coordinate value of the second body feature point Let the coordinate value be P 2 ((P 2 =(p 2x , p 2y , p 2z ))).

なお、本実施形態では、位置入力部21は、三次元計測装置3から座標データを取得することで、各点の3次元座標値を入力することとしたが、座標データを取得する方法は、上述した例に限定されるものではなく、予め計測(取得)された座標データを保存した記録装置14や外部記録媒体(不図示)から、当該座標データを取得するようにしてもよい。また、位置入力部21は、距離画像センサ内で予め定められている全ての身体特徴点についての3次元座標値を取得するのではなく、第一身体特徴点及び第二身体特徴点の3次元座標値のみを取得するようにしてもよい。 In this embodiment, the position input unit 21 acquires coordinate data from the three-dimensional measuring device 3 to input the three-dimensional coordinate values of each point. The coordinate data is not limited to the example described above, and the coordinate data may be acquired from the recording device 14 or an external recording medium (not shown) that stores coordinate data measured (acquired) in advance. In addition, the position input unit 21 does not obtain the three-dimensional coordinate values of all predetermined body feature points in the distance image sensor, but instead obtains the three-dimensional coordinate values of the first body feature point and the second body feature point. Alternatively, only coordinate values may be obtained.

記憶部22は、変換関数を記憶する。変換関数は、距離画像センサにより取得された2次元座標値(u,v,d)を、距離画像センサ(赤外線カメラ)を原点とした3次元直交座標系における座標値である3次元座標値(X,Y,Z)に変換するための関数である。記憶部22は、例えば、三次元計測装置3(距離画像センサ)において、予め定められた関節等の身体特徴点の位置の3次元座標値を取得する際に使用される変換関数を記憶する。 The storage unit 22 stores conversion functions. The conversion function transforms the two-dimensional coordinate values (u, v, d) obtained by the range image sensor into three-dimensional coordinate values ( X c , Y c , Z c ). The storage unit 22 stores, for example, a conversion function that is used in the three-dimensional measuring device 3 (distance image sensor) to acquire the three-dimensional coordinate values of the positions of predetermined body feature points such as joints.

条件入力部23は、第三身体特徴点の位置を推定(決定)するために用いられる特徴点決定条件を入力する。特徴点決定条件は、対象の体節に位置する第三身体特徴点が、当該対象の体節の体表点を近似した空間楕円(3次元空間での近似楕円)上のどの位置に存在するかを示す(指定する)条件である。例えば、特徴点決定条件は、第三身体特徴点が、空間楕円の4つの頂点(長軸側の2つの頂点及び短軸側の2つの頂点)のうちの何れかの頂点であることを指定した条件である。但し、特徴点決定条件において指定される空間楕円上の第三身体特徴点の位置は、空間楕円の頂点に限定されず、頂点以外の空間楕円上の点であってもよい。上述の通り、人間の四肢等の体表面は楕円に近似可能であることから、本実施形態では、体表点を楕円により近似することとする。なお、対象の体節の体表点を近似した空間楕円については、詳細を後述する。 The condition input unit 23 inputs feature point determination conditions used to estimate (determine) the positions of the third body feature points. The feature point determination condition is the position of the third body feature point located on the body segment of interest on a spatial ellipse (approximate ellipse in three-dimensional space) that approximates the body surface point of the body segment of interest. It is a condition that indicates (specifies) whether For example, the feature point determination condition specifies that the third body feature point is one of the four vertices of the spatial ellipse (two vertices on the major axis side and two vertices on the minor axis side). It is a condition that However, the position of the third body feature point on the spatial ellipse specified in the feature point determination condition is not limited to the vertex of the spatial ellipse, and may be a point on the spatial ellipse other than the vertex. As described above, the body surface of human limbs and the like can be approximated to an ellipse, so in this embodiment, body surface points are approximated by an ellipse. Details of the spatial ellipse approximating the body surface points of the target segment will be described later.

特徴点決定条件は、第三身体特徴点が位置する対象の体節の形状(体表面の形状)により決定される。例えば、特徴点決定条件は、第一身体特徴点を通り第一身体特徴点と第二身体特徴点を結ぶ直線に垂直な平面における対象の体節の体表の形状(断面形状)を楕円で近似すると想定した場合に、第三身体特徴点が当該楕円のどの位置に存在するかが、動作解析を行う作業者等のユーザにより判断されることで決定される。そして、決定された特徴点決定条件がユーザにより特徴点位置推定装置1に入力されることで、条件入力部23が特徴点決定条件を取得することが可能となる。 The feature point determination condition is determined by the shape of the target segment (body surface shape) where the third body feature point is located. For example, the feature point determination condition is that the shape (cross-sectional shape) of the body surface of the target segment on a plane perpendicular to a straight line passing through the first body feature point and connecting the first body feature point and the second body feature point is represented by an ellipse. Assuming approximation, the position of the third body feature point on the ellipse is determined by a user such as a worker who performs motion analysis. Then, the user inputs the determined feature point determination condition to the feature point position estimation device 1, so that the condition input unit 23 can acquire the feature point determination condition.

例えば、第三身体特徴点が第五中足骨である場合、第一身体特徴点(つま先)を通り第一身体特徴点(つま先)と第二身体特徴点(足関節)を結ぶ直線に垂直な平面における対象の体節(足部)の体表の形状は、足部を前方(つま先側)から見て横長楕円の形状(横アーチ形状)に近似していると判断(判別)することが可能である。そのため、第五中足骨の特徴点決定条件は、空間楕円の長軸の頂点(体の外側方向の頂点)と決定(設定)される。具体的には、右足の第五中足骨の特徴点決定条件には、空間楕円の長軸の頂点のうち、後述する対象の体節の3次元直交座標系(図4参照)における左右軸(Y軸)の+方向にある頂点が設定される。一方、左足の第五中足骨の特徴点決定条件には、当該左右軸の-方向にある頂点が設定される。 For example, if the third body characteristic point is the fifth metatarsal bone, it is perpendicular to the straight line that passes through the first body characteristic point (toe) and connects the first body characteristic point (toe) and the second body characteristic point (ankle joint). Judgment (discrimination) that the shape of the body surface of the target body segment (foot) on a flat plane resembles a horizontally long oval shape (horizontal arch shape) when the foot is viewed from the front (toe side). is possible. Therefore, the characteristic point determination condition for the fifth metatarsal is determined (set) as the vertex of the major axis of the spatial ellipse (the vertex in the lateral direction of the body). Specifically, the feature point determination condition for the fifth metatarsal bone of the right foot includes the left-right axis in the three-dimensional Cartesian coordinate system (see FIG. 4) of the target body segment, which will be described later, among the vertices of the long axis of the spatial ellipse. A vertex in the + direction of (Y-axis) is set. On the other hand, the feature point determination condition of the fifth metatarsal bone of the left foot is set to a vertex in the - direction of the left/right axis.

なお、条件入力部23が特徴点決定条件を取得する方法は、上述した例に限定されず、記録装置14や外部記録媒体(不図示)から、予めユーザにより決定(設定)され保存された特徴点決定条件を取得するようにしてもよい。また、上述では、ユーザにより特徴点決定条件が決定される例を示したが、第三身体特徴点の名前や特徴等の属性に基づき、自動で、第三身体特徴点の楕円上における位置が判別され、特徴点決定条件が決定されるようにしてもよい。 Note that the method by which the condition input unit 23 acquires the feature point determination conditions is not limited to the above-described example. You may make it acquire point determination conditions. Also, in the above description, an example is shown in which the user determines the feature point determination conditions. It may be discriminated and a feature point determination condition may be determined.

平面算出部24は、第一身体特徴点を通る3次元空間での平面であって、第一身体特徴点と第二身体特徴点を結ぶ直線に垂直な平面(平面A)を算出(生成)する。本実施形態では、まず、平面算出部24は、第一身体特徴点の3次元座標値P((P=(p1x,p1y,p1z))と第二身体特徴点の3次元座標値P((P=(p2x,p2y,p2z))により、第二身体特徴点から第一身体特徴点に向かう単位方向ベクトルV(V=(v,v,v))を算出する。そして、平面算出部24は、第一身体特徴点の3次元座標値Pを通り、単位方向ベクトルVに垂直な平面A(単位方向ベクトルVを法線ベクトルとする平面)の方程式を、下記の式(1)により算出する。 The plane calculation unit 24 calculates (generates) a plane (plane A) that is a plane in a three-dimensional space that passes through the first body feature point and is perpendicular to a straight line that connects the first body feature point and the second body feature point. do. In this embodiment, the plane calculator 24 first calculates the three-dimensional coordinate value P 1 ((P 1 =(p 1x , p 1y , p 1z )) of the first body feature point and the three-dimensional coordinate value of the second body feature point. A unit direction vector V ( V= ( v x , v y , v Then, the plane calculator 24 calculates a plane A passing through the three-dimensional coordinate value P1 of the first body feature point and perpendicular to the unit direction vector V (the normal vector plane) is calculated by the following equation (1).

Figure 2023085658000002
Figure 2023085658000002

図3は、本実施形態に係る足部の一例を示す図である。図3に示すように、本実施形態では、式(1)を用いることで、つま先(第一身体特徴点)を通り、足関節(第二身体特徴点)からつま先(第一身体特徴点)に向かうベクトルVに垂直な平面Aの方程式が算出される。なお、平面Aを求める際に用いられる法線ベクトルは、第二身体特徴点から第一身体特徴点(又は、第一身体特徴点から第二身体特徴点)に向かうベクトルであれば、単位ベクトルに限定されない。 FIG. 3 is a diagram showing an example of a leg portion according to the present embodiment. As shown in FIG. 3, in this embodiment, by using the formula (1), from the toe (first body feature point) to the ankle joint (second body feature point) to the toe (first body feature point) The equation for the plane A perpendicular to the vector V pointing to is calculated. It should be noted that the normal vector used when obtaining the plane A is a unit vector if it is a vector directed from the second body feature point to the first body feature point (or from the first body feature point to the second body feature point) is not limited to

抽出部25は、対象の体節における複数の体表点(観測点)のうち、平面算出部24により算出(生成)された平面Aからの距離が所定範囲内である体表点を、平面A上の体表点(以下、「平面上体表点」)として抽出する。具体的には、抽出部25は、平面Aの方程式(式(1))と、位置入力部21により入力された被験者の各体表点の3次元座標値(X,Y,Z)を用いることで、平面Aと各体表点との間の距離を算出する。そして、抽出部25は、算出された距離が所定範囲(例えば、数ミリ)以下である体表点(平面Aに近い体表点)を平面A上の体表点とみなし、平面上体表点として抽出する。このようにして抽出された平面上体表点の各点の座標値を(x,y,z)(jは2からNの自然数、Nは平面上体表点の数)とし、平面上体表点(x,y,z)の集合を、以下、「点群A」と称する。なお、(x,y,z)は、平面A上の体表点とみなされた体表点についての、位置入力部21により取得された3次元座標値(X,Y,Z)である。 The extraction unit 25 extracts, from among the plurality of body surface points (observation points) in the target segment, body surface points whose distance from the plane A calculated (generated) by the plane calculation unit 24 is within a predetermined range. It is extracted as a body surface point on A (hereinafter referred to as a “planar body surface point”). Specifically, the extraction unit 25 extracts the equation of the plane A (equation (1)) and the three-dimensional coordinate values ( Xc , Yc , Zc) of each body surface point of the subject input by the position input unit 21. ) to calculate the distance between the plane A and each body surface point. Then, the extraction unit 25 regards body surface points (body surface points close to the plane A) for which the calculated distance is within a predetermined range (for example, several millimeters) as body surface points on the plane A, and Extract as points. Let the coordinate values of each point of the planar body surface points extracted in this way be (x j , y j , z j ) (j is a natural number from 2 to N, N is the number of planar body surface points), A set of planar body surface points (x j , y j , z j ) is hereinafter referred to as "point cloud A". Note that (x j , y j , z j ) are three-dimensional coordinate values (X c , Y c , Z c ).

近似部26は、抽出部25により抽出された複数の平面上体表点(点群A)の3次元座標値(x,y,z)を用いて、点群A(点群Aが位置する体表)を、3次元空間上の楕円である空間楕円に近似する。近似部26は、点群Aを空間楕円に近似することで、点群Aを近似する空間楕円上の点の3次元座標値を取得可能とする。本実施形態では、近似部26は、点群Aを近似する空間楕円上の点の3次元座標値を取得可能な方程式を求める。 The approximation unit 26 uses the three-dimensional coordinate values (x j , y j , z j ) of the plurality of planar body surface points (point group A) extracted by the extraction unit 25 to obtain the point group A (point group A is located) is approximated to a spatial ellipse, which is an ellipse in three-dimensional space. By approximating the point group A to a spatial ellipse, the approximation unit 26 can acquire three-dimensional coordinate values of points on the spatial ellipse that approximates the point group A. FIG. In the present embodiment, the approximation unit 26 obtains an equation capable of acquiring three-dimensional coordinate values of points on a spatial ellipse that approximates the point group A. FIG.

ここで、3次元空間上の楕円(空間楕円)は、2次元空間(XY平面)上の、中心を原点とする傾きのない楕円(以下、「平面楕円」と称する)に対して回転移動と並進移動を行うことで得られる楕円として表現することが可能である。換言すると、平面楕円上の点に対して回転移動と並進移動を行うことで、平面楕円上の点を空間楕円上の点に移動(座標変換)することが可能である。そのため、本実施形態では、点群Aを近似する空間楕円を、平面楕円が3次元空間上に移動したものとし、近似部26は、空間楕円上の点の3次元座標値を取得可能な方程式として、3次元空間上に移動することで空間楕円と一致する平面楕円の方程式と、平面楕円上の点を空間楕円上の点に変換する方程式(以下、「変換方程式」と称する)を求める。 Here, an ellipse in three-dimensional space (space ellipse) is rotated and moved with respect to an ellipse with no inclination (hereinafter referred to as “plane ellipse”) with the center as the origin in two-dimensional space (XY plane). It can be expressed as an ellipse obtained by performing translational movement. In other words, it is possible to move (coordinate transformation) a point on the planar ellipse to a point on the spatial ellipse by rotating and translating the point on the planar ellipse. Therefore, in the present embodiment, the space ellipse that approximates the point group A is assumed to be a plane ellipse moved in a three-dimensional space, and the approximation unit 26 obtains the three-dimensional coordinate values of the points on the space ellipse using an equation , an equation for a planar ellipse that matches the spatial ellipse by moving in three-dimensional space, and an equation for transforming a point on the planar ellipse to a point on the spatial ellipse (hereinafter referred to as a "transformation equation") are obtained.

なお、本実施形態では、平面楕円の方程式として、下記の式(2)に示された方程式を用いる。なお、式(2)において、a、bは夫々、楕円の長半径及び短半径の何れかであり、Sは面積が1の楕円を基準とした空間楕円の拡大倍率(1を含む)であり、abπ=1、z=0とする。 In addition, in this embodiment, the equation shown in the following equation (2) is used as the equation of the planar ellipse. In equation (2), a and b are either the major radius or the minor radius of the ellipse, and S is the enlargement magnification (including 1) of the spatial ellipse based on the ellipse whose area is 1. , abπ=1 and z=0.

Figure 2023085658000003
Figure 2023085658000003

また、平面楕円上の点Q’に対して回転行列Mによる回転移動及び並進ベクトルTによる並進移動が行われた結果、点Q’が空間楕円上の点Qに移動(変換)された場合、当該空間楕円上の点Qの3次元座標値(x,y,z)は、点Q’の座標値(x’’,y’’,z’’)、回転行列M及び並進ベクトルT(T=(x’’’,y’’’,z’’’))を用いて、下記の式(3)により算出される。なお、式(3)は、上述した、平面楕円上の点を空間楕円上の点に変換(移動)するための方程式(変換方程式)である。 Further, when the point Q' on the plane ellipse is rotated by the rotation matrix M and translated by the translation vector T, and as a result, the point Q' is moved (transformed) to the point Q on the spatial ellipse, The three-dimensional coordinate values (x, y, z) of the point Q on the spatial ellipse are the coordinate values (x '' , y '' , z '' ) of the point Q', the rotation matrix M, and the translation vector T (T =(x ''' , y ''' , z ''' )) and is calculated by the following equation (3). Equation (3) is an equation (transformation equation) for transforming (moving) points on the planar ellipse to points on the spatial ellipse.

Figure 2023085658000004
Figure 2023085658000004

本実施形態では、回転行列Mを、任意の軸(単位ベクトルn=(n,n,n))周りにαだけ回転させるための回転行列とし、下記の式(4)により示す。 In this embodiment, the rotation matrix M is a rotation matrix for rotating α around an arbitrary axis (unit vector n=(n x , ny , nz )) and is expressed by the following equation (4).

Figure 2023085658000005
Figure 2023085658000005

本実施形態では、上述した、3次元空間上に移動することで空間楕円と一致する平面楕円の方程式(式(2))と変換方程式(式(3))を求めるため、回転行列Mによる回転移動及び並進ベクトルTによる並進移動を行うことで点群Aに移動する点群A’(回転移動及び並進移動前の点群)を平面楕円で近似するよう最適化する。つまり、点群A’と平面楕円の方程式との誤差を最小化するよう最適化する。近似部26は、まず、下記の式(5)に、点群Aの各点の座標値(x,y,z)を入力することで、点群Aの各点の座標値を、点群A’の各点の座標値(x ’’,y ’’,z ’’)に変換する。なお、式(5)において、Mは点群A’が点群Aに移動するために回転した量を表す回転行列であり、(x’’’,y’’’,z’’’)は点群A’が点群Aに移動するために並進移動(平行移動)した量を表す並進ベクトルである。 In the present embodiment, in order to obtain the above-described planar ellipse equation (equation (2)) and transformation equation (equation (3)) that match the space ellipse by moving in the three-dimensional space, rotation by the rotation matrix M A point group A′ (point group before rotational movement and translational movement) that moves to point group A by performing movement and translational movement by translation vector T is optimized so as to be approximated by a plane ellipse. That is, optimization is performed to minimize the error between the point group A' and the plane ellipse equation. The approximation unit 26 first inputs the coordinate values (x j , y j , z j ) of each point of the point group A into the following equation (5), thereby obtaining the coordinate values of each point of the point group A as , to the coordinate values (x j , y j , z j ) of each point in the point group A′. In equation (5), M is a rotation matrix representing the amount of rotation for point group A' to move to point group A, and (x ''' , y ''' , z ''' ) is It is a translation vector representing the amount of translational movement (parallel movement) for point group A′ to move to point group A. FIG.

Figure 2023085658000006
Figure 2023085658000006

そして、近似部26は、式(5)により示される点群A’の座標値(x ’’,y ’’,z ’’)及び式(2)により示される平面楕円の方程式を用いて、点群A’と平面楕円との誤差を最小にするよう最適化することで、平面楕円の方程式及び変換方程式を求める。本実施形態では、点群A’と平面楕円との誤差(誤差関数)として、下記の式(6)に示された、点群A’の各点と平面楕円との誤差の絶対値の和を用いる。近似部26は、式(6)に示された誤差関数を最小にするよう最適化を行うことにより、各パラメーターを最適化する(最適パラメーターの決定)。なお、式(6)で示された誤差関数を最小にするために最適化されるパラメーターは、並進ベクトルの各成分(x’’’,y’’’,z’’’)、単位ベクトルnの各成分(n,n,n)、α、a、b、Sである。 Then, the approximation unit 26 calculates the coordinate values (x j , y j , z j ) of the point group A′ represented by Equation (5) and the plane ellipse equation represented by Equation (2) as By optimizing to minimize the error between the point group A' and the plane ellipse, the equation of the plane ellipse and the transformation equation are obtained. In this embodiment, as the error (error function) between the point group A' and the plane ellipse, the sum of the absolute values of the errors between each point of the point group A' and the plane ellipse shown in the following equation (6) Use The approximation unit 26 optimizes each parameter by optimizing so as to minimize the error function shown in Equation (6) (determination of optimum parameters). The parameters optimized to minimize the error function shown in Equation (6) are the translation vector components (x ''' , y ''' , z ''' ), the unit vector n are the components (n x , n y , n z ), α, a, b, S of .

Figure 2023085658000007
Figure 2023085658000007

このように、近似部26は、式(6)に示された誤差関数を最小化するよう最適化を行うことで、平面楕円が点群A’を最もよく近似するよう最適化された各パラメーター(x’’’、y’’’、z’’’、n、n、n、α、a、b、S)の値を算出(決定)することが可能となる。これより、平面楕円の方程式(式(2))及び変換方程式(式(3))を算出可能となり、点群Aを空間楕円に近似することが可能となる。なお、式(6)に示された誤差関数を最小化する方法には、任意の最適化手法が用いられてよく、例えば、表計算ソフトの機能の一種であるソルバーを用いる方法が用いられてよい。また、最小化する対象である誤差関数は、式(6)に示された誤差関数に限定されず、点群Aと空間楕円との誤差又は点群A’と平面楕円との誤差を示す誤差であれば任意であり、例えば、点群A’と平面楕円との誤差の二乗和(二乗和誤差)であってもよい。 In this way, the approximation unit 26 optimizes each parameter so that the plane ellipse best approximates the point group A' by optimizing to minimize the error function shown in Equation (6). It is possible to calculate (determine) the values of (x ''' , y ''' , z ''' , nx , ny , nz , α, a, b, S). From this, it becomes possible to calculate the plane ellipse equation (formula (2)) and the transformation equation (formula (3)), and to approximate the point group A to a spatial ellipse. Any optimization method may be used as the method of minimizing the error function shown in Equation (6). For example, a method using a solver, which is a function of spreadsheet software, may be used. good. Further, the error function to be minimized is not limited to the error function shown in Equation (6). For example, it may be the sum of squares of the error between the point group A' and the plane ellipse (sum of squares error).

また、本実施形態では、平面楕円の方程式と変換方程式を求めることで、点群Aを近似する空間楕円上の点の3次元座標値を取得可能とするが、当該空間楕円上の3次元座標値を取得可能な方法であれば、直接、空間楕円の方程式を求める等の任意の方法が用いられてよい。また、平面A上に空間楕円が存在するという制約条件の下で点群Aが空間楕円に近似されるようにしてもよい。 Further, in this embodiment, by obtaining the equation of the plane ellipse and the transformation equation, it is possible to acquire the three-dimensional coordinate values of the points on the spatial ellipse that approximate the point group A. Any method, such as directly determining the equation of the spatial ellipse, may be used as long as the value can be obtained. Also, under the constraint that a spatial ellipse exists on the plane A, the point group A may be approximated to a spatial ellipse.

位置推定部27は、点群Aを近似した空間楕円と特徴点決定条件に基づき、第三身体特徴点の位置(3次元座標値)を推定する(推定座標値の算出)。本実施形態では、位置推定部27は、平面楕円上の点を空間楕円上の点に変換する変換方程式(式(3))に、特徴点決定条件に対応する平面楕円上の座標値を入力することで空間楕円上の座標値を算出し、算出された空間楕円上の座標値を第三身体特徴点の推定座標値(3次元座標値)として決定する。具体的には、位置推定部27は、特徴点決定条件に対応する第三身体特徴点の平面楕円上の座標値(p,q,r)を算出(決定)する。そして、位置推定部27は、算出された(p,q,r)を式(3)における平面楕円上の座標値(x’’,y’’,z’’)に入力することで空間楕円上の座標値(x,y,z)を算出し、算出された空間楕円上の座標値(x,y,z)を第三身体特徴点の3次元座標値(推定座標値)として決定する。 The position estimation unit 27 estimates the position (three-dimensional coordinate value) of the third body feature point based on the space ellipse that approximates the point group A and the feature point determination condition (calculation of the estimated coordinate value). In this embodiment, the position estimating unit 27 inputs the coordinate values on the plane ellipse corresponding to the feature point determination conditions to the transformation equation (equation (3)) for transforming points on the plane ellipse into points on the spatial ellipse. By doing so, the coordinate values on the space ellipse are calculated, and the calculated coordinate values on the space ellipse are determined as the estimated coordinate values (three-dimensional coordinate values) of the third body feature point. Specifically, the position estimating section 27 calculates (determines) the coordinate values (p, q, r) on the plane ellipse of the third body feature point corresponding to the feature point determination condition. Then, the position estimating unit 27 inputs the calculated (p, q, r) to the coordinate values (x '' , y '' , z '' ) on the plane ellipse in the equation (3) so that the spatial ellipse The upper coordinate values (x, y, z) are calculated, and the calculated coordinate values (x, y, z) on the space ellipse are determined as the three-dimensional coordinate values (estimated coordinate values) of the third body feature point. .

上述の通り、足部にある第五中足骨が第三身体特徴点である場合、特徴点決定条件として、足部の体表点を近似した空間楕円の「長軸の頂点(体の外側方向の頂点)」が設定される(図3参照)。そのため、例えば、2次元空間におけるx軸が平面楕円の長軸方向(a>b)であり、x軸の+方向が距離画像センサから見て右水平方向の場合、位置推定部27は、右足の第五中足骨の平面楕円上の座標値(p,q,r)を、(p,q,r)=(-aS,0,0)により算出(決定)し、左足の第五中足骨の平面楕円上の座標値(p,q,r)を、(p,q,r)=(aS,0,0)により算出する。ここで、Sは、上述の通り、面積が1の楕円を基準にした拡大倍率である。そして、位置推定部27は、式(3)における平面楕円上の座標(x’’,y’’,z’’)に、第五中足骨の特徴点決定条件に対応する平面楕円上の座標値(aS,0,0)及び(-aS,0,0)夫々を入力することで、右足及び左足の第五中足骨夫々の3次元座標値(x,y,z)を算出する。 As described above, when the fifth metatarsal bone in the foot is the third body feature point, as a feature point determination condition, the "vertex of the major axis (outer side of the body)" of the spatial ellipse that approximates the body surface point of the foot direction vertex)” is set (see FIG. 3). Therefore, for example, if the x-axis in the two-dimensional space is the major axis direction of the plane ellipse (a>b) and the + direction of the x-axis is the right horizontal direction as seen from the range image sensor, the position estimation unit 27 detects the right foot The coordinate values (p, q, r) on the plane ellipse of the fifth metatarsal bone are calculated (determined) by (p, q, r) = (-aS, 0, 0), and the fifth middle of the left foot The coordinate values (p, q, r) on the planar ellipse of the foot bone are calculated by (p, q, r)=(aS, 0, 0). Here, S is an enlargement magnification based on an ellipse having an area of 1, as described above. Then, the position estimating unit 27 assigns coordinates (x '' , y '' , z '' ) on the planar ellipse in Equation (3) to By inputting the coordinate values (aS, 0, 0) and (-aS, 0, 0) respectively, the three-dimensional coordinate values (x, y, z) of the fifth metatarsal of the right foot and left foot are calculated. .

なお、例えば、特徴点決定条件が、第三身体特徴点が空間楕円の短軸の頂点であることを示す条件であり、2次元空間におけるx軸が平面楕円の長軸方向(a>b)である場合は、第三身体特徴点の平面楕円上の座標値(p,q,r)は、(p,q,r)=(0,bS,0)又は(0,-bS,0)により算出(決定)される。また、近似部26により空間楕円の方程式が直接算出された場合は、当該空間楕円方程式及び特徴点決定条件を用いて第三身体特徴点の3次元座標値が算出(推定)されてよい。このように、本実施形態では、空間楕円上の点の3次元座標値を取得可能な方程式として平面楕円の方程式と変換方程式を求めることにより、所望する第三身体特徴点の位置を平面楕円上の座標値(例えば、(aS,0,0))として指定することが可能となる。 Note that, for example, the feature point determination condition is a condition indicating that the third body feature point is the vertex of the short axis of the space ellipse, and the x-axis in the two-dimensional space is the major axis direction of the planar ellipse (a>b). , the coordinate values (p, q, r) on the plane ellipse of the third body feature point are (p, q, r) = (0, bS, 0) or (0, -bS, 0) Calculated (determined) by Further, when the spatial ellipse equation is directly calculated by the approximation unit 26, the three-dimensional coordinate values of the third body feature points may be calculated (estimated) using the spatial ellipse equation and feature point determination conditions. As described above, in this embodiment, the position of the desired third body feature point is determined on the plane ellipse by obtaining the equation of the plane ellipse and the transformation equation as equations capable of acquiring the three-dimensional coordinate values of the points on the space ellipse. can be specified as coordinate values (for example, (aS, 0, 0)).

座標系生成部28は、体節における3軸を決定することで当該体節の座標系(直交座標系)を生成する。座標系生成部28は、第一身体特徴点及び第二身体特徴点の3次元座標値と、推定された第三身体特徴点の3次元座標値を用いて、対象の体節の座標系を生成する。例えば、座標系生成部28は、第二身体特徴点から第一身体特徴点に向かう単位ベクトルを第一軸、第一身体特徴点、第二身体特徴点及び推定された第三身体特徴点を通る平面の単位法線ベクトルを第二軸、第一軸と第二軸に垂直な単位ベクトルを第三軸として決定する。例えば、第三身体特徴点が第五中足骨の場合、足関節からつま先に向かう単位ベクトルが第一軸、足関節、つま先及び推定された第五中足骨点を通る平面の単位法線ベクトルが第二軸、第一軸と第二軸に垂直な単位ベクトルが第三軸として決定される。 The coordinate system generation unit 28 generates a coordinate system (orthogonal coordinate system) of the body segment by determining the three axes of the body segment. The coordinate system generation unit 28 uses the three-dimensional coordinate values of the first body feature point and the second body feature point and the estimated three-dimensional coordinate value of the third body feature point to create the coordinate system of the body segment of interest. Generate. For example, the coordinate system generation unit 28 sets the unit vector from the second body feature point to the first body feature point as the first axis, the first body feature point, the second body feature point, and the estimated third body feature point as Determine the unit normal vector of the plane passing through as the second axis, and the unit vector perpendicular to the first and second axes as the third axis. For example, if the third body feature point is the fifth metatarsal bone, the unit vector from the ankle joint to the toe is the unit normal of the plane passing through the first axis, the ankle joint, the toe and the estimated fifth metatarsal point. The vector is determined as the second axis and the unit vector perpendicular to the first and second axes as the third axis.

これより、座標系生成部28は、決定された第一軸、第二軸及び第三軸からなる座標系を、対象の体節の座標系として決定(生成)する。なお、対象の体節の座標系における3軸は、上記で示された3軸に限定されず、第一身体特徴点、第二身体特徴点及び第三身体特徴点に基づく任意の3軸であってよい。また、座標系生成部28は、対象の体節に加え、当該対象の体節以外の他の体節についての座標系を生成するようにしてもよい。 From this, the coordinate system generation unit 28 determines (generates) the coordinate system composed of the determined first, second, and third axes as the coordinate system of the body segment of interest. In addition, the three axes in the coordinate system of the target body segment are not limited to the three axes shown above, and any three axes based on the first body feature point, the second body feature point, and the third body feature point It's okay. In addition to the target body segment, the coordinate system generation unit 28 may also generate a coordinate system for body segments other than the target body segment.

角度算出部29は、座標系生成部28により生成された対象の体節の座標系と、他の座標系(直交座標系)とのオイラー角を算出することで、当該対象の体節の運動に伴う関節角度を算出する。ここで、対象の体節の運動とは、内反、外反、内転、外転、屈曲、伸展、内旋、外旋、回内、回外、底屈、背屈等の体節の運動であり、当該運動に伴う関節角度は、内反角度、外反角度、内転角度、外転角度、屈曲角度、伸展角度、内旋角度、外旋角度、回内角度、回外角度、底屈角度、背屈角度等の角度である。所望の(所定の)関節角度を算出するために適切な他の座標系(基準の座標系)と、座標系生成部28により生成された対象の体節の座標系とのオイラー角を算出することで、当該所望の関節角度を算出することが可能となる。なお、他の座標系は、例えば、対象の体節に隣接する体節等の他の体節の座標系やグローバル座標系等任意の座標系であってよい。また、他の座標系には、記憶装置14に記憶されている他の座標系を用いてもよいし、座標系生成部28により生成された、対象の体節以外の他の体節の座標系を用いてもよい。 The angle calculation unit 29 calculates the Euler angle between the coordinate system of the target body segment generated by the coordinate system generation unit 28 and another coordinate system (orthogonal coordinate system) to calculate the motion of the target body segment. Calculate the joint angle associated with Here, the movement of the target segment includes varus, valgus, adduction, abduction, flexion, extension, internal rotation, external rotation, pronation, supination, plantarflexion, dorsiflexion, etc. varus angle, valgus angle, adduction angle, abduction angle, flexion angle, extension angle, internal rotation angle, external rotation angle, pronation angle, supination angle, Angles such as plantar flexion angle and dorsiflexion angle. Calculate Euler angles between another coordinate system (reference coordinate system) suitable for calculating a desired (predetermined) joint angle and the coordinate system of the body segment of interest generated by the coordinate system generator 28 This makes it possible to calculate the desired joint angle. Note that the other coordinate system may be any coordinate system such as a coordinate system of other body segments, such as a body segment adjacent to the target body segment, or a global coordinate system. Further, as the other coordinate system, another coordinate system stored in the storage device 14 may be used, or the coordinates of the body segment other than the target body segment generated by the coordinate system generation unit 28 may be used. system may be used.

以下、第三身体特徴点が第五中足骨である場合に、推定された第五中足骨の3次元座標値を用いて足部(足関節)の内外反の角度を算出する場合について例示する。なお、本実施形態で、足関節の内外反の角度とは、踵から第二中足骨の軸回りの回転角を意味する。 The following is a case of calculating the varus/valgus angle of the foot (ankle joint) using the estimated three-dimensional coordinate value of the fifth metatarsal when the third body feature point is the fifth metatarsal. Illustrate. In this embodiment, the angle of varus/valgus of the ankle joint means the angle of rotation about the axis from the heel to the second metatarsal bone.

図4は、本実施形態に係る関節角度算出の一例を示す図である。図4には、対象の体節(足部)における座標系(X軸、Y軸、Z軸)と、他の座標系(基準の座標系)である、股関節、膝関節及び足関節の3点により決定される3軸からなる座標系(X’軸、Y’軸、Z’軸)を示す。なお、図4に示す通り、本実施形態では、対象の体節における座標系を、第一身体特徴点、第二身体特徴点及び第三身体特徴点を通る面を水平面とし、第二身体特徴点から第一身体特徴点に向かう軸を前後軸(X軸)とした座標系とする。また、本実施形態では、基準の座標系を、足部以外の下肢を一つの体節(剛体)として扱った仮想的な体節(剛体)の座標系とし、具体的には、股関節、膝関節及び足関節を通る面を矢状面とし、足関節から膝関節へ向かう方向を上下軸(Z’軸)とした座標系とする。なお、膝関節は1軸関節であるため、股関節、膝関節、足関節が作る平面を、一つの仮想的な剛体として扱うことが可能である。 FIG. 4 is a diagram showing an example of joint angle calculation according to the present embodiment. FIG. 4 shows the coordinate system (X-axis, Y-axis, Z-axis) in the body segment (foot) of interest, and three other coordinate systems (reference coordinate system): the hip joint, the knee joint, and the ankle joint. A coordinate system consisting of three axes (X'-axis, Y'-axis, Z'-axis) determined by points is shown. As shown in FIG. 4, in the present embodiment, the coordinate system in the body segment of interest is defined as a horizontal plane passing through the first body feature point, the second body feature point, and the third body feature point. A coordinate system with the front-rear axis (X-axis) extending from the point to the first body feature point. Further, in the present embodiment, the reference coordinate system is a virtual segment (rigid body) coordinate system in which the lower limbs other than the foot are treated as one body segment (rigid body). The sagittal plane is the plane passing through the joint and the ankle joint, and the vertical axis (Z′-axis) is the direction from the ankle joint to the knee joint. Since the knee joint is a uniaxial joint, it is possible to treat the plane formed by the hip joint, knee joint, and ankle joint as one virtual rigid body.

角度算出部29は、図4に示された、対象の体節(足部)の座標系と、基準の座標系との間のオイラー角(回転角)を算出する。具体的には、角度算出部29は、対象の体節の座標系が自身の座標軸(X軸(前後軸)、Y軸(左右軸)、Z軸(上下軸))周りの回転を行うことで基準の体節の座標系と一致するためのオイラー角を算出する。本実施形態では、角度算出部29は、対象の体節の座標系を基準の体節の座標系に一致させるための回転行列であり、X軸周りの回転角をφ、Y軸周りの回転角をθ、Z軸周りの回転角をΨとする3軸周りの回転行列Qを算出することで、基準の体節の座標系と一致するためのオイラー角を算出する。これより、角度算出部29は、求められたX軸(前後軸)周りの回転角φを、足関節の内外反の角度として決定(算出)することが可能である。なお、今回のオイラー角は上記のような回転順序を採用したが、回転順序はこれに限らない。 The angle calculator 29 calculates Euler angles (rotational angles) between the coordinate system of the body segment (leg) of interest and the reference coordinate system shown in FIG. Specifically, the angle calculator 29 rotates the coordinate system of the body segment of interest around its own coordinate axes (X axis (front-back axis), Y axis (left-right axis), Z-axis (vertical axis)). Calculate the Euler angles for matching with the coordinate system of the reference segment. In this embodiment, the angle calculator 29 is a rotation matrix for matching the coordinate system of the target body segment with the coordinate system of the reference body segment. By calculating a rotation matrix Q about three axes, where the angle is θ and the rotation angle about the Z axis is Ψ, the Euler angles for matching with the coordinate system of the reference body segment are calculated. From this, the angle calculation unit 29 can determine (calculate) the calculated rotation angle φ about the X-axis (front-rear axis) as the varus-valgus angle of the ankle joint. Although the above rotation order is used for the Euler angles this time, the rotation order is not limited to this.

なお、本実施形態では、内外反の角度を算出するために対象の体節の座標系とのオイラー角を算出する基準の座標系を、股関節、膝関節及び足関節の3点により決定される座標系としたが、基準の座標系の求め方はこの方法に限定されない。例えば、上述した身体特徴点の位置を推定する方法を用いて、対象の体節とは異なる他の体節(以下、「基準の体節」と称する)の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点に基づき、基準の体節における第三身体特徴点の座標位置を推定する。そして、基準の体節についての第一身体特徴点、第二身体特徴点及び第三身体特徴点の3点により決定された座標系を、基準の座標系としてもよい。 In this embodiment, the reference coordinate system for calculating the Euler angle with respect to the coordinate system of the target body segment for calculating the varus/valgus angle is determined by the three points of the hip joint, the knee joint, and the ankle joint. Although the coordinate system is used, the method of obtaining the reference coordinate system is not limited to this method. For example, using the above-described method of estimating the position of a body feature point, the first side position of another body segment (hereinafter referred to as a "reference body segment") different from the target body segment is identified. Based on the one body feature point and the second body feature point specifying the position of the second side, the coordinate position of the third body feature point on the reference body segment is estimated. Then, the coordinate system determined by the three points of the first body feature point, the second body feature point, and the third body feature point for the reference body segment may be used as the reference coordinate system.

例えば、第一身体特徴点を膝関節、第二身体特徴点を足関節とし、特徴点決定条件を短軸の頂点(体の外側方向の頂点)とすることで、位置推定部27により、膝関節外側上顆の3次元座標値が算出される。そして、座標系生成部28は、対象の体節の座標系に加えて、膝関節、足関節及び膝関節外側上顆の3点により基準の座標系(基準の体節である下腿部の座標系)を生成する。具体的には、膝関節、足関節及び膝関節外側上顆を通る面を前額面とし、足関節から膝関節へ向かう方向を上下軸とする座標系が生成される。そして、角度算出部29により、座標系生成部28により生成された対象の体節の座標系と基準の体節の座標系との間のオイラー角を算出することで、足部の内外反の角度を算出することが可能となる。 For example, the first body feature point is the knee joint, the second body feature point is the ankle joint, and the feature point determination condition is the vertex of the short axis (vertex in the lateral direction of the body). Three-dimensional coordinate values of the lateral epicondyle of the joint are calculated. In addition to the coordinate system of the target segment, the coordinate system generation unit 28 creates a reference coordinate system (of the crus, which is the reference segment) by three points of the knee joint, the ankle joint, and the lateral epicondyle of the knee joint. coordinate system). Specifically, a coordinate system is generated in which a plane passing through the knee joint, the ankle joint, and the lateral epicondyle of the knee joint is the frontal plane, and the vertical axis is the direction from the ankle joint to the knee joint. Then, the angle calculator 29 calculates the Euler angle between the coordinate system of the target body segment generated by the coordinate system generator 28 and the coordinate system of the reference body segment, thereby calculating the varus/valgus of the foot. It becomes possible to calculate the angle.

なお、角度算出部29は、算出されたオイラー角自体を所望の関節角度として算出してもよいし、算出されたオイラー角の極性(プラスマイナスの符号)を反転し、反転された角度を所望の関節角度として算出してもよい。例えば、上述した方法により算出される足関節の内外反の角度は、足部の前後軸を足関節からつま先に向かう方向を+、右ねじ方向の回転を+として算出(出力)される。ここで、右足の場合は、外反する場合に、足部(足関節)の前後軸回りの回転方向が-方向となり、内反する場合に、足部の前後軸回りの回転方向が+方向となる。一方、左足の場合は、外反する場合に、足部(足関節)の前後軸回りの回転方向が+方向となり、内反する場合に、足部の前後軸回りの回転方向が-方向となる。そのため、外反方向を+とする外反角を算出(出力)したい場合は、角度算出部29は、算出された右足の前後軸回りのオイラー角に-1倍することで右足の外反角を算出し、算出された左足の前後軸回りのオイラー角に+1倍することで、左足の外反角を算出する。このように、角度算出部29は、所望の関節角度の極性を、座標系間のオイラー角の極性と一致させることで、所望の関節角度が算出されるよう種々の処理を行うようにして良い。 The angle calculation unit 29 may calculate the calculated Euler angle itself as the desired joint angle, or may invert the polarity (plus or minus sign) of the calculated Euler angle and convert the inverted angle to the desired joint angle. may be calculated as a joint angle of For example, the varus/valgus angle of the ankle joint calculated by the method described above is calculated (output) with the anteroposterior axis of the foot being + in the direction from the ankle joint to the toe, and the rotation in the right screw direction being +. Here, in the case of the right foot, the direction of rotation of the foot (ankle joint) around the front-rear axis is the negative direction when the foot is valgus, and the direction of rotation around the front-rear axis of the foot is the + direction when the foot is inversion. . On the other hand, in the case of the left foot, the direction of rotation of the foot (ankle joint) around the front-rear axis is + in the case of valgus, and the direction of rotation around the front-rear axis of the foot is the - direction in the case of inversion. Therefore, when it is desired to calculate (output) a valgus angle with the valgus direction being positive, the angle calculator 29 multiplies the calculated Euler angle about the front-rear axis of the right foot by -1 to obtain the valgus angle of the right foot. is calculated, and the calculated Euler angle about the front-rear axis of the left foot is multiplied by +1 to calculate the valgus angle of the left foot. In this way, the angle calculation unit 29 may perform various processes to calculate the desired joint angles by matching the polarities of the desired joint angles with the polarities of the Euler angles between the coordinate systems. .

上述した通り、本実施形態では、三次元計測装置3により取得された足関節及びつま先の3次元座標値を用いて、第五中足骨の位置(3次元座標値)を推定する方法を例示した。但し、推定する対象(第三身体特徴点)は、第五中足骨に限定されるものではなく、その他の任意の身体特徴点であってよい。例えば、本実施形態において、特徴点決定条件を長軸の頂点(体の外側方向の頂点)ではなく長軸の頂点(体の内側方向の頂点)とすることで、第一中足骨の位置を推定可能である。よって、例えば、右足の第五中足骨の特徴点決定条件に対応する平面楕円上の座標値(p,q,r)が(p,q,r)=(-aS,0,0)である場合、右足の第一中足骨の特徴点決定条件に対応する平面楕円上の座標値(p,q,r)は(p,q,r)=(aS,0,0)となる。このように、対象の体節を足部、第一身体特徴点をつま先、第二身体特徴点を足関節とすることで、足部のつま先側の幅方向の端部の位置(3次元座標値)を推定することが可能となる。 As described above, this embodiment exemplifies a method of estimating the position of the fifth metatarsal (three-dimensional coordinate values) using the three-dimensional coordinate values of the ankle joint and the toe acquired by the three-dimensional measuring device 3. bottom. However, the target to be estimated (third body feature point) is not limited to the fifth metatarsal bone, and may be any other body feature point. For example, in the present embodiment, the position of the first metatarsal bone is determined by setting the feature point determination condition to the vertex of the long axis (vertex in the lateral direction of the body) instead of the vertex of the long axis (vertex in the lateral direction of the body). can be estimated. Therefore, for example, the coordinate values (p, q, r) on the plane ellipse corresponding to the feature point determination condition of the fifth metatarsal bone of the right foot are (p, q, r) = (-aS, 0, 0) In this case, the coordinate values (p, q, r) on the plane ellipse corresponding to the feature point determination condition of the first metatarsal bone of the right foot are (p, q, r)=(aS, 0, 0). In this way, by setting the target segment as the foot, the first body feature point as the toe, and the second body feature point as the ankle joint, the position (three-dimensional coordinate value) can be estimated.

また、第一身体特徴点を足関節とし、第二身体特徴点を膝関節とすることで、内果や外果の位置を推定可能である。また、第一身体特徴点を手首関節とし、第二身体特徴点を肘関節とすることで、橈骨茎状突起や尺骨茎状突起の位置を推定可能である。また、第一身体特徴点を膝関節とし、第二身体特徴点を股関節とすることで、大腿骨内側上顆や大腿骨外側上顆の位置を推定可能である。更に、第一身体特徴点を肘関節とし、第二身体特徴点を肩関節とすることで、上腕骨内側上顆や上腕骨外側上顆の位置を推定することが可能である。なお、各場合において、特徴点決定条件は当業者によって適宜設定され得る。 Also, by setting the ankle joint as the first body feature point and the knee joint as the second body feature point, it is possible to estimate the positions of the medial malleolus and the lateral malleolus. Further, by setting the wrist joint as the first body feature point and the elbow joint as the second body feature point, it is possible to estimate the positions of the radial styloid process and the ulnar styloid process. Further, by setting the knee joint as the first body feature point and the hip joint as the second body feature point, it is possible to estimate the positions of the femoral medial epicondyle and femoral lateral epicondyle. Furthermore, by setting the elbow joint as the first body feature point and the shoulder joint as the second body feature point, it is possible to estimate the positions of the medial epicondyle of the humerus and the lateral epicondyle of the humerus. In each case, the feature point determination condition can be appropriately set by a person skilled in the art.

<処理の流れ>
次に、本実施形態に係る特徴点位置推定装置1によって実行される特徴点位置推定処理の流れを説明する。なお、以下に説明する処理の具体的な内容及び処理順序は、本開示を実施するための一例である。具体的な処理内容及び処理順序は、本開示の実施の態様に応じて適宜選択されてよい。
<Process flow>
Next, a flow of feature point position estimation processing executed by the feature point position estimation device 1 according to the present embodiment will be described. Note that the specific content and processing order of the processing described below are examples for carrying out the present disclosure. Specific processing contents and processing order may be appropriately selected according to the embodiment of the present disclosure.

図5は、本実施形態に係る特徴点位置推定処理の流れの概要を示すフローチャートである。本フローチャートに示された処理は、特徴点位置推定装置1において、ユーザ等による、対象物(被験者)の座標データを取得する指示や、身体特徴点を推定する指示等が受け付けられたことを契機として実行される。なお、以下では、第三身体特徴点を足部にある第五中足骨とし、第五中足骨の位置を推定するための処理を例示する。 FIG. 5 is a flowchart showing an overview of the flow of feature point position estimation processing according to this embodiment. The processing shown in this flowchart is triggered when an instruction to acquire coordinate data of an object (subject), an instruction to estimate a body feature point, or the like is received from a user or the like in the feature point position estimation device 1. is executed as In the following, the third body feature point is assumed to be the fifth metatarsal bone in the foot, and the process for estimating the position of the fifth metatarsal bone will be exemplified.

ステップS101では、三次元計測装置3において予め定められた身体特徴点(第一身体特徴点、第二身体特徴点)の3次元座標値が入力される。位置入力部21は、被験者の第五中足骨が位置する足部(対象の体節)の第一側の位置を特定するつま先(第一身体特徴点)及び第二側の位置を特定する足関節(第二身体特徴点)の3次元座標値を三次元計測装置3から取得し、入力する。その後、処理はステップS102へ進む。 In step S101, the three-dimensional coordinate values of predetermined body feature points (first body feature point, second body feature point) are input to the three-dimensional measuring device 3 . The position input unit 21 specifies the toe (first body feature point) that specifies the position of the first side of the foot (target segment) where the fifth metatarsal of the subject is located, and the position of the second side. The three-dimensional coordinate values of the ankle joint (second body feature point) are obtained from the three-dimensional measuring device 3 and input. After that, the process proceeds to step S102.

ステップS102では、対象物(被験者)の体表点(観測点)の3次元座標値が入力される。位置入力部21は、被験者の足部(対象の体節)における複数の体表点についての2次元座標値を三次元計測装置3から取得し、記憶部22に記憶された変換関数を用いることで、当該体表点についての2次元座標値を3次元座標値に変換することで、被験者の足部における複数の体表点の3次元座標値を取得(入力)する。その後、処理はステップS103へ進む。 In step S102, the three-dimensional coordinate values of the body surface points (observation points) of the object (subject) are input. The position input unit 21 acquires two-dimensional coordinate values of a plurality of body surface points on the subject's foot (target segment) from the three-dimensional measuring device 3, and uses the conversion function stored in the storage unit 22. By converting the two-dimensional coordinate values of the body surface points into three-dimensional coordinate values, the three-dimensional coordinate values of a plurality of body surface points on the feet of the subject are acquired (input). After that, the process proceeds to step S103.

ステップS103では、特徴点決定条件が入力される。条件入力部23は、第五中足骨(第三身体特徴点)が足部の体表点を近似した空間楕円の長軸の頂点(体の外側方向の頂点)に位置することを示す第五中足骨の特徴点決定条件を入力する。その後、処理はステップS104へ進む。なお、ステップS101~ステップS103は、順不同である。 In step S103, a feature point determination condition is input. The condition input unit 23 inputs the fifth metatarsal bone (third body feature point) to indicate that the fifth metatarsal bone (third body feature point) is positioned at the vertex of the major axis of the spatial ellipse (vertex in the lateral direction of the body) that approximates the body surface point of the foot. Enter the criteria for determining the feature points of the five metatarsals. After that, the process proceeds to step S104. The order of steps S101 to S103 is random.

ステップS104では、第一身体特徴点を通り、第一身体特徴点と第二身体特徴点を結ぶ直線に垂直な平面(平面A)が算出される。平面算出部24は、ステップS101で入力されたつま先(第一身体特徴点)及び足関節(第二身体特徴点)の3次元座標値を用いることで、つま先を通る平面であり、足関節からつま先に向かうベクトルVに垂直な平面Aの方程式を算出する。その後、処理はステップS105へ進む。 In step S104, a plane (plane A) passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is calculated. The plane calculation unit 24 uses the three-dimensional coordinate values of the toe (first body feature point) and the ankle joint (second body feature point) input in step S101 to obtain a plane passing through the toe and from the ankle joint. Compute the equation for the plane A perpendicular to the vector V pointing to the toes. After that, the process proceeds to step S105.

ステップS105では、平面Aからの距離が所定範囲内の体表点(点群A)が抽出される。抽出部25は、ステップS104で算出された平面Aの方程式(式(1))と、ステップS102で入力された各体表点の3次元座標値を用いることで、平面Aからの距離が所定範囲内である体表点を、平面A上の体表点である平面上体表点(点群A)として抽出する。その後、処理はステップS106へ進む。 In step S105, body surface points (point group A) whose distance from plane A is within a predetermined range are extracted. The extraction unit 25 uses the equation of the plane A (equation (1)) calculated in step S104 and the three-dimensional coordinate values of the points on the body surface input in step S102 to obtain a predetermined distance from the plane A. The body surface points within the range are extracted as body surface points on the plane A (point group A). After that, the process proceeds to step S106.

ステップS106では、点群Aを空間楕円に近似する。近似部26は、点群Aを空間楕円で近似し、点群Aを近似する当該空間楕円上の点の3次元座標値を取得可能な方程式として、3次元空間上に移動することで空間楕円と一致する平面楕円の方程式と、平面楕円上の点を空間楕円上の点に変換する変換方程式を求める。その後、処理はステップS107へ進む。 In step S106, the point group A is approximated to a spatial ellipse. The approximation unit 26 approximates the point group A with a spatial ellipse, and uses an equation capable of acquiring the three-dimensional coordinate values of the points on the spatial ellipse that approximates the point group A by moving the spatial ellipse on the three-dimensional space. Find the equation of the planar ellipse consistent with , and the transformation equation that transforms points on the planar ellipse to points on the spatial ellipse. After that, the process proceeds to step S107.

ステップS107では、特徴点決定条件と空間楕円に基づき、第三身体特徴点の位置が推定される。位置推定部27は、ステップS103で入力された第五中足骨の特徴点決定条件に対応する平面楕円上の座標値を求め、求められた座標値をステップS106で求められた変換方程式に入力することで、第五中足骨の3次元座標値を算出する。そして、位置推定部27は、算出された3次元座標値を第五中足骨の推定位置として決定する。その後、本フローチャートに示された処理は終了する。 In step S107, the position of the third body feature point is estimated based on the feature point determination condition and the spatial ellipse. The position estimating unit 27 obtains the coordinate values on the plane ellipse corresponding to the fifth metatarsal feature point determination condition input in step S103, and inputs the obtained coordinate values into the conversion equation obtained in step S106. By doing so, the three-dimensional coordinate value of the fifth metatarsal is calculated. Then, the position estimator 27 determines the calculated three-dimensional coordinate value as the estimated position of the fifth metatarsal bone. After that, the processing shown in this flowchart ends.

図6は、本実施形態に係る角度算出処理の流れの概要を示すフローチャートである。本フローチャートに示された処理は、特徴点位置推定装置1において、対象の体節における第三身体特徴点の位置が推定されたこと等を契機として実行される。なお、以下では、第三身体特徴点を足部にある第五中足骨とし、足関節の内外反の角度を算出するための処理を例示する。 FIG. 6 is a flowchart showing an overview of the flow of angle calculation processing according to this embodiment. The process shown in this flowchart is executed when the feature point position estimation device 1 estimates the position of the third body feature point in the body segment of interest. In the following, the fifth metatarsal bone in the foot is assumed to be the third body feature point, and the processing for calculating the varus/valgus angle of the ankle joint will be exemplified.

ステップS201では、対象の体節の直交座標系が生成される。座標系生成部27は、足関節からつま先に向かう単位ベクトルを第一軸、足関節、つま先及び推定された第五中足骨点を通る平面の単位法線ベクトルを第二軸、第一軸と第二軸に垂直な単位ベクトルを第三軸として決定し、第一軸、第二軸及び第三軸からなる座標系を、対象の体節の座標系として生成する。その後、処理はステップS202へ進む。 In step S201, a Cartesian coordinate system of the body segment of interest is generated. The coordinate system generation unit 27 sets the unit vector from the ankle joint to the toe as the first axis, and the unit normal vector of the plane passing through the ankle joint, the toe, and the estimated fifth metatarsal bone point as the second axis and the first axis. and the unit vector perpendicular to the second axis is determined as the third axis, and a coordinate system consisting of the first, second and third axes is generated as the coordinate system of the body segment of interest. After that, the process proceeds to step S202.

ステップS202では、関節角度が算出される。角度算出部29は、ステップS201で生成された対象の体節(足部)の座標系と基準の座標系(図4参照)との間のオイラー角を算出し、算出されたオイラー角のうちX軸(前後軸)周りの回転角φを、足関節の内外反の角度として決定(算出)する。その後、本フローチャートに示された処理は終了する。 In step S202, joint angles are calculated. The angle calculation unit 29 calculates the Euler angles between the coordinate system of the target body segment (leg) generated in step S201 and the reference coordinate system (see FIG. 4). A rotation angle φ about the X-axis (anterior-posterior axis) is determined (calculated) as the varus-valgus angle of the ankle joint. After that, the processing shown in this flowchart ends.

本実施形態に示されたシステムによれば、対象物の対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、当該対象の体節における複数の体表点の3次元座標値と、特徴点決定条件を用いることで、当該対象の体節に位置する第三身体特徴点の3次元座標位置を推定することが可能となる。 According to the system shown in this embodiment, the three-dimensional By using the coordinate values, the three-dimensional coordinate values of a plurality of body surface points in the body segment of the target, and the feature point determination condition, the three-dimensional coordinate position of the third body feature point located in the body segment of the target is determined. It is possible to estimate

上述の通り、距離画像センサ(三次元計測装置)では、距離画像センサで予め定められた身体特徴点の位置座標を取得することが可能である。例えば、下肢においては、通常、距離画像センサ内で設定された身体特徴点である膝関節、足関節及びつま先の3次元座標値が距離画像センサから出力される。これらの身体特徴点の3次元座標値によれば、投影角を用いて足関節の底屈・背屈の角度及び内転・外転の角度を算出することは可能であるが、足関節の内反・外反の角度を正しく算出することは困難である。この足関節の内反・外反の角度を算出するためには、上述の通り、体節間(体節の座標系間)のオイラー角を求めることが必要であるため、体節(足部)においてもう一点(身体特徴点)の3次元座標値を取得することが必要となる。このように、3軸周りの関節角度を算出するためには、2つの身体特徴点の座標値しか出力されない体節(例えば、足関節とつま先の座標値しか出力されない足部)においてもう一つの身体特徴点(仮想点)の位置を推定する必要がある。 As described above, the distance image sensor (three-dimensional measuring device) can acquire the position coordinates of predetermined body feature points with the distance image sensor. For example, in the case of lower limbs, the range image sensor normally outputs three-dimensional coordinate values of knee joints, ankle joints, and toes, which are body feature points set in the range image sensor. Although it is possible to calculate plantar flexion/dorsiflexion angles and adduction/abduction angles of the ankle joint using projection angles from the three-dimensional coordinate values of these body feature points, It is difficult to correctly calculate the varus/valgus angle. In order to calculate the varus/valgus angle of the ankle joint, as described above, it is necessary to obtain the Euler angles between the body segments (between the coordinate systems of the body segments). ), it is necessary to acquire the three-dimensional coordinate values of another point (body feature point). In this way, in order to calculate the joint angles about the three axes, in the body segment where only the coordinate values of two body feature points are output (for example, the foot where only the coordinate values of the ankle joint and the toe are output), another It is necessary to estimate the positions of body feature points (virtual points).

本実施形態に示されたシステムによれば、上述の通り、対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値から、当該対象の体節に位置する第三身体特徴点の3次元座標位置を推定することが可能である。そのため、距離画像センサから2つの身体特徴点の3次元座標値しか出力されない体節において、もう一つの身体特徴点(距離画像センサで予め定められていない身体特徴点)の位置を推定可能となる。これより、当該体節における座標系を生成することが可能となり、当該体節の座標系と他の座標系との間のオイラー角を算出することで、投影角では算出困難な関節角度を算出することが可能となる。このように、通常、算出することが困難な関節角度を算出可能とすることで、生体に対する理解を深めることが可能となり、リハビリテーション医療や整形外科治療等に貢献することが可能となる。 According to the system shown in this embodiment, as described above, three of the first body minutia to specify the position of the first side of the target segment and the second body minutia to specify the position of the second side. From the dimensional coordinate values, it is possible to estimate the 3D coordinate position of the third body feature point located on the body segment of the subject. Therefore, it is possible to estimate the position of another body feature point (body feature point not predetermined by the range image sensor) in a body segment where only the three-dimensional coordinate values of two body feature points are output from the range image sensor. . As a result, it is possible to generate a coordinate system for the relevant body segment, and by calculating the Euler angles between the coordinate system of the relevant body segment and another coordinate system, joint angles that are difficult to calculate using projection angles can be calculated. It becomes possible to In this way, by making it possible to calculate the joint angle, which is usually difficult to calculate, it becomes possible to deepen understanding of the living body, and it becomes possible to contribute to rehabilitation medicine, orthopedic treatment, and the like.

1 特徴点位置推定装置
3 三次元計測装置
9 システム
1 feature point position estimation device 3 three-dimensional measuring device 9 system

Claims (14)

対象物の対象の体節に位置する所定の身体特徴点の3次元座標値を推定する特徴点位置推定装置であって、
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力手段と、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出手段と、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出手段と、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似手段と、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力手段と、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定手段と、
を備える、特徴点位置推定装置。
A feature point position estimation device for estimating a three-dimensional coordinate value of a predetermined body feature point located in a target segment of an object,
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; position input means for inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. Plane calculation means for calculating using three-dimensional coordinate values of body feature points;
extracting means for extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
approximation means for approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
condition input means for inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
position estimating means for estimating three-dimensional coordinate values of the predetermined body feature points based on the spatial ellipse and the conditions;
A feature point position estimation device comprising:
前記近似手段は、前記空間楕円上の点の3次元座標値を取得可能な方程式を求める、
請求項1に記載の特徴点位置推定装置。
The approximation means obtains an equation capable of obtaining three-dimensional coordinate values of points on the spatial ellipse,
The feature point position estimation device according to claim 1.
前記条件は、前記第一身体特徴点を通り、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面における対象の体節の体表の形状を楕円で近似すると想定した場合に、前記第三身体特徴点が該楕円のどの位置に存在するかに基づき決定された条件である、
請求項1又は2に記載の特徴点位置推定装置。
The condition was assumed to approximate the shape of the body surface of the target segment on a plane that passes through the first body feature point and is perpendicular to a straight line that connects the first body feature point and the second body feature point with an ellipse. In the case, a condition determined based on where the third body feature point is located in the ellipse,
The feature point position estimation device according to claim 1 or 2.
前記条件は、前記所定の身体特徴点が、前記空間楕円の頂点の何れかであることを示す条件である、
請求項1~3の何れか一項に記載の特徴点位置推定装置。
The condition is a condition indicating that the predetermined body feature point is one of the vertices of the spatial ellipse.
The feature point position estimation device according to any one of claims 1 to 3.
前記第一身体特徴点及び前記第二身体特徴点の3次元座標値は、対象物の予め定められた身体特徴点の3次元座標値を測定する三次元計測装置において取得された座標値である、
請求項1~4の何れか一項に記載の特徴点位置推定装置。
The three-dimensional coordinate values of the first body feature point and the second body feature point are coordinate values obtained by a three-dimensional measuring device that measures the three-dimensional coordinate values of predetermined body feature points of an object. ,
The feature point position estimation device according to any one of claims 1 to 4.
前記第一身体特徴点及び前記第二身体特徴点の3次元座標値と、推定された前記所定の身体特徴点の3次元座標値を用いて、前記対象の体節の直交座標系を生成する座標系生成手段を更に備える、
請求項1~5の何れか一項に記載の特徴点位置推定装置。
Using the three-dimensional coordinate values of the first body feature point and the second body feature point and the estimated three-dimensional coordinate value of the predetermined body feature point, an orthogonal coordinate system of the target body segment is generated. further comprising a coordinate system generating means;
The feature point position estimation device according to any one of claims 1 to 5.
前記対象の体節の直交座標系と他の直交座標系とのオイラー角を算出することで、前記対象の体節の運動に伴う関節角度を算出する角度算出手段を更に備える、
請求項6に記載の特徴点位置推定装置。
Further comprising angle calculation means for calculating a joint angle associated with the movement of the target body segment by calculating Euler angles between the Cartesian coordinate system of the target body segment and another Cartesian coordinate system,
The feature point position estimation device according to claim 6.
前記対象の体節は、複数の対象の体節のうちの一つであり、
前記位置入力手段、前記平面算出手段、前記近似手段、前記条件入力手段、前記特徴点位置推定手段及び座標系生成手段は夫々、前記対象の体節に加え、複数の対象の体節のうちの該対象の体節とは異なる他の体節について処理を行い、
前記角度算出手段は、前記対象の体節の直交座標系と前記他の体節の直交座標系とのオイラー角を算出することで、該対象の体節の運動に伴う関節角度を算出する、
請求項7に記載の特徴点位置推定装置。
the body segment of the subject is one of a plurality of body segments of the subject;
Each of the position input means, the plane calculation means, the approximation means, the condition input means, the feature point position estimation means, and the coordinate system generation means, in addition to the target body segment, performing processing on other body segments different from the body segment of the subject;
The angle calculation means calculates a joint angle associated with the movement of the target body segment by calculating an Euler angle between the orthogonal coordinate system of the target body segment and the orthogonal coordinate system of the other body segment.
The feature point position estimation device according to claim 7.
前記近似手段は、前記空間楕円上の点の3次元座標値を取得可能な方程式として、3次元空間上に移動することで前記空間楕円と一致する2次元空間の楕円の方程式と、該2次元空間の楕円上の点を前記空間楕円上の点に変換する変換方程式を求める、
請求項2に記載の特徴点位置推定装置。
The approximation means includes, as equations capable of obtaining three-dimensional coordinate values of points on the space ellipse, an equation of a two-dimensional space ellipse that matches the space ellipse by moving in a three-dimensional space, and the two-dimensional Finding a transformation equation that transforms a point on a space ellipse to a point on said space ellipse;
The feature point position estimation device according to claim 2.
前記位置推定手段は、入力された前記条件に対応する前記2次元空間の楕円上の座標値を前記変換方程式に入力することで、前記所定の身体特徴点の3次元座標値を推定する、
請求項9に記載の特徴点位置推定装置。
The position estimating means estimates the three-dimensional coordinate value of the predetermined body feature point by inputting the coordinate value on the ellipse of the two-dimensional space corresponding to the input condition into the transformation equation.
The feature point position estimation device according to claim 9 .
前記体節は、足部であり、
前記第一身体特徴点は、つま先であり、
前記第二身体特徴点は、足関節であり、
前記所定の身体特徴点は、前記足部のつま先側の幅方向の端部である、
請求項1~10の何れか一項に記載の特徴点位置推定装置。
the segment is a foot,
the first body feature point is a toe;
the second body feature point is an ankle joint;
The predetermined body feature point is an edge in the width direction on the toe side of the foot,
The feature point position estimation device according to any one of claims 1 to 10.
前記所定の身体特徴点は、第五中足骨であり、
前記条件は、前記所定の身体特徴点である第五中足骨が、前記空間楕円の長軸の外側方向の頂点であることを示す条件であり、
前記位置推定手段は、前記所定の身体特徴点である第五中足骨の3次元座標値を推定する、
請求項11に記載の特徴点位置推定装置。
the predetermined body feature point is the fifth metatarsal;
The condition is a condition indicating that the fifth metatarsal bone, which is the predetermined physical feature point, is the vertex in the lateral direction of the major axis of the spatial ellipse;
The position estimation means estimates a three-dimensional coordinate value of the fifth metatarsal bone, which is the predetermined physical feature point.
The feature point position estimation device according to claim 11.
対象物の対象の体節に位置する所定の身体特徴点の3次元座標値を推定するコンピューターが、
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力ステップと、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出ステップと、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出ステップと、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似ステップと、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力ステップと、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定ステップと、
を実行する、特徴点位置推定方法。
A computer for estimating three-dimensional coordinate values of predetermined body feature points located in target body segments of an object,
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; a position input step of inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. a plane calculation step of calculating using the three-dimensional coordinate values of the body feature points;
an extracting step of extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
an approximation step of approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
a condition input step of inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
a position estimation step of estimating a three-dimensional coordinate value of the predetermined body feature point based on the spatial ellipse and the condition;
A feature point location estimation method that performs
対象物の対象の体節に位置する所定の身体特徴点の3次元座標値を推定するコンピューターを、
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力手段と、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出手段と、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出手段と、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似手段と、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力手段と、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定手段と、
として機能させるためのプログラム。

a computer for estimating three-dimensional coordinate values of predetermined body feature points located on target body segments of an object;
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; position input means for inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. Plane calculation means for calculating using three-dimensional coordinate values of body feature points;
extracting means for extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
approximation means for approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
condition input means for inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
position estimating means for estimating three-dimensional coordinate values of the predetermined body feature points based on the spatial ellipse and the conditions;
A program to function as

JP2021199806A 2021-12-09 2021-12-09 Feature-point position estimation device, feature-point position estimation method and program Pending JP2023085658A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021199806A JP2023085658A (en) 2021-12-09 2021-12-09 Feature-point position estimation device, feature-point position estimation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021199806A JP2023085658A (en) 2021-12-09 2021-12-09 Feature-point position estimation device, feature-point position estimation method and program

Publications (1)

Publication Number Publication Date
JP2023085658A true JP2023085658A (en) 2023-06-21

Family

ID=86775858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021199806A Pending JP2023085658A (en) 2021-12-09 2021-12-09 Feature-point position estimation device, feature-point position estimation method and program

Country Status (1)

Country Link
JP (1) JP2023085658A (en)

Similar Documents

Publication Publication Date Title
US11723724B2 (en) Ultra-wideband positioning for wireless ultrasound tracking and communication
Begon et al. Multibody kinematics optimization for the estimation of upper and lower limb human joint kinematics: a systematized methodological review
JP2021154168A (en) Surgical navigation of the hip using fluoroscopy and tracking sensors
Ceseracciu et al. Comparison of markerless and marker-based motion capture technologies through simultaneous data collection during gait: proof of concept
CA2602218C (en) Method and system for characterization of knee joint morphology
Baudet et al. Cross-talk correction method for knee kinematics in gait analysis using principal component analysis (PCA): a new proposal
KR101538019B1 (en) device and method for 3D coordinate system construction
Camomilla et al. A hip joint kinematics driven model for the generation of realistic thigh soft tissue artefacts
EP3386389B1 (en) Determination of center of rotation of a bone
Ojeda et al. The effect of kinematic constraints in the inverse dynamics problem in biomechanics
Haratian et al. Toward flexibility in sensor placement for motion capture systems: a signal processing approach
Liu et al. Simple method integrating OpenPose and RGB-D camera for identifying 3D body landmark locations in various postures
Keller et al. From Skin to Skeleton: Towards Biomechanically Accurate 3D Digital Humans
Deffeyes et al. Elliptical zone body segment modellng software: digitising, modellng and body segment parameter calculation
JP2023085658A (en) Feature-point position estimation device, feature-point position estimation method and program
JP2017158644A (en) Measuring apparatus, measuring method, and measuring program
Jiang et al. Fast tool to evaluate 3D movements of the foot-ankle complex using multi-view depth sensors
Yoshikawa et al. 4D human body posture estimation based on a motion capture system and a multi-rigid link model
Ayusawa et al. Interspecies retargeting of homologous body posture based on skeletal morphing
Mu Skeletal kinematic measurement using model-image registration and mechanical constraints
US11694002B1 (en) Customized protective devices and systems and methods for producing the same
Jia et al. Globally optimal registration for describing joint kinematics
Harshe A multi-sensor, cable-driven parallel manipulator based lower limb rehabilitation device: design and analysis
Tersi et al. Fluoroscopic analysis for the estimation of in vivo elbow kinematics: influence of 3D model
Zhao Comprehensive and anatomically-based modelling of human foot