JP2023085658A - Feature-point position estimation device, feature-point position estimation method and program - Google Patents
Feature-point position estimation device, feature-point position estimation method and program Download PDFInfo
- Publication number
- JP2023085658A JP2023085658A JP2021199806A JP2021199806A JP2023085658A JP 2023085658 A JP2023085658 A JP 2023085658A JP 2021199806 A JP2021199806 A JP 2021199806A JP 2021199806 A JP2021199806 A JP 2021199806A JP 2023085658 A JP2023085658 A JP 2023085658A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- body feature
- ellipse
- coordinate values
- dimensional coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Abstract
Description
本開示は、身体特徴点の位置を推定するための技術に関する。 The present disclosure relates to techniques for estimating the positions of body feature points.
従来、リハビリテーション医療や整形外科治療等において、被験者の運動を計測し解析するため、モーションキャプチャによる三次元動作解析が行われている。三次元動作解析において運動を評価する手法の一つとして、マーカーレスモーションキャプチャによる動作解析手法が知られている。マーカーレスモーションキャプチャとしては、例えば、距離画像センサ(深度センサ)により赤外線レーザーを対象に照射することで対象までの距離を測定するTOF(Time of Flight)方式を用いて、対象までの距離の情報を持つ深度画像(距離画像)を取得し、取得された深度画像から対象の関節位置等を導出(推定)する手法が知られている(非特許文献1)。また、Kinect(登録商標)をモーションキャプチャ装置として用いて深度画像から対象の関節位置等を推定する手法は、非特許文献2にも記載されている。 Conventionally, in rehabilitation medicine, orthopedic treatment, etc., three-dimensional motion analysis using motion capture has been performed in order to measure and analyze the motion of a subject. A motion analysis method using markerless motion capture is known as one of the methods for evaluating motion in three-dimensional motion analysis. As markerless motion capture, for example, a distance image sensor (depth sensor) is used to measure the distance to the target by irradiating the target with an infrared laser, and the TOF (Time of Flight) method is used to obtain information on the distance to the target. There is known a method of acquiring a depth image (distance image) having , and deriving (estimating) the joint positions of a target from the acquired depth image (Non-Patent Document 1). Also, Non-Patent Document 2 describes a method of estimating joint positions of a target from depth images using Kinect (registered trademark) as a motion capture device.
マーカーレスモーションキャプチャでは、光学式のモーションキャプチャや慣性式のモーションキャプチャとは異なり、人やモノ等の対象物に対してマーカーやセンサの貼付が不要である。そのため、煩雑な計測準備を行う必要がなく、また、被験者の自然な動きを計測することが可能となるため、マーカーレスモーションキャプチャは様々な場面で有用性の高い手法として用いられている。例えば、マーカーレスモーションキャプチャを用いることで、距離画像に基づき骨格情報を推定する方法が提案されており(特許文献1)、マーカーレスモーションキャプチャの臨床現場での活用も期待されている(非特許文献3)。 Unlike optical motion capture and inertial motion capture, markerless motion capture does not require attachment of markers or sensors to objects such as people or objects. Therefore, there is no need to perform complicated measurement preparations, and since it is possible to measure the subject's natural movements, markerless motion capture is used as a highly useful technique in various situations. For example, a method of estimating skeletal information based on distance images using markerless motion capture has been proposed (Patent Document 1), and the use of markerless motion capture in clinical settings is also expected (non-patent Reference 3).
上述の通り、マーカーレスモーションキャプチャによる動作解析手法では、距離画像センサにより深度画像が取得されることで、対象物(被験者)の関節等の身体特徴点の位置(3次元位置座標)を取得することが可能である。 As described above, in the motion analysis method using markerless motion capture, a depth image is acquired by a depth image sensor, and the positions (three-dimensional position coordinates) of body feature points such as joints of the object (subject) are acquired. Is possible.
しかし、距離画像センサでは、距離画像センサ内で予め定められた関節や骨等の身体特徴点の位置座標を取得(出力)することが可能である一方、距離画像センサ内で予め定められていない身体特徴点についての位置を取得することは困難である。そのため、距離画像センサ内で定められた身体特徴点の3次元位置座標のみでは、所望する関節角度を算出できない場合があるという問題がある。 However, while the distance image sensor can acquire (output) the position coordinates of predetermined body feature points such as joints and bones in the distance image sensor, there is no predetermined position coordinate in the distance image sensor. Obtaining locations for body feature points is difficult. Therefore, there is a problem that the desired joint angle cannot be calculated only with the three-dimensional position coordinates of the body feature points determined in the range image sensor.
例えば、下肢においては、通常、距離画像センサ内で予め定められた身体特徴点である膝関節、足関節及びつま先の3次元位置座標が距離画像センサから出力される。これらの身体特徴点の3次元位置座標によれば、投影角を用いて足関節の底屈・背屈の角度及び内転・外転の角度を算出することは可能である一方、足関節の内反・外反の角度を正しく算出することは困難である。足関節の内反・外反の角度を算出するためには、例えば、体節間(体節の座標系間)のオイラー角を用いることが可能である。しかし、足関節とつま先の3次元位置座標しか出力されない足部のように2つの身体特徴点の位置座標しか出力されない体節では、座標系を生成(特定)することができず、オイラー角(内反・外反の角度)を算出することは困難である。 For example, in the case of the lower limbs, the range image sensor normally outputs three-dimensional position coordinates of knee joints, ankle joints, and toes, which are predetermined body feature points in the range image sensor. According to the three-dimensional positional coordinates of these body feature points, it is possible to calculate the angles of plantar flexion/dorsiflexion and the angles of adduction/abduction of the ankle joint using projection angles. It is difficult to correctly calculate the varus/valgus angle. In order to calculate the varus/valgus angle of the ankle joint, it is possible to use, for example, Euler angles between body segments (between body segment coordinate systems). However, in a body segment where only the position coordinates of two body feature points are output, such as the foot, where only the three-dimensional position coordinates of the ankle joint and the toe are output, the coordinate system cannot be generated (identified), and the Euler angles ( varus-valgus angle) is difficult to calculate.
本開示は、上記した問題に鑑み、身体特徴点の位置を推定することを課題とする。 An object of the present disclosure is to estimate the positions of body feature points in view of the above problems.
本開示の一例は、
対象物の対象の体節に位置する所定の身体特徴点の3次元座標値を推定する特徴点位置推定装置であって、
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力手段と、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出手段と、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出手段と、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似手段と、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力手段と、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定手段と、
を備える特徴点位置推定装置である。人間の四肢等の体表面は楕円に近似可能であることから、本開示では、体表(体表点の集まり)を楕円により近似することとする。
An example of this disclosure is:
A feature point position estimation device for estimating a three-dimensional coordinate value of a predetermined body feature point located in a target segment of an object,
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; position input means for inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. Plane calculation means for calculating using three-dimensional coordinate values of body feature points;
extracting means for extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
approximation means for approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
condition input means for inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
position estimating means for estimating three-dimensional coordinate values of the predetermined body feature points based on the spatial ellipse and the conditions;
It is a feature point position estimation device comprising: Since a body surface such as human limbs can be approximated to an ellipse, in the present disclosure, the body surface (a collection of body surface points) is approximated by an ellipse.
1つの態様では、前記近似手段は、前記空間楕円上の点の3次元座標値を取得可能な方程式を求める。 In one aspect, the approximation means obtains an equation capable of obtaining three-dimensional coordinate values of points on the spatial ellipse.
1つの態様では、前記近似手段は、前記空間楕円上の点の3次元座標値を取得可能な方程式として、3次元空間上に移動することで前記空間楕円と一致する2次元空間の楕円の方程式と、該2次元空間の楕円上の点を前記空間楕円上の点に変換する変換方程式を求める。 In one aspect, the approximation means is an equation of a two-dimensional space ellipse that matches the space ellipse by moving on the three-dimensional space as an equation capable of acquiring three-dimensional coordinate values of points on the space ellipse. Then, a transformation equation for transforming a point on the ellipse in the two-dimensional space to a point on the space ellipse is obtained.
1つの態様では、前記位置推定手段は、入力された前記条件に対応する前記2次元空間の楕円上の座標値を前記変換方程式に入力することで、前記所定の身体特徴点の3次元座標値を推定する。 In one aspect, the position estimating means inputs the coordinate values on the ellipse in the two-dimensional space corresponding to the input condition into the transformation equation, thereby obtaining the three-dimensional coordinate values of the predetermined body feature point. to estimate
1つの態様では、前記条件は、前記第一身体特徴点を通り、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面における対象の体節の体表の形状を楕円で近似すると想定した場合に、前記第三身体特徴点が該楕円のどの位置に存在するかに基づき決定された条件である。 In one aspect, the condition is such that the shape of the body surface of the target body segment on a plane passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is an ellipse. This is a condition determined based on the position of the third body feature point on the ellipse when it is assumed that the approximation is performed by .
1つの態様では、前記条件は、前記所定の身体特徴点が、前記空間楕円の頂点の何れかであることを示す条件である。 In one aspect, the condition is a condition indicating that the predetermined body feature point is any vertex of the spatial ellipse.
1つの態様では、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値は、対象物の予め定められた身体特徴点の3次元座標値を測定する三次元計測装置において取得された座標値である。 In one aspect, the three-dimensional coordinate values of the first body feature point and the second body feature point are obtained by a three-dimensional measuring device that measures the three-dimensional coordinate values of predetermined body feature points of an object. are coordinate values.
1つの態様では、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値と、推定された前記所定の身体特徴点の3次元座標値を用いて、前記対象の体節の直交座標系を生成する座標系生成手段を更に備える。 In one aspect, using the three-dimensional coordinate values of the first body feature point and the second body feature point and the estimated three-dimensional coordinate value of the predetermined body feature point, It further comprises coordinate system generating means for generating a coordinate system.
1つの態様では、前記対象の体節の直交座標系と他の直交座標系とのオイラー角を算出することで、前記対象の体節の運動に伴う関節角度を算出する角度算出手段を更に備える。 In one aspect, the apparatus further comprises angle calculation means for calculating the joint angle associated with the movement of the target body segment by calculating the Euler angle between the Cartesian coordinate system of the target body segment and another Cartesian coordinate system. .
1つの態様では、前記対象の体節は、複数の対象の体節のうちの一つであり、
前記位置入力手段、前記平面算出手段、前記近似手段、前記条件入力手段、前記特徴点位置推定手段及び座標系生成手段は夫々、前記対象の体節に加え、複数の対象の体節のうちの該対象の体節とは異なる他の体節について処理を行い、
前記角度算出手段は、前記対象の体節の直交座標系と前記他の体節の直交座標系とのオイラー角を算出することで、該対象の体節の運動に伴う関節角度を算出する。
In one aspect, the body segment of the subject is one of a plurality of body segments of the subject;
Each of the position input means, the plane calculation means, the approximation means, the condition input means, the feature point position estimation means, and the coordinate system generation means, in addition to the target body segment, performing processing on other body segments different from the body segment of the subject;
The angle calculation means calculates a joint angle associated with the movement of the target body segment by calculating an Euler angle between the orthogonal coordinate system of the target body segment and the orthogonal coordinate system of the other body segment.
1つの態様では、前記体節は、足部であり、
前記第一身体特徴点は、つま先であり、
前記第二身体特徴点は、足関節であり、
前記所定の身体特徴点は、前記足部のつま先側の幅方向の端部である。
In one aspect, the segment is the foot,
the first body feature point is a toe;
the second body feature point is an ankle joint;
The predetermined physical feature point is the widthwise end of the foot on the toe side.
1つの態様では、前記所定の身体特徴点は、第五中足骨であり、
前記条件は、前記所定の身体特徴点である第五中足骨が、前記空間楕円の長軸の外側方向の頂点であることを示す条件であり、
前記位置推定手段は、前記所定の身体特徴点である第五中足骨の3次元座標値を推定する。
In one aspect, the predetermined body landmark is the fifth metatarsal,
The condition is a condition indicating that the fifth metatarsal bone, which is the predetermined physical feature point, is the vertex in the lateral direction of the major axis of the spatial ellipse;
The position estimation means estimates a three-dimensional coordinate value of the fifth metatarsal bone, which is the predetermined physical feature point.
本発明は、
対象物の対象の体節に位置する所定の身体特徴点の3次元座標値を推定するコンピューターが、
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力ステップと、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出ステップと、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出ステップと、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似ステップと、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力ステップと、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定ステップと、
を実行する特徴点位置推定方法、として規定され得る。
The present invention
A computer for estimating three-dimensional coordinate values of predetermined body feature points located in target body segments of an object,
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; a position input step of inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. a plane calculation step of calculating using the three-dimensional coordinate values of the body feature points;
an extracting step of extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
an approximation step of approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
a condition input step of inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
a position estimation step of estimating a three-dimensional coordinate value of the predetermined body feature point based on the spatial ellipse and the condition;
can be defined as a feature point location estimation method that performs
本発明は、
対象物の対象の体節に位置する所定の身体特徴点の3次元座標値を推定するコンピューターを、
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力手段と、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出手段と、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出手段と、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似手段と、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力手段と、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定手段と、
として機能させるためのプログラム、として規定され得る。
The present invention
a computer for estimating three-dimensional coordinate values of predetermined body feature points located on target body segments of an object;
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; position input means for inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. Plane calculation means for calculating using three-dimensional coordinate values of body feature points;
extracting means for extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
approximation means for approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
condition input means for inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
position estimating means for estimating three-dimensional coordinate values of the predetermined body feature points based on the spatial ellipse and the conditions;
can be defined as a program for functioning as
本開示は、装置、システム、コンピューターによって実行される方法またはコンピューターに実行させるプログラムとして把握することが可能である。また、本開示は、そのようなプログラムをコンピューター、その他の装置、機械等が読み取り可能な記録媒体に記録したものとしても把握できる。ここで、コンピューター等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的または化学的作用によって蓄積し、コンピューター等から読み取ることができる記録媒体をいう。 The present disclosure can be understood as an apparatus, a system, a computer-executed method, or a computer-executed program. The present disclosure can also be understood as recording such a program in a recording medium readable by a computer, other device, machine, or the like. Here, a computer-readable recording medium is a recording medium that stores information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read by a computer, etc. say.
本開示によれば、身体特徴点の位置を推定することが可能となる。 According to the present disclosure, it is possible to estimate the positions of body feature points.
以下、本開示に係る装置、方法及びプログラムの実施の形態を、図面に基づいて説明する。但し、以下に説明する実施の形態は、実施形態を例示するものであって、本開示に係る装置、方法及びプログラムを以下に説明する具体的構成に限定するものではない。実施にあたっては、実施の態様に応じた具体的構成が適宜採用され、また、種々の改良や変形が行われてよい。 Hereinafter, embodiments of an apparatus, a method, and a program according to the present disclosure will be described based on the drawings. However, the embodiment described below is an example of the embodiment, and does not limit the device, method, and program according to the present disclosure to the specific configurations described below. For implementation, a specific configuration may be appropriately adopted according to the mode of implementation, and various improvements and modifications may be made.
本実施形態では、本開示に係る装置、方法及びプログラムを、被験者の足部における身体特徴点の位置を推定する特徴点位置推定装置において実施した場合の実施の形態について説明する。但し、本開示に係る装置、方法及びプログラムは、対象物の任意の身体特徴点の位置を推定するための技術について広く用いることが可能であり、本開示の適用対象は、実施形態において示した例に限定されない。 In this embodiment, an embodiment will be described in which the device, method, and program according to the present disclosure are implemented in a feature point position estimation device that estimates the positions of body feature points on the feet of a subject. However, the device, method, and program according to the present disclosure can be widely used for techniques for estimating the position of any body feature point of an object, and the application target of the present disclosure is shown in the embodiment Examples are not limiting.
<システムの構成>
図1は、本実施形態に係るシステムの構成を示す概略図である。図1に示すように、本実施形態に係るシステム9は、対象物の体表点(観測点)の座標データ(2次元の画像座標と奥行き情報)や関節等の身体特徴点の位置の座標データ(3次元座標)を取得(計測)する三次元計測装置3と、三次元計測装置3により取得された座標データを記録し、当該座標データを用いることで、目的とする身体特徴点(標点)の位置を推定する特徴点位置推定装置1とからなる。ここで、対象物とは、被験者等の人に限定されるものではなく、骨や関節等の身体特徴点を有するものであれば、任意の動物やロボット等であってよい。本実施形態では、対象物を被験者(人)とする場合について例示する。なお、本実施形態における身体特徴点は、骨や関節等の対象物の骨格に関する特徴点を意味し、頭、肩、体幹、腰(骨盤)、手先、つま先、四肢の関節等に例示される。
<System configuration>
FIG. 1 is a schematic diagram showing the configuration of a system according to this embodiment. As shown in FIG. 1, a
三次元計測装置3は、対象物(被験者)までの距離の情報を持つ画像(画像中の各画素に奥行き方向の距離情報を持つ画像)である距離画像(深度画像)を取得する距離画像センサ(深度センサ)と、対象物(被験者)の予め定めされた身体特徴点(関節等)の位置(3次元座標値)を取得する位置取得部を備える。なお、三次元計測装置3は、対象物(被験者)の色画像(RGB画像)を取得するビデオカメラ(カラーカメラ(RGBカメラ))を備えてもよい。例えば、三次元計測装置3は、距離画像センサ及びビデオカメラを備えるモーションキャプチャ装置であるKinect(登録商標)に例示される。但し、三次元計測装置3は、Kinectに限定されるものではなく、関節等の身体特徴点の位置を取得する装置であれば任意の装置であってよい。また、三次元計測装置3の具体的なハードウェア構成に関しては、実施の態様に応じて適宜省略や置換、追加が可能である。
The three-
距離画像センサは、対象物上の観測点までの距離(奥行き)を測定することが可能なセンサであり、主に、赤外線を照射する投光器及び反射した赤外線を受光するカメラ(赤外線カメラ)を備える。なお、本実施形態における対象物の観測点とは、距離画像センサにより距離が測定される対象物の表面(体表)上の点であり、距離画像センサにより取得される距離画像の各画素に対応する点である。距離画像センサでは、主に、TOF方式又はパターン照射方式により対象物(観測点)までの距離が測定される。TOF方式は、照射(投射)した赤外線レーザーが対象物(観測点)まで往復するのにかかる時間(照射してから反射光を受信するまでの時間)に基づき、対象物(観測点)までの距離を測定する方式である。パターン照射方式は、特定のパターンを持つ赤外線レーザーを照射し、反射光のパターンの歪みを解析することで、対象物(観測点)までの距離を測定する方式である。本実施形態において、距離画像センサが対象物までの距離を測定する方式には、任意の方式が用いられてよい。 A range image sensor is a sensor that can measure the distance (depth) to an observation point on an object, and is mainly equipped with a projector that emits infrared rays and a camera (infrared camera) that receives the reflected infrared rays. . Note that the observation point of the object in this embodiment is a point on the surface (body surface) of the object whose distance is measured by the distance image sensor, and each pixel of the distance image acquired by the distance image sensor This is a corresponding point. A distance image sensor mainly measures the distance to an object (observation point) by a TOF method or a pattern irradiation method. The TOF method is based on the time it takes for the irradiated (projected) infrared laser to make a round trip to the object (observation point) (the time from irradiation to receiving the reflected light), and the distance to the object (observation point). This is a method for measuring distance. The pattern irradiation method measures the distance to an object (observation point) by irradiating an infrared laser with a specific pattern and analyzing the distortion of the reflected light pattern. In this embodiment, any method may be used as the method for the distance image sensor to measure the distance to the object.
距離画像センサは、対象物までの距離を測定することで、画像の各画素の画素値として、各画素に対応する点(観測点)の距離画像センサ(カメラ)からの距離の情報(デプス値)を持つ距離画像を取得(撮影)する。距離画像には、各観測点についての、uv直交座標系の2次元の画像座標値(距離画像内の位置座標)(u,v)と、当該2次元の画像座標値(u,v)に対応する距離画像センサからの距離(デプス値)dが含まれる。距離dは、距離画像センサと対象物との間の距離である。以下、(u,v,d)を、各観測点(画素)についての「2次元座標値」と称する。 A range image sensor measures the distance to an object and converts the pixel value of each pixel in the image into the distance information (depth value ) is acquired (captured). In the range image, for each observation point, two-dimensional image coordinate values (position coordinates in the range image) (u, v) in the uv orthogonal coordinate system and the two-dimensional image coordinate values (u, v) The distance (depth value) d from the corresponding range image sensor is included. The distance d is the distance between the range image sensor and the object. Hereinafter, (u, v, d) will be referred to as "two-dimensional coordinate values" for each observation point (pixel).
位置取得部は、距離画像センサにより取得された距離画像に基づき、三次元計測装置(距離画像センサ)において予め定められた身体特徴点(関節や骨等)の位置(3次元座標値(Xc,Yc,Zc))を取得する。位置取得部は、例えば、予め定められた身体特徴点である、頭、肩、体幹、腰(骨盤)、手先、つま先、四肢の関節等の複数の身体特徴点(例えば、25箇所の身体特徴点)の3次元座標値を取得する。本実施形態では、足部における身体特徴点を推定するため、位置取得部により、少なくとも足関節及びつま先(第二中足骨付近)の3次元座標値が取得されることとする。なお、本実施形態では、三次元計測装置3(位置取得部)において、第二中足骨の骨頭付近をつま先としてつま先の3次元座標値が取得される例を示すが、第二中足骨付近以外の部位(例えば、第三中足骨付近)をつま先とすることでつま先の3D座標値が取得されてもよい。 The position acquisition unit obtains the position (three-dimensional coordinate value (X c , Y c , Z c )). The position acquisition unit obtains, for example, a plurality of body feature points (for example, 25 body feature points) such as head, shoulders, trunk, hips (pelvis), fingertips, toes, joints of limbs, etc., which are predetermined body feature points. 3D coordinate values of feature points). In this embodiment, in order to estimate body feature points on the foot, the position acquisition unit acquires the three-dimensional coordinate values of at least the ankle joint and the toe (near the second metatarsal bone). In the present embodiment, an example is shown in which the three-dimensional measuring device 3 (position acquisition unit) acquires the three-dimensional coordinate values of the toe with the vicinity of the head of the second metatarsal bone as the toe. The 3D coordinate values of the toe may be acquired by using a site other than the vicinity (for example, the vicinity of the third metatarsal bone) as the toe.
なお、距離画像に基づき、三次元計測装置3において予め定められた身体特徴点の位置を取得する方法は、種々の任意の方法が用いられてよい。例えば、特許文献1に開示された方法や、学習済みモデル(識別器)に対象物の距離情報を入力することで推定する方法等が用いられてよい。また、位置取得部により取得される3次元座標値(Xc,Yc,Zc)は、距離画像センサ(赤外線カメラ)を原点とした3次元直交座標系(距離画像センサの3次元座標系)における座標値である。
Various arbitrary methods may be used as a method for acquiring the positions of predetermined body feature points in the three-
三次元計測装置3が対象物のRGB画像を取得するビデオカメラを備える場合、位置取得部により取得された身体特徴点の位置がRGB画像上に描画されるようにしてもよい。但し、距離画像センサ(赤外線カメラ)及びビデオカメラは、夫々、独立した2次元座標系に関連付けられている。換言すると、距離画像は、距離画像(距離画像センサ)の2次元座標系によって規定され、RGB画像は、RGB画像(ビデオカメラ)の2次元座標系によって規定される。また、3次元座標系についても同様である。そのため、位置取得部により取得された3次元座標値をRGB画像上に描画する場合は、座標系間で座標を変換可能な変換関数を用いることで、身体特徴点の位置の3次元座標値をRGB画像上の座標値に変換することが必要となる。なお、座標系の交換については、非特許文献2においても記載されており、任意の座標変換が行われてよい。
If the three-
これより、本実施形態に係るシステム9は、上述した三次元計測装置3を備えることで、対象物(被験者)の表面(体表)上の複数の観測点についての2次元座標値(u,v,d)と、対象物(被験者)の予め定められた身体特徴点の位置についての3次元座標値(Xc,Yc,Zc)を取得する。
From this, the
なお、三次元計測装置3における各種計算は、プロセッサ及びメモリ等を備えるコンピューターによって実行される。例えば、三次元計測装置3は、カメラやセンサ等によって取得された情報を取り込む入力部、入力部により取り込まれた情報及び処理部で計算された情報を記憶する記憶部、入力部により取り込まれた情報に対して各種処理を施すための処理部等を備える。これらの機能部(入力部、記憶部、処理部)の各機能は、汎用プロセッサによって実行されるが、これらの機能の一部または全部は、1または複数の専用プロセッサによって実行されてもよい。また、これらの機能の一部または全部は、クラウド技術等を用いて、遠隔地に設置された装置や、分散設置された複数の装置によって実行されてもよい。
Various calculations in the three-
特徴点位置推定装置1は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、EEPROM(Electrically Erasable and Programmable Read Only Memory)やHDD(Hard Disk Drive)等の記憶装置14、NIC(Network Interface Card)等の通信装置15、キーボード等の入力装置16及びディスプレイ等の出力装置17等を備えるコンピューターである。但し、特徴点位置推定装置1の具体的なハードウェア構成に関しては、実施の態様に応じて適宜省略や置換、追加が可能である。また、特徴点位置推定装置1は、単一の筐体からなる装置に限定されない。特徴点位置推定装置1は、所謂クラウドや分散コンピューティングの技術等を用いた、複数の装置によって実現されてよい。
The feature point
特徴点位置推定装置1は、三次元計測装置3において取得された、対象物(被験者)の表面(体表)上の観測点の座標位置及び当該対象物の予め定められた身体特徴点の座標位置に基づき、所望の(所定の)身体特徴点の位置を推定する装置である。本実施形態では、特徴点位置推定装置1において、被験者の足関節及びつま先の座標位置と、足部の複数の体表点(観測点)の座標位置に基づき、足部にある第五中足骨の位置を推定する場合について例示する。なお、本実施形態では、別装置(別筐体)である特徴点位置推定装置1と三次元計測装置3を例示するが、この例に限定されず、システム9は、特徴点位置推定装置1が備える機能と三次元計測装置3が備える機能を備える一の装置(筐体)を備えるようにしてよい。
The feature point
図2は、本実施形態に係る特徴点位置推定装置の機能構成の概略を示す図である。特徴点位置推定装置1は、記憶装置14に記録されているプログラムが、RAM13に読み出され、CPU11によって実行されて、特徴点位置推定装置1に備えられた各ハードウェアが制御されることで、位置入力部21、記憶部22、条件入力部23、平面算出部24、抽出部25、近似部26、位置推定部27、座標系生成部28及び角度算出部29を備える装置として機能する。なお、本実施形態及び後述する他の実施形態では、特徴点位置推定装置1の備える各機能は、汎用プロセッサであるCPU11によって実行されるが、これらの機能の一部又は全部は、1又は複数の専用プロセッサによって実行されてもよい。また、特徴点位置推定装置1が備える各機能部は、単一の筐体からなる装置(1の装置)に実装されるものに限定されず、遠隔に及び/又は分散して(例えば、クラウド上に)実装されてもよい。
FIG. 2 is a diagram showing an outline of the functional configuration of the feature point position estimation device according to this embodiment. In the feature point
位置入力部21は、被験者の体表上の複数の観測点及び当該被験者の三次元計測装置3(距離画像センサ)において予め定められている(設定されている)身体特徴点の座標データを入力する。具体的には、位置入力部21は、被験者の複数の体表点(観測点)の3次元座標値と、三次元計測装置3において予め定められた身体特徴点のうち当該被験者の当該対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値を入力する。ここで、人体は、主に、頭部、体幹部(体幹上部、体幹中部、体幹下部)、上腕部、前腕部、手部、大腿部、下腿部、足部等の複数の体節(部位)に分類され、体節間には体節同士を連結する関節が存在する。以下、位置を推定したい(所望の)身体特徴点(以下、「第三身体特徴点」と称する)が位置する体節を「対象の体節」と称する。
The
位置入力部21は、まず、少なくとも対象の体節における被験者の複数の体表点についての2次元座標値(u,v,d)を三次元計測装置3から取得する。本実施形態では、位置入力部21は、第五中足骨(第三身体特徴点)が位置する足部(対象の体節)における被験者の複数の体表点についての2次元座標値を取得する。そして、位置入力部21は、後述する記憶部22に記憶された変換関数を用いることで、被験者の体表点についての2次元座標値(u,v,d)を、距離画像センサの3次元座標系の座標値(3次元座標値(Xc,Yc,Zc))に変換する。これより、位置入力部21は、被験者の体表点のうち少なくとも対象の体節における複数の体表点についての3次元座標値を取得(入力)する。なお、2次元座標値から3次元座標値に変換する方法には任意の方法が用いられてよく、例えば、DLT法(Direct Linear Transformation method)等が用いられてよい。
The
また、位置入力部21は、三次元計測装置3から、対象物(被験者)の対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の位置についての3次元座標値(Xc,Yc,Zc)を取得することで入力する。本実施形態では、位置取入力21は、少なくとも、第五中足骨(第三身体特徴点)が位置する足部(対象の体節)の第一側の位置を特定するつま先と足部の第二側の位置を特定する足関節の3次元座標値を入力する場合について例示する。なお、第三身体特徴点により近接する身体特徴点を第一身体特徴点とし、近接しない身体特徴点を第二身体特徴点とする。そのため、本実施形態では、第一身体特徴点を第五中足骨に近接するつま先とし、第二身体特徴点を足関節とする。以下、位置入力部21により入力される、第一身体特徴点の3次元座標値をP1((P1=(p1x,p1y,p1z))とし、第二身体特徴点の3次元座標値をP2((P2=(p2x,p2y,p2z))とする。
In addition, the
なお、本実施形態では、位置入力部21は、三次元計測装置3から座標データを取得することで、各点の3次元座標値を入力することとしたが、座標データを取得する方法は、上述した例に限定されるものではなく、予め計測(取得)された座標データを保存した記録装置14や外部記録媒体(不図示)から、当該座標データを取得するようにしてもよい。また、位置入力部21は、距離画像センサ内で予め定められている全ての身体特徴点についての3次元座標値を取得するのではなく、第一身体特徴点及び第二身体特徴点の3次元座標値のみを取得するようにしてもよい。
In this embodiment, the
記憶部22は、変換関数を記憶する。変換関数は、距離画像センサにより取得された2次元座標値(u,v,d)を、距離画像センサ(赤外線カメラ)を原点とした3次元直交座標系における座標値である3次元座標値(Xc,Yc,Zc)に変換するための関数である。記憶部22は、例えば、三次元計測装置3(距離画像センサ)において、予め定められた関節等の身体特徴点の位置の3次元座標値を取得する際に使用される変換関数を記憶する。
The
条件入力部23は、第三身体特徴点の位置を推定(決定)するために用いられる特徴点決定条件を入力する。特徴点決定条件は、対象の体節に位置する第三身体特徴点が、当該対象の体節の体表点を近似した空間楕円(3次元空間での近似楕円)上のどの位置に存在するかを示す(指定する)条件である。例えば、特徴点決定条件は、第三身体特徴点が、空間楕円の4つの頂点(長軸側の2つの頂点及び短軸側の2つの頂点)のうちの何れかの頂点であることを指定した条件である。但し、特徴点決定条件において指定される空間楕円上の第三身体特徴点の位置は、空間楕円の頂点に限定されず、頂点以外の空間楕円上の点であってもよい。上述の通り、人間の四肢等の体表面は楕円に近似可能であることから、本実施形態では、体表点を楕円により近似することとする。なお、対象の体節の体表点を近似した空間楕円については、詳細を後述する。
The
特徴点決定条件は、第三身体特徴点が位置する対象の体節の形状(体表面の形状)により決定される。例えば、特徴点決定条件は、第一身体特徴点を通り第一身体特徴点と第二身体特徴点を結ぶ直線に垂直な平面における対象の体節の体表の形状(断面形状)を楕円で近似すると想定した場合に、第三身体特徴点が当該楕円のどの位置に存在するかが、動作解析を行う作業者等のユーザにより判断されることで決定される。そして、決定された特徴点決定条件がユーザにより特徴点位置推定装置1に入力されることで、条件入力部23が特徴点決定条件を取得することが可能となる。
The feature point determination condition is determined by the shape of the target segment (body surface shape) where the third body feature point is located. For example, the feature point determination condition is that the shape (cross-sectional shape) of the body surface of the target segment on a plane perpendicular to a straight line passing through the first body feature point and connecting the first body feature point and the second body feature point is represented by an ellipse. Assuming approximation, the position of the third body feature point on the ellipse is determined by a user such as a worker who performs motion analysis. Then, the user inputs the determined feature point determination condition to the feature point
例えば、第三身体特徴点が第五中足骨である場合、第一身体特徴点(つま先)を通り第一身体特徴点(つま先)と第二身体特徴点(足関節)を結ぶ直線に垂直な平面における対象の体節(足部)の体表の形状は、足部を前方(つま先側)から見て横長楕円の形状(横アーチ形状)に近似していると判断(判別)することが可能である。そのため、第五中足骨の特徴点決定条件は、空間楕円の長軸の頂点(体の外側方向の頂点)と決定(設定)される。具体的には、右足の第五中足骨の特徴点決定条件には、空間楕円の長軸の頂点のうち、後述する対象の体節の3次元直交座標系(図4参照)における左右軸(Y軸)の+方向にある頂点が設定される。一方、左足の第五中足骨の特徴点決定条件には、当該左右軸の-方向にある頂点が設定される。 For example, if the third body characteristic point is the fifth metatarsal bone, it is perpendicular to the straight line that passes through the first body characteristic point (toe) and connects the first body characteristic point (toe) and the second body characteristic point (ankle joint). Judgment (discrimination) that the shape of the body surface of the target body segment (foot) on a flat plane resembles a horizontally long oval shape (horizontal arch shape) when the foot is viewed from the front (toe side). is possible. Therefore, the characteristic point determination condition for the fifth metatarsal is determined (set) as the vertex of the major axis of the spatial ellipse (the vertex in the lateral direction of the body). Specifically, the feature point determination condition for the fifth metatarsal bone of the right foot includes the left-right axis in the three-dimensional Cartesian coordinate system (see FIG. 4) of the target body segment, which will be described later, among the vertices of the long axis of the spatial ellipse. A vertex in the + direction of (Y-axis) is set. On the other hand, the feature point determination condition of the fifth metatarsal bone of the left foot is set to a vertex in the - direction of the left/right axis.
なお、条件入力部23が特徴点決定条件を取得する方法は、上述した例に限定されず、記録装置14や外部記録媒体(不図示)から、予めユーザにより決定(設定)され保存された特徴点決定条件を取得するようにしてもよい。また、上述では、ユーザにより特徴点決定条件が決定される例を示したが、第三身体特徴点の名前や特徴等の属性に基づき、自動で、第三身体特徴点の楕円上における位置が判別され、特徴点決定条件が決定されるようにしてもよい。
Note that the method by which the
平面算出部24は、第一身体特徴点を通る3次元空間での平面であって、第一身体特徴点と第二身体特徴点を結ぶ直線に垂直な平面(平面A)を算出(生成)する。本実施形態では、まず、平面算出部24は、第一身体特徴点の3次元座標値P1((P1=(p1x,p1y,p1z))と第二身体特徴点の3次元座標値P2((P2=(p2x,p2y,p2z))により、第二身体特徴点から第一身体特徴点に向かう単位方向ベクトルV(V=(vx,vy,vz))を算出する。そして、平面算出部24は、第一身体特徴点の3次元座標値P1を通り、単位方向ベクトルVに垂直な平面A(単位方向ベクトルVを法線ベクトルとする平面)の方程式を、下記の式(1)により算出する。
The
図3は、本実施形態に係る足部の一例を示す図である。図3に示すように、本実施形態では、式(1)を用いることで、つま先(第一身体特徴点)を通り、足関節(第二身体特徴点)からつま先(第一身体特徴点)に向かうベクトルVに垂直な平面Aの方程式が算出される。なお、平面Aを求める際に用いられる法線ベクトルは、第二身体特徴点から第一身体特徴点(又は、第一身体特徴点から第二身体特徴点)に向かうベクトルであれば、単位ベクトルに限定されない。 FIG. 3 is a diagram showing an example of a leg portion according to the present embodiment. As shown in FIG. 3, in this embodiment, by using the formula (1), from the toe (first body feature point) to the ankle joint (second body feature point) to the toe (first body feature point) The equation for the plane A perpendicular to the vector V pointing to is calculated. It should be noted that the normal vector used when obtaining the plane A is a unit vector if it is a vector directed from the second body feature point to the first body feature point (or from the first body feature point to the second body feature point) is not limited to
抽出部25は、対象の体節における複数の体表点(観測点)のうち、平面算出部24により算出(生成)された平面Aからの距離が所定範囲内である体表点を、平面A上の体表点(以下、「平面上体表点」)として抽出する。具体的には、抽出部25は、平面Aの方程式(式(1))と、位置入力部21により入力された被験者の各体表点の3次元座標値(Xc,Yc,Zc)を用いることで、平面Aと各体表点との間の距離を算出する。そして、抽出部25は、算出された距離が所定範囲(例えば、数ミリ)以下である体表点(平面Aに近い体表点)を平面A上の体表点とみなし、平面上体表点として抽出する。このようにして抽出された平面上体表点の各点の座標値を(xj,yj,zj)(jは2からNの自然数、Nは平面上体表点の数)とし、平面上体表点(xj,yj,zj)の集合を、以下、「点群A」と称する。なお、(xj,yj,zj)は、平面A上の体表点とみなされた体表点についての、位置入力部21により取得された3次元座標値(Xc,Yc,Zc)である。
The
近似部26は、抽出部25により抽出された複数の平面上体表点(点群A)の3次元座標値(xj,yj,zj)を用いて、点群A(点群Aが位置する体表)を、3次元空間上の楕円である空間楕円に近似する。近似部26は、点群Aを空間楕円に近似することで、点群Aを近似する空間楕円上の点の3次元座標値を取得可能とする。本実施形態では、近似部26は、点群Aを近似する空間楕円上の点の3次元座標値を取得可能な方程式を求める。
The
ここで、3次元空間上の楕円(空間楕円)は、2次元空間(XY平面)上の、中心を原点とする傾きのない楕円(以下、「平面楕円」と称する)に対して回転移動と並進移動を行うことで得られる楕円として表現することが可能である。換言すると、平面楕円上の点に対して回転移動と並進移動を行うことで、平面楕円上の点を空間楕円上の点に移動(座標変換)することが可能である。そのため、本実施形態では、点群Aを近似する空間楕円を、平面楕円が3次元空間上に移動したものとし、近似部26は、空間楕円上の点の3次元座標値を取得可能な方程式として、3次元空間上に移動することで空間楕円と一致する平面楕円の方程式と、平面楕円上の点を空間楕円上の点に変換する方程式(以下、「変換方程式」と称する)を求める。
Here, an ellipse in three-dimensional space (space ellipse) is rotated and moved with respect to an ellipse with no inclination (hereinafter referred to as “plane ellipse”) with the center as the origin in two-dimensional space (XY plane). It can be expressed as an ellipse obtained by performing translational movement. In other words, it is possible to move (coordinate transformation) a point on the planar ellipse to a point on the spatial ellipse by rotating and translating the point on the planar ellipse. Therefore, in the present embodiment, the space ellipse that approximates the point group A is assumed to be a plane ellipse moved in a three-dimensional space, and the
なお、本実施形態では、平面楕円の方程式として、下記の式(2)に示された方程式を用いる。なお、式(2)において、a、bは夫々、楕円の長半径及び短半径の何れかであり、Sは面積が1の楕円を基準とした空間楕円の拡大倍率(1を含む)であり、abπ=1、z=0とする。 In addition, in this embodiment, the equation shown in the following equation (2) is used as the equation of the planar ellipse. In equation (2), a and b are either the major radius or the minor radius of the ellipse, and S is the enlargement magnification (including 1) of the spatial ellipse based on the ellipse whose area is 1. , abπ=1 and z=0.
また、平面楕円上の点Q’に対して回転行列Mによる回転移動及び並進ベクトルTによる並進移動が行われた結果、点Q’が空間楕円上の点Qに移動(変換)された場合、当該空間楕円上の点Qの3次元座標値(x,y,z)は、点Q’の座標値(x’’,y’’,z’’)、回転行列M及び並進ベクトルT(T=(x’’’,y’’’,z’’’))を用いて、下記の式(3)により算出される。なお、式(3)は、上述した、平面楕円上の点を空間楕円上の点に変換(移動)するための方程式(変換方程式)である。 Further, when the point Q' on the plane ellipse is rotated by the rotation matrix M and translated by the translation vector T, and as a result, the point Q' is moved (transformed) to the point Q on the spatial ellipse, The three-dimensional coordinate values (x, y, z) of the point Q on the spatial ellipse are the coordinate values (x '' , y '' , z '' ) of the point Q', the rotation matrix M, and the translation vector T (T =(x ''' , y ''' , z ''' )) and is calculated by the following equation (3). Equation (3) is an equation (transformation equation) for transforming (moving) points on the planar ellipse to points on the spatial ellipse.
本実施形態では、回転行列Mを、任意の軸(単位ベクトルn=(nx,ny,nz))周りにαだけ回転させるための回転行列とし、下記の式(4)により示す。 In this embodiment, the rotation matrix M is a rotation matrix for rotating α around an arbitrary axis (unit vector n=(n x , ny , nz )) and is expressed by the following equation (4).
本実施形態では、上述した、3次元空間上に移動することで空間楕円と一致する平面楕円の方程式(式(2))と変換方程式(式(3))を求めるため、回転行列Mによる回転移動及び並進ベクトルTによる並進移動を行うことで点群Aに移動する点群A’(回転移動及び並進移動前の点群)を平面楕円で近似するよう最適化する。つまり、点群A’と平面楕円の方程式との誤差を最小化するよう最適化する。近似部26は、まず、下記の式(5)に、点群Aの各点の座標値(xj,yj,zj)を入力することで、点群Aの各点の座標値を、点群A’の各点の座標値(xj
’’,yj
’’,zj
’’)に変換する。なお、式(5)において、Mは点群A’が点群Aに移動するために回転した量を表す回転行列であり、(x’’’,y’’’,z’’’)は点群A’が点群Aに移動するために並進移動(平行移動)した量を表す並進ベクトルである。
In the present embodiment, in order to obtain the above-described planar ellipse equation (equation (2)) and transformation equation (equation (3)) that match the space ellipse by moving in the three-dimensional space, rotation by the rotation matrix M A point group A′ (point group before rotational movement and translational movement) that moves to point group A by performing movement and translational movement by translation vector T is optimized so as to be approximated by a plane ellipse. That is, optimization is performed to minimize the error between the point group A' and the plane ellipse equation. The
そして、近似部26は、式(5)により示される点群A’の座標値(xj
’’,yj
’’,zj
’’)及び式(2)により示される平面楕円の方程式を用いて、点群A’と平面楕円との誤差を最小にするよう最適化することで、平面楕円の方程式及び変換方程式を求める。本実施形態では、点群A’と平面楕円との誤差(誤差関数)として、下記の式(6)に示された、点群A’の各点と平面楕円との誤差の絶対値の和を用いる。近似部26は、式(6)に示された誤差関数を最小にするよう最適化を行うことにより、各パラメーターを最適化する(最適パラメーターの決定)。なお、式(6)で示された誤差関数を最小にするために最適化されるパラメーターは、並進ベクトルの各成分(x’’’,y’’’,z’’’)、単位ベクトルnの各成分(nx,ny,nz)、α、a、b、Sである。
Then, the
このように、近似部26は、式(6)に示された誤差関数を最小化するよう最適化を行うことで、平面楕円が点群A’を最もよく近似するよう最適化された各パラメーター(x’’’、y’’’、z’’’、nx、ny、nz、α、a、b、S)の値を算出(決定)することが可能となる。これより、平面楕円の方程式(式(2))及び変換方程式(式(3))を算出可能となり、点群Aを空間楕円に近似することが可能となる。なお、式(6)に示された誤差関数を最小化する方法には、任意の最適化手法が用いられてよく、例えば、表計算ソフトの機能の一種であるソルバーを用いる方法が用いられてよい。また、最小化する対象である誤差関数は、式(6)に示された誤差関数に限定されず、点群Aと空間楕円との誤差又は点群A’と平面楕円との誤差を示す誤差であれば任意であり、例えば、点群A’と平面楕円との誤差の二乗和(二乗和誤差)であってもよい。
In this way, the
また、本実施形態では、平面楕円の方程式と変換方程式を求めることで、点群Aを近似する空間楕円上の点の3次元座標値を取得可能とするが、当該空間楕円上の3次元座標値を取得可能な方法であれば、直接、空間楕円の方程式を求める等の任意の方法が用いられてよい。また、平面A上に空間楕円が存在するという制約条件の下で点群Aが空間楕円に近似されるようにしてもよい。 Further, in this embodiment, by obtaining the equation of the plane ellipse and the transformation equation, it is possible to acquire the three-dimensional coordinate values of the points on the spatial ellipse that approximate the point group A. Any method, such as directly determining the equation of the spatial ellipse, may be used as long as the value can be obtained. Also, under the constraint that a spatial ellipse exists on the plane A, the point group A may be approximated to a spatial ellipse.
位置推定部27は、点群Aを近似した空間楕円と特徴点決定条件に基づき、第三身体特徴点の位置(3次元座標値)を推定する(推定座標値の算出)。本実施形態では、位置推定部27は、平面楕円上の点を空間楕円上の点に変換する変換方程式(式(3))に、特徴点決定条件に対応する平面楕円上の座標値を入力することで空間楕円上の座標値を算出し、算出された空間楕円上の座標値を第三身体特徴点の推定座標値(3次元座標値)として決定する。具体的には、位置推定部27は、特徴点決定条件に対応する第三身体特徴点の平面楕円上の座標値(p,q,r)を算出(決定)する。そして、位置推定部27は、算出された(p,q,r)を式(3)における平面楕円上の座標値(x’’,y’’,z’’)に入力することで空間楕円上の座標値(x,y,z)を算出し、算出された空間楕円上の座標値(x,y,z)を第三身体特徴点の3次元座標値(推定座標値)として決定する。
The
上述の通り、足部にある第五中足骨が第三身体特徴点である場合、特徴点決定条件として、足部の体表点を近似した空間楕円の「長軸の頂点(体の外側方向の頂点)」が設定される(図3参照)。そのため、例えば、2次元空間におけるx軸が平面楕円の長軸方向(a>b)であり、x軸の+方向が距離画像センサから見て右水平方向の場合、位置推定部27は、右足の第五中足骨の平面楕円上の座標値(p,q,r)を、(p,q,r)=(-aS,0,0)により算出(決定)し、左足の第五中足骨の平面楕円上の座標値(p,q,r)を、(p,q,r)=(aS,0,0)により算出する。ここで、Sは、上述の通り、面積が1の楕円を基準にした拡大倍率である。そして、位置推定部27は、式(3)における平面楕円上の座標(x’’,y’’,z’’)に、第五中足骨の特徴点決定条件に対応する平面楕円上の座標値(aS,0,0)及び(-aS,0,0)夫々を入力することで、右足及び左足の第五中足骨夫々の3次元座標値(x,y,z)を算出する。
As described above, when the fifth metatarsal bone in the foot is the third body feature point, as a feature point determination condition, the "vertex of the major axis (outer side of the body)" of the spatial ellipse that approximates the body surface point of the foot direction vertex)” is set (see FIG. 3). Therefore, for example, if the x-axis in the two-dimensional space is the major axis direction of the plane ellipse (a>b) and the + direction of the x-axis is the right horizontal direction as seen from the range image sensor, the
なお、例えば、特徴点決定条件が、第三身体特徴点が空間楕円の短軸の頂点であることを示す条件であり、2次元空間におけるx軸が平面楕円の長軸方向(a>b)である場合は、第三身体特徴点の平面楕円上の座標値(p,q,r)は、(p,q,r)=(0,bS,0)又は(0,-bS,0)により算出(決定)される。また、近似部26により空間楕円の方程式が直接算出された場合は、当該空間楕円方程式及び特徴点決定条件を用いて第三身体特徴点の3次元座標値が算出(推定)されてよい。このように、本実施形態では、空間楕円上の点の3次元座標値を取得可能な方程式として平面楕円の方程式と変換方程式を求めることにより、所望する第三身体特徴点の位置を平面楕円上の座標値(例えば、(aS,0,0))として指定することが可能となる。
Note that, for example, the feature point determination condition is a condition indicating that the third body feature point is the vertex of the short axis of the space ellipse, and the x-axis in the two-dimensional space is the major axis direction of the planar ellipse (a>b). , the coordinate values (p, q, r) on the plane ellipse of the third body feature point are (p, q, r) = (0, bS, 0) or (0, -bS, 0) Calculated (determined) by Further, when the spatial ellipse equation is directly calculated by the
座標系生成部28は、体節における3軸を決定することで当該体節の座標系(直交座標系)を生成する。座標系生成部28は、第一身体特徴点及び第二身体特徴点の3次元座標値と、推定された第三身体特徴点の3次元座標値を用いて、対象の体節の座標系を生成する。例えば、座標系生成部28は、第二身体特徴点から第一身体特徴点に向かう単位ベクトルを第一軸、第一身体特徴点、第二身体特徴点及び推定された第三身体特徴点を通る平面の単位法線ベクトルを第二軸、第一軸と第二軸に垂直な単位ベクトルを第三軸として決定する。例えば、第三身体特徴点が第五中足骨の場合、足関節からつま先に向かう単位ベクトルが第一軸、足関節、つま先及び推定された第五中足骨点を通る平面の単位法線ベクトルが第二軸、第一軸と第二軸に垂直な単位ベクトルが第三軸として決定される。
The coordinate
これより、座標系生成部28は、決定された第一軸、第二軸及び第三軸からなる座標系を、対象の体節の座標系として決定(生成)する。なお、対象の体節の座標系における3軸は、上記で示された3軸に限定されず、第一身体特徴点、第二身体特徴点及び第三身体特徴点に基づく任意の3軸であってよい。また、座標系生成部28は、対象の体節に加え、当該対象の体節以外の他の体節についての座標系を生成するようにしてもよい。
From this, the coordinate
角度算出部29は、座標系生成部28により生成された対象の体節の座標系と、他の座標系(直交座標系)とのオイラー角を算出することで、当該対象の体節の運動に伴う関節角度を算出する。ここで、対象の体節の運動とは、内反、外反、内転、外転、屈曲、伸展、内旋、外旋、回内、回外、底屈、背屈等の体節の運動であり、当該運動に伴う関節角度は、内反角度、外反角度、内転角度、外転角度、屈曲角度、伸展角度、内旋角度、外旋角度、回内角度、回外角度、底屈角度、背屈角度等の角度である。所望の(所定の)関節角度を算出するために適切な他の座標系(基準の座標系)と、座標系生成部28により生成された対象の体節の座標系とのオイラー角を算出することで、当該所望の関節角度を算出することが可能となる。なお、他の座標系は、例えば、対象の体節に隣接する体節等の他の体節の座標系やグローバル座標系等任意の座標系であってよい。また、他の座標系には、記憶装置14に記憶されている他の座標系を用いてもよいし、座標系生成部28により生成された、対象の体節以外の他の体節の座標系を用いてもよい。
The
以下、第三身体特徴点が第五中足骨である場合に、推定された第五中足骨の3次元座標値を用いて足部(足関節)の内外反の角度を算出する場合について例示する。なお、本実施形態で、足関節の内外反の角度とは、踵から第二中足骨の軸回りの回転角を意味する。 The following is a case of calculating the varus/valgus angle of the foot (ankle joint) using the estimated three-dimensional coordinate value of the fifth metatarsal when the third body feature point is the fifth metatarsal. Illustrate. In this embodiment, the angle of varus/valgus of the ankle joint means the angle of rotation about the axis from the heel to the second metatarsal bone.
図4は、本実施形態に係る関節角度算出の一例を示す図である。図4には、対象の体節(足部)における座標系(X軸、Y軸、Z軸)と、他の座標系(基準の座標系)である、股関節、膝関節及び足関節の3点により決定される3軸からなる座標系(X’軸、Y’軸、Z’軸)を示す。なお、図4に示す通り、本実施形態では、対象の体節における座標系を、第一身体特徴点、第二身体特徴点及び第三身体特徴点を通る面を水平面とし、第二身体特徴点から第一身体特徴点に向かう軸を前後軸(X軸)とした座標系とする。また、本実施形態では、基準の座標系を、足部以外の下肢を一つの体節(剛体)として扱った仮想的な体節(剛体)の座標系とし、具体的には、股関節、膝関節及び足関節を通る面を矢状面とし、足関節から膝関節へ向かう方向を上下軸(Z’軸)とした座標系とする。なお、膝関節は1軸関節であるため、股関節、膝関節、足関節が作る平面を、一つの仮想的な剛体として扱うことが可能である。 FIG. 4 is a diagram showing an example of joint angle calculation according to the present embodiment. FIG. 4 shows the coordinate system (X-axis, Y-axis, Z-axis) in the body segment (foot) of interest, and three other coordinate systems (reference coordinate system): the hip joint, the knee joint, and the ankle joint. A coordinate system consisting of three axes (X'-axis, Y'-axis, Z'-axis) determined by points is shown. As shown in FIG. 4, in the present embodiment, the coordinate system in the body segment of interest is defined as a horizontal plane passing through the first body feature point, the second body feature point, and the third body feature point. A coordinate system with the front-rear axis (X-axis) extending from the point to the first body feature point. Further, in the present embodiment, the reference coordinate system is a virtual segment (rigid body) coordinate system in which the lower limbs other than the foot are treated as one body segment (rigid body). The sagittal plane is the plane passing through the joint and the ankle joint, and the vertical axis (Z′-axis) is the direction from the ankle joint to the knee joint. Since the knee joint is a uniaxial joint, it is possible to treat the plane formed by the hip joint, knee joint, and ankle joint as one virtual rigid body.
角度算出部29は、図4に示された、対象の体節(足部)の座標系と、基準の座標系との間のオイラー角(回転角)を算出する。具体的には、角度算出部29は、対象の体節の座標系が自身の座標軸(X軸(前後軸)、Y軸(左右軸)、Z軸(上下軸))周りの回転を行うことで基準の体節の座標系と一致するためのオイラー角を算出する。本実施形態では、角度算出部29は、対象の体節の座標系を基準の体節の座標系に一致させるための回転行列であり、X軸周りの回転角をφ、Y軸周りの回転角をθ、Z軸周りの回転角をΨとする3軸周りの回転行列Qを算出することで、基準の体節の座標系と一致するためのオイラー角を算出する。これより、角度算出部29は、求められたX軸(前後軸)周りの回転角φを、足関節の内外反の角度として決定(算出)することが可能である。なお、今回のオイラー角は上記のような回転順序を採用したが、回転順序はこれに限らない。
The
なお、本実施形態では、内外反の角度を算出するために対象の体節の座標系とのオイラー角を算出する基準の座標系を、股関節、膝関節及び足関節の3点により決定される座標系としたが、基準の座標系の求め方はこの方法に限定されない。例えば、上述した身体特徴点の位置を推定する方法を用いて、対象の体節とは異なる他の体節(以下、「基準の体節」と称する)の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点に基づき、基準の体節における第三身体特徴点の座標位置を推定する。そして、基準の体節についての第一身体特徴点、第二身体特徴点及び第三身体特徴点の3点により決定された座標系を、基準の座標系としてもよい。 In this embodiment, the reference coordinate system for calculating the Euler angle with respect to the coordinate system of the target body segment for calculating the varus/valgus angle is determined by the three points of the hip joint, the knee joint, and the ankle joint. Although the coordinate system is used, the method of obtaining the reference coordinate system is not limited to this method. For example, using the above-described method of estimating the position of a body feature point, the first side position of another body segment (hereinafter referred to as a "reference body segment") different from the target body segment is identified. Based on the one body feature point and the second body feature point specifying the position of the second side, the coordinate position of the third body feature point on the reference body segment is estimated. Then, the coordinate system determined by the three points of the first body feature point, the second body feature point, and the third body feature point for the reference body segment may be used as the reference coordinate system.
例えば、第一身体特徴点を膝関節、第二身体特徴点を足関節とし、特徴点決定条件を短軸の頂点(体の外側方向の頂点)とすることで、位置推定部27により、膝関節外側上顆の3次元座標値が算出される。そして、座標系生成部28は、対象の体節の座標系に加えて、膝関節、足関節及び膝関節外側上顆の3点により基準の座標系(基準の体節である下腿部の座標系)を生成する。具体的には、膝関節、足関節及び膝関節外側上顆を通る面を前額面とし、足関節から膝関節へ向かう方向を上下軸とする座標系が生成される。そして、角度算出部29により、座標系生成部28により生成された対象の体節の座標系と基準の体節の座標系との間のオイラー角を算出することで、足部の内外反の角度を算出することが可能となる。
For example, the first body feature point is the knee joint, the second body feature point is the ankle joint, and the feature point determination condition is the vertex of the short axis (vertex in the lateral direction of the body). Three-dimensional coordinate values of the lateral epicondyle of the joint are calculated. In addition to the coordinate system of the target segment, the coordinate
なお、角度算出部29は、算出されたオイラー角自体を所望の関節角度として算出してもよいし、算出されたオイラー角の極性(プラスマイナスの符号)を反転し、反転された角度を所望の関節角度として算出してもよい。例えば、上述した方法により算出される足関節の内外反の角度は、足部の前後軸を足関節からつま先に向かう方向を+、右ねじ方向の回転を+として算出(出力)される。ここで、右足の場合は、外反する場合に、足部(足関節)の前後軸回りの回転方向が-方向となり、内反する場合に、足部の前後軸回りの回転方向が+方向となる。一方、左足の場合は、外反する場合に、足部(足関節)の前後軸回りの回転方向が+方向となり、内反する場合に、足部の前後軸回りの回転方向が-方向となる。そのため、外反方向を+とする外反角を算出(出力)したい場合は、角度算出部29は、算出された右足の前後軸回りのオイラー角に-1倍することで右足の外反角を算出し、算出された左足の前後軸回りのオイラー角に+1倍することで、左足の外反角を算出する。このように、角度算出部29は、所望の関節角度の極性を、座標系間のオイラー角の極性と一致させることで、所望の関節角度が算出されるよう種々の処理を行うようにして良い。
The
上述した通り、本実施形態では、三次元計測装置3により取得された足関節及びつま先の3次元座標値を用いて、第五中足骨の位置(3次元座標値)を推定する方法を例示した。但し、推定する対象(第三身体特徴点)は、第五中足骨に限定されるものではなく、その他の任意の身体特徴点であってよい。例えば、本実施形態において、特徴点決定条件を長軸の頂点(体の外側方向の頂点)ではなく長軸の頂点(体の内側方向の頂点)とすることで、第一中足骨の位置を推定可能である。よって、例えば、右足の第五中足骨の特徴点決定条件に対応する平面楕円上の座標値(p,q,r)が(p,q,r)=(-aS,0,0)である場合、右足の第一中足骨の特徴点決定条件に対応する平面楕円上の座標値(p,q,r)は(p,q,r)=(aS,0,0)となる。このように、対象の体節を足部、第一身体特徴点をつま先、第二身体特徴点を足関節とすることで、足部のつま先側の幅方向の端部の位置(3次元座標値)を推定することが可能となる。
As described above, this embodiment exemplifies a method of estimating the position of the fifth metatarsal (three-dimensional coordinate values) using the three-dimensional coordinate values of the ankle joint and the toe acquired by the three-
また、第一身体特徴点を足関節とし、第二身体特徴点を膝関節とすることで、内果や外果の位置を推定可能である。また、第一身体特徴点を手首関節とし、第二身体特徴点を肘関節とすることで、橈骨茎状突起や尺骨茎状突起の位置を推定可能である。また、第一身体特徴点を膝関節とし、第二身体特徴点を股関節とすることで、大腿骨内側上顆や大腿骨外側上顆の位置を推定可能である。更に、第一身体特徴点を肘関節とし、第二身体特徴点を肩関節とすることで、上腕骨内側上顆や上腕骨外側上顆の位置を推定することが可能である。なお、各場合において、特徴点決定条件は当業者によって適宜設定され得る。 Also, by setting the ankle joint as the first body feature point and the knee joint as the second body feature point, it is possible to estimate the positions of the medial malleolus and the lateral malleolus. Further, by setting the wrist joint as the first body feature point and the elbow joint as the second body feature point, it is possible to estimate the positions of the radial styloid process and the ulnar styloid process. Further, by setting the knee joint as the first body feature point and the hip joint as the second body feature point, it is possible to estimate the positions of the femoral medial epicondyle and femoral lateral epicondyle. Furthermore, by setting the elbow joint as the first body feature point and the shoulder joint as the second body feature point, it is possible to estimate the positions of the medial epicondyle of the humerus and the lateral epicondyle of the humerus. In each case, the feature point determination condition can be appropriately set by a person skilled in the art.
<処理の流れ>
次に、本実施形態に係る特徴点位置推定装置1によって実行される特徴点位置推定処理の流れを説明する。なお、以下に説明する処理の具体的な内容及び処理順序は、本開示を実施するための一例である。具体的な処理内容及び処理順序は、本開示の実施の態様に応じて適宜選択されてよい。
<Process flow>
Next, a flow of feature point position estimation processing executed by the feature point
図5は、本実施形態に係る特徴点位置推定処理の流れの概要を示すフローチャートである。本フローチャートに示された処理は、特徴点位置推定装置1において、ユーザ等による、対象物(被験者)の座標データを取得する指示や、身体特徴点を推定する指示等が受け付けられたことを契機として実行される。なお、以下では、第三身体特徴点を足部にある第五中足骨とし、第五中足骨の位置を推定するための処理を例示する。
FIG. 5 is a flowchart showing an overview of the flow of feature point position estimation processing according to this embodiment. The processing shown in this flowchart is triggered when an instruction to acquire coordinate data of an object (subject), an instruction to estimate a body feature point, or the like is received from a user or the like in the feature point
ステップS101では、三次元計測装置3において予め定められた身体特徴点(第一身体特徴点、第二身体特徴点)の3次元座標値が入力される。位置入力部21は、被験者の第五中足骨が位置する足部(対象の体節)の第一側の位置を特定するつま先(第一身体特徴点)及び第二側の位置を特定する足関節(第二身体特徴点)の3次元座標値を三次元計測装置3から取得し、入力する。その後、処理はステップS102へ進む。
In step S101, the three-dimensional coordinate values of predetermined body feature points (first body feature point, second body feature point) are input to the three-
ステップS102では、対象物(被験者)の体表点(観測点)の3次元座標値が入力される。位置入力部21は、被験者の足部(対象の体節)における複数の体表点についての2次元座標値を三次元計測装置3から取得し、記憶部22に記憶された変換関数を用いることで、当該体表点についての2次元座標値を3次元座標値に変換することで、被験者の足部における複数の体表点の3次元座標値を取得(入力)する。その後、処理はステップS103へ進む。
In step S102, the three-dimensional coordinate values of the body surface points (observation points) of the object (subject) are input. The
ステップS103では、特徴点決定条件が入力される。条件入力部23は、第五中足骨(第三身体特徴点)が足部の体表点を近似した空間楕円の長軸の頂点(体の外側方向の頂点)に位置することを示す第五中足骨の特徴点決定条件を入力する。その後、処理はステップS104へ進む。なお、ステップS101~ステップS103は、順不同である。
In step S103, a feature point determination condition is input. The
ステップS104では、第一身体特徴点を通り、第一身体特徴点と第二身体特徴点を結ぶ直線に垂直な平面(平面A)が算出される。平面算出部24は、ステップS101で入力されたつま先(第一身体特徴点)及び足関節(第二身体特徴点)の3次元座標値を用いることで、つま先を通る平面であり、足関節からつま先に向かうベクトルVに垂直な平面Aの方程式を算出する。その後、処理はステップS105へ進む。
In step S104, a plane (plane A) passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is calculated. The
ステップS105では、平面Aからの距離が所定範囲内の体表点(点群A)が抽出される。抽出部25は、ステップS104で算出された平面Aの方程式(式(1))と、ステップS102で入力された各体表点の3次元座標値を用いることで、平面Aからの距離が所定範囲内である体表点を、平面A上の体表点である平面上体表点(点群A)として抽出する。その後、処理はステップS106へ進む。
In step S105, body surface points (point group A) whose distance from plane A is within a predetermined range are extracted. The
ステップS106では、点群Aを空間楕円に近似する。近似部26は、点群Aを空間楕円で近似し、点群Aを近似する当該空間楕円上の点の3次元座標値を取得可能な方程式として、3次元空間上に移動することで空間楕円と一致する平面楕円の方程式と、平面楕円上の点を空間楕円上の点に変換する変換方程式を求める。その後、処理はステップS107へ進む。
In step S106, the point group A is approximated to a spatial ellipse. The
ステップS107では、特徴点決定条件と空間楕円に基づき、第三身体特徴点の位置が推定される。位置推定部27は、ステップS103で入力された第五中足骨の特徴点決定条件に対応する平面楕円上の座標値を求め、求められた座標値をステップS106で求められた変換方程式に入力することで、第五中足骨の3次元座標値を算出する。そして、位置推定部27は、算出された3次元座標値を第五中足骨の推定位置として決定する。その後、本フローチャートに示された処理は終了する。
In step S107, the position of the third body feature point is estimated based on the feature point determination condition and the spatial ellipse. The
図6は、本実施形態に係る角度算出処理の流れの概要を示すフローチャートである。本フローチャートに示された処理は、特徴点位置推定装置1において、対象の体節における第三身体特徴点の位置が推定されたこと等を契機として実行される。なお、以下では、第三身体特徴点を足部にある第五中足骨とし、足関節の内外反の角度を算出するための処理を例示する。
FIG. 6 is a flowchart showing an overview of the flow of angle calculation processing according to this embodiment. The process shown in this flowchart is executed when the feature point
ステップS201では、対象の体節の直交座標系が生成される。座標系生成部27は、足関節からつま先に向かう単位ベクトルを第一軸、足関節、つま先及び推定された第五中足骨点を通る平面の単位法線ベクトルを第二軸、第一軸と第二軸に垂直な単位ベクトルを第三軸として決定し、第一軸、第二軸及び第三軸からなる座標系を、対象の体節の座標系として生成する。その後、処理はステップS202へ進む。
In step S201, a Cartesian coordinate system of the body segment of interest is generated. The coordinate
ステップS202では、関節角度が算出される。角度算出部29は、ステップS201で生成された対象の体節(足部)の座標系と基準の座標系(図4参照)との間のオイラー角を算出し、算出されたオイラー角のうちX軸(前後軸)周りの回転角φを、足関節の内外反の角度として決定(算出)する。その後、本フローチャートに示された処理は終了する。
In step S202, joint angles are calculated. The
本実施形態に示されたシステムによれば、対象物の対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、当該対象の体節における複数の体表点の3次元座標値と、特徴点決定条件を用いることで、当該対象の体節に位置する第三身体特徴点の3次元座標位置を推定することが可能となる。 According to the system shown in this embodiment, the three-dimensional By using the coordinate values, the three-dimensional coordinate values of a plurality of body surface points in the body segment of the target, and the feature point determination condition, the three-dimensional coordinate position of the third body feature point located in the body segment of the target is determined. It is possible to estimate
上述の通り、距離画像センサ(三次元計測装置)では、距離画像センサで予め定められた身体特徴点の位置座標を取得することが可能である。例えば、下肢においては、通常、距離画像センサ内で設定された身体特徴点である膝関節、足関節及びつま先の3次元座標値が距離画像センサから出力される。これらの身体特徴点の3次元座標値によれば、投影角を用いて足関節の底屈・背屈の角度及び内転・外転の角度を算出することは可能であるが、足関節の内反・外反の角度を正しく算出することは困難である。この足関節の内反・外反の角度を算出するためには、上述の通り、体節間(体節の座標系間)のオイラー角を求めることが必要であるため、体節(足部)においてもう一点(身体特徴点)の3次元座標値を取得することが必要となる。このように、3軸周りの関節角度を算出するためには、2つの身体特徴点の座標値しか出力されない体節(例えば、足関節とつま先の座標値しか出力されない足部)においてもう一つの身体特徴点(仮想点)の位置を推定する必要がある。 As described above, the distance image sensor (three-dimensional measuring device) can acquire the position coordinates of predetermined body feature points with the distance image sensor. For example, in the case of lower limbs, the range image sensor normally outputs three-dimensional coordinate values of knee joints, ankle joints, and toes, which are body feature points set in the range image sensor. Although it is possible to calculate plantar flexion/dorsiflexion angles and adduction/abduction angles of the ankle joint using projection angles from the three-dimensional coordinate values of these body feature points, It is difficult to correctly calculate the varus/valgus angle. In order to calculate the varus/valgus angle of the ankle joint, as described above, it is necessary to obtain the Euler angles between the body segments (between the coordinate systems of the body segments). ), it is necessary to acquire the three-dimensional coordinate values of another point (body feature point). In this way, in order to calculate the joint angles about the three axes, in the body segment where only the coordinate values of two body feature points are output (for example, the foot where only the coordinate values of the ankle joint and the toe are output), another It is necessary to estimate the positions of body feature points (virtual points).
本実施形態に示されたシステムによれば、上述の通り、対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値から、当該対象の体節に位置する第三身体特徴点の3次元座標位置を推定することが可能である。そのため、距離画像センサから2つの身体特徴点の3次元座標値しか出力されない体節において、もう一つの身体特徴点(距離画像センサで予め定められていない身体特徴点)の位置を推定可能となる。これより、当該体節における座標系を生成することが可能となり、当該体節の座標系と他の座標系との間のオイラー角を算出することで、投影角では算出困難な関節角度を算出することが可能となる。このように、通常、算出することが困難な関節角度を算出可能とすることで、生体に対する理解を深めることが可能となり、リハビリテーション医療や整形外科治療等に貢献することが可能となる。 According to the system shown in this embodiment, as described above, three of the first body minutia to specify the position of the first side of the target segment and the second body minutia to specify the position of the second side. From the dimensional coordinate values, it is possible to estimate the 3D coordinate position of the third body feature point located on the body segment of the subject. Therefore, it is possible to estimate the position of another body feature point (body feature point not predetermined by the range image sensor) in a body segment where only the three-dimensional coordinate values of two body feature points are output from the range image sensor. . As a result, it is possible to generate a coordinate system for the relevant body segment, and by calculating the Euler angles between the coordinate system of the relevant body segment and another coordinate system, joint angles that are difficult to calculate using projection angles can be calculated. It becomes possible to In this way, by making it possible to calculate the joint angle, which is usually difficult to calculate, it becomes possible to deepen understanding of the living body, and it becomes possible to contribute to rehabilitation medicine, orthopedic treatment, and the like.
1 特徴点位置推定装置
3 三次元計測装置
9 システム
1 feature point
Claims (14)
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力手段と、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出手段と、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出手段と、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似手段と、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力手段と、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定手段と、
を備える、特徴点位置推定装置。 A feature point position estimation device for estimating a three-dimensional coordinate value of a predetermined body feature point located in a target segment of an object,
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; position input means for inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. Plane calculation means for calculating using three-dimensional coordinate values of body feature points;
extracting means for extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
approximation means for approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
condition input means for inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
position estimating means for estimating three-dimensional coordinate values of the predetermined body feature points based on the spatial ellipse and the conditions;
A feature point position estimation device comprising:
請求項1に記載の特徴点位置推定装置。 The approximation means obtains an equation capable of obtaining three-dimensional coordinate values of points on the spatial ellipse,
The feature point position estimation device according to claim 1.
請求項1又は2に記載の特徴点位置推定装置。 The condition was assumed to approximate the shape of the body surface of the target segment on a plane that passes through the first body feature point and is perpendicular to a straight line that connects the first body feature point and the second body feature point with an ellipse. In the case, a condition determined based on where the third body feature point is located in the ellipse,
The feature point position estimation device according to claim 1 or 2.
請求項1~3の何れか一項に記載の特徴点位置推定装置。 The condition is a condition indicating that the predetermined body feature point is one of the vertices of the spatial ellipse.
The feature point position estimation device according to any one of claims 1 to 3.
請求項1~4の何れか一項に記載の特徴点位置推定装置。 The three-dimensional coordinate values of the first body feature point and the second body feature point are coordinate values obtained by a three-dimensional measuring device that measures the three-dimensional coordinate values of predetermined body feature points of an object. ,
The feature point position estimation device according to any one of claims 1 to 4.
請求項1~5の何れか一項に記載の特徴点位置推定装置。 Using the three-dimensional coordinate values of the first body feature point and the second body feature point and the estimated three-dimensional coordinate value of the predetermined body feature point, an orthogonal coordinate system of the target body segment is generated. further comprising a coordinate system generating means;
The feature point position estimation device according to any one of claims 1 to 5.
請求項6に記載の特徴点位置推定装置。 Further comprising angle calculation means for calculating a joint angle associated with the movement of the target body segment by calculating Euler angles between the Cartesian coordinate system of the target body segment and another Cartesian coordinate system,
The feature point position estimation device according to claim 6.
前記位置入力手段、前記平面算出手段、前記近似手段、前記条件入力手段、前記特徴点位置推定手段及び座標系生成手段は夫々、前記対象の体節に加え、複数の対象の体節のうちの該対象の体節とは異なる他の体節について処理を行い、
前記角度算出手段は、前記対象の体節の直交座標系と前記他の体節の直交座標系とのオイラー角を算出することで、該対象の体節の運動に伴う関節角度を算出する、
請求項7に記載の特徴点位置推定装置。 the body segment of the subject is one of a plurality of body segments of the subject;
Each of the position input means, the plane calculation means, the approximation means, the condition input means, the feature point position estimation means, and the coordinate system generation means, in addition to the target body segment, performing processing on other body segments different from the body segment of the subject;
The angle calculation means calculates a joint angle associated with the movement of the target body segment by calculating an Euler angle between the orthogonal coordinate system of the target body segment and the orthogonal coordinate system of the other body segment.
The feature point position estimation device according to claim 7.
請求項2に記載の特徴点位置推定装置。 The approximation means includes, as equations capable of obtaining three-dimensional coordinate values of points on the space ellipse, an equation of a two-dimensional space ellipse that matches the space ellipse by moving in a three-dimensional space, and the two-dimensional Finding a transformation equation that transforms a point on a space ellipse to a point on said space ellipse;
The feature point position estimation device according to claim 2.
請求項9に記載の特徴点位置推定装置。 The position estimating means estimates the three-dimensional coordinate value of the predetermined body feature point by inputting the coordinate value on the ellipse of the two-dimensional space corresponding to the input condition into the transformation equation.
The feature point position estimation device according to claim 9 .
前記第一身体特徴点は、つま先であり、
前記第二身体特徴点は、足関節であり、
前記所定の身体特徴点は、前記足部のつま先側の幅方向の端部である、
請求項1~10の何れか一項に記載の特徴点位置推定装置。 the segment is a foot,
the first body feature point is a toe;
the second body feature point is an ankle joint;
The predetermined body feature point is an edge in the width direction on the toe side of the foot,
The feature point position estimation device according to any one of claims 1 to 10.
前記条件は、前記所定の身体特徴点である第五中足骨が、前記空間楕円の長軸の外側方向の頂点であることを示す条件であり、
前記位置推定手段は、前記所定の身体特徴点である第五中足骨の3次元座標値を推定する、
請求項11に記載の特徴点位置推定装置。 the predetermined body feature point is the fifth metatarsal;
The condition is a condition indicating that the fifth metatarsal bone, which is the predetermined physical feature point, is the vertex in the lateral direction of the major axis of the spatial ellipse;
The position estimation means estimates a three-dimensional coordinate value of the fifth metatarsal bone, which is the predetermined physical feature point.
The feature point position estimation device according to claim 11.
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力ステップと、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出ステップと、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出ステップと、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似ステップと、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力ステップと、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定ステップと、
を実行する、特徴点位置推定方法。 A computer for estimating three-dimensional coordinate values of predetermined body feature points located in target body segments of an object,
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; a position input step of inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. a plane calculation step of calculating using the three-dimensional coordinate values of the body feature points;
an extracting step of extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
an approximation step of approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
a condition input step of inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
a position estimation step of estimating a three-dimensional coordinate value of the predetermined body feature point based on the spatial ellipse and the condition;
A feature point location estimation method that performs
前記対象物の前記対象の体節の第一側の位置を特定する第一身体特徴点及び第二側の位置を特定する第二身体特徴点の3次元座標値と、該対象物の複数の体表点の3次元座標値を入力する位置入力手段と、
前記第一身体特徴点を通る3次元空間での平面であって、該第一身体特徴点と前記第二身体特徴点を結ぶ直線に垂直な平面を、前記第一身体特徴点及び前記第二身体特徴点の3次元座標値を用いて算出する平面算出手段と、
前記複数の体表点のうち前記平面からの距離が所定範囲内である複数の平面上体表点を抽出する抽出手段と、
前記複数の平面上体表点の3次元座標値を用いて、該複数の平面上体表点を、3次元空間上の楕円である空間楕円に近似する近似手段と、
前記所定の身体特徴点が前記空間楕円上のどの位置に存在するかを示す条件を入力する条件入力手段と、
前記空間楕円と前記条件に基づき、前記所定の身体特徴点の3次元座標値を推定する位置推定手段と、
として機能させるためのプログラム。
a computer for estimating three-dimensional coordinate values of predetermined body feature points located on target body segments of an object;
three-dimensional coordinate values of a first body feature point specifying the position of the first side of the body segment of the object and a second body feature point specifying the position of the second side of the body segment of the object; position input means for inputting three-dimensional coordinate values of body surface points;
A plane in a three-dimensional space passing through the first body feature point and perpendicular to a straight line connecting the first body feature point and the second body feature point is defined as the first body feature point and the second body feature point. Plane calculation means for calculating using three-dimensional coordinate values of body feature points;
extracting means for extracting a plurality of planar body surface points whose distance from the plane is within a predetermined range from the plurality of body surface points;
approximation means for approximating the plurality of planar body surface points to a spatial ellipse, which is an ellipse in a three-dimensional space, using the three-dimensional coordinate values of the plurality of planar body surface points;
condition input means for inputting a condition indicating at which position on the spatial ellipse the predetermined body feature point exists;
position estimating means for estimating three-dimensional coordinate values of the predetermined body feature points based on the spatial ellipse and the conditions;
A program to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021199806A JP2023085658A (en) | 2021-12-09 | 2021-12-09 | Feature-point position estimation device, feature-point position estimation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021199806A JP2023085658A (en) | 2021-12-09 | 2021-12-09 | Feature-point position estimation device, feature-point position estimation method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023085658A true JP2023085658A (en) | 2023-06-21 |
Family
ID=86775858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021199806A Pending JP2023085658A (en) | 2021-12-09 | 2021-12-09 | Feature-point position estimation device, feature-point position estimation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023085658A (en) |
-
2021
- 2021-12-09 JP JP2021199806A patent/JP2023085658A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11723724B2 (en) | Ultra-wideband positioning for wireless ultrasound tracking and communication | |
Begon et al. | Multibody kinematics optimization for the estimation of upper and lower limb human joint kinematics: a systematized methodological review | |
JP2021154168A (en) | Surgical navigation of the hip using fluoroscopy and tracking sensors | |
Ceseracciu et al. | Comparison of markerless and marker-based motion capture technologies through simultaneous data collection during gait: proof of concept | |
CA2602218C (en) | Method and system for characterization of knee joint morphology | |
Baudet et al. | Cross-talk correction method for knee kinematics in gait analysis using principal component analysis (PCA): a new proposal | |
KR101538019B1 (en) | device and method for 3D coordinate system construction | |
Camomilla et al. | A hip joint kinematics driven model for the generation of realistic thigh soft tissue artefacts | |
EP3386389B1 (en) | Determination of center of rotation of a bone | |
Ojeda et al. | The effect of kinematic constraints in the inverse dynamics problem in biomechanics | |
Haratian et al. | Toward flexibility in sensor placement for motion capture systems: a signal processing approach | |
Liu et al. | Simple method integrating OpenPose and RGB-D camera for identifying 3D body landmark locations in various postures | |
Keller et al. | From Skin to Skeleton: Towards Biomechanically Accurate 3D Digital Humans | |
Deffeyes et al. | Elliptical zone body segment modellng software: digitising, modellng and body segment parameter calculation | |
JP2023085658A (en) | Feature-point position estimation device, feature-point position estimation method and program | |
JP2017158644A (en) | Measuring apparatus, measuring method, and measuring program | |
Jiang et al. | Fast tool to evaluate 3D movements of the foot-ankle complex using multi-view depth sensors | |
Yoshikawa et al. | 4D human body posture estimation based on a motion capture system and a multi-rigid link model | |
Ayusawa et al. | Interspecies retargeting of homologous body posture based on skeletal morphing | |
Mu | Skeletal kinematic measurement using model-image registration and mechanical constraints | |
US11694002B1 (en) | Customized protective devices and systems and methods for producing the same | |
Jia et al. | Globally optimal registration for describing joint kinematics | |
Harshe | A multi-sensor, cable-driven parallel manipulator based lower limb rehabilitation device: design and analysis | |
Tersi et al. | Fluoroscopic analysis for the estimation of in vivo elbow kinematics: influence of 3D model | |
Zhao | Comprehensive and anatomically-based modelling of human foot |