JP2001052202A - Human body action visualizing device - Google Patents

Human body action visualizing device

Info

Publication number
JP2001052202A
JP2001052202A JP11224891A JP22489199A JP2001052202A JP 2001052202 A JP2001052202 A JP 2001052202A JP 11224891 A JP11224891 A JP 11224891A JP 22489199 A JP22489199 A JP 22489199A JP 2001052202 A JP2001052202 A JP 2001052202A
Authority
JP
Japan
Prior art keywords
human body
model
motion
joint
body part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11224891A
Other languages
Japanese (ja)
Inventor
Toshikazu Takemori
利和 竹森
Masaru Hotehama
勝 保手浜
Hirokazu Onoe
博和 尾上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka Gas Co Ltd
Original Assignee
Osaka Gas Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka Gas Co Ltd filed Critical Osaka Gas Co Ltd
Priority to JP11224891A priority Critical patent/JP2001052202A/en
Publication of JP2001052202A publication Critical patent/JP2001052202A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To reduce the mount load of an action detecting sensor and to improve the visibility and recognizability of a concerned spot of three-dimensional computer graphic display by assembling a human body part model within a prescribed virtual space and forming a human body model corresponding to the acting attitude of a testee. SOLUTION: An action detecting part 2 generates human body action data expressing the position coordinate and direction of the human body part of the testee wearing a plurality of action detecting sensors 2b. A human body part model generation part 4 generates a joint model expressing joint positions where the sensors 2b are mounted, and a human body part model defined between these joints. A human body model forming part 7 synthesizes the human body by linking the human body part models and the joint models and arranges it within the prescribed virtual space. Then, the respective human body part models are moved by moving and rotating the respective joint models on the basis of human body action data and an action following the action of the testee is executed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被験者の所定個所
に装着した動作検出センサによって検出された人体動作
データを用いて、前記被験者の動作を3次元コンピュー
タグラフィック表示する人体動作可視化装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a human body movement visualizing apparatus for displaying a three-dimensional computer graphic of a subject's movement using human body movement data detected by a movement detection sensor attached to a predetermined part of the subject.

【0002】[0002]

【従来の技術】従来の人体動作可視化装置では、被験者
の所定個所に装着した動作検出センサによって検出され
た人体動作データを用いて人体モデルのアニメーション
を行う場合、つまり、3次元コンピュータグラフィック
表示により人体モデルを動作させる場合、人体モデルに
設定されている関節点と一対一で対応するように被験者
に動作検出センサを装着させる必要があり、脚や腕等の
一部の人体部位の動きのみを観測する場合においても、
全ての関節点に対応する個所に動作検出センサを装着し
なければならなかった。
2. Description of the Related Art In a conventional human body motion visualization apparatus, a human body model is animated using human body motion data detected by a motion detection sensor attached to a predetermined part of a subject, that is, a human body is displayed by three-dimensional computer graphic display. When operating the model, it is necessary to attach a motion detection sensor to the subject so as to correspond one-to-one with the joint points set in the human body model, and observe only the movement of some human body parts such as legs and arms If you do,
The motion detection sensors have to be mounted at the positions corresponding to all the joint points.

【0003】従来の人体動作可視化装置では、上述の如
く、被験者は全ての関節点に対応する個所に動作検出セ
ンサを装着しなければならず、かかる装着作業が煩雑に
なることに加え、被験者の動作検出と同時に生体負荷等
を計測する場合においては、被験者に対して動作検出セ
ンサ装着による不必要な負荷をかけることになり、正常
な生体負荷計測の妨げとなっていた。
In the conventional human body motion visualization device, as described above, the subject must wear motion detection sensors at locations corresponding to all joint points. In the case of measuring a biological load and the like at the same time as detecting the movement, an unnecessary load due to the attachment of the movement detection sensor is applied to the subject, which hinders normal measurement of the biological load.

【0004】また、人体動作データを人体モデルを介し
て可視化する場合において、着目個所以外の人体部位も
表示されてしまうため、着目個所の動作観測の妨げとな
っていた。つまり、着目個所以外の人体部位が着目個所
の前面に表示される場合があり、着目個所のみを様々な
角度から観測ができないという不都合があった。
Further, when visualizing the human body motion data via a human body model, a human body part other than the point of interest is displayed, which hinders the observation of the movement of the point of interest. That is, a human body part other than the point of interest may be displayed in front of the point of interest, and there is a disadvantage that only the point of interest cannot be observed from various angles.

【0005】更に、従来の人体動作可視化装置は、アニ
メーション生成に特化したリアルな人体モデルを採用し
ているものが殆どであり、計測個所が人体モデル上のど
こにあるかの視認性に欠如するものであった。また、胴
体部分が一つの人体部位で構成されており、胴体部分の
曲がりや捩れを表現することができないという問題もあ
った。
Further, most of the conventional human body motion visualization apparatuses employ a real human body model specialized for animation generation, and lack visibility of where the measurement location is on the human body model. Was something. In addition, there is a problem that the torso portion is formed of one human body portion, and the torso portion cannot be bent or twisted.

【0006】[0006]

【発明が解決しようとする課題】本発明は、上述の問題
点に鑑みてなされたものであり、その目的は、被験者の
所定個所に装着した動作検出センサによって検出された
人体動作データを用いて、前記被験者の動作を3次元コ
ンピュータグラフィック表示する場合において、動作検
出センサの装着負荷の軽減が図れ、3次元コンピュータ
グラフィック表示時の着目個所の可視性及び視認性の向
上が図れる人体動作可視化装置を提供する点にある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and has as its object to use human body motion data detected by a motion detection sensor attached to a predetermined position of a subject. And a human body movement visualization device capable of reducing the mounting load of the motion detection sensor and improving the visibility and visibility of a point of interest at the time of displaying the three-dimensional computer graphic when displaying the motion of the subject in three-dimensional computer graphics. The point is to provide.

【0007】[0007]

【課題を解決するための手段】この目的を達成するため
の本発明に係る人体動作可視化装置の第一の特徴構成
は、特許請求の範囲の欄の請求項1に記載した如く、被
験者の所定個所に装着した動作検出センサによって検出
された人体動作データを用いて、前記被験者の動作を3
次元コンピュータグラフィック表示する人体動作可視化
装置であって、前記動作検出センサの装着位置情報に基
づいて観測対象となる人体部位を特定し、その人体部位
モデルを生成する人体部位モデル生成部と、前記人体部
位モデル生成部が生成した前記人体部位モデルを所定の
仮想空間内において組み立てて、前記人体動作データに
基づいて前記被験者の動作姿勢に対応した人体モデルを
形成する人体モデル形成部と、前記人体モデル形成部が
形成した人体モデルの全部または一部を所定の表示装置
に表示する人体モデル表示部とを備えてなる点にある。
A first feature of the human body movement visualizing device according to the present invention for achieving the above object is as described in claim 1 of the claims. Using the human body motion data detected by the motion detection sensor attached to the location,
A human body movement visualization device that displays a three-dimensional computer graphic, comprising: a human body part model generation unit that specifies a human body part to be observed based on mounting position information of the motion detection sensor and generates the human body part model; A human body model forming unit that assembles the human body part model generated by the part model generating unit in a predetermined virtual space and forms a human body model corresponding to the motion posture of the subject based on the human body motion data; and And a human body model display unit for displaying all or a part of the human body model formed by the forming unit on a predetermined display device.

【0008】同第二の特徴構成は、特許請求の範囲の欄
の請求項2に記載した如く、上記第一の特徴構成に加え
て、前記人体動作データにおける前記センサの取り付け
位置を、前記被験者と同じ姿勢の前記人体モデルの対応
する位置に一致させるべく、前記人体動作データを補正
するデータ補正部を備えた点にある。
[0008] In the second feature configuration, as described in claim 2 of the claims, in addition to the first feature configuration, the mounting position of the sensor in the human body movement data is determined by the subject. A data correction unit for correcting the human body motion data so as to match the corresponding position of the human body model having the same posture as that of the human body model.

【0009】同第三の特徴構成は、特許請求の範囲の欄
の請求項3に記載した如く、上記第一または第二の特徴
構成に加えて、前記人体モデル形成部が形成した人体モ
デルの人体部位の内から前記人体モデル表示部に表示す
る部位を選択する表示部位選択部を備えた点にある。
The third feature configuration is, in addition to the first or second feature configuration, described in claim 3 in the claims section, in addition to the human body model formed by the human body model forming section. The present invention is characterized in that a display part selection unit for selecting a part to be displayed on the human body model display unit from the human body parts is provided.

【0010】同第四の特徴構成は、特許請求の範囲の欄
の請求項4に記載した如く、上記第一、第二または第三
の特徴構成に加えて、関節位置を前記人体モデルと違う
特殊な形状で強調表示する点にある。
[0010] In the fourth feature configuration, in addition to the first, second or third feature configuration, a joint position is different from that of the human body model, as described in claim 4 of the claims. The point is that it is highlighted in a special shape.

【0011】同第五の特徴構成は、特許請求の範囲の欄
の請求項5に記載した如く、上記第一、第二、第三また
は第四の特徴構成に加えて、前記人体モデルの胴体部分
が上下に連結した少なくとも二つの人体部位モデルから
なる点にある。
[0011] The fifth feature configuration is, in addition to the first, second, third or fourth feature configuration as described in claim 5 of the claims section, a torso of the human body model. The point is that the part consists of at least two human body part models connected vertically.

【0012】以下に作用並びに効果を説明する。本発明
に係る人体動作可視化装置の第一の特徴構成によれば、
被験者の特定の人体部位に着目してその動作を観測する
場合に、被験者に対する動作検出センサの装着負荷の軽
減が図れるとともに、前記被験者の着目個所の動作だけ
を選択的に3次元コンピュータグラフィック表示するこ
とができ、着目個所を様々な角度から観測する場合の可
視性が向上する。
The operation and effect will be described below. According to the first characteristic configuration of the human body motion visualization device according to the present invention,
When observing the movement of a subject by focusing on a specific body part of the subject, the load on the subject to be fitted with the motion detection sensor can be reduced, and only the movement of the subject at the point of interest is selectively displayed in three-dimensional computer graphics. This improves visibility when observing a point of interest from various angles.

【0013】具体的に被験者の両手両腕の動作を観測す
る場合を例に説明する。先ず、動作検出センサは被験者
の上腕部と前腕部の両端の左右の肩関節と肘関節と手首
関節に装着される。人体部位モデル生成部が、動作検出
センサの装着位置の各関節に接続する左右の上腕部と前
腕部の各人体部位モデルを生成する。尚、左右の肩と肘
と手首の各関節は、独立した部位モデルとして生成して
もよく、また、上腕部や前腕部に付属する部位モデルと
して扱っても構わない。
A specific description will be given of a case where the movement of both hands and arms of a subject is observed. First, the motion detection sensors are attached to the left and right shoulder joints, elbow joints, and wrist joints at both ends of the subject's upper arm and forearm. The human body part model generation unit generates each human body part model of the left and right upper arm and forearm connected to each joint at the mounting position of the motion detection sensor. The left and right joints of the shoulder, elbow, and wrist may be generated as independent part models, or may be treated as part models attached to the upper arm or the forearm.

【0014】例えば、人体モデル形成部が、各上腕部と
前腕部を左右の肘関節と手首関節で相互に連結して両手
両腕の人体モデルを生成し、動作検出センサが検出した
左右の肩関節と肘関節と手首関節の位置や向きの変化を
表す人体動作データに基づいて、所定の仮想空間内にお
ける各人体部位モデルの位置や向きを変化させること
で、両手両腕の人体モデルを動作させる。人体モデル表
示部がこの両手両腕の人体モデルの動作を3次元コンピ
ュータグラフィック表示する。
For example, the human body model forming section connects the upper arm and the forearm to each other with left and right elbow joints and wrist joints to generate a human body model of both hands and arms, and detects the left and right shoulders detected by the motion detection sensor. Based on the human body motion data representing the changes in the positions and orientations of the joints, elbow joints, and wrist joints, the human body model with both hands and arms is operated by changing the position and orientation of each human body part model in a predetermined virtual space Let it. The human body model display unit displays the operation of the human body model of both hands and arms in a three-dimensional computer graphic display.

【0015】この結果、着目個所である両手両腕の動作
だけが3次元コンピュータグラフィック表示されるた
め、着目個所を様々な角度から、他の人体部位に視界を
妨げられることなく観測できる。例えば、胸部前方での
両手両腕の動作を背中側から観察する場合に、胴体部分
が表示されないため、かかる動作を可視化できることに
なる。また、被験者は左右の肩関節と肘関節と手首関節
に動作検出センサを装着するだけで、その他の部位に装
着する必要が無く、動作検出センサの装着負荷の軽減が
図れる。
As a result, since only the movement of both hands and arms, which is the point of interest, is displayed in three-dimensional computer graphics, it is possible to observe the point of interest from various angles without obstructing the view of other human body parts. For example, when observing the motion of both hands and arms in front of the chest from the back side, the torso portion is not displayed, so that such motion can be visualized. In addition, the subject only needs to attach the motion detection sensors to the left and right shoulder joints, elbow joints, and wrist joints, and does not need to attach the motion detection sensors to other parts, so that the load on the motion detection sensors can be reduced.

【0016】同第二の特徴構成によれば、人体動作デー
タに基づいて人体モデルを動作させる場合に、被験者の
動作に即したより正確でスムーズな動作表示が可能とな
る。例えば、一つの人体モデルを準備して、多くの被験
者の動作を個別に表示する場合に、各被験者の人体部位
のサイズや比率、動作検出センサの取り付け位置のズレ
等の個体差や、計測条件のバラツキ等によって、動作検
出センサの取り付け位置と人体モデル上の関節位置との
一義的な対応付けが行えない場合であっても、データ補
正部が動作検出センサの取り付け位置と人体モデル上の
関節位置との対応付けが確実に行えるように人体動作デ
ータを補正するため、体格の異なる被験者に対しても、
或いは、測定環境等の変化等に対しても、正確でスムー
ズな動作表示が可能となる。この結果、一つの全身モデ
ルから着目個所の人体モデルを生成した場合、同じ人体
モデルを複数の被験者に共通に使用することができる。
According to the second characteristic configuration, when the human body model is operated based on the human body operation data, a more accurate and smooth operation display according to the operation of the subject can be performed. For example, when one human body model is prepared and the motions of many subjects are individually displayed, individual differences such as the size and ratio of the human body part of each subject, displacement of the mounting position of the motion detection sensor, and measurement conditions Even if the position of attachment of the motion detection sensor and the joint position on the human body model cannot be uniquely associated due to the variation of In order to correct the human body movement data so that the correspondence with the position can be reliably performed, even for subjects with different physiques,
Alternatively, accurate and smooth operation display can be performed even when the measurement environment changes. As a result, when a human body model at a point of interest is generated from one whole body model, the same human body model can be commonly used for a plurality of subjects.

【0017】同第三の特徴構成によれば、着目個所を更
に限定して選択表示できるため、特定部位の可視性が更
に向上するのである。例えば、両手両腕の人体モデルに
対して右手右腕だけを表示させることができ、右手右腕
に着目した観察が可能で、同様に左手左腕に着目した観
察も可能となる。
According to the third characteristic configuration, the point of interest can be further selected and displayed, so that the visibility of the specific portion is further improved. For example, only the right hand and the right arm can be displayed with respect to the human body model of the two hands and the two arms, so that observation focusing on the right hand right arm is possible, and observation focusing on the left hand left arm is also possible.

【0018】同第四の特徴構成によれば、被験者の計測
個所が容易に視覚的に認識できるため、例えば、被験者
の動作と生体負荷を同時に測定している場合等におい
て、被験者の動作表示を観察しながらと生体負荷の測定
結果との対応付けを容易に行えるのである。
According to the fourth characteristic configuration, since the measurement location of the subject can be easily visually recognized, the motion display of the subject can be displayed when, for example, the motion of the subject and the biological load are simultaneously measured. The observation can be easily associated with the measurement result of the biological load while observing.

【0019】同第五の特徴構成によれば、被験者の背中
等に動作検出センサを装着することにより、胴体部分の
曲がりや捩れを3次元コンピュータグラフィック表示す
ることができるのである。
According to the fifth characteristic configuration, by attaching the motion detection sensor to the back of the subject or the like, it is possible to display a three-dimensional computer graphic display of the bending and twisting of the body part.

【0020】[0020]

【発明の実施の形態】以下、本発明に係る人体動作可視
化装置の一実施の形態を図面に基づいて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the human body movement visualizing device according to the present invention will be described below with reference to the drawings.

【0021】図1に示すように、人体動作可視化装置1
は、動作検出部2と、装着位置指定部3と、人体部位モ
デル生成部4と、人体動作データ入力部5と、データ補
正部6と、人体モデル形成部7と、表示部位選択部8
と、人体モデル表示部9とを備えた構成となっている。
As shown in FIG. 1, a human body movement visualizing device 1
Is a motion detecting unit 2, a mounting position specifying unit 3, a human body part model generating unit 4, a human body motion data input unit 5, a data correcting unit 6, a human body model forming unit 7, a display part selecting unit 8,
And a human body model display unit 9.

【0022】前記動作検出部2は、1台或いは2台以上
の磁気センサで構成されており、1台の磁気センサは、
一つの磁気信号発生部2aと、被験者の所定の人体部位
に装着して前記磁気信号発生部2aが発生した磁気信号
を所定のサンプリング間隔(例えば、50ミリ秒間隔)
で受信してその装着位置の位置座標と向きを時系列に検
出することで動作検出する複数の動作検出センサ2b
と、前記磁気信号発生部2aと前記複数の動作検出セン
サ2bの動作を制御するとともに、前記複数の動作検出
センサ2bの検出結果を受信して前記複数の動作検出セ
ンサ2bの装着された被験者の人体部位の位置座標と向
きを表す人体動作データを生成する信号処理部2cとで
構成されている。
The operation detecting section 2 includes one or more magnetic sensors, and one magnetic sensor includes:
One magnetic signal generating unit 2a and a magnetic signal generated by the magnetic signal generating unit 2a attached to a predetermined human body part of a subject at a predetermined sampling interval (for example, 50 millisecond intervals)
A plurality of motion detection sensors 2b that detect motion by detecting the position coordinates and orientation of the mounting position in time series
And controlling the operation of the magnetic signal generating unit 2a and the plurality of motion detection sensors 2b, receiving the detection results of the plurality of motion detection sensors 2b, and measuring the subject wearing the plurality of motion detection sensors 2b. A signal processing unit 2c for generating human body motion data representing the position coordinates and orientation of the human body part.

【0023】前記装着位置指定部3は観察対象となる人
体部位に対応してその両端の関節位置に装着された動作
検出センサ2bの装着位置を外部入力操作により指定
し、その指定された装着位置情報を前記人体部位モデル
生成部4に出力する。
The mounting position specifying unit 3 specifies the mounting position of the motion detection sensor 2b mounted at the joint position at both ends corresponding to the human body part to be observed by an external input operation, and the specified mounting position. The information is output to the human body part model generation unit 4.

【0024】前記人体部位モデル生成部4は、前記装着
位置情報から、前記動作検出センサ2bが装着された関
節位置を表す関節モデルと、その関節間で定義される人
体部位モデルを生成する。各人体部位モデルは前記関節
モデルの内の特定のものを介して相互に接続可能なモデ
ルで、関節モデルの位置に合わせて伸縮自在な構造とな
っている。また、関節モデルにはその向きを表す方向ベ
クトルが割り当てられている。ここで、前記方向ベクト
ルは前記各動作検出センサ2bの装着方向を示してお
り、装着面から関節中心へ向かうベクトルで定義され
る。尚、人体各部の人体部位モデルと関節モデルは予め
全身モデルとして準備されているものの中から選択して
使用する。
The human body part model generation section 4 generates a joint model representing the joint position where the motion detection sensor 2b is mounted and a human body part model defined between the joints from the mounting position information. Each human body part model is a model that can be connected to each other via a specific one of the joint models, and has a structure that can be expanded and contracted in accordance with the position of the joint model. Also, a direction vector representing the direction is assigned to the joint model. Here, the direction vector indicates the mounting direction of each of the motion detection sensors 2b, and is defined as a vector from the mounting surface toward the joint center. The human body part model and the joint model of each part of the human body are selected and used from those prepared in advance as a whole body model.

【0025】例えば、図2に示すように、左右何れか一
方の片腕片手を観察対象とする場合、人体部位モデル1
0として、上腕モデル10aと前腕モデル10bを、関
節モデル11として肩関節11aと肘関節11bと手首
関節11cを生成する。前記上腕モデル10aは前記肩
関節11aと前記肘関節11bの間に配置されるべき人
体部位モデル10であり、前記前腕モデル10bは前記
肘関節11bと前記手首関節11cの間に配置されるべ
き人体部位モデル10である。また、前記肩関節11a
と前記肘関節11bと前記手首関節11cには、夫々方
向ベクトル12a,12b,12cが割り当てられてい
る。この方向ベクトル12aは肩関節11aに装着され
た動作検出センサ2bの装着方向であり、前記方向ベク
トル12bは肘関節11bに装着された動作検出センサ
2bの装着方向であり、前記方向ベクトル12cは前記
手首関節11cに装着された動作検出センサ2bの装着
方向であり、夫々各動作検出センサ2bによって検出さ
れる。尚、本実施形態では、前腕モデル10bは簡易化
されたモデルで手の部分を一体で含んでいる。尚、図2
において、動作検出センサ2bを方向ベクトル12a,
12b,12cと合わせて表示しているが、動作検出セ
ンサ2bは実際には被験者の各対応する関節部位に装着
されており、当該動作検出センサ2bと方向ベクトル1
2a,12b,12cの表示は説明のために便宜的に付
加したものである。従って、3次元コンピュータグラフ
ィック表示で動作検出センサ2b及び方向ベクトル12
a,12b,12cは表示されるわけではない。但し、
これらを表示しても別段構わない。
For example, as shown in FIG. 2, when one of the right and left arms is to be observed, a human body part model 1
As 0, an upper arm model 10a and a forearm model 10b are generated, and as a joint model 11, a shoulder joint 11a, an elbow joint 11b, and a wrist joint 11c are generated. The upper arm model 10a is a human body part model 10 to be arranged between the shoulder joint 11a and the elbow joint 11b, and the forearm model 10b is a human body model to be arranged between the elbow joint 11b and the wrist joint 11c. This is a part model 10. The shoulder joint 11a
The direction vectors 12a, 12b, and 12c are assigned to the elbow joint 11b and the wrist joint 11c, respectively. The direction vector 12a is the mounting direction of the motion detection sensor 2b mounted on the shoulder joint 11a, the direction vector 12b is the mounting direction of the motion detection sensor 2b mounted on the elbow joint 11b, and the direction vector 12c is This is the mounting direction of the motion detection sensors 2b mounted on the wrist joint 11c, and is detected by each motion detection sensor 2b. In the present embodiment, the forearm model 10b is a simplified model and integrally includes a hand. FIG.
, The motion detection sensor 2b is connected to the direction vectors 12a,
12b and 12c, the motion detection sensor 2b is actually mounted on each corresponding joint of the subject, and the motion detection sensor 2b and the direction vector 1
The indications 2a, 12b, and 12c are added for convenience of explanation. Therefore, in the three-dimensional computer graphic display, the motion detection sensor 2b and the direction vector 12
a, 12b, and 12c are not necessarily displayed. However,
Even if these are displayed, it does not matter.

【0026】また、全身モデルとして準備されているも
のは、一例として、図3に示すように、人体部位モデル
10として、頭部モデル20、胸部モデル21、腹部モ
デル22、腰部モデル23、左右の上腕モデル10a、
左右の前腕モデル10b、左右の大腿モデル24、左右
の下腿モデル25を備え、また、関節モデル11とし
て、首関節26、背中関節27、腰関節28、左右の肩
関節11a、左右の肘関節11b、左右の手首関節11
c、左右の股関節29、左右の膝関節30、左右の足首
関節31を備えている。
As shown in FIG. 3, for example, as a human body part model 10, a head model 20, a chest model 21, an abdominal model 22, a waist model 23, left and right Upper arm model 10a,
A left and right forearm model 10b, a left and right thigh model 24, and a left and right lower leg model 25 are provided. As the joint model 11, a neck joint 26, a back joint 27, a waist joint 28, a left and right shoulder joint 11a, a left and right elbow joint 11b , Left and right wrist joints 11
c, left and right hip joints 29, left and right knee joints 30, and left and right ankle joints 31.

【0027】前記人体動作データ入力部5は前記動作検
出部2の前記信号処理部2cから前記人体動作データを
受信する。その受信された人体動作データは、前記デー
タ補正部6において後述する補正処理が施される。
The human body motion data input unit 5 receives the human body motion data from the signal processing unit 2c of the motion detection unit 2. The received human body motion data is subjected to a correction process described later in the data correction unit 6.

【0028】前記人体モデル形成部7は、前記人体部位
モデル生成部4が生成した前記人体部位モデル10と前
記関節モデル11を連結して人体モデル13を合成し、
所定の仮想空間内に配置する。更に、その合成した人体
モデル13に対して、前記データ補正部6で補正処理さ
れた後の前記人体動作データに基づいて、その人体動作
データの各関節位置の位置座標と向きを、前記各関節モ
デル11の位置座標及び方向ベクトルとして、前記各関
節モデル11を移動回転させることにより、それに接続
した前記各人体部位モデル10が移動し、その結果、前
記人体モデル13が前記人体動作データに応じた姿勢を
とり、前記人体動作データを逐次更新することで、前記
被験者の動作に追従した動作を実行する。
The human body model forming section 7 combines the human body part model 10 and the joint model 11 generated by the human body part model generating section 4 to synthesize a human body model 13,
It is arranged in a predetermined virtual space. Further, based on the human body motion data that has been subjected to the correction processing by the data correction unit 6 with respect to the synthesized human body model 13, the position coordinates and orientation of each joint position of the human body motion data are converted into the respective joints. By moving and rotating each of the joint models 11 as the position coordinates and the direction vector of the model 11, each of the human body part models 10 connected thereto moves, and as a result, the human body model 13 responds to the human body motion data. By taking a posture and sequentially updating the human body motion data, the motion following the motion of the subject is executed.

【0029】前記表示部位選択部8は、前記人体モデル
形成部7が形成した人体モデル13の人体部位の内から
前記人体モデル表示部9に表示させる部位を外部操作入
力に基づいて選択する。尚、前記表示部位選択部8は、
外部操作入力のないデフォールト状態では、前記人体モ
デル形成部7が形成した人体モデル13の全体を選択す
る。
The display part selecting section 8 selects a part to be displayed on the human body model display section 9 from the human body parts of the human body model 13 formed by the human body model forming section 7 based on an external operation input. It should be noted that the display site selection unit 8
In a default state where there is no external operation input, the entire human body model 13 formed by the human body model forming section 7 is selected.

【0030】前記人体モデル表示部9は、前記人体モデ
ル形成部7が形成した人体モデル13の内の前記表示部
位選択部8が選択した人体部位の動作を所定の表示装置
9aに表示する。尚、前記人体モデル形成部7が形成し
た人体モデル13の動作を3次元コンピュータグラフィ
ック表示するためのデータ処理は、既存の画像処理技術
を利用するものとする。
The human body model display section 9 displays the operation of the human body part selected by the display part selecting section 8 in the human body model 13 formed by the human body model forming section 7 on a predetermined display device 9a. The data processing for displaying the operation of the human body model 13 formed by the human body model forming unit 7 in a three-dimensional computer graphic manner uses an existing image processing technology.

【0031】以上の人体動作可視化装置1は、具体的に
は、パーソナルコンピュータ等のコンピュータシステム
で構成され、前記外部操作入力は当該コンピュータに付
属のキーボード等の入力端末から行い、前記表示装置9
aは当該コンピュータに付属のCRTモニタ等を使用す
る。
The above-described human body movement visualizing device 1 is specifically composed of a computer system such as a personal computer. The external operation input is performed from an input terminal such as a keyboard attached to the computer.
a uses a CRT monitor or the like attached to the computer.

【0032】次に、前記データ補正部6に人体動作デー
タの補正処理について説明する。尚、説明を容易にする
ため、以下、左右の肩と肘と手首に動作検出センサ2b
を装着した場合の人体動作データの補正処理を例に説明
する。
Next, the correction processing of the human body motion data by the data correction section 6 will be described. For the sake of simplicity, the motion detection sensors 2b are attached to the left and right shoulders, elbows and wrists.
A description will be given of an example of the correction processing of the human body motion data when the camera is worn.

【0033】本補正処理は、被験者14が例えば「気を
つけ」等の基準姿勢における動作検出センサ2bが検出
した装着個所の位置座標と向きを、同じ基準姿勢状態の
人体モデル13の対応する関節位置の関節モデルの位置
座標と方向ベクトルに一致するように、データ変換処理
を行う。また、このデータ変換処理は、人体動作データ
の全データに対して一括して行う一括変換処理と、個々
の動作検出センサ2bの装着位置に対する個別変換処理
とに分けられる。
In this correction process, the position coordinates and the orientation of the mounting position detected by the motion detection sensor 2b in the reference posture such as "watch out" by the subject 14 are determined by the corresponding joints of the human body model 13 in the same reference posture state. Data conversion processing is performed so that the position coordinates of the position joint model coincide with the direction vector. The data conversion process is classified into a batch conversion process for collectively performing all the human body motion data and an individual conversion process for the mounting position of each motion detection sensor 2b.

【0034】先ず、一括変換処理について説明する。こ
の一括変換処理は、重心移動処理と回転処理とスケーリ
ング処理で構成される。
First, the batch conversion process will be described. This batch conversion process includes a center-of-gravity shift process, a rotation process, and a scaling process.

【0035】重心移動処理は、図4に示すように、人体
動作データの前記動作検出センサ2bの全ての装着位置
(図中の◎印)から決定される重心(以下、データ重心
という。)Aを、人体モデル13の対応する関節位置
(図中の●印)の重心(以下、モデル重心という。)B
へ平行移動させる。具体的には、前記人体動作データ入
力部5が受信した人体動作データの前記基準姿勢状態の
各動作検出センサ2bの位置座標からデータ重心座標を
算出し、モデル重心を前記所定の仮想空間の原点とし
て、データ重心からモデル重心への平行移動ベクトルM
を算出する。ここで、モデル重心を原点に配置している
ので、平行移動ベクトルMは、データ重心の3次元座標
の極性を反転させたものと等価となる。そして、前記人
体動作データの各座標データに対して、平行移動ベクト
ルMを加算することにより、重心移動処理が実行され
る。尚、図4は簡略化のために2次元平面内での移動を
図示しているが、実計算では3次元の処理を行ってい
る。従って、必ずしも、人体動作データに基づく被験者
14と人体モデル13は同方向を向いているとは限らな
い。図5に重心移動処理後の人体動作データを示す。
As shown in FIG. 4, the center-of-gravity shift processing is performed by a center of gravity (hereinafter referred to as a data center of gravity) A determined from all the mounting positions (marked by ◎ in the figure) of the motion detection sensor 2b in the human body motion data, as shown in FIG. Is the center of gravity (hereinafter, referred to as a model center of gravity) B of the corresponding joint position of the human body model 13 (indicated by ● in the figure).
To translate. Specifically, data gravity center coordinates are calculated from the position coordinates of each of the motion detection sensors 2b in the reference posture state of the human body motion data received by the human body motion data input unit 5, and the model gravity center is determined as the origin of the predetermined virtual space. Is the translation vector M from the data center of gravity to the model center of gravity.
Is calculated. Here, since the center of gravity of the model is located at the origin, the translation vector M is equivalent to the one obtained by inverting the polarity of the three-dimensional coordinates of the center of gravity of the data. Then, by adding the parallel movement vector M to each coordinate data of the human body motion data, the center of gravity movement processing is executed. Although FIG. 4 shows the movement in a two-dimensional plane for simplification, three-dimensional processing is performed in the actual calculation. Therefore, the subject 14 and the human body model 13 based on the human body motion data are not necessarily oriented in the same direction. FIG. 5 shows the human body motion data after the center of gravity shifting process.

【0036】図5に示すように、重心移動処理後、前記
各動作検出センサ2bの装着方向と対応する関節モデル
の方向ベクトルとは一致していない。ここで、前記人体
動作データの前記各動作検出センサ2bの向きを個別に
補正するのではなく、前記人体動作データ全体を一括し
て、前記重心移動処理後のデータ重心を中心として回転
させる。この回転処理は、前記仮想空間のx軸、y軸、
z軸回り回転処理を各別に行う。具体的には、前記人体
動作データの前記各動作検出センサ2bの向きを夫々単
位ベクトルとして合成してデータ合成ベクトルを生成す
る。また、各関節モデルの方向ベクトルを夫々単位ベク
トルとして合成してモデル合成ベクトルを生成する。前
記データ合成ベクトルが前記モデル合成ベクトルと一致
するように前記回転処理を行う。図6に回転処理後の人
体動作データを示す。
As shown in FIG. 5, after the process of moving the center of gravity, the mounting direction of each of the motion detection sensors 2b does not match the direction vector of the corresponding joint model. Here, instead of individually correcting the direction of each of the motion detection sensors 2b in the human body motion data, the entire human body motion data is collectively rotated around the data center of gravity after the center of gravity movement processing. This rotation process is performed on the x-axis, y-axis,
The rotation processing about the z-axis is performed separately. Specifically, the direction of each of the motion detection sensors 2b of the human body motion data is synthesized as a unit vector to generate a data synthesized vector. In addition, the direction vector of each joint model is synthesized as a unit vector to generate a model synthesized vector. The rotation processing is performed so that the data composite vector matches the model composite vector. FIG. 6 shows the human body motion data after the rotation processing.

【0037】図6に示すように、回転処理後において
も、被験者14と人体モデル13間の体格差によって、
前記各動作検出センサ2bと対応する関節モデルの位置
は完全に一致していないので、全身の人体モデル13と
被験者14の身長の比を算出し、当該比を回転処理後の
人体動作データの前記各動作検出センサ2bの位置座標
に乗じてスケーリング処理を行う。
As shown in FIG. 6, even after the rotation processing, due to the physique difference between the subject 14 and the human body model 13,
Since the position of the joint model corresponding to each of the motion detection sensors 2b does not completely match, the height ratio of the human body model 13 of the whole body and the height of the subject 14 is calculated, and the ratio is used as the human body motion data after the rotation process. A scaling process is performed by multiplying the position coordinates of each motion detection sensor 2b.

【0038】前記人体動作データ入力部5で受信された
人体動作データに対して、上記した一連の一括変換処理
が施されることにより、前記各動作検出センサ2bの装
着位置と方向が、概ね人体モデル13の対応する関節モ
デルの位置と方向ベクトルに一致する。しかしながら、
被験者14と人体モデル13間の体格差の内の各人体部
位の比率や、前記動作検出センサ2bの装着位置や向き
のズレ等により、完全には一致していないので、個別変
換処理によって当該不一致を個別に補正する。具体的に
は、前記各装着位置の座標点の移動処理と方向ベクトル
の回転処理を行う。
The human body movement data received by the human body movement data input unit 5 is subjected to the above-described series of batch conversion processing, so that the mounting position and direction of each of the movement detection sensors 2b can be substantially changed. The position and direction vector of the corresponding joint model of the model 13 match. However,
Due to the ratio of each human body part in the physique difference between the subject 14 and the human body model 13 and the displacement of the mounting position and the orientation of the motion detection sensor 2b, they do not completely match. Is individually corrected. Specifically, movement processing of the coordinate point of each mounting position and rotation processing of the direction vector are performed.

【0039】前記人体モデル形成部7は、上述の如く、
前記データ補正部6で補正処理された後の前記人体動作
データに基づいて、前記各関節モデル11の位置座標及
び方向ベクトルを決定し、前記各関節モデル11間に対
応する前記人体部位モデル10を配置して前記人体モデ
ル13の姿勢を決定する。しかし、前記補正処理は前記
基準姿勢で行われているため、被験者の動作途中の姿勢
において、例えば、被験者の皮膚の伸縮に伴う前記動作
検出センサ2bの装着位置や向きのズレや、前記動作検
出部2の検出誤差により、前記関節モデル11の位置と
向きに僅かな誤差が発生し、前記人体部位モデル10と
連結不能となる虞があるため、前記人体部位モデル10
は長手方向に伸縮自在な構造としている。この結果、人
体モデル13は被験者の動作に追従したスムーズな動作
が可能となる。
As described above, the human body model forming section 7
The position coordinates and the direction vector of each joint model 11 are determined based on the human body motion data after the correction processing by the data correction unit 6, and the human body part model 10 corresponding between the joint models 11 is determined. The posture of the human body model 13 is determined by arranging it. However, since the correction processing is performed in the reference posture, in the posture during the movement of the subject, for example, the displacement of the mounting position and the orientation of the movement detection sensor 2b due to the expansion and contraction of the skin of the subject, and the movement detection Due to the detection error of the part 2, a slight error may occur in the position and orientation of the joint model 11 and the connection with the human body part model 10 may not be possible.
Has a structure that can expand and contract in the longitudinal direction. As a result, the human body model 13 can perform a smooth motion following the motion of the subject.

【0040】次に、前記人体モデル表示部9による3次
元コンピュータグラフィック表示例を示す。
Next, an example of a three-dimensional computer graphic display by the human body model display unit 9 will be described.

【0041】図7に、図3に示す全身モデルの全ての人
体部位を観察対象とした場合における、人体モデル13
の歩行動作を右前上方から俯瞰した表示例を示す。この
場合、前記表示部位選択部8で上半身を選択した場合の
表示例を図8に、また、両腕両脚を選択した場合の表示
例を図9に示す。このように、前記表示部位選択部8で
着目個所を選択表示させることで、個々の動きをより詳
細に観察することができる。
FIG. 7 shows a human body model 13 when all the human body parts of the whole body model shown in FIG.
2 shows a display example in which the walking motion of the user is looked down from the upper right front. In this case, FIG. 8 shows a display example when the upper body is selected by the display part selection unit 8, and FIG. 9 shows a display example when both arms and legs are selected. In this way, by selecting and displaying a point of interest in the display site selection unit 8, individual movements can be observed in more detail.

【0042】更に、図3に示すように、本実施形態で
は、胴体部分を前記腹部モデル22と前記腰部モデル2
3とこれらの両人体部位モデルを接続する前記背中関節
27で構成している。ここで、前記背中関節27に対応
する動作検出センサ2bは背中中央に装着する。かかる
構成とすることにより、図10に示すように、胴体部分
の前後の曲がり(イ)、左右の曲がり(ロ)、捩れ
(ハ)をより細かく表現することができる。
Further, as shown in FIG. 3, in the present embodiment, the torso portion is connected to the abdomen model 22 and the waist model 2
3 and the back joint 27 connecting these two human body part models. Here, the motion detection sensor 2b corresponding to the back joint 27 is mounted at the center of the back. With this configuration, as shown in FIG. 10, the front and rear bends (a), left and right bends (b), and torsion (c) of the body portion can be expressed more finely.

【0043】また、図3に示すように、前記関節モデル
11を球体で強調表示することにより、前記動作検出セ
ンサ2bによる測定部位を明確に識別することができ
る。
Also, as shown in FIG. 3, by highlighting the joint model 11 with a sphere, the measurement site by the motion detection sensor 2b can be clearly identified.

【0044】以下に別実施形態を説明する。 〈1〉上記各実施形態では、人体モデル13の構成及び
形状を図3に示すものを使用したが、必ずしも、本実施
形態の構成及び形状に限定されるものではない。
Another embodiment will be described below. <1> In each of the above embodiments, the configuration and the shape of the human body model 13 are shown in FIG. 3, but are not necessarily limited to the configuration and the shape of the present embodiment.

【0045】〈2〉また、前記データ補正部6での前記
人体動作データの補正処理は、上記した手順に限定され
るものではない。
<2> Further, the correction processing of the human body motion data in the data correction section 6 is not limited to the above-described procedure.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る人体動作可視化装置のシステム構
成を示すブロック図
FIG. 1 is a block diagram showing a system configuration of a human body motion visualization device according to the present invention.

【図2】人体部位モデル及び人体モデルの構成を説明す
るための説明図
FIG. 2 is an explanatory diagram for explaining a configuration of a human body part model and a human body model;

【図3】人体モデルの全身を示す斜視図FIG. 3 is a perspective view showing the whole body of a human body model.

【図4】補正処理における重心移動処理を説明するため
の説明図
FIG. 4 is an explanatory diagram for explaining a center-of-gravity shift process in a correction process;

【図5】補正処理における回転処理を説明するための説
明図
FIG. 5 is an explanatory diagram for explaining rotation processing in correction processing;

【図6】補正処理におけるスケーリング処理を説明する
ための説明図
FIG. 6 is an explanatory diagram for explaining a scaling process in a correction process;

【図7】歩行動作中の全身モデルをを示す斜視図FIG. 7 is a perspective view showing a whole body model during a walking operation.

【図8】人体モデルの一部の選択表示例を示す斜視図FIG. 8 is a perspective view showing an example of selective display of a part of a human body model;

【図9】人体モデルの一部の他の選択表示例を示す斜視
FIG. 9 is a perspective view showing another selected display example of a part of the human body model;

【図10】人体モデルの胴体部分の前後の曲がり(イ)
と左右の曲がり(ロ)と捩れ(ハ)を示す斜視図
FIG. 10: Bending before and after the torso part of the human body model (A)
Perspective view showing left and right bending (b) and torsion (c)

【符号の説明】[Explanation of symbols]

1 人体動作可視化装置 2 動作検出部 2a 磁気信号発生部 2b 動作検出センサ 2c 信号処理部 3 装着位置指定部 4 人体部位モデル生成部 5 人体動作データ入力部 6 データ補正部 7 人体モデル形成部 8 表示部位選択部 9 人体モデル表示部 9a 表示装置 10 人体部位モデル 10a 上腕モデル 10b 前腕モデル 11 関節モデル 11a 肩関節 11b 肘関節 11c 手首関節 12a,12b,12c 方向ベクトル 13 人体モデル 14 被験者 Reference Signs List 1 human body motion visualization device 2 motion detection unit 2a magnetic signal generation unit 2b motion detection sensor 2c signal processing unit 3 mounting position designation unit 4 human body part model generation unit 5 human body motion data input unit 6 data correction unit 7 human body model formation unit 8 display Part selection unit 9 Human body model display unit 9a Display device 10 Human body part model 10a Upper arm model 10b Forearm model 11 Joint model 11a Shoulder joint 11b Elbow joint 11c Wrist joint 12a, 12b, 12c Direction vector 13 Human body model 14 Subject

───────────────────────────────────────────────────── フロントページの続き (72)発明者 尾上 博和 京都府京都市下京区中堂寺南町17 株式会 社関西新技術研究所内 Fターム(参考) 4C038 VA04 VB01 VC20 5B050 BA07 BA09 BA12 EA05 EA06 EA12 EA13 EA28 FA02 FA06 ────────────────────────────────────────────────── ─── Continued on the front page (72) Hirokazu Onoe Inventor Hirokazu Onoe 17 Shinjuku-ji Minamimachi, Shimogyo-ku, Kyoto, Kyoto F-term in Kansai Research Institute of Technology (reference) 4C038 VA04 VB01 VC20 5B050 BA07 BA09 BA12 EA05 EA06 EA12 EA13 EA28 FA02 FA06

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 被験者の所定個所に装着した動作検出セ
ンサによって検出された人体動作データを用いて、前記
被験者の動作を3次元コンピュータグラフィック表示す
る人体動作可視化装置であって、 前記動作検出センサの装着位置情報に基づいて観測対象
となる人体部位を特定し、その人体部位モデルを生成す
る人体部位モデル生成部と、 前記人体部位モデル生成部が生成した前記人体部位モデ
ルを所定の仮想空間内において組み立てて、前記人体動
作データに基づいて前記被験者の動作姿勢に対応した人
体モデルを形成する人体モデル形成部と、 前記人体モデル形成部が形成した人体モデルの全部また
は一部を所定の表示装置に表示する人体モデル表示部と
を備えてなる人体動作可視化装置。
1. A human body motion visualization device for displaying a motion of the subject in a three-dimensional computer graphic using human body motion data detected by a motion detection sensor attached to a predetermined portion of the subject, Specifying a human body part to be observed based on the mounting position information, a human body part model generation unit that generates the human body part model, and the human body part model generated by the human body part model generation unit in a predetermined virtual space. Assembling, a human body model forming unit that forms a human body model corresponding to the motion posture of the subject based on the human body motion data, and all or a part of the human body model formed by the human body model forming unit is displayed on a predetermined display device. A human body motion visualization device comprising a human body model display unit for displaying.
【請求項2】 前記人体動作データにおける前記センサ
の取り付け位置を、前記被験者と同じ姿勢の前記人体モ
デルの対応する位置に一致させるべく、前記人体動作デ
ータを補正するデータ補正部を備えた請求項1記載の人
体動作可視化装置。
2. A data correction unit for correcting the human body motion data so that a mounting position of the sensor in the human body motion data coincides with a corresponding position of the human body model having the same posture as the subject. 2. The human body movement visualization device according to 1.
【請求項3】 前記人体モデル形成部が形成した人体モ
デルの人体部位の内から前記人体モデル表示部に表示す
る部位を選択する表示部位選択部を備えた請求項1また
は2記載の人体動作可視化装置。
3. The human body motion visualization according to claim 1, further comprising a display part selection unit that selects a part to be displayed on the human body model display unit from the human body parts of the human body model formed by the human body model formation unit. apparatus.
【請求項4】 関節位置を前記人体モデルと違う特殊な
形状で強調表示することを特徴とする請求項1、2また
は3記載の人体動作可視化装置。
4. The human body motion visualization device according to claim 1, wherein the joint position is highlighted with a special shape different from the human body model.
【請求項5】 前記人体モデルの胴体部分が上下に連結
した少なくとも二つの人体部位モデルからなることを特
徴とする請求項1、2、3または4記載の人体動作可視
化装置。
5. The apparatus according to claim 1, wherein the body part of the human body model comprises at least two human body part models connected vertically.
JP11224891A 1999-08-09 1999-08-09 Human body action visualizing device Pending JP2001052202A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11224891A JP2001052202A (en) 1999-08-09 1999-08-09 Human body action visualizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11224891A JP2001052202A (en) 1999-08-09 1999-08-09 Human body action visualizing device

Publications (1)

Publication Number Publication Date
JP2001052202A true JP2001052202A (en) 2001-02-23

Family

ID=16820786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11224891A Pending JP2001052202A (en) 1999-08-09 1999-08-09 Human body action visualizing device

Country Status (1)

Country Link
JP (1) JP2001052202A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002065640A (en) * 2000-08-28 2002-03-05 Hitachi Ltd Body movement sensing system, health management system and work management system
US8185354B2 (en) 2008-05-19 2012-05-22 The Procter & Gamble Company Method of determining the dynamic location of a protection device
US8260578B2 (en) 2008-05-19 2012-09-04 The Procter & Gamble Company Method of determining the dynamic location of a protection
CN107134003A (en) * 2017-06-05 2017-09-05 李雪 The detection method and human body of a kind of somatic data method synchronous with the motion of virtual animation
JP2020086511A (en) * 2018-11-15 2020-06-04 株式会社ドワンゴ Data correction device, and program
CN114073515A (en) * 2020-08-18 2022-02-22 丰田自动车株式会社 Operation state monitoring system, training support system, control method for operation state monitoring system, and control program
WO2022123752A1 (en) * 2020-12-10 2022-06-16 日本電気株式会社 Image processing device, image processing method, and computer-readable recording medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002065640A (en) * 2000-08-28 2002-03-05 Hitachi Ltd Body movement sensing system, health management system and work management system
US8185354B2 (en) 2008-05-19 2012-05-22 The Procter & Gamble Company Method of determining the dynamic location of a protection device
US8260578B2 (en) 2008-05-19 2012-09-04 The Procter & Gamble Company Method of determining the dynamic location of a protection
CN107134003A (en) * 2017-06-05 2017-09-05 李雪 The detection method and human body of a kind of somatic data method synchronous with the motion of virtual animation
JP2020086511A (en) * 2018-11-15 2020-06-04 株式会社ドワンゴ Data correction device, and program
CN114073515A (en) * 2020-08-18 2022-02-22 丰田自动车株式会社 Operation state monitoring system, training support system, control method for operation state monitoring system, and control program
WO2022123752A1 (en) * 2020-12-10 2022-06-16 日本電気株式会社 Image processing device, image processing method, and computer-readable recording medium

Similar Documents

Publication Publication Date Title
CN107330967B (en) Rider motion posture capturing and three-dimensional reconstruction system based on inertial sensing technology
CN107115114A (en) Human Stamina evaluation method, apparatus and system
WO2014073121A1 (en) Manipulation system for manipulable device and manipulation input device
Rotella et al. Hapi bands: a haptic augmented posture interface
JPH09330424A (en) Movement converter for three-dimensional skeleton structure
Molet et al. An animation interface designed for motion capture
Semwal et al. Mapping algorithms for real-time control of an avatar using eight sensors
JP2001052202A (en) Human body action visualizing device
JP2001236520A (en) Method and device for inputting action in virtual space, recording medium with action input program recorded thereon and virtual space system
KR20020035386A (en) Method and apparatus for capturing motion of human body and thereby making motion data file
Morton et al. Pose calibrations for inertial sensors in rehabilitation applications
CN108013880B (en) Instantaneous dynamic heart measuring method for forward flexion and backward extension of human elbow joint to move around instantaneous dynamic heart
Chen et al. An inertial-based human motion tracking system with twists and exponential maps
WO2019152566A1 (en) Systems and methods for subject specific kinematic mapping
CN114391831A (en) Hip-knee joint angle and dynamic force line resolving system
Molet et al. An architecture for immersive evaluation of complex human tasks
JPH11325881A (en) Method and apparatus for measuring angle of joint
JP6045338B2 (en) Posture sensation system and posture evaluation system
Sun et al. Hip, knee and ankle motion angle detection based on inertial sensor
Hoshino Interpolation and extrapolation of repeated motions obtained with magnetic motion capture
JPH10133733A (en) Method and device for teaching operation of amusement robot
WO2022230299A1 (en) Measurement device, measurement system, measurement method, and recording medium
RU198065U1 (en) REHABILITATION DEVICE
EP4243686A1 (en) Motion assessment instrument
EP4303824A1 (en) System and method for monitoring a body pose of a user