JP6482103B2 - 測定装置及び測定方法 - Google Patents
測定装置及び測定方法 Download PDFInfo
- Publication number
- JP6482103B2 JP6482103B2 JP2017524729A JP2017524729A JP6482103B2 JP 6482103 B2 JP6482103 B2 JP 6482103B2 JP 2017524729 A JP2017524729 A JP 2017524729A JP 2017524729 A JP2017524729 A JP 2017524729A JP 6482103 B2 JP6482103 B2 JP 6482103B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- position information
- angle
- acquired
- dimensional sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 85
- 230000033001 locomotion Effects 0.000 claims description 148
- 238000012545 processing Methods 0.000 claims description 133
- 238000005259 measurement Methods 0.000 claims description 110
- 238000004364 calculation method Methods 0.000 claims description 101
- 210000003414 extremity Anatomy 0.000 claims description 46
- 238000000691 measurement method Methods 0.000 claims description 32
- 238000005452 bending Methods 0.000 claims description 29
- 210000003127 knee Anatomy 0.000 claims description 20
- 238000004040 coloring Methods 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 12
- 239000003086 colorant Substances 0.000 claims description 2
- 230000036544 posture Effects 0.000 description 122
- 210000003371 toe Anatomy 0.000 description 62
- 238000001514 detection method Methods 0.000 description 32
- 210000001624 hip Anatomy 0.000 description 32
- 238000010586 diagram Methods 0.000 description 16
- 210000002683 foot Anatomy 0.000 description 15
- 238000012360 testing method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 239000003550 marker Substances 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 235000012489 doughnuts Nutrition 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1124—Determining motor skills
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4884—Other medical applications inducing physiological or psychological stress, e.g. applications for stress testing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7278—Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/743—Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/09—Rehabilitation or training
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Geometry (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Rehabilitation Tools (AREA)
Description
下記非特許文献1には、関節可動域の正しい測定方法が規定されている。
下記非特許文献2では、KINECT(登録商標)から得られる骨格情報を用いて、関節可動域をリアルタイムに測定する手法が提案されている。この手法では、骨格情報が表示され、マウスを測定対象となり得る関節に重ねると、その関節での計測項目が表示される。そして、希望する計測項目を選択することで、計測が開始される。但し、この文献には、具体的な計測手法については開示されていない。
〔装置構成〕
図1は、第一実施形態における測定装置10のハードウェア構成例を概念的に示す図である。第一実施形態における測定装置10は、いわゆるコンピュータであり、例えば、バスで相互に接続される、CPU(Central Processing Unit)1、メモリ2、入出力インタフェース(I/F)3、通信ユニット4等を有する。
メモリ2は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
図2は、第一実施形態における測定装置10の処理構成例を概念的に示す図である。第一実施形態における測定装置10は、データ取得部11、算出部12、判定部13、出力処理部14、操作検出部15等を有する。これら各処理モジュールは、例えば、CPU1によりメモリ2に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから通信ユニット4を介してインストールされ、メモリ2に格納されてもよい。
算出部12は、取得された骨格データに基づいて、肩の位置を端点としy軸負方向の線分と、肩の位置と手の位置とを結ぶ線分との、x軸又はz軸と直交する平面上になす角度を、肩の屈曲運動、伸展運動、外転運動、又は内転運動の能力指標として算出する。また、算出部12は、取得された骨格データに基づいて、肘の位置を端点としz軸手前向きの線分と、肘の位置と手の位置とを結ぶ線分との、y軸に直交する平面上になす角度を、肩の外旋運動又は内旋運動の能力指標として算出する。また、算出部12は、取得された骨格データに基づいて、肩の位置を端点としx軸方向の線分と、肩の位置と手の位置とを結ぶ線分との、y軸に直交する平面上になす角度を、肩の水平伸展運動又は水平屈曲運動の能力指標として算出する。図3を用いて、この算出処理を更に詳細に説明する。
算出部12は、肩の位置P1を端点としy軸負方向の線分L1と、肩の位置P1と手の位置P2とを結ぶ線分L2との、x軸に直交する平面(yz平面、図3の紙面)上になす角度A1を肩の屈曲運動の能力指標として算出する。
算出部12は、線分L1と、線分L2との、x軸に直交する平面(yz平面、図3の紙面)上になす角度A2を肩の伸展運動の能力指標として算出する。
算出部12は、肩の位置P3を端点としy軸負方向の線分L3と、肩の位置P3と手の位置P4とを結ぶ線分L4との、z軸に直交する平面(xy平面、図3の紙面)上になす角度A3を肩の外転運動又は内転運動の能力指標として算出する。
算出部12は、肘の位置P5を端点としz軸負方向の線分L5と、肘の位置P5と手の位置P6とを結ぶ線分L6との、y軸に直交する平面(xz平面、図3の紙面)上になす角度A5を、肩の外旋運動の能力指標として算出する。
算出部12は、線分L5と、線分L6との、y軸に直交する平面(xz平面、図3の紙面)上になす角度A6を、肩の内旋運動の能力指標として算出する。
算出部12は、肩の位置P7を端点としx軸負方向の線分L7と、肩の位置P7と手の位置P8とを結ぶ線分L8との、y軸に直交する平面(xz平面、図3の紙面)上になす角度A7を、肩の水平屈曲運動の能力指標として算出する。
算出部12は、線分L7と、線分L8との、y軸に直交する平面(xz平面、図3の紙面)上になす角度A8を、肩の水平伸展運動の能力指標として算出する。
次に、第一実施形態における出力処理部14による表示出力の具体例を説明する。
図4は、肩の屈曲運動の能力を計測する際の表示出力の例を示す図である。図4の例によれば、出力処理部14は、映像エリアD1と説明エリアD2とを隣接させて出力する。出力処理部14は、映像エリアD1に、三次元センサ7から得られる二次元画像を順次表示する。このとき、出力処理部14は、映像エリアD1に表示される二次元画像上の、角度の算出に用いられる骨格データに対応する複数の所定部位に、マーク(ドーナツ型画像)を重畳させる。更に、出力処理部14は、当該二次元画像上に、当該複数の所定部位間を結ぶ線分を重畳させる。図4の例では、左手、左肘、及び左肩にドーナツ型のマークが表示され、左手、左肘、左肩、及び右肩を結ぶ線分、並びに左腰と右腰とを結ぶ線分が表示されている。左肘、右肩、左腰及び右腰は、角度の算出には直接利用されていないが、正しい姿勢を被験者に促すために、マーク又は線分が示される。例えば、両肩が水平であり、かつ、左右の腰の高さが均一であることは、正しい姿勢として望まれる。
以下、第一実施形態における測定方法について図8を用いて説明する。
図8は、第一実施形態における測定装置10の動作例を示すフローチャートである。図8に示されるように、第一実施形態における測定方法は、測定装置10のような少なくとも一つのコンピュータにより実行される。図8に示される各処理工程は、測定装置10が有する上述の各処理モジュールの処理内容と同様であるため、各処理工程の詳細は、適宜省略される。
第一実施形態では、三次元センサ7から得られる情報に基づいて、被験者の肢体の複数の所定部位に関する世界座標系の位置情報である骨格データが取得される。そして、ユーザ操作などに応じて、肩の可動域を測定するための運動種及び対象方向(右か左か)が特定され、取得された骨格データに基づいて、特定された運動種及び対象方向に対応する方法で、その運動種の能力指標となる角度が算出される。算出された角度は、三次元センサ7から得られる二次元画像と共に、出力される。これにより、この出力を見た被験者は、測定時の自身の姿勢を確認しながら、測定結果(角度)を見ることができる。
上述の第一実施形態では、骨格データ(所定部位の位置情報)が用いられて、被験者の肢体の能力指標となる角度が算出された。第二実施形態では、深度画像に基づいて、被験者の肢体の能力指標となる距離が算出される。以下、第二実施形態における測定装置10及び測定方法について、第一実施形態と異なる内容を中心に説明する。以下の説明では、第一実施形態と同様の内容については適宜省略する。
世界座標系の距離=(PX1・DPT・tan30)/PX2
但し、被験者の指先と床面との間の距離の算出手法は、この式に限定されない。例えば、PX2は、深度画像の高さの半分の画素数とし、垂直視野角は、深度センサの垂直視野角としてもよい。また、PX1は、二次元画像上における画素数としてもよい。
次に、第二実施形態における出力処理部14による表示出力の具体例を説明する。
図10及び図11は、胸腰部の屈曲運動の能力を計測する際の表示出力の例を示す図である。映像エリアD1、説明エリアD2等の各表示エリアの配置は、図4等と同様である。出力処理部14は、ユーザにより胸腰部の屈曲運動が選択されていることをエリアD21に表示し、算出部12により算出された距離をエリアD22に表示し、距離の最小値をエリアD24に表示する。但し、図10の時点では、未だ計測が開始されていないため、エリアD22及びD24には、値は表示されていない(ハイフン表示)。図10及び図11の例では、エリアD24において最大値がハイフンで表示されているが、上述のとおり、計測値として保持される最小値のうち最大の値が最大値として出力されてもよい。
以下、第一実施形態における測定方法について図12及び図13を用いて説明する。
図12及び図13は、第二実施形態における測定装置10の動作例を示すフローチャートである。図12及び図13に示されるように、第二実施形態における測定方法は、測定装置10のような少なくとも一つのコンピュータにより実行される。図12及び図13に示される各処理工程は、測定装置10が有する上述の各処理モジュールの処理内容と同様であるため、各処理工程の詳細は、適宜省略される。
更に、測定装置10は、(S131)で取得された骨格データに基づいて、当該二次元画像上に、当該複数の所定部位間を結ぶ線分を重畳させる(S141)。線分の表示方法についても、第一実施形態で述べたとおりである。
第二実施形態では、三次元センサ7から得られる深度画像に基づいて、被験者の足のつま先の位置情報及び床面の位置情報が取得され、三次元センサ7から取得される二次元画像に含まれる被験者のつま先の位置にマークが表示される。世界座標系での右足及び左足の位置情報は、骨格データとして取得することができる。しかしながら、足部(くるぶしより下部)といっても或る程度の広さを持つため、つま先と足部の中心とでは、10センチ単位で位置が異なる。第二実施形態によれば、深度画像上で特定される被験者の輪郭及び画像領域から位置情報が取得されるため、床面及びつま先の位置をより正確に得ることができる。
上述の第二実施形態では、深度画像に基づいて、被験者の手の指先と床面との距離が被験者の肢体の能力指標として算出された。第三実施形態では、深度画像に基づいて、異なる2つの時点における被験者の手の指先の位置間の距離が被験者の肢体の能力指標として算出される。以下、第三実施形態における測定装置10及び測定方法について、上述の各実施形態と異なる内容を中心に説明する。以下の説明では、上述の各実施形態と同様の内容については適宜省略する。
次に、第三実施形態における出力処理部14による表示出力の具体例を説明する。
図14は、ファンクショナルリーチテストの能力を計測する際の表示出力の例を示す図である。映像エリアD1、説明エリアD2等の各表示エリアの配置は、図4等と同様である。出力処理部14は、ユーザによりFRTが選択されていることをエリアD21に表示し、算出部12により算出された距離をエリアD22に表示し、距離の最大値をエリアD23に表示する。なお、FRTにおいても、図4等の例と同様に、最小値が表示されてもよい。
以下、第三実施形態における測定方法について図15及び図16を用いて説明する。
図15及び図16は、第三実施形態における測定装置10の動作例を示すフローチャートである。図15及び図16に示されるように、第三実施形態における測定方法は、測定装置10のような少なくとも一つのコンピュータにより実行される。図15及び図16に示される各処理工程は、測定装置10が有する上述の各処理モジュールの処理内容と同様であるため、各処理工程の詳細は、適宜省略される。
測定装置10は、新たに取得された深度画像に基づいて、(S162)及び(S163)を実行する。(S162)は、図15に示される(S152)と同じであり、(S163)は、図15に示される(S153)と同じである。
第三実施形態では、三次元センサ7から得られる深度画像に基づいて、被験者の手の指先の位置情報が取得され、被験者の手の指先に関する、所定イベントの検出時の位置情報とその後に取得される位置情報とに対応する位置間の距離がFRTの能力指標として算出される。このように、第三実施形態によれば、深度画像に基づいて或る2つの時点での手の指先の位置間の距離が算出されるため、骨格データを用いる場合に比べて、高精度に距離を算出することができる。
第四実施形態では、顔の向き及び両肩の開き角度に基づいて、首の右回旋運動又は左回旋運動の能力指標となる角度が算出される。以下、第四実施形態における測定装置10及び測定方法について、上述の各実施形態と異なる内容を中心に説明する。以下の説明では、上述の各実施形態と同様の内容については適宜省略する。
図17は、第四実施形態における測定装置10の処理構成例を概念的に示す図である。図17に示されるように、第四実施形態における測定装置10は、上述の各実施形態の構成に加えて、報知部17を更に有する。報知部17についても、他の処理モジュールと同様に実現される。
算出部12は、左肩P11と右肩P12とを結ぶ線分L11と、x軸正方向との、y軸に直交する平面(xz平面、図18の紙面)上になす角度A11を肩の開き角度として算出する。そして、算出部12は、データ取得部11で取得された顔の向き情報が示す角度A12と肩の開き角度A11とを合算した角度(A11+A12)を、首の右回旋運動の能力指標として算出する。算出される角度(A11+A12)は、被験者が首を正面方向L12から右回旋させた方向L13までの角度と等しくなる。
また、算出部12は、左肩P11と右肩P12とを結ぶ線分L11と、x軸負方向との、y軸に直交する平面(xz平面、図18の紙面)上になす角度A13を肩の開き角度として算出する。そして、算出部12は、データ取得部11で取得された顔の向き情報が示す角度A14と肩の開き角度A13とを合算した角度(A13+A14)を、首の左回旋運動の能力指標として算出する。算出される角度(A13+A14)は、被験者が首を正面方向L14から左回旋させた方向L15までの角度と等しくなる。
次に、第四実施形態における出力処理部14による表示出力の具体例を説明する。
図19は、首可動域を計測する際の表示出力の例を示す図である。映像エリアD1、説明エリアD2等の各表示エリアの配置は、図4等と同様である。出力処理部14は、ユーザにより首の右回旋運動が選択されていることをエリアD21に表示し、算出部12により算出された角度をエリアD22に表示し、角度の最大値をエリアD23に表示する。なお、図19においても、図4等の例と同様に、最小値が表示されてもよい。
以下、第四実施形態における測定方法について図20を用いて説明する。
図20は、第四実施形態における測定装置10の動作例を示すフローチャートである。図20に示されるように、第四実施形態における測定方法は、測定装置10のような少なくとも一つのコンピュータにより実行される。図20に示される各処理工程は、測定装置10が有する上述の各処理モジュールの処理内容と同様であるため、各処理工程の詳細は、適宜省略される。
第四実施形態では、骨格データにより示される両肩の位置情報に基づいて、両肩の開き角度が算出される。両肩の開き角度は、被験者が三次元センサ7に正対した状態から、右肩又は左肩を三次元センサ7から遠ざかる方向(z軸方向)に引いた程度を示す。そして、三次元センサ7から得られる情報に基づいて、被験者の顔の向き(角度)が特定され、特定される顔の向きと両肩の開き角度との合算により、首の右回旋運動又は左回旋運動の能力指標となる角度が算出される。これにより、三次元センサ7から得られる情報に基づいて特定できる顔の向き(角度)には限度があるところ、第四実施形態によれば、両肩の開き角度と合わせることで、首の右回旋運動又は左回旋運動の能力指標を正確に計測することができる。
図4等で示される出力例では、三次元センサ7が、実世界における水平方向を向くように、配置されていた。しかしながら、股可動域などの計測のために、三次元センサ7が、鉛直方向を向くように配置されてもよい。この場合、三次元センサ7から得られる世界座標系の位置情報では、実世界の鉛直方向がz軸に設定され、実世界の水平面がxy平面に設定される。
算出部12は、右腰の位置P17を端点としy軸負方向の線分L17と、右腰の位置P17と右膝の位置P18とを結ぶ線分L18との、x軸に直交する平面(yz平面、図21の紙面)上になす角度A17を、右股の屈曲運動の能力指標として算出する。算出部12は、左股の屈曲運動の能力指標も同様に算出する。
この場合、出力処理部14は、ユーザにより股の屈曲運動が選択されていることをエリアD21に表示し、算出部12により算出された角度をエリアD22に表示し、角度の最大値をエリアD23に表示する。出力処理部14は、図4等と同様に、映像エリアD1に二次元画像を随時表示しつつ、その二次元画像上の、左膝、左腰、及び左肩の位置にマークを重畳する。図22の例では、被験者が床に寝そべった状態で、測定される。
以下、第五実施形態における測定装置及び測定方法について図23及び図24を用いて説明する。また、第五実施形態は、この測定方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録した当該少なくとも1つのコンピュータが読み取り可能な記録媒体であってもよい。
(S241)では、測定装置100は、被験者の肢体における所定部位の位置情報又は向き情報を取得する。
(S242)では、測定装置100は、(S241)で取得された位置情報又は向き情報に基づいて、被験者の肢体の能力指標となる角度又は距離を算出する。
(S243)では、測定装置100は、(S241)で取得された位置情報又は向き情報に基づいて、被験者の姿勢の適否を判定する。
(S244)では、測定装置100は、被験者の姿勢の適否の判定(S243)の結果に対応する状態で、(S242)で算出された角度又は距離を出力する。
前記取得された位置情報又は向き情報に基づいて、前記被験者の肢体の能力指標となる角度又は距離を算出する算出手段と、
前記取得された位置情報又は向き情報に基づいて、前記被験者の姿勢の適否を判定する判定手段と、
前記被験者の姿勢の適否の判定結果に対応する状態で、前記算出された角度又は距離を出力する出力処理手段と、
を備える測定装置。
2. 前記出力処理手段は、前記被験者を含む画像上に、前記角度又は前記距離の算出に用いられる複数の位置情報に対応する複数の所定部位間を結ぶ線分が、前記被験者の姿勢の適否の判定結果に対応する状態で、重畳された表示を出力する、
1.に記載の測定装置。
3. 前記取得手段は、前記被験者の肢体における所定部位の位置情報又は向き情報を順次取得し、
前記算出手段は、前記順次取得される位置情報又は向き情報に基づいて、前記角度又は前記距離を順次算出し、
前記出力処理手段は、前記被験者に関し順次算出される角度又は距離の中で、最大値又は最小値を出力しつつ、前記被験者の姿勢が不適切と判定された際に算出された角度又は距離をその最大値又は最小値の選択候補から除外する、
1.又は2.に記載の測定装置。
4. 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の肩及び手の位置情報を取得し、
前記算出手段は、前記取得された位置情報に基づいて、前記肩の位置を端点とし前記三次元センサの視野の垂直下向きの線分と、前記肩の位置と前記手の位置とを結ぶ線分との、前記三次元センサの視野の水平方向又は深度方向と直交する平面上になす角度を、肩の屈曲運動、伸展運動、外転運動、又は内転運動の能力指標として算出する、
1.から3.のいずれか1つに記載の測定装置。
5. 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の肘及び手の位置情報を取得し、
前記算出手段は、前記取得された位置情報に基づいて、前記肘の位置を端点とし前記三次元センサの視野の深度方向の逆向きの線分と、前記肘の位置と前記手の位置とを結ぶ線分との、前記三次元センサの視野の垂直方向に直交する平面上になす角度を、肩の外旋運動又は内旋運動の能力指標として算出する、
1.から4.のいずれか1つに記載の測定装置。
6. 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の肩及び手の位置情報を取得し、
前記算出手段は、前記取得された位置情報に基づいて、前記肩の位置を端点とし前記三次元センサの視野の水平方向の線分と、前記肩の位置と前記手の位置とを結ぶ線分との、前記三次元センサの視野の垂直方向に直交する平面上になす角度を、肩の水平伸展運動又は水平屈曲運動の能力指標として算出する、
1.から5.のいずれか1つに記載の測定装置。
7. 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の腰及び膝の位置情報を取得し、
前記算出手段は、前記取得された位置情報に基づいて、前記腰の位置を端点とし前記三次元センサの視野の垂直下向きの線分と、前記腰の位置と前記膝の位置とを結ぶ線分との、前記三次元センサの視野の水平方向に直交する平面上になす角度を、股の屈曲運動の能力指標として算出する、
1.から6.のいずれか1つに記載の測定装置。
8. 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の顔の向き情報及び両肩の位置情報を取得し、
前記算出手段は、前記取得された位置情報に基づいて、前記両肩を結ぶ線分と、前記三次元センサの視野の水平方向との、前記三次元センサの視野の垂直方向に直交する平面上になす角度を、肩の開き角度として算出し、前記取得された向き情報と算出された肩の開き角度とに基づいて、首の右回旋運動又は左回旋運動の能力指標となる角度を算出する、
1.から7.のいずれか1つに記載の測定装置。
9. 前記算出された肩の開き角度が所定角度範囲に含まれるか否かの判定結果を報知する報知手段、
を更に備える8.に記載の測定装置。
10. 前記判定手段は、前記算出された肩の開き角度が所定角度範囲に含まれるか否か、及び前記被験者が前記三次元センサから所定距離範囲内に位置しているか否かを判定する、
8.又は9.に記載の測定装置。
11. 前記取得手段は、三次元センサから得られる前記被験者の下半身の深度画像に基づいて、床面の位置情報及び前記被験者のつま先の位置情報を取得し、取得された位置情報で示されるつま先の位置よりも外側の、前記被験者の深度画像に基づいて、前記被験者の手の指先の位置情報を取得し、
前記算出手段は、前記床面の位置情報及び前記被験者の手の指先の位置情報に基づいて、手の指先から床面までの距離を算出する、
1.から10.のいずれか1つに記載の測定装置。
12. 前記三次元センサから前記被験者を含む画像を連続的に取得する画像取得手段、
を更に備え、
前記出力処理手段は、
前記取得された画像を順次表示しながら、前記取得されたつま先の位置情報に基づいて、表示される画像上の前記被験者のつま先の位置にマークを重畳し、
前記マークの重畳の後の所定イベントの検出により、前記マークを順次表示される画像上に固定的に重畳すると共に、順次表示される画像に含まれる前記被験者の、つま先よりも外側に位置する画像領域に、前記被験者の深度情報に応じた着色を行う、
11.に記載の測定装置。
13. 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の全身の深度画像を逐次取得し、その深度画像に基づいて、前記被験者の手の指先の位置情報を逐次取得し、所定イベントの検出時に取得されている手の指先の位置情報を保持し、
前記算出手段は、前記保持される手の指先の位置情報と、新たに取得された手の指先の位置情報とに基づいて、手の指先間の、前記三次元センサの視野の水平方向における距離を算出する、
1.から12.のいずれか1つに記載の測定装置。
被験者の肢体における所定部位の位置情報又は向き情報を取得し、
前記取得された位置情報又は向き情報に基づいて、前記被験者の肢体の能力指標となる角度又は距離を算出し、
前記取得された位置情報又は向き情報に基づいて、前記被験者の姿勢の適否を判定し、
前記被験者の姿勢の適否の判定結果に対応する状態で、前記算出された角度又は距離を出力する、
ことを含む測定方法。
15. 前記被験者を含む画像上に、前記角度又は前記距離の算出に用いられる複数の位置情報に対応する複数の所定部位間を結ぶ線分が、前記被験者の姿勢の適否の判定結果に対応する状態で、重畳された表示を更に出力する、
ことを含む14.に記載の測定方法。
16. 前記被験者の肢体における所定部位の位置情報又は向き情報を順次取得し、
前記順次取得される位置情報又は向き情報に基づいて、前記角度又は前記距離を順次算出し、
前記被験者に関し順次算出される角度又は距離の中で、最大値又は最小値を出力しつつ、前記被験者の姿勢が不適切と判定された際に算出された角度又は距離をその最大値又は最小値の選択候補から除外する、
ことを更に含む14.又は15.に記載の測定方法。
17. 前記取得は、三次元センサから得られる情報に基づいて、前記被験者の肩及び手の位置情報を取得することを含み、
前記算出は、前記取得された位置情報に基づいて、前記肩の位置を端点とし前記三次元センサの視野の垂直下向きの線分と、前記肩の位置と前記手の位置とを結ぶ線分との、前記三次元センサの視野の水平方向又は深度方向と直交する平面上になす角度を、肩の屈曲運動、伸展運動、外転運動、又は内転運動の能力指標として算出することを含む、
14.から16.のいずれか1つに記載の測定方法。
18. 前記取得は、三次元センサから得られる情報に基づいて、前記被験者の肘及び手の位置情報を取得することを含み、
前記算出は、前記取得された位置情報に基づいて、前記肘の位置を端点とし前記三次元センサの視野の深度方向の逆向きの線分と、前記肘の位置と前記手の位置とを結ぶ線分との、前記三次元センサの視野の垂直方向に直交する平面上になす角度を、肩の外旋運動又は内旋運動の能力指標として算出することを含む、
14.から17.のいずれか1つに記載の測定方法。
19. 前記取得は、三次元センサから得られる情報に基づいて、前記被験者の肩及び手の位置情報を取得することを含み、
前記算出は、前記取得された位置情報に基づいて、前記肩の位置を端点とし前記三次元センサの視野の水平方向の線分と、前記肩の位置と前記手の位置とを結ぶ線分との、前記三次元センサの視野の垂直方向に直交する平面上になす角度を、肩の水平伸展運動又は水平屈曲運動の能力指標として算出することを含む、
14.から18.のいずれか1つに記載の測定方法。
20. 前記取得は、三次元センサから得られる情報に基づいて、前記被験者の腰及び膝の位置情報を取得することを含み、
前記算出は、前記取得された位置情報に基づいて、前記腰の位置を端点とし前記三次元センサの視野の垂直下向きの線分と、前記腰の位置と前記膝の位置とを結ぶ線分との、前記三次元センサの視野の水平方向に直交する平面上になす角度を、股の屈曲運動の能力指標として算出することを含む、
14.から19.のいずれか1つに記載の測定方法。
21. 前記取得は、三次元センサから得られる情報に基づいて、前記被験者の顔の向き情報及び両肩の位置情報を取得することを含み、
前記算出は、前記取得された位置情報に基づいて、前記両肩を結ぶ線分と、前記三次元センサの視野の水平方向との、前記三次元センサの視野の垂直方向に直交する平面上になす角度を、肩の開き角度として算出し、前記取得された向き情報と算出された肩の開き角度とに基づいて、首の右回旋運動又は左回旋運動の能力指標となる角度を算出することを含む、
14.から20.のいずれか1つに記載の測定方法。
22. 前記算出された肩の開き角度が所定角度範囲に含まれるか否かの判定結果を報知する、
ことを更に含む21.に記載の測定方法。
23. 前記判定は、前記算出された肩の開き角度が所定角度範囲に含まれるか否か、及び前記被験者が前記三次元センサから所定距離範囲内に位置しているか否かを判定することを含む、
21.又は22.に記載の測定方法。
24. 前記取得は、三次元センサから得られる前記被験者の下半身の深度画像に基づいて、床面の位置情報及び前記被験者のつま先の位置情報を取得し、取得された位置情報で示されるつま先の位置よりも外側の、前記被験者の深度画像に基づいて、前記被験者の手の指先の位置情報を取得することを含み、
前記算出は、前記床面の位置情報及び前記被験者の手の指先の位置情報に基づいて、手の指先から床面までの距離を算出することを含む、
14.から23.のいずれか1つに記載の測定方法。
25. 前記三次元センサから前記被験者を含む画像を連続的に取得し、
前記取得された画像を順次表示しながら、前記取得されたつま先の位置情報に基づいて、表示される画像上の前記被験者のつま先の位置にマークを重畳し、
前記マークの重畳の後の所定イベントの検出により、前記マークを順次表示される画像上に固定的に重畳すると共に、順次表示される画像に含まれる前記被験者の、つま先よりも外側に位置する画像領域に、前記被験者の深度情報に応じた着色を行う、
ことを更に含む24.に記載の測定方法。
26. 三次元センサから得られる情報に基づいて、前記被験者の全身の深度画像を逐次取得し、
前記取得された深度画像に基づいて、前記被験者の手の指先の位置情報を逐次取得し、
所定イベントの検出時に取得されている手の指先の位置情報を保持する、
ことを更に含み、
前記算出は、前記保持される手の指先の位置情報と、新たに取得された手の指先の位置情報とに基づいて、手の指先間の、前記三次元センサの視野の水平方向における距離を算出することを含む、
14.から25.のいずれか1つに記載の測定方法。
Claims (13)
- 被験者の肢体における所定部位の位置情報又は向き情報を取得する取得手段と、
前記取得された位置情報又は向き情報に基づいて、前記被験者の肢体の能力指標となる角度又は距離を算出する算出手段と、
前記取得された位置情報又は向き情報に基づいて、前記被験者の姿勢の適否を判定する判定手段と、
前記被験者の姿勢の適否の判定結果に対応する状態で、前記算出された角度又は距離を出力する出力処理手段と、
を備え、
前記取得手段は、三次元センサから得られる前記被験者の下半身の深度画像に基づいて、床面の位置情報及び前記被験者のつま先の位置情報を取得し、取得された位置情報で示されるつま先の位置よりも外側の、前記被験者の深度画像に基づいて、前記被験者の手の指先の位置情報を取得し、
前記算出手段は、前記床面の位置情報及び前記被験者の手の指先の位置情報に基づいて、手の指先から床面までの距離を算出し、
前記三次元センサから前記被験者を含む画像を連続的に取得する画像取得手段をさらに備え、
前記出力処理手段は、
前記取得された画像を順次表示しながら、前記取得されたつま先の位置情報に基づいて、表示される画像上の前記被験者のつま先の位置にマークを重畳し、
前記マークの重畳の後の所定イベントの検出により、前記マークを順次表示される画像上に固定的に重畳すると共に、順次表示される画像に含まれる前記被験者の、つま先よりも外側に位置する画像領域に、前記被験者の深度情報に応じた着色を行う、測定装置。 - 前記出力処理手段は、前記被験者を含む画像上に、前記角度又は前記距離の算出に用いられる複数の位置情報に対応する複数の所定部位間を結ぶ線分が、前記被験者の姿勢の適否の判定結果に対応する状態で、重畳された表示を出力する、
請求項1に記載の測定装置。 - 前記取得手段は、前記被験者の肢体における所定部位の位置情報又は向き情報を順次取得し、
前記算出手段は、前記順次取得される位置情報又は向き情報に基づいて、前記角度又は前記距離を順次算出し、
前記出力処理手段は、前記被験者に関し順次算出される角度又は距離の中で、最大値又は最小値を出力しつつ、前記被験者の姿勢が不適切と判定された際に算出された角度又は距離をその最大値又は最小値の選択候補から除外する、
請求項1又は2に記載の測定装置。 - 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の肩及び手の位置情報を取得し、
前記算出手段は、前記取得された位置情報に基づいて、前記肩の位置を端点とし前記三次元センサの視野の垂直下向きの線分と、前記肩の位置と前記手の位置とを結ぶ線分との、前記三次元センサの視野の水平方向又は深度方向と直交する平面上になす角度を、肩の屈曲運動、伸展運動、外転運動、又は内転運動の能力指標として算出する、
請求項1から3のいずれか1項に記載の測定装置。 - 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の肘及び手の位置情報を取得し、
前記算出手段は、前記取得された位置情報に基づいて、前記肘の位置を端点とし前記三次元センサの視野の深度方向の逆向きの線分と、前記肘の位置と前記手の位置とを結ぶ線分との、前記三次元センサの視野の垂直方向に直交する平面上になす角度を、肩の外旋運動又は内旋運動の能力指標として算出する、
請求項1から4のいずれか1項に記載の測定装置。 - 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の肩及び手の位置情報を取得し、
前記算出手段は、前記取得された位置情報に基づいて、前記肩の位置を端点とし前記三次元センサの視野の水平方向の線分と、前記肩の位置と前記手の位置とを結ぶ線分との、前記三次元センサの視野の垂直方向に直交する平面上になす角度を、肩の水平伸展運動又は水平屈曲運動の能力指標として算出する、
請求項1から5のいずれか1項に記載の測定装置。 - 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の腰及び膝の位置情報を取得し、
前記算出手段は、前記取得された位置情報に基づいて、前記腰の位置を端点とし前記三次元センサの視野の垂直下向きの線分と、前記腰の位置と前記膝の位置とを結ぶ線分との、前記三次元センサの視野の水平方向に直交する平面上になす角度を、股の屈曲運動の能力指標として算出する、
請求項1から6のいずれか1項に記載の測定装置。 - 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の顔の向き情報及び両肩の位置情報を取得し、
前記算出手段は、前記取得された位置情報に基づいて、前記両肩を結ぶ線分と、前記三次元センサの視野の水平方向との、前記三次元センサの視野の垂直方向に直交する平面上になす角度を、肩の開き角度として算出し、前記取得された向き情報と算出された肩の開き角度とに基づいて、首の右回旋運動又は左回旋運動の能力指標となる角度を算出する、
請求項1から7のいずれか1項に記載の測定装置。 - 前記算出された肩の開き角度が所定角度範囲に含まれるか否かの判定結果を報知する報知手段、
を更に備える請求項8に記載の測定装置。 - 前記判定手段は、前記算出された肩の開き角度が所定角度範囲に含まれるか否か、及び前記被験者が前記三次元センサから所定距離範囲内に位置しているか否かを判定する、
請求項8又は9に記載の測定装置。 - 前記取得手段は、三次元センサから得られる情報に基づいて、前記被験者の全身の深度画像を逐次取得し、その深度画像に基づいて、前記被験者の手の指先の位置情報を逐次取得し、所定イベントの検出時に取得されている手の指先の位置情報を保持し、
前記算出手段は、前記保持される手の指先の位置情報と、新たに取得された手の指先の位置情報とに基づいて、手の指先間の、前記三次元センサの視野の水平方向における距離を算出する、
請求項1から10のいずれか1項に記載の測定装置。 - 少なくとも一つのコンピュータにより実行される測定方法において、
被験者の肢体における所定部位の位置情報又は向き情報を取得し、
前記取得された位置情報又は向き情報に基づいて、前記被験者の肢体の能力指標となる角度又は距離を算出し、
前記取得された位置情報又は向き情報に基づいて、前記被験者の姿勢の適否を判定し、
前記被験者の姿勢の適否の判定結果に対応する状態で、前記算出された角度又は距離を出力し、
前記取得は、三次元センサから得られる前記被験者の下半身の深度画像に基づいて、床面の位置情報及び前記被験者のつま先の位置情報を取得し、取得された位置情報で示されるつま先の位置よりも外側の、前記被験者の深度画像に基づいて、前記被験者の手の指先の位置情報を取得することを含み、
前記算出は、前記床面の位置情報及び前記被験者の手の指先の位置情報に基づいて、手の指先から床面までの距離を算出することを含み、
前記三次元センサから前記被験者を含む画像を連続的に取得し、
前記取得された画像を順次表示しながら、前記取得されたつま先の位置情報に基づいて、表示される画像上の前記被験者のつま先の位置にマークを重畳し、
前記マークの重畳の後の所定イベントの検出により、前記マークを順次表示される画像上に固定的に重畳すると共に、順次表示される画像に含まれる前記被験者の、つま先よりも外側に位置する画像領域に、前記被験者の深度情報に応じた着色を行う、ことを含む測定方法。 - 請求項12に記載の測定方法を少なくとも一つのコンピュータに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015129019 | 2015-06-26 | ||
JP2015129019 | 2015-06-26 | ||
PCT/JP2016/064139 WO2016208291A1 (ja) | 2015-06-26 | 2016-05-12 | 測定装置及び測定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016208291A1 JPWO2016208291A1 (ja) | 2018-03-22 |
JP6482103B2 true JP6482103B2 (ja) | 2019-03-13 |
Family
ID=57585000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017524729A Active JP6482103B2 (ja) | 2015-06-26 | 2016-05-12 | 測定装置及び測定方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20180153445A1 (ja) |
EP (1) | EP3315068B1 (ja) |
JP (1) | JP6482103B2 (ja) |
CN (1) | CN107708555B (ja) |
HK (1) | HK1246622A1 (ja) |
WO (1) | WO2016208291A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018156809A1 (en) * | 2017-02-24 | 2018-08-30 | Masimo Corporation | Augmented reality system for displaying patient data |
EP3585254B1 (en) | 2017-02-24 | 2024-03-20 | Masimo Corporation | Medical device cable and method of sharing data between connected medical devices |
US10932705B2 (en) | 2017-05-08 | 2021-03-02 | Masimo Corporation | System for displaying and controlling medical monitoring data |
JP6940139B2 (ja) * | 2017-06-28 | 2021-09-22 | Necソリューションイノベータ株式会社 | 身体特性分析装置、身体特性分析方法、及びプログラム |
JP7178786B2 (ja) * | 2018-03-06 | 2022-11-28 | 株式会社 Mtg | 運動制御システム |
EP3810015A1 (en) * | 2018-06-19 | 2021-04-28 | Tornier, Inc. | Mixed-reality surgical system with physical markers for registration of virtual models |
WO2020021873A1 (ja) * | 2018-07-24 | 2020-01-30 | 日本電気株式会社 | 処理装置、処理方法及びプログラム |
KR20200080047A (ko) * | 2018-12-26 | 2020-07-06 | 삼성전자주식회사 | 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기 |
KR20200095195A (ko) * | 2019-01-31 | 2020-08-10 | (주)유인케어 | Rgb-d 카메라를 이용한 재활훈련 시스템 및 방법 |
JP2020174910A (ja) * | 2019-04-18 | 2020-10-29 | 株式会社Sportip | 運動支援システム |
KR102108405B1 (ko) * | 2019-08-23 | 2020-05-08 | 박하연 | 신체정보, 자세정보 및 관절가동범위 측정 시스템 및 그 방법 |
US10932985B1 (en) * | 2020-03-14 | 2021-03-02 | Ryan Whelton | Systems and methods of positioning a body of a user during stimulation for therapeutic effects |
CN111920416B (zh) * | 2020-07-13 | 2024-05-03 | 张艳 | 一种手部康复训练效果测量方法、存储介质、终端及系统 |
JP7332550B2 (ja) * | 2020-08-18 | 2023-08-23 | トヨタ自動車株式会社 | 動作状態監視システム、訓練支援システム、動作状態監視方法およびプログラム |
WO2022207030A1 (de) * | 2021-04-01 | 2022-10-06 | Menger Joern | Finger-boden-abstandstestvorrichtung für eine beweglichkeitsmessung an personen sowie verwendung und beweglichkeitsmessverfahren |
CN115462761B (zh) * | 2022-09-29 | 2024-02-23 | 中国医学科学院北京协和医院 | 一种身体平衡监测方法及系统 |
JP7366299B1 (ja) * | 2023-03-01 | 2023-10-20 | 株式会社エクサウィザーズ | 情報処理方法、コンピュータプログラム及び情報処理装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002000584A (ja) * | 2000-06-16 | 2002-01-08 | Matsushita Electric Ind Co Ltd | 関節可動域検査訓練システム |
US20060293617A1 (en) * | 2004-02-05 | 2006-12-28 | Reability Inc. | Methods and apparatuses for rehabilitation and training |
JP4971808B2 (ja) * | 2007-01-17 | 2012-07-11 | パナソニック株式会社 | 歩行動作分析装置 |
US20140371633A1 (en) * | 2011-12-15 | 2014-12-18 | Jintronix, Inc. | Method and system for evaluating a patient during a rehabilitation exercise |
DE102012202990A1 (de) * | 2012-02-28 | 2013-08-29 | Sportmed Ag | Vorrichtung und Verfahren zum Vermessen und Befunden von Körperteil- und Extremitätenbeweglichkeiten |
CN102824176B (zh) * | 2012-09-24 | 2014-06-04 | 南通大学 | 一种基于Kinect传感器的上肢关节活动度测量方法 |
JP2014068714A (ja) * | 2012-09-28 | 2014-04-21 | Kitasato Institute | 関節角度測定システム |
CA2893811C (en) * | 2012-12-06 | 2021-03-23 | Gregory John Gallagher | Human breathing monitor |
WO2014104360A1 (ja) * | 2012-12-28 | 2014-07-03 | 株式会社東芝 | 動作情報処理装置及び方法 |
JP6334925B2 (ja) * | 2013-01-18 | 2018-05-30 | キヤノンメディカルシステムズ株式会社 | 動作情報処理装置及び方法 |
JP6188332B2 (ja) * | 2013-01-21 | 2017-08-30 | 東芝メディカルシステムズ株式会社 | 医用画像表示装置及びプログラム |
JP2015061579A (ja) * | 2013-07-01 | 2015-04-02 | 株式会社東芝 | 動作情報処理装置 |
JP6183906B2 (ja) * | 2013-08-28 | 2017-08-23 | 日本電信電話株式会社 | 歩容推定装置とそのプログラム、転倒危険度算出装置とそのプログラム |
CN104537670B (zh) * | 2014-12-31 | 2017-08-04 | 深圳泰山体育科技股份有限公司 | 一种柔韧性测试方法及系统 |
-
2016
- 2016-05-12 JP JP2017524729A patent/JP6482103B2/ja active Active
- 2016-05-12 CN CN201680037699.6A patent/CN107708555B/zh active Active
- 2016-05-12 EP EP16814062.2A patent/EP3315068B1/en active Active
- 2016-05-12 WO PCT/JP2016/064139 patent/WO2016208291A1/ja active Application Filing
- 2016-05-12 US US15/580,540 patent/US20180153445A1/en not_active Abandoned
-
2018
- 2018-05-11 HK HK18106165.6A patent/HK1246622A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
EP3315068A1 (en) | 2018-05-02 |
WO2016208291A1 (ja) | 2016-12-29 |
CN107708555B (zh) | 2020-10-27 |
HK1246622A1 (zh) | 2018-09-14 |
EP3315068A4 (en) | 2019-01-09 |
CN107708555A (zh) | 2018-02-16 |
EP3315068B1 (en) | 2020-10-21 |
JPWO2016208291A1 (ja) | 2018-03-22 |
US20180153445A1 (en) | 2018-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6482103B2 (ja) | 測定装置及び測定方法 | |
KR101930652B1 (ko) | 보행 해석 시스템 및 기록 매체에 기록된 컴퓨터 프로그램 | |
US20180333084A1 (en) | Joint movement analysis system and method; knee-joint dynamic evaluation method and system | |
JP6881755B2 (ja) | 視線検出校正方法、システム、及びコンピュータプログラム | |
US20230005161A1 (en) | Information processing apparatus and determination result output method | |
US20210267494A1 (en) | Analysis system and method of joint movement | |
Lim et al. | Camera-based hand tracking using a mirror-based multi-view setup | |
Ono et al. | Dynamic motion tracking based on point cloud matching with personalized body segmentation | |
US11694360B2 (en) | Calibrating 3D motion capture system for skeletal alignment using x-ray data | |
KR101788960B1 (ko) | 관절 가동성 자동측정장치 및 이를 이용한 관절 가동성 자동측정방법 | |
KR102310964B1 (ko) | 근골격계 증상을 진단하기 위한 전자 장치, 방법, 및 시스템 | |
Bonnechère et al. | Can the kinectTM sensors be used for motion analysis? | |
CN108885087A (zh) | 测量装置、测量方法和计算机可读记录介质 | |
KR101398193B1 (ko) | 캘리브레이션 장치 및 방법 | |
TWI764393B (zh) | 壓力織物的製造方法 | |
CN115937969A (zh) | 仰卧起坐考核中目标人物的确定方法、装置、设备及介质 | |
JP6465419B2 (ja) | 測定装置及び測定方法 | |
JP6482102B2 (ja) | 測定装置及び測定方法 | |
Janik et al. | Validity of a computer postural analysis to estimate 3-dimensional rotations and translations of the head from three 2-dimensional digital images | |
KR20200063378A (ko) | 상호 보완형 복합센서를 이용한 인체 동작인식장치 및 인체 동작인식방법 | |
RU2732735C1 (ru) | Способ контроля положения и дыхания пациента с применением набора инфракрасных датчиков глубины | |
CN113298051B (zh) | 基于感知地毯标定的人体形体精确测量系统及方法 | |
KR102502438B1 (ko) | Ar 기반의 신장 측정 방법 및 이를 이용한 성장 상태 측정 시스템 | |
WO2022209286A1 (ja) | 判定装置 | |
KR101663297B1 (ko) | 관절 운동학을 기반으로 하는 모션 캡쳐 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6482103 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |