JP2016080671A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2016080671A5 JP2016080671A5 JP2014225587A JP2014225587A JP2016080671A5 JP 2016080671 A5 JP2016080671 A5 JP 2016080671A5 JP 2014225587 A JP2014225587 A JP 2014225587A JP 2014225587 A JP2014225587 A JP 2014225587A JP 2016080671 A5 JP2016080671 A5 JP 2016080671A5
- Authority
- JP
- Japan
- Prior art keywords
- measured
- person
- sensor
- measurement
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 claims description 172
- 230000005484 gravity Effects 0.000 claims description 43
- 238000006243 chemical reaction Methods 0.000 claims description 32
- 238000011156 evaluation Methods 0.000 claims description 9
- 230000003287 optical Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000001276 controlling effect Effects 0.000 claims description 4
- 210000003141 Lower Extremity Anatomy 0.000 claims description 3
- 210000002683 Foot Anatomy 0.000 description 24
- 238000010586 diagram Methods 0.000 description 16
- 210000001624 Hip Anatomy 0.000 description 15
- 210000002356 Skeleton Anatomy 0.000 description 12
- 230000036545 exercise Effects 0.000 description 11
- 230000000875 corresponding Effects 0.000 description 10
- 210000003128 Head Anatomy 0.000 description 8
- 239000007787 solid Substances 0.000 description 8
- 210000001061 Forehead Anatomy 0.000 description 7
- 230000037237 body shape Effects 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 210000001503 Joints Anatomy 0.000 description 6
- 239000003550 marker Substances 0.000 description 6
- 210000000323 Shoulder Joint Anatomy 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000000474 nursing Effects 0.000 description 5
- 230000001131 transforming Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000000386 athletic Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 210000000038 chest Anatomy 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 210000002310 Elbow Joint Anatomy 0.000 description 2
- 210000003414 Extremities Anatomy 0.000 description 2
- 210000003205 Muscles Anatomy 0.000 description 2
- 210000003491 Skin Anatomy 0.000 description 2
- 230000032683 aging Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000005021 gait Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004805 robotic Methods 0.000 description 2
- 241001439061 Cocksfoot streak virus Species 0.000 description 1
- 210000001513 Elbow Anatomy 0.000 description 1
- 206010017577 Gait disturbance Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 206010022114 Injury Diseases 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium Ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 210000002832 Shoulder Anatomy 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000037396 body weight Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001809 detectable Effects 0.000 description 1
- 230000001747 exhibiting Effects 0.000 description 1
- 230000001678 irradiating Effects 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 229910052987 metal hydride Inorganic materials 0.000 description 1
- 229910052759 nickel Inorganic materials 0.000 description 1
- PXHVJJICTQNCMI-UHFFFAOYSA-N nickel Substances [Ni] PXHVJJICTQNCMI-UHFFFAOYSA-N 0.000 description 1
- -1 nickel metal hydride Chemical class 0.000 description 1
- 210000000056 organs Anatomy 0.000 description 1
- 238000000554 physical therapy Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000452 restraining Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
Description
本発明は、人間の動きを測定するロボット計測器に関する。本発明は、特にリハビリ医療や介護の分野において患者の動きを三次元空間情報として自動的に測定し、記録し、運動能力を定量的に把握する目的で身体各部位の動きについて、軌跡、運動量、加速度、関節可動域などを算出し、現在のデータを単独であるいは過去に記録したデータと比較して、患者および医療従事者に数値、グラフ、静止画、動画として提供することでリハビリ訓練の効果を確認し、医療従事者によって次の訓練の処方立案を支援することを可能とするロボット計測器に関する。 The present invention relates to a robot measuring instrument for measuring human movement. The present invention is particularly useful in the field of rehabilitation medicine and nursing care, in which the movement of a patient is automatically measured and recorded as three-dimensional spatial information, and the movement of each part of the body is analyzed for the purpose of quantitatively grasping the exercise ability. Acceleration, joint range of motion, etc., and the current data alone or compared with previously recorded data are provided to patients and healthcare professionals as numerical values, graphs, still images, and videos for rehabilitation training. The present invention relates to a robot measuring instrument that confirms the effect and enables medical staff to assist in prescribing the next training.
高齢者あるいは脳卒中や交通事故の患者の増加によって身体の自由な動きができない人の数が増加している。一方、そういった人達を介護する医師、理学療法士、作業療法士の数は増加しておらず、今後も増加が期待できない。しがって、リハビリにあたって、自動的に患者の動きを測定したり、記録したりして医療従事者を補助する手段が求められている。 The number of elderly people or those who cannot move freely is increasing due to an increase in the number of stroke and traffic accident patients. On the other hand, the number of doctors, physical therapists, and occupational therapists who care for such people has not increased and cannot be expected to increase in the future. Therefore, in rehabilitation, there is a need for a means for assisting medical staff by automatically measuring and recording patient movements.
患者の身体の動きを測定する場合、ビデオカメラで撮影することによって非接触で測定し、画像から解析することが行われている。(非特許文献1)また、モーションキャプチャと呼ばれる装置が、身体動作を二次元だけでなく、さらに三次元で測定可能であり、身体の要素ごとの動きを解析できる装置として使われてきた。 When measuring the movement of a patient's body, the measurement is performed in a non-contact manner by taking a picture with a video camera and analyzed from the image. (Non-Patent Document 1) In addition, a device called motion capture has been used as a device that can measure body motion not only in two dimensions but also in three dimensions, and can analyze the movement of each element of the body.
その例として、運動状態を測定するにあたって、患者の身体にマーカーを付け、複数のビデオカメラで撮影してマーカーの三次元の動きを画像処理で測定する装置(カトウ光研株式会社3次元リアルタイムトラッカーなど)がある。また、別のモーションキャプチャ装置としては、制限された空間に磁界発生源と磁気測定部による三次元空間を構成して磁気発生源の位置を測定するものがある。 As an example, when measuring the state of motion, a marker is attached to the patient's body, and is photographed with a plurality of video cameras, and the three-dimensional movement of the marker is measured by image processing (Kato Koken Co., Ltd. 3D real-time tracker) and so on. As another motion capture device, there is an apparatus for measuring the position of a magnetic generation source by forming a three-dimensional space by a magnetic field generation source and a magnetic measurement unit in a limited space.
これらは、人の歩行運動を測定するときにはその空間内にトレッドミルを設置して擬似的に移動空間を構成する必要が有り、装置が大掛かりになり、高価であるという課題がある。三次元情報を得るために被測定者である患者などが身体に多数のマーカーまたはセンサーを装着するという面倒さもある。 In these cases, when measuring the walking motion of a person, it is necessary to install a treadmill in the space to form a moving space in a pseudo manner, and there is a problem that the apparatus becomes large and expensive. In order to obtain three-dimensional information, there is also the trouble that a patient who is a subject wears a number of markers or sensors on the body.
別の例として、ゴルフスィングの練習など特定の運動を行うとき、身体に複数の慣性センサーを取付け、測定した信号を無線で送り、同時にビデオカメラで撮影した画像とから、パーソナルコンピュータで特定の動作のパフォーマンスを数値データ化して、グラフ表示し、さらにデータをインターネットを通じて送ってデータベース化し、過去のデータなどと比較して、運動の改善を行う方法(特許文献1)が提案されている。 As another example, when performing specific exercises such as golf swing exercises, a plurality of inertial sensors are attached to the body, the measured signals are sent wirelessly, and at the same time, the images taken by the video camera are used to perform specific actions on the personal computer A method has been proposed (Patent Document 1) in which performance is converted into numerical data, displayed in a graph, and further transmitted through the Internet to form a database and compared with past data and the like to improve exercise.
しかし、これは前記の例と同様に、多数のセンサーを身体に取り付けなくてはならないという面倒さと、ビデオカメラの撮影範囲で運動をしなければならないという課題があった。 However, similar to the above example, this has the trouble of having to attach a large number of sensors to the body and has the problem of having to exercise within the shooting range of the video camera.
また、身体にマーカーやセンサーを取り付けずに、非接触で撮影し、その画像上で身体特徴点を検出し、身体の構造や可動範囲に関する知識を利用しながら、身体の運動を解析するシステム(特許文献2)が提案されている。 In addition, a system that does not attach markers or sensors to the body, shoots in a non-contact manner, detects body feature points on the image, and uses the knowledge about the body structure and range of motion to analyze body motion ( Patent Document 2) has been proposed.
しかし、この提案も測定対象が撮影範囲から外れて移動しないようにトレッドミルを使わないといけないので、測定対象が自由に歩き回ることができないという課題が有る。 However, this proposal also has a problem that the measurement target cannot freely walk because the treadmill must be used so that the measurement target does not move out of the shooting range.
上記に述べたように、リハビリ医療や看護の分野において患者(被測定者)になるべく負担を減らし利用制限の少ない人間の動きを測定することを目的とすると、従来の方法における第一の課題は、被測定者にセンサーを装着することが必要条件になる測定方法においては、センサー装着作業により被測定者に負担になるとともに測定に必要な全体時間が長くなり、装着作業に多くの人手を要する。 As stated above, with the aim of measuring human movements with less usage restrictions and reducing the burden on patients (measured persons) in the field of rehabilitation medicine and nursing, the first problem with conventional methods is In the measurement method that requires the sensor to be attached to the measurement subject, the sensor installation work places a burden on the measurement subject and increases the overall time required for measurement, requiring a lot of manpower for the installation work. .
第二の課題は、従来のモーションキャプチャ装置は大規模な計測器を設置した空間に限られていたことであり、より一般的な場所である病院や介護施設の部屋や廊下などで計測できない。 The second problem is that the conventional motion capture device is limited to a space where a large-scale measuring instrument is installed, and cannot be measured in a more general place such as a hospital or a nursing facility room or hallway.
第三の課題は、モーションキャプチャ装置が設置されていない場所での被測定者の動きの測定は目視ないしビデオ撮影による記録画像から計測対象となる身体部位を推定する人手による作業を必要としていたことで、多大な作業時間を必要となる。 The third problem is that measurement of the movement of the subject in a place where a motion capture device is not installed required manual work to estimate the body part to be measured from the recorded image by visual or video photography. Therefore, a lot of work time is required.
第四の課題は、計測空間を介護施設や病院の廊下などまで広げる目的でロボットに三次元空間情報センサーを搭載するシステムを本発明で提案し、測定対象の被験者が移動しかつセンサーで計測可能領域に被測定者を捕捉しようロボットが移動するため、人とロボット間の距離と向きを一定に保つことはできない条件下では、センサーが測定した人体各部の距離情報は常時変動し、ディスプレイに表示すると画像表示が不安定になる。 The fourth problem is that the present invention proposes a system in which a 3D spatial information sensor is mounted on a robot for the purpose of expanding the measurement space to a nursing facility or a hospital corridor, and the subject to be measured moves and can be measured by the sensor. Because the robot moves to capture the person to be measured in the area, the distance information of each part of the human body measured by the sensor constantly fluctuates under conditions where the distance and orientation between the person and the robot cannot be kept constant. Then, the image display becomes unstable.
第五の課題は、測定対象の被測定者が移動しかつセンサーもロボットに搭載して常時移動する場合どちらも空間に固定した絶対座標での計測はできないため、同一被測定者の過去のデータと比較評価することが困難となる。 The fifth problem is that when the subject to be measured moves and the sensor is also mounted on the robot and constantly moves, both cannot measure with absolute coordinates fixed in space. It becomes difficult to compare and evaluate.
第六の課題は、被測定者の歩行能力を測定する従来テストでは所要時間と移動距離をマニュアルに従って人手計測しており、ロボットで自動計測する場合には測定開始地点および測定終了地点を判定する手段が必要になる。 The sixth problem is that in the conventional test that measures the walking ability of the person being measured, the time required and the distance traveled are manually measured according to the manual. When the robot automatically measures, the measurement start point and measurement end point are determined. Means are needed.
第七の課題は、従来の計測では歩行リハビリで用いられる床反力の計測において、足裏の床反力を計測する目的で作成された特別仕様の靴などを使用しなければならず、普段被測定者が生活で利用している靴をそのまま利用して床反力の推定ができない。 The seventh problem is that, in the conventional measurement, in the measurement of the floor reaction force used in walking rehabilitation, specially-designed shoes created for the purpose of measuring the floor reaction force of the soles must be used. The floor reaction force cannot be estimated using the shoes used by the person being measured in their daily lives.
第八の課題は、歩行リハビリ訓練では被測定者が歩行困難なため計測中に倒れる恐れがあり、本提案のロボット計測器を利用する場合においても被計測者の怪我などを未然に防ぐため計測中も介護者が付き添う必要があり、したがって計測領域に二人以上の人物が登場し、計測対象と介護者をロボットが識別する手段が必要となる。 Eighth problem is that the person being measured is likely to fall during measurement during walking rehabilitation training, and measurement is performed to prevent injury to the person being measured even when using the proposed robotic measuring instrument. A caregiver needs to be accompanied, and therefore, two or more persons appear in the measurement area, and a means for the robot to identify the measurement target and the caregiver is required.
第九の課題は、衣服をまとう被測定者と風でそよぐカーテンなどの衣服と類似のセンサー反応を示す物体との識別に誤判定が生じやすいことである。 A ninth problem is that a misjudgment is likely to occur in the discrimination between a person wearing a garment and a garment such as a curtain waving in the wind and an object exhibiting a similar sensor reaction.
第十の課題は、三次元光センサーによる人体表面をスキャンして予め用意された人体モデルを適用して人の動きを測定する手法では、特定の人を対象にしたときに関節位置など身体部位の測定値に誤差が生じる、ことである。 The tenth problem is that the human body surface is scanned by using a three-dimensional optical sensor and a human body model prepared in advance is used to measure the movement of the human body part such as the joint position when targeting a specific person. An error occurs in the measured value.
第十一の課題は、人の動きを観察してその人の日常生活における運動能力、生活能力を客観的に測定する計測手段が存在していないことである。 The eleventh problem is that there is no measuring means for observing a person's movement and objectively measuring the motor ability and life ability in the person's daily life.
したがって、本発明の目的は、上記諸課題を解決する人間の動きを測定するロボット計測器を提供することにある。Accordingly, an object of the present invention is to provide a robot measuring instrument for measuring human movement that solves the above-described problems.
上記課題を解決する本発明に従うロボット計測器は、第1の側面として、人間の動きを測定するロボット計測器であって、制御部と、三次元空間情報を取得するセンサー部と、前記制御部とセンサー部を搭載して一体で移動する走行部を有し、前記制御部は、自律的に移動する被測定者の計測中に、前記被測定者が前記センサー部のセンシング可能領域に入るように前記センサー部を制御し、且つ前記走行部を前記被測定者の動きに追従するように前記走行部の移動を制御し、前記センサー部は、光学的手段で視野内を三次元画像として繰り返し撮影し、三次元空間情報を取得する手段を有し、前記制御部は、更に、前記センサー部により取得される三次元空間情報の中から被測定者だけを選択して被測定者とする手段を有することを特徴とする。 A robot measuring instrument according to the present invention that solves the above problems is a robot measuring instrument that measures human movement as a first aspect, and includes a control unit, a sensor unit that acquires three-dimensional spatial information, and the control unit. And a traveling unit that moves integrally with the sensor unit, and the control unit is configured to allow the measured person to enter the sensing area of the sensor unit during measurement of the measured person moving autonomously. And controlling the movement of the traveling unit so that the traveling unit follows the movement of the person to be measured. The sensor unit repeats the inside of the field of view as a three-dimensional image by optical means. Means for photographing and acquiring three-dimensional spatial information, wherein the control unit further selects only the person to be measured from the three-dimensional spatial information acquired by the sensor unit to be a person to be measured Characterized by having That.
上記課題を解決する本発明に従うロボット計測器は、第2の側面として、センサー部、制御部、走行部の各ブロックから構成され、前記走行部には、前記センサー部及び制御部が搭載され、前記センサー部は三次元空間情報センサーを有し、前記制御部は計測開始から終了までの間、自律的に動く被測定者に追従して移動し、測定中に前記被測定者がセンシング可能領域に入るように前記センサー部及び前記走行部を制御し、前記三次元空間情報センサーは光学的手段で視野内を三次元画像として繰り返し撮影し、三次元空間情報を取得する機能を有し、前記制御部は、前記三次元空間情報センサーの取得した三次元空間情報の中から特定の人物だけを選択して被測定者とする機能と、ロボット移動範囲と動作を指定するために、測定空間に設定した標識を識別する機能を有し、かつ、前記被測定者の動きを表示装置上に表示するときには被測定者とセンサー間の距離および向きが両者の動きによって変化する場合においても距離および向き一定でセンシングしたように座標変換する機能を有し、更に、前記制御部は、前記被測定者の身体各部の動きの三次元測定データを、適宜な形態で該表示装置に表示する機能を有し、前記三次元測定データを連続データとして記憶装置に記録し必要に応じて読みだす機能を有することを特徴とする。The robot measuring instrument according to the present invention that solves the above problems is configured as a second aspect from each block of a sensor unit, a control unit, and a traveling unit, and the sensor unit and the control unit are mounted on the traveling unit, The sensor unit has a three-dimensional spatial information sensor, and the control unit moves following the measurement subject moving autonomously from the start to the end of measurement, and the measurement subject can sense the measurement subject during measurement. Controlling the sensor unit and the traveling unit to enter, the three-dimensional spatial information sensor has a function of repeatedly capturing the inside of the visual field as a three-dimensional image by optical means, and acquiring three-dimensional spatial information, The control unit selects a specific person from the three-dimensional spatial information acquired by the three-dimensional spatial information sensor to be a person to be measured, and specifies a robot movement range and operation in the measurement space. A function for identifying a specified sign, and when displaying the movement of the person to be measured on a display device, the distance and the direction even if the distance and the direction between the person to be measured and the sensor are changed by the movement of the two. The control unit has a function of converting coordinates as if it were sensed at a constant, and the control unit has a function of displaying the three-dimensional measurement data of the movement of each part of the body of the subject on the display device in an appropriate form. In addition, the three-dimensional measurement data is recorded in a storage device as continuous data and has a function of reading it out as necessary.
上記課題を解決する本発明に従うロボット計測器は、前記第2の側面において、第1の形態として前記制御部は三次元空間情報処理装置を有し、前記三次元空間情報センサーで得た三次元画像全体の情報から、固定物体の画像のうちから指定された標識を判別する機能を有し、前記被測定者が標識として設定したスタートラインを越えて移動する事象を検知して、その事象の発生した時刻を記録し同時に測定を開始し、前記被測定者が歩行中に足の動き情報を解析して歩数を計数し、次いで、第2標識として設定したゴールラインで測定終了時間を判定し経過時間および歩数計数測定を終了する機能を有することを特徴とする。The robot measuring instrument according to the present invention that solves the above-mentioned problems is characterized in that, in the second aspect, as a first form, the control unit has a three-dimensional spatial information processing device and is obtained by the three-dimensional spatial information sensor. It has a function of discriminating a designated sign from the image of the fixed object from information of the entire image, and detects an event of moving beyond the start line set as the sign by the measured person. Record the time of occurrence and start measurement at the same time. The person to be measured analyzes the movement information of the foot while walking, counts the number of steps, and then determines the measurement end time with the goal line set as the second indicator. It has a function of terminating the elapsed time and step count measurement.
上記課題を解決する本発明に従うロボット計測器は、前記第2の側面または、その第2の態様において、前記制御部は、前記被測定者の画像から前記被測定者の体重を推定し、重心の位置と、下肢の動きとから、歩行時に足にかかる力を連続して推定し、その結果を床反力データとして、一定の演算式で評価データに変換し、該床反力データならびに前記評価データを記憶装置に格納し、必要に応じて、該床反力データならびに/もしくは該評価データを、動画、静止画、グラフなど適宜な形式で適時に該表示装置に表示し、該記憶装置に格納してある過去の床反力データならびに/もしくは評価データを、該床反力データならびに/もしくは該評価データと比較して表示する機能を有することを特徴とする。In the robot measuring instrument according to the present invention for solving the above-mentioned problem, in the second aspect or the second aspect, the control unit estimates the weight of the person to be measured from the image of the person to be measured, and the center of gravity. The force applied to the foot during walking is continuously estimated from the position of the lower limb and the movement of the lower limbs, and the result is converted into evaluation data with a certain calculation formula as floor reaction force data. Evaluation data is stored in a storage device, and if necessary, the floor reaction force data and / or the evaluation data is displayed on the display device in an appropriate format such as a moving image, a still image, a graph, and the like. The present invention has a function of displaying past floor reaction force data and / or evaluation data stored in the table in comparison with the floor reaction force data and / or the evaluation data.
上記課題を解決する本発明に従うロボット計測器は、前記第2の側面または、その第2の態様において、さらに、無線または/および有線の通信装置を備え、外部のサーバに接続することができ、外部からの動作指令を受け取り、あるいは外部サーバへの接続を自律的に行い、現在測定中または/および測定済み被測定者の動きデータを送り、外部の三次元空間情報ベースと三次元空間情報、統計データなどビッグデータの送受が可能であることを特徴とする。The robot measuring instrument according to the present invention that solves the above-described problems further includes a wireless or / and wired communication device in the second aspect or the second embodiment, and can be connected to an external server, Receives motion commands from outside, or autonomously connects to external servers, sends motion data of currently measured and / or measured subjects, external 3D spatial information base and 3D spatial information, Big data such as statistical data can be sent and received.
本発明によればリハビリ医療現場で体の動きに不自由を感じて治療を受けている患者に対してロボット計測器を用いて医療従事者が「10メートル快適歩行」「Timed Up&Go」などの身体能力測定を実施することで、患者にセンサーを装着するなどの時間を費やす負担を軽減し、医療従事者には測定データを紙に手書きで記録する負担をなくし、患者身体各部位(手足、関節など)の動きについて連続データを収集し、運動能力を定量的に把握する目的で、軌跡、運動量、加速度、関節可動域などを算出し、現在のデータを単独であるいは過去に記録したデータと比較して、患者および医療従事者に数値、グラフ、静止画、動画として提供することでリハビリ訓練の効果を確認し、医療従事者によって次の訓練の処方立案を支援することが可能となる。 According to the present invention, a medical worker uses a robot measuring instrument to treat a patient who feels inconvenienced in body movement at a rehabilitation medical site, such as “10 meters comfortable walking”, “Timed Up & Go” By performing the ability measurement, the burden of spending time such as wearing a sensor on the patient is reduced, and the medical staff eliminates the burden of recording the measurement data by handwriting on paper. Etc.) for the purpose of collecting continuous data and quantitatively grasping the motor ability, calculating the trajectory, momentum, acceleration, joint range of motion, etc., and comparing the current data with data recorded alone or in the past The results of rehabilitation training are confirmed by providing them to patients and healthcare professionals as numerical values, graphs, still images, and videos, and medical professionals support the prescription of the next training. It becomes possible.
以下、図面を参照して、本発明の実施の形態について詳細に説明する。なお、本発明は以下の実施形態及び実施例に記載した内容により限定されるものではない。又、以下に記載した実施形態及び実施例における構成要件には、当事者が容易に想定できるもの、実質的に同一の均等の範囲のものが含まれる。更に、以下に記載した実施形態及び実施例で開示した構成要素は適宜組み合わせてもよいし、適宜選択して用いてもよい。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by the content described in the following embodiment and an Example. Further, the constituent elements in the embodiments and examples described below, those parties can be easily assumed, that are substantially those of a range of identical evenly. Furthermore, the constituent elements disclosed in the embodiments and examples described below may be appropriately combined or may be appropriately selected and used.
図1は、本発明に従うロボット計測器200を使用して被測定者100の動きを観察記録する際の、被測定者100とロボット計測器200の空間的配置を示した全体構成図である。図2は、ロボット計測器200の機能ブロック図である。 FIG. 1 is an overall configuration diagram showing a spatial arrangement of the measurement subject 100 and the robot measurement instrument 200 when the movement of the measurement subject 100 is observed and recorded using the robot measurement instrument 200 according to the present invention. FIG. 2 is a functional block diagram of the robot measuring instrument 200.
図1において、ロボット計測器200は、主要部として、センサー部300、制御部400、走行部500の各ブロックから構成される。 In FIG. 1, the robot measuring instrument 200 is composed of blocks of a sensor unit 300, a control unit 400, and a traveling unit 500 as main parts.
センサー部300は、三次元空間情報センサー310を有し、補助センサーとして人感センサー、姿勢センサー、スタビライザー等を含む。 The sensor unit 300 includes a three-dimensional spatial information sensor 310, and includes a human sensor, a posture sensor, a stabilizer, and the like as auxiliary sensors.
図2に示すように、制御部400は、三次元空間情報処理装置410、入力装置430、記憶装置440、表示装置450を有し、更にこれらと信号の送受を行うように接続される制御装置420を有する。さらに、上記制御部400の各装置に電力を供給する電源装置470及び、外部との通信を行う通信装置460を有する。 As shown in FIG. 2, the control unit 400 includes a three-dimensional spatial information processing device 410, an input device 430, a storage device 440, and a display device 450, and is further connected to perform signal transmission / reception with them. 420. Furthermore, it has the power supply device 470 which supplies electric power to each apparatus of the said control part 400, and the communication apparatus 460 which communicates with the exterior.
走行部500は、移動装置510上に計測目的に応じて必要な装置類を搭載し、計測開始から終了までの間、自律的に動く被測定者100などの測定対象に追従して移動するように制御される。これにより移動装置510は、測定中に前記測定対象である被測定者100がセンシング可能領域に入るように三次元空間情報センサー310が移動制御される。 The traveling unit 500 is equipped with necessary devices according to the measurement purpose on the moving device 510 so as to move following the measurement object such as the measurement subject 100 that moves autonomously from the start to the end of the measurement. Controlled. Thereby, in the moving device 510, the movement of the three-dimensional spatial information sensor 310 is controlled so that the person 100 to be measured enters the sensing possible region during the measurement.
三次元空間情報センサー310は光学的手段で視野内を三次元画像として繰り返し撮影する機能を持ち、三次元空間情報処理装置410は、取得した三次元空間情報の中から特定の人物だけを選択して測定対象とする機能を有する。また三次元空間情報処理装置410は、ロボット移動範囲と動作を指定する目的で測定空間に設定した標識を識別する機能を持ち、かつ、測定対象の動きを表示装置450上に表示するときには被測定者100と三次元空間情報センサー310間の距離および向きが両者の動きによって変化する場合においても距離および向き一定でセンシングしたように座標変換する機能を有する。 The three-dimensional spatial information sensor 310 has a function of repeatedly photographing the inside of the field of view as a three-dimensional image by optical means, and the three-dimensional spatial information processing device 410 selects only a specific person from the acquired three-dimensional spatial information. Have the function to be measured. The three-dimensional space information processing apparatus 410 has a function of identifying a marker set in the measurement space for the purpose of specifying the robot movement range and motion, and when the movement of the measurement target is displayed on the display device 450, Even when the distance and direction between the person 100 and the three-dimensional spatial information sensor 310 change due to the movement of both, the coordinate conversion function is performed as if sensing with a constant distance and direction.
制御装置420は、被測定者100の身体各部の動きの三次元測定データを、適宜な形態で表示装置450に表示する機能を持ち、記憶装置440は、測定データを連続データとして記録し必要に応じて読みだす機能を持つ。これにより、被測定者100の動きに自動的に追随し、被測定者100の動きを測定し記録する。 The control device 420 has a function of displaying the three-dimensional measurement data of the movement of each part of the body of the measurement subject 100 on the display device 450 in an appropriate form, and the storage device 440 records the measurement data as continuous data and is necessary. It has a function to read out accordingly. Thereby, the movement of the person 100 to be measured is automatically followed, and the movement of the person 100 to be measured is measured and recorded.
図2の機能ブロック図に示した制御装置420は、主として3つの機能を果たす。 The control device 420 shown in the functional block diagram of FIG. 2 mainly performs three functions.
すなわち、a)三次元空間情報を三次元空間情報処理装置410から受け取り、三次元空間情報処理の一部を行い、表示装置450に送り、記憶装置440や通信装置460との間で三次元空間情報処理結果を送受する動作、b)走行部500を制御し、更に、c)入力装置430により、操作者からの運転指示やデータ入力を受け取ることである。 That is, a) Three-dimensional spatial information is received from the three-dimensional spatial information processing device 410, a part of the three-dimensional spatial information processing is performed, sent to the display device 450, and the three-dimensional space between the storage device 440 and the communication device 460 is obtained. B) controlling the traveling unit 500, and c) receiving an operation instruction and data input from the operator by the input device 430.
記憶装置440は、測定した動作データを時系列に沿って記録し、また必要に応じて記録した動作データを再生する。表示装置450は、動作データの動画像やロボット計測器200全体の制御状況などを表示する。 The storage device 440 records the measured motion data along a time series, and reproduces the recorded motion data as necessary. The display device 450 displays a moving image of operation data, a control status of the entire robot measuring instrument 200, and the like.
通信装置470は、無線または有線で外部のネットワークを通じて外部に有る別のコンピュータとの間で測定結果やそれを加工したデータ、あるいは標準となる動作データなどを送受する。 The communication device 470 transmits / receives measurement results, data obtained by processing the measurement results, standard operation data, and the like to / from another computer outside via a wireless or wired external network.
図2に示した電源装置470は、ニッケル水素電池、リチウムイオン電池などの2次電池である。ロボット計測器200の各装置に電力を供給する。または、各装置が個別に電源装置をそなえてもよい。 The power supply device 470 illustrated in FIG. 2 is a secondary battery such as a nickel metal hydride battery or a lithium ion battery. Electric power is supplied to each device of the robot measuring instrument 200. Alternatively, each device may be provided with a power supply device individually.
ロボット計測器200は、入力装置430を使用して、動作の開始や停止を操作者によって操作される。測定の結果は表示装置450に表示し、また表示装置450の一部としての記録装置440に記録される。これらの測定結果を医療従事者が見て、患者の状態やリハビリ治療の効果を判断することができる。 The robot measuring instrument 200 is operated by an operator using the input device 430 to start and stop the operation. The result of the measurement is displayed on the display device 450 and recorded in a recording device 440 as a part of the display device 450. The medical staff can see these measurement results and judge the patient's condition and the effect of rehabilitation treatment.
ここで、本発明に従う人間の動きを測定するロボット計測器では、計測において「三次元空間情報」を利用すること、また得られた空間情報について「座標変換」操作を伴うことが特徴である。 Here, the robot measuring instrument for measuring human movement according to the present invention is characterized in that “three-dimensional spatial information” is used in the measurement, and that the obtained spatial information is accompanied by a “coordinate transformation” operation.
(三次元空間情報)(3D spatial information)
本発明で扱う三次元空間情報は、三次元空間座標と二次元画像から構成される。三次元空間座標は測定対象の空間における位置座標であり、当該空間を計測するためセンサーなどの原点を定めてX,Y,Z軸を固定し計測して得られる特定のポイントの空間位置情報(位置ベクトル)である。本発明で述べる二次元画像は、センサーなどで前記三次元空間に存在する人物などを計測して得られた各測定点(位置ベクトルの指す点)に対応する色情報とする。色情報を収集するには三次元空間座標を測定するセンサーと並置する形でCCDカメラなどを設置する、又は両者を一体化するなどが考えられる。 The three-dimensional spatial information handled in the present invention is composed of three-dimensional spatial coordinates and a two-dimensional image. The three-dimensional space coordinates are position coordinates in the space to be measured, and the spatial position information of a specific point obtained by measuring with the X, Y, and Z axes fixed by determining the origin of a sensor or the like to measure the space ( Position vector). The two-dimensional image described in the present invention is color information corresponding to each measurement point (point indicated by a position vector) obtained by measuring a person or the like existing in the three-dimensional space with a sensor or the like. In order to collect color information, it is conceivable to install a CCD camera or the like in parallel with a sensor for measuring three-dimensional spatial coordinates, or to integrate both.
通常三次元空間に存在する特定空間ポイントの色情報は観察点の位置(CCDカメラの三次元空間における位置)によって変化する。本発明で述べる二次元画像の色情報は撮影するために配置した撮像装置で得る。三次元空間情報を構成する三次元空間座標と二次元画像は各ポイントの対応関係を明示する必要があり、三次元空間座標が示す各ポイント対応に二次元画像の色情報を示す方法、三次元空間座標の3ポイントで構成するポリゴン対応に三次元画像の色情報を示す方法などがある。 The color information of a specific space point that usually exists in the three-dimensional space varies depending on the position of the observation point (the position of the CCD camera in the three-dimensional space). The color information of the two-dimensional image described in the present invention is obtained by an imaging device arranged for photographing. 3D spatial coordinates and 2D images that make up 3D spatial information need to clearly indicate the correspondence between each point, and the method of indicating the color information of the 2D image for each point indicated by the 3D spatial coordinates, 3D There is a method of displaying color information of a three-dimensional image corresponding to a polygon constituted by three points of spatial coordinates.
(座標変換)(Coordinate transformation)
前述のように、三次元空間座標は測定対象の空間における位置座標であり、当該空間を計測するためセンサーなどの原点を定めてX,Y,Z軸を固定し計測して得られる特定ポイントの位置ベクトルの集まりとして扱うことができる。得られた三次元空間座標(位置ベクトルの集まりで構成するポリゴン)は視点の位置を変化(直交変換)させることで上下左右の任意の位置から見た立体情報に変換することが可能である。 As described above, the three-dimensional space coordinates are position coordinates in the space to be measured. In order to measure the space, the origin of a sensor or the like is determined and the X, Y, and Z axes are fixed and measured. It can be treated as a collection of position vectors. The obtained three-dimensional space coordinates (polygons composed of a collection of position vectors) can be converted into three-dimensional information viewed from an arbitrary position in the vertical and horizontal directions by changing the position of the viewpoint (orthogonal transformation).
センサーの原点を定めてX,Y,Z軸を固定して測定した三次元データは、別の三次元座標に変換して記録表示することが有用となる場合がある。たとえば被測定者100の体の中心(例:重心)を原点として前額面(X,Y軸)と矢状面(Y、Z軸)に軸を固定した三次元データとして記録することで、計測時の三次元センサーの配置に左右されない被測定者100の測定データを得ることが可能となる。 In some cases, it is useful to record and display the three-dimensional data measured by fixing the X, Y, and Z axes with the origin of the sensor converted into another three-dimensional coordinate. For example, measurement is performed by recording as three-dimensional data in which the center of the body of the person being measured 100 (eg, the center of gravity) is the origin and the axes are fixed to the frontal plane (X, Y axes) and the sagittal plane (Y, Z axes). It becomes possible to obtain measurement data of the measurement subject 100 that is not influenced by the arrangement of the three-dimensional sensor at the time.
また被測定者の歩行解析を目的とするときには、被測定者100の重心から鉛直線を床面におろした点を原点にすることで、歩行の軌跡を記録表示するデータとして診断医に理解が容易になる。これらのことからセンサー計測で得られた三次元空間座標を任意の座標軸配置に変換することで診断目的に沿った記録表示が可能となる。 For the purpose of analyzing the walking of the person to be measured, the diagnosis doctor can understand the walking locus as data for recording and displaying the point where the vertical line from the center of gravity of the person 100 to be measured is placed on the floor. It becomes easy. From these, it is possible to record and display in accordance with the purpose of diagnosis by converting the three-dimensional spatial coordinates obtained by sensor measurement into an arbitrary arrangement of coordinate axes.
本発明は、走行部500の上に光学的手段で撮影する三次元空間情報センサー310を搭載し、三次元空間情報センサー310が検出した被測定者の三次元空間座標情報から制御装置420が走行部500に被測定者100が常にセンサー検出可能領域に入るように指示を出し、収集した三次元空間座標と二次元画像から演算処理により測定対象である患者(被測定者100)の三次元空間情報だけを選択的に切り出し、この空間情報データから患者身体の各部分との対応を演算処理で推定する。これによって、測定対象である患者の手足を含む体全体の動きの状態を連続的に測定し、空間情報データを三次元画像情報として静止画、動画、グラフなど可視化表示することで、医療従事者が動きの良否を判定する。あるいは過去の状態や標準的な歩き方と比較し、リハビリの診療方針を作成するときの支援情報の提供を可能とする。 In the present invention, a three-dimensional spatial information sensor 310 that takes an image by optical means is mounted on the traveling unit 500, and the control device 420 travels from the three-dimensional spatial coordinate information of the measurement subject detected by the three-dimensional spatial information sensor 310. The unit 500 is instructed so that the measured person 100 always enters the sensor detectable region, and the three-dimensional space of the patient (measured person 100) to be measured by the arithmetic processing from the collected three-dimensional space coordinates and the two-dimensional image. Only the information is selectively cut out, and the correspondence with each part of the patient's body is estimated from the spatial information data by a calculation process. This allows health professionals to continuously measure the state of movement of the entire body, including the patient's limbs, and to visualize spatial information data as 3D image information such as still images, videos, and graphs. Determines the quality of movement. Or, it is possible to provide support information when creating a rehabilitation medical policy in comparison with past conditions and standard walking methods.
上記した第二の課題は、一般の廊下や部屋などどこでも測定できるようにする」の目的を達成する手段はロボット計測器200が走行部500を有し、制御部400がセンサー情報により走行方向を指示して被測定者100をセンサー領域に捕捉することで実現する。 The means for achieving the purpose of the above-mentioned second problem is to make it possible to measure anywhere such as a general corridor or room, is that the robot measuring instrument 200 has a traveling unit 500 and the control unit 400 determines the traveling direction based on sensor information. This is realized by instructing and capturing the measurement subject 100 in the sensor area.
本発明に従うロボット計測器200は、センシング可能領域における三次元空間情報の取得、測定対象人物の三次元空間情報の抽出、ロボット運行制御標識の抽出を行い、必要に応じて被測定者100の体形空間情報から推測する骨格モデル化、関節の三次元空間座標の推定、ディスプレイ表示のための空間座標変換、患者診断のために用いるたとえば身体重心を原点とする空間座標変換、という順序でステップを踏んで測定を行う。 The robot measuring instrument 200 according to the present invention acquires three-dimensional spatial information in a sensing area, extracts three-dimensional spatial information of a person to be measured, extracts a robot operation control sign, and the body shape of the person being measured 100 as necessary. Steps are taken in the order of skeletal modeling inferred from spatial information, estimation of 3D spatial coordinates of joints, spatial coordinate conversion for display display, and spatial coordinate conversion using the body center of gravity as the origin, for example, for patient diagnosis Measure with.
三次元空間座標の取得は、測定対象である被測定者100の動きに従って自律的に移動するロボット計測器100に搭載した三次元空間情報センサー310によって行う。 The acquisition of the three-dimensional spatial coordinates is performed by the three-dimensional spatial information sensor 310 mounted on the robot measuring instrument 100 that moves autonomously according to the movement of the measurement subject 100 as the measurement target.
(三次元空間情報の取得)(Acquisition of 3D spatial information)
三次元空間情報センサー310を用いて前方のセンシング可能な視野内の三次元空間座標(位置ベクトル)と二次元画像を取得する。三次元空間情報の測定および後に記載する演算処理は一定の短時間ごとにリアルタイムで行われ、連続した動画として記録できる。測定は、測定対象である被測定者100の身体にセンサーや配線、あるいはマーカーなどをつけることなく、特殊な装置を備えていない普通の部屋や通路を歩いている状態で行うことができる。これにより、上記した第一の課題「被測定者にセンサー装着の負担を負わせない」の目的を達成することができる。 Using the three-dimensional spatial information sensor 310, three-dimensional spatial coordinates (position vector) and a two-dimensional image in the front-viewable visual field are acquired. The measurement of the three-dimensional spatial information and the arithmetic processing described later are performed in real time every fixed short time and can be recorded as a continuous moving image. The measurement can be performed while walking in an ordinary room or passage without a special device without attaching a sensor, wiring, marker, or the like to the body of the person 100 to be measured. As a result, it is possible to achieve the purpose of the first problem described above, “not subjecting the person to be measured to load the sensor”.
ここで、三次元空間情報センサー310の構成例を図3に示す。三次元空間座標の測定は赤外レーザ光源312を用いてホログラムフィルム313でドットパターンを生成し、測定対象となる空間に投影する。空間内に人物を含む物体が存在すればその表面で赤外光ドットは反射し、反射赤外光350は、交距離測定赤外光集光レンズ317で集めて受信CCD318に到達する。制御・伝送回路311は、受信CCD318上に記録される距離測定用赤外光を参照してドット毎の距離ベクトルを求める。得られる位置ベクトルはセンサー面を原点とする直交座標でX軸は地面に平行な左右方向、Y軸は地面に垂直、Z軸は地面に平行な奥行方向でX軸、Y軸と直交する(図4参照)。 Here, a configuration example of the three-dimensional spatial information sensor 310 is shown in FIG. For the measurement of the three-dimensional spatial coordinates, a dot pattern is generated by the hologram film 313 using the infrared laser light source 312 and projected onto the space to be measured. If there is an object including a person in the space, the infrared light dots are reflected on the surface thereof, and the reflected infrared light 350 is collected by the cross-distance measuring infrared light condensing lens 317 and reaches the receiving CCD 318. The control / transmission circuit 311 obtains a distance vector for each dot by referring to the distance measurement infrared light recorded on the reception CCD 318. The obtained position vector is orthogonal coordinates with the sensor surface as the origin, the X axis is the left-right direction parallel to the ground, the Y axis is perpendicular to the ground, the Z axis is the depth direction parallel to the ground, and is orthogonal to the X and Y axes ( (See FIG. 4).
(二次元画像の取得)(Acquisition of 2D image)
三次元空間情報センサー310は集光レンズ315を通して入力される光をレンズセンサー面に備えられた可視光撮影CCD316を利用して二次元画像も同時に収集する。撮影する画像は一般のディジタルカメラと同一の原理であり、画素対応に位置ベクトルを求める演算処理(後述)を行う。 The three-dimensional spatial information sensor 310 simultaneously collects two-dimensional images using the visible light photographing CCD 316 provided on the lens sensor surface for the light input through the condenser lens 315. An image to be taken has the same principle as that of a general digital camera, and an arithmetic process (described later) for obtaining a position vector corresponding to a pixel is performed.
(距離測定の基本原理)(Basic principle of distance measurement)
図4、図5は三次元空間情報センサー310がレーザ光源312からの距離測定赤外光を投影して対象空間に存在する人物他の距離座標を計測する仕組みを模式的に示したものである。 4 and 5 schematically illustrate a mechanism in which the three-dimensional spatial information sensor 310 projects distance measurement infrared light from the laser light source 312 to measure distance coordinates of a person or the like existing in the target space. .
図4は三次元空間情報センサー310から放射した赤外光が被測定者100の手101で反射してセンサーに戻る様子を図示している。センサーが光で距離を測定する仕組みは、図3に示されるセンサー面の投影レンズ314と集光レンズ317間の距離を底辺とした三角測量、投影するドット直径が距離に応じて受光CCD318で受光面積が小さくなることを利用して変化量から対応する距離を算出する、また赤外光短パルスを利用して放射から受信までの時間を計測する、など実用化されている各種方式が利用可能である。 FIG. 4 illustrates a state in which infrared light radiated from the three-dimensional spatial information sensor 310 is reflected by the hand 101 of the measurement subject 100 and returns to the sensor. The mechanism by which the sensor measures the distance with light is triangulation with the distance between the projection lens 314 and the condenser lens 317 on the sensor surface shown in FIG. 3 as the base, and the projected dot diameter is received by the light receiving CCD 318 according to the distance. Various methods that have been put to practical use are available, such as calculating the corresponding distance from the amount of change using the smaller area, and measuring the time from radiation to reception using a short infrared light pulse. It is.
(多数のドット反射距離から三次元情報を作成する)(Create 3D information from multiple dot reflection distances)
図5は縦方向に並んだ多数のドット反射点(101〜107)を順に結び付けることで人物の表面形状をなぞる様子を模擬的に示している。図5の右側は三次元空間情報センサー310から見た光放射空間を縦にスキャンしている様子を示す。図5の左側はその様子を横から観察し赤外光のドットがセンサー面から放射され被測定者100の表面で反射する様子を示している。各ドット対応にセンサー面原点からドット反射点までの距離が求められるので、得られた距離情報を座標X,Y,Z成分に分解することで3次元空間情報(位置ベクトル)が得られる。 FIG. 5 schematically shows a state in which a surface shape of a person is traced by sequentially connecting a large number of dot reflection points (101 to 107) arranged in the vertical direction. The right side of FIG. 5 shows a state in which the light emission space viewed from the three-dimensional spatial information sensor 310 is vertically scanned. The left side of FIG. 5 shows a state in which the state is observed from the side, and infrared dots are emitted from the sensor surface and reflected from the surface of the person 100 to be measured. Since the distance from the sensor surface origin to the dot reflection point is determined for each dot, three-dimensional spatial information (position vector) can be obtained by decomposing the obtained distance information into coordinate X, Y, and Z components.
(縦横のドット列を組み合わせて三次元情報からポリゴンを構成する)(Combine the 3D information by combining vertical and horizontal dot rows)
図6は横方向に並んだ多数のドット反射点を順に結び付けることで人物の表面形状を横になぞる様子を模擬的に示している。図6の右側は三次元空間情報センサー310から見た放射空間について人物頭部102を含む横方向および人物腰105を含む横方向にスキャンしている例である。図6の左側はその様子を横から眺め、連続したドットを結ぶことで額の曲面、腰回りの曲線を三次元空間情報として取得できることを示している。更に図5及び図6のドットによるスキャンを空間全面に広げることで多数のドットの位置ベクトルを収集し、人物表面の立体構造すなわちポリゴンを作成することが可能となる。 FIG. 6 schematically shows a state in which the surface shape of a person is traced horizontally by sequentially connecting a large number of dot reflection points arranged in the horizontal direction. The right side of FIG. 6 is an example in which the radiation space viewed from the three-dimensional spatial information sensor 310 is scanned in the horizontal direction including the human head 102 and in the horizontal direction including the human waist 105. The left side of FIG. 6 shows that the situation can be seen from the side, and the curved surface of the forehead and the waist curve can be acquired as three-dimensional spatial information by connecting consecutive dots. Further, by expanding the scanning with dots in FIGS. 5 and 6 over the entire space, it is possible to collect position vectors of a large number of dots and create a three-dimensional structure of the person surface, that is, a polygon.
(三次元画像画素と二次元空間座標の位置関係)(Positional relationship between 3D image pixels and 2D spatial coordinates)
図7は、距離測定赤外光集光レンズ317を三次元空間情報センサー310のセンサー面座標原点として撮影する構成図である。図8は、これに可視光の撮影を追加して示す図である。すなわち、三次元空間情報センサー310の機能は、三次元空間情報と二次元画像の撮影機能を組み合わせで成り立っている。両者を物理的に同一装置に合体して座標原点を同一にする仕組みも可能であるが、図8においては両者の原点位置が異なる場合を図示している。 FIG. 7 is a configuration diagram in which the distance measurement infrared light condensing lens 317 is photographed as the sensor plane coordinate origin of the three-dimensional spatial information sensor 310. FIG. 8 is a diagram in which visible light imaging is added thereto. That is, the function of the three-dimensional spatial information sensor 310 is composed of a combination of three-dimensional spatial information and a two-dimensional image capturing function. Although it is possible to physically combine the two into the same apparatus so that the coordinate origin is the same, FIG. 8 shows a case where the origin positions of the two are different.
図8に示すように2種類のセンサー316と318を併存させて空間情報と対象物の色情報を収集する場合には、図8の右側に図示したように両者の測定点が同じ面をカバーする場合でも、色情報画素の二次元座標(Xc、Yc)は、三次元センサー318が検出した位置座標と完全に一致することは極稀で、二次元画像センサー316の画素毎に三次元座標情報を計算する処理が必要となる。そこで、予め可視光CCD画素情報と空間情報(位置ベクトル)の対応データを作成して三次元空間情報処理装置に記録しておく。 As shown in FIG. 8, when two types of sensors 316 and 318 are used together to collect spatial information and color information of an object, both measurement points cover the same surface as shown on the right side of FIG. Even in this case, the two-dimensional coordinates (Xc, Yc) of the color information pixel rarely completely coincide with the position coordinates detected by the three-dimensional sensor 318, and the three-dimensional coordinates for each pixel of the two-dimensional image sensor 316 Processing to calculate information is required. Therefore, correspondence data between visible light CCD pixel information and spatial information (position vector) is created in advance and recorded in the three-dimensional spatial information processing apparatus.
(二次元画像の画素対応の座標ベクトルを求めるアルゴリズム)(Algorithm for obtaining coordinate vector corresponding to pixel of 2D image)
図9は三次元センサー317が検出した反射点の位置ベクトルが可視光CCD316のどの画素に対応するかを予め計測する原理図を示している。三次元センサー317の原点から計測用の可視光をスクリーンに投影する。図9では遠方からスクリーン1、2、3と三段階に分けて計測する例である。計測用可視光の方向を一定としているが、スクリーン位置が異なると可視光受信CCD316上の反射光を検出するCCD画素上の位置は移動する。図9では三次元センサー317とスクリーン情報反射点間の距離が決まれば可視光受信CCD316上の座標を求めることができる。この対応状況を三次元空間情報処理装置410で管理し、画素対応の三次元空間座標(位置ベクトル)を求める。 FIG. 9 shows a principle diagram for measuring in advance which pixel of the visible light CCD 316 the position vector of the reflection point detected by the three-dimensional sensor 317 corresponds to. Visible light for measurement is projected onto the screen from the origin of the three-dimensional sensor 317. FIG. 9 shows an example in which the measurement is performed in three stages of screens 1, 2, and 3 from a distance. The direction of the visible light for measurement is constant, but if the screen position is different, the position on the CCD pixel that detects the reflected light on the visible light receiving CCD 316 moves. In FIG. 9, if the distance between the three-dimensional sensor 317 and the screen information reflection point is determined, the coordinates on the visible light receiving CCD 316 can be obtained. This correspondence state is managed by the three-dimensional spatial information processing apparatus 410, and the three-dimensional spatial coordinates (position vector) corresponding to the pixels are obtained.
(身体表面位置ベクトルでポリゴン作成)(Create polygon with body surface position vector)
図7に戻ると、図5、図6で得られた赤外線反射ポイントの位置ベクトルを用いて近接ポイント間をつなぐことで三角形のタイルを敷き詰めるように構成したポリゴンの一例を示す。三次元空間情報センサー310が距離測定用赤外光を照射して得られたすべての反射赤外光350の反射点を使ってポリゴンを生成する。一定距離(一例は5メートル)以上センサー面から離れると距離計測できない場合がある。距離計測できない空間ではポリゴンを作成しない。 Returning to FIG. 7, an example of a polygon configured such that triangular tiles are spread by connecting adjacent points using the position vectors of infrared reflection points obtained in FIGS. 5 and 6 is shown. The three-dimensional spatial information sensor 310 generates a polygon using the reflection points of all the reflected infrared light 350 obtained by irradiating the distance measuring infrared light. If the distance from the sensor surface exceeds a certain distance (for example, 5 meters), the distance may not be measured. Do not create polygons in spaces where distances cannot be measured.
(人物立体モデルとの照合)(Verification with human solid model)
ポリゴンは三次元空間座標で表された多数のポイントの集合体である。三次元表示の立体像を作成する目的で汎用的に利用されている。図10の左側ではセンサーが検出したポリゴンの集合体が被測定者100のセンサー側半面を表現している様子を示している。このポリゴンは人物の表面形状を立体的に捉えており、図10の右側に例示した人体立体モデルの様々な形と照合させることで人(被測定者100)の体位を判定する。これにより、第三の課題「記録画像から計測対象となる身体部位を推定する人手作業」を計測した被測定者ポリゴンと予め作成した人体モデルのポリゴンをコンピュータが照合処理することで解決することができる。 A polygon is an aggregate of a large number of points expressed in three-dimensional space coordinates. It is widely used for the purpose of creating a three-dimensional stereoscopic image. The left side of FIG. 10 shows a state where the aggregate of polygons detected by the sensor represents the sensor-side half surface of the person 100 to be measured. The polygon captures the surface shape of the person in a three-dimensional manner, and determines the posture of the person (the person being measured 100) by comparing it with various shapes of the human three-dimensional model illustrated on the right side of FIG. As a result, the computer can compare the measured polygon of the third subject "manual operation for estimating the body part to be measured from the recorded image" with the polygon of the human body model created in advance, so that the problem can be solved. it can.
(測定対象人物の抽出)(Extraction of measurement target person)
三次元空間情報処理装置410は、取得した三次元空間情報から、前述のように人体の立位など形状マッチング処理により人物とみなすブロック(連続した物体)を判定する。即ち空間を隔てて別の場所に存在するブロックは個別に人物であるかどうかの判定処理を実施する。人物の抽出には平面画像で用いられている動きのある領域を識別に利用することも可能である。これは撮影した連続フレーム間で画素の差分を計算しまとまって動きの変化が見られる部分と静止している部分の境界を判定し動くブロックを人物の候補とする手法である。本発明ではこの手法も適用するとともに、ロボット計測器自体の移動を考慮して、演算処理によって空間に静止しているものと移動している人を識別し、測定対象人物の三次元空間情報を抽出する。 The three-dimensional spatial information processing apparatus 410 determines blocks (consecutive objects) that are regarded as persons by shape matching processing such as standing of the human body as described above from the acquired three-dimensional spatial information. That is, a determination process is performed to determine whether a block existing at another place across a space is a person. For extraction of a person, it is also possible to use an area with motion used in a planar image for identification. This is a method of calculating a pixel difference between captured frames and determining a boundary between a portion where a change in motion is observed and a portion where the motion is stationary and determining a moving block as a human candidate. In the present invention, this technique is also applied, and in consideration of the movement of the robot measuring instrument itself, the person who is moving and the person who is moving are identified by the arithmetic processing, and the three-dimensional spatial information of the person to be measured is obtained. Extract.
図11は人物の識別について精度を向上させる手法を説明している。人物候補を動きのある空間情報から選んだ場合、対象とする人物の日常生活では有りえない状態、たとえば足が一定時間床に接触していない立った状態などは人物では無いと判定する。(例えば風で揺れるカーテンなど。)対象オブジェクトの寸法が人として妥当な大きさの範囲に納まるか、計測データから得られたウエスト周囲の寸法(一例である)が標準人体体形に準じた形状であるかどうかなどの検査も実施する。抽出される三次元空間情報には、測定対象である患者の他に医療従事者などが含まれる可能性がある。 FIG. 11 illustrates a technique for improving the accuracy of person identification. When a person candidate is selected from spatial information with movement, it is determined that a state that is not possible in the daily life of the target person, for example, a state in which a foot is not in contact with the floor for a certain period of time, is not a person. (For example, a curtain swaying in the wind.) The dimensions of the target object fall within a reasonable range for humans, or the waist circumference obtained from measurement data (example) is a shape that conforms to the standard human body shape. We will also check if there is any. The extracted three-dimensional spatial information may include a medical worker in addition to the patient to be measured.
(ロボット運行制御標識の抽出)(Extraction of robot operation control signs)
センサーで測定する三次元空間情報には、ロボットが行動範囲を判断するための情報や、動きに関係する動作を規定するための情報として、周囲環境に配置される標識情報が含まれている。センサーが獲得した三次元空間情報を利用して、三次元空間座標が平面上連続し予め定められた形状と色を示す部分をロボット運行制御標識として利用する。 The three-dimensional spatial information measured by the sensor includes sign information arranged in the surrounding environment as information for the robot to determine the action range and information for defining the movement-related operation. Using the three-dimensional space information acquired by the sensor, a portion in which three-dimensional space coordinates are continuous on a plane and shows a predetermined shape and color is used as a robot operation control sign.
一例は、100メートル快適歩行の計測で利用するスタート地点とストップ地点の床に設置する白線である。他にも壁やドア、家財道具などに貼る2次元コード(QRコード(登録商標)、ARコード、バーコードなど)を運行制御標識として利用する。第六の課題「ロボットで自動計測するには測定開始地点終了地点を判断する手段が必要になる」についての解決手段は床ないし周囲の家具類にセンサーで読み取り可能な記号を描くことで頭部センサーないし脚部センサーで検出し予めプログラムされた処理動作を行うことで、たとえば測定開始、測定終了の判断を自動的に実施する。 An example is a white line installed on the floor of the start point and stop point used for measurement of 100 meter comfortable walking. In addition, a two-dimensional code (QR code (registered trademark), AR code, bar code, etc.) attached to walls, doors, household goods, etc. is used as an operation control sign. The solution to the sixth problem "To automatically measure with a robot requires a means to determine the end point of the measurement start point" is to draw a symbol that can be read by a sensor on the floor or surrounding furniture. For example, determination of measurement start and measurement end is automatically performed by performing a pre-programmed processing operation detected by a sensor or leg sensor.
(被測定者の体位情報から推測する骨格モデル)(Skeletal model inferred from body posture information of the subject)
図10では三次元空間情報で得られたポリゴン形状を人物立体モデルと照合して体位を判定した。体位判定では立位、座位、転倒、仰臥など人物が存在する様々な形態を識別する。判定した体位から頭、手足、腰などの空間的位置を推定することが可能である。人の外形と体内の各関節の位置関係はMRI、CTなどで計測した結果が公知である。図12には被測定者100のポリゴン情報から体位を推定し、そこから骨格情報を当てはめて人体の各関節の三次元座標を計算で求める様子を説明している。 In FIG. 10, the posture is determined by collating the polygon shape obtained from the three-dimensional space information with the human solid model. The posture determination identifies various forms in which a person exists, such as standing, sitting, falling, and supine. It is possible to estimate the spatial position of the head, limbs, waist, etc. from the determined body position. The positional relationship between a human outer shape and each joint in the body is known as a result of measurement by MRI, CT, or the like. FIG. 12 illustrates a state in which the posture is estimated from the polygon information of the measurement subject 100, and the three-dimensional coordinates of each joint of the human body are obtained by calculation by applying the skeleton information therefrom.
(関節の三次元空間座標の推定)(Estimation of joint 3D spatial coordinates)
得られた骨格モデルを参照して測定した三次元空間情報から関節の三次元空間座標を推定する。たとえば被測定者100がセンサーに正対した立位で、センサーから得られる右肩形状の三次元座標によるポリゴンは着衣ないし皮膚の表面座標を示している。骨格モデルを参照することで人体表面の形状から人体内部に存在する肩関節の三次元座標を求める。たとえばセンサーが測定した右肩関節の方向を示すZ軸の値が210センチメートルであれば、人体表面から5センチメートル奥に右肩関節が存在するという骨格モデル情報を参照してZ軸の値を215センチメートルと算出する。 The three-dimensional spatial coordinates of the joint are estimated from the three-dimensional spatial information measured with reference to the obtained skeleton model. For example, the polygon 100 based on the three-dimensional coordinates of the right shoulder shape obtained from the sensor indicates the surface coordinates of the clothes or skin when the person 100 to be measured is standing in front of the sensor. By referring to the skeletal model, the three-dimensional coordinates of the shoulder joint existing inside the human body are obtained from the shape of the human body surface. For example, if the Z-axis value indicating the direction of the right shoulder joint measured by the sensor is 210 centimeters, the Z-axis value is referred to by referring to the skeletal model information that the right shoulder joint exists 5 centimeters behind the human body surface. Is calculated to be 215 centimeters.
人体には多数の関節が存在し、たとえば体を構成する主要20関節について毎秒30フレームの三次元空間情報をセンサーが測定し、その結果に基づいて測定対象とするすべての関節について骨格モデルを参照しながら三次元空間座標を推定する。得られた関節の座標を毎秒30フレームでディスプレイ上に再生することで骨格の動きを立体的に表示することが可能となる。 There are many joints in the human body. For example, the sensor measures 3D spatial information at 30 frames per second for the 20 main joints that make up the body, and refers to the skeletal model for all joints to be measured based on the results. While estimating the 3D space coordinates. By reproducing the obtained joint coordinates on the display at 30 frames per second, the movement of the skeleton can be displayed in a three-dimensional manner.
(空間座標変換)(Spatial coordinate conversion)
三次元空間座標は測定対象の空間における位置座標であり、当該空間を計測するためセンサーなどの原点を定めてX,Y,Z軸を固定し計測して得られる特定ポイントの空間位置情報である。本ロボット計測においてはロボットに搭載した三次元空間情報センサーにより空間座標を計測する。その場合空間座標を測定する原点(0,0,0)をセンサー面に設定し、X、Y、Z軸を設定する。各軸は直交しておりX軸は床に平行な横方法、Y軸は床に垂直な縦方向、Z軸は床に平行なセンサー正面方向とするのが一般的である。センサーが取得した三次元空間座標を元に、視点の位置を変化させることで上下左右の任意の位置から見た立体情報に変換することが可能である。本ロボット計測においてはセンサーによるセンシングはセンサー面を原点とするが、センサーが取得した三次元空間座標は目的に応じて最適な空間座標原点とX,Y,Z軸を設定して利用する。 The three-dimensional space coordinates are position coordinates in the space to be measured, and are spatial position information of a specific point obtained by measuring the space by determining the origin of a sensor or the like and fixing the X, Y, and Z axes. . In this robot measurement, spatial coordinates are measured by a three-dimensional spatial information sensor mounted on the robot. In that case, the origin (0, 0, 0) for measuring the spatial coordinates is set on the sensor surface, and the X, Y, and Z axes are set. In general, the axes are orthogonal, the X-axis is a horizontal method parallel to the floor, the Y-axis is the vertical direction perpendicular to the floor, and the Z-axis is the sensor front direction parallel to the floor. Based on the three-dimensional spatial coordinates acquired by the sensor, it is possible to convert the viewpoint position to three-dimensional information viewed from an arbitrary position in the vertical and horizontal directions. In this robot measurement, sensing by the sensor uses the sensor surface as the origin, but the three-dimensional spatial coordinates acquired by the sensor are used by setting the optimal spatial coordinate origin and X, Y, and Z axes according to the purpose.
(ディスプレイ表示の座標変換)(Coordinate conversion of display display)
本発明に従うロボット計測器に搭載した測定対象人物の動きをモニターする表示装置450上に人物を常に一定の大きさで表示するために座標変換を行う。三次元空間情報センサー310を原点とした座標で計測された座標データを元にセンサーと測定対象人物間の距離が一定になる変換処理を行う。すなわち三次元空間において、センサー面座標原点を仮想的に前後にずらして人物座標を計算する、あるいは逆にセンサー面座標原点をそのままとし測定対象人物を構成するポリゴンの空間座標(X,Y,Z)をセンサー面に近づける、ないし遠ざける計算処理を行う。 Coordinate conversion is performed so that the person is always displayed at a constant size on the display device 450 that monitors the movement of the person to be measured mounted on the robot measuring instrument according to the present invention. Based on the coordinate data measured at the coordinates with the three-dimensional spatial information sensor 310 as the origin, conversion processing is performed in which the distance between the sensor and the person to be measured is constant. That is, in the three-dimensional space, the human coordinates are calculated by virtually shifting the sensor plane coordinate origin back and forth, or conversely, the spatial coordinates (X, Y, Z) of the polygons constituting the measurement target person with the sensor plane coordinate origin unchanged. ) To the sensor surface.
これにより計測ロボット器200と測定対象人物との距離が変化しても搭載した表示装置450上には人物の形や骨格が安定した大きさで表示される。第四の課題「移動するロボットに搭載されたセンサーと被計測者間の距離方向は一定しないため、計測した距離情報を元にディスプレイ画像を描くと画像が不安定になる」は、人体の重心を原点とした三次元座標、センサー面を原点とした三次元座標を構成し、どちらも時々刻々と原点位置が移動することを考慮して相互に座標変換が可能な計算処理方式を採用することにより可能である。 Thereby, even if the distance between the measuring robot 200 and the person to be measured changes, the shape and skeleton of the person are displayed in a stable size on the mounted display device 450. The fourth problem is that the distance direction between the sensor mounted on the moving robot and the person being measured is not constant, so the image becomes unstable when drawing a display image based on the measured distance information. 3D coordinates with the origin as the origin and 3D coordinates with the sensor surface as the origin, both adopt a calculation processing method that can mutually convert the coordinates in consideration of the origin position moving from moment to moment Is possible.
(身体に原点を設定する空間座標変換)(Spatial coordinate transformation to set the origin on the body)
ロボット計測器200で収集する人体各部の位置関係を示す三次元空間情報は、たとえば人体主要20関節のROM(関節可動域)を計測し記録することでリハビリテーションに役立つ情報となる。この目的には、センサー前面に原点を設定した測定結果情報ではなく、人体の一部たとえば重心に原点を設定してX,Y,Zの各軸を前額面、矢状面に一致させることが必要になる。これにより計測時にセンサーと被測定者100の距離が変動しても、測定結果を記録するカルテでは毎回の測定データと基準座標が同一となり、被測定者100のデータ相互の比較や日本人全体を平均した標準データとの比較が容易になる。即ち計測時の三次元センサーの配置に左右されない被測定者100の測定データを得ることが可能となる。 The three-dimensional spatial information indicating the positional relationship of each part of the human body collected by the robot measuring instrument 200 becomes information useful for rehabilitation by, for example, measuring and recording ROM (joint range of motion) of 20 main joints of the human body. For this purpose, it is not the measurement result information that sets the origin on the front of the sensor, but the origin is set on a part of the human body, for example, the center of gravity, so that the X, Y, and Z axes coincide with the frontal plane and the sagittal plane. I need it. As a result, even if the distance between the sensor and the person to be measured 100 changes during measurement, the measurement data and the reference coordinates are the same every time in the medical record that records the measurement results. Comparison with average standard data becomes easy. That is, it is possible to obtain measurement data of the person being measured 100 that is not affected by the arrangement of the three-dimensional sensor at the time of measurement.
被測定者100の歩行解析を目的とするときには、被測定者100の重心から鉛直線を床面におろした点を原点にすることで、歩行時の床面に対する両足の軌跡を記録表示するデータが得られ、歩行リハビリテーション診断医に役立つ情報になる。つまりセンサー計測で得られた三次元空間座標を身体に原点および座標軸を配置する空間座標変換に変換して測定結果を記録する。このようにして得られた記録データは、表示装置450上で視点位置を上下左右の任意の位置に設定して観察することができる。これにより、第五の課題「被測定者100およびロボット計測器200のどちらも移動するため、測定データそのままでは記録したのちの過去データとの比較が困難である」を解決する別の手段として被測定者100の重心から鉛直線を床面におろした点を原点とする座標に変換することが可能である。 For the purpose of analyzing the walking of the person 100 to be measured, data that records and displays the trajectory of both feet with respect to the floor during walking by setting the origin to a point where a vertical line is placed on the floor from the center of gravity of the person 100 to be measured. Is useful information for gait rehabilitation diagnosticists. That is, the three-dimensional spatial coordinates obtained by sensor measurement are converted into spatial coordinate transformation in which the origin and coordinate axes are arranged on the body, and the measurement results are recorded. The recorded data obtained in this way can be observed on the display device 450 with the viewpoint position set to an arbitrary position in the vertical and horizontal directions. As a result, the fifth problem “both the measured person 100 and the robot measuring instrument 200 move, and it is difficult to compare with the past data after recording the measured data as it is”. It is possible to convert from the center of gravity of the measurer 100 to coordinates with a point where the vertical line is lowered on the floor as the origin.
本発明で提案するロボット計測器は上記手段によって決められた測定項目(10メートル快適歩行、Timed Up&Go、など)を実施し、得られたデータはCSVファイルなどの形式で出力し、運動能力を定量的に把握する目的で身体各部位の動きについて、軌跡、運動量、加速度、関節可動域などを算出し、現在のデータを単独であるいは過去に記録したデータと比較して、患者および医療従事者に数値、グラフ、静止画、動画として提供することでリハビリ訓練の効果を確認し、医療従事者によって次の訓練の処方立案を支援することを可能とする。 The robot measuring instrument proposed in the present invention implements the measurement items (10-meter comfortable walking, Timed Up & Go, etc.) determined by the above means, and the obtained data is output in the form of a CSV file etc. to quantify the athletic ability. For the purpose of grasping the movement of each part of the body, the trajectory, momentum, acceleration, joint range of motion, etc. are calculated, and the current data is compared with the data recorded alone or in the past. By providing as numerical values, graphs, still images, and moving images, it is possible to confirm the effects of rehabilitation training, and to support the prescription planning of the next training by medical staff.
実施例1「10メートル快適歩行」計測を図14に従って説明する。「10メートル快適歩行」は歩行に困難があり医療機関や介護施設でリハビリ訓練を受けている患者(被測定者)100に対して歩行能力、リハビリ効果を測定する目的で採用されている。現在広く普及している計測方法であり、診療所の廊下などを利用して介護者が立ち会いながらストップウオッチでスタートライン160からゴールライン162までの10メートル区間を歩くのに要した時間および歩数を計測する。スタートライン160までの区間とゴールライン162通過後の区間に数メートルの助走区間を設ける。被測定者100は10メートル区間を被測定者100の感覚で快適(無理なく)に歩き、スタートライン160からゴールライン162までの所要時間を介助者135がストップウオッチで計測し、同時に歩数もカウントする。測定した所要時間と歩数を介助者135が記録する。 Example 1 “10-meter comfortable walking” measurement will be described with reference to FIG. “10-meter comfortable walking” is adopted for the purpose of measuring walking ability and rehabilitation effect for a patient (measured person) 100 who has difficulty walking and who has undergone rehabilitation training in a medical institution or nursing facility. This is a widely used measurement method, and measures the time and steps required to walk the 10 meter section from the start line 160 to the goal line 162 with a stopwatch while the caregiver is present using the corridor of the clinic. To do. A running section of several meters is provided in the section to the start line 160 and the section after passing the goal line 162. Walk the measured person 100 is 10 meters interval comfortable in the sense of the measured person 100 (reasonably), assistant 135 the time required from the start line 160 to the goal line 162 measured by the stopwatch at the same time the number of steps is also counted . The helper 135 records the measured required time and the number of steps.
図14は10メートル快適歩行計測をロボット計測器200により実施する説明図である。左側にスタートライン160、右側にゴールライン162を床にテープを貼るなどして準備する。ロボット計測器200は被測定者100の進行方向前方に位置し、被測定者100が歩行を開始すると一定間隔を保ちながらロボット計測器200は進行する。被測定者100は歩行し、ロボット計測器200は被測定者100をセンシング範囲に捉えるように移動する。 FIG. 14 is an explanatory diagram in which the 10-meter comfortable walking measurement is performed by the robot measuring instrument 200 . Prepare the start line 160 on the left side and the goal line 162 on the right side by sticking tape on the floor. The robot measuring instrument 200 is positioned in front of the measured person 100 in the traveling direction, and when the measured person 100 starts walking, the robot measuring instrument 200 advances while maintaining a certain interval. The measured person 100 walks and the robot measuring instrument 200 moves so as to capture the measured person 100 within the sensing range.
患者(被測定者100)が助走区間を経てスタートライン160を通過したと位置ベクトル161で判定した時点でロボット計測器200は時間計測を開始し、10メートル区間を歩いた後にゴールライン162を通過したと位置ベクトル163で判定した時点でロボット計測器200は所要時間計測を終了する。 When the position vector 161 determines that the patient (measured person 100) has passed the start line 160 through the run-up section, the robot measuring instrument 200 starts time measurement, and after passing the 10-meter section, passes the goal line 162. When it is determined by the position vector 163, the robot measuring instrument 200 ends the required time measurement.
図15に示すアルゴリズムでロボット計測器200は被測定者100がスタートライン160を通過する時点の判定を床に印されたスタートライン160の位置を検出し、同時に被測定者100の重心がスタートライン160の真上を通過したことで識別する。ゴールライン162についても同様である。図16も「10メートル快適歩行」を計測する様子を示しているが、この場合にはロボットが進行方向左側を走行する例である。ロボット計測器200の計測時の走行ルートは、計測場所の環境によって自由に設定する。 With the algorithm shown in FIG. 15, the robot measuring instrument 200 detects the position of the start line 160 marked on the floor when the measured person 100 passes the start line 160, and at the same time the center of gravity of the measured person 100 is the start line. Identification is made by passing over 160. The same applies to the goal line 162. FIG. 16 also shows a state where “10-meter comfortable walking” is measured. In this case, the robot travels on the left side in the traveling direction. The travel route at the time of measurement by the robot measuring instrument 200 is freely set according to the environment of the measurement place.
実施例1「10メートル快適歩行」をロボット計測器200で計測する場合に各課題をどのように解決しているかを以下に説明する。 Real Example 1 to "10 meters walking comfort" describing whether to resolve how each object when measured by the robot meter 200 below.
第一の課題「被測定者100にセンサー装着の負担を負わせない」の目的を達成する手段はロボット計測器200の頭部に搭載した非接触の三次元空間情報センサー310であり一例はKINECT(マイクロソフトの商品)である。図1は、被測定者100とロボットの測定時の空間的配置イメージの一例であり、ロボットは頭部に搭載したセンサーを被測定者100に向けている。 A means for achieving the purpose of the first problem “do not place the burden of mounting the sensor on the person 100 to be measured” is a non-contact three-dimensional spatial information sensor 310 mounted on the head of the robot measuring instrument 200. An example is KINECT. (Microsoft product). FIG. 1 is an example of a spatial arrangement image at the time of measurement of the person 100 to be measured and the robot. The robot points a sensor mounted on the head to the person 100 to be measured.
図18は計測時に時刻T1とT2における被測定者100とロボット200の位置関係を説明する図である。図18の左側の被測定者100は時刻T1およびT2における同一人物の形状を模式的に示したもので体の重心座標(X軸150、Y軸151、Z軸152)が時刻T1(141)から時刻T2(142)と変化する様子を示している。同時に○印で示した右肘関節の三次元座標154と身体重心位置140との相対関係を示している。 FIG. 18 is a diagram for explaining the positional relationship between the person under measurement 100 and the robot 200 at times T1 and T2 during measurement. The person under test 100 on the left side of FIG. 18 schematically shows the shape of the same person at times T1 and T2, and the center of gravity coordinates (X axis 150, Y axis 151, Z axis 152) of the body are at time T1 (141). It shows a change from time T2 (142). At the same time, the relative relationship between the three-dimensional coordinates 154 of the right elbow joint indicated by a circle and the body center of gravity position 140 is shown.
時刻T1で右肘関節は重心原点座標T1においては進行方向Z軸の値がプラスであるのに対して、時刻T2においては重心原点座標T2に対してZ軸の値がマイナスになっている。このように人の体の動きを把握するには人の体において基準点(原点)を定めて体各部の位置を記録することが必要であり、本発明では体の重心140を原点とすることも提案している。他にも医療分野で用いられる前額面、矢状面に基準点を設定することも本発明の提案に含まれる。前額面は人体を前側(腹側)と後ろ側(背側)の2つの部分に分けたときの断面のことであり、矢状面は左右線対象な動物の体の正中に対し平行に、体を左右に分ける面である。 At time T1, the right elbow joint has a positive Z-axis value in the advancing direction at the center-of-gravity origin coordinate T1, whereas the Z-axis value is negative with respect to the center-of-gravity origin coordinate T2 at time T2. Thus, in order to grasp the movement of the human body, it is necessary to set the reference point (origin) in the human body and record the position of each part of the body. In the present invention, the center of gravity 140 of the body is used as the origin. Has also proposed. In addition, it is also included in the proposal of the present invention to set a reference point on the frontal plane and sagittal plane used in the medical field. The frontal plane is a cross section when the human body is divided into two parts, the front side (ventral side) and the back side (back side), and the sagittal plane is parallel to the midline of the animal body that is the subject of the left and right lines, It is a surface that divides the body into left and right.
図3に示した三次元空間情報センサー310は、光学的方法で、高速に繰り返して(例えば1/30秒ごと)、視野内の全測定点を計測して測定点毎の三次元空間情報(X軸320,Y軸321,Z軸322座標)を得る。図4に示すように三次元空間情報センサー310は視野内の全方向に直線距離を測定する目的で赤外光312をドットパターン生成フィルム313を介して投影レンズ314から投影し、視野内に存在する人や家具などの表面において反射された赤外光を距離測定赤外光集光レンズ317により集めて距離測定用赤外光受信CCD318で受信しセンサー310と反射点間の直線距離算出を行う。 The three-dimensional spatial information sensor 310 shown in FIG. 3 is optically repeated at high speed (for example, every 1/30 seconds) to measure all measurement points in the field of view and to obtain three-dimensional spatial information (for each measurement point) X-axis 320, Y-axis 321 and Z-axis 322 coordinates) are obtained. As shown in FIG. 4, the three-dimensional spatial information sensor 310 projects infrared light 312 from the projection lens 314 through the dot pattern generation film 313 for the purpose of measuring a linear distance in all directions within the field of view and exists in the field of view. Infrared light reflected on the surface of a person, furniture, or the like is collected by the distance measuring infrared light condensing lens 317 and received by the distance measuring infrared light receiving CCD 318 to calculate a linear distance between the sensor 310 and the reflection point. .
得られた直線距離情報をセンサーが予め設定したX軸320,Y軸321,Z軸322成分に分解することで測定点101のX,Y,Z座標が得られる。三次元空間情報センサー310を採用することに、測定対象である被測定者100にセンシングのためのマーカーを付けずに、体表面からの反射赤外光で得られる三次元空間情報に基づく体表面のポリゴン120、即ち被測定者100の立体像情報を作成することが可能である。本ポリゴン情報は動画像と同じ毎秒30フレームで測定することで被測定者100の体の動きを三次元情報として記録できる。理解を容易にするために、図5は縦方向に距離測定の赤外線を投影した時の距離測定光の軌跡350と距離情報測定点の例102、104、105、107、図6は横方向に赤外線を投影した時の距離測定光の軌跡350と距離情報測定点の例102、105を示している。 The X, Y, and Z coordinates of the measurement point 101 are obtained by decomposing the obtained linear distance information into X axis 320, Y axis 321, and Z axis 322 components set in advance by the sensor. By adopting the three-dimensional spatial information sensor 310, the body surface based on the three-dimensional spatial information obtained from the reflected infrared light from the body surface without attaching a sensing marker to the measurement subject 100 to be measured. The polygon 120, that is, the stereoscopic image information of the measurement subject 100 can be created. This polygon information can be recorded as three-dimensional information on the body movement of the person being measured 100 by measuring at the same 30 frames per second as the moving image. For easy understanding, FIG. 5 shows a distance measurement light locus 350 and distance information measurement points 102, 104, 105, and 107 when a distance measurement infrared ray is projected in the vertical direction, and FIG. A trajectory 350 of distance measurement light when infrared rays are projected and examples 102 and 105 of distance information measurement points are shown.
実際には測定対象領域すべてをカバーするように赤外線を投影する。図5においては被測定者100の額102、首104、腰105および床107を赤外光で距離測定している様子を示している。その結果、図10に示すように体の表面を面上に覆うポリゴン120を作成することが可能となる。 In practice, infrared rays are projected so as to cover the entire measurement target area. FIG. 5 shows a state in which the forehead 102, the neck 104, the waist 105, and the floor 107 of the measurement subject 100 are distance-measured with infrared light. As a result, it is possible to create a polygon 120 that covers the surface of the body on the surface as shown in FIG.
図5,6、7のいずれにおいても、左側の図は三次元空間情報センサーのセンサー面原点317から距離測定光が投影される軌跡350を人物の右横から描いており、右側の図はロボット計測器200側から被測定者100の正面を見た形で同じく距離測定光の軌跡350を示している。また図7では左側の図で示した人の額の距離測定による三次元座標102から作成した額のポリゴン103を右側に図示し、左側で示す被測定者100の腰の三次元座標105で生成する腰のポリゴン106を右側に図示している。 5, 6, and 7, the left diagram depicts a trajectory 350 from which the distance measurement light is projected from the sensor surface origin 317 of the three-dimensional spatial information sensor, and the right diagram illustrates the robot. A trajectory 350 of the distance measurement light is also shown in the form of looking at the front of the person 100 to be measured from the measuring instrument 200 side. Further, in FIG. 7, the forehead polygon 103 created from the three-dimensional coordinates 102 by the distance measurement of the person's forehead shown in the left figure is shown on the right side, and is generated with the three-dimensional coordinates 105 of the waist of the measurement subject 100 shown on the left side. The waist polygon 106 is shown on the right side.
「10メートル快適歩行」においてロボット計測器200は所要時間とともに被測定者100が10メートル区間で要した歩数を計測する。ロボットは被測定者100の右足および左足の動きをセンサー310が検出する三次元座標から判定する。 In “10-meter comfortable walking”, the robot measuring instrument 200 measures the number of steps required by the person under test 100 in the 10-meter section together with the required time. The robot determines the movement of the right foot and the left foot of the measurement subject 100 from the three-dimensional coordinates detected by the sensor 310.
ロボット計測器のセンサー面は時刻T1の原点位置330、時刻T2の原点位置331と移動する。図22ではロボット計測器が移動しながらセンサー310が被測定者100の足元についても位置座標情報343,344,345を収集している様子を示しており、右足左足が交互に動く様子を解析し、片方の足の位置の変動が少なく、他方が動いていると判定される周期を一歩とし、その累積で歩数を計測する。 The sensor surface of the robot measuring instrument moves to the origin position 330 at time T1 and the origin position 331 at time T2. FIG. 22 shows how the sensor 310 is collecting position coordinate information 343, 344, and 345 for the feet of the person 100 to be measured while the robot measuring instrument is moving. The cycle of determining that the position of one foot is small and the other is moving is taken as one step, and the number of steps is measured by accumulating the cycle.
図22では被測定者100が一人で歩行している様子を示しており、付き添いの介助者135などは図中に表示していないが、実際には図13に示すようにロボットとともに介助者135が付き添っていることを前提としている。図24は実施例1で試作したロボット計測器200の測定データをグラフ化した図であり被測定者の歩数が計測できていることを示している。 FIG. 22 shows a state in which the person 100 to be measured is walking alone, and the attendant attendant 135 is not shown in the figure, but in reality, the attendant 135 together with the robot is shown in FIG. Is assumed to be accompanied. FIG. 24 is a graph of measurement data of the robot measuring instrument 200 prototyped in Example 1, and shows that the number of steps of the person being measured can be measured.
図4で基本原理を説明した様に、非接触の三次元空間情報センサー310が被測定者100をセンシングする。ロボット計測器200は頭部に搭載したセンサーから被測定者100あるいは周囲空間に配置された家具類に向かってセンシングのための赤外光を多数照射し、その光が被測定者100の皮膚の表面、衣服の表面、家具類の表面で反射する様子を観察して距離を算出する。センシングの距離算出の仕組みには複数種類あり、光を照射する窓とは異なる位置に赤外光受信用窓を設置して三角測量により距離測定する方法、光パルスを使い光照射時間から光検出時間までの時間差から距離測定する方法などがある。 As described the basic principle in FIG. 4, three-dimensional spatial information sensor 310 of the non-contact you sensing the measured person 100. The robot measuring instrument 200 irradiates a large number of infrared rays for sensing from a sensor mounted on the head toward the person 100 to be measured or furniture arranged in the surrounding space, and the light is applied to the skin of the person 100 to be measured. The distance is calculated by observing the reflection on the surface, the surface of clothes, the surface of furniture. There are multiple types of sensing distance calculation mechanisms. A method for measuring the distance by triangulation by installing an infrared light receiving window at a position different from the light emitting window, and detecting light from the light irradiation time using light pulses. There is a method of measuring distance from the time difference to time.
三次元空間情報センサー310が距離をセンシングして得たポイントと二次元画像を撮影して得られた画素の三次元空間位置は一般には一致しない。このため両者の位置関係を予め調べ、各二次元画素対応の三次元空間座標(位置ベクトル)を算出する処理が必要になる。図8は三次元空間座標原点317位置とは異なる位置に可視光集光レンズ315を配置して被測定者を可視光CCD316で撮影し、可視光受信CCDの画素配列110で検出する色情報と図7のポリゴン103,106を重ねて表示した例である。 In general, the point obtained by sensing the distance by the three-dimensional spatial information sensor 310 and the three-dimensional spatial position of the pixel obtained by photographing the two-dimensional image do not match. For this reason, it is necessary to examine the positional relationship between the two in advance and calculate a three-dimensional spatial coordinate (position vector) corresponding to each two-dimensional pixel. FIG. 8 shows color information detected by the pixel array 110 of the visible light receiving CCD, in which the visible light condenser lens 315 is arranged at a position different from the position of the three-dimensional spatial coordinate origin 317 and the person to be measured is photographed by the visible light CCD 316. This is an example in which polygons 103 and 106 in FIG.
図9は三次元空間情報センサー310位置情報と可視光CCD316が検出した位置情報の対応関係を予め計測する方法の一例である。両者が空間的に別位置に存在するため、センサーと被測定者の距離が変動すると両者の対応関係が変化する。図9では三次元空間情報センサー310が投射する赤外光の方向が一定でもスクリーンの位置がセンサーに近づくと可視光受信CCD上では座標が横にずれていく例を示している。三次元空間情報センサー310はリアルタイムで三次元空間座標(位置ベクトル)と可視光CCD316情報を計測し三次元空間情報処理装置410に送り画素毎の位置ベクトルを算出する。 FIG. 9 shows an example of a method for measuring in advance the correspondence between the position information of the three-dimensional spatial information sensor 310 and the position information detected by the visible light CCD 316. Since both exist spatially at different positions, when the distance between the sensor and the person to be measured fluctuates, the correspondence between the two changes. FIG. 9 shows an example in which the coordinates shift horizontally on the visible light receiving CCD when the position of the screen approaches the sensor even if the direction of the infrared light projected by the three-dimensional spatial information sensor 310 is constant. The three-dimensional spatial information sensor 310 measures the three-dimensional spatial coordinates (position vector) and visible light CCD 316 information in real time and sends the information to the three-dimensional spatial information processing apparatus 410 to calculate a position vector for each pixel.
本発明ではこの非接触三次元空間座標測定機能を採用しリハビリ効果測定を目的とするロボット計測器200として実現し、第一の課題「被測定者100にセンサー装着の負担を負わせない」の目的を達成し医療介護分野で利用する。 In the present invention, this non-contact three-dimensional spatial coordinate measurement function is adopted and realized as a robot measuring instrument 200 for the purpose of measuring the rehabilitation effect, and the first problem “does not place a burden on the subject 100 to wear the sensor”. Achieve the purpose and use it in the medical care field.
第二の課題「一般の廊下や部屋などどこでも測定できるようにする」の目的を達成する手段は上記三次元空間測定装置を頭部に搭載したロボットに移動手段としての走行部500を組み合わせロボット計測器200とすることで、センシング可能範囲に常時被測定者100を捉えるように走行制御することで実現する。図23は実施例1で試作に利用したRoomba(iRobot社商品)の走行機能を説明する図である。Kinectを頭部(センサー部)に搭載し、脚部(走行部)には被測定者100の動きに合わせて移動する走行機能Roombaを備えることで「一般の廊下や部屋などどこでも測定できるようにする」を実現する。 The means for achieving the purpose of the second problem “to enable measurement anywhere such as a general corridor or room” is a combination of a robot equipped with the above three-dimensional space measuring device on the head and a traveling unit 500 as a moving means. By using the device 200, it is realized by running control so that the person 100 to be measured is always captured within the sensing possible range. FIG. 23 is a diagram for explaining the traveling function of the Romba (iRobot product) used for the prototype in Example 1. Kinect is mounted on the head (sensor part), and the leg part (traveling part) is equipped with a travel function Room that moves in accordance with the movement of the person 100 to be measured. To do.
第三の課題「身体各部の三次元空間座標の計測を体表面の三次元座標を計測するセンサーを用いて自動的に推定する」の目的を達成する手段は、三次元空間を測定する赤外線センサーから得られる距離情報と予め用意した人体の立体モデル121,122,123,124を利用する。図10は模式的にその様子を示す。三次元空間情報センサー310により撮影空間内で動き回るポリゴンで構成される一塊の物体を抜き出すことができる。 Means for achieving the purpose of the third problem “automatically estimating the measurement of the three-dimensional spatial coordinates of each part of the body using a sensor that measures the three-dimensional coordinates of the body surface” is an infrared sensor that measures the three-dimensional space. And distance information obtained from the three-dimensional model 121, 122, 123, 124 of the human body prepared in advance. FIG. 10 schematically shows such a state. The three-dimensional space information sensor 310 can extract a lump of objects composed of polygons that move around in the shooting space.
一例として一秒間に30コマ空間距離情報を撮影するセンサーでは、毎フレームの距離情報から差分を計算し、移動物体が存在する領域を切り出すことが可能である。あるいは一コマの撮影フレームにおいても近接した距離情報をもつ領域は関連性があると判断し、距離情報の変化が一定以上の場合には別の物体と判断することで被測定者100候補となる塊を識別することが可能である。図10では得られた被測定者100候補のポリゴン情報と予め用意された人物立体モデルを突き合わせる処理により三次元空間情報処理装置410において被測定者の体位を判定する様子を説明している。 As an example, a sensor that captures 30-frame spatial distance information per second can calculate a difference from the distance information of each frame and cut out a region where a moving object exists. Alternatively, a region having close distance information in a single frame is determined to be related, and if the change in the distance information is more than a certain value, it is determined as a different object and becomes a candidate for the subject 100. It is possible to identify lumps. FIG. 10 illustrates a state in which the posture of the measurement subject is determined in the three-dimensional spatial information processing apparatus 410 by matching the obtained polygon information of the measurement subject 100 candidate with a human solid model prepared in advance.
図11では検出した被測定者100候補の領域を破線で囲んだ立法体130で示している。図11左に示すように三次元空間情報センサー310で得られる情報はセンサー側の赤外光が反射する被測定者100の半分弱に相当する顔や衣服の表面形状の情報である。人物表面形状からは図11に示すようにたとえば背の高さや肩幅の寸法、胴回り寸法131を測定することができる。 In FIG. 11, the detected area of the candidate 100 to be measured is indicated by a cube 130 surrounded by a broken line. As shown on the left in FIG. 11, the information obtained by the three-dimensional spatial information sensor 310 is information on the surface shape of the face and clothes corresponding to a little less than half of the person under measurement 100 reflected by the infrared light on the sensor side. From the shape of the person's surface, as shown in FIG. 11, for example, the height, shoulder width, and waistline dimensions 131 can be measured.
図12は得られた人体モデルを利用し、予め作成して情報として三次元空間情報処理装置410内に記録されている骨格モデル125を当てはめる様子を示している。測定した背の高さや肩幅に合わせて骨格モデル125を変形することで測定中の被測定者100の体形に合わせることができる。モデルの体形が決定されれば、次に骨格モデル125からたとえば右肩関節の位置が算出できるため、被測定者100表面形状と組み合わせることで右肩関節の三次元座標を算出することができる。三次元空間情報センサー310は体ないしは衣服の表面までの距離を算出するがこのように骨格モデル125を組み合わせることで人体内部に存在する関節位置の空間座標を算出することが可能になる。このようにして第三の課題「身体各部の三次元空間座標の計測を体表面の三次元座標を計測するセンサー310を用いて自動的に推定する」により目的を達成する。 FIG. 12 shows a state in which the obtained human body model is used and a skeleton model 125 created in advance and recorded as information in the three-dimensional spatial information processing apparatus 410 is applied. By deforming the skeleton model 125 according to the measured height and shoulder width, it is possible to match the body shape of the measurement subject 100 being measured. If the body shape of the model is determined, for example, the position of the right shoulder joint can be calculated from the skeletal model 125, so that the three-dimensional coordinates of the right shoulder joint can be calculated by combining with the surface shape of the person being measured 100. The three-dimensional spatial information sensor 310 calculates the distance to the surface of the body or clothes. By combining the skeleton model 125 in this way, it is possible to calculate the spatial coordinates of the joint positions existing inside the human body. Thus, the object is achieved by the third problem “automatic estimation of the three-dimensional spatial coordinates of each part of the body using the sensor 310 for measuring the three-dimensional coordinates of the body surface”.
図19はロボット計測器200が三次元空間情報センサー310の前面を直交座標の原点として測定した位置ベクトルが様々な原点位置の位置ベクトルに変換可能であることを説明する図である。図19において例示しているのは被測定者100の身体重心G140を原点とした三次元座標、センサー面Sを原点317とした三次元座標、重心Gから床に鉛直線を下して床との交点を床面原点F170とする座標である。 FIG. 19 is a diagram for explaining that the position vector measured by the robot measuring instrument 200 using the front surface of the three-dimensional spatial information sensor 310 as the origin of orthogonal coordinates can be converted into position vectors at various origin positions. In FIG. 19, three-dimensional coordinates with the body gravity center G140 of the measurement subject 100 as the origin, three-dimensional coordinates with the sensor surface S as the origin 317, a vertical line from the center of gravity G to the floor, Is the coordinate with the floor origin F170 as the intersection.
図19では一例として被測定者100の右手手先ポイントP101についてセンサー面を原点として測定した位置ベクトルSP340、センサーが重心位置を計測した位置ベクトルSG341とするならば被測定者100の身体重心G140を座標原点とするP101の位置ベクトルGP153はベクトルSP340マイナスベクトルSG341で得られることを示している。どの座標も各軸が直角に交わる直交座標が前提条件である。 In FIG. 19, as an example, the position vector SP340 measured with the sensor surface as the origin for the right hand tip point P101 of the person being measured 100, and the position vector SG341 where the sensor measured the position of the center of gravity are coordinated with the body center of gravity G140 of the person being measured 100. The position vector GP153 of P101 as the origin is obtained as a vector SP340 minus vector SG341. All coordinates are premised on orthogonal coordinates where the axes intersect at right angles.
三次元空間に設定する直交座標は相互に変換可能であることは周知であり、変換式の一例は以下のとおりである。
(1)直交座標での原点の変更(座標系の平行移動)
原点を、(xo,yo,zo)に変更する。
x=x−xo
y=y−yo
z=z−zo
(2)直交座標での座標系回転(x軸回りの回転)
x軸回り(反時計回りを正)に、y,z座標軸をθだけ回転する。
x=x
y=y*cos(θ)+z*sin(θ)
z=−y*sin(θ)+z*cos(θ)
(3)直交座標での座標系回転(y軸回りの回転)
y軸回り(反時計回りを正)に、x,z座標軸をθだけ回転する。
x=x*cos(θ)−z*sin(θ)
y=y
z=x*sin(θ)+z*cos(θ)
(4)直交座標での座標系回転(z軸回りの回転)
z軸回り(反時計回りを正)に、x,y座標軸をθだけ回転する。
x=x*cos(θ)+y*sin(θ)
y=−x*sin(θ)+y*cos(θ)
z=z
It is well known that orthogonal coordinates set in a three-dimensional space can be converted to each other, and an example of a conversion formula is as follows.
(1) Changing the origin in Cartesian coordinates (parallel movement of the coordinate system)
The origin is changed to (xo, yo, zo).
x = x-xo
y = y-yo
z = z-zo
(2) Coordinate system rotation in Cartesian coordinates (rotation around the x axis)
The y and z coordinate axes are rotated by θ around the x axis (counterclockwise is positive).
x = x
y = y * cos (θ) + z * sin (θ)
z = −y * sin (θ) + z * cos (θ)
(3) Coordinate system rotation in Cartesian coordinates (rotation around the y axis)
The x and z coordinate axes are rotated by θ around the y axis (counterclockwise is positive).
x = x * cos (θ) −z * sin (θ)
y = y
z = x * sin (θ) + z * cos (θ)
(4) Coordinate system rotation in orthogonal coordinates (rotation around the z axis)
The x and y coordinate axes are rotated by θ around the z axis (counterclockwise is positive).
x = x * cos (θ) + y * sin (θ)
y = −x * sin (θ) + y * cos (θ)
z = z
第五の課題「測定対象の被測定者100が移動しかつセンサーもロボットに搭載して常時移動する場合どちらも空間に固定した絶対座標での計測はできないため、同一被測定者の過去のデータと比較評価することが困難となる」の解決策の一つは人体の重心位置Gを原点座標として前額面をXY平面、矢状面をYZ平面に一致させることである。毎回同じ原点と座標に基づくデータの記録が可能となり、したがって過去の測定データとの比較も容易になる。 Fifth issue “When the subject 100 to be measured moves and the sensor is also mounted on the robot and constantly moves, both cannot be measured with absolute coordinates fixed in space. One solution is to make the frontal plane coincide with the XY plane and the sagittal plane coincide with the YZ plane with the center of gravity G of the human body as the origin coordinates. It is possible to record data based on the same origin and coordinates every time, so that comparison with past measurement data becomes easy.
図18において被測定者100の重心141、142を原点として3次元の座標(X、Y、Z軸)を示している。時刻T1の座標軸は実線で、時刻T2の座標軸は点線で示している。提案する座標軸は、前額面に平行な平面をXY平面、矢状面に平行な平面をYZ平面、平らな床に平行な平面をXZ平面である。被測定者100が静止した状態での重力が働く方向をY軸のマイナス方向とする。 In FIG. 18, three-dimensional coordinates (X, Y, and Z axes) are shown with the centers of gravity 141 and 142 of the person being measured 100 as the origin. The coordinate axis at time T1 is indicated by a solid line, and the coordinate axis at time T2 is indicated by a dotted line. The proposed coordinate axes are the XY plane, the plane parallel to the sagittal plane, the YZ plane, and the XZ plane parallel to the flat floor. The direction in which gravity acts when the person under test 100 is stationary is defined as the negative direction of the Y axis.
したがって床が水平であればY軸は床に垂直(鉛直)な法線となる。本発明が提案するロボット計測で被測定者100の体の動きを観察するとき、ロボットのディスプレイ画面ないしは記録ファイルをパソコン等他のディスプレイ画面に表示して観察することになる。その場合ディスプレイ上では安定した被測定者100の動作画像が表示されることが望ましい。ここで述べる安定した人物描画の事例は被測定者100の重心位置が常にディスプレイの中心にあり3軸の方向が一定であり、被測定者100を常に等距離から観察している画像となることである。別の事例はビデオ撮影のような被測定者100が廊下を歩いている軌跡まで含めた様子を再現することでその場合には図19で示した床面原点F170を利用すると分かりやすい。 Therefore, if the floor is horizontal, the Y axis is a normal line perpendicular (vertical) to the floor. When observing the body movement of the person 100 to be measured by the robot measurement proposed by the present invention, the robot display screen or recorded file is displayed on another display screen such as a personal computer. In that case, it is desirable that a stable motion image of the person being measured 100 is displayed on the display. The example of stable human drawing described here is an image in which the position of the center of gravity of the person being measured 100 is always at the center of the display, the directions of the three axes are constant, and the person being measured 100 is always observed from an equal distance. It is. Another example is to reproduce the situation including the trajectory of the person 100 to be measured walking in the corridor, such as video shooting. In this case, the floor surface origin F170 shown in FIG.
ディスプレイ上に被測定者100の動作を安定した画像で表現するためには、図14においてロボットのセンサーと被測定者100間の距離が常に一定でしかも正対していることが条件となる。つまり時刻T1における重心原点140とセンサー面原点との距離と向きが、時刻T2におけるそれらと同一となることである。しかし被測定者100が動き、ロボットも追従動作を行うためにこの条件を常に満足させてロボット測定を実現することは不可能である。したがって何らかの手段で補正処理が必要となる。 In order to express the operation of the person 100 to be measured on the display as a stable image, it is a condition that the distance between the sensor of the robot and the person 100 to be measured is always constant in FIG. That is, the distance and direction between the center of gravity origin 140 and the sensor surface origin at time T1 are the same as those at time T2. However, since the person to be measured 100 moves and the robot performs the following operation, it is impossible to realize the robot measurement by always satisfying this condition. Therefore, correction processing is required by some means.
本発明の提案はロボット計測器200がセンサー310を利用して被測定者100の重心位置140を推定し、重心位置の距離変動および向き変動を考慮して補正することである。ロボット計測器200はセンサー面320を原点として3軸の空間座標を作成する。ロボット計測器200は床平面をセンサーで検知し、床平面に平行なXZ平面を作成する。またY軸は床に垂直な法線としロボット計測器200の進行方法をZ軸とする。 The proposal of the present invention is that the robot measuring instrument 200 estimates the center of gravity position 140 of the person to be measured 100 using the sensor 310 and corrects it in consideration of the distance variation and the direction variation of the center of gravity position. The robot measuring instrument 200 creates three-axis spatial coordinates with the sensor surface 320 as the origin. The robot measuring device 200 detects the floor plane with a sensor and creates an XZ plane parallel to the floor plane. The Y axis is a normal line perpendicular to the floor, and the traveling method of the robot measuring instrument 200 is the Z axis.
ロボット計測器200のセンサーはセンサー面を原点320とする被測定者100の重心座標140を測定により知ることが可能で、センサー面原点座標と被測定者100の重心原点座標の相対位置関係を把握することが可能となる。ロボット計測器200のY軸に対して被測定者100の重心Y座標が上下に変動する様子、およびロボット計測器200のZ軸の向きに対して被測定者100のZ軸の向きが変動する様子、さらに被測定者100の重心座標とロボットセンサー面座標との距離変動分(X,Y,Z各成分)を補正する。 The sensor of the robot measuring instrument 200 can know the center-of-gravity coordinates 140 of the measurement subject 100 with the sensor surface as the origin 320 by measuring, and grasp the relative positional relationship between the sensor surface origin coordinates and the center-of-gravity origin coordinates of the measurement subject 100. It becomes possible to do. Direction of Z-axis of the subject 100 is changed how the centroid Y coordinate of the subject 100 is changed up and down, and against the direction of the Z axis of the robot meter 200 to the Y-axis of the robot meter 200 Further, the distance variation (X, Y, Z components) between the coordinates of the center of gravity of the measurement subject 100 and the coordinates of the robot sensor surface is corrected.
図22はロボット計測器200が被測定者100の足の運びをセンシングして床に対する被測定者100の動き(軌跡)を計測する仕組みを説明している。被測定者100の足の位置をロボットのセンサーが検出しその座標をセンサー面原点情報330,331で測定する。得られた足位置座標はセンサー面を原点とするため、時刻T1とT2で異なる値となり、ロボットが時刻T1からT2に移動した距離情報が加算されている。 Figure 22 describes the mechanism for measuring the movement of the subject 100 (locus) robot meter 200 to sense the carry feet of the measured person 100 with respect to the floor. The robot sensor detects the position of the foot of the person to be measured 100, and the coordinates are measured by the sensor surface origin information 330 and 331. The obtained foot position coordinates have different values at times T1 and T2 because the sensor surface is the origin, and distance information indicating that the robot has moved from time T1 to T2 is added.
これに対し被測定者100の足が床に接触している場所ないし身体重心のY軸を床面におろした交点を一時的な床面原点171、172とみなすことでロボットがT1において測定した3次元座標とT2において測定した値が異なるものの、演算処理でT1およびT2の床面原点を同一とみなし、床に法線を下した身体重心位置を中心に足の軌跡を描くことが可能となる。床面原点は被測定者100の右足左足が同時に床に接触している間仮想的にソフトウエアで設置する。 On the other hand, the robot measured at T1 by regarding the intersection of the measurement object 100 where the foot of the person 100 is in contact with the floor or the Y axis of the body's center of gravity on the floor as temporary floor origins 171 and 172. Although the three-dimensional coordinates and the values measured at T2 are different, the floor origins of T1 and T2 are regarded as the same in the calculation process, and the foot trajectory can be drawn around the center of gravity of the body that is normal to the floor. Become. The floor surface origin is virtually installed by software while the right foot and the left foot of the person to be measured 100 are simultaneously in contact with the floor.
リハビリ計測で対象とする被測定者100は一般に歩行に困難を伴う人が多く、両足とも床に接触している。このため仮想的な床面原点を設定することで、図22に示すように歩幅・歩数を仮想原点間の距離と頻度(床面原点間の距離と数)から直接算出することが可能となる。 In many cases, the person to be measured 100 as a target in rehabilitation measurement has difficulty in walking, and both feet are in contact with the floor. Therefore, by setting the virtual floor surface origin, it becomes possible to directly calculate the stride / step count from the distance between virtual origins and the frequency (distance and number between floor origins) as shown in FIG. .
第四の課題「空間センサーと人体との変動する距離情報をもとに人体各部の相対的な位置関係を算出して安定した人体の動き画像を生成する」の目的を達成する手段は前述の直交座標相互の変換では原点と座標を任意の場所に計算で移動することができる原理を利用して、センサー面330,331から一定距離(たとえばZ軸2メートル)に図19におけるG座標141,142を移動しその上で床面原点F171,172を基準にしてディスプレイ上に被測定者の画像を描画することであり、安定した人体の動き画像を描くことができる。 Means for achieving the purpose of the fourth problem “to generate a stable motion image of a human body by calculating the relative positional relationship of each part of the human body based on the information on the distance between the space sensor and the human body” In the conversion between the orthogonal coordinates, the G coordinate 141, FIG. 142 is moved, and the image of the person to be measured is drawn on the display on the basis of the floor origins F171 and 172, and a stable human body motion image can be drawn.
第六の課題「特定動作の所要時間と距離を測定環境に設置された印を利用して自動算出する」の目的を達成する手段は、床ないし周囲の家具類にセンサーで読み取り可能な記号を描くことで頭部センサー(センサー部)ないし脚部センサー(走行部)で検出し予めプログラムされた処理動作を行うことで、たとえば測定開始、測定終了の判断を自動的に実施すめる。図14、図16は10メートル快適歩行の測定を説明している。10メートル快適歩行ではスタートライン160とゴールライン162を床に設定して10メートルの距離を示す。本発明ではこれらのラインをロボットに搭載したセンサーで識別することで、スタートライン160からゴールライン162まで被測定者100が費やした時間・歩数を計測する。 The means to achieve the purpose of the sixth problem “automatically calculate the time and distance required for a specific operation using a mark installed in the measurement environment” is to add a symbol readable by a sensor to the floor or surrounding furniture. By drawing and detecting by a head sensor (sensor unit) or leg sensor (running unit) and performing a pre-programmed processing operation, for example, determination of measurement start and measurement end is automatically performed. 14 and 16 illustrate measurement of a 10 meter comfortable walk. In 10-meter comfortable walking, the start line 160 and the goal line 162 are set on the floor to indicate a distance of 10 meters. In the present invention, these lines are identified by sensors mounted on the robot, and the time / steps spent by the person under measurement 100 from the start line 160 to the goal line 162 is measured.
第七の課題「足裏に加わる床反力の計測」の目的を達成する手段は、センサーが計測した被測定者100の体形情報から予め参照データとしてロボット計測器200に保存されているモデル人体情報を利用して体重を計算し被測定者100の動き情報も勘案して足裏にかかる圧力を算出することで実現する。床反力は被測定者100の歩行状態から各関節や筋肉にかかる負荷を解析する情報として有用である。 Means for achieving the purpose of the seventh problem “measuring the floor reaction force applied to the sole” is a model human body stored in the robot measuring instrument 200 as reference data in advance from the body shape information of the measured person 100 measured by the sensor. This is realized by calculating the body weight using the information and calculating the pressure applied to the sole in consideration of the movement information of the person 100 to be measured. The floor reaction force is useful as information for analyzing a load applied to each joint and muscle from the walking state of the person 100 to be measured .
図20は床反力の計算についてその仕組みを説明している。ロボット計測器200のセンサー310は人物存在空間130を利用して被測定者100の背の高さを検出できる。その様子は図11で説明した。背丈に人の骨格モデル125を組み合わせることで、肩の高さ・回り寸法、胸の高さ・回り寸法、ウエストの高さ・回り寸法、腰の高さ・回り寸法などが推定できる。その様子は図20で説明している。これら高さ及び回り寸法情報からセンサーが該当の高さ位置で人体の水平面に相当する表面形状を収集し、それを予め収集した被測定者100の標準断面図を当てはめることで各断面の面積が推定できる。これらを人体各部で計算することで、被測定者100の体積について上限下限値を推定することが可能であり、人の比重を掛け合わせることで体重を推定することができる。 FIG. 20 illustrates the mechanism for calculating the floor reaction force. The sensor 310 of the robot measuring instrument 200 can detect the height of the person being measured 100 using the person presence space 130. This is explained in FIG. By combining the human skeletal model 125 with the height, it is possible to estimate the shoulder height / around dimensions, the chest height / around dimensions, the waist height / around dimensions, the waist height / around dimensions, and the like. This is explained in FIG. From these height and circumference information, the sensor collects the surface shape corresponding to the horizontal surface of the human body at the corresponding height position, and applies the standard cross-sectional view of the measurement subject 100 that has been collected in advance to determine the area of each cross section. Can be estimated. By calculating these at each part of the human body, it is possible to estimate the upper and lower limit values for the volume of the person being measured 100, and the weight can be estimated by multiplying the specific gravity of the person.
したがって推定した体重が体の重心140にかかることを前提にすると図20に示す重心からの下向きベクトル360で表すことが可能となる。被測定者100重心の下向きベクトルを支える形で被測定者100の足裏132にかかる床反力ベクトル361を推定することが可能になる。被測定者100に動きがある場合には、動きのベクトルも考慮して床反力361を計算する。さらに、重心の左右への位置変動から左右の足にかかる力の配分を求める。このようにして第七の課題「足裏に加わる床反力の計測」の目的を達成する。 Therefore, assuming that the estimated weight is applied to the center of gravity 140 of the body, it can be represented by a downward vector 360 from the center of gravity shown in FIG. It is possible to estimate the floor reaction force vector 361 applied to the sole 132 of the person 100 to be measured while supporting the downward vector of the center of gravity of the person 100 to be measured . When the measurement subject 100 is moving, the floor reaction force 361 is calculated in consideration of the motion vector. Further, the distribution of the force applied to the left and right feet is obtained from the position change of the center of gravity to the left and right. In this way, the purpose of the seventh problem “measuring the floor reaction force applied to the sole” is achieved.
第八の課題「被測定者100と介護者を自動的に見分ける」の目的を達成する手段は、介護者に被測定者100とは異なる特徴を見出すか目印を付与することとし、衣服の形状や色配置の違い138、帽子136の有無、職員証137などの目印を利用することで実現する。図13は10メートル快適歩行を計測する場合の一般的な測定風景で被測定者100は歩行が困難であり万一の転倒に備えて介助者135が一緒に歩行する。三次元空間情報センサー310は被測定者100と介助者135を同時にセンシングするため、図13の例では二人の人物を検出する。10メートル快適歩行の計測は被測定者100のみに実施するため、センシングした二人の人物の内被測定者100を識別して測定する必要がある。このため介助者135に識別のための手段として、帽子136などの目印、職員証137などの目印、衣服の形状や色138を利用する。 Means for achieving the purpose of the eighth problem “automatically distinguish between the person to be measured 100 and the caregiver” is to find a feature that is different from the person to be measured 100 or give a mark to the caregiver, and the shape of the clothes This is realized by using a mark such as a difference in color arrangement 138, the presence / absence of a hat 136, and a staff ID 137. FIG. 13 is a general measurement scene when a 10-meter comfortable walk is measured, and it is difficult for the person to be measured 100 to walk, and an assistant 135 walks together in case of a fall. Since the three-dimensional spatial information sensor 310 senses the person to be measured 100 and the assistant 135 at the same time, two persons are detected in the example of FIG. Since the measurement of 10-meter comfortable walking is performed only on the person 100 to be measured, it is necessary to identify and measure the person 100 to be measured among the two sensed persons. For this reason, a mark such as a hat 136, a mark such as a staff ID 137, a shape or color 138 of clothing is used as a means for identifying the assistant 135.
第九の課題「衣服をまとう被測定者100と風でそよぐカーテンなどの衣服と類似のセンサー反応を示す物体との識別」の目的を達成する手段は、被測定者100の足が床面に接触132していること、人体の背丈の範囲に納まること、背丈から人体モデルに基づいて割り出した肩、胸、腰などの高さにおいて被測定者100の水平断面を距離情報から作成し、人体モデルの特徴条件を満たしているかどうか判定することで実現する。図11において三次元空間情報センサー310がカーテン133をスキャンしその表面形状の軌跡134を調べる様子を図示している。 Means for achieving the purpose of the ninth problem “identification of the person 100 wearing the clothes and the object such as a curtain swaying in the wind with a similar sensor reaction” is that the feet of the person 100 to be measured are placed on the floor surface. The horizontal cross section of the person 100 to be measured is created from the distance information at the height of the shoulder 132, the chest, the waist, etc. determined from the height, based on the human body model. This is realized by determining whether the feature conditions of the model are satisfied. FIG. 11 illustrates a state in which the three-dimensional spatial information sensor 310 scans the curtain 133 and examines the locus 134 of the surface shape.
図11は被測定者100の背後に風で揺れ動くカーテンなどがセンシング領域内に存在した時にロボットのセンサーが人物を誤認識する様子を説明している。空間内に存在する人物を検出する手段は人の動きによる背景との分離であり画像の各フレーム間で各画素の差分を算出することで求める。 FIG. 11 illustrates how the robot sensor misrecognizes a person when a curtain or the like that swings in the wind behind the measurement subject 100 exists in the sensing area. The means for detecting the person existing in the space is the separation from the background by the movement of the person, and is obtained by calculating the difference of each pixel between each frame of the image.
このような手段をロボット計測器200の空間センサー310に適用すると風で動くカーテンなど、人の着衣に近いセンサー反応を示す対象物に対して人が存在する候補として検出する。そこで人であるかどうかを更に検証するためには追加の条件チェックが必要であり、被測定者100の足が床面に設置していること、人体の背丈の範囲に納まること、背丈から人体モデルに基づいて割り出した肩、胸、腰などの高さにおいて被測定者100の水平断面を距離情報から作成し、人体モデルの特徴条件を満たしているかどうか判定することで実現する。 When such a means is applied to the space sensor 310 of the robot measuring device 200 , it detects as a candidate that a person exists for an object that exhibits a sensor response close to a person's clothes, such as a curtain that moves in the wind. Therefore, in order to further verify whether or not the person is a person, an additional condition check is necessary. The feet of the person being measured 100 are installed on the floor surface, within the range of the height of the human body, and from the height to the human body. This is realized by creating a horizontal cross section of the person being measured 100 from the distance information at the height of the shoulder, chest, waist, etc. determined based on the model, and determining whether or not the characteristic condition of the human body model is satisfied.
第十の課題「三次元光センサーによる人体表面をスキャンして予め容易された人体モデルを適用して人の動きを測定する手法では、特定の人を対象にしたときに関節位置など身体部位の測定値に誤差が生じる」という課題に対しては、医療機器CT、MRIで特定の人を診断したデータから当該被測定者100の骨格や体形情報を別途生成し、その情報を本発明ロボット計測器200に予め参照データとして与えること、ならびにロボット計測器200が計測した人体表面の三次元情報をロボット計測器200がファイル出力し別途オフラインのマシンを使って計算することで誤差を低減することで解決する。CT,MRIは人を寝台に寝かせた状態で精密な人体構造を測定する装置である。このため、骨格、関節、筋肉、臓器の位置が精密に計測される。しかしながらCT、MRIでは人が動いている状態での計測はできない。一方本発明で提案するロボット計測装置は被測定者100を拘束することなく自由に動き回る状態で三次元空間情報センサー310を利用して人の外形情報から関節位置情報などを推定する。このためCT,MRIを使って特定の被測定者100の骨格や体形情報を測定し、本発明のロボット測定器と連携させることで、より誤差の少ない動き情報を収集してリハビリに活用することが可能になる。 The tenth problem is that the method of measuring human movement by applying a human model that has been easily scanned by scanning the surface of the human body with a three-dimensional optical sensor In response to the problem that “the measurement value has an error”, the skeleton and body shape information of the person to be measured 100 is separately generated from data obtained by diagnosing a specific person using the medical equipment CT and MRI, and the information is measured by the robot of the present invention. be provided as pre-reference data in vessel 200, as well as by the three-dimensional information of the body surface where the robot meter 200 was measured robotic instrument 200 is to reduce the error by calculating using a separate off-line machine and file output Solve. CT and MRI are devices for measuring a precise human body structure while a person is laid on a bed. For this reason, the positions of the skeleton, joints, muscles, and organs are accurately measured. However, CT and MRI cannot be measured while a person is moving. On the other hand, the robot measuring apparatus proposed in the present invention estimates joint position information and the like from human external information using the three-dimensional spatial information sensor 310 while freely moving around without restraining the person 100 to be measured. For this reason, the skeleton and body shape information of a specific measurement subject 100 is measured using CT and MRI, and the movement information with less error is collected and used for rehabilitation by linking with the robot measuring device of the present invention. Is possible.
第二の実施例を図17で説明する。「Timed Up & Go」は「10メートル快適歩行」と同じくリハビリ医療の現場で採用されている歩行能力を測定する一つの計測手順である。被測定者100は最初椅子に座り介助者135の指示に従いのポールの周囲を回って元の椅子に座り、所要時間と歩数を介助者135が測定する。図17ではその様子を本発明で提案するロボットによる計測する方法を説明している。「10メートル快適歩行」では被測定者は直線距離を歩いたが、「Timed Up & Go」では椅子に座った状態からスタートすること、またポールまでの折り返しを歩き方向転換することが異なる。所要時間の計測は椅子から立ち上がった時間から椅子に座った時間まででこれも「10メートル快適歩行」とは異なる。図17では示していないが介助者135が被測定者100の転倒に備えて一緒に歩行することは前提となっている。「Timed Up& Go」においても10メートル快適歩行と同じく各課題が適用され、解決策も同様である。 A second embodiment will be described with reference to FIG. “Timed Up & Go” is a measurement procedure for measuring the walking ability employed in the field of rehabilitation medical care, as well as “10-meter comfortable walking”. The person to be measured 100 first sits on the chair, turns around the pole according to the instruction of the assistant 135 and sits on the original chair, and the assistant 135 measures the required time and the number of steps. FIG. 17 illustrates a method of measuring the situation by the robot proposed in the present invention. In “10-meter comfortable walking”, the person to be measured walked a straight distance, but in “Timed Up & Go”, starting from the state of sitting on a chair and turning to the pole is different. The required time is measured from the time of getting up from the chair to the time of sitting on the chair, which is also different from “10-meter comfortable walking”. Although not shown in FIG. 17, it is assumed that the assistant 135 walks together in preparation for the subject 100 to fall. In “Timed Up & Go”, the same problems are applied as in 10-meter comfortable walking, and the solutions are also the same.
第三の実施例「運動能力計測ロボット」は現時点で存在していないが、提案者が今後高齢化社会において広く普及すると予想している人の運動能力を計測するロボットの提案である。高齢者は年齢とともに運動能力が徐々に低減し次第に一人では日常生活に支障をきたすようになる。このため、高齢者の運動能力あるいは生活能力について定量的に把握するための計測手段の出現が望まれる。本発明で提案するロボット計測器は三次元空間情報センサー310を使い高齢者の動き情報を空間座標で収集し、収集した空間座標から体各部の動きを推定する。推定した体各部の動き情報から軌跡、運動力、加速度、関節可動域などを算出し、運動能力を定量的に把握することが可能となる。 The third example “motor ability measuring robot” does not exist at the present time, but is a proposal of a robot that measures a person's motor ability that the proposer expects to spread widely in an aging society in the future. Elderly people's ability to exercise gradually decreases with age, and by themselves, daily life becomes difficult. For this reason, the appearance of measuring means for quantitatively grasping the athletic ability or life ability of the elderly is desired. The robot measuring instrument proposed in the present invention uses the three-dimensional spatial information sensor 310 to collect motion information of the elderly in spatial coordinates, and estimates the motion of each part of the body from the collected spatial coordinates. It is possible to calculate the trajectory, exercise force, acceleration, joint range of motion, and the like from the estimated movement information of each part of the body and quantitatively grasp the exercise ability.
これら収集した情報をネットワークを介してビッグデータとして扱うことにより、高齢者の生活についてより生活に密着した統計的なデータ処理が可能となる。すなわち運動能力が一定レベル以下になる兆候を見つけ出す基準値を設定してリハビリや生活習慣の改善に役に立てるなどである。 By treating these collected information as big data via a network, it is possible to perform statistical data processing more closely related to the life of the elderly. In other words, setting a reference value for finding signs that athletic ability falls below a certain level is useful for improving rehabilitation and lifestyle habits.
第十一の課題は、人の動きを観察してその人の日常生活における運動能力、生活能力を客観的に測定する手段がないことである。本発明で提案する計測ロボットで日常生活における高齢者の動きを測定記録することで、体各部位の動きについて、軌跡、運動量、加速度、関節可動域などを算出し運動能力を定量的な指標で示すとともに、被測定者100および医療従事者に数値、グラフ、静止画、動画として提供し、高齢者の運動能力を測定しリハビリに活用する。 The eleventh problem is that there is no means for observing a person's movement and objectively measuring the person's daily ability to exercise and live. By measuring and recording the movements of elderly people in daily life with the measurement robot proposed in the present invention, the trajectory, momentum, acceleration, joint range of motion, etc. are calculated for the movement of each part of the body, and the exercise ability is a quantitative index In addition to the above, it is provided as numerical values, graphs, still images, and moving images to the person 100 to be measured and the medical staff, and the exercise ability of the elderly is measured and utilized for rehabilitation.
第四の実施例は走行部500を保有しない固定式のロボット計測器200である。ロボット計測器200はモジュール組み合わせ式であり実施例1で示したロボット計測器200から走行部500のモジュールを取り外して固定式としたものである。 The fourth embodiment is a fixed robot measuring instrument 200 that does not have a traveling unit 500. The robot measuring instrument 200 is a module combination type, and is a fixed type by removing the module of the traveling unit 500 from the robot measuring instrument 200 shown in the first embodiment.
固定式ロボット計測器200は走行部500に代わって三次元センサーの視野を左右に移動できるように、三次元センサーは機械的な回転装置の上に搭載されており、センシング方向を回転できる。ただし、KINECTを採用すると撮影距離は4mであり、その制限の理由は距離測定赤外線レーザの光量であるので、赤外線レーザを光量の大きなものに換装する。その他に実施例1と異なるのは、走行部500が制御装置420に従って、測定対象である被測定者100から一定の距離を保って移動したのに対して、回転装置が制御装置420に従って、測定対象である被測定者100を常に視野の中央に位置するように回転する点だけである。その他の構造や動作は実施例1と同様である。 The fixed robot measuring instrument 200 is mounted on a mechanical rotating device so that the field of view of the three-dimensional sensor can be moved to the left and right instead of the traveling unit 500, and can rotate the sensing direction. However, if KINECT is adopted, the shooting distance is 4 m, and the reason for the limitation is the light amount of the distance measuring infrared laser. Therefore, the infrared laser is replaced with one having a large light amount. What differs from embodiment 1 in the other, in accordance with the traveling unit 500 is the controller 420, whereas moved from the subject 100, which is a measurement target while maintaining a constant distance, with the rotation device controller 420, measurement It is only a point which rotates the to- be-measured person 100 to be always located in the center of the visual field. Other structures and operations are the same as those in the first embodiment.
固定式ロボット計測器200では、機械的に三次元センサーを回転する代わりに、周囲360度を視野に入れる360度レンズを使う光学的な方法も可能である。この場合は機械的な回転装置は不要であり、撮影した画面の歪みを画像処理によって正しく直す。この場合も、その他の構造や動作は実施例1と同様である。 In the fixed robot measuring instrument 200, instead of mechanically rotating the three-dimensional sensor, an optical method using a 360 degree lens that allows the surrounding 360 degrees to be in the field of view is also possible. In this case, a mechanical rotating device is not necessary, and the captured screen distortion is corrected correctly by image processing. Also in this case, other structures and operations are the same as those in the first embodiment.
本発明は高齢化社会に役立つ提案であり福祉分野で大いに利用されると期待できる。 The present invention is a proposal useful for an aging society and can be expected to be used greatly in the welfare field.
100・・・ロボット計測器200で測定対象とする人(患者、被測定者)
101・・・人の右手の距離測定ポイント、P点
102・・・人の額の三次元座標(センサー面原点)
103・・・人の額の三次元座標(センサー面原点)から作成するポリゴンの例
104・・・人の首の三次元座標(センサー面原点)
105・・・人の腰の三次元座標(センサー面原点)
106・・・人の腰の三次元座標(センサー面原点)から作成するポリゴンの例
107・・・床の三次元座標(センサー面原点)
110・・・可視光受信CCDの画素配列の例
120・・・被測定者に対して照射した距離測定光で得られたすべての三次元座標情報で構成したポリゴン
121・・・ポリゴンで構成する人物立体モデル(立位)
122・・・ポリゴンで構成する人物立体モデル(座位)
123・・・ポリゴンで構成する人物立体モデル(仰臥)
124・・・ポリゴンで構成する人物立体モデル(転倒)
125・・・ポリゴンで構成する人物骨格モデル
130・・・被測定者を囲む立方体で示す人物存在空間
131・・・被測定者の胴回りポリゴン形状から推定した胴回り形状
132・・・被測定者の足位置から算出した足の床接触点
133・・・カーテン
134・・・カーテンの表面形状を計測する距離測定赤外光の軌跡
135・・・介助者
136・・・介助者が身に着ける帽子
137・・・介助者が身に着ける職員証
138・・・介助者が身に着ける衣服
140・・・人の重心座標原点、G点
141・・・時刻T1における人の重心座標原点
142・・・時刻T2における人の重心座標原点
150・・・重心座標原点のX軸
151・・・重心座標原点のY軸
152・・・重心座標原点のZ軸
153・・・重心座標原点からP点への位置ベクトル
154・・・人の右腕肘の三次元座標(重心座標原点)
160・・・スタートライン
161・・・スタートラインを検出する位置ベクトル(センサー面原点)
162・・・ゴールライン
163・・・ゴールラインを検出する位置ベクトル(センサー面原点)
170・・・人の重心座標原点から床面に鉛直線を下し床面との交点を原点とする床面原点で、X軸Z軸は重心原点座標と平行、Y軸は重なる。
171・・・時刻T1における床面原点
172・・・時刻T2における床面原点
200・・・ロボット計測器
300・・・センサー部
310・・・三次元空間情報センサー
311・・・制御・伝送回路
312・・・距離測定用赤外レーザ光源
313・・・ドットパターン生成フィルム
314・・・距離測定赤外光投影レンズ
315・・・可視光集光レンズ
316・・・可視光受信CCD
317・・・距離測定赤外光集光レンズ、三次元空間情報センサーのセンサー面座標原点
318・・・距離測定用赤外光受信CCD
320・・・センサー面原点のX軸
321・・・センサー面原点のY軸
322・・・センサー面原点のZ軸
330・・・時刻T1におけるセンサー面原点
331・・・時刻T2におけるセンサー面原点
340・・・センサー面原点からP点への位置ベクトル
341・・・センサー面原点からG点への位置ベクトル
343・・・時刻T1におけるセンサー面原点から左足への位置ベクトル
344・・・時刻T1におけるセンサー面原点から右足への位置ベクトル
345・・・時刻T2におけるセンサー面原点から左足への位置ベクトル
350・・・距離測定光の軌跡
360・・・重心に加わる力ベクトル
361・・・右足踵の床反力ベクトル
400・・・制御部
410・・・三次元空間情報処理装置
420・・・制御装置
430・・・入力装置
440・・・記憶装置
450・・・表示装置
460・・・通信装置
470・・・電源装置
500・・・走行部
510・・・移動装置
100: Person to be measured by robot measuring instrument 200 (patient, person to be measured)
101 ... Distance measurement point of the human right hand, P point 102 ... Three-dimensional coordinates of the person's forehead (sensor surface origin)
103 ... Example of polygon created from 3D coordinates of human forehead (sensor surface origin) 104 ... 3D coordinates of human neck (sensor surface origin)
105 ... 3D coordinates of human waist (sensor surface origin)
106 ... Example of polygon created from 3D coordinates of human waist (sensor surface origin) 107 ... 3D coordinates of floor (sensor surface origin)
110: Example of a pixel array of a visible light receiving CCD 120 ... Polygon 121 composed of all three-dimensional coordinate information obtained by distance measurement light irradiated to the measurement subject 121 ... Consists of a polygon Human solid model (standing position)
122 ... Human solid model composed of polygons (sitting position)
123 ... Human solid model composed of polygons (supine)
124 ... Human solid model composed of polygons (falling)
125 ... Human skeleton model 130 composed of polygons ... Person existence space 131 shown by a cube surrounding the person to be measured ... Circumference shape 132 estimated from the waist polygon shape of the person to be measured ... Foot floor contact point 133 calculated from foot position ... Curtain 134 ... Distance measurement infrared ray trajectory 135 for measuring curtain surface shape ... Helper 136 ... Hat worn by helper 137: Staff ID worn by the assistant 138 ... Clothes worn by the assistant 140 ... Human center of gravity coordinate origin, G point 141 ... Human center of gravity coordinate origin 142 at time T1 · Human center of gravity coordinate origin 150 at time T2 ... X axis 151 of the center of gravity coordinate origin ... Y axis 152 of the center of gravity coordinate origin ... Z axis 153 of the center of gravity coordinate origin ... From the center of gravity coordinate origin to the P point Position Le 154 ... people of the right arm elbow of the three-dimensional coordinates (center-of-gravity coordinate origin)
160 ... start line 161 ... position vector for detecting the start line (sensor surface origin)
162 ... goal line 163 ... position vector for detecting the goal line (sensor surface origin)
170... Is a floor surface origin having a vertical line from the origin of the center of gravity coordinates of the person to the floor surface and the intersection with the floor surface as the origin. The X axis and Z axis are parallel to the center of gravity origin coordinates, and the Y axis overlaps.
171: Floor surface origin 172 at time T1 ... Floor surface origin 200 at time T2 ... Robot instrument 300 ... Sensor unit 310 ... Three-dimensional spatial information sensor 311 ... Control / transmission circuit 312 ... Infrared laser light source for distance measurement 313 ... Dot pattern generation film 314 ... Infrared light projection lens 315 for distance measurement ... Condensing lens for visible light 316 ... CCD for receiving visible light
317: Distance measuring infrared light condensing lens, sensor plane coordinate origin 318 of the three-dimensional spatial information sensor ... IR light receiving CCD for distance measurement
320 ... X axis 321 of sensor surface origin ... Y axis 322 of sensor surface origin ... Z axis 330 of sensor surface origin ... Sensor surface origin 331 at time T1 ... Sensor surface origin at time T2 340... Position vector 341 from sensor surface origin to point P 341... Position vector from sensor surface origin to point G 343... Position vector 344 from sensor surface origin to left foot at time T1. Position vector 345 from the sensor surface origin to the right foot at time T2 position vector 350 from the sensor surface origin to the left foot at time T2 ... trajectory 360 of the distance measurement light ... force vector 361 applied to the center of gravity ... right footpad Floor reaction force vector 400 ... control unit 410 ... three-dimensional spatial information processing device 420 ... control device 430 ... input device 40 ... storage device 450 ... display device 460 ... communication device 470 ... power supply 500 ... traveling unit 510 ... mobile device
Claims (5)
制御部と、三次元空間情報を取得するセンサー部と、前記制御部とセンサー部を搭載して一体で移動する走行部を有し、A control unit, a sensor unit that acquires three-dimensional spatial information, and a traveling unit that moves integrally with the control unit and the sensor unit,
前記制御部は、自律的に移動する被測定者の計測中に、前記被測定者が前記センサー部のセンシング可能領域に入るように前記センサー部を制御し、且つ前記走行部を前記被測定者の動きに追従するように前記走行部の移動を制御し、The control unit controls the sensor unit so that the measured person enters a sensing possible region of the sensor unit during measurement of the measured person moving autonomously, and the traveling unit is moved to the measured person. Control the movement of the traveling part to follow the movement of
前記センサー部は、光学的手段で視野内を三次元画像として繰り返し撮影し、三次元空間情報を取得する手段を有し、The sensor unit has a means for repeatedly capturing the inside of the field of view as a three-dimensional image by optical means and acquiring three-dimensional spatial information,
前記制御部は、更に、前記センサー部により取得される三次元空間情報の中から被測定者だけを選択して被測定者とする手段を有する、The control unit further has means for selecting only the person to be measured from the three-dimensional spatial information acquired by the sensor unit to be the person to be measured.
ことを特徴とする人間の動きを測定するロボット計測器。A robot measuring instrument that measures human movement.
前記走行部には、前記センサー部及び制御部が搭載され、
前記センサー部は三次元空間情報センサーを有し、
前記制御部は計測開始から終了までの間、自律的に動く被測定者に追従して移動し、測定中に前記被測定者がセンシング可能領域に入るように前記センサー部及び前記走行部を制御し、
前記三次元空間情報センサーは光学的手段で視野内を三次元画像として繰り返し撮影し、三次元空間情報を取得する機能を有し、
前記制御部は、前記三次元空間情報センサーの取得した三次元空間情報の中から特定の人物だけを選択して被測定者とする機能と、ロボット移動範囲と動作を指定するために、測定空間に設定した標識を識別する機能を有し、かつ、前記被測定者の動きを表示装置上に表示するときには被測定者とセンサー間の距離および向きが両者の動きによって変化する場合においても距離および向き一定でセンシングしたように座標変換する機能を有し、
更に、前記制御部は、前記被測定者の身体各部の動きの三次元測定データを、適宜な形態で該表示装置に表示する機能を有し、前記三次元測定データを連続データとして記憶装置に記録し必要に応じて読みだす機能を有する、
ことを特徴とする人間の動きを測定するロボット計測器。 Consists of each block of the sensor unit, control unit, traveling unit,
The traveling unit is equipped with the sensor unit and the control unit,
The sensor unit has a three-dimensional spatial information sensor ,
Until completion the control unit from the start of measurement, to move to follow the measured person to move autonomously, during said measurement the measured person controlling the sensor unit and the driving unit to enter the sensing area And
The three-dimensional space information sensor repeatedly taken in the visual field as a three-dimensional image by optical means has a function of acquiring the three-dimensional space information,
Wherein the control unit has a function to select and the subject only a specific person from the acquired three-dimensional space information of the three-dimensional space information sensor, in order to specify the operation and the robot movement range, measuring space has the function of identifying to the labeled set, and the distance and even when the distance and orientation between the subject and the sensor is changed by the movement of both the time to be displayed on the display device the motion of the measured person It has a function to convert coordinates as if it were sensed with a constant orientation,
Furthermore, the control unit, the three-dimensional measurement data of the movement of the Body of the person to be measured, has a function of displaying on the display device in an appropriate form, to the storage device the three-dimensional measurement data as a continuous data has a recording function to be read, if necessary,
A robot measuring instrument that measures human movement .
前記制御部は三次元空間情報処理装置を有し、前記三次元空間情報センサーで得た三次元画像全体の情報から、固定物体の画像のうちから指定された標識を判別する機能を有し、前記被測定者が標識として設定したスタートラインを越えて移動する事象を検知して、その事象の発生した時刻を記録し同時に測定を開始し、前記被測定者が歩行中に足の動き情報を解析して歩数を計数し、次いで、第2標識として設定したゴールラインで測定終了時間を判定し経過時間および歩数計数測定を終了する機能を有する、
ことを特徴とする人間の動きを測定するロボット計測器。 In claim 2,
The control unit has a three-dimensional spatial information processing device, and has a function of discriminating a designated sign from images of a fixed object from information on the entire three-dimensional image obtained by the three-dimensional spatial information sensor, wherein detects an event that the subject moves beyond the start line set as a label, to start recording simultaneously measured the generated time of the event, the person to be measured foot motion information while walking Analyzing and counting the number of steps, then having a function of determining the measurement end time on the goal line set as the second indicator and ending the elapsed time and step count measurement ,
A robot measuring instrument that measures human movement .
前記制御部は、前記被測定者の画像から前記被測定者の体重を推定し、重心の位置と、下肢の動きとから、歩行時に足にかかる力を連続して推定し、その結果を床反力データとして、一定の演算式で評価データに変換し、該床反力データならびに前記評価データを記憶装置に格納し、必要に応じて、該床反力データならびに/もしくは該評価データを、動画、静止画、グラフなど適宜な形式で適時に該表示装置に表示し、該記憶装置に格納してある過去の床反力データならびに/もしくは評価データを、該床反力データならびに/もしくは該評価データと比較して表示する機能を有する、
ことを特徴とする人間の動きを測定するロボット計測器。 In claim 2 or 3 ,
The control unit estimates the weight of the measured person from the image of the measured person , continuously estimates the force applied to the foot during walking from the position of the center of gravity and the movement of the lower limbs, and the result is calculated on the floor. as a reaction force data is converted to evaluate data at a fixed calculation formula, and stores the floor reaction force data and the evaluation data in the storage device, if necessary, the floor reaction force data and / or the evaluation data, Past floor reaction force data and / or evaluation data that is displayed on the display device in a suitable format such as moving images, still images, graphs, etc. in a timely manner and stored in the storage device is used as the floor reaction force data and / or the data. Has a function to display in comparison with evaluation data ,
A robot measuring instrument that measures human movement .
さらに、無線または/および有線の通信装置を備え、外部のサーバに接続することができ、外部からの動作指令を受け取り、あるいは外部サーバへの接続を自律的に行い、現在測定中または/および測定済み被測定者の動きデータを送り、外部の三次元空間情報ベースと三次元空間情報、統計データなどビッグデータの送受が可能である、
ことを特徴とする人間の動きを測定するロボット計測器。 In claim 2 or 3 ,
Furthermore, example Bei wireless and / or wired communication device, can be connected to an external server to receive the operation command from the outside, or autonomously performs connection to the external server, currently measured or / and sends motion data of the measured person to be measured, an external three-dimensional space information base and three-dimensional space information, Ru der allow transmission and reception of big data and statistical data,
A robot measuring instrument that measures human movement .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014225587A JP6466139B2 (en) | 2014-10-20 | 2014-10-20 | Robot measuring instrument that measures human movement |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014225587A JP6466139B2 (en) | 2014-10-20 | 2014-10-20 | Robot measuring instrument that measures human movement |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016080671A JP2016080671A (en) | 2016-05-16 |
JP2016080671A5 true JP2016080671A5 (en) | 2017-11-09 |
JP6466139B2 JP6466139B2 (en) | 2019-02-06 |
Family
ID=55958395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014225587A Active JP6466139B2 (en) | 2014-10-20 | 2014-10-20 | Robot measuring instrument that measures human movement |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6466139B2 (en) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6515070B2 (en) * | 2016-07-29 | 2019-05-15 | 日本電信電話株式会社 | Muscle activity estimation device, method and program |
JP6515069B2 (en) * | 2016-07-29 | 2019-05-15 | 日本電信電話株式会社 | Muscle activity analysis device, method and program |
WO2018087853A1 (en) * | 2016-11-09 | 2018-05-17 | 株式会社システムフレンド | Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program |
US11161236B2 (en) | 2017-09-14 | 2021-11-02 | Sony Interactive Entertainment Inc. | Robot as personal trainer |
US11848091B2 (en) | 2018-04-26 | 2023-12-19 | Nec Corporation | Motion estimation system, motion estimation method, and motion estimation program |
EP3753489B1 (en) | 2018-05-28 | 2022-01-05 | Kaia Health Software GmbH | Monitoring the performance of physical exercises |
US20210331314A1 (en) * | 2019-03-08 | 2021-10-28 | Lg Electronics Inc. | Artificial intelligence cleaner |
JP2020197044A (en) * | 2019-05-31 | 2020-12-10 | 株式会社小松製作所 | Map generating system, and map generating method |
CN110672087B (en) * | 2019-09-02 | 2023-08-11 | 湖南凌傲科技有限公司 | Human body tracking method and system |
TWI736148B (en) * | 2020-02-26 | 2021-08-11 | 薛雅馨 | Posture detecting system and method thereof |
CN113796853A (en) * | 2020-06-16 | 2021-12-17 | 广州印芯半导体技术有限公司 | Optical image comparison system and comparison method thereof |
KR102568538B1 (en) * | 2020-06-23 | 2023-08-23 | 한국전자통신연구원 | Apparatus and Method for Estimating Human Motion using Mobile Robot |
US12017116B2 (en) | 2020-06-23 | 2024-06-25 | Electronics And Telecommunications Research Institute | Apparatus and method for evaluating human motion using mobile robot |
JP7054950B1 (en) | 2020-11-12 | 2022-04-15 | 独立行政法人日本スポーツ振興センター | Position measurement system and position measurement method |
CN114360060B (en) * | 2021-12-31 | 2024-04-09 | 北京航空航天大学杭州创新研究院 | Human body action recognition and counting method |
CN114886417B (en) * | 2022-05-10 | 2023-09-22 | 南京布尔特医疗技术发展有限公司 | Intelligent safety nursing monitoring system and method |
WO2024172013A1 (en) * | 2023-02-13 | 2024-08-22 | 公立大学法人大阪 | Coordinate transformation method, coordinate transformation device, motion analysis method, motion analysis device, and computer program |
CN116524441B (en) * | 2023-07-03 | 2023-09-01 | 四川顶圣工程项目管理有限公司 | Construction site supervision method for engineering project management |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4831374B2 (en) * | 2009-03-27 | 2011-12-07 | アイシン・エィ・ダブリュ株式会社 | Driving support device, driving support method, and driving support program |
EP2571660B1 (en) * | 2010-05-20 | 2018-08-15 | iRobot Corporation | Mobile human interface robot |
BR112015002620A2 (en) * | 2012-08-07 | 2018-05-22 | Dorsavi Pty Ltd | method and apparatus for measuring reaction forces. |
JP6094279B2 (en) * | 2013-03-14 | 2017-03-15 | 株式会社国際電気通信基礎技術研究所 | TRACKING DEVICE, TRACKING PROGRAM, AND TRACKING METHOD |
JP2014188095A (en) * | 2013-03-26 | 2014-10-06 | Kitasato Institute | Remote diagnosis system |
-
2014
- 2014-10-20 JP JP2014225587A patent/JP6466139B2/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6466139B2 (en) | Robot measuring instrument that measures human movement | |
JP2016080671A5 (en) | ||
US9727779B2 (en) | Motion information processing apparatus | |
D’Antonio et al. | Validation of a 3D markerless system for gait analysis based on OpenPose and two RGB webcams | |
EP1402761B1 (en) | Method and system for predictive physiological gating | |
US20170243354A1 (en) | Automatic frontal-view gait segmentation for abnormal gait quantification | |
CN104739418B (en) | A kind of breath gate controlling system and control method based on stereoscopic vision | |
US20160081594A1 (en) | Range of motion system, and method | |
KR101118654B1 (en) | rehabilitation device using motion analysis based on motion capture and method thereof | |
Kurillo et al. | Upper extremity reachable workspace evaluation with Kinect | |
CN106687046A (en) | Guiding system for positioning a patient for medical imaging | |
JP2016140591A (en) | Motion analysis and evaluation device, motion analysis and evaluation method, and program | |
US20120310075A1 (en) | Medical measurement system and method | |
JP7107264B2 (en) | Human Body Motion Estimation System | |
de Queiroz Burle et al. | Real-time approach for gait analysis using the Kinect v2 sensor for clinical assessment purpose | |
Cai et al. | Single-camera-based method for step length symmetry measurement in unconstrained elderly home monitoring | |
Kuryło et al. | Machine vision system measuring the trajectory of upper limb motion applying the matlab software | |
WO2013084031A1 (en) | System for motion tracking and comparison | |
JP2015009032A (en) | Lower limb shape change measuring apparatus, method, and program | |
KR101930242B1 (en) | The 3D image acquisition and analysis system of body | |
Niu et al. | A survey on IMU-and-vision-based human pose estimation for rehabilitation | |
EP2023816A1 (en) | Balance monitor | |
Blasco-García et al. | A computer vision-based system to help health professionals to apply tests for fall risk assessment | |
Hellmers et al. | Validation of a motion capture suit for clinical gait analysis | |
KR20140013662A (en) | Device and method for calibration |