JPWO2009116597A1 - 姿勢把握装置、姿勢把握プログラム、及び姿勢把握方法 - Google Patents

姿勢把握装置、姿勢把握プログラム、及び姿勢把握方法 Download PDF

Info

Publication number
JPWO2009116597A1
JPWO2009116597A1 JP2010503914A JP2010503914A JPWO2009116597A1 JP WO2009116597 A1 JPWO2009116597 A1 JP WO2009116597A1 JP 2010503914 A JP2010503914 A JP 2010503914A JP 2010503914 A JP2010503914 A JP 2010503914A JP WO2009116597 A1 JPWO2009116597 A1 JP WO2009116597A1
Authority
JP
Japan
Prior art keywords
data
posture
target
target part
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010503914A
Other languages
English (en)
Inventor
石田 智利
智利 石田
雄志 坂本
雄志 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2009116597A1 publication Critical patent/JPWO2009116597A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6828Leg
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/22Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/08Sensors provided with means for identification, e.g. barcodes or memory chips
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist

Abstract

対象物が動作中か静止中かに関わらず、この対象物の姿勢を把握することができ、しかも、辞書作成等の準備のための工数を小さくする。作業者の各部位に取り付けられている方向センサ10からのセンサデータを取得するセンサデータ取得部121と、センサデータ113を用いて各部位の向きを示す姿勢データを算出する姿勢データ算出部122と、予め記憶されている各部位の形状データ111及び各部位の姿勢データ114を用い、各部位の空間内の位置データを作成する位置データ作成部123と、各部位の位置データ115及び各部位の形状データ111とを用いて、各部位を示す二次元像データを作成する二次元像作成部124と、各部位の二次元像データをディスプレイ103に表示させる表示制御部128と、を備えている。

Description

本発明は、対象物の複数の対象部位のうち、いずれかの対象部位に、空間内の方向を検知する方向センサを取り付け、この方向センサからの出力に基づいて、対象部位の姿勢を把握する技術に関する。
人や機器の姿勢を把握する技術としては、例えば、以下の特許文献1に記載の技術がある。
この特許文献1に記載の技術は、対象物である人の各部位に加速度センサを取り付け、この加速度センサからの出力を用いて、各部位の動作を把握する技術である。この技術では、まず、各種動作を行ったときの加速度センサからの出力を周波数解析して、各周波数毎の出力強度を求め、動作と各周波数毎の出力強度との関係を調べておく。そして、この技術では、各種動作毎に、各周波数毎の出力強度の典型的なパターンを辞書として記憶しておき、実際に人の各部位に取り付けられた加速度センサからの出力を周波数解析して、この解析結果が辞書中のいずれのパターンに該当するかにより、人の動作を特定する。
特許第3570163号公報
しかしながら、特許文献1に記載の技術では、例えば、人が腰を曲げている状態や椅子に座っている状態等の静止状態が継続している場合には、この人の姿勢を把握することが困難であるという問題点がある。さらに、辞書の作成が極めて面倒であり、多数の動作や、多数の動作が複合した複合動作を把握するためには、この辞書作成に膨大な工数がかかってしまうとう問題点もある。
本発明は、このような従来技術の問題点に着目し、対象物が動作中か静止中かに関わらず、この対象物の姿勢を把握することができ、しかも、辞書作成等の準備のための工数を小さくすることができるようにすることを目的とする。
前記問題点を解決するため、本発明では、
対象物の複数の対象部位のうち、いずれかの対象部位に、空間内の方向を検知する方向センサを取り付け、
前記方向センサからの出力値を取得し、
前記方向センサからの出力値を用いて、予め定められた方向を向いている基準軸を基準とした、該方向センサが取り付けられている前記対象部位の向きを示す姿勢データを算出し、
予め記憶されている前記対象部位の形状データと、先に算出された該対象部位の姿勢データとを用い、該対象部位と接続している他の対象部位との接続点を基準として、該形状データで示される該対象部位内の少なくとも二つの代表点の空間内の位置データを求めて、該対象部位の空間内の位置データを作成し、
前記対象部位の空間内の前記位置データと、前記予め記憶されている該対象部位の前記形状データとを用いて、該対象部位を示す二次元像データを作成し、
該対象部位の二次元像データに基づいて該対象部位の二次元像を出力する。
本発明によれば、対象物が動作中か静止中かに関わらず、この対象物の対象部位の姿勢を把握することができる。さらに、本発明によれば、対象部位の形状データを取得しておけば、この対象部位の姿勢を把握できるので、姿勢把握のための辞書作成等の準備の工数を極めて小さくすることができる。
本発明に係る第一の実施形態における姿勢管理システムの構成図である。 本発明に係る第一の実施形態における方向センサの構成図である。 本発明に係る第一の実施形態において、模式的に表示した作業者を示す説明図である。 本発明に係る第一の実施形態における形状データのデータ構成を示す説明図である。 本発明に係る第一の実施形態における共通座標系とローカル座標系との関係を示す説明図である。 本発明に係る第一の実施形態における動作評価ルールのデータ構成を示す説明図である。 本発明に係る第一の実施形態におけるセンサデータのデータ構成を示す説明図である。 本発明に係る第一の実施形態における姿勢データのデータ構成を示す説明図である。 本発明に係る第一の実施形態における位置データのデータ構成を示す説明図である。 本発明に係る第一の実施形態における姿勢把握装置の動作を示すフローチャートである。 図10のフローチャート中のステップ30の詳細処理を示すフローチャートである。 本発明に係る第一の実施形態における出力画面例を示す説明図である。 本発明に係る第二の実施形態における姿勢把握システムの構成図である。 本発明に係る第二の実施形態における追従関係データのデータ構成を示す説明図である。 本発明に係る第三の実施形態における姿勢把握システムの構成図である。 本発明に係る第三の実施形態におけるセンサデータのデータ構成を示す説明図である。 本発明に係る第三の実施形態における第2位置データのデータ構成及び第2位置データの作成方法を示す説明図である。 本発明に係る第三の実施形態における姿勢把握装置の動作を示すフローチャートである。 本発明に係る第三の実施形態における出力画面例を示す説明図である。
符号の説明
10:方向センサ、11:加速度センサ、12:磁気センサ、100,100a,100b:姿勢把握装置、103:ディスプレイ、110:記憶装置、111:形状データ、112:動作評価ルール、113,113B:センサデータ、114:姿勢データ、115:位置データ、116,116B:二次元像データ、117:動作評価データ、118:作業時刻データ、119:追従関係データ、120:CPU、121:センサデータ取得部、122,122a:姿勢データ算出部、123:位置データ作成部、124,124b:二次元像データ作成部、125:動作評価データ作成部、127:入力制御部、128:表示制御部、129:第2位置データ作成部、131:メモリ、132:通信装置、141:第二位置データ
以下、本発明に係る姿勢把握システムの各種実施形態について、図面を用いて説明する。
まず、図1〜図12を用いて、姿勢把握システムの第一の実施形態について説明する。
本実施形態の姿勢把握システムは、図1に示すように、姿勢の把握対象である作業者Wに取り付けられる複数の方向センサ10と、各方向センサ10からの出力に基づいて作業者Wの姿勢を把握する姿勢把握装置100と、を備えている。
姿勢把握装置100は、コンピュータであり、入力装置としてのマウス101及びキーボード102と、出力装置としてのディスプレイ103と、ハードディスクドライブやメモリ等の記憶装置110と、各種演算を実行するCPU120と、このCPU120のワークエリアであるメモリ131と、外部と通信するための通信装置132と、入出力装置のインタフェース回路であるIOインタフェース回路133と、を備えている。
通信装置132は、無線中継装置20を介して、方向センサ10からのセンサ出力値を受信することができる。
記憶装置110には、作業者Wの各部位の形状データ111と、作業者Wの動作を評価するためのルールである動作評価ルール112と、動作把握プログラムPとが、予め記憶されている。この記憶装置110には、この他、図示されていないが、OSや通信プログラム等も予め記憶されている。また、記憶装置110には、センサデータ113、このセンサデータ113に基づいて求められた各部位の向きを示す姿勢データ114、各部位の代表点の位置座標値を示す位置データ115、各部位をディスプレイ103に表示するための二次元像データ116と、各部位の動作レベルである動作評価データ117と、作業者Wの作業時刻データ118とが、動作把握プログラムPの実行過程で記憶される。
CPU120は、機能的に、通信装置132を介して方向センサ10からのセンサデータを取得するセンサデータ取得部121と、このセンサデータに基づいて各部位の向きを示す姿勢データを求める姿勢データ算出部122と、各部位の代表点の位置座標値を示す位置データを作成する位置データ作成部124と、三次元座標値で示されている各部位の座標データを二次元座標値に変換する二次元像データ作成部124と、各部位の動作レベルである動作評価データを作成する動作評価データ作成部125と、各入力装置101,102の入力制御を行う入力制御部127と、ディスプレイ103を制御する表示制御部128と、を有している。これら各機能部は、いずれも、記憶装置110に記憶されている動作把握プログラムPをCPU120が実行することで機能する。なお、センサデータ取得部121は、OSや通信プログラムの元で動作する動作把握プログラムPの実行で機能し、入力制御部127及び表示制御部128は、OSの元で動作する動作把握プログラムPの実行で機能する。
方向センサ10は、図2に示すように、互いに直交する3軸の方向の値を出力する加速度センサ11と、互いに直交する3軸の方向の値を出力する磁気センサ12と、各センサ11,12からの出力を無線送信する無線通信装置13と、これらの電源14と、これらを起動させるためのスイッチ15と、を備えている。加速度センサ11及び磁気センサ12は、それぞれの直行座標系の各軸の向きが同じになるように設けられている。なお、本実施形態では、加速度センサ11及び磁気センサ12は、それぞれの直行座標系の各軸の向きが同じになるよう設けているが、これは、これらのセンサデータから姿勢データを求める際に、演算が簡単になるためであるから、必ずしも、各センサ11,12の直行座標系の各軸の向きが同じになっている必要はない。
記憶装置110に予め記憶されている形状データ111は、作業者の各動作部位毎に存在する。この実施形態では、図3に示すように、作業者の各動作部位として、胴体T1、頭T2、右上腕T3、右前腕T4、右手T5、左上腕T6、左前腕T7、左手T8、右上肢T9、右下肢T10、左下肢T11、左下肢T12がある。なお、本実施形態では、作業者を以上の12個の動作部位に分けているが、首等、さらに多くの動作部位に分けてもよいし、上腕と前腕とを一体的な部位としてもよい。
本実施形態では、各部位を簡略化して表現するために、胴体T1や頭T2を二等辺三角形で表し、上腕T3,T6や前腕T4,T7等を直線で模式的に表すことにしている。ここでは、各部位の外形上のいくつかの点を代表点とし、これら代表点を線分で結ぶことで、各部位の形状を定めるようにしている。なお、ここでは、いずれの部位の形状も、極めて簡略化しているが、より作業者の形状に近づけるために、複雑な形状にしてもよい。例えば、胴体や顔を三次元で示す形状にしてもよい。
ここで、図3中で、作業者全体を示すための共通座標系XYZでは、鉛直上方をY軸、北の方向をZ軸、Y及びZ軸に垂直な方向をX軸とし、胴体T1の腰を示す代表点P1を原点Oとしている。また、各軸回りの方向をそれぞれα、β、γとしている。
各部位の形状データ111は、図4に示すように、各部位の代表点の三次元座標値を示す代表点データ111aと、各代表点をどのように結んで部位の外形線を形成するかを示す外形線データ111bと、を有している。
各部位の代表点データ111aは、部位IDと、代表点IDと、この代表点のX座標値、Y座標値、Z座標値とを有して構成されている。例えば、胴体の代表点データは、この胴体のIDである「T1」と、この胴体の三つの代表点の各ID「P1」「P2」「P3」と、これら代表点の各座標値とを有して構成されている。また、右前腕の代表点データは、この右前腕のIDである「T4」と、この右前腕の二つの代表点の各ID「P9」「P10」と、これら代表点の各座標値とを有して構成されている。
各部位の外形線データ111bは、部位IDと、この部位の外形を示す線の線IDと、この線の始点となる点のIDと、この線の終点となる点のIDとを有して構成されている。例えば、胴体に関しては、この胴体が三つの外形線L1,L2,L3で表され、外形線L1は、始点をP1とし、終点をP2とし、外形線L2は、始点をP2とし、終点をP3とし、外形線L3は、始点をP3とし、終点をP1とすることが示されている。
各部位の代表点の座標値は、この実施形態では、各部位毎のローカル座標系で表されている。各部位毎のローカル座標系は、図5に示すように、各部位の代表点のうち、最も小さな数値のIDを原点としている。例えば、胴体T1のローカル座標系Xは、代表点P1を原点とし、右前腕T4のローカル座標系X444は、代表点P9を原点としている。また、各ローカル座標系のX軸、Y軸、Z軸は、それぞれ、図3を用いて説明した共通座標系XYZのX軸、Y軸、Z軸と平行である。但し、各ローカル座標系のX軸、Y軸、Z軸が、共通座標系XYZのX軸、Y軸、Z軸に平行にしているのは、ローカル座標系から共通座標系へ変換する際の変換に回転処理が不要になるからであり、必ずしも、各ローカル座標系のX軸、Y軸、Z軸が、共通座標系XYZのX軸、Y軸、Z軸に平行にしている必要はない。なお、共通座標系XYZの原点Oを胴体の代表点P1を原点としていることから、この共通座標系XYZと胴体ローカル座標系Xとは同一である。したがって、この実施形態において、代表点P1は、各ローカル座標系で示された座標値を共通座標系に変換する際の基準位置となる。
各部位の代表点の座標値は、いずれも、各ローカル座標系において、基準姿勢の状態での座標値で示されている。例えば、胴体T1に関しては、三つの代表点P1,P2,P3がいずれもローカル座標系XのX平面上に位置し、且つ代表点P2,P3のYの座標値が同じ値のときを基準姿勢とし、このときの各代表点の座標値が胴体T1の代表点データ111aを構成している。また、前腕T4に関しては、二つの代表点P9,P10がいずれもローカル座標系X444はZ4軸上に位置しているときを基準姿勢とし、このときの各代表点の座標値が前腕T4の代表点データ111aを構成している。
記憶装置110に予め記憶されている動作評価ルール112は、図6に示すように、テーブル形式で表されている。このテーブルには、部位IDが格納されている部位ID欄112aと、変位態様が格納されている変位態様欄112bと、変位量範囲が格納されている変位量範囲欄112cと、この変位量範囲の変位量のときの動作レベルが格納されているレベル欄112dと、このレベルを示すときの表示色が格納されている表示色欄112eとがある。変位態様欄112bに格納されている変位態様とは、いずれの方向に関する変位であるかを示すものである。
この動作評価ルール112では、例えば、胴体T1に関しては、α方向の角度変位量が60°〜180°、45°〜60°のときに動作レベルがそれぞれ「5」、「3」であり、動作レベル「5」を表示するときには「赤」で表示し、動作レベル「3」を表示するときには「黄」で表示することが定められている。また、右上腕T3に関しては、Y方向の代表点P8のY軸方向の変位量が200より大きいときに動作レベルが「5」であり、その表示色が「赤」であることを示している。なお、ここでの変位量は、各部位の前述した基準姿勢に対する変位量である。
次に、図10及び図11に示すフローチャートに従って、本実施形態の姿勢把握装置100の動作について説明する。
作業者は、自身の各部位に方向センサ10を取り付け、この方向センサ10のスイッチ15(図2)をオンにすると、この方向センサ10で測定されたデータが中継装置20を介して、姿勢把握装置100へ送信される。
姿勢把握装置100のセンサデータ取得部121は、通信装置132を介して、方向センサ10からのデータを受信すると、このデータを記憶装置110にセンサデータ113として格納する(S10)。
センサデータ取得部121は、ある作業者に取り付けられている複数の方向センサ10からデータを受信すると、これを直ちに記憶装置110に格納せず、この作業者に取り付けられている全方向センサ10からデータの受信を確認すると、この時点から各方向センサ10からのデータを記憶装置110に格納する。また、ある作業者に取り付けられている全方向センサ10のうち、いずれか一つの方向センサ10からのデータ受信ができない場合、この時点での各方向センサ10からのデータに関しては、記憶装置110に格納しない。すなわち、ある作業者に取り付けられている複数の方向センサ10から全データが揃っている場合にのみ、これらデータを記憶装置110に格納する。
記憶装置110に格納されたセンサデータ113は、図7に示すように、テーブル形式で表され、各作業者A,B,…毎に存在する。このテーブルは、データの受信時刻が格納される時刻欄113aと、各部位IDが格納される部位ID欄113bと、部位に取り付けられている方向センサのIDが格納されるセンサID欄113c、この方向センサ10に含まれている加速度センサ11からのX値、Y値、Z値がそれぞれ格納される加速度センサデータ欄113dと、この方向センサ10に含まれている磁気センサ12からX値、Y値、Z値がそれぞれ格納される磁気センサデータ欄113eとがある。なお、同図では、一つのレコードに、胴体T1及び前腕T4に関するデータしか示していないが、実際には、一つのレコードに、作業者の全部位に関するデータが含まれる。また、部位IDとセンサIDとは、予め関係付けられている。すなわち、例えば、作業者Aの胴体T1には、ID「S01」の方向センサ10が取り付けられることが予め定められている。また、ここでの各センサ11,12からのX値、Y値、Z値は、いずれも各センサ11,12の座標系での値であるが、各センサ11,12の座標系におけるX軸、Y軸、Z軸は、これらセンサ11,12を含む方向センサ10の取り付け部位が基準姿勢の際には、この部位のローカル座標系におけるX軸、Y軸、Z軸と一致している。
次に、姿勢把握装置100の姿勢データ算出部122は、センサデータ113に示されている各時刻毎の各部位のデータに基づいて、各部位の方向を算出し、この方向データを含むデータを姿勢データ114として、記憶装置113に格納する(S20)。
記憶装置110に格納された姿勢データ114は、図8に示すように、テーブル形式で表され、各作業者A,B,…毎に存在する。このテーブルは、センサデータの受信時刻が格納される時刻欄114aと、各部位IDが格納される部位ID欄114bと、当該部位のα方向の角度、β方向の角度、γ方向の角度が格納される方向データ欄114dとがある。なお、同図においても、一つのレコードに、胴体T1及び前腕T4に関するデータしか示していないが、実際には、一つのレコードに、作業者の全部位に関するデータが含まれる。また、ここでのα、β、γは、いずれもローカル座標系での値である。
ここで、センサデータ113中の加速度センサデータ欄113d及び磁気センサデータ欄113eに格納されているデータから、方向データ欄114dに格納するデータの算出方法について簡単に説明する。
例えば、右前腕T4を基準姿勢で静止させている場合、重力によってY軸方向の加速度は−1Gで、X軸方向及びZ軸方向の加速度は0である。すなわち、加速度センサ11からの出力は、(0,−1G,0)である。この基準姿勢の状態から右前腕T4をα方向に傾けると、加速度センサ11のY軸方向の値及びZ軸方向の値が変わる。このときのローカル座標系でのαの値は、この加速度センサ11のY軸方向の値及びZ軸方向の値を用いて、以下の式で求められる。
α=sin−1(z/sqrt(z+y))
同様に、基準姿勢からγ方向に右前腕T4を傾けるとき、ローカル座標系でのγの値は、加速度センサ11のX軸方向の値及びY軸方向の値を用いて、以下の式で求められる。
γ=tan-1(x/y)
また、基準姿勢からβ方向に右前腕T4を傾けると、加速度センサ11からの出力値は変化しないが、磁気センサ12のZ軸方向の値及びX軸方向の値が変わる。このときのローカル座標系でのβの値は、この磁気センサ12からのZ軸方向の値及びX軸方向の値を用いて、以下の式で求められる。
β=sin−1(x/sqrt(x+z))
次に、姿勢把握装置100の位置データ作成部123は、記憶装置111に格納されている形状データ111と姿勢データ114とを用いて、各部位の代表点の共通座標系における座標値を求め、この座標値を含むデータを位置データ115として、記憶装置110に格納する(S30)。
記憶装置110に格納された位置データ115も、図9に示すように、テーブル形式で表され、各作業者A,B,…毎に存在する。このテーブルは、センサデータの受信時刻が格納される時刻欄115aと、各部位IDが格納される部位ID欄115bと、当該部位の各代表点の共通座標系でのX座標値、Y座標値及びZ座標値が格納される座標データ欄115dとがある。なお、同図においても、一つのレコードに、胴体T1及び前腕T4に関するデータしか示していないが、実際には、一つのレコードに、作業者の全部位に関するデータが含まれる。また、同図では、胴体T1の代表点P1の座標値を示しているが、この代表点P1は、共通座標系での原点Oであり、この代表点P1の座標値は常に0であるから、この代表点P1の座標値に関しては省略してもよい。
ここで、各部位の代表点の座標値の求め方について、図11に示すフローチャートに従って説明する。
位置データ作成部123は、まず、姿勢データ114のうち、胴体T1の最初のレコード(最初の受信時刻のレコード)のデータを記憶装置110から読み込む(S31)。続いて、この胴体T1の形状データ111も記憶装置110から読み込む(S32)。
次に、位置データ作成部123は、ローカル座標系内で胴体T1を姿勢データに従って回転させた後、ローカル座標系の原点P1と共通座標系の原点Oとが重なるように、回転後の胴体T1を平行移動し、そのときの胴体T1の各代表点の共通座標系における座標値を求める。具体的には、まず、ローカル座標系内で胴体T1を姿勢データが示す各角度α、β、γ分回転させたときの、胴体T1の各代表点P1,P2,P3のローカル座標値を求める。次に、このローカル座標値から、共通座標系内でのローカル座標系の原点P1の座標値分を減算して、この値を共通座標系での座標値とする(S33)。なお、胴体T1のローカル座標系と共通座標系とは、前述したように一致しているので、胴体T1に関しては、平行移動処理を行う必要がない。
次に、姿勢データ114に含まれる時刻のデータを位置データ115の時刻欄115a(図9)に格納し、胴体のID(T1)を部位ID欄115bに格納し、胴体T1の各代表点の座標値を座標データ欄115dに格納する(S34)。
次に、位置データ作成部123は、位置データを求めた部位に接続されている他の部位のうちで、位置データを求めていない他の部位があるか否かを判断する(S35)。
他の部位がある場合には、再び、ステップ31に戻り、この部位の最初のレコード(最初の受信時刻のレコード)の姿勢データ114を記憶装置110から読み込み(S31)、さらに、この部位の形状データ111も記憶装置110から読み込む(S32)。ここでは、例えば、胴体T1に接続されている右上腕T3の形状データ及び姿勢データを読み込むとする。
次に、位置データ作成部123は、ローカル座標系内で右上腕T3を姿勢データに従って回転させた後、このローカル座標系の原点(代表点)P7と、既に共通座標系において位置が定まっている胴体T1の代表点P3とが重なるように、回転後の右上腕T3を平行移動し、そのときの右上腕T3の各代表点の共通座標系における座標値を求める(S33)。
また、右前腕T3に関しては、ローカル座標系内で右前腕T4を姿勢データに従って回転させた後、このローカル座標系の原点(代表点)P9と、既に共通座標系において位置が定まっている右上腕T3の代表点P8とが重なるように、回転後の右前腕T4を平行移動し、そのときの右前腕T4の各代表点の共通座標系における座標値を求める。
以下、位置データ作成部123は、位置データを求めた部位に接続されている他の部位のうちで、位置データを求めていない他の部位がないと判断するまで(S36)、ステップ31〜ステップ36の処理を繰り返して実行し、胴体T1に近い部位から順に、当該部位の共通座標系における座標値を求める。
そして、位置データ作成部123は、位置データを求めた部位に接続されている他の部位のうちで、位置データを求めていない他の部位がないと判断すると(S36)、姿勢データ114中に、胴体T1の次の時刻のレコードがあるか否かを判断し(S37)、次の時刻のレコードがあれば、再び、ステップ31に戻り、次の時刻での各部位の位置データを求め、次の時刻のレコードがないと判断すると、位置データ作成処理(S30)を終了する。
なお、以上において、三次元空間内での部位の回転、平行移動に伴う座標変換の具体的な方法は、ここで詳細に説明するまでもないが、例えば、「マグロウヒルブック株式会社発行、郡山彬 訳」 アルゴリズムとプログラムによるコンピュータグラフィクス[II]1984」等に詳細に記載されている。
位置データ作成処理(S30)が終了すると、図10のフローチャートに示すように、二次元像データ作成部124が、三次元空間の作業者の形状の像データをディスプレイ103で表示できるように、二次元像データに変換する(S40)。このとき、二次元像データ作成部124は、共有座標系内の一点を視点とし、記憶装置110に格納されている位置データ115及び形状データ111とを用いて表される作業者像を基準にして、この視点と反対側に仮想投影面を作成する。そして、この仮想投影面に視点からの作業者像を投影して、この仮称投影面内での作業者像の各部位の代表点の座標値を定めることで、二次元像データが得られる。
なお、三次元像データを二次元像データに変換する具体的な方法も、ここで詳細に説明するまでもないが、例えば、特許第3056297号公報に詳細に記載されている。
次に、動作評価データ作成部125が、各作業者毎に動作評価データ117を作成すると共に、各作業者毎の作業時刻データ118を作成して、これらを記憶装置110に格納する(S50)。各作業者毎の作業時刻データ118は、各作業者毎の作業開始時刻と作業終了時刻とで構成されている。動作評価データ作成部125は、作業者のセンサデータ113(図7)の時刻欄113aに格納されている時刻のうち、連続してデータを受信している時間帯のうちで最初の時刻を、当該作業者の作業開始時刻とし、この時間帯の最後の時刻を作業終了時刻とする。なお、この動作評価データ117の作成方法に関しては後述する。
次に、表示制御部128が、以上での処理結果をディスプレイ103に表示させる(S60)。
このディスプレイ103の出力画面150には、図12に示すように、まず、日付152と、各作業者の就業時間帯(13時〜17時)を中心とした時間スケール153と、各作業者名154と、動作評価データ展開指示ボックス155と、各作業者毎の総合動作評価データ157aと、各作業者毎の作業開始時刻158aと、各作業者毎の作業終了時刻158bと、時刻指定目盛159とが表示される。
オペレータが、各作業者の総合動作評価データ157aのうち、特定の作業者の詳細な動作評価データを知りたい場合には、この作業者の名の前に表示されている動作評価データ展開指示ボックス155をクリックすることで、この作業者の各部位毎の動作評価データ157b,157b2,157b3,…が表示される。
動作評価データは、前述したように、ステップ50において、動作評価データ作成部125により作成される。動作評価データ作成部125は、まず、記憶装置110に格納されている動作評価ルール112(図6)を参照して、各部位毎の各変位態様毎の変位量範囲に収まる変位量の時間帯を調べる。例えば、胴体T1に関して、変位態様がα方向の変位の場合、変位量範囲が60°〜180°の時間帯(レベル5の時間帯)を姿勢データ114(図8)から抽出する。同様に、変位量範囲が45°〜60°の時間帯(レベル3の時間帯)も抽出する。さらに、胴体T1に関して、変位態様がγ方向の変位の場合にも、変位量範囲が−180°〜−20°、20°〜180°の時間帯(レベル3の時間帯)を姿勢データ114(図8)から抽出する。同様に、変位量範囲が45°〜60°の時間帯(レベル3の時間帯)も抽出する。そして、胴体T1の各時刻における動作レベルデータ、つまり動作評価データを作成する。この際、変位態様相互間で各時刻における動作レベルが異なるので、各時刻における最高動作レベルをこの時刻の動作レベルとする。
以下、同様に、動作評価データ作成部125は、各部位の各時刻における動作レベルを求める。
次に、動作評価データ作成部125は、該当作業者の総合動作評価データを作成する。この総合動作評価データは、該当作業者の各時刻毎の各部位の動作レベルで、各時刻における最高の動作レベルが、この時刻の総合動作レベル、つまり総合動作評価データとなる。
以上のように、作成された各部位毎の動作評価データ及び総合動作評価データが、当該作業者の動作評価データ117として、記憶装置110に格納される。表示制御部128は、この動作評価データ117を参照して、出力画面150中に、各作業者毎の総合動作評価データ157aや、特定の作業者の各部位毎の動作評価データ157b,157b2,157b3,…を表示する。なお、各動作評価データ157a,データ157b,…において、レベル5、レベル3の時間帯は、動作評価ルール112の表示色欄122e(図6)に格納されている色で表示される。
オペレータが、各作業者の動作評価データ157a等を見て、特定の作業者の特定の時刻における作業者の行動を見たい場合には、時刻指定目盛159を時間スケール153の該当時刻まで移動させると、この時刻以降の作業者の模式的な動態画面151が出力画面150中に表示される。この動態画面151は、記憶装置110に格納されている該当作業者の時刻毎の二次元像データ116に基づいて、表示制御部128により表示される。この動態画面151で、作業者の各部位は、それらの動作レベルに対応した色で表示される。この動態画面151では、作業者の動態T1の代表点P1が固定点となり、他の部位が相対的に移動・回転する。このため、作業者が屈伸をしている場合には、膝が曲がるものの、腰(P1)が沈まずに、足先が上昇することになる。そこで、このような動態表示が奇異に感じる場合には、ステップ30で位置データを作成した時点で、足先のY座標値が0に成るように、各部位を平行移動することで、作業者の屈伸時における足先の上昇を解消することができる。
以上のように、本実施形態では、作業者のいずれかの部位が動作中であろうが静止中であろうが、各方向センサ10からのセンサデータに基づいて、姿勢データを作成し、この姿勢データに基づいて作業者の模式的な像データを作成しているので、動作中であるか静止中であるかに関わらず、作業者の各部位の姿勢を把握することができる。また、本実施形態では、各部位の形状データ111を予め準備しておけば、各部位の姿勢を把握することができるので、姿勢把握のための辞書作成等の準備の工数を極めて小さくすることができる。
さらに、本実施形態では、各作業者毎の動作評価レベルや、指定された作業者の各部位毎の動作評価レベルが各時刻毎に表示されるので、どの時刻で、どの作業者の作業負荷が高いか、さらに、作業者のどの部分の作業負荷が高いかを知ることができる。また、各作業者毎の作業開始時刻及び作業終了時刻も表示されるので、作業者の勤務時間管理も行うことができる。
次に、図13及び図14を用いて、姿勢把握システムの第二の実施形態について説明する。
第一の実施形態では、作業者の各部位の全てに方向センサ10を取り付け、各方向センサからのセンサデータに基づいて、姿勢データや位置データを求めるものである。本実施形態は、これに対して、作業者の各部位のうち、一部の部位には方向センサを用いず、他の対象部位に取り付けた方向センサ10からのセンサデータに基づいて、この部位の姿勢データや位置データを推定するものである。
このため、本実施形態では、作業者の複数の部位のうち、ある部位の動きに追従した動きを示す部位を追従部位とし、この追従部位には方向センサを取り付けず、残りの部位を検知部位として方向センサを取り付けるようにしている。さらに、本実施形態では、図13に示すように、追従部位の姿勢と、この追従部位が追従する検知部位の姿勢との追従関係データ119を記憶装置110に予め格納している。
この追従関係データ119は、図14に示すように、テーブル形式で表される。このテーブルには、追従部位のIDが格納されている追従部位ID欄119aと、この追従部位が追従する検知部位のIDが格納されている検知部位ID欄119bと、検知部位の各回転方向α,β,γ毎の回転角度が格納されている基準変位量欄119cと、追従部位の各回転方向α,β,γ毎の回転角度が格納されている追従変位量欄119dと、がある。追従変位量欄119dに格納されている各回転角は、基準変位量欄119cに格納されている各回転角を用いて表されている。ここでは、検知部位ID欄119bには、前腕のID「T4,T7」と下肢のID「T10,T12」とが格納され、追従部位ID欄119aには、前腕の追従部位として上腕のID「T3,T6」が格納されていると共に、下肢の追従部位として上肢のID「T9,T11」が格納されている。したがって、この実施形態では、追従部位である作業者の上腕及び上肢には、方向センサ10が取り付けられていない。
例えば、前腕を上げる場合、多くの場合、この前腕の動きに追従して、上腕も上がる。この際、前腕の変位量に比べて、上腕の変位量が少ないことが多い。そこで、ここでは、検知部位としての前腕T4,T7の各回転方向α,β,γ毎の回転角度がそれぞれa,b,cの場合には、追従部位としての上腕T3,T6の各回転方向α,β,γ毎の回転角度をa/2,b/2,c/2としている。また、膝を曲げたときには、上肢と下肢とが、互いに反対の方向に同じ角度だけ変位することが多い。そこで、ここでは、検知部位としての下肢T10,T12の回転方向αの回転角度がaの場合には、追従部位としての上肢T9,T11の回転方向αの回転角度を−aとしている。また、他の回転方向β,γに関しては、膝の構造上、上肢と下肢とで異なる回転角度を取ることが実質的にできないので、検知部位としての下肢T10,T12の各回転方向β,γ毎の回転角度がそれぞれb,cの場合には、追従部位としての上肢T9,T11の各回転方向β,γ毎のそれぞれの回転角度をb,cとしている。
次に、本実施形態の姿勢把握装置100aの動作について説明する。
本実施形態においても、第一の実施形態のステップ10と同様に、まず、姿勢把握装置100aのセンサデータ取得部121が、各方向センサ10からのデータを受信し、これを記憶装置110にセンサデータ113として格納する。
次に、姿勢把握装置100aの姿勢データ算出部122aが、記憶装置110に格納されているセンサデータ113を用いて、姿勢データ114を作成し、これを記憶装置110に格納する。この際、姿勢データ算出部122aは、センサデータ113に含まれている部位に関するデータに関しては、第一の実施形態のステップ20と同様に処理して、これらの部位の姿勢データを作成する。また、姿勢データ算出部122aは、センサデータ113に含まれていない部位、つまり追従部位のデータに関しては、記憶装置110に格納されている追従関係データ119を参照して、姿勢データを作成する。
具体的に、追従部位が上腕T3である場合、姿勢データ算出部122aは、まず、追従関係データ119を参照して、この上腕T3の姿勢が追従する検知部位として、前腕T4を定め、この前腕T4の姿勢データを取得する。そして、再び、追従関係データ119を参照して、前腕T4の姿勢データと上腕T3の姿勢データとの関係を把握し、この関係に基づき、上腕T3の姿勢データを求める。同様に、追従部位が上肢T9である場合も、下肢T10との追従関係に基づいて、この上肢T9の姿勢データを求める。
以上のようにして、全ての部位の姿勢データが求まると、これを姿勢データ114として、記憶装置110に格納する。
以下、第一の実施形態と同様に、ステップ30〜ステップ60の処理が実行される。
以上のように、本実施形態では、作業者に取り付ける方向センサ10の数量を少なくすることができる。
次に、図15から図19を用いて、姿勢把握システムの第三の実施形態について説明する。
本実施形態は、図15に示すように、対象物である作業者に位置センサ30を取り付け、作業者の姿勢と共に作業者の位置も出力できるようにしたものである。
このため、本実施形態の姿勢把握装置100bのCPU120は、第一の実施形態のCPU120の機能部の他に、位置センサ30からの出力と位置データ作成部123が作成した位置データとを用いて、作業者の位置及び作業者の各部位の位置を示す第二位置データを作成する第二位置データ作成部129を有している。また、本実施形態のセンサデータ取得部121bは、第一の実施形態のセンサデータ取得部121と同様に、方向センサ10からの出力を取得すると共に、位置センサ30からの出力も取得する。さらに、本実施形態の二次元像データ作成部124bは、第一の実施形態の二次元像データ作成部124のように、位置データ作成部123が作成した位置データを用いず、前述の第二位置データを用いて、二次元像データを作成する。以上の機能部121b,124b,129は、いずれの他の機能部と同様に、CPU120が動作把握プログラムPを実行することで機能する。記憶装置110には、この動作把握プログラムPの実行過程で、第二位置データ作成部129が作成した第二位置データ141が記憶される。
本実施形態の位置センサ30は、位置を検知するセンサの他に、図2を用いて説明した方向センサ10と同様、電源、スイッチ、無線通信装置を備えている。位置を検知するセンサとしては、例えば、作業場の床面や階段等に格子状等に配した複数の発信機からの識別情報を受信し、この識別情報に基づいて位置データを出力するものや、GPS受信機等を利用することができる。なお、以上では、位置センサ30や方向センサ10は、無線通信装置を備えているが、これを備えず、替わりに、位置データや方向データを記憶するメモリを備え、このメモリに記憶された内容を姿勢把握装置側で読み取るようにしてもよい。
次に、図18に示すフローチャートに従って、本実施形態の姿勢把握装置100bの動作について説明する。
姿勢把握装置100bのセンサデータ取得部121bは、通信装置132を介して、方向センサ10及び位置センサ30からのデータを受信すると、このデータを記憶装置110にセンサデータ113Bとして格納する(S10b)。
このセンサデータ113Bは、テーブル形式で表される。このテーブルには、図16に示すように、第一の実施形態のセンサデータ113と同様に、時刻欄113a、部位ID欄113b、センサID欄113c、加速度センサデータ欄113d、磁気センサデータ欄113eを有している。さらに、このテーブルには、位置センサ30からのX値、Y値、Z値がそれぞれ格納される位置センサデータ欄113fを有している。位置センサ30からX値、Y値、Z値は、作業場の特定場所を原点としたXYZ座標系における値である。このXYZ座標系のX軸、Y軸、Z軸のそれぞれの方向は、図3に示す共通座標系のX軸の方向、Y軸の方向、Z軸の方向と一致している。
なお、ここでは、方向センサ10のデータと位置センサ30のデータとを同一のテーブルに格納しているが、各センサ毎にテーブルを設け、それぞれにセンサデータを記憶するようにしてもよい。また、ここでは、位置センサ30からの出力を直交座標系で表しているが、円筒座標系や球座標系等で表すようにしてもよい。また、位置センサ30に用いるセンサとして、二次元内での位置を検知するセンサを用いる場合には、位置センサデータ欄113f中のY軸(鉛直方向の軸)値の欄を省いてもよい。さらに、ここでは、方向センサ10からのデータ取得周期と位置センサ30からのデータ取得周期とが一致しているが、両センサ10,30からのデータ取得周期を一致させなくてもよい。この場合、ある時刻において、一方のセンサからのデータに対して、他方のセンサからのデータが欠ける場合がある。このような場合、例えば、他方のセンサからのデータのうち、欠けているデータに対して時間的に前後のデータを比例配分等して、欠けているデータを補完することが好ましい。
次に、第一の実施形態と同様に、姿勢データ算出部122による姿勢データ114の算処理(S20)、位置データ作成部123による位置データ115の作成処理(S30)が実行される。
次に、第二位置データ作成部129が、前述の第二位置データ141を作成する(S35)。
具体的に、第二位置データ作成部129は、図17に示すように、位置データ115中の座標データ欄115dに格納されているデータ値と、センサデータ113b中の位置センサデータ欄113fに格納されているデータ値と加算して、第二位置データ値を算出し、この第二位置データ値を第二位置データ141の座標データ欄141dに格納する。データの加算の際には、同一時刻で且つ同一作業者の同一部位のデータ相互を加算する。なお、この第二位置データ141も、基本的には、位置データ115と同じデータ構成であり、前述の座標データ欄141dの他、時刻欄141a、部位ID欄141bを有している。なお、ここでは、位置データ115と第二位置データ141とを同一データ構成にしているが、これに限定する必要はない。
第二位置データ作成処理(S35)が終了すると、二次元像データ作成部124bが、前述したように、この第二位置データ141と形状データ111を用いて、二次元像データ114Bを作成する(S40b)。この二次元像データ114Bの作成方法は、第一実施形態において、位置データ115と形状データ111とを用いて、二次元像データ114を作成した方法と同一である。
次に、第一の実施形態と同様に、動作評価データ作成処理(S50)が実行された後、出力処理(S60b)が実行される。
この出力処理(S60b)では、第一の実施形態と同様に、図12に示す出力画面150がディスプレイ103に表示される。さらに、作業者及び時刻が指定されると共に、移動形態動画が指定されると、表示制御部128は、二次元像データ114Bを用いて、図19に示すように、指定作業者に関する指定時刻以降の模式的な移動形態動画面161をディスプレイ103に表示させる。
なお、図19に示すように、作業者の他に、作業者による作業過程で移動する移動物品162や、移動しない固定物品163がある場合、これも併せて表示するようにしてもよい。この場合、この移動物品162に方向センサ10及び位置センサ30を取り付けると共に、形状データとして、この物品の形状のデータも記憶装置110に予め格納しておく必要がある。但し、物品は、作業者と異なり、複数の部位の姿勢変化がないので、この物品に対して、方向センサ10を一つだけ取り付ければよい。さらに、この場合、固定物品163の形状データ、及びこの固定物品63の特定箇所の作業場座標系上で各座標値も記憶装置110に予め格納しておく必要がある。
以上のように、本実施形態では、作業者の各部位の姿勢を把握できるのみならず、作業者や物品の移動も把握することができるので、第一及び第二の実施形態より、作業者の行動形態を把握することができる。
なお、以上の各実施形態では、動作評価データ157a,157b,…を求め、これを表示しているが、これを求めないで、単に、作業者の模式的な動態画面151,161を表示するようにしてもよい。また、出力画面150では、各動作評価データ157a,データ157b,…や作業者の模式的な動態画面151等を表示しているが、作業場に、カメラを設置し、さらに、このカメラによる映像を動態画面151,161と同期させて表示するようにしてもよい。
また、以上の各実施形態では、各作業者の作業が終了し、各作業者の作業開始から作業終了までの時間帯のセンサデータを取得してから(S10)、姿勢データ算出処理(S20)、位置データ作成処理(S30)等を実行しているが、各作業者が作業終了する前に、それまでに取得したセンサデータに基づいて、ステップ20以下の処理を実行してもよい。また、ここでは、全ての部位に関する全ての時間帯での二次元像データを作成した後(S40)、出力処理(S60)で、時刻指定目盛159が時間スケール153の目的の時刻まで移動させられることを条件として、この時刻以降の作業者の模式的な動態画面151を表示するようにしているが、この出力処理で、時刻指定目盛159が時間スケール153の目的の時刻まで移動させられると、この時点で、この時点からの該当作業者の二次元像データを作成し、そして、順次作成された二次元像データを用いて、作業者の模式的な動態画面151を表示するようにしてもよい。
さらに、以上の各実施形態では、方向センサ10として、加速度センサ11及び磁気センサ12を有しているものを用いているが、対象物の姿勢変化にγ方向の回転、つまり水平回転が実質的にない場合や、水平回転を加味して姿勢データを作成する必要がない場合には、磁気センサ12を省略して、加速度センサ11からのセンサデータのみで姿勢データを作成するようにしてもよい。

Claims (15)

  1. 対象物の複数の対象部位のうち、いずれかの対象部位に、空間内の方向を検知する方向センサを取り付け、該方向センサからの出力に基づいて、該対象部位の姿勢を把握する姿勢把握装置において、
    前記方向センサが取り付けられている前記対象部位の形状データが記憶されている形状データ記憶手段と、
    前記方向センサからの出力値を取得するセンサ出力取得手段と、
    前記方向センサからの出力値を用いて、予め定められた方向を向いている基準軸を基準とした、該方向センサが取り付けられている前記対象部位の向きを示す姿勢データを算出する姿勢データ算出手段と、
    前記形状データ記憶手段に記憶されている前記対象部位の前記形状データと、前記姿勢データ算出手段により算出された該対象部位の姿勢データとを用い、該対象部位と接続している他の対象部位との接続点を基準として、該形状データで示される該対象部位内の少なくとも二つの代表点の空間内の位置データを求めて、該対象部位の空間内の位置データを作成する位置データ作成手段と、
    前記位置データ作成手段で作成された前記対象部位の空間内の前記位置データと、前記形状データ記憶手段に記憶されている該対象部位の前記形状データとを用いて、該対象部位を示す二次元像データを作成する二次元像作成手段と、
    前記二次元像作成手段で作成された前記対象部位の二次元像データに基づいて該対象部位の二次元像を出力する出力手段と、
    を備えていることを特徴とする姿勢把握装置。
  2. 請求項1に記載の姿勢把握装置において、
    前記位置データ作成手段は、複数の対象部位のうち、接続し合っている二つの対象部位の接続点の位置データを同じ値にする、
    ことを特徴とする姿勢把握装置。
  3. 請求項1及び2のいずれか一項に記載の姿勢把握装置において、
    前記対象物の前記複数の対象部位の全てに前記方向センサが取り付けられ、
    前記形状データ記憶手段には、前記対象物の前記複数の対象部位の全ての形状データが記憶され、
    前記出力手段は、前記対象物の前記複数の対象部位の全ての二次元像を出力する、
    ことを特徴とする姿勢把握装置。
  4. 請求項1及び2のいずれか一項に記載の姿勢把握装置において、
    前記対象物の前記複数の対象部位のうち、ある対象部位の動きに追従した動きを示す追従対象部位を除く検知対象部位に前記方向センサが取り付けられ、
    前記追従対象部位の姿勢と、該追従対象部位が追従する前記検知対象部位の姿勢との追従関係が記憶されている追従関係記憶手段を備え、
    前記形状データ記憶手段には、前記対象物の前記複数の対象部位の全ての形状データが記憶され、
    前記姿勢データ算出手段は、前記検知対象部位の姿勢データを算出した後、該姿勢データと、該検知対象部位と前記追従対象部位との前記追従関係とを用いて、該追従対象部位の姿勢データを算出し、
    前記出力手段は、前記対象物の前記複数の対象部位の全ての二次元像を出力する、
    ことを特徴とする姿勢把握装置。
  5. 請求項3及び4のいずれか一項に記載の姿勢把握装置において、
    前記対象物の前記複数の対象部位のうち、前記方向センサが取り付けられている一つの対象部位と接続している他の対象部位との接続点を、空間内の基準位置として、該一つの対象部位の空間内の位置データを求めた後、位置データが求められた対象部位に接続している他の対象部位の位置データを順次求める、
    ことを特徴とする姿勢把握装置。
  6. 請求項1から5のいずれか一項に記載の姿勢把握装置において、
    前記センサ出力取得手段は、前記方向センサからの出力値を時系列に取得し、
    前記出力手段は、前記対象部位の二次元像を時系列順に出力する、
    ことを特徴とする姿勢把握装置。
  7. 請求項1から6のいずれか一項に記載の姿勢把握装置において、
    前記対象部位の変位態様毎に、該対象部位の基準姿勢に対する変位量と、該対象部位の動作レベルとの関係である動作評価ルールが記憶されている評価ルール記憶手段と、
    前記対象部位に関する前記動作評価ルールを用いて、該動作評価ルールが適応される変位態様に関する該対象部位の変位量から、該対象部位の動作レベルを求める動作レベル算出手段と、
    を備え、
    前記出力手段は、前記動作レベル算出手段で求められた前記対象部位の動作レベルを出力する、
    ことを特徴とする姿勢把握装置。
  8. 請求項6に記載の姿勢把握装置において、
    前記対象部位の変位態様毎に、該対象部位の基準姿勢に対する変位量と、該対象部位の動作レベルとの関係である動作評価ルールが記憶されている評価ルール記憶手段と、
    前記対象部位に関する前記動作評価ルールを用いて、該動作評価ルールが適応される変位態様に関する該対象部位の変位量から、該対象部位の動作レベルを求める動作レベル算出手段と、
    を備え、
    前記出力手段は、前記動作レベル算出手段で求められた前記対象部位の動作レベルを時系列に出力する、
    ことを特徴とする姿勢把握装置。
  9. 請求項8に記載の姿勢把握装置において、
    前記出力手段により、時系列に出力された前記対象部位の動作レベルのうちで、任意の時刻の指定を受け付ける姿勢表示時刻受付手段を備え、
    前記出力手段は、前記姿勢表示時刻受付手段が前記任意の時刻の指定を受け付けると、該任意の時刻以降の前記対象部位の二次元像を時系列に出力する、
    ことを特徴とする姿勢把握装置。
  10. 請求項6に記載の姿勢把握装置において、
    前記出力手段は、前記方向センサからの出力値の取得開始時刻と、取得終了時刻とを出力する、
    ことを特徴とする姿勢把握装置。
  11. 請求項1から10のいずれか一項に記載の姿勢把握装置において、
    前記センサ出力取得手段は、前記対象物に取付けられた位置センサからの出力値を取得し、
    前記位置センサからの出力値に応じて、前記位置データ作成手段が作成した前記対象部位の前記位置データを移動させた該対象部位の第二位置データを作成する第二位置データ作成手段を備え、
    前記二次元像作成手段は、前記位置データ作成手段で作成された前記対象部位の前記位置データの替わりに、前記第二位置データ作成手段で作成された該対象部位の前記第二位置データを用いて、該対象部位を示す二次元像データを作成する、
    ことを特徴とする姿勢把握装置。
  12. 請求項1から11のいずれか一項に記載の姿勢把握装置と、
    前記方向センサと、
    を備えていることを特徴とする姿勢把握システム。
  13. 請求項12に記載の姿勢把握システムにおいて、
    前記方向センサは、
    加速度センサと、磁気センサと、該加速度センサ及び該磁気センサからの出力を無線送信する無線通信装置と、を有する、
    ことを特徴とする姿勢把握システム。
  14. 対象物の複数の対象部位のうち、いずれかの対象部位に、空間内の方向を検知する方向センサを取り付け、該方向センサからの出力に基づいて、該対象部位の姿勢を把握する姿勢把握プログラムにおいて、
    コンピュータの通信手段により、前記方向センサからの出力値を取得するセンサ出力取得ステップと、
    前記方向センサからの出力値を用いて、予め定められた方向を向いている基準軸を基準とした、該方向センサが取り付けられている前記対象部位の向きを示す姿勢データを算出する姿勢データ算出ステップと、
    前記コンピュータの記憶装置に予め記憶されている前記対象部位の前記形状データと、前記姿勢データ算出ステップで算出された該対象部位の姿勢データとを用い、該対象部位と接続している他の対象部位との接続点を基準として、該形状データで示される該対象部位内の少なくとも二つの代表点の空間内の位置データを求めて、該対象部位の空間内の位置データを作成する位置データ作成ステップと、
    前記位置データ作成ステップで作成された前記対象部位の空間内の前記位置データと、前記記憶装置に記憶されている該対象部位の前記形状データとを用いて、該対象部位を示す二次元像データを作成する二次元像作成ステップと、
    前記コンピュータの出力手段に、前記二次元像作成ステップで作成された前記対象部位の二次元像データに基づいて該対象部位の二次元像を出力させる出力ステップと、
    を前記コンピュータに実行させることを特徴とする姿勢把握プログラム。
  15. 対象物の複数の対象部位のうち、少なくともいずれかの対象部位の姿勢を把握する姿勢把握方法において、
    前記少なくともいずれかの対象部位に、空間内の方向を検知する方向センサを取り付け、
    コンピュータの通信手段により、前記方向センサからの出力値を取得するセンサ出力取得ステップと、
    前記方向センサからの出力値を用いて、予め定められた方向を向いている基準軸を基準とした、該方向センサが取り付けられている前記対象部位の向きを示す姿勢データを算出する姿勢データ算出ステップと、
    前記コンピュータの記憶装置に予め記憶されている前記対象部位の前記形状データと、前記姿勢データ算出ステップで算出された該対象部位の姿勢データとを用い、該対象部位と接続している他の対象部位との接続点を基準として、該形状データで示される該対象部位内の少なくとも二つの代表点の空間内の位置データを求めて、該対象部位の空間内の位置データを作成する位置データ作成ステップと、
    前記位置データ作成ステップで作成された前記対象部位の空間内の前記位置データと、前記記憶装置に記憶されている該対象部位の前記形状データとを用いて、該対象部位を示す二次元像データを作成する二次元像作成ステップと、
    前記コンピュータの出力手段に、前記二次元像作成ステップで作成された前記対象部位の二次元像データに基づいて該対象部位の二次元像を出力させる出力ステップと、
    を前記コンピュータが実行することを特徴とする姿勢把握方法。
JP2010503914A 2008-03-18 2009-03-18 姿勢把握装置、姿勢把握プログラム、及び姿勢把握方法 Pending JPWO2009116597A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008069474 2008-03-18
JP2008069474 2008-03-18
PCT/JP2009/055346 WO2009116597A1 (ja) 2008-03-18 2009-03-18 姿勢把握装置、姿勢把握プログラム、及び姿勢把握方法

Publications (1)

Publication Number Publication Date
JPWO2009116597A1 true JPWO2009116597A1 (ja) 2011-07-21

Family

ID=41090996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010503914A Pending JPWO2009116597A1 (ja) 2008-03-18 2009-03-18 姿勢把握装置、姿勢把握プログラム、及び姿勢把握方法

Country Status (3)

Country Link
US (1) US20110060248A1 (ja)
JP (1) JPWO2009116597A1 (ja)
WO (1) WO2009116597A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9026223B2 (en) * 2009-04-30 2015-05-05 Medtronic, Inc. Therapy system including multiple posture sensors
IT1400054B1 (it) * 2010-05-31 2013-05-17 Nuova Pignone S R L Dispositivo e metodo per analizzatore di distanza
JP2012237703A (ja) * 2011-05-13 2012-12-06 Sony Corp 計測装置、計測方法、プログラム、および、記録媒体
US8771206B2 (en) * 2011-08-19 2014-07-08 Accenture Global Services Limited Interactive virtual care
KR101352945B1 (ko) * 2012-04-10 2014-01-22 연세대학교 산학협력단 작업자 위치 추적 및 동작감지 시스템과 그 방법
JP6168488B2 (ja) * 2012-08-24 2017-07-26 パナソニックIpマネジメント株式会社 体動検出装置及びこれを備える電気刺激装置
JP6215471B2 (ja) * 2014-07-17 2017-10-18 パイオニア株式会社 回転角検出装置
JP6669948B2 (ja) 2014-09-08 2020-03-18 日本電産株式会社 移動体制御装置及び移動体
JP6707327B2 (ja) * 2015-08-20 2020-06-10 株式会社東芝 動作判別装置及び動作判別方法
JP6927727B2 (ja) * 2017-03-29 2021-09-01 本田技研工業株式会社 ロボットの制御装置
JP6728486B2 (ja) * 2017-05-12 2020-07-22 株式会社野村総合研究所 データ管理システム
JP7125872B2 (ja) * 2018-07-13 2022-08-25 株式会社日立製作所 作業支援装置、および、作業支援方法
JP7332550B2 (ja) * 2020-08-18 2023-08-23 トヨタ自動車株式会社 動作状態監視システム、訓練支援システム、動作状態監視方法およびプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3570163B2 (ja) * 1996-07-03 2004-09-29 株式会社日立製作所 動作及び行動の認識方法及び装置及びシステム
AU7161598A (en) * 1997-04-21 1998-11-13 Virtual Technologies, Inc. Goniometer-based body-tracking device and method
US6176837B1 (en) * 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
JP4612928B2 (ja) * 2000-01-18 2011-01-12 マイクロストーン株式会社 身体動作センシング装置
US6984208B2 (en) * 2002-08-01 2006-01-10 The Hong Kong Polytechnic University Method and apparatus for sensing body gesture, posture and movement
US7981057B2 (en) * 2002-10-11 2011-07-19 Northrop Grumman Guidance And Electronics Company, Inc. Joint motion sensing to make a determination of a positional change of an individual
JP4291093B2 (ja) * 2003-09-11 2009-07-08 本田技研工業株式会社 2足歩行移動体の関節モーメント推定方法
JP4512703B2 (ja) * 2004-09-02 2010-07-28 多摩川精機株式会社 リハビリ用姿勢モニタリング方法及びリハビリ用姿勢モニタ
US7918801B2 (en) * 2005-12-29 2011-04-05 Medility Llc Sensors for monitoring movements, apparatus and systems therefor, and methods for manufacture and use
DK2007282T3 (da) * 2006-04-04 2013-05-06 Mclean Hospital Corp Fremgangsmåde til diagnosticering af ADHD og beslægtede adfærdsforstyrrelser
WO2008026357A1 (fr) * 2006-08-29 2008-03-06 Microstone Corporation Procédé de capture de mouvements
US8348865B2 (en) * 2008-12-03 2013-01-08 Electronics And Telecommunications Research Institute Non-intrusive movement measuring apparatus and method using wearable electro-conductive fiber

Also Published As

Publication number Publication date
WO2009116597A1 (ja) 2009-09-24
US20110060248A1 (en) 2011-03-10

Similar Documents

Publication Publication Date Title
WO2009116597A1 (ja) 姿勢把握装置、姿勢把握プログラム、及び姿勢把握方法
JP7336184B2 (ja) 拡張現実プラットフォームにおいて、仮想コンテンツを物理環境と空間的に位置合わせするためのシステム、方法、及びツール
JP5657216B2 (ja) モーションキャプチャー装置及びモーションキャプチャー方法
CN108762495B (zh) 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实系统
CN107016717B (zh) 用于患者的透视视图的系统和方法
US10470838B2 (en) Surgical system for spatial registration verification of anatomical region
JP6555149B2 (ja) 演算装置、演算方法及び演算プログラム
CN102473303A (zh) 生成对象数据
EP2418562A1 (en) Modelling of hand and arm position and orientation
US20160379368A1 (en) Method for determining an imaging specification and image-assisted navigation as well as device for image-assisted navigation
CN103220975A (zh) 用于为了诊断、外科或介入医学目的而在医学应用中映射三维空间的装置与方法
CN110609621B (zh) 姿态标定方法及基于微传感器的人体运动捕获系统
JPWO2017222072A1 (ja) 姿勢分析装置、姿勢分析方法、及びプログラム
CN109781104A (zh) 运动姿态确定及定位方法、装置、计算机设备及介质
JP2009087161A (ja) 画像処理装置、画像処理方法
US20060134583A1 (en) Simulation and training sphere for receiving persons
JP2007125670A (ja) ロボット用表現動作変換システム
WO2017090083A1 (ja) 測定装置、測定方法、及びプログラム
WO2017141573A1 (ja) 演算装置、演算方法及び演算プログラム
Gmiterko et al. Motion capture of human for interaction with service robot
CN113384347A (zh) 一种机器人标定方法、装置、设备及存储介质
JP4332669B2 (ja) 関節中心計測装置
JP2014117409A (ja) 身体関節位置の計測方法および装置
WO2022230299A1 (ja) 計測装置、計測システム、計測方法、および記録媒体
JP5595948B2 (ja) オブジェクト修正処理装置、方法及びプログラム