JP7178931B2 - センサ配置態様の取得装置 - Google Patents

センサ配置態様の取得装置 Download PDF

Info

Publication number
JP7178931B2
JP7178931B2 JP2019043698A JP2019043698A JP7178931B2 JP 7178931 B2 JP7178931 B2 JP 7178931B2 JP 2019043698 A JP2019043698 A JP 2019043698A JP 2019043698 A JP2019043698 A JP 2019043698A JP 7178931 B2 JP7178931 B2 JP 7178931B2
Authority
JP
Japan
Prior art keywords
predetermined
arrangement mode
sensors
sensor
predetermined number
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019043698A
Other languages
English (en)
Other versions
JP2020149105A (ja
Inventor
泰三 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019043698A priority Critical patent/JP7178931B2/ja
Priority to CN202010111331.8A priority patent/CN111671602B/zh
Priority to US16/809,578 priority patent/US11035703B2/en
Publication of JP2020149105A publication Critical patent/JP2020149105A/ja
Application granted granted Critical
Publication of JP7178931B2 publication Critical patent/JP7178931B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G12/00Accommodation for nursing, e.g. in hospitals, not covered by groups A61G1/00 - A61G11/00, e.g. trolleys for transport of medicaments or food; Prescription lists
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0024Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system for multiple sensor units attached to the patient, e.g. using a body or personal area network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D18/00Testing or calibrating apparatus or arrangements provided for in groups G01D1/00 - G01D15/00
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Description

本発明は、人的な動作を実行する被検対象の所定動作を複数のセンサで検出するときのセンサの配置態様を取得するセンサ配置態様の取得装置に関する。
従来、特許文献1に記載された動作識別装置が知られている。この動作識別装置は、被検対象としての看護師の動作を識別するものであり、サーバ、最適データベース及び4つの運動測定装置などを備えている。4つの運動測定装置は、看護師の左右の両腕、胸部及び腰部にそれぞれ装着される。各運動測定装置は、加速度センサ及び無線通信装置などで構成されており、加速度センサで検出された加速度データを無線ネットワークを介して、サーバに送信する。
最適データベースでは、看護師の動作を識別するのに最適な加速度センサからの加速度データと、そのサンプリング周波数とがデータベース化されて記憶されている。サーバでは、看護師の位置に基づいて、最適データベースから使用する加速度センサ及び加速度データのサンプリング周波数が決定され、それに対応するデータが識別されたときに、特徴量を算出し、この特徴量を用いて、看護師の動作が識別される。
特開2009-134590号公報
一般に、センサの検出信号を用いて、被検対象の動作を検出する場合、そのセンサ数が多ければ多いほど、検出精度が高まることが知られている。しかしながら、センサの装着が困難な場合や、センサを装着したくない場合があるとともに、ランニングコストの観点から、センサ数が制限されるのが一般的である。これに加えて、一般に、被検対象における複数の動作のうち、検出する必要性の高い所定動作のみを精度良く検出したいという要望が存在する。これに対して、特許文献1の場合、以上の条件及び要望を満たすようなセンサ配置態様を取得することはできない。
本発明は、上記課題を解決するためになされたもので、所定動作の検出精度及びセンサ数の制限を評価しながら、センサの配置態様を取得できるセンサ配置態様の取得装置を提供することを目的とする。
上記目的を達成するために、本発明は、人的な動作を実行する被検対象のm(mは複数)個の所定動作を検出するときのn(nは複数)個のセンサ(慣性計測ユニットセンサ2)の被検対象に対する配置態様を取得するセンサ配置態様の取得装置1であって、各々がn個以下の範囲内の数のセンサを配置した配置態様であって、互いに異なるk(kは複数)個の配置態様で被検対象に配置したときの、被検対象のm個の所定動作の検出結果の予測精度を表すk×m個の予測精度パラメータ(正解割合)と、n個以下のセンサのk個の配置態様と、m個の所定動作との関係を定義した所定のデータベースを記憶するデータベース記憶部(E2PROM13)と、n個のセンサからn個以下の第1所定数のセンサ数を選択するためのセンサ数選択部(入力装置12)と、m個の所定動作からm個以下の第2所定数の所定動作を選択するための所定動作選択部(入力装置12)と、センサ数選択部によって第1所定数のセンサ数が選択されかつ所定動作選択部によって第2所定数の所定動作が選択された場合、第1所定数以下の範囲内のセンサ数に応じた1個以上の配置態様を、第2所定数の所定動作に応じた第2所定数の予測精度パラメータと関連付けて、所定のデータベースから取得する配置態様取得部(コントローラ10)と、を備えることを特徴とする。
このセンサ配置態様の取得装置によれば、センサ数選択部によって第1所定数のセンサ数が選択されかつ所定動作選択部によって第2所定数の所定動作が選択された場合、第1所定数以下の範囲内のセンサ数に応じた1個以上の配置態様が、第2所定数の所定動作に応じた第2所定数の予測精度パラメータと関連付けて、所定のデータベースから取得される。それにより、このように取得した1個以上の配置態様を、例えば表示装置に表示したり、紙に印刷したりすることによって、ユーザは、検出する必要性の高い所定動作の検出精度とセンサ数の制限とを評価しながら、最適な配置態様を容易に取得することができる。
また、この場合、所定のデータベースは、各々がn個以下の範囲内の数のセンサを配置した配置態様であって、互いに異なるk個の配置態様で被検対象に配置したときの、被検対象のm個の所定動作の検出結果の予測精度を表すk×m個の予測精度パラメータと、n個以下のセンサのk個の配置態様と、m個の所定動作との関係を定義したものである。したがって、ユーザは、上述した最適な配置態様を、全k個の配置態様の中から適切に取得することができる。
本発明において、被検対象を複数のセグメントに分類した場合において、複数のセグメントのうちの、センサを配置するセグメントを選択するためのセグメント選択部(入力装置12)をさらに備え、配置態様取得部は、第1所定数のセンサ数及び第2所定数の所定動作が選択されている場合において、セグメント選択部によってセンサを配置するセグメントが選択されたときには、第1所定数以下の範囲内のセンサ数及びセンサを配置するセグメントに応じた1個以上の配置態様を、第2所定数の所定動作に応じた第2所定数の予測精度パラメータと関連付けて、所定のデータベースから取得することが好ましい。
このセンサ配置態様の取得装置によれば、第1所定数のセンサ数及び第2所定数の所定動作の選択に加えて、センサを配置するセグメントの選択状態に応じて、1個以上の配置態様が取得されるので、1個以上の配置態様を、センサを配置不能なセグメントやセンサを配置したくないセグメントを除いた状態で取得することができる。それにより、ユーザの利便性を向上させることができる。
本発明において、配置態様取得部によって1個以上の配置態様が取得された場合、1個以上の配置態様の各々に関連付けられた第2所定数の予測精度パラメータが表す予測精度の高低に基づき、1個以上の配置態様の各々を順に表示する配置態様表示部(ディスプレイ11)をさらに備えることが好ましい。
このセンサ配置態様の取得装置によれば、配置態様取得部によって1個以上の配置態様が取得された場合、配置態様表示部によって、1個以上の配置態様の各々に関連付けられた第2所定数の予測精度パラメータが表す予測精度の高低に基づき、1個以上の配置態様の各々が順に表示される。それにより、ユーザは、予測精度とセンサの配置態様が変化するのを参照しながら、最適な配置態様を探索することができる。その結果、ユーザは最適な配置態様を容易かつ的確に取得することができる。
本発明において、配置態様表示部は、1個以上の配置態様を、被検対象を複数のセグメントS1~S17に分類したときの複数のセグメントにセンサを関連付けた状態で表示することが好ましい。
このセンサ配置態様の取得装置によれば、ユーザは、1個以上の配置態様を、被検対象を複数のセグメントに分類したときの複数のセグメントにセンサを関連付けた状態で参照することができる。それにより、ユーザの利便性をさらに向上させることができる。
本発明において、配置態様表示部は、第2所定数の予測精度パラメータが表す予測精度の高低を、グラフ状に表示することが好ましい。
このセンサ配置態様の取得装置によれば、第2所定数の予測精度パラメータが表す予測精度の高低が、グラフ状に表示されるので、ユーザは、配置態様間の予測精度の高低をより容易に確認することができる。それにより、ユーザは、最適な配置態様をさらに容易に取得することができる。
本発明において、1個以上の配置態様が取得された場合、1個以上の配置態様のうちの、予測精度が所定順位の配置態様を選択するための配置態様選択部(入力装置12)をさらに備え、配置態様表示部は、配置態様選択部によって所定順位の配置態様が選択された場合、所定順位の配置態様を表示することが好ましい。
このセンサ配置態様の取得装置によれば、所定順位の配置態様を任意に選択して表示することができるので、ユーザは、配置態様の順位を任意に変更しながら、センサ数及び配置態様を参照することができる。
上記目的を達成するために、他の本発明は、人的な動作を実行する被検対象のm(mは複数)個の所定動作を検出するときのn(nは複数)個のセンサの被検対象に対する配置態様を取得するセンサ配置態様の取得方法であって、各々がn個以下の範囲内の数のセンサを配置した配置態様であって、互いに異なるk(kは複数)個の配置態様で被検対象に配置したときの、被検対象のm個の所定動作の検出結果の予測精度を表すk×m個の予測精度パラメータと、n個以下のセンサのk個の配置態様と、m個の所定動作との関係を定義した所定のデータベースを記憶し、n個のセンサからn個以下の第1所定数のセンサ数を選択し、m個の所定動作からm個以下の第2所定数の所定動作を選択し、第1所定数のセンサ数が選択されかつ第2所定数の所定動作が選択された場合、第1所定数以下の範囲内のセンサ数に応じた1個以上の配置態様を、第2所定数の所定動作に応じた第2所定数の予測精度パラメータと関連付けて、所定のデータベースから取得することを特徴とする。
上記他の本発明において、1個以上の配置態様が取得された場合、1個以上の配置態様の各々に関連付けられた第2所定数の予測精度パラメータが表す予測精度の高低に基づき、1個以上の配置態様の各々を順にさらに表示することが好ましい。
上記他の本発明において、1個以上の配置態様を、被検対象を複数のセグメントに分類したときの複数のセグメントにセンサを関連付けた状態で表示することが好ましい。
上記他の本発明において、第2所定数の予測精度パラメータが表す予測精度の高低を、グラフ状に表示することが好ましい。
上記他の本発明において、1個以上の配置態様が取得された場合、1個以上の配置態様のうちの、予測精度が所定順位の配置態様をさらに選択し、所定順位の配置態様をさらに表示することが好ましい。
上記他の本発明において、n個以下の範囲内の数のセンサをk個の配置態様で人間及び人型ロボットの一方の対象に配置した状態で、一方の対象がm個の所定動作を実行したときのセンサの検出信号をサンプリングし、サンプリングされた検出信号を所定の機械学習法に適用することにより、k×m個の予測精度パラメータを算出し、k×m個の予測精度パラメータと、k個の配置態様と、m個の所定動作とを紐付けすることにより、所定のデータベースを作成することが好ましい。
このセンサ配置態様の取得方法によれば、k×m個の予測精度パラメータと、k個の配置態様と、m個の所定動作とを紐付けすることにより、所定のデータベースが作成される。この場合、k×m個の予測精度パラメータは、サンプリングされた検出信号を所定の機械学習法に適用することにより算出されるので、所定のデータベースを容易に作成することができる。
本発明の一実施形態に係るセンサ配置態様の取得装置の構成を示すブロック図である。 慣性計測ユニットセンサの配置態様の第1パターンを示す図である。 慣性計測ユニットセンサの配置態様の第2~第kパターンを示す図である。 データベース作成処理を示すフローチャートである。 第1パターンの混合行列の算出結果例を示す図である。 第1パターンの行列データの算出結果例を示す図である。 第3データベースの作成結果例を示す図である。 配置態様取得表示処理を示すフローチャートである。 各種条件表示処理を示すフローチャートである。 取得結果表示処理を示すフローチャートである。 選択画面の表示例を示す図である。 選択画面と取得結果の表示例を示す図である。 選択画面と取得結果の他の表示例を示す図である。
以下、図面を参照しながら、本発明の一実施形態に係るセンサ配置態様の取得装置について説明する。本実施形態の図1に示す取得装置1は、人間などの被検対象の動作を検出する際の、慣性計測ユニットセンサ2の最適な配置態様を取得するためのものである。
この慣性計測ユニット(inertial measurement unit)センサ2は、3軸(xyz軸)方向の加速度、3軸方向の回転角及び3軸方向の地磁気を検出して、それらを表す検出信号を出力するものである。
図1に示すように、この取得装置1は、コントローラ10、ディスプレイ11及び入力装置12を備えている。このコントローラ10は、CPU、RAM、ROM、E2PROM13、I/Oインターフェース及び各種の電気回路(E2PROM13以外は図示せず)などからなるマイクロコンピュータで構成されている。このROM内には、後述する配置態様取得表示処理などを実行するための各種のプログラムが記憶されている。
なお、本実施形態では、コントローラ10が配置態様取得部に相当し、ディスプレイ11が配置態様表示部に相当し、入力装置12がセンサ数選択部、所定動作選択部、セグメント選択部及び配置態様選択部に相当し、E2PROM13がデータベース記憶部に相当する。
また、E2PROM13内には、第1データベース及び第2データベースが記憶されている。コントローラ10は、後述する配置態様取得表示処理において、E2PROM13内の第1データベース及び第2データベースを検索し、その検索結果をディスプレイ11上に表示する(後述する図12,13参照)。これらの第1データベース及び第2データベースの詳細については後述する。
また、ディスプレイ11は、コントローラ10に電気的に接続されており、後述する配置態様取得表示処理においては、コントローラ10からの表示信号に基づいて、配置態様取得用の選択画面20などを表示する(後述する図11参照)。
さらに、入力装置12は、キーボード及びマウスで構成されており、コントローラ10に電気的に接続されている。後述する配置態様取得表示処理では、ユーザによる入力装置12の操作によって、慣性計測ユニットセンサ2の上限センサ数や取付部位などが選択される。
次に、上述した第1データベース及び第2データベースについて説明する。第1データベース及び第2データベースの各々は、慣性計測ユニットセンサ2の配置態様と、被検対象の所定動作と、後述する正解割合との関係を定義したものである。第1データベースは、後述する生データを用いて作成され、第2データベースは後述する演算データを用いて作成される。なお、以下の説明では、適宜、第1データベース及び第2データベースをまとめて「データベース」という。
このデータベースの場合、慣性計測ユニットセンサ2の配置態様として、後述する第1パターンから第kパターンまでのk(kは数百)個の配置態様が設定されている。また、被検対象の所定動作として、後述する第1動作から第m動作までのm(mは数十)個の所定動作が設定されている。
また、正解割合は、慣性計測ユニットセンサ2を第1~第kパターンにおける任意のパターンで被検対象に配置した場合において、被検対象が第1動作から第m動作までのm個の所定動作を実行したときに、これらのm個の所定動作を正確に検出できると予想される割合を表すものであり、以下に述べるように設定される。なお、本実施形態では、正解割合が予測精度パラメータに相当する。
次に、データベースの作成方法について説明する。この作成方法では、17個の慣性計測ユニットセンサ2を上述したコントローラ10に電気的に接続するとともに、これらの17個の慣性計測ユニットセンサ2の検出信号のサンプリングデータを用いて、以下に述べるように、データベースがコントローラ10で作成される。
まず、図2に示すように、被検対象3(人間)の体を、頭部S1、胸部S2、腰部S3、……、左手部S17の計17個のセグメントS1~S17に分類する。次いで、同図に示すように、1個の慣性計測ユニットセンサ2を17個のセグメントS1~S17の各々の部位に実際に配置した態様を、慣性計測ユニットセンサ2の配置態様の第1パターンとして設定する。なお、以下の説明では、慣性計測ユニットセンサ2の配置態様を適宜、「配置態様」という。
さらに、図3に示すように、第2~第k(=数百)パターンの配置態様を設定する。同図に示すように、第2パターンは、慣性計測ユニットセンサ2をセグメントS1~S9にのみ配置した態様であり、第kパターンは、慣性計測ユニットセンサ2をセグメントS4~S9にのみ配置した態様である。以上の第1~第kパターンは、慣性計測ユニットセンサ2を1~17個の範囲内で適宜選択しながら、セグメントS1~S17に互いに異なる態様で配置したものとして設定される。すなわち、慣性計測ユニットセンサ2の配置態様としては、互いに異なるk個のパターンが設定される。
次に、慣性計測ユニットセンサ2を、上記の第1パターンの配置態様で人間に実際に取り付けた後、コントローラ10によって、慣性計測ユニットセンサ2の検出信号のサンプリング処理を実行する。具体的には、人間によって、第1動作から第m動作までのm個の所定動作の各々が所定回数(例えば数十回)実行され、その間の慣性計測ユニットセンサ2の検出信号が、コントローラ10によって所定周期でサンプリングされるとともに、RAM内に書き込まれる。この場合、第1~第m動作は、「座る」、「立ち上がる」、「歩く」……「投げる」などの所定動作として実行される。
それにより、3軸方向の加速度、3軸方向の回転角及び3軸方向の地磁気を表す検出信号の時系列データが、データベース作成用の生データとして取得され、これらのデータが第1データベースとしてRAM内に書き込まれる。
次いで、コントローラ10では、データベース作成用の生データに基づいて、3軸方向の加速度、3軸方向の速度、3軸方向の地磁気、3軸方向の回転角或いは姿勢角等の演算データが算出され、これらのデータが第2データベースとしてRAM内に書き込まれる。この演算データも、生データと同様に、m個の所定動作のうちのいずれかを実行したときの時系列データに対して作成される。
さらに、コントローラ10では、第1データベース及び第2データベースのデータに基づいて、m個の所定動作のうちのいずれか(例えば座る)を実行したときの時系列データに対して、離散時間毎に、動作タイプ(例えば、立位及び腰を下げる)を定義したデータが教師データであるラベルデータベースとして作成される。
次に、以上のように取得した第1データベース、第2データベース及びラベルデータベースを用いて、図4に示すデータベース作成処理により、第3データベース(図7参照)が作成される。このデータベース作成処理は、コントローラ10によって所定の制御周期で実行される。
同図に示すように、まず、データベース作成済みフラグF_FINISHが「1」であるか否かを判定する(図4/STEP1)。このデータベース作成済みフラグF_FINISHは、第3データベースを作成済みであるか否かを表すものである。
この判定が肯定であるとき(図4/STEP1…YES)、すなわち第3データベースを作成済みであるときには、そのまま本処理を終了する。一方、この判定が否定であるとき(図4/STEP1…NO)には、センサパターン選択処理を実行する(図4/STEP2)。
この処理では、センサパターンとして、慣性計測ユニットセンサ2の配置態様として第i(i=1~k)パターンが選択される。この場合の値iは、制御周期毎に、1⇒2⇒……⇒kの順に選択される。
次いで、使用データベース選択処理を実行する(図4/STEP3)。この処理では、上記の処理で選択されたセンサパターンに応じて、今回の演算で使用するデータベースとして、第1データベース及び第2データベースが下記のように選択される。
具体的には、センサパターンが、慣性計測ユニットセンサ2が各セグメントに対して連続してつながるように配置されているパターン(例えば、足部⇒脛⇒太腿⇒腰など)である場合には、第1データベース及び/又は第2データベースが選択される。一方、センサパターンが、慣性計測ユニットセンサ2が各セグメントに対して不連続に配置されているパターンである場合には、第1データベースが選択される。
次に、以下に述べるように、ランダムフォレスト学習処理を実行する。この処理では、ランダムフォレスト法により、m個の所定動作に対するm個の予測動作の正解割合が算出される。これらのm個の予測動作は、m個の所定動作の予測値に相当する。また、正解割合は、被検対象3が第1動作から第m動作までのm個の所定動作を実行したときに、これらのm個の所定動作を正確に検出できると予想される割合(確率)に相当するものであり、値0から値1までの範囲内の値として算出される。
この場合、ランダムフォレスト法は周知であるので、その詳細な説明は省略するが、以下のように実行される。まず、ランダムフォレスト識別器(予測器)を構築する(図4/STEP4)。このランダムフォレスト識別器は、上述したように選択したデータベース及びラベルデータベースを用いて、周知の手法により構築される。
次いで、ラベル推定処理を実行する(図4/STEP5)。このラベル推定処理では、上記ランダムフォレスト識別器に、データベースのうちのラベルのない新しいデータを与え、ラベルの推定が実行される。それにより、推定結果として、ラベルの時系列データが作成される。
次に、混合行列を作成する(図4/STEP6)。具体的には、ラベルの正解データと推定結果とを比較し、m個の所定動作のうちのいずれか1つの所定動作に対して、m個の予測動作の正解割合が算出される。そして、第1動作から第m動作までの全動作の正解割合を算出することにより、最終的には、m×m個の正解割合が算出される。そして、これらm×m個の正解割合を用いて、混合行列が作成される。
この場合、例えば、第1パターンの配置態様で、m×m個の正解割合の算出を実行したときには、図5に示す混合行列が作成される。この混合行列の場合、縦軸が第1動作から第m動作までのm個の所定動作に設定され、横軸が第1予測動作から第m予測動作までのm個の予測動作に設定されているとともに、m×m個の正解割合を要素とする行列として作成される。
また、同図においては、理解の容易化のために、混合行列における各要素の正解割合が色の濃淡で表されており、色が濃いほど、より値1に近い値に設定されている。言い換えれば、各要素の正解割合は、色が薄いほど、値0に近い値に設定されている。
この図5を参照すると明らかなように、混合行列の場合、その対角成分の正解割合が最も高い状態になる。これはランダムフォレスト法による、所定動作の種類に対する予測動作の種類の予測精度が高くなることを目的としていることに起因する。
次いで、行列データをE2PROM13内に書き込む(図4/STEP7)。この行列データは、データベース作成用のデータであり、上述した混合行列におけるm個の対角成分を要素とするm行1列の行列(ベクトル)として構成される。すなわち、行列データは、第1動作から第m動作までのm個の所定動作における正解割合を要素とする行列として構成される。例えば、図5に示す混合行列の場合には、図6に示す行列データがE2PROM13内に書き込まれる。
次いで、第3データベースの作成が終了したか否かを判定する(図4/STEP8)。この場合、第1パターンから第kパターンまでのk個の配置態様における行列データの書込が終了したときに、第3データベースの作成が終了したと判定され、それ以外のときには、第3データベースの作成が終了していないと判定される。
この判定が否定であるとき(図4/STEP8…NO)、すなわち第3データベースの作成が終了していないときには、前述したデータベース作成済みフラグF_FINISHを「0」に設定する(図4/STEP10)。その後、本処理を終了する。
一方、上記の判定が肯定であるとき(図4/STEP8…YES)、第3データベースの作成が終了したときには、それを表すために、データベース作成済みフラグF_FINISHを「1」に設定する(図4/STEP9)。その後、本処理を終了する。
以上のように、図4のデータベース作成処理を実行することにより、第3データベースが、例えば図7に示すように作成される。これらの第3データベースは、第1パターンから第kパターンまでのk個の配置態様と、第1動作から第m動作までのm個の所定動作と、k×m個の正解割合との関係を定義したものとして作成される。
次に、図8を参照しながら、配置態様取得表示処理について説明する。この配置態様取得表示処理は、ユーザによって後述するように各種条件の選択が実行されたときに、それに対応する慣性計測ユニットセンサ2の配置態様を、データベースから取得してディスプレイ11に表示するものであり、コントローラ10によって所定の制御周期で実行される。
同図に示すように、まず、この配置態様取得表示処理の実行条件が成立しているか否かを判定する(図8/STEP20)。この場合、配置態様取得表示処理のプログラムが実行中であるときには、配置態様取得表示処理の実行条件が成立していると判定され、それ以外のときには不成立であると判定される。
この判定が否定(図8/STEP20…NO)で、配置態様取得表示処理の実行条件が不成立であるときには、そのまま本処理を終了する。
一方、この判定が肯定(図8/STEP20…YES)で、配置態様取得表示処理の実行条件が成立しているときには、結果表示フラグF_RESULTが「1」であるか否かを判定する(図8/STEP21)。この結果表示フラグF_RESULTは、配置態様の取得結果を表示すべきか否かを表すものであり、その値は後述するように設定される。
この判定が否定であるとき(図8/STEP21…NO)には、選択画面表示処理を実行する(図8/STEP22)。この処理では、例えば図11に示すような選択画面20がディスプレイ11に表示される。
以下、この選択画面20について説明する。同図に示すように、この選択画面20の左端側には、所定動作選択用のm個のチェックボックス21が、互いに等間隔で上下方向に一列に並んだ状態で表示される。これらm個のチェックボックス21は、m個の所定動作をそれぞれ選択するためのものであり、それを示すために、m個のチェックボックス21の右側には、「座る」、「立ち上がる」、「歩く」……「投げる」などのm個の所定動作の各々が、各チェックボックス21と横並びの状態で表示される。
ユーザは、入力装置12を介してこれらのチェックボックス21に対してレ点を入れたり、外したりすることによって、m個の所定動作から任意の動作を選択したり、その選択を解除したりすることができる。また、最下位のチェックボックス21の下側には、全解除ボタン22及び全選択ボタン23が横並びの状態で表示される。ユーザによる入力装置12の操作により、全解除ボタン22が押下されたときには、m個すべてのチェックボックス21においてレ点が外され、全選択ボタン23が押下されたときには、m個すべてのチェックボックス21においてレ点が入った状態となる。
また、選択画面20の所定動作選択用のチェックボックス21の右側には、取付部位選択用の17個のチェックボックス24が、互いに等間隔で上下方向に一列に並んだ状態で表示される。これら17個のチェックボックス24は、慣性計測ユニットセンサ2の取付部位を17個のセグメントS1~S17から任意に選択するためのものであり、それを示すために、17個のチェックボックス24の右側には、17個のセグメントS1~S17の具体的な名称「頭部」「胸部」、「腰部」……「左手部」の各々が、各チェックボックス24と横並びの状態で表示される。
ユーザは、入力装置12を介してこれらのチェックボックス24に対してレ点を入れたり、外したりすることによって、慣性計測ユニットセンサ2の取付部位(配置部位)を17個のセグメントS1~S17から任意に選択したり、その選択を解除したりすることができる。
また、最下位のチェックボックス24の下側には、上限センサ数の表示窓25が表示される。この表示窓25は、ユーザによって選択された、被検対象3に取り付ける慣性計測ユニットセンサ2の上限数を表示するものであり、この表示窓25の右端には、上向きボタン25a及び下向きボタン25bが上下に並んで表示される。これらの上向きボタン25a又は下向きボタン25bが押下されたときには、表示窓25に表示される上限数が値17と値1との間で変更される。
以上の構成により、ユーザは、入力装置12を介して上向きボタン25a又は下向きボタン25bを押下することによって、上限センサ数を、表示窓25で確認しながら値17から値1の間で任意に選択することができる。
さらに、取付部位選択用のチェックボックス24の右側には、上方から下方に向かって順に、結果表示ボタン27、順位表示窓28及びセンサ組合せ表示窓29が表示される。さらに、これらのボタン27及び窓28,29の右側には、結果表示窓30が表示される。
この結果表示ボタン27は、配置態様の取得結果を表示させるためのものであり、ユーザにより入力装置12を介して押下されたときに、後述するように、配置態様の取得結果に関連する各種データが、順位表示窓28、センサ組合せ表示窓29及び結果表示窓30に表示される。
順位表示窓28は、慣性計測ユニットセンサ2の配置態様のスコアの順位を表す数値を表示するものである。具体的には、この順位表示窓28の場合、上述した結果表示ボタン27が押下され、慣性計測ユニットセンサ2の配置態様が取得されたときには、この取得結果におけるスコアの順位を表す数値が表示される(後述する図12,13参照)。このスコアは、取得された配置態様の各々における正解割合の総和として算出される。したがって、配置態様のスコアが高いほど、選択された1個以上の所定動作の検出精度がより高くなると予想できる。
この順位表示窓28では、結果表示ボタン27が押下された場合、最初に、配置態様のスコアが第1位であることを表す数値1が表示される(後述する図12,13参照)。順位表示窓28の右端には、上向きボタン28a及び下向きボタン28bが上下に並んで表示される。これらの上向きボタン28a又は下向きボタン28bを押下することにより、順位表示窓28に表示されるスコアの順位が任意に変更される。
以上の構成により、ユーザは、入力装置12を介して上向きボタン28a又は下向きボタン28bを押下することによって、順位表示窓28に表示されるスコアの順位として1位以下の各順位を任意に選択することができる。
また、上述したセンサ組合せ表示窓29には、慣性計測ユニットセンサ2の取付部位の組合せが表示される。より具体的には、このセンサ組合せ表示窓29の場合、後述する図12,13に示すように、スコアの順位が順位表示窓28に表示されているときに、その順位に対応する配置態様における慣性計測ユニットセンサ2の取付部位の組合せが文字で表示される。
さらに、結果表示窓30には、被検対象3に対する慣性計測ユニットセンサ2の配置態様及び各配置態様のスコアが表示される。より具体的には、後述する図12,13に示すように、スコアの順位が順位表示窓28に表示されているときに、その順位に対応する慣性計測ユニットセンサ2の配置態様などが結果表示窓30に表示される。
これに加えて、選択画面20の右上端部には、×ボタン31が表示される。この×ボタン31は、図8の配置態様取得表示処理を終了するためのものであり、ユーザによる入力装置12の操作によって押下されたときに、図8の配置態様取得表示処理が終了される。
図8に戻り、以上のように選択画面表示処理を実行した後、各種条件表示処理を実行する(図8/STEP23)。この各種条件表示処理は、上述した選択画面表示処理の実行中において、ユーザによる各種条件の選択状態を表示するものであり、その詳細については後述する。
一方、前述した配置態様取得表示処理の実行条件が成立している場合(図8/STEP20…YES)において、結果表示フラグF_RESULTが「1」であるとき(図8/STEP21…YES)には、結果表示フラグの前回値F_RESULTzが「0」であるか否かを判定する(図8/STEP24)。
この判定が肯定であるとき(図8/STEP24…YES)、すなわち今回の制御タイミングがF_RESULT=1の成立直後のタイミングであるときには、配置態様取得表示処理を実行する(図8/STEP25)。この配置態様取得表示処理では、前述した各種条件表示処理においてユーザによって選択された取得条件(動作選択、取付部位選択、上限センサ数)に応じて、前述した第3データベース方を検索することにより、この取得条件に対応する1個以上の配置態様が取得される。
以上のように、配置態様取得表示処理を実行したとき、又は上記の判定が否定であるとき(図8/STEP24…NO)には、それに続けて、取得結果表示処理を実行する(図8/STEP26)。この取得結果表示処理は、上記配置態様取得表示処理で取得された配置態様を結果表示窓30などに表示するものであり、その詳細については後述する。
以上の各種条件表示処理又は取得結果表示処理を実行した後、終了動作が実行されたか否かを判定する(図8/STEP27)。この場合、ユーザによる入力装置12の操作によって、前述した選択画面20の×ボタン31が押下されたときには、終了動作が実行されたと判定され、それ以外のときには、終了動作が実行されていないと判定される。
この判定が否定であるとき(図8/STEP27…NO)には、そのまま本処理を終了する。一方、この判定が肯定であるとき(図8/STEP27…YES)には、フラグリセット処理を実行(図8/STEP28)した後、本処理を終了する。このフラグリセット処理では、結果表示フラグF_RESULT、後述する順位変更フラグF_CHANGE、及び後述する順位変更表示フラグF_DISPLAYなどがいずれも、「0」にリセットされる。
次に、図9を参照しながら、前述した各種条件表示処理(図8/STEP23)について説明する。この各種条件表示処理は、以下に述べるように、ユーザによる各種条件の選択状態を表示するものである。
同図に示すように、まず、動作種類の選択状態が変更されたか否かを判定する(図9/STEP30)。この場合、ユーザによる入力装置12の操作によって、チェックボックス21におけるレ点数の変更動作が実行されたときには、動作種類の選択状態が変更されたと判定され、それ以外のときには、動作種類の選択状態が変更されていないと判定される。
この判定が肯定であるとき(図9/STEP30…YES)には、動作種類の変更状態を表示する(図9/STEP31)。すなわち、チェックボックス21におけるレ点の表示状態を変更する。一方、この判定が否定であるとき(図9/STEP30…NO)には、動作種類の前回表示状態を維持する(図9/STEP32)。すなわち、チェックボックス21におけるレ点の表示状態を維持する。
以上のように、動作種類の表示変更/表示維持を実行した後、慣性計測ユニットセンサ2の取付位置の選択状態が変更されたか否かを判定する(図9/STEP33)。
この場合、ユーザによる入力装置12の操作によって、チェックボックス24におけるレ点数の変更動作が実行されたときには、慣性計測ユニットセンサ2の取付位置の選択状態が変更されたと判定され、それ以外のときには、慣性計測ユニットセンサ2の取付位置の選択状態が変更されていないと判定される。
この判定が肯定であるとき(図9/STEP33…YES)には、取付位置の変更状態を表示する(図9/STEP34)。すなわち、チェックボックス24におけるレ点の表示状態を変更する。一方、この判定が否定であるとき(図9/STEP33…NO)には、取付位置の前回表示状態を維持する(図9/STEP35)。すなわち、チェックボックス24におけるレ点の表示状態を維持する。
以上のように、取付位置の表示変更/表示維持を実行した後、上限センサ数が変更されたか否かを判定する(図9/STEP36)。すなわち、ユーザによる入力装置12の操作によって、前述した上向きボタン25a及び下向きボタン25bが押下されたか否かを判定する。
この判定が肯定(図9/STEP36…YES)で、上限センサ数が変更されたときには、その変更数を表示窓25に表示する(図9/STEP37)。一方、この判定が否定(図9/STEP36…NO)で、上限センサ数が変更されていないときには、上限センサ数の前回表示数を維持する(図9/STEP38)。すなわち、前回表示数をそのまま表示窓25に表示する。
以上のように、上限センサ数の表示変更/表示維持を実行した後、結果表示動作が実行されたか否かを判定する(図9/STEP39)。すなわち、ユーザによる入力装置12の操作によって、前述した結果表示ボタン27が押下されたか否かを判定する。
この判定が肯定であるとき(図9/STEP39…YES)には、配置態様の取得結果を表示すべきと判定して、それを表すために、結果表示フラグF_RESULTを「1」に設定する(図9/STEP40)。その後、本処理を終了する。
一方、上記の判定が否定であるとき(図9/STEP39…NO)には、慣性計測ユニットセンサ2の配置態様の取得結果を表示する必要がないと判定して、それを表すために、結果表示フラグF_RESULTを「0」に設定する(図9/STEP41)。その後、本処理を終了する。以上のように、各種条件表示処理は実行される。
次に、図10を参照しながら、前述した取得結果表示処理(図8/STEP26)について説明する。この取得結果表示処理は、以下に述べるように、前述した配置態様取得表示処理で取得された配置態様などを表示するものである。
同図に示すように、まず、前述した結果表示フラグの前回値F_RESULTzが「0」であるか否かを判定する(図10/STEP50)。この判定が肯定であるとき(図10/STEP50…YES)、すなわち今回の制御タイミングがF_RESULT=1の成立直後のタイミングであるときには、第1位表示制御を実行する(図10/STEP51)。
この第1位表示制御では、図12又は図13に示すように、配置態様取得表示処理で取得された慣性計測ユニットセンサ2の配置態様のうち、第1位のスコアのものが、被検対象3のセグメントに対応した状態で結果表示窓30に表示される。
この場合、図12に示す配置態様の取得結果は、上限センサ数を17個とし、m個の所定動作をすべて選択するとともに、17個の取付部位をすべて選択したときのものである。また、図13に示す配置態様の取得結果は、上限センサ数を7個とし、m個の所定動作のうちの幾つかを選択するとともに、17個の取付部位の幾つかを選択したときのものである。
さらに、両図に示すように、結果表示窓30の左下側の空間には、取得された全配置態様のスコア32が棒グラフ状に表示される。より具体的には、全配置態様のスコア32は、左端のスコア32を第1位として、左から右に向かうほど、より低い順位のスコア32が並ぶように表示される。
さらに、これらのスコア32では、順位表示窓28に表示されている順位に対応するスコア32が、それ以外のスコア32よりも濃い色で表示される。両図の場合、第1位のスコアがそれ以外のスコア32よりも濃い色で表示されている。さらに、センサ組合せ表示窓29には、その順位の配置態様におけるセンサの取付部位の組合せが文字で表示される。
以上のように、第1位表示制御処理を実行した後、順位変更フラグF_CHANGEを「0」に設定する(図10/STEP52)。その後、本処理を終了する。
一方、上述した判定が否定であるとき(図10/STEP50…NO)、すなわちF_RESULTz=1が成立し、前回以前の制御タイミングにおいて取得結果表示処理が実行されていたときには、順位変更フラグF_CHANGEが「1」であるか否かを判定する(図10/STEP53)。この判定が否定であるとき(図10/STEP53…NO)には、順位選択が実行されたか否かを判定する(図10/STEP54)。
この場合、ユーザの入力装置12の操作により、前述した順位表示窓28の上向きボタン28a又は下向きボタン28bが押下されたときには、順位選択が実行されたと判定され、それ以外のときには順位選択が実行されていないと判定される。なお、第1位が順位表示窓28に表示されている状態で、上向きボタン28aが押下されたときにも、順位選択が実行されていないと判定される。
この判定が否定であるとき(図10/STEP54…NO)、すなわち順位選択が実行されていないときには、結果表示窓30の表示状態を前回の制御タイミングでの表示状態に維持する(図10/STEP55)。次いで、前述したように、順位変更フラグF_CHANGEを「0」に設定(図10/STEP52)した後、本処理を終了する。
一方、上述した判定が肯定であるとき(図10/STEP54…YES)、すなわち順位選択が実行されたときには、選択順位表示処理を実行する(図10/STEP56)。この選択順位表示処理では、ユーザによって選択された順位が順位表示窓28に表示される。
次いで、ユーザによって順位選択が実行されたことを表すために、前述した順位変更フラグF_CHANGEを「1」に設定する(図10/STEP57)。以上のように順位変更フラグF_CHANGEを「1」に設定したとき、又は前述した判定が肯定(図10/STEP53…YES)で、F_CHANGE=1であるときには、それに続けて、順位変更表示フラグF_DISPLAYが「1」であるか否かを判定する(図10/STEP58)。
この判定が否定であるとき(図10/STEP58…NO)には、結果表示動作が実行されたか否かを判定する(図10/STEP59)。すなわち、ユーザの入力装置12の操作によって、結果表示ボタン27が押下されたか否かを判定する。
この判定が否定であるとき(図10/STEP59…NO)には、順位変更表示フラグF_DISPLAYを「0」に設定(図10/STEP60)した後、本処理を終了する。一方、この判定が肯定であるとき(図10/STEP59…YES)には、結果表示ボタン27が押下されたことを表すために、順位変更表示フラグF_DISPLAYを「1」に設定(図10/STEP61)した後、本処理を終了する。
このように、順位変更表示フラグF_DISPLAYが「1」に設定されると、前述した判定が肯定(図10/STEP58…YES)となり、その場合には、第X位表示制御処理を実行する(図10/STEP62)。この第X位表示制御処理では、図示しないが、以下に述べるように各種のデータが表示される。すなわち、順位表示窓28に表示されている第X(Xは整数)位の配置態様が、結果表示窓30に表示されるとともに、スコア32のうちの第X位のスコア32が、他のスコア32よりも濃い色で表示される。これに加えて、センサ組合せ表示窓29には、第X位の配置態様における慣性計測ユニットセンサ2の組合せが文字で表示される。
次いで、前述したように、順位変更フラグF_CHANGEを「0」に設定(図10/STEP52)した後、本処理を終了する。
以上のように、本実施形態のセンサ配置態様の取得装置1によれば、配置態様取得表示処理の実行中、結果表示ボタン27が押下されたときには、ユーザによる各種選択状態(上限センサ数の選択状態、m個の所定動作のうちのm個以下の所定動作の選択状態、及び、慣性計測ユニットセンサ2の取付部位の選択状態)に応じて、第1データベース又は第2データベースを検索することにより、1個以上の配置態様が配置態様と同数のスコアと関連付けられた状態で取得される。
そして、1個以上の配置態様が取得されたときには、配置態様に関連する各種の取得結果が3つの表示窓28~30に表示される。すなわち、順位表示窓28には、慣性計測ユニットセンサ2の配置態様のスコアの順位が表示される。また、センサ組合せ表示窓29には、順位表示窓28に表示された順位のスコアの配置態様における、慣性計測ユニットセンサ2の取付部位の組合せが文字で表示される。さらに、結果表示窓30には、順位表示窓28に表示された順位のスコアの配置態様が、慣性計測ユニットセンサ2を被検対象3のセグメントと関連付けた状態で表示される。
この場合、ユーザは、入力装置12を介して上向きボタン28a又は下向きボタン28bを押下することにより、順位表示窓28に表示される順位を任意に変更できるので、そのようにスコアの順位を変更しながら、変更した順位のスコアの配置態様をセンサ組合せ表示窓29及び結果表示窓30で確認することができる。この場合、配置態様のスコアは、前述したように、配置態様の所定動作の検出精度の高低を表すものであるので、ユーザは、検出する必要性の高い所定動作の検出精度と上限センサ数とを評価しながら、最適な配置態様を容易に検索して取得することができる。
また、前述したように、慣性計測ユニットセンサ2の取付部位の選択状態に応じて、1個以上の配置態様が取得されるので、これを、慣性計測ユニットセンサ2を配置不能なセグメントや慣性計測ユニットセンサ2を配置したくないセグメントを除いた状態で、取得することができる。それにより、ユーザの利便性を高めることができる。
なお、実施形態は、人間を被検対象とした例であるが、本発明の被検対象は、これに限らず、人的な動作を実行するものであればよい。例えば、人型ロボットやアシストロボットを装着した人間を被検対象としてもよい。また、何らかの道具(例えばバットやラケット)を持った人間又は人型ロボットを被検対象としてもよく、その場合には、その道具に慣性計測ユニットセンサなどのセンサを追加して配置してもよい。
さらに、データベースを作成する際、慣性計測ユニットセンサ2を、人間に代えて人型ロボットに取り付けた後、慣性計測ユニットセンサ2の検出信号をサンプリングすることにより、第1データベース及び第2データベースを作成するように構成してもよい。
また、実施形態は、センサとして、慣性計測ユニットセンサ2を用いた例であるが、本発明のセンサは、これに限らず、人的な動作を実行する被検対象の所定動作を検出できるものであればよい。例えば、センサとして、ジャイロセンサ、加速度センサ、力センサ及び生体センサなどを用いてもよく、これらと慣性計測ユニットセンサを組み合わせて用いてもよい。その場合には、サンプリングレートが同一のセンサを用いればよい。
さらに、実施形態は、n個のセンサとして、17個の慣性計測ユニットセンサ2を用いた例であるが、本発明のセンサの個数nは、これに限らず、複数であればよい。例えば、センサの個数nを値2~16や値18以上の個数としてもよい。
一方、実施形態は、1個の慣性計測ユニットセンサ2を1個のセグメントに配置した例であるが、本発明のセンサの配置態様は、これに限らず、複数のセンサを1個のセグメントに配置してもよい。さらに、単一のセンサが複数の検出情報を備えている場合には、1個のセグメントに複数のセンサを配置した場合と同じ効果を得ることができる。
また、実施形態は、被検対象の部位を17個のセグメントに分類した例であるが、被検対象を、16個以下や18個以上のセグメントに分類してもよい。
さらに、実施形態は、慣性計測ユニットセンサ2の配置態様の個数をk(kは数百)個に設定した例であるが、この値kは複数であればよい。例えば、値kを値2から数百未満までの範囲内の値や、数百を超える範囲内の値に設定してもよい。
一方、実施形態は、被検対象の所定動作の個数をm(mは数十)個に設定した例であるが、この値mは複数であればよい。例えば、値mを値2から数十未満までの範囲内の値や、数十を超える範囲内の値に設定してもよい。
また、実施形態は、予測精度パラメータとして、正解割合を用いた例であるが、本発明の予測精度パラメータは、これに限らず、被検対象のm個の所定動作の検出結果の予測精度を表すものであればよい。例えば、予測精度パラメータとして、正解割合を百分率に変換した値を用いてもよい。
さらに、実施形態は、データベース記憶部として、E2PROM13を用いた例であるが、本発明のデータベース記憶部は、これに限らず、データベースを記憶できるものであればよい。例えば、データベース記憶部として、ROMやRAMを用いてもよい。
一方、実施形態は、取付部位選択用の17個のチェックボックス24を設け、これらを介して、慣性計測ユニットセンサ2の取付部位を選択するように構成した例であるが、取付部位選択用の17個のチェックボックス24を省略し、慣性計測ユニットセンサ2の取付部位の選択を実行しないように構成してもよい。
また、実施形態は、複数のスコア32を棒グラフ状に表示した例であるが、複数のスコア32を棒グラフ以外のグラフ状に表示してもよい。例えば、複数のスコア32を折れ線グラフ状に表示してもよい。
さらに、実施形態は、ユーザが入力装置12を介して上向きアイコン28a及び下向きアイコン28bを操作することによって、配置態様の取得結果のうちの、最高位のスコア32の配置態様から最下位のスコア32の配置態様の間の任意の配置態様を選択して表示できるように構成した例であるが、表示する配置態様を予測精度の高低の順に所定時間間隔で自動的に切り換えて表示するように構成してもよい。
一方、実施形態は、キーボード及びマウスで構成された入力装置12を用いた例であるが、これに代えて、タッチパネル式の入力装置や、ジェスチャー又は音声を入力信号として入力可能な入力装置などを用いてもよい。
また、実施形態は、所定の機械学習法として、ランダムフォレストを用いた例であるが、本発明の所定の機械学習法は、これに限らず、k×m個の予測精度パラメータを算出できるものであればよい。例えば、所定の機械学習法として、DQN(deep Q-network)などの深層強化学習法を用いてもよい。
さらに、実施形態は、コントローラ10によって取得した配置態様を、ディスプレイ11に表示した例であるが、これに代えて、コントローラ10によって取得した配置態様を紙などに印刷したり、スピーカーなどから音声形式で出力したりするように構成してもよい。その場合には、印刷結果を参照したり、音声出力を聴いたりしながら、センサ配置態様を評価すればよい。
1 取得装置
2 慣性計測ユニットセンサ(センサ)
3 被検対象
10 コントローラ(配置態様取得部)
11 ディスプレイ(配置態様表示部)
12 入力装置(センサ数選択部、所定動作選択部、セグメント選択部、配置態様選択 部)
13 E2PROM(データベース記憶部)
32 スコア(予測精度の高低を示すデータ)
S1~S17 複数のセグメント

Claims (13)

  1. 人的な動作を実行する被検対象のm(mは複数)個の所定動作を検出するときのn(nは複数)個のセンサの当該被検対象に対する配置態様を取得するセンサ配置態様の取得装置であって、
    各々が前記n個以下の範囲内の数の前記センサを配置した配置態様であって、互いに異なるk(kは複数)個の当該配置態様で前記被検対象に配置したときの、前記被検対象の前記m個の所定動作の検出結果の予測精度を表すk×m個の予測精度パラメータと、前記n個以下のセンサの前記k個の配置態様と、前記m個の所定動作との関係を定義した所定のデータベースを記憶するデータベース記憶部と、
    前記n個のセンサから当該n個以下の第1所定数のセンサ数を選択するためのセンサ数選択部と、
    前記m個の所定動作から当該m個以下の第2所定数の所定動作を選択するための所定動作選択部と、
    前記センサ数選択部によって前記第1所定数のセンサ数が選択されかつ前記所定動作選択部によって前記第2所定数の所定動作が選択された場合、前記第1所定数以下の範囲内の前記センサ数に応じた1個以上の前記配置態様を、前記第2所定数の所定動作に応じた前記第2所定数の前記予測精度パラメータと関連付けて、前記所定のデータベースから取得する配置態様取得部と、
    を備えることを特徴とするセンサ配置態様の取得装置。
  2. 請求項1に記載のセンサ配置態様の取得装置において、
    前記被検対象を複数のセグメントに分類した場合において、当該複数のセグメントのうちの、前記センサを配置するセグメントを選択するためのセグメント選択部をさらに備え、
    前記配置態様取得部は、前記第1所定数のセンサ数及び前記第2所定数の所定動作が選択されている場合において、前記セグメント選択部によって前記センサを配置する前記セグメントが選択されたときには、前記第1所定数以下の範囲内の前記センサ数及び前記センサを配置する前記セグメントに応じた前記1個以上の前記配置態様を、前記第2所定数の所定動作に応じた前記第2所定数の前記予測精度パラメータと関連付けて、前記所定のデータベースから取得することを特徴とするセンサ配置態様の取得装置。
  3. 請求項1又は2に記載のセンサ配置態様の取得装置において、
    前記配置態様取得部によって前記1個以上の配置態様が取得された場合、当該1個以上の配置態様の各々に関連付けられた前記第2所定数の前記予測精度パラメータが表す前記予測精度の高低に基づき、当該1個以上の配置態様の各々を順に表示する配置態様表示部をさらに備えることを特徴とするセンサ配置態様の取得装置。
  4. 請求項3に記載のセンサ配置態様の取得装置において、
    前記配置態様表示部は、前記1個以上の前記配置態様を、前記被検対象を複数のセグメントに分類したときの当該複数のセグメントに前記センサを関連付けた状態で表示することを特徴とするセンサ配置態様の取得装置。
  5. 請求項3又は4に記載のセンサ配置態様の取得装置において、
    前記配置態様表示部は、前記第2所定数の前記予測精度パラメータが表す前記予測精度の高低を、グラフ状に表示することを特徴とするセンサ配置態様の取得装置。
  6. 請求項3ないし5のいずれかに記載のセンサ配置態様の取得装置において、
    前記1個以上の配置態様が取得された場合、当該1個以上の配置態様のうちの、前記予測精度が所定順位の前記配置態様を選択するための配置態様選択部をさらに備え、
    前記配置態様表示部は、当該配置態様選択部によって前記所定順位の前記配置態様が選択された場合、当該所定順位の当該配置態様を表示することを特徴とするセンサ配置態様の取得装置。
  7. 人的な動作を実行する被検対象のm(mは複数)個の所定動作を検出するときのn(nは複数)個のセンサの当該被検対象に対する配置態様を取得するセンサ配置態様の取得方法であって、
    各々が前記n個以下の範囲内の数の前記センサを配置した配置態様であって、互いに異なるk(kは複数)個の当該配置態様で前記被検対象に配置したときの、前記被検対象の前記m個の所定動作の検出結果の予測精度を表すk×m個の予測精度パラメータと、前記n個以下のセンサの前記k個の配置態様と、前記m個の所定動作との関係を定義した所定のデータベースを記憶し、
    前記n個のセンサから当該n個以下の第1所定数のセンサ数を選択し、
    前記m個の所定動作から当該m個以下の第2所定数の所定動作を選択し、
    前記第1所定数のセンサ数が選択されかつ前記第2所定数の所定動作が選択された場合、前記第1所定数以下の範囲内の前記センサ数に応じた1個以上の前記配置態様を、前記第2所定数の所定動作に応じた前記第2所定数の前記予測精度パラメータと関連付けて、前記所定のデータベースから取得することを特徴とするセンサ配置態様の取得方法。
  8. 請求項7に記載のセンサ配置態様の取得方法において、
    前記被検対象を複数のセグメントに分類した場合において、当該複数のセグメントのうちの、前記センサを配置するセグメントをさらに選択し、
    前記第1所定数のセンサ数及び前記第2所定数の所定動作が選択されている場合において、前記センサを配置する前記セグメントが選択されたときには、前記第1所定数以下の範囲内の前記センサ数及び前記センサを配置する前記セグメントに応じた前記1個以上の前記配置態様を、前記第2所定数の所定動作に応じた前記第2所定数の前記予測精度パラメータと関連付けて、前記所定のデータベースから取得することを特徴とするセンサ配置態様の取得方法。
  9. 請求項7又は8に記載のセンサ配置態様の取得方法において、
    前記1個以上の配置態様が取得された場合、当該1個以上の配置態様の各々に関連付けられた前記第2所定数の前記予測精度パラメータが表す前記予測精度の高低に基づき、当該1個以上の配置態様の各々を順にさらに表示することを特徴とするセンサ配置態様の取得方法。
  10. 請求項9に記載のセンサ配置態様の取得方法において、
    前記1個以上の配置態様を、前記被検対象を複数のセグメントに分類したときの当該複数のセグメントに前記センサを関連付けた状態で表示することを特徴とするセンサ配置態様の取得方法。
  11. 請求項9又は10に記載のセンサ配置態様の取得方法において、
    前記第2所定数の前記予測精度パラメータが表す前記予測精度の高低を、グラフ状に表示することを特徴とするセンサ配置態様の取得方法。
  12. 請求項9ないし11のいずれかに記載のセンサ配置態様の取得方法において、
    前記1個以上の配置態様が取得された場合、当該1個以上の配置態様のうちの、前記予測精度が所定順位の前記配置態様をさらに選択し、
    当該所定順位の当該配置態様をさらに表示することを特徴とするセンサ配置態様の取得方法。
  13. 請求項7ないし12のいずれかに記載のセンサ配置態様の取得方法において、
    前記n個以下の範囲内の数の前記センサを前記k個の前記配置態様で人間及び人型ロボットの一方の対象に配置した状態で、当該一方の対象が前記m個の所定動作を実行したときの前記センサの検出信号をサンプリングし、
    当該サンプリングされた前記検出信号を所定の機械学習法に適用することにより、前記k×m個の前記予測精度パラメータを算出し、
    当該k×m個の前記予測精度パラメータと、前記k個の配置態様と、前記m個の所定動作とを紐付けすることにより、前記所定のデータベースを作成することを特徴とするセンサ配置態様の取得方法。
JP2019043698A 2019-03-11 2019-03-11 センサ配置態様の取得装置 Active JP7178931B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019043698A JP7178931B2 (ja) 2019-03-11 2019-03-11 センサ配置態様の取得装置
CN202010111331.8A CN111671602B (zh) 2019-03-11 2020-02-24 传感器配置形态的获取装置及传感器配置形态的获取方法
US16/809,578 US11035703B2 (en) 2019-03-11 2020-03-05 Sensor arrangement mode acquisition device and sensor arrangement mode acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043698A JP7178931B2 (ja) 2019-03-11 2019-03-11 センサ配置態様の取得装置

Publications (2)

Publication Number Publication Date
JP2020149105A JP2020149105A (ja) 2020-09-17
JP7178931B2 true JP7178931B2 (ja) 2022-11-28

Family

ID=72424147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043698A Active JP7178931B2 (ja) 2019-03-11 2019-03-11 センサ配置態様の取得装置

Country Status (3)

Country Link
US (1) US11035703B2 (ja)
JP (1) JP7178931B2 (ja)
CN (1) CN111671602B (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003222514A (ja) 2002-01-30 2003-08-08 Nippon Telegr & Teleph Corp <Ntt> センサ構成決定装置,センサ構成決定方法,センサ構成決定用プログラムおよびそのプログラムの記録媒体
JP2009039466A (ja) 2007-08-13 2009-02-26 Advanced Telecommunication Research Institute International 行動識別装置、行動識別システムおよび行動識別方法
JP2012522561A (ja) 2009-04-03 2012-09-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザの転倒を検出する方法及びシステム
JP2019033869A (ja) 2017-08-14 2019-03-07 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090140887A1 (en) * 2007-11-29 2009-06-04 Breed David S Mapping Techniques Using Probe Vehicles
JP2009134590A (ja) * 2007-11-30 2009-06-18 Advanced Telecommunication Research Institute International 行動識別システム、行動識別方法、最適センサ集合決定方法および最適パラメータ決定方法。
WO2012153629A1 (ja) * 2011-05-12 2012-11-15 株式会社Ihi 運動予測制御装置と方法
JP6028335B2 (ja) * 2012-01-24 2016-11-16 セイコーエプソン株式会社 運動解析システム、運動解析方法、ホスト端末及びセンサーユニット
WO2017037915A1 (ja) * 2015-09-03 2017-03-09 三菱電機株式会社 行動識別装置、空気調和機およびロボット制御装置
CN105512632B (zh) * 2015-12-09 2019-04-05 北京旷视科技有限公司 活体检测方法及装置
JP6642515B2 (ja) * 2016-07-04 2020-02-05 カシオ計算機株式会社 電子機器、選択制御システム、選択方法、及びプログラム
JP6577424B2 (ja) * 2016-07-19 2019-09-18 日本電信電話株式会社 行動認識装置、および、行動認識方法
CN108347709B (zh) * 2017-01-21 2020-07-24 中山大学 一种超低功耗溯源系统的自适应数据传输方法及系统
US20200150695A1 (en) * 2018-02-13 2020-05-14 Honeywell International Inc. Environment-adaptive sense and avoid system for unmanned vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003222514A (ja) 2002-01-30 2003-08-08 Nippon Telegr & Teleph Corp <Ntt> センサ構成決定装置,センサ構成決定方法,センサ構成決定用プログラムおよびそのプログラムの記録媒体
JP2009039466A (ja) 2007-08-13 2009-02-26 Advanced Telecommunication Research Institute International 行動識別装置、行動識別システムおよび行動識別方法
JP2012522561A (ja) 2009-04-03 2012-09-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザの転倒を検出する方法及びシステム
JP2019033869A (ja) 2017-08-14 2019-03-07 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
CN111671602A (zh) 2020-09-18
US11035703B2 (en) 2021-06-15
CN111671602B (zh) 2021-10-15
US20200292363A1 (en) 2020-09-17
JP2020149105A (ja) 2020-09-17

Similar Documents

Publication Publication Date Title
EP3528207B1 (en) Motion recognition device, motion recognition program, and motion recognition method
Velloso et al. Qualitative activity recognition of weight lifting exercises
CN105229666A (zh) 3d图像中的运动分析
JP2012170754A (ja) トレーニング管理装置、トレーニング装置及びプログラム
WO2017122705A1 (ja) トレーニング分類システム、トレーニング分類方法およびトレーニング分類サーバ
KR101813522B1 (ko) 골프 스윙 분석 장치 및 이를 이용한 골프 연습 시뮬레이션 시스템
JP6981735B2 (ja) Gui表示装置
US11794074B2 (en) Apparatus and method for exercise type recognition
JP2017213145A (ja) 打点推定装置
CN111989040A (zh) 行走形态显示方法、行走形态显示系统以及行走形态分析装置
JP7178931B2 (ja) センサ配置態様の取得装置
JP6672617B2 (ja) ゴルフクラブのフィッティング装置、方法及びプログラム
JP2015073821A (ja) 運動解析方法、運動解析装置、および運動解析プログラム
JP6783646B2 (ja) 選択支援装置、選択支援システムおよび選択支援方法
KR101847503B1 (ko) 양 발의 압력 데이터를 이용한 모션 분석 방법 및 장치
JP7165108B2 (ja) 作業訓練システム及び作業訓練支援方法
JP4978866B2 (ja) 圧力分布測定センサ装置
KR20180085375A (ko) 운동 정보 관리 장치 및 방법
KR20220136901A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP6766335B2 (ja) ゴルフスイングの分析装置
JP2006312029A (ja) 歩行訓練支援装置
JP7172396B2 (ja) ゴルフ診断システム
Mascia et al. Machine learning aided jump height estimate democratization through smartphone measures
JP6486200B2 (ja) 移動運動解析装置及びシステム並びにプログラム
JP6308885B2 (ja) ゴルフスイング解析装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221115

R150 Certificate of patent or registration of utility model

Ref document number: 7178931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150