JP2017196414A - 歩行分析支援ロボット - Google Patents
歩行分析支援ロボット Download PDFInfo
- Publication number
- JP2017196414A JP2017196414A JP2017086506A JP2017086506A JP2017196414A JP 2017196414 A JP2017196414 A JP 2017196414A JP 2017086506 A JP2017086506 A JP 2017086506A JP 2017086506 A JP2017086506 A JP 2017086506A JP 2017196414 A JP2017196414 A JP 2017196414A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- data
- route
- sensor
- gait
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/112—Gait analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7282—Event detection, e.g. detecting unique waveforms indicative of a medical condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0046—Arrangements of imaging apparatus in a room, e.g. room provided with shielding or for improved access to apparatus
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Abstract
Description
本出願は、"GAIT ANALYSIS MEDICAL ASSISTANCE ROBOT "と題し、2016年4月26
日に出願された米国特許出願第15/139,275号の優先権を主張する。当該出願は、その全体が本明細書中に参照として組み込まれる。
ブルデバイスを取り付けることは、上記で説明した2つの問題を克服することに役立つことができるが、衣服にウェアラブルデバイスを取り付けると、得られたデータ内のノイズが増加する。さらに、装備された衣服の取り扱いや洗濯方法が制限される可能性がある。
1つまたは複数のコンピュータプロセッサに結合された出力装置を使用して、歩行分析用のセンサデータが取り込まれる旨の通知を被検者に提供することと、
1つまたは複数のコンピュータプロセッサを使用して、経路部分を決定することと、
1つまたは複数のコンピュータプロセッサを使用して、センサデータを取り込むための1つまたは複数のセンサの位置を決定することと、
1つまたは複数のコンピュータプロセッサを使用して、1つまたは複数のセンサを当該位置に移動させる信号を供給することと、
1つまたは複数のコンピュータプロセッサを使用して、経路部分に沿って移動することを開始する第1のガイダンスを被検者に提供することと、
1つまたは複数のセンサを使用して、センサデータを取り込むことと、
モニタリング手法がパッシブモニタリング手法であり、センサデータが環境データ、被検者データ、および位置データを含むことと、
センサデータを収集することが、1つまたは複数のセンサを使用してセンサデータを取り込むことにより、パッシブモニタリング手法を使用してセンサデータを収集し、1つまたは複数のコンピュータプロセッサを使用して、センサデータに含まれる環境データ、被検者データ、および位置データがパッシブモニタリング手法条件を満たすと判断し、パッシブモニタリング手法条件が満たされることに応答して、センサデータを使用して歩行データを作成することを含むことと、
パッシブモニタリング手法条件が、経路のあらかじめ決定された長さ、経路をセンシングするための安定した位置、および経路に沿って移動する被検者の画像データを含むことと、
モニタリング手法がハイブリッド手法であることと、
センサデータを収集することが、1つまたは複数のセンサを使用して環境データ、被検者データ、および位置データを含む第1のセンサデータを取り込むことにより、ハイブリッド手法を使用してセンサデータを収集し、1つまたは複数のコンピュータプロセッサを使用して、センサデータに基づいてハイブリッドデータ条件が満たされたと判断し、1つまたは複数のコンピュータプロセッサを使用して、センサデータに基づいて被検者の経路部分を特定し、1つまたは複数のコンピュータプロセッサを使用して、1つまたは複数のセンサに経路部分のビューを提供する1つまたは複数のセンサの位置を特定し、1つまたは複数のコンピュータプロセッサを使用して、1つまたは複数のセンサをその位置に移動させる信号を供給し、1つまたは複数のコンピュータプロセッサを使用して、経路部分に沿って移動する被検者の第2のセンサデータを取り込むことを含むことと、
ハイブリッドデータ条件が満たされたと判断することが、1つまたは複数のプロセッサを使用して、データ内のあらかじめ定義された長さを超える被検者の潜在的な経路を特定することをさらに備えることと、
1つまたは複数のプロセッサを使用して、データを使用して被検者が期間内に潜在的な経路に沿って移動すると予測することと、
センサデータを収集することが、1つまたは複数のコンピュータプロセッサを使用して、被検者の経路部分を含む第1の経路、および被検者の歩行を監視するための第1の経路と平行な第2の経路を決定し、1つまたは複数のコンピュータプロセッサを使用して、被検者が第1の経路に沿って移動するに伴い、被検者と平行に第2の経路に沿って移動することにより、センサデータを取り込むことをさらに備えることと、
1つまたは複数のコンピュータプロセッサを使用して、モーション異常を補正するようにセンサデータを修正することと、
を含む。
また、前記被検者が歩行する経路の少なくとも一部を判定する経路判定ステップと、をさらに含んでもよい。
前記生成ステップでは、前記センサデータが所定の基準を満たした場合に、前記歩行データを生成してもよい。
また、出力装置を用いて、前記被検者に第一のガイダンスを出力するステップと、前記
被検者が、前記経路に沿った所定の地点に移動したことを判定するステップと、前記出力装置を用いて、前記被検者に第二のガイダンスを出力するステップと、をさらに含んでもよい。
前記第一および第二のガイダンスは、音声によるガイダンス、または、光を用いて経路を指示するガイダンスのいずれかであってもよい。
また、前記取得ステップでは、前記被検者が歩行する経路と平行な経路である第二の経路を決定し、前記第二の経路に沿って前記ロボットを移動させながら前記センサデータを取得してもよい。
また、前記第二の経路に沿って移動する前記ロボットの、前記被検者に対する姿勢ずれを補正するステップをさらに含んでもよい。
また、前記取得ステップでは、能動的に前記被検者を前記経路に誘導したうえでモニタリングを行うアクティブモニタリング手法、または、歩行する前記被検者を受動的にモニタリングするパッシブモニタリング手法のいずれかを用いて前記センサデータを取得してもよい。
また、前記アクティブモニタリング手法は、(1)前記被検者が歩行する前記経路を決定し、(2)前記経路に前記被検者を誘導し、(3)前記経路の少なくとも一部をセンシングできる位置に前記ロボットを移動させる各ステップを含んでもよい。
また、前記パッシブモニタリング手法は、前記被検者が歩行する経路の少なくとも一部が所定の長さ以上であり、前記経路の少なくとも一部をセンシングできる位置に前記ロボットがある場合に、前記センサデータを取得する手法であってもよい。
また、前記取得ステップでは、前記アクティブモニタリング手法、前記パッシブモニタリング手法、前記被検者がとる経路を予測した結果に基づいてモニタリングを行うハイブリッドモニタリング手法のいずれかを用いて前記センサデータを取得してもよい。
また、前記ハイブリッドモニタリング手法は、(1)前記被検者をセンシングした結果に基づいて、前記被検者がとる経路を予測し、(2)前記経路の少なくとも一部が所定の長さ以上である場合に、前記経路の少なくとも一部をセンシングできる位置に前記ロボットを移動させ、(3)前記経路に沿って歩行する被検者に対して前記センサデータを取得する各ステップからなってもよい。
移動可能なロボットと通信可能なデータ取得装置であって、前記ロボットが有するセンサを用いて、経路に沿って歩行する被検者の動きを表すセンサデータを取得する取得手段と、前記センサデータに基づいて、前記被検者の歩行分析を行うための歩行データを生成する生成手段と、を有することを特徴とする。
ットを配置する必要がないので、ランダムに配置された環境センサ、または手動で操作するデバイスと比較して、より良い品質の観測値が提供される。
上記の利点は例として提供されたこと、ならびに本技法は多数の他の利点および利益を有することができることを理解されたい。さらに、発明の概要は、本開示の主題の様々な例示的な態様を記載し、あらゆる発明的態様を包含するものではないことを理解されたい。
また、歩行データは、様々な時点、および経路106に沿った様々な位置における対象被検者104の関節、胴、脚、腕、他の付属器官などの位置データ、モーションデータ、または軌跡データ、経路106の一部分の長さ、各センサデータポイント(たとえば各画像フレーム)についてのタイムスタンプや位置、対象被検者104に対するセンサの相対位置、対象被検者104が経路106の部分をナビゲートするためにかかった総時間などを含んでもよい。歩行データによって記述されるさらなる例示的な運動特性として、被検者104の動きおよび速度、被検者104の歩幅、被検者104が所定の距離を移動するための時間、被検者104が当該距離を移動するためにかかるステップ数、被検者104の左ステップと右ステップとの間の差、被検者104の姿勢などがある。
これらの歩行基準は、例えば、経路106の一部分の長さパラメータ(たとえば、10フィート、10メートル、あるいは、歩行分析に十分なデータを取り込むことが可能な所定の長さなど)、経路106の一部分の真直度公差(たとえば、完全にまっすぐな線からの0〜5%の偏差)、およびセンサ204が必須データを取り込むことを妨害する可能性がある障害物からのクリアランスなどを含んでもよいが、これに限定されない。
場合によっては、2つ以上の区間A、B、Cに対応するデータは、各区間の長さが、個別には完全な歩行分析に十分なほど長くないが、それらの合計長が十分長い場合、連結することができる。
きる。
監視プロセスの一部として取り込まれたセンサデータは、それが歩行分析に適切である(たとえば、本明細書で説明された歩行基準を満たす)か否か判定するために分析することができ、適切な場合、歩行データとして処理および供給することができる。パッシブ手法により、ロボットユニット102が、被検者104を妨害せず、また、歩行分析を実施することをユーザに通知することなく、歩行分析を実行することが可能になる。しばしば、妨害または通知をすることで、被検者104が自分の動きをより意識してしまい、自分のパフォーマンス(たとえば、姿勢など)の態様が変わってしまう場合がある。すなわち、パッシブ手法は、被検者104の自然な動きを反映する歩行データを取り込むことができるため、有利である。
CCDカメラなどのレンジカメラを含む場合があるが、これらに限定されない。また、超音波センサ、カラーカメラ、赤外線カメラなどの他のタイプのセンサが使用される場合があることを理解されたい。いくつかの実装形態では、センサ204は、加速度計、ジャイロスコープ、温度計、気圧計、熱電対、マイクロフォン、または他の従来の検知デバイスなどの、様々なタイプのセンサの組合せを含む場合がある。MicrosoftによるKinect(登録商標)センサ、様々な立体視システムなどは、センサ204が含む場合があるカメラのさらなる非限定的な例である。センサ204は、ロボットユニット102の中に組み込まれるか、またはワイヤレス接続もしくは有線接続を介してロボットユニット102に結合される異種デバイスであってもよい。
信ユニット306、センサ204、歩行分析器208、記憶装置312を含む場合があり、それらは、通信バス216によって通信可能に結合することができる。図3Aに描写されたコンピューティングデバイス300は一例として提供され、本開示の範囲から逸脱することなく、他の形態を取り、(たとえば、ロボットユニット102のアーキテクチャを表す場合)図2に描写されたロボットユニット102の構成部品、コマンドの入力、人間とコンピュータの対話や通知の受信などのための標準入出力デバイス(たとえば、ポインタデバイス、キーボード、ディスプレイ、カメラ、マイクロフォンなど)、任意の他の適切な電気的または機械的構成部品などの、追加のまたはより少ない構成部品を含む場合があることを理解されたい。
どを使用して信号を送受信するためのワイヤレストランシーバ、CATタイプインターフェース、USBインターフェース、ジオロケーションセンサ(たとえば、GPSトランシーバ)、それらの様々な組合せなどを含む場合があるが、これらに限定されない。通信ユニット306は、バス216を介してコンピューティングデバイス300の他の構成部品に結合する。通信ユニット306は、たとえば、本明細書内の他の場所で説明されるプロトコルを含む、様々な標準通信プロトコルを使用して通信することができる。
実行するように、プロセッサ302をプログラムすることができる。たとえば、歩行分析器208のソフトウェアルーチンは、メモリ304に記憶され、プロセッサ302によって取り出され、実行される場合がある。別の例では、歩行分析器208は、本明細書で説明される動作や機能を実行するように、プロセッサ302によって実装される回路を含む場合がある。回路の非限定的な例として、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、ワイヤリング、標準電子構成部品、ボード、他の適切な回路などが含まれる。
器324は、プロシージャ呼出しを行うこと、オブジェクト指向の方法を呼び出すこと、または別の適切なプロセスを起動することによって、実行することができる。たとえば、歩行分析器208のメインプログラム、歩行データプロセッサ326、外部もしくは内部のAPI、または別の構成部品は、位置計算器324をインスタンス化することができるが、他の実行パスも適用可能であり、考えられる。
なお、以下の説明において、「経路のビューを有する」位置とは、当該経路を視認ないしセンシングできる位置であることを意味する。
る。歩行データプロセッサ326は、出力デバイスに結合して、被検者104や環境内の他の物体に情報を出力する。歩行データプロセッサ326は、入力デバイスに結合して、被検者104や環境内の他の物体から情報を受信する。
めにアクティブ手法が使用可能であることを判断する。
パッシブ手法識別器354は、センサ204によって供給されたセンサデータや被検者トラッカー320によって供給された経路情報を使用して、センサデータを収集するためにパッシブ手法が使用可能であることを判断する。
ハイブリッド手法識別器356は、センサ204によって供給されたセンサデータや被検者トラッカー320によって供給された経路情報を使用して、センサデータを収集するためにハイブリッド手法が使用可能であることを判断する。
これらの構成部品352、354、356の各々は、記憶装置312やメモリ304に結合して、手法データ、経路データ、センサデータ、歩行データなどのデータを記憶し、取り出すことができる。これらの構成部品は、少なくとも図4および図5A〜図5Dを参照して下記でより詳細に記載される。
ステップ402において、被検者トラッカー320が、被検者104の歩行を監視する命令を受信する。命令は、(たとえば、トリガリングイベントに応答して)自律的に作成および受信される場合があり、利害関係者による入力(たとえば、被検者104または別のユーザによる音声コマンド)に応答して受信される場合などがある。たとえば、命令は、ロボットユニット102がセンサ204を使用して被検者104に関する情報を取り込むための医師からの入力に応答して受信される場合がある。入力の例には、センサ204によって取り込まれる入力(たとえば、オーディオ信号、ポインタデバイスやタッチスクリーン入力、キーボードストローク、ネットワーク220を介してクライアントデバイス232から受信された入力など)が含まれ得る。自律的なトリガの例には、タイマ、満たされる特定の基準(たとえば、廊下を歩くことなど)などが含まれる。
いくつかの実装形態では、歩行データプロセッサ326は、追跡停止コマンドが発行されるまで、または他の条件などに基づいて、絶えず特定の継続時間の間、それぞれ、被検者104やロボットユニット102の位置を監視し続けるように、被検者トラッカー320や位置計算器324に通知することができる。
たとえば、被検者トラッカー320によって受信される監視命令は、ある時間期間にわたって家庭環境の中を動き回っている被検者104の画像やビデオを取り込むロボットユニット102向けの命令である。
を被検者トラッカー320から受信し、手法識別器322は、位置データを使用して適切な監視手法を識別する。いくつかの実装形態では、手法識別器322は、ロボットユニット102の位置に関する位置情報を位置計算器324から受信し、位置データを使用して適切な監視手法を識別する。いくつかの実装形態では、監視手法は、適切な経路部分を特定するステップと、ロボットの位置を決定するステップと、被検者104が経路部分に沿って移動する際にセンサデータを取り込み処理するステップなどの動作を含む。
れ、クライアントデバイス232またはネットワーク220に接続された別の構成部品に供給される。いくつかの実装形態では、歩行データは、クライアントデバイス232のディスプレイ上、ロボットユニット102のディスプレイ上、または別の手段によって被検者104に表示される。さらなる実装形態では、歩行データは、ネットワーク220を介して利害関係者(たとえば、被検者104、医師(たとえば、医者、看護師、もしくは別の介護者)、技師、または別の適切な個人)に提供される。場合によっては、そのデータは、歩行分析を実行するために、利害関係者によって手動で検討される場合がある。
ステップ502において、アクティブ手法識別器352が、アクティブ監視手法条件が満たされたかどうかを判定する。アクティブ監視手法条件は、ロボットユニット102がアクティブ監視手法によって歩行データを取り込むために、アクティブ手法識別器352によって検出または特定された1つまたは複数の条件を含む場合がある。
ステップ504において、歩行データプロセッサ326は、アクティブ監視手法条件が満たされたと判定することに応答して、アクティブ監視手法を使用することができる。アクティブ監視手法条件は、手法条件のしきい値量が識別されたときに満たされ、しきい値は、センサデータを取り込むために使用され得る手法条件の最小量として決定することができる。アクティブ監視手法の一例が図5Bを参照して記載される。
検出または特定された1つまたは複数の条件を含む場合がある。パッシブ監視手法条件は、経路部分およびロボットユニットが経路部分をセンシングするための位置を含む、センサデータを取り込むのに適した環境内の条件を識別するステップを含む場合がある。たとえば、パッシブ監視手法条件は、被検者104が比較的まっすぐ移動するために適切な距離である環境内の経路部分、およびロボットユニット102に経路のビューを提供する廊下の反対側に沿った位置を識別するステップを含む場合がある。いくつかの実装形態では、パッシブ監視手法条件は、上記で説明された歩行基準を備える。
ポットであってもよい。いくつかの実装形態では、センサ204を移動させずに、または変更せずに、センサ204がその位置から経路を見ることができる。さらなる実装形態では、複数の位置や角度を識別することができ、センサ204は、経路に沿って移動する被検者104を捉えるために複数の位置や角度に移動することができる。
歩行速度(HGS)、快適歩行速度(CGS)、高速歩行速度(FGS)、アップアンドゴー(TUG)などの、様々な臨床試験のセンサデータを取り込むことができる。次いで、歩行データプロセッサ326は、センサデータに基づいて歩行データを作成する。たとえば、歩行データは、パッシブ監視手法条件が満たされたセンサデータの一部分を特定することによって作成することができるが、歩行データやセンサデータを組み込むこともできる。
タが歩行基準を満たすと判断することができる。いくつかの実装形態では、センサデータが歩行データ(歩行分析に適したデータ)を含まないと歩行データプロセッサ326が判定した場合、歩行データプロセッサ326は、ステップ528を参照して説明されたように、センサデータの取り込みを続ける。
例えば、位置計算器324が、ある位置に移動するようにセンサに指示した場合、壁がセンサ204のビューから被検者104を遮るため、被検者トラッカー320が被検者104を監視することができない場合がある。このような場合、歩行データプロセッサ326は、ハイブリッドデータ条件が満たされなかったと判断し、センサ204を使用してセンサデータを取り込み続ける。
タを使用して、被検者104が将来の時間期間において、それに沿って移動する可能性がある経路を予測することができる。
たとえば、ルート計算器350は、被検者104がロビーを通って廊下に向かっていることを示すセンサデータと、ロビーを通って廊下に向かって移動する被検者104の履歴データと、を用いて、将来においてセンサデータを取り込むための予測経路として廊下を識別する。
形態では、歩行データプロセッサ326は、習慣的歩行速度(HGS)、快適歩行速度(CGS)、高速歩行速度(FGS)、アップアンドゴー(TUG)などの、様々な臨床試験のセンサデータを取り込むことができる。歩行データプロセッサ326は、センサデータを使用して歩行データを作成する。たとえば、歩行データは、ハイブリッド監視手法条件を満たすセンサデータの一部分を識別し、それらの識別された部分に基づいて作成することができるが、他のセンサデータや歩行データを組み込むこともできる。
たとえば、被検者104は、廊下の一方の側に沿って移動を開始し、ロボットユニット102は、廊下の反対側に配置される。被検者104が移動する際、ロボットユニット102は、被検者104の連続側面図を取り込むために、被検者104が第1の経路を移動するのと同様の速度で第2の経路を移動する。この実装形態は、固定されたセンサ204に対して被検者104が経路に沿って移動するにつれて角度がつくセンサデータではなく、被検者104に対する均一な視点による歩行分析用のセンサデータを提供する。
また、歩行データプロセッサ326が、センサデータに基づいて歩行データを作成する。歩行データは、本明細書内の他の場所で説明されるように、歩行データを収集または作成するための条件を満たすセンサデータの部分を識別することによって作成することができる。
ステップ612において、歩行データプロセッサ326は、本明細書内の他の場所で説明されるように、歩行データを供給する。
ある。なお、本明細書において(また一般に)アルゴリズムとは、所望の結果を得るための論理的な手順を意味する。処理のステップは、物理量を物理的に操作するものである。必ずしも必須ではないが、通常は、これらの量は記憶・伝送・結合・比較およびその他の処理が可能な電気的または磁気的信号の形式を取る。通例にしたがって、これらの信号をビット・値・要素・エレメント・シンボル・キャラクタ・項・数値などとして称することが簡便である。
や公共ネットワークを介して他のデータ処理システムやリモートにあるプリンタや記憶装置に接続される。モデム、ケーブルモデム、イーサネット(登録商標)は、現在利用可能なネットワークアダプタのほんの一例である。
102 ロボットユニット
104 被検者
106 経路
108a 区間A
108b 区間B
108c 区間C
200 歩行分析システム
201 計算サーバ
204 センサ
208 歩行分析器
214 アクチュエータ
216 通信バス
220 ネットワーク
232 クライアントデバイス
Claims (15)
- 移動可能なロボットと接続されたコンピュータによって実行されるデータ取得方法であって、
前記ロボットが有するセンサを用いて、経路に沿って歩行する被検者の動きを表すセンサデータを取得する取得ステップと、
前記センサデータに基づいて、前記被検者の歩行分析を行うための歩行データを生成する生成ステップと、
を含むデータ取得方法。 - 前記ロボットが有するセンサが前記経路の少なくとも一部をセンシングできる位置を決定する位置決定ステップと、
前記決定した位置に前記ロボットを移動させる移動ステップと、
をさらに含む、請求項1に記載のデータ取得方法。 - 前記被検者が歩行する経路の少なくとも一部を判定する経路判定ステップと、
をさらに含む、請求項1または2に記載のデータ取得方法。 - 前記生成ステップでは、前記センサデータが所定の基準を満たした場合に、前記歩行データを生成する、
請求項1から3のいずれかに記載のデータ取得方法。 - 出力装置を用いて、前記被検者に第一のガイダンスを出力するステップと、
前記被検者が、前記経路に沿った所定の地点に移動したことを判定するステップと、
前記出力装置を用いて、前記被検者に第二のガイダンスを出力するステップと、
をさらに含む、請求項1から4のいずれかに記載のデータ取得方法。 - 前記第一および第二のガイダンスは、音声によるガイダンス、または、光を用いて経路を指示するガイダンスのいずれかである、
請求項5に記載のデータ取得方法。 - 前記取得ステップでは、
前記被検者が歩行する経路と平行な経路である第二の経路を決定し、
前記第二の経路に沿って前記ロボットを移動させながら前記センサデータを取得する、
請求項1から6のいずれかに記載のデータ取得方法。 - 前記第二の経路に沿って移動する前記ロボットの、前記被検者に対する姿勢ずれを補正するステップをさらに含む、
請求項7に記載のデータ取得方法。 - 前記取得ステップでは、
能動的に前記被検者を前記経路に誘導したうえでモニタリングを行うアクティブモニタリング手法、または、歩行する前記被検者を受動的にモニタリングするパッシブモニタリング手法のいずれかを用いて前記センサデータを取得する、
請求項1に記載のデータ取得方法。 - 前記アクティブモニタリング手法は、
(1)前記被検者が歩行する前記経路を決定し、
(2)前記経路に前記被検者を誘導し、
(3)前記経路の少なくとも一部をセンシングできる位置に前記ロボットを移動させる
各ステップを含む、
請求項9に記載のデータ取得方法。 - 前記パッシブモニタリング手法は、
前記被検者が歩行する経路の少なくとも一部が所定の長さ以上であり、前記経路の少なくとも一部をセンシングできる位置に前記ロボットがある場合に、前記センサデータを取得する手法である、
請求項9または10に記載のデータ取得方法。 - 前記取得ステップでは、
前記アクティブモニタリング手法、前記パッシブモニタリング手法、前記被検者がとる経路を予測した結果に基づいてモニタリングを行うハイブリッドモニタリング手法のいずれかを用いて前記センサデータを取得する、
請求項9から11のいずれかに記載のデータ取得方法。 - 前記ハイブリッドモニタリング手法は、
(1)前記被検者をセンシングした結果に基づいて、前記被検者がとる経路を予測し、
(2)前記経路の少なくとも一部が所定の長さ以上である場合に、前記経路の少なくとも一部をセンシングできる位置に前記ロボットを移動させ、
(3)前記経路に沿って歩行する被検者に対して前記センサデータを取得する
各ステップからなる、
請求項12に記載のデータ取得方法。 - 請求項1から13のいずれかに記載のデータ取得方法をコンピュータに実行させるプログラム。
- 移動可能なロボットと通信可能なデータ取得装置であって、
前記ロボットが有するセンサを用いて、経路に沿って歩行する被検者の動きを表すセンサデータを取得する取得手段と、
前記センサデータに基づいて、前記被検者の歩行分析を行うための歩行データを生成する生成手段と、
を有する、データ取得装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/139,275 | 2016-04-26 | ||
US15/139,275 US10383552B2 (en) | 2016-04-26 | 2016-04-26 | Gait analysis medical assistance robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017196414A true JP2017196414A (ja) | 2017-11-02 |
JP6551455B2 JP6551455B2 (ja) | 2019-07-31 |
Family
ID=60089211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017086506A Active JP6551455B2 (ja) | 2016-04-26 | 2017-04-25 | 歩行分析支援ロボット |
Country Status (2)
Country | Link |
---|---|
US (1) | US10383552B2 (ja) |
JP (1) | JP6551455B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10383552B2 (en) * | 2016-04-26 | 2019-08-20 | Toyota Jidosha Kabushiki Kaisha | Gait analysis medical assistance robot |
KR20210060182A (ko) * | 2019-11-18 | 2021-05-26 | (주)한스이엔지 | 장애물 인지 및 회피 주행 제어 시스템 및 그 방법 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6892393B2 (ja) * | 2015-04-22 | 2021-06-23 | マサチューセッツ インスティテュート オブ テクノロジー | 足接地位置追随装置、その動きを制御する方法、コンピュータ実行可能なプログラム、及びそれを格納したコンピュータ読取可能な非一時的な情報記録媒体 |
US10722775B2 (en) * | 2016-09-27 | 2020-07-28 | Adidas Ag | Robotic training systems and methods |
CN106656712A (zh) * | 2016-12-30 | 2017-05-10 | 深圳市优必选科技有限公司 | 用于总线的异常处理方法、用于机器人的控制器 |
KR102391914B1 (ko) * | 2017-06-30 | 2022-04-27 | 엘지전자 주식회사 | 이동 로봇의 동작 방법 |
US10698413B2 (en) * | 2017-12-28 | 2020-06-30 | Savioke Inc. | Apparatus, system, and method for mobile robot relocalization |
US10170135B1 (en) * | 2017-12-29 | 2019-01-01 | Intel Corporation | Audio gait detection and identification |
WO2020076416A2 (en) * | 2018-08-16 | 2020-04-16 | Ketchup On, Inc. | Computer vision monitoring and prediction of ailments |
US20200289027A1 (en) * | 2019-03-11 | 2020-09-17 | Celloscope Ltd. | System, method and computer program product for assessment of a user's gait |
SG10201910779YA (en) * | 2019-11-18 | 2021-06-29 | Advanced Analyzer Tech Pte Ltd | Device for apnea detection |
WO2022086161A1 (ko) * | 2020-10-20 | 2022-04-28 | 삼성전자주식회사 | 로봇 및 그 제어 방법 |
CN112656402B (zh) * | 2020-11-30 | 2023-01-13 | 重庆优乃特医疗器械有限责任公司 | 应用于3d体态检测分析的采集机器人联动控制系统 |
CN112381048A (zh) * | 2020-11-30 | 2021-02-19 | 重庆优乃特医疗器械有限责任公司 | 基于多用户同步检测的3d体态检测分析系统及方法 |
CN112494034B (zh) * | 2020-11-30 | 2023-01-17 | 重庆优乃特医疗器械有限责任公司 | 基于3d体态检测分析的数据处理分析系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006048666A (ja) * | 2004-07-07 | 2006-02-16 | Matsushita Electric Ind Co Ltd | 移動体の対象者同行方法及び移動体用対象者同行装置 |
JP2015109937A (ja) * | 2013-01-23 | 2015-06-18 | 株式会社東芝 | 動作情報処理装置 |
JP2016073630A (ja) * | 2014-10-03 | 2016-05-12 | 国立大学法人豊橋技術科学大学 | 移動訓練支援装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7243024B2 (en) * | 2001-08-11 | 2007-07-10 | Endicott William L | Computer-implemented system and method for wayfinding |
US7158859B2 (en) * | 2003-01-15 | 2007-01-02 | Intouch Technologies, Inc. | 5 degrees of freedom mobile robot |
US7702420B2 (en) * | 2004-07-07 | 2010-04-20 | Panasonic Corporation | Method for making mobile unit accompany objective person |
GB0602127D0 (en) | 2006-02-02 | 2006-03-15 | Imp Innovations Ltd | Gait analysis |
US20080108913A1 (en) | 2006-11-06 | 2008-05-08 | Colorado Seminary, Which Owns And Operates The University Of Denver | Smart apparatus for gait monitoring and fall prevention |
DE102007049323A1 (de) | 2007-10-15 | 2009-04-23 | Zebris Medical Gmbh | Vorrichtung und Verfahren zur Ganganalyse unter Einsatz eines Laufbandes |
EP2476035A1 (en) * | 2009-09-07 | 2012-07-18 | BAE Systems Plc | Path determination |
KR101970962B1 (ko) * | 2012-03-19 | 2019-04-22 | 삼성전자주식회사 | 아기 감시 방법 및 장치 |
KR102104896B1 (ko) * | 2014-01-17 | 2020-05-29 | 엘지전자 주식회사 | 로봇청소기 및 이를 이용한 휴먼 케어방법 |
GB201410648D0 (en) * | 2014-06-14 | 2014-07-30 | Pape Lise S | Walking aid providing tactile and visual cues to trigger and improve mobility |
US9586316B1 (en) * | 2015-09-15 | 2017-03-07 | Google Inc. | Determination of robotic step path |
US10383552B2 (en) * | 2016-04-26 | 2019-08-20 | Toyota Jidosha Kabushiki Kaisha | Gait analysis medical assistance robot |
US20180289579A1 (en) * | 2017-04-11 | 2018-10-11 | The Trustees Of Columbia University In The City Of New York | Powered Walking Assistant and Associated Systems and Methods |
-
2016
- 2016-04-26 US US15/139,275 patent/US10383552B2/en not_active Expired - Fee Related
-
2017
- 2017-04-25 JP JP2017086506A patent/JP6551455B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006048666A (ja) * | 2004-07-07 | 2006-02-16 | Matsushita Electric Ind Co Ltd | 移動体の対象者同行方法及び移動体用対象者同行装置 |
JP2015109937A (ja) * | 2013-01-23 | 2015-06-18 | 株式会社東芝 | 動作情報処理装置 |
JP2016073630A (ja) * | 2014-10-03 | 2016-05-12 | 国立大学法人豊橋技術科学大学 | 移動訓練支援装置 |
Non-Patent Citations (2)
Title |
---|
安達 宏幸: "KINECT・自走ロボットを使用した歩行データの取得", 電子情報通信学会技術研究報告, vol. 第114巻, JPN6018009179, 2014, JP, pages 25 - 30, ISSN: 0003909056 * |
飯田真大: "家庭用ロボットの人追従及び歩行パラメータ取得に関する研究", 日本建築学会技術報告集, vol. 第22巻、第50号, JPN6018009181, February 2016 (2016-02-01), pages 253 - 257, ISSN: 0003909057 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10383552B2 (en) * | 2016-04-26 | 2019-08-20 | Toyota Jidosha Kabushiki Kaisha | Gait analysis medical assistance robot |
KR20210060182A (ko) * | 2019-11-18 | 2021-05-26 | (주)한스이엔지 | 장애물 인지 및 회피 주행 제어 시스템 및 그 방법 |
KR102332200B1 (ko) * | 2019-11-18 | 2021-11-30 | (주)한스이엔지 | 장애물 인지 및 회피 주행 제어 시스템 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP6551455B2 (ja) | 2019-07-31 |
US20170303825A1 (en) | 2017-10-26 |
US10383552B2 (en) | 2019-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6551455B2 (ja) | 歩行分析支援ロボット | |
US11009941B2 (en) | Calibration of measurement units in alignment with a skeleton model to control a computer system | |
US20190126484A1 (en) | Dynamic Multi-Sensor and Multi-Robot Interface System | |
US9552056B1 (en) | Gesture enabled telepresence robot and system | |
US8854594B2 (en) | System and method for tracking | |
Rashid et al. | Wireless electric appliance control for smart buildings using indoor location tracking and BIM-based virtual environments | |
US8214082B2 (en) | Nursing system | |
JP2021522564A (ja) | 非制約環境において人間の視線及びジェスチャを検出するシステムと方法 | |
US20190219409A1 (en) | System and methods for robotic autonomous motion planning and navigation | |
WO2017220788A1 (en) | System and method for artificial agent based cognitive operating rooms | |
US20160250751A1 (en) | Providing personalized patient care based on electronic health record associated with a user | |
CN106604804B (zh) | 碰撞检测 | |
JP2019041261A (ja) | 画像処理システムおよび画像処理システムの設定方法 | |
JP2011209203A (ja) | 自己位置推定装置および自己位置推定方法 | |
JP2019082999A (ja) | クラウドサービスシステムを組み込んだロボットシステム | |
EP3585569B1 (en) | Systems, apparatus, and methods for robotic learning and execution of skills | |
US20190054631A1 (en) | System and method for operating and controlling a hyper configurable humanoid robot to perform multiple applications in various work environments | |
JP6927937B2 (ja) | 三次元骨格表現を生成するためのシステム及び方法 | |
JP6150429B2 (ja) | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 | |
Pavón-Pulido et al. | A service robot for monitoring elderly people in the context of ambient assisted living | |
US11199561B2 (en) | System and method for standardized evaluation of activity sequences | |
JP2018147482A (ja) | 移動ロボットによる外観モデル維持のための事前対応的データ取得 | |
JP2008289676A (ja) | 患者異常通知システム | |
Jin et al. | Human-robot interaction for assisted object grasping by a wearable robotic object manipulation aid for the blind | |
Ni et al. | Research on Mobile User Interface for Robot Arm Remote Control in Industrial Application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190617 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6551455 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |