JP2017196414A - 歩行分析支援ロボット - Google Patents

歩行分析支援ロボット Download PDF

Info

Publication number
JP2017196414A
JP2017196414A JP2017086506A JP2017086506A JP2017196414A JP 2017196414 A JP2017196414 A JP 2017196414A JP 2017086506 A JP2017086506 A JP 2017086506A JP 2017086506 A JP2017086506 A JP 2017086506A JP 2017196414 A JP2017196414 A JP 2017196414A
Authority
JP
Japan
Prior art keywords
subject
data
route
sensor
gait
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017086506A
Other languages
English (en)
Other versions
JP6551455B2 (ja
Inventor
マーティンソン,エリック
Martinson Eric
コットレル,ピーター
Cottrell Peter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2017196414A publication Critical patent/JP2017196414A/ja
Application granted granted Critical
Publication of JP6551455B2 publication Critical patent/JP6551455B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0046Arrangements of imaging apparatus in a room, e.g. room provided with shielding or for improved access to apparatus
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Abstract

【課題】様々な異なる活動や環境に関する被検者の歩行を監視することが可能な、アクセス可能かつ柔軟な技法を提供する。【解決手段】移動可能なロボットと接続されたコンピュータによって実行されるデータ取得方法であって、前記ロボットが有するセンサを用いて、経路に沿って歩行する被検者の動きを表すセンサデータを取得する取得ステップと、前記センサデータに基づいて、前記被検者の歩行分析を行うための歩行データを生成する生成ステップと、を含む。【選択図】図2

Description

(関連出願への相互参照)
本出願は、"GAIT ANALYSIS MEDICAL ASSISTANCE ROBOT "と題し、2016年4月26
日に出願された米国特許出願第15/139,275号の優先権を主張する。当該出願は、その全体が本明細書中に参照として組み込まれる。
本明細書は、ロボットユニットによる人間の歩行分析に関する。
研究によると、人間の歩行は、糖尿病、神経学的疾患、または転倒予測に関する、健康の重要なインジケータである。歩行分析を行う際には、一般に、新規に測定されたデータと以前に取得したベースライン状態とを比較するため、同様の状態を再現する必要がある。「同様の状態」は、しばしば、臨床環境において取り込まれる。通常の臨床環境は、通路またはウォーキングマシン(以下、トレッドミル)のまわりに配置された1つまたは複数のカメラを有し、カメラおよび(適用可能な場合)トレッドミルがコンピュータに結合され、コンピュータによって制御される。確度を向上させるために、カメラ位置は、実質的に同じであり得る(たとえば、トレッドミル上の被検者の固定された側面ビュー、通路の様々な位置に沿った被検者の同様のカメラビューなどを有する)。実際の経路またはシミュレートされた経路は、対象の被検者に対して完全な歩行分析を行うために十分長く(たとえば、10フィート)とられる。カメラ位置および経路の長さを知ることにより、被検者の動きに関する医学的な問題の確実な識別が可能になる。
歩行を測定するためのこれらのタイプの制御された臨床環境は、機能的であるが、大きな欠点も有する。これらのタイプの臨床環境は、スケジュール調整を行ったうえで支援者(全員が能力を備え適切な健康状態にあるとは限らない)を確保し、特定の目的で臨床施設を訪れなければならないため、一般に限定的である。また、これらのタイプの臨床環境は、クリーニング、メンテナンス、ならびに医療専門家による専門訓練および職員配置を必要とするためコストがかかる。
米国特許第8,002,672号に記載されたような、いくつかのトレッドミルベースの手法は、自宅において対象被検者が設置し使用することができる。この手法は、トレッドミルに取り付けられた圧力センサを使用してデータを取り込む。しかしながら、トレッドミルは、臨床環境と同様に固定されており、したがって、対象被検者は、1つだけの位置において自分の歩行が分析されるように制限される(すなわち、トレッドミルとセンサによる構成は、複数の位置において歩行を分析するために使用することができない)。歩道などの他の表面に圧力センサを取り付けることは可能であるが、大きな環境は、その環境全体にわたってデータを収集することができることに対して法外なコストをもたらしてしまう。
いくつかの手法は、被検者の体に取り付けられたセンサを使用して歩行データを取り込む。たとえば、米国特許公開第2009/030350号は、連続的な歩行分析のために被検者に加速度計を取り付けることを記載し、米国特許公開第2008/108913号は、靴に圧力センサを取り付けて歩行を分析し、被検者の転倒を検出することを記載する。しかしながら、これらのタイプのウェアラブルセンサは、少なくとも2つの大きな欠点を有する。第1に、被検者は、センサを身に付けることを好まないか、またはセンサを取り付けることを忘れる場合がある。第2に、身に付けている間、一貫性のある方法で繰り返し(たとえば、日々)センサを配置することは、反復し難い。さらに、衣服にウェアラ
ブルデバイスを取り付けることは、上記で説明した2つの問題を克服することに役立つことができるが、衣服にウェアラブルデバイスを取り付けると、得られたデータ内のノイズが増加する。さらに、装備された衣服の取り扱いや洗濯方法が制限される可能性がある。
いくつかの手法は、環境内に取り付けられた3Dカメラを利用して、被検者を監視し、歩行データを取り込む。たとえば、非特許文献1は、対象被検者の自宅の天井に取り付けられたRGB−Dセンサを使用して、数ヶ月間にわたって対象被検者の長期歩行監視を実行する、Microsoft Kinect(登録商標)の骨格トラッカーを記載する。この手法は、RGB−Dセンサによって収集されたデータを使用して被検者が認識される可能性があることを立証するが、単一のカメラでは、監視可能な環境の大きさが制限される。詳細には、トラッカーが備えられた部屋のみを監視することができ、結果として、トラッカーは、他の環境において対象被検者の健康および活動を監視することができない。
いくつかの手法は、複数のカメラ位置やカメラ角度から歩行データを取り込む。たとえば、非特許文献2(以下、Gabel)は、様々なカメラ角度の下で人々を認識するアルゴリズムを使用することを記載する。詳細には、当該アルゴリズムは、Microsoft Kinect(登録商標)の骨格トラッカーを使用して、1つのカメラ角度で歩行をセンシングし、次いで別のカメラ角度で評価を行うといったように、様々なカメラ角度によって人々を認識する。Gabelの手法は、不利なことに、容認できる状態で実行するために、被検者の完全な可視性およびカメラからの遮るものがないビューを必要とする。加えて、Gabelの手法は、カメラ角度が変化するたびに劣化する。
いくつかの手法は、熱画像カメラを使用して、対象被検者の歩行を測定する。たとえば、非特許文献3は、シルエットを抽出して被検者の歩行をモデル化するために、熱画像および隠れマルコフモデルを使用することを記載する。訓練すると、この手法は、対象被検者の様々な歩行状態を認識することができるが、認識に焦点が当てられ、歩行データの収集または分析の方法に対して大きく貢献しない。
したがって、様々な異なる活動や環境に関する被検者の歩行を監視することが可能な、アクセス可能かつ柔軟な技法が必要とされる。
米国特許第8,002,672号 米国特許公開第2009/0030350号 米国特許公開第2008/0108913号
E.StoneおよびM.Skubic,Unobtrusive,Continuous,In−Home Gait Measurement Using the Microsoft Kinect,生体工学に関するIEEE議事録,第60巻,第10号,ページ2925〜2932,2013年 M.Gabel,R.Gilad−Bachrach,E.Renshaw,およびA.Schuster,Full Body Gait Analysis with Kinect,IEEE EM BS国際会議記事録,米国カリフォルニア州サンディエゴ,2000年8月28日〜9月1日 M.El−Yacoubi,A.Shaiek,およびB.Dorizzi,HMM−based gait modeling and recognition under different walking scenarios,2011年度マルチメディアコンピューティングおよびシステムに関する国際会議,2011年
本明細書は、ロボットユニットを使用して歩行分析を実行するための新規の技術を提供することにより、少なくとも部分的に、背景技術において記載されたソリューションの欠陥および制限を克服する。
本開示に記載される主題の1つの発明的態様によれば、システムは、1つまたは複数のコンピュータプロセッサ、および、1つまたは複数のコンピュータプロセッサによって実行された場合に、被検者の歩行を監視する命令を受信することと、被検者の歩行の監視を開始する命令を受信することに応答して、監視手法を初期化することと、経路部分に沿って被検者の動きを取り込むセンサデータを収集することと、センサデータに基づいて歩行分析用の歩行データを作成することと、を含む動作をシステムに実行させる命令を記憶する1つまたは複数のメモリを含む。
一般に、本開示に記載される主題の別の発明的態様は、1つまたは複数のコンピュータプロセッサを使用して、被検者の歩行を監視する命令を受信することと、1つまたは複数のコンピュータプロセッサを使用して、被検者の歩行の監視を開始する命令を受信することに応答して、監視手法を初期化することと、監視手法に基づいて、かつ1つまたは複数のコンピュータプロセッサに結合された1つまたは複数のセンサを使用して、経路部分に沿って被検者の動きを取り込むセンサデータを収集することと、センサデータに基づいて歩行分析用の歩行データを作成することと、を含む方法において具現化することができる。
一般に、本開示に記載される主題の別の発明的態様は、1つまたは複数のコンピュータプロセッサを使用して、被検者の歩行を監視するロボットユニット向けの命令を受信することと、1つまたは複数のコンピュータプロセッサを使用して、被検者が移動するべき経路部分を決定することと、1つまたは複数のコンピュータプロセッサを使用して、ロボットユニットの1つまたは複数のセンサがそこから経路部分をセンシングできる位置を特定することと、当該位置にロボットユニットを移動させるようにロボットユニットの1つまたは複数のアクチュエータを作動させることと、ロボットユニットの1つまたは複数のセンサを使用して、経路部分に沿って移動する被検者のセンサデータを取り込むことと、1つまたは複数のプロセッサを使用して、センサデータを使用して歩行データを作成することと、を含む方法において具現化することができる。
他の態様は、上記その他の発明的態様のための対応する方法、システム、装置、およびコンピュータプログラム製品を含む。
上記その他の実装形態は、各々、場合によっては、以下の特徴または動作のうちの1つまたは複数を含む場合がある。たとえば、特徴および/または動作は、
1つまたは複数のコンピュータプロセッサに結合された出力装置を使用して、歩行分析用のセンサデータが取り込まれる旨の通知を被検者に提供することと、
1つまたは複数のコンピュータプロセッサを使用して、経路部分を決定することと、
1つまたは複数のコンピュータプロセッサを使用して、センサデータを取り込むための1つまたは複数のセンサの位置を決定することと、
1つまたは複数のコンピュータプロセッサを使用して、1つまたは複数のセンサを当該位置に移動させる信号を供給することと、
1つまたは複数のコンピュータプロセッサを使用して、経路部分に沿って移動することを開始する第1のガイダンスを被検者に提供することと、
1つまたは複数のセンサを使用して、センサデータを取り込むことと、
モニタリング手法がパッシブモニタリング手法であり、センサデータが環境データ、被検者データ、および位置データを含むことと、
センサデータを収集することが、1つまたは複数のセンサを使用してセンサデータを取り込むことにより、パッシブモニタリング手法を使用してセンサデータを収集し、1つまたは複数のコンピュータプロセッサを使用して、センサデータに含まれる環境データ、被検者データ、および位置データがパッシブモニタリング手法条件を満たすと判断し、パッシブモニタリング手法条件が満たされることに応答して、センサデータを使用して歩行データを作成することを含むことと、
パッシブモニタリング手法条件が、経路のあらかじめ決定された長さ、経路をセンシングするための安定した位置、および経路に沿って移動する被検者の画像データを含むことと、
モニタリング手法がハイブリッド手法であることと、
センサデータを収集することが、1つまたは複数のセンサを使用して環境データ、被検者データ、および位置データを含む第1のセンサデータを取り込むことにより、ハイブリッド手法を使用してセンサデータを収集し、1つまたは複数のコンピュータプロセッサを使用して、センサデータに基づいてハイブリッドデータ条件が満たされたと判断し、1つまたは複数のコンピュータプロセッサを使用して、センサデータに基づいて被検者の経路部分を特定し、1つまたは複数のコンピュータプロセッサを使用して、1つまたは複数のセンサに経路部分のビューを提供する1つまたは複数のセンサの位置を特定し、1つまたは複数のコンピュータプロセッサを使用して、1つまたは複数のセンサをその位置に移動させる信号を供給し、1つまたは複数のコンピュータプロセッサを使用して、経路部分に沿って移動する被検者の第2のセンサデータを取り込むことを含むことと、
ハイブリッドデータ条件が満たされたと判断することが、1つまたは複数のプロセッサを使用して、データ内のあらかじめ定義された長さを超える被検者の潜在的な経路を特定することをさらに備えることと、
1つまたは複数のプロセッサを使用して、データを使用して被検者が期間内に潜在的な経路に沿って移動すると予測することと、
センサデータを収集することが、1つまたは複数のコンピュータプロセッサを使用して、被検者の経路部分を含む第1の経路、および被検者の歩行を監視するための第1の経路と平行な第2の経路を決定し、1つまたは複数のコンピュータプロセッサを使用して、被検者が第1の経路に沿って移動するに伴い、被検者と平行に第2の経路に沿って移動することにより、センサデータを取り込むことをさらに備えることと、
1つまたは複数のコンピュータプロセッサを使用して、モーション異常を補正するようにセンサデータを修正することと、
を含む。
本発明に係るデータ取得方法は、移動可能なロボットと接続されたコンピュータによって実行されるデータ取得方法であって、前記ロボットが有するセンサを用いて、経路に沿って歩行する被検者の動きを表すセンサデータを取得する取得ステップと、前記センサデータに基づいて、前記被検者の歩行分析を行うための歩行データを生成する生成ステップと、を含む。
また、前記ロボットが有するセンサが前記経路の少なくとも一部をセンシングできる位置を決定する位置決定ステップと、前記決定した位置に前記ロボットを移動させる移動ステップと、をさらに含んでもよい。
また、前記被検者が歩行する経路の少なくとも一部を判定する経路判定ステップと、をさらに含んでもよい。
前記生成ステップでは、前記センサデータが所定の基準を満たした場合に、前記歩行データを生成してもよい。
また、出力装置を用いて、前記被検者に第一のガイダンスを出力するステップと、前記
被検者が、前記経路に沿った所定の地点に移動したことを判定するステップと、前記出力装置を用いて、前記被検者に第二のガイダンスを出力するステップと、をさらに含んでもよい。
前記第一および第二のガイダンスは、音声によるガイダンス、または、光を用いて経路を指示するガイダンスのいずれかであってもよい。
また、前記取得ステップでは、前記被検者が歩行する経路と平行な経路である第二の経路を決定し、前記第二の経路に沿って前記ロボットを移動させながら前記センサデータを取得してもよい。
また、前記第二の経路に沿って移動する前記ロボットの、前記被検者に対する姿勢ずれを補正するステップをさらに含んでもよい。
また、前記取得ステップでは、能動的に前記被検者を前記経路に誘導したうえでモニタリングを行うアクティブモニタリング手法、または、歩行する前記被検者を受動的にモニタリングするパッシブモニタリング手法のいずれかを用いて前記センサデータを取得してもよい。
また、前記アクティブモニタリング手法は、(1)前記被検者が歩行する前記経路を決定し、(2)前記経路に前記被検者を誘導し、(3)前記経路の少なくとも一部をセンシングできる位置に前記ロボットを移動させる各ステップを含んでもよい。
また、前記パッシブモニタリング手法は、前記被検者が歩行する経路の少なくとも一部が所定の長さ以上であり、前記経路の少なくとも一部をセンシングできる位置に前記ロボットがある場合に、前記センサデータを取得する手法であってもよい。
また、前記取得ステップでは、前記アクティブモニタリング手法、前記パッシブモニタリング手法、前記被検者がとる経路を予測した結果に基づいてモニタリングを行うハイブリッドモニタリング手法のいずれかを用いて前記センサデータを取得してもよい。
また、前記ハイブリッドモニタリング手法は、(1)前記被検者をセンシングした結果に基づいて、前記被検者がとる経路を予測し、(2)前記経路の少なくとも一部が所定の長さ以上である場合に、前記経路の少なくとも一部をセンシングできる位置に前記ロボットを移動させ、(3)前記経路に沿って歩行する被検者に対して前記センサデータを取得する各ステップからなってもよい。
また、本発明に係るデータ取得装置は、
移動可能なロボットと通信可能なデータ取得装置であって、前記ロボットが有するセンサを用いて、経路に沿って歩行する被検者の動きを表すセンサデータを取得する取得手段と、前記センサデータに基づいて、前記被検者の歩行分析を行うための歩行データを生成する生成手段と、を有することを特徴とする。
また、本発明に係るプログラムは、上記データ取得方法をコンピュータに実行させるプログラムである。
他の態様は、上記その他の発明的態様のための対応する方法、システム、装置、およびコンピュータプログラム製品を含む。
本明細書で開示される技術は、いくつかの点で特に有利である。たとえば、家庭環境において被検者を連続的に受動観測することにより、ロボットユニットは、多くの場合、時間または位置の制約なしに、連続的な健康監視を実現することができ、パーソナライズされた、都合の良い治療、迅速な結果、およびより良い全体的なケアにつながる。加えて、ロボットユニットは、被検者の歩行データを監視するために被検者の自然な環境内に配備することができ、臨床検査室と比較して、歩行データを収集する安価で便利な手段をもたらす。場合によっては、体に取り付けられたセンサを無くすことができ、(被検者は自分の動きに集中せず、気楽にいられるなどの理由で)被検者によるより自然な挙動につながり、それにより、最終的に、より正確な歩行データが提供され得る。さらに、手動でロボ
ットを配置する必要がないので、ランダムに配置された環境センサ、または手動で操作するデバイスと比較して、より良い品質の観測値が提供される。
上記の利点は例として提供されたこと、ならびに本技法は多数の他の利点および利益を有することができることを理解されたい。さらに、発明の概要は、本開示の主題の様々な例示的な態様を記載し、あらゆる発明的態様を包含するものではないことを理解されたい。
本明細書は、添付図面の図において限定ではなく例として示され、添付図面では、同様の構成要素を参照するために同様の参照番号が使用される。
歩行分析を実行するロボットユニットを示す俯瞰図である。 歩行分析システムの例を示すブロック図である。 コンピューティングデバイスの例を示すブロック図である。 被検者トラッカーの例を示すブロック図である。 手法識別器の例を示すブロック図である。 ロボットユニットを使用して歩行分析を実行する方法例のフローチャートである。 歩行分析用のセンサデータを収集する方法例のフローチャートである。 歩行分析用のセンサデータを収集する方法例のフローチャートである。 歩行分析用のセンサデータを収集する方法例のフローチャートである。 歩行分析用のセンサデータを収集する方法例のフローチャートである。 ロボットユニットを用いて歩行分析用のセンサデータを収集するさらなる方法例のフローチャートである。
本明細書は、ロボットユニットを使用して歩行分析を実行するための技術を開示する。図1は、被検者104に対して歩行分析を実行するロボットユニット102の図を示す。図は、環境100の中を移動するロボットユニット102によって被検者104が観測されている様子を示す、例示的な環境100および経路106の俯瞰図である。いくつかの実装形態では、環境100は、経路106によって示されたように、被検者104が移動することができる様々な部屋、被検者104がそのまわりを移動することができる様々な物体(たとえば、家具、道具、部屋固有のアイテムなど)を含む。経路106は、環境100において被検者104がある期間にわたって移動することができる、説明のための例である。
ロボットユニット102は、被検者104が環境100の中を移動する際に、被検者104を監視するように命令される。ロボットユニット102は、ロボットユニット102が被検者104を監視する際に、環境100の中を移動し、ナビゲートすることができる。いくつかの実装形態では、ロボットユニット102は、被検者104を監視すること、緊急時に医療専門家に警告すること、または、様々な環境において様々な仕事を行う被検者104のデータを取り込むといった、様々なタイプの医療支援を被検者104に提供するようにプログラムされた医療支援ロボットである。医療支援ロボットを使用して、医師は、被検者104が医師の診療所にいるとき、または臨床環境の外部の他の環境において、被検者104を監視することができる(たとえば、ロボットユニット102は、被検者104の家庭または職場の環境において被検者104を監視するようにプログラムされる)。様々な環境やセッティングにおいてロボットユニット102に被検者104を監視させることにより、医師は、取り込まれたデータを使用して、被検者104がそれらの様々な環境において様々な治療を正しく実行していることを確認することができる。
ロボットユニット102は、対象被検者104を監視しながら、センサ204を使用してセンサデータを取り込み、センサデータを使用して歩行データを生成するようにプログラムされる。歩行データは、対象被検者が経路106の定義された部分を移動する際における、対象被検者104の運動特性を記述するデータを含む。歩行データは、様々な時点、および経路106に含まれる様々な位置において対象被検者104を写した画像シーケンスを含んでもよい。
また、歩行データは、様々な時点、および経路106に沿った様々な位置における対象被検者104の関節、胴、脚、腕、他の付属器官などの位置データ、モーションデータ、または軌跡データ、経路106の一部分の長さ、各センサデータポイント(たとえば各画像フレーム)についてのタイムスタンプや位置、対象被検者104に対するセンサの相対位置、対象被検者104が経路106の部分をナビゲートするためにかかった総時間などを含んでもよい。歩行データによって記述されるさらなる例示的な運動特性として、被検者104の動きおよび速度、被検者104の歩幅、被検者104が所定の距離を移動するための時間、被検者104が当該距離を移動するためにかかるステップ数、被検者104の左ステップと右ステップとの間の差、被検者104の姿勢などがある。
対象被検者104の経路は、一般に、歩行分析を実行するのに適した1つまたは複数の部分(区間)を含む。たとえば、図1に描写された経路106は、歩行データを取り込むための歩行基準を満たす区間A、B、およびCを含む。
これらの歩行基準は、例えば、経路106の一部分の長さパラメータ(たとえば、10フィート、10メートル、あるいは、歩行分析に十分なデータを取り込むことが可能な所定の長さなど)、経路106の一部分の真直度公差(たとえば、完全にまっすぐな線からの0〜5%の偏差)、およびセンサ204が必須データを取り込むことを妨害する可能性がある障害物からのクリアランスなどを含んでもよいが、これに限定されない。
場合によっては、2つ以上の区間A、B、Cに対応するデータは、各区間の長さが、個別には完全な歩行分析に十分なほど長くないが、それらの合計長が十分長い場合、連結することができる。
手法に応じて、ロボットユニット102は、「各区間または区間の連結が歩行基準を満たす」とのロボットユニット102の判定に基づいて、区間A、B、Cのうちの1つまたは複数を、動的または自律的に識別することができる。代替または追加として、技師、医師、または対象被検者104などの利害関係者が、区間A、B、Cのうちの1つまたは複数を入力してもよい。
ロボットユニット102は、経路106の区間A、B、Cを監視することが可能なカメラポーズを有するように自分自身を配置することができる。カメラポーズは、ロボットユニット102がセンサデータを取り込むために、様々な区間A、B、Cの各々において、対象被検者104から十分な距離にロボットユニット102を配置するポーズである。より具体的には、各ポーズの位置により、センサ204が経路の開始点から終了点までの経路106の長さに沿った被検者の動きを取り込むことが可能になる。各々の経路106の区間A、B、Cの長さは、それぞれ108a、108b、および108cと標示される。
ロボットユニット102は、様々な手法を使用して、経路106やカメラポーズ108を識別し、被検者104のセンサデータを取り込むようにプログラムされる。実際の手法では、ロボットユニット102は、動き(たとえば歩行)をいつ開始し終了するかを被検者104に指示することができ、被検者104がそれらの指示に従うとき、センサデータを取り込み、処理する。この手法を本明細書では「アクティブ手法」と称する。いくつかの実装形態では、ロボットユニット102は、様々な出力デバイス(オーディオ指示や、ロボットユニット102に内蔵または接続された画面上での指示)を介して信号を供給することにより、経路106に、または経路106に沿ってユーザ104を向けることもで
きる。
本明細書における「パッシブ手法」とは、ロボットユニット102が、被検者104が環境100の中を移動する際に、被検者104を受動的に監視する手法である。
監視プロセスの一部として取り込まれたセンサデータは、それが歩行分析に適切である(たとえば、本明細書で説明された歩行基準を満たす)か否か判定するために分析することができ、適切な場合、歩行データとして処理および供給することができる。パッシブ手法により、ロボットユニット102が、被検者104を妨害せず、また、歩行分析を実施することをユーザに通知することなく、歩行分析を実行することが可能になる。しばしば、妨害または通知をすることで、被検者104が自分の動きをより意識してしまい、自分のパフォーマンス(たとえば、姿勢など)の態様が変わってしまう場合がある。すなわち、パッシブ手法は、被検者104の自然な動きを反映する歩行データを取り込むことができるため、有利である。
本明細書における「ハイブリッド手法」とは、ロボットユニット102が、あらかじめ、センサデータを取り込むための条件が満たされそうなタイミングを識別し、それに応じて、自分自身を事前に配置する手法である。いくつかの実装形態では、ロボットユニット102は、あらかじめ、被検者104の意図する目的地を推定または判断し、次いで、本明細書内の他の場所で説明されるように、その目的地に向かって移動しながら、被検者104のセンサデータを取り込むために自分自身を配置する場所を決定する。
図2は歩行分析システム200を示す。システム200は、任意の数のロボットユニット102を含んでもよい。ロボットユニット102は、信号線222によって表されるように、システム200の他のエンティティとの通信のために、ネットワーク220にワイヤレスに結合する。システム200はさらに、信号線236によって表されるように、ネットワーク220に通信可能に結合する、1つまたは複数のクライアントデバイス232を含む場合がある。いくつかの実装形態では、クライアントデバイス232は、追加および/または代替として、ワイヤレス接続や有線接続などの信号線224を介して、ロボットユニット102に直接結合することができる。被検者104は環境の中を移動する人間であり、被検者104は、線234によって表されるように、入出力デバイスを介してクライアントデバイス232と対話することができる。いくつかの実装形態では、追加および/または代替のユーザ(たとえば、医師、技師など)が、入出力デバイスを介してクライアントデバイス232と対話して、リモートコマンドを供給し、(たとえば、ネットワーク220を介してクライアントデバイス232上で)ロボットユニット102から歩行データを受信することができる。システム200はさらに、信号線230によって表されるように、ネットワーク220に通信可能に結合することができる、計算サーバ201を含んでもよい。
ロボットユニット102は、1つまたは複数のセンサ204と、(208aと標示された)歩行分析器208のインスタンスと、1つまたは複数のアクチュエータ214とを含む。センサ204、歩行分析器208a、およびアクチュエータ214は、通信バス216によって互いに結合する。ロボットユニット102は、オペレーティングシステム、他のソフトウェア、入出力デバイス、アクチュエータコントローラ、ハウジング、ロボット工学においてしばしば使用される他の機械的または電気的構成部品などの、追加の構成またはより少ない構成を含む場合があることを理解されたい。
センサ204は、周辺環境から信号(たとえば、光、電波、音波など)を取り込み、信号からセンサデータを生成および処理するように構成された、1つまたは複数のセンサを含む。たとえば、センサ204は、RGB−Dカメラ、立体カメラ、構造光カメラ/スキャナ、飛行時間カメラ、干渉計、変調イメージャ、レーザー測距器、明視野カメラ、強化
CCDカメラなどのレンジカメラを含む場合があるが、これらに限定されない。また、超音波センサ、カラーカメラ、赤外線カメラなどの他のタイプのセンサが使用される場合があることを理解されたい。いくつかの実装形態では、センサ204は、加速度計、ジャイロスコープ、温度計、気圧計、熱電対、マイクロフォン、または他の従来の検知デバイスなどの、様々なタイプのセンサの組合せを含む場合がある。MicrosoftによるKinect(登録商標)センサ、様々な立体視システムなどは、センサ204が含む場合があるカメラのさらなる非限定的な例である。センサ204は、ロボットユニット102の中に組み込まれるか、またはワイヤレス接続もしくは有線接続を介してロボットユニット102に結合される異種デバイスであってもよい。
様々な実装形態では、センサ204は、本明細書内の他の場所に記載されるように、センサデータ(たとえば、環境内の物体を記述する画像データ、オーディオデータ、深度データ)を生成し、処理用にロボットユニット102や計算サーバ201に送ることができる。
インスタンス208aまたは208bとして図2に表される歩行分析器208は、被検者104のセンサデータを取り込み、分析し、歩行データを作成、記憶、および供給するように動作する。歩行分析器208は、少なくとも図3A〜図6などを参照して、本明細書内の他の場所でより詳細に説明される。
アクチュエータ214は、エネルギーを運動に変換することが可能な機械的デバイスや電気的デバイスを含む。アクチュエータ214は、電気的、空気式、油圧式、磁気的、機械的、磁気的、または上記の組合せであり得る。非限定的で例示的なアクチュエータ214として、電気モータ、サーボ機構、油圧シリンダ、空気アクチュエータ、対応する伝動装置、コネクタ、およびキネマティック構成部品などがある。アクチュエータ214は、ロボットユニット102のアクチュエータ214を制御するためのアクチュエータコントローラを含んでもよい。たとえば、アクチュエータコントローラは、信号(たとえば、運動コマンド、較正コマンドなど)をアクチュエータ214に送って、ロボットユニット102自体またはその付属物および構成部品の方向および速度を含む、ロボットユニット102の動きまたは状態を制御することができる。アクチュエータコントローラは、ハードウェア、ソフトウェア、または上記の組合せから構成される場合がある。たとえば、アクチュエータコントローラは、アクチュエータ214を制御するための標準コンピュータ回路、ファームウェアなどを備えていてもよい。いくつかの実装形態では、アクチュエータコントローラは、図3Aに描写されるプロセッサ302などのプロセッサと一体化される場合があるか、または、プロセッサ302と別個ではあるが、バス216を介してプロセッサ302に結合されてもよい。
ロボットユニット102の構成部品は、バス216を介して通信可能に結合され、そのことは、少なくとも図3Aを参照してさらに詳細に説明される。
計算サーバ201は、本明細書内の他の場所で説明されるように、データを処理、記憶、および通信する能力を有する、コンピュータのハードウェアおよびソフトウェアである。たとえば、計算サーバ201は、1つもしくは複数のハードウェアサーバ、サーバアレイ、記憶装置、システムなどを含んでもよい。いくつかの実装形態では、計算サーバ201は、ホストサーバ環境内で動作する1つまたは複数の仮想サーバを含む。描写されたように、計算サーバ201は、本明細書内の他の場所でさらに詳細に説明される、208bと標示された歩行分析器208のインスタンスを含んでもよい。
図3Aは、例示的なコンピューティングデバイス300のブロック図である。描写されたように、コンピューティングデバイス300は、プロセッサ302、メモリ304、通
信ユニット306、センサ204、歩行分析器208、記憶装置312を含む場合があり、それらは、通信バス216によって通信可能に結合することができる。図3Aに描写されたコンピューティングデバイス300は一例として提供され、本開示の範囲から逸脱することなく、他の形態を取り、(たとえば、ロボットユニット102のアーキテクチャを表す場合)図2に描写されたロボットユニット102の構成部品、コマンドの入力、人間とコンピュータの対話や通知の受信などのための標準入出力デバイス(たとえば、ポインタデバイス、キーボード、ディスプレイ、カメラ、マイクロフォンなど)、任意の他の適切な電気的または機械的構成部品などの、追加のまたはより少ない構成部品を含む場合があることを理解されたい。
プロセッサ302は、様々な入力/出力演算、論理演算、数学演算を行うことで命令を実行することができる。プロセッサ302は、データ信号を処理する様々な既知のコンピューティングアーキテクチャを有してもよい。プロセッサ302は、実体または仮想であり得るし、単一の処理ユニットまたは複数の処理ユニットを含む場合がある。いくつかの実装形態では、プロセッサ302は、電子表示信号を生成し、ディスプレイデバイス(図示せず)に供給し、画像の表示をサポートし、画像を取り込み送信し、様々なタイプの特徴抽出およびサンプリングなどを含む複雑なタスクを実行することが可能である。いくつかの実装形態では、プロセッサ302は、バス216を介してメモリ304に結合して、メモリ304からデータおよび命令にアクセスし、メモリ304にデータを記憶することができる。バス216は、たとえば、メモリ304、センサ204、通信ユニット306、記憶装置312、歩行分析器208などを含む、1つまたは複数の他の構成部品にプロセッサ302を結合することができる。プロセッサ302は単一のデバイスであり得るか、または複数のタイプのデバイスおよび構成を含む場合があることを理解されたい。
メモリ304は、データを記憶し、コンピューティングデバイス300の他の構成部品にデータへのアクセスを提供することができる。いくつかの実装形態では、メモリ304は、プロセッサ302によって実行され得る命令やデータを記憶することができる。たとえば、メモリ304は、歩行分析器208やその構成部品を記憶することができる。メモリ304はまた、たとえば、オペレーティングシステム、ハードウェアドライバ、他のソフトウェアアプリケーション、データベースなどを含む、他の命令およびデータを記憶することが可能である。メモリ304は、プロセッサ302およびコンピューティングデバイス300の他の構成部品との通信のために、バス216に結合する。
メモリ304は、プロセッサ302によって、またはプロセッサ302とともに処理するための、命令、データ、コンピュータプログラム、ソフトウェア、コード、ルーチンなどを、含有、記憶、通信、伝搬、または搬送することができる装置またはデバイスを含む、1つまたは複数の非一時的コンピュータ使用可能(たとえば、読取り可能、書込み可能などの)媒体を含む。いくつかの実装形態では、メモリ304は、揮発性メモリおよび不揮発性メモリのうちの1つまたは複数を含む。たとえば、メモリ304は、ダイナミックランダムアクセスメモリ(DRAM)デバイス、スタティックランダムアクセスメモリ(SRAM)デバイス、ディスクリートメモリデバイス(たとえば、PROM、FPROM、ROM)、ハードディスクドライブ、光ディスクドライブ(CD、DVD、Blu−ray(登録商標)など)のうちの1つまたは複数を含む場合があるが、これに限定されない。メモリ304は単一のデバイスであり得るか、または複数のタイプのデバイスおよび構成を含む場合があることを理解されたい。
通信ユニット306は、信号線222によって表されるように、ネットワーク220やシステム200の他の構成部品との有線接続またはワイヤレス接続用の1つまたは複数のインターフェースデバイスを含む。たとえば、通信ユニット306は、Wi−Fi(登録商標)、Bluetooth(登録商標)、近距離無線通信(NFC)、セルラー通信な
どを使用して信号を送受信するためのワイヤレストランシーバ、CATタイプインターフェース、USBインターフェース、ジオロケーションセンサ(たとえば、GPSトランシーバ)、それらの様々な組合せなどを含む場合があるが、これらに限定されない。通信ユニット306は、バス216を介してコンピューティングデバイス300の他の構成部品に結合する。通信ユニット306は、たとえば、本明細書内の他の場所で説明されるプロトコルを含む、様々な標準通信プロトコルを使用して通信することができる。
バス216は、コンピューティングシステムの構成部品間、またはコンピューティングシステム間でデータを転送するための通信バス、ネットワーク202および/またはその部分を含むネットワークバスシステム、プロセッサメッシュ、それらの組合せを含む場合がある。いくつかの実装形態では、バス216は、業界標準アーキテクチャ(ISA)バス、周辺構成部品相互接続(PCI)バス、ユニバーサルシリアルバス(USB)、または同様の機能を提供するように知られている他の何らかのバスを含む、1つまたは複数のバスを表す場合がある。追加または代替として、コンピューティングデバイス300の様々な構成部品は、バス216と連携して実装されるソフトウェア通信機構を介して、協働および通信することができる。ソフトウェア通信機構は、たとえば、プロセス間通信、ローカル関数もしくはローカルプロシージャの呼出し、リモートプロシージャの呼出し、オブジェクトブローカ(たとえば、CORBA)、ソフトウェアモジュール間の直接ソケット通信(たとえば、TCP/IPソケット)、UDPのブロードキャストおよび受信、HTTP接続などを含み、かつ/または容易にすることができる。さらに、通信のうちのいずれかまたはすべては、セキュア(たとえば、SSH、HTTPSなど)であり得る。
記憶装置312は、データを記憶し、データへのアクセスを提供するための情報ソースである。記憶装置312によって記憶されるデータは、データモデル314に編成することを含む、様々な基準を使用して編成および照会することができる。データモデル314は、歩行データを分析するためのデータおよびアルゴリズムを含む場合があり、たとえば、データモデルは、特定の被検者104の以前の歩行データ、モデルの歩行パターン、環境や物体の認識データなどを含む場合がある。これらのモデルは、あらかじめ決定されるか、または歩行分析器208によって決定もしくはさらに学習される場合がある。データモデル314として記憶装置312によって記憶されるデータのタイプの例には、データテーブル、データベース、または本明細書内の他の場所で説明される他の編成されたデータの集合が含まれ得る。
記憶装置312は、ロボットユニット102に、または、ロボットユニット102に結合されるか、もしくはそれによってアクセス可能な、別のコンピューティングシステムやストレージシステムに含まれてもよい。記憶装置312は、データを記憶するための1つまたは複数の非一時的コンピュータ可読媒体を含む。いくつかの実装形態では、記憶装置312は、メモリ304とともに組み込まれる場合があるか、またはメモリ304とは別個である。いくつかの実装形態では、記憶装置312は、ロボットユニット102上で動作可能なデータベース管理システム(DBMS)に関連するデータを記憶することができる。たとえば、DBMSは、構造化照会言語(SQL)のDBMS、非SQLのDBMS、ファイルシステム、フラットファイル、それらの様々な組合せなどを含んでもよい。場合によっては、DBMSは、行と列から構成される多次元テーブルにデータを記憶し、プログラムに基づいた演算を使用して、データの行を操作、たとえば、挿入、照会、更新、削除することができる。
歩行分析器208は、センサデータを収集し、歩行分析を実行し、歩行データを作成および供給するように実行可能なコンピュータロジックを含む。コンピュータロジックは、当業者なら理解されるように、ソフトウェア、ハードウェア、または上記の組合せにおいて実装することができる。たとえば、歩行分析器208は、本明細書で説明される動作を
実行するように、プロセッサ302をプログラムすることができる。たとえば、歩行分析器208のソフトウェアルーチンは、メモリ304に記憶され、プロセッサ302によって取り出され、実行される場合がある。別の例では、歩行分析器208は、本明細書で説明される動作や機能を実行するように、プロセッサ302によって実装される回路を含む場合がある。回路の非限定的な例として、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、ワイヤリング、標準電子構成部品、ボード、他の適切な回路などが含まれる。
本明細書は、歩行分析器208やその副構成部品を、それらによって遂行される様々な動作を不明瞭にしないように、便宜上主体として(第三人称で)言及する。しかしながら、これらの構成要素は、本明細書に記載される特定の動作を実行するために、プロセッサ302によって実行可能であり、プロセッサ302をプログラムするなどのロジックであることを理解されたい。
図3Aに描写されたように、歩行分析器208は、被検者トラッカー320、手法識別器322、位置計算器324、歩行データプロセッサ326、ガイダンスプロバイダ328などの、様々な副構成部品を含む場合があるが、これらの構成部品のうちの1つまたは複数は、本開示の範囲から逸脱することなく、様々な形態を取る場合があり、一緒に統合され、またはさらなる構成部品に分割される場合があることを理解されたい。図3Aに描写された歩行分析器208は例として提供され、歩行分析器208は、本開示の範囲から逸脱することなく、他の形態を取り、追加のまたはより少ない構成部品を含む場合があることを理解されたい。たとえば、いくつかの構成では、歩行分析器208またはその様々な態様が、異なる位置にある異なるデバイス上にネットワーク220を介して分散される場合があるか、または歩行分析器208のすべての機能が、単一のコンピューティングデバイスまたは関連デバイスのグループによって動作可能な常駐コードであり得る。他の構成も可能であり、考えられる。これらの構成部品320、322、324、326、および328の各々は、記憶装置312やメモリ304に結合して、手法データ、センサデータ、経路データ、歩行データなどのデータを記憶し、取り出すことができる。
被検者トラッカー320は、被検者104が環境の中を移動する際に、被検者104を追跡するように動作可能なコンピュータロジックを含む。いくつかの実装形態では、被検者104を追跡することは、本明細書内の他の場所で説明されるように、センサ204からの景観認識や画像認識を実行することと、被検者104を追うようにロボットユニット102をナビゲートする命令を供給することとを含む場合がある。さらなる実装形態では、被検者104を追跡することは、本明細書内の他の場所で説明されるように、被検者104が移動する可能性がある環境内の経路を特定することを含む。一例では、被検者トラッカー320は、被検者が廊下を移動して部屋に入るとき、被検者104を追うようにロボットユニット102のアクチュエータ214に命令を送ることができる。さらなる例では、被検者トラッカー320は、被検者104が移動する可能性がある廊下が将来の経路を特定するための基準を満たすと判断することができる。
被検者トラッカー320は、手法識別器322、位置計算器324、歩行データプロセッサ326に結合して、潜在的な経路に関する情報を供給し、ロボットユニット102を移動させるべき位置を受信することができる。例として、被検者トラッカー320は、プロシージャ呼出しを行うこと、オブジェクト指向の方法を呼び出すこと、または別の適切なプロセスを起動することによって、実行することができる。たとえば、歩行分析器208のメインプログラム、手法識別器322、歩行データプロセッサ326、外部もしくは内部のAPI、または別の構成部品は、被検者トラッカー320をインスタンス化することができるが、他の実行パスも適用可能であり、考えられる。
いくつかの実装形態では、被検者トラッカー320は、バス216を介して、プロセッサ302、メモリ304、および例示的なコンピューティングデバイス300の他の構成部品との協働および通信に適合される。被検者トラッカー320は、被検者104を監視している間に受信されたデータおよびコマンドを、メモリ304や記憶装置312に記憶させる。被検者トラッカー320は、出力デバイスに結合して、被検者104や環境内の他の物体に情報を出力する。被検者トラッカー320は、入力デバイスに結合して、被検者104や環境内の他の物体から情報を受信する。被検者トラッカー320は、本明細書内の他の場所で説明されるように、アクチュエータ214を制御するためのアクチュエータコントローラに結合する。被検者トラッカー320は、少なくとも図3Bを参照して記載されるように、ルート計算器350を含んでもよい。
手法識別器322は、歩行分析用のセンサデータを収集するために、アクティブ手法を使用するか、パッシブ手法を使用するか、ハイブリッド手法を使用するかを判定するように動作可能なコンピュータロジックを含む。いくつかの実装形態では、手法を判定するステップは、本明細書内の他の場所で説明されるように、センサ204から受信されたデータを分析するステップと、景観認識や画像認識を実行して、特定の手法のための条件が満たされるかどうかを判定するステップとを含む場合がある。一例では、手法識別器322は、「センサデータを取り込むための経路である」とあらかじめ決定されている廊下を被検者104が移動していることを示すセンサデータをセンサ204から受信し、手法識別器322は、この条件を使用して「ハイブリッド手法を使用する」ことを選択できる。手法識別器322は、歩行データプロセッサ326に結合して、歩行データプロセッサ326がセンサデータを取り込むためにどの手法を使用するべきかに関する手法データを供給することができる。手法データは、どの条件が満たされた場合に、どの手法を使用するべきかを識別するデータを含む。例として、手法識別器322は、プロシージャ呼出しを行うこと、オブジェクト指向の方法を呼び出すこと、または別の適切なプロセスを起動することによって、実行することができる。たとえば、歩行分析器208のメインプログラム、歩行データプロセッサ326、外部もしくは内部のAPI、または別の構成部品は、手法識別器322をインスタンス化することができるが、他の実行パスも適用可能であり、考えられる。
いくつかの実装形態では、手法識別器322は、バス216を介して、プロセッサ302、メモリ304、および例示的なコンピューティングデバイス300の他の構成部品との協働および通信に適合される。手法識別器322は、どの手法を使用するべきかの判定に関する受信されたデータおよびコマンドを、メモリ304や記憶装置312に記憶させる。手法識別器322は、出力デバイスに結合して、被検者104や環境内の他の物体に情報を出力する。手法識別器322は、入力デバイスに結合して、被検者104や環境内の他の物体から情報を受信する。手法識別器322は、少なくとも図3Cを参照して記載されるように、1つまたは複数の特定の手法識別器を含む場合がある。
位置計算器324は、ロボットユニット102やセンサ204によってセンサデータを取得する位置を決定するように動作可能なコンピュータロジックを含む。いくつかの実装形態では、センサデータを取り込む位置を決定するステップは、本明細書内の他の場所で説明されるように、センサ204から受信されたデータを分析するステップと、景観認識や画像認識を実行して、センサデータを取り込むのに適した位置を決定するステップとを含む。一例では、位置計算器324は、被検者トラッカー320から経路情報を受信し、経路の適切なビューを有するロボットユニット102の位置を決定することができる。位置計算器324は、被検者トラッカー320に結合して、経路情報を受信することができる。位置計算器324は、歩行データプロセッサ326に結合して、ロボットユニット102やセンサ204の位置に関する情報を供給することができ、歩行データプロセッサ326は、その情報を使用してセンサデータを取り込むことができる。例として、位置計算
器324は、プロシージャ呼出しを行うこと、オブジェクト指向の方法を呼び出すこと、または別の適切なプロセスを起動することによって、実行することができる。たとえば、歩行分析器208のメインプログラム、歩行データプロセッサ326、外部もしくは内部のAPI、または別の構成部品は、位置計算器324をインスタンス化することができるが、他の実行パスも適用可能であり、考えられる。
なお、以下の説明において、「経路のビューを有する」位置とは、当該経路を視認ないしセンシングできる位置であることを意味する。
いくつかの実装形態では、位置計算器324は、センサデータが取り込まれ、処理される際に、ロボットユニット102を自動的に再配置するフィードバックループを実行する。たとえば、歩行データプロセッサ326は、被検者104の一部分(たとえば、頭、足など)がセンサ204のビュー内に無い(たとえば、フレーム内に無い)ことを表すデータを取り込む場合がある。このデータを受信することに応答して、位置計算器324は、歩行分析用のセンサデータの取込みを改善するために、信号をアクチュエータ214に対応的に送り、センサ204やロボットユニット102の位置を移動させる。
いくつかの実装形態では、位置計算器324は、バス216を介して、プロセッサ302、メモリ304、および例示的なコンピューティングデバイス300の他の構成部品との協働および通信に適合される。位置計算器324は、ロボットユニット102やセンサ204の位置に関する受信されたデータおよびコマンドを、メモリ304や記憶装置312に記憶させる。位置計算器324は、出力デバイスに結合して、被検者104や環境内の他の物体に情報を出力する。位置計算器324は、入力デバイスに結合して、被検者104や環境内の他の物体から情報を受信する。位置計算器324は、本明細書内の他の場所で説明されるように、センサ204の位置やロボットユニット102の位置を制御するために、アクチュエータ214を制御するためのアクチュエータコントローラに結合する。
歩行データプロセッサ326は、センサデータを収集し、歩行データを作成するように動作可能なコンピュータロジックを含む。いくつかの実装形態では、センサデータを取り込むステップは、本明細書内の他の場所で説明されるように、歩行データプロセッサ326が歩行データを作成するための、被検者トラッカー320からの経路情報、位置計算器324からの位置情報、および手法識別器322からの手法を受信するステップを含む場合がある。一例では、歩行データプロセッサ326は、被検者が廊下を移動している経路情報を被検者トラッカー320から受信し、経路のビューを有する廊下の壁に沿ってロボットユニット102が配置されたことの位置情報を位置計算器324から受信することができる。次いで、歩行データプロセッサ326は、手法識別器322から受信されたハイブリッド手法を使用して、被検者104が廊下を移動する際に、被検者104を取り込む(たとえば、歩行データとして使用するための)センサデータの収集を開始することができる。歩行データプロセッサ326は、被検者トラッカー320、手法識別器322、位置計算器324に結合することができる。例として、歩行データプロセッサ326は、プロシージャ呼出しを行うこと、オブジェクト指向の方法を呼び出すこと、または別の適切なプロセスを起動することによって、実行することができる。たとえば、歩行分析器208のメインプログラム、手法識別器322、外部もしくは内部のAPI、または別の構成部品は、歩行データプロセッサ326をインスタンス化することができるが、他の実行パスも適用可能であり、考えられる。
いくつかの実装形態では、歩行データプロセッサ326は、バス216を介して、プロセッサ302、メモリ304、および例示的なコンピューティングデバイス300の他の構成部品との協働および通信に適合される。歩行データプロセッサ326は、収集された歩行データに関するデータおよびコマンドを、メモリ304や記憶装置312に記憶させ
る。歩行データプロセッサ326は、出力デバイスに結合して、被検者104や環境内の他の物体に情報を出力する。歩行データプロセッサ326は、入力デバイスに結合して、被検者104や環境内の他の物体から情報を受信する。
ガイダンスプロバイダ328は、経路に沿ってどこに移動するべきかのガイダンスを被検者104に提供するように動作可能なコンピュータロジックを含む。いくつかの実装形態では、被検者104にガイダンスを提供するステップは、本明細書内の他の場所で説明されるように、経路上にライトやレーザーなどを投影する出力デバイスを使用して経路を強調するステップと、スクリーン上にルートを表示するステップと、ユーザにオーディオ指示を発するステップなどを含む場合がある。一例では、ガイダンスプロバイダ328は、被検者トラッカー320からの経路情報、および位置計算器324からの位置情報を受信するために結合し、経路情報および位置情報を使用して、データ収集期間中に移動ガイダンスを提供する。例として、ガイダンスプロバイダ328は、プロシージャ呼出しを行うこと、オブジェクト指向の方法を呼び出すこと、または別の適切なプロセスを起動することによって、実行することができる。たとえば、歩行分析器208のメインプログラム、歩行データプロセッサ326、外部もしくは内部のAPI、または別の構成部品は、ガイダンスプロバイダ328をインスタンス化することができるが、他の実行パスも適用可能であり、考えられる。
いくつかの実装形態では、ガイダンスプロバイダ328は、バス216を介して、プロセッサ302、メモリ304、および例示的なコンピューティングデバイス300の他の構成部品との協働および通信に適合される。ガイダンスプロバイダ328は、ガイダンスを提供することに関する受信されたデータおよびコマンドを、メモリ304や記憶装置312に記憶させる。ガイダンスプロバイダ328は、出力デバイスに結合して、被検者104や環境内の他の物体に情報を出力する。ガイダンスプロバイダ328は、入力デバイスに結合して、被検者104や環境内の他の物体から情報を受信する。ガイダンスプロバイダ328は、本明細書内の他の場所で説明されるように、アクチュエータ214を制御するためのアクチュエータコントローラに結合する。
図3Bは、例示的な被検者トラッカー320のブロック図である。被検者トラッカー320は、ルート計算器350を含む。ルート計算器350は、センサ204によって供給されたデータを使用して、被検者104の潜在的な将来のルートを特定する。次いで、潜在的な将来のルートは、センサ204がビュー内に入るように、ロボットユニット102をどこに配置したらよいかを決定するために、位置計算器324によって使用される。ルート計算器350は、プロセッサ302、メモリ304、およびコンピューティングデバイス300の他の構成部品との協働および通信に適合する。ルート計算器350は、歩行分析器208の他の構成部品を参照して上記で説明された方式と同様の方式で実行することができる。ルート計算器350は、記憶装置312やメモリ304に結合して、手法データ、センサデータ、経路データなどのデータを記憶し、取り出す。
図3Cは、例示的な手法識別器322のブロック図である。手法識別器322は、アクティブ手法識別器352、パッシブ手法識別器354、ハイブリッド手法識別器356のうちの1つまたは複数を含む。手法識別器352、354、356は、互いに、歩行分析器208の他の構成部品、プロセッサ302、メモリ304、およびコンピューティングデバイス300の他の構成部品との協働および通信に適合することができる。手法識別器352、354、356は、歩行分析器208の他の構成部品を参照して上記で説明された方式と同様の方式で実行することができる。
アクティブ手法識別器352は、センサ204によって供給されたセンサデータや被検者トラッカー320によって供給された経路情報を使用して、センサデータを収集するた
めにアクティブ手法が使用可能であることを判断する。
パッシブ手法識別器354は、センサ204によって供給されたセンサデータや被検者トラッカー320によって供給された経路情報を使用して、センサデータを収集するためにパッシブ手法が使用可能であることを判断する。
ハイブリッド手法識別器356は、センサ204によって供給されたセンサデータや被検者トラッカー320によって供給された経路情報を使用して、センサデータを収集するためにハイブリッド手法が使用可能であることを判断する。
これらの構成部品352、354、356の各々は、記憶装置312やメモリ304に結合して、手法データ、経路データ、センサデータ、歩行データなどのデータを記憶し、取り出すことができる。これらの構成部品は、少なくとも図4および図5A〜図5Dを参照して下記でより詳細に記載される。
図4は、ロボットユニット102を使用して歩行分析を実行するための例示的な方法400のフローチャートである。
ステップ402において、被検者トラッカー320が、被検者104の歩行を監視する命令を受信する。命令は、(たとえば、トリガリングイベントに応答して)自律的に作成および受信される場合があり、利害関係者による入力(たとえば、被検者104または別のユーザによる音声コマンド)に応答して受信される場合などがある。たとえば、命令は、ロボットユニット102がセンサ204を使用して被検者104に関する情報を取り込むための医師からの入力に応答して受信される場合がある。入力の例には、センサ204によって取り込まれる入力(たとえば、オーディオ信号、ポインタデバイスやタッチスクリーン入力、キーボードストローク、ネットワーク220を介してクライアントデバイス232から受信された入力など)が含まれ得る。自律的なトリガの例には、タイマ、満たされる特定の基準(たとえば、廊下を歩くことなど)などが含まれる。
ステップ404において、命令を受信することに応答して、歩行データプロセッサ326が、被検者104の監視を初期化する。被検者の監視を初期化するステップは、センサ204のうちの1つまたは複数を使用して被検者104を追跡するステップを含む場合がある。いくつかの実装形態では、方法400は、被検者104の初期位置を受信するように被検者トラッカー320をインスタンス化し、ロボットユニット102の初期位置を受信するように位置計算器324をインスタンス化する。
いくつかの実装形態では、歩行データプロセッサ326は、追跡停止コマンドが発行されるまで、または他の条件などに基づいて、絶えず特定の継続時間の間、それぞれ、被検者104やロボットユニット102の位置を監視し続けるように、被検者トラッカー320や位置計算器324に通知することができる。
例として、いくつかの実装形態では、位置計算器324は、環境の中を移動する被検者104を監視している被検者トラッカー320から、位置計算器324に、「被検者104をセンサ204のビュー内に捉え続けるようにロボットユニット102を移動させるための信号を生成し、アクチュエータ214に対して送信する」命令を行う信号を受信することができる。
たとえば、被検者トラッカー320によって受信される監視命令は、ある時間期間にわたって家庭環境の中を動き回っている被検者104の画像やビデオを取り込むロボットユニット102向けの命令である。
ステップ406において、手法識別器322は、センサデータを取り込むための監視手法を決定する。いくつかの実装形態では、手法識別器322は、被検者104を監視するために使用されるべき監視手法を識別する、被検者104の初期位置およびロボットユニット102の初期位置を含む信号を、歩行データプロセッサ326から受信する。いくつかの実装形態では、手法識別器322は、環境内の被検者104の位置に関する位置情報
を被検者トラッカー320から受信し、手法識別器322は、位置データを使用して適切な監視手法を識別する。いくつかの実装形態では、手法識別器322は、ロボットユニット102の位置に関する位置情報を位置計算器324から受信し、位置データを使用して適切な監視手法を識別する。いくつかの実装形態では、監視手法は、適切な経路部分を特定するステップと、ロボットの位置を決定するステップと、被検者104が経路部分に沿って移動する際にセンサデータを取り込み処理するステップなどの動作を含む。
いくつかの実装形態では、手法識別器322は、環境、被検者104、および位置のうちの1つまたは複数の特性に基づいて、複数の利用可能な監視方法から選択する。たとえば、手法識別器322は、あらかじめ決定された条件を満たす、センサ204から受信されたセンサデータに基づいて、様々な監視手法から選択することができる。例示的な監視手法には、被検者104に明示的なガイダンスを提供して歩行データを作成するアクティブ手法、ユーザを受動的に監視し、特定の条件が満たされた場合に歩行データを作成するパッシブ手法、およびユーザの動き予測に基づいて歩行データを作成するハイブリッド手法が含まれる。さらなる例として、「潜在的な経路がアクティブ手法向けの条件を満たす」との情報を手法識別器322が被検者トラッカー320から受信した場合、手法識別器322は、アクティブ手法を使用する旨の情報を歩行データプロセッサ326に供給する。
ステップ408において、歩行データプロセッサ326は監視手法を実行する。監視手法を実行するステップは、センサ204を使用してセンサデータを収集するステップと、センサデータに基づいて歩行データを作成するステップとを含む場合がある。たとえば、所与の監視手法の場合、歩行データプロセッサ326は、センサ204を使用してセンサデータを収集するために、その手法を含む動作を実行することができる。いくつかの実装形態では、センサデータは、被検者104が特定の距離の間経路に沿って移動する際の被検者104の画像やビデオを含んでもよい。具体的には、センサデータは、被検者104の体の動きに関する特定の情報(たとえば、ストライド、ステップ、特定の距離を移動する時間、被検者104の体の中の様々な関節における動きの角度など)を取り込むことができる。ロボットユニット102のセンサ204を配置するための動作パラメータは、ステップ406に記載された監視手法において具現化することができる。たとえば、歩行データプロセッサ326は、ステップ406において決定された監視手法を使用して、センサデータを収集することができる。
センサデータを収集するステップは、例えば、被検者104が移動する可能性がある廊下の特定された経路に向い合った、廊下の片側にロボットユニット102を配置するステップと、被検者104が廊下を移動する際に、センサ204を使用して被検者104の動きを取り込むステップとを含む場合がある。次いで、歩行データプロセッサ326は、歩行分析に適したデータを含むセンサデータの部分を識別し、それらの識別された部分に基づいて歩行データを作成することができる。いくつかの実装形態では、歩行データプロセッサ326はさらに、様々な標準アルゴリズムを使用して歩行データを分析し、出力結果を出力歩行データに組み込むことができる。たとえば、歩行データプロセッサ326は、歩行データをデータモデル314と比較することにより、歩行データを分析することができる。データモデル314は、被検者104の以前に取り込まれた歩行データ、または様々な個人の歩行パターンのモデルを含む場合がある。比較は、StoneおよびSkubicによって使用されたアルゴリズムなどの標準自動比較アルゴリズムを使用して実行することができるが、他の適切なアルゴリズムも適用可能である。
ステップ410において、歩行データプロセッサ326は、歩行データプロセッサ326によって作成された歩行データを別の構成部品に供給する。いくつかの実装形態では、歩行データは、ネットワーク220を介してデータを送信することにより検討用に供給さ
れ、クライアントデバイス232またはネットワーク220に接続された別の構成部品に供給される。いくつかの実装形態では、歩行データは、クライアントデバイス232のディスプレイ上、ロボットユニット102のディスプレイ上、または別の手段によって被検者104に表示される。さらなる実装形態では、歩行データは、ネットワーク220を介して利害関係者(たとえば、被検者104、医師(たとえば、医者、看護師、もしくは別の介護者)、技師、または別の適切な個人)に提供される。場合によっては、そのデータは、歩行分析を実行するために、利害関係者によって手動で検討される場合がある。
歩行分析器208は、様々な方法を使用して歩行データを自動的に分析することができる。いくつかの実装形態では、歩行分析器208は、同等の位置を有する同等の経路環境内で取り込まれた以前取り込まれた歩行データと、グラフィカルユーザインターフェースまたは他の定義された媒体内で並列に歩行データを並べることができる。いくつかの実装形態では、歩行データは、基準系として同等の位置を使用して、拡張現実システム内で並列に比較することができる。ベースラインからのデータ内の変化は、医師などの利害関係者によってアクセスされるインターフェースにおいて、図示または強調することができる。さらなる実装形態では、ステップ408において、またはデータのプロビジョニングの後に実行される歩行分析の一部として、コンピュータアルゴリズムは、ベースラインからの著しい偏差の結果として警告を作成し、自律的な検出を可能にすることができる。分析し歩行分析結果を表示するための他の方法も可能であり、考えられる。
図5A〜図5Dは、監視手法を決定する例示的な方法500のフローチャートである。いくつかの実装形態では、方法500における動作は、図4のステップ406の下で実行可能な様々な動作を表す。図5Aにおいて、手法識別器322は、歩行データプロセッサ326がセンサデータを収集し、歩行データに処理するための手法を決定する。いくつかの実装形態では、手法識別器322は、被検者トラッカー320から初期位置を受信し、または位置計算器324から初期位置を受信する。
ステップ502において、アクティブ手法識別器352が、アクティブ監視手法条件が満たされたかどうかを判定する。アクティブ監視手法条件は、ロボットユニット102がアクティブ監視手法によって歩行データを取り込むために、アクティブ手法識別器352によって検出または特定された1つまたは複数の条件を含む場合がある。
いくつかの実装形態では、アクティブ手法識別器352は、アクティブ監視手法条件が満たされたかどうかの判定を自動的に開始する。さらなる実装形態では、アクティブ手法識別器352は、アクティブ監視手法条件が満たされたかどうかを判定するために、アクティブ手法識別器352に向けた外部入力を待ってもよい。アクティブ監視手法条件は、経路の適切な部分をあらかじめ自動的に識別するステップと、経路部分が適切であると動的に検出するステップと、利害関係者(たとえば、被検者、技師、医師など)から適切な経路に関する情報を受信するステップと、被検者104が指示を受信することが可能であることを識別するステップと、アクティブ監視手法を使用するコマンド(たとえば、オーディオコマンド、クライアントデバイス232上のコマンド入力など)を識別するステップと、を含む場合がある。
ステップ504において、歩行データプロセッサ326は、アクティブ監視手法条件が満たされたと判定することに応答して、アクティブ監視手法を使用することができる。アクティブ監視手法条件は、手法条件のしきい値量が識別されたときに満たされ、しきい値は、センサデータを取り込むために使用され得る手法条件の最小量として決定することができる。アクティブ監視手法の一例が図5Bを参照して記載される。
ステップ506において、パッシブ手法識別器354が、パッシブ監視手法条件が満たされたかどうかを判定する。パッシブ監視手法条件は、ロボットユニット102がパッシブ監視手法によってセンサデータを取り込むために、パッシブ手法識別器354によって
検出または特定された1つまたは複数の条件を含む場合がある。パッシブ監視手法条件は、経路部分およびロボットユニットが経路部分をセンシングするための位置を含む、センサデータを取り込むのに適した環境内の条件を識別するステップを含む場合がある。たとえば、パッシブ監視手法条件は、被検者104が比較的まっすぐ移動するために適切な距離である環境内の経路部分、およびロボットユニット102に経路のビューを提供する廊下の反対側に沿った位置を識別するステップを含む場合がある。いくつかの実装形態では、パッシブ監視手法条件は、上記で説明された歩行基準を備える。
いくつかの実装形態では、パッシブ手法識別器354は、パッシブ監視手法条件が満たされたかどうかの判定を自動的に開始する。さらなる実装形態では、パッシブ手法識別器354は、パッシブ監視手法条件が満たされたかどうかを判定するために、パッシブ手法識別器354に向けた外部入力を待ってもよい。
パッシブ監視手法条件は、その位置において経路のビューを有するセンサ204によって取り込まれた1組のセンサデータを分析するステップを含む。分析された1組のセンサデータは、上記で説明されたように、それらが歩行分析を実行するのに適しているかどうかを判定するために歩行基準と比較される。いくつかの実施形態では、様々な適切な経路部分を利用するデータモデル314は、記憶装置312に記憶することができ、パッシブ手法識別器354は、分析された1組のセンサデータをデータモデル314と比較して一致を判定することができ、一致に基づいて、1組のセンサデータによって表された経路部分が歩行分析に適していると判断することができる。
ステップ508において、歩行データプロセッサ326は、パッシブ監視手法条件が満たされたと判定することに応答して、パッシブ監視手法を使用することができる。パッシブ監視手法条件は、パッシブ監視手法条件のしきい値量が識別されたときに満たされ、しきい値は、センサデータを取り込むために使用され得る手法条件の最小量として決定することができる。パッシブ監視手法の一例が図5Cを参照して記載される。
ステップ510において、ハイブリッド手法識別器356が、ハイブリッド監視手法条件が満たされたかどうかを判定する。ハイブリッド監視手法条件は、ロボットユニット102がハイブリッド監視手法によってセンサデータを取り込むために、ハイブリッド手法識別器356によって検出または特定された1つまたは複数の条件を含む場合がある。
ハイブリッド監視手法条件は、ルート計算器350を使用して被検者104が移動する可能性がある潜在的な経路を識別するステップと、ロボットユニット102やセンサ204が潜在的な経路に沿ってセンサデータを取り込むための潜在的な位置を潜在的な経路が含むかどうかを判定するステップと、潜在的な位置に沿って事前配置するロボットユニット102の能力を識別するステップと、被検者104が特定の潜在的な経路に沿って移動する尤度を計算するステップとを含む場合がある。
いくつかの実装形態では、ハイブリッド手法識別器356は、ハイブリッド監視手法条件が満たされたかどうかの判定を自動的に開始することができる。さらなる実装形態では、ハイブリッド手法識別器356は、ハイブリッド監視条件が満たされたか否かを判定するために、ハイブリッド手法識別器356に向けた外部入力を待ってもよい。ステップ512において、歩行データプロセッサ326は、ハイブリッド監視手法条件が満たされたと判定することに応答して、ハイブリッド監視手法を使用することができる。ハイブリッド監視手法条件は、ハイブリッド監視手法条件のしきい値量が識別されたときに満たされ、しきい値は、センサデータを取り込むために使用され得る手法条件の最小量として決定することができる。
いくつかの実装形態では、手法識別器322は、あらゆるインスタンスにおいて特定の手法を選択するように事前プログラムすることができるが、さらなる実装形態では、手法識別器322は、手法のうちの1つまたは複数が多種多様の環境および状況にわたって歩行分析により適合可能なセンサデータ集合を供給するために、手法条件が満たされるかどうかを判定することができる。ハイブリッド監視手法の一例が図5Dを参照して記載される。
図5Bを参照すると、アクティブ監視手法によってセンサデータを収集するための方法513のブロック図が描写されている。いくつかの実装形態では、方法513における動作は、図4のステップ408の下で実行可能な様々な動作を表すことができる。
ステップ514において、ガイダンスプロバイダ328は、歩行分析用のセンサデータが取り込まれる旨の通知を被検者104に提供する。当該通知は、出力デバイスによって提供され、センサデータが取り込まれることを被検者104に通知する可聴メッセージ、ディスプレイスクリーン上のメッセージ、トーンまたは他の可聴サウンドなどのうちの1つまたは複数を含んでもよい。いくつかの実装形態では、オンスクリーンメッセージ、クライアントデバイス232上の出力デバイスを介した可聴警告などの通知が、クライアントデバイス232に提供される。さらなる実装形態では、通知は、あらかじめ指定された経路に沿わせるように被検者104に提供される。たとえば、ガイダンスプロバイダ328は、歩行監視が直ちに始まることを被検者104に通知するメッセージ「歩行テストの時間です」を、出力デバイスを使用して提供するように、アクティブ監視手法を使用して事前プログラムすることができる。もちろん、多数の他の変形形態および代替形態も可能であることを理解されたい。
いくつかの実装形態では、歩行データプロセッサ326は、アクティブ監視手法を使用してセンサデータの収集を実行するためのパラメータを用いて、方法に対するプロシージャ呼出しを実行することができる。方法はメモリ304に記憶され、実行のために歩行データプロセッサ326やコンピューティングデバイス300の他の構成部品によってアクセスされる。さらなる実装形態では、歩行データプロセッサ326は、手法識別器322や記憶装置312から(たとえば、データモデル314によって具現化されるような)アクティブ監視手法のための様々な動作を記述するデータを受信し、歩行データプロセッサ326がそれらの動作を実行する。
ステップ516において、被検者トラッカー320は、被検者104が移動するための経路およびセンサデータを取り込むための位置を識別する。いくつかの実装形態では、歩行データプロセッサ326は、ルート計算器350から自律的に算出された経路を受信する。ルート計算器350は、標準画像処理技法を使用して、センサ204によって取り込まれたデータ内の経路を識別する。ルート計算器350は、被検者104がまっすぐ特定の距離(たとえば、一例では10フィート、または歩行分析に使用される可能性がある任意の距離)を移動する可能性がある環境の一部分を識別することによって経路を識別する。さらなる実装形態では、被検者トラッカー320は、あらかじめ定義された経路部分(すべて、一部など)を識別することができる。あらかじめ定義された経路は、被検者104が、被検者104、医師、技師などによって手動で決定されたようにまっすぐに歩くことを可能にする環境の一部分であり得る。
歩行データプロセッサ326は、経路に沿って移動する被検者104を取り込むためにセンサ204が配置され得る位置を、位置計算器324から受信することができる。その位置は、センサ204の能力に基づいて、経路のはっきりしたビューを含む場合がある。たとえば、当該経路は廊下の一部分であってもよいし、当該位置は、カメラが経路に沿って移動する被検者104の画像データを取り込むことが可能な、廊下の反対側に沿ったス
ポットであってもよい。いくつかの実装形態では、センサ204を移動させずに、または変更せずに、センサ204がその位置から経路を見ることができる。さらなる実装形態では、複数の位置や角度を識別することができ、センサ204は、経路に沿って移動する被検者104を捉えるために複数の位置や角度に移動することができる。
ステップ518において、位置計算器324が、識別された位置にセンサを移動させる。いくつかの実装形態では、位置計算器324は、ロボットユニット102を当該位置に移動させるように、ロボットユニット102のアクチュエータ214に信号形態のコマンドを供給する。たとえば、位置計算器324は、ロボットユニット102を廊下の中央に移動させ、廊下の反対側を見るようにセンサ204を配置するようなコマンドをアクチュエータ214に供給することができる。
ステップ519において、いくつかの実装形態では、ガイダンスプロバイダ328がガイダンスインジケータを提供する。ガイダンスインジケータは、センサデータを取り込むために被検者104が経路に沿ってどこに移動すればよいかについての、被検者104に対するインジケータである。たとえば、ガイダンスインジケータは、レーザーを用いたフロア上の線、振動ベルトを介した信号、適切な移動先を示す光や音声であり得る。
ステップ520において、ガイダンスプロバイダ328は、経路に沿った移動を開始するように被検者104に通知する。開始する通知は、出力デバイスによって提供され、センサデータが取り込まれることを被検者104に通知する可聴メッセージ、ディスプレイスクリーン上のメッセージ、トーンまたは他の可聴サウンドなどのうちの1つまたは複数を含む場合がある。たとえば、ガイダンスプロバイダ328は、経路に沿った移動を開始するように被検者104に通知するメッセージ「前方に10フィート歩いて下さい」を、出力デバイスを使用して提供するように、アクティブ監視手法を使用して事前プログラムすることができる。
ステップ522において、歩行データプロセッサ326は、経路に沿って移動する被検者104のセンサデータを取り込み、センサデータに基づいて歩行データを作成する。センサデータは、センサ204によって取り込むことができ、経路に沿って移動する被検者104の画像、ビデオ、オーディオ、深度画像などのうちの1つまたは複数を含む場合がある。いくつかの実装形態では、歩行データプロセッサ326は、被検者104が習慣的な速度で移動を開始した場合にセンサデータを取り込むように構成される場合がある。たとえば、ガイダンスプロバイダ328は、歩行データプロセッサ326がセンサデータを取り込む前に、初期期間(たとえば、ある時間期間、2メートルなどの距離など)の間経路に沿って移動することを被検者104に行わせることができる。
いくつかの実装形態では、歩行データプロセッサ326は、ステップ524を参照して記載されるように、ガイダンスプロバイダ328に命令して、歩行分析用のセンサデータの収集が完了したことを被検者104に知らせる前にセンサデータの取込みを完了する(たとえば、被検者104が減速する前に経路の終端を通過させることを可能にする)。
歩行データプロセッサ326は、被検者104が経路に沿って移動する際、モーション異常(例えばセンサの傾きなどに起因する異常)を補正するなどの、さらなる分析のために、センサ204の位置および角度、ならびにセンサ204と被検者104との間の距離についての情報を取り込むように構成することができる。歩行データプロセッサ326は、様々なタイプのセンサデータを取り込むように構成することができ、たとえば、歩行データプロセッサ326は、被検者104が様々な方法(たとえば、ウォーキング、ジョギング、ランニング、スキップ、ジャンプなど)で移動するとき、被検者104のセンサデータを取り込むことができる。場合によっては、歩行データプロセッサ326は、習慣的
歩行速度(HGS)、快適歩行速度(CGS)、高速歩行速度(FGS)、アップアンドゴー(TUG)などの、様々な臨床試験のセンサデータを取り込むことができる。次いで、歩行データプロセッサ326は、センサデータに基づいて歩行データを作成する。たとえば、歩行データは、パッシブ監視手法条件が満たされたセンサデータの一部分を特定することによって作成することができるが、歩行データやセンサデータを組み込むこともできる。
ステップ524において、ガイダンスプロバイダ328は、データ収集の完了に応答して、経路に沿った移動を終了するように被検者104に通知する。データ収集の完了は、被検者104が経路部分の終点に到達したこと、被検者104が許容可能なしきい値を超えて経路部分からはずれたことなどを、被検者トラッカー320が通知することによって判断することができる。さらに、データ収集の完了は、十分なセンサデータが所与の経路部分の間に処理されたことを歩行データプロセッサ326が判断することによって判断することができるか、または収集を停止するべきとの入力デバイスを介した利害関係者からの入力によって判断することができる。完了を判断するための他の変形形態も可能であり、考えられる。
移動を停止する被検者104への通知は、出力デバイスによって提供され、センサデータの取り込みが停止することを被検者104に通知する可聴メッセージ、ディスプレイスクリーン上のメッセージ、トーンまたは他の可聴サウンドなどのうちの1つまたは複数を含む場合がある。たとえば、ガイダンスプロバイダ328は、センサ204によるセンサデータの取り込みが終了することを被検者104に通知するメッセージ「歩行分析完了」を、出力デバイスを使用して提供するように、アクティブ監視手法を使用して事前プログラムすることができるが、多数の他の代替形態および変形形態も可能であり、考えられることを理解されたい。
図5Cを参照すると、パッシブ監視手法を使用してセンサデータを収集する方法527のブロック図が描写されている。いくつかの実装形態では、方法527における動作は、図4のステップ408の下で実行可能な様々な動作を表すことができる。
ステップ528において、歩行データプロセッサ326は、センサ204を使用して歩行分析用のセンサデータを取り込む。いくつかの実装形態では、歩行データプロセッサ326は、パッシブ監視手法を使用してセンサデータの収集を実行するためのパラメータを用いて、方法に対するプロシージャ呼出しを実行することができる。方法はメモリ304に記憶され、実行のために歩行データプロセッサ326やコンピューティングデバイス300の他の構成部品によってアクセス可能である。さらなる実装形態では、歩行データプロセッサ326は、手法識別器322や記憶装置312から(たとえば、データモデル314によって具現化されるような)パッシブ監視手法のための様々な動作を記述するデータを受信し、歩行データプロセッサ326がそれらの動作を実行する。
いくつかの実装形態では、歩行データプロセッサ326は、被検者104を監視するプロセスの一部として、センサ204を使用してセンサデータを連続的に取り込む。センサ204を配置するために、位置計算器324は、被検者トラッカー320から受信された追跡信号に基づいて、被検者の位置を特定する。被検者トラッカー320は、標準画像認識や処理技法を使用して、センサ204から受信されているセンサデータに基づいて、被検者104がそれに沿って移動した経路を識別する。
ステップ530において、歩行データプロセッサ326は、取り込まれたセンサデータが歩行データを含むか否かを判定する。この判定を行うために、歩行データプロセッサ326は、上記で説明されたように、識別された位置および経路部分についてのセンサデー
タが歩行基準を満たすと判断することができる。いくつかの実装形態では、センサデータが歩行データ(歩行分析に適したデータ)を含まないと歩行データプロセッサ326が判定した場合、歩行データプロセッサ326は、ステップ528を参照して説明されたように、センサデータの取り込みを続ける。
図5Dを参照すると、ハイブリッド監視手法を使用して歩行分析用のセンサデータを収集する方法533のブロック図が描写されている。いくつかの実装形態では、方法533における動作は、図4のステップ408の下で実行可能な様々な動作を表すことができる。
いくつかの実装形態では、歩行データプロセッサ326は、ハイブリッド監視手法を使用してセンサデータの収集を実行するためのパラメータを用いて、方法に対するプロシージャ呼出しを実行することができる。方法はメモリ304に記憶され、実行のために歩行データプロセッサ326やコンピューティングデバイス300の他の構成部品によってアクセス可能である。さらなる実装形態では、歩行データプロセッサ326は、手法識別器322や記憶装置312から(たとえば、データモデル314によって具現化されるような)ハイブリッド監視手法のための様々な動作を記述するデータを受信し、歩行データプロセッサ326がそれらの動作を実行する。
ステップ534において、歩行データプロセッサ326は、センサ204を使用してセンサデータを取り込む。いくつかの実装形態では、歩行データプロセッサ326は、被検者104を監視するプロセスの一部として、センサ204を使用してセンサデータを連続的に取り込む。
ステップ536において、歩行データプロセッサ326は、ハイブリッドデータ条件が満たされたかどうかを判定することができる。ハイブリッドデータ条件は、被検者104がそれに沿って移動する可能性がある周辺の潜在的な経路を識別するステップと、潜在的な経路部分のビューを有するセンサ204の位置を識別するステップと、ハイブリッド監視手法を実行してセンサデータを収集することにより、被検者トラッカー320が被検者104の監視を続けることが可能になると判断するステップとを含む場合がある。
たとえば、ルート計算器350は、潜在的な経路部分が、被検者104がそれに沿って移動する可能性がある廊下であることを識別し、手法識別器322は、潜在的な経路部分の向い合わせの位置が、潜在的な経路部分のビューを含むことを識別する。ルート計算器350および手法識別器322によって行われる判定は、処理のための歩行データプロセッサ326へのデータとして提供される。
例えば、位置計算器324が、ある位置に移動するようにセンサに指示した場合、壁がセンサ204のビューから被検者104を遮るため、被検者トラッカー320が被検者104を監視することができない場合がある。このような場合、歩行データプロセッサ326は、ハイブリッドデータ条件が満たされなかったと判断し、センサ204を使用してセンサデータを取り込み続ける。
ステップ538において、ハイブリッドデータ条件が満たされたと判断したことに応答して、歩行データプロセッサ326から受信された対応する信号に基づいて、ルート計算器350が、被検者104のとりうる経路を特定する。いくつかの実装形態では、ルート計算器350は、被検者104がルート予測を使用することによって行こうとしている場所を含む、取りうる経路を特定することができる。ルート計算器350は、被検者104が移動している方向、被検者104が向いている方向、被検者104の音声、被検者104の動きの履歴、経時的な様々な被検者の動きのパターンなどを含むデータを、センサ204や歩行データプロセッサ326から受信し、ルート計算器350が、当該センサデー
タを使用して、被検者104が将来の時間期間において、それに沿って移動する可能性がある経路を予測することができる。
歩行データプロセッサ326は、ルート計算器350から、予測される経路を受信し、本明細書内の他の場所で説明されるように、予測される経路が、ハイブリッドデータ条件に関して上記で特定された潜在的な経路であるかどうかを判定する。予測される経路がハイブリッドデータ条件に合致する潜在的な経路であると歩行データプロセッサ326が判定した場合、歩行データプロセッサ326は、当該経路が、ハイブリッドデータ条件を使用してセンサデータを収集するための経路であると判断する。
たとえば、ルート計算器350は、被検者104がロビーを通って廊下に向かっていることを示すセンサデータと、ロビーを通って廊下に向かって移動する被検者104の履歴データと、を用いて、将来においてセンサデータを取り込むための予測経路として廊下を識別する。
ステップ540において、位置計算器324は、被検者トラッカー320から受信されたありそうな経路を記述するデータに基づいて、経路のビューを有する位置を特定し、当該位置に移動するようにアクチュエータ214に信号を送る。当該位置は、本明細書内の他の場所で説明されるように、位置計算器324によって識別された潜在的な位置である。
位置計算器324は、本明細書内の他の場所で説明されるように、センサ204やロボットユニット102を当該位置に移動させるようにアクチュエータ214に信号を送ることができる。たとえば、位置計算器324は、被検者104が移動する可能性がある廊下の反対側の壁にロボットユニット102をナビゲートするようにアクチュエータに信号を送る。
ステップ542において、ガイダンスプロバイダ328は、被検者104が経路に沿って移動する際に、被検者104にガイダンスインジケータを提供することができる。ガイダンスインジケータは、センサ204がセンサデータを取り込むために経路に沿ってどこに移動するべきかを、被検者104に通知することができる。ガイダンスインジケータは、本明細書内の他の場所で説明されたアクティブ監視手法において記載されたガイダンスインジケータと同様である。ガイダンスプロバイダ328は、被検者104の動きを追跡している被検者トラッカー320から追跡信号を受信し、被検者104の位置および動きに基づいてガイダンスを行うことができる。これは、特に被検者104をコース上に保持するための補正ガイダンスが必要な場合に有利である。
ステップ544において、歩行データプロセッサ326は、経路に沿って移動する被検者104のセンサデータを取り込む。いくつかの実装形態では、歩行データプロセッサ326は、被検者104が習慣的な速度で移動を開始した場合にセンサデータを取り込むように構成される。たとえば、歩行データプロセッサ326は、歩行データプロセッサ326がセンサデータを取り込む前に、初期期間(たとえば、ある時間期間、2メートルなどの距離など)の間、被検者104が経路に沿った移動を開始するのを待つ。
歩行データプロセッサ326は、被検者104が経路に沿って移動する際、モーション異常を考慮するなどの、さらなる分析のために、センサ204の位置および角度、ならびにセンサ204と被検者104との間の距離についての情報を取り込むように構成することができる。歩行データプロセッサ326は、様々なタイプのセンサデータを取り込むように構成することができ、たとえば、歩行データプロセッサ326は、被検者104が様々な方法(たとえば、ウォーキング、ジョギング、ランニング、スキップ、ジャンプなど)で移動するとき、被検者104のセンサデータを取り込むことができる。さらなる実装
形態では、歩行データプロセッサ326は、習慣的歩行速度(HGS)、快適歩行速度(CGS)、高速歩行速度(FGS)、アップアンドゴー(TUG)などの、様々な臨床試験のセンサデータを取り込むことができる。歩行データプロセッサ326は、センサデータを使用して歩行データを作成する。たとえば、歩行データは、ハイブリッド監視手法条件を満たすセンサデータの一部分を識別し、それらの識別された部分に基づいて作成することができるが、他のセンサデータや歩行データを組み込むこともできる。
次に、歩行データプロセッサ326は、本明細書内の他の場所で説明されるように、歩行分析のために、歩行分析器208、被検者104、医師、技師などのうちの1人または複数に歩行データを提供する。たとえば、歩行データは、廊下を移動する被検者104の画像データを含む場合があり、画像データは医師に提供される場合がある。いくつかの実装形態では、歩行データプロセッサ326は、歩行データを含む取り込まれたデータのコピーを提供する。さらなる実装形態では、歩行データプロセッサ326は、歩行データを含む取り込まれたデータの部分にインジケータまたはタイムスタンプを提供する。いくつかの実装形態では、歩行データは、本明細書内の他の場所で説明されるように、歩行データが取り込まれた、または識別された直後、一定の間隔、著しい偏差が検出され警告が生成されたときなどの、様々なインスタンスにおいて提供される場合がある。
図6は、ロボットユニット102を使用して歩行分析用のセンサデータを収集するための別の例示的な方法600のフローチャートである。ステップ602において、被検者トラッカー320が、被検者104の歩行を監視する命令を受信する。歩行を監視する命令は、本明細書内の他の場所で説明されるように、歩行分析用のセンサデータを取り込むプロセスを開始するロボットユニット102向けの命令を含む場合がある。
ステップ604において、ルート計算器350が、被検者104の(たとえば、経路部分を含む)第1の経路を特定する。第1の経路は、被検者104がまっすぐ移動することができる特定の距離(たとえば、10フィート、10メートルなど)の環境内の経路部分であり得るか、またはそれを含む場合がある。第1の経路は、歩行データが収集されている間に被検者104が移動するための、本明細書内の他の場所で説明された他の経路と同様である。
ステップ606において、ルート計算器350が、被検者104の歩行を監視するための第2の経路を特定する。第2の経路は、ロボットユニット102が第1の経路と平行に移動する経路である。その結果、ロボットユニット102は、被検者104が第1の経路に沿って移動する際に、被検者104と平行に第2の経路を移動してセンサデータを取り込むことができる。ルート計算器350は、センサ204によって収集された環境のデータに対する画像認識や標準画像処理を使用して、第2の経路を特定する。いくつかの実装形態では、「ナビゲートにおいてロボットユニット102が妨害されないこと」、「被検者104が第1の経路に沿って移動する際に被検者104に対する明確なビューを提供することができること」、「第2の経路が第1の経路から特定の距離(たとえば、センサ204の能力に基づいてあらかじめ決定された距離)を置いてまっすぐ移動できること」などの条件を用いて、ルート計算器350が第2の経路を特定する。
ステップ608において、歩行データプロセッサ326は、第2の経路に沿って被検者104と平行に(たとえば、ロボットユニット102の)センサ204を移動させることにより、第1の経路に沿って移動する被検者104のセンサデータを取り込む。いくつかの実装形態では、位置計算器324は、第2の経路に沿って移動するようにロボットユニット102のアクチュエータ214に信号形態のコマンドを送り、被検者トラッカー320は、第1の経路に沿った被検者104の移動に対して第2の経路に沿った平行移動を維持するために、センサから受信されたデータを使用して被検者104の位置を特定する。
たとえば、被検者104は、廊下の一方の側に沿って移動を開始し、ロボットユニット102は、廊下の反対側に配置される。被検者104が移動する際、ロボットユニット102は、被検者104の連続側面図を取り込むために、被検者104が第1の経路を移動するのと同様の速度で第2の経路を移動する。この実装形態は、固定されたセンサ204に対して被検者104が経路に沿って移動するにつれて角度がつくセンサデータではなく、被検者104に対する均一な視点による歩行分析用のセンサデータを提供する。
また、歩行データプロセッサ326が、センサデータに基づいて歩行データを作成する。歩行データは、本明細書内の他の場所で説明されるように、歩行データを収集または作成するための条件を満たすセンサデータの部分を識別することによって作成することができる。
ステップ610において、歩行データプロセッサ326は、モーション異常を考慮して歩行データを修正する。モーション異常とは、ロボットユニット102が第2の経路をナビゲートする際にロボットユニット102が遭遇する可能性がある、平行ビューからの偏差である。たとえば、第2の経路は、わずかに平坦でない場合があり、ロボットユニット102が当該平坦でない区間を通過する際に、被検者104をとらえるカメラセンサが傾く場合がある。歩行データプロセッサ326は、標準的なセンサ位置からの偏差を含む、センサ204によって取り込まれたセンサデータと、標準画像補正技法を使用して、偏差によってもたらされたモーション異常を考慮して歩行データを修正する。
ステップ612において、歩行データプロセッサ326は、本明細書内の他の場所で説明されるように、歩行データを供給する。
方法400,500,513,527,533,および600は例として提供され、これらの方法の変形形態および組合せ、ならびに他の方法が考えられることを理解されたい。たとえば、いくつかの実施形態では、方法500,513,527および533のうちの1つまたは複数の少なくとも一部分は、1つまたは複数の広範囲の方法(たとえば、方法400)の様々なセグメントを表し、連結することができるか、またはこれらの方法の様々なステップは、結合されて、本開示によって包含される他の方法を作成することができる。加えて、方法400,500,513,527,533および600における様々な動作は反復型であり、したがって、本明細書に記載された結果を生み出すのに必要な回数だけ繰り返される。さらに、方法400,500,513,527,533および600における動作の順序は例として提供され、それらの範囲から逸脱することなく、様々な動作は方法内でより早く、またはより遅く行われる場合があることを理解されたい。
以上の説明では、本発明を十分に理解できるように、多くの詳細について説明する。しかしながら、各実施形態はこれらの具体的な詳細無しでも良いことは当業者にとって明らかであろう。また、説明が不明瞭になることを避けるために、構造や装置をブロック図の形式で表すこともある。たとえば、一実施形態は、ユーザインタフェースおよび特定のハードウェアとともに説明される。しかし、ここでの説明は、データおよびコマンドを受信する任意のタイプの計算装置および任意の周辺機器について適用できる。
本明細書における「一実施形態」または「ある実施形態」等という用語は、その実施形態と関連づけて説明される特定の特徴・構造・性質が少なくとも本発明の一つの実施形態に含まれることを意味する。「一実施形態における」等という用語は本明細書内で複数用いられるが、これらは必ずしも同一の実施形態を示すものとは限らない。
以上の詳細な説明の一部は、非一時的(non-transitory)なコンピュータ可読記憶媒体に記憶されたデータビットに対する動作のアルゴリズムおよび記号的表現として提供される。これらのアルゴリズム的な説明および表現は、データ処理技術分野の当業者によって、他の当業者に対して自らの成果の本質を最も効果的に説明するために用いられるもので
ある。なお、本明細書において(また一般に)アルゴリズムとは、所望の結果を得るための論理的な手順を意味する。処理のステップは、物理量を物理的に操作するものである。必ずしも必須ではないが、通常は、これらの量は記憶・伝送・結合・比較およびその他の処理が可能な電気的または磁気的信号の形式を取る。通例にしたがって、これらの信号をビット・値・要素・エレメント・シンボル・キャラクタ・項・数値などとして称することが簡便である。
なお、これらの用語および類似する用語はいずれも、適切な物理量と関連付いているものであり、これら物理量に対する簡易的なラベルに過ぎないということに留意する必要がある。以下の説明から明らかなように、特に断らない限りは、本明細書において「処理」「計算」「コンピュータ計算(処理)」「判断」「表示」等の用語を用いた説明は、コンピュータシステムや類似の電子的計算装置の動作および処理であって、コンピュータシステムのレジスタやメモリ内の物理的(電子的)量を、他のメモリやレジスタまたは同様の情報ストレージや通信装置、表示装置内の物理量として表される他のデータへ操作および変形する動作および処理を意味する。
本発明は、本明細書で説明される動作を実行する装置にも関する。この装置は要求される目的のために特別に製造されるものであっても良いし、汎用コンピュータを用いて構成しコンピュータ内に格納されるプログラムによって選択的に実行されたり再構成されたりするものであっても良い。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な、例えばフロッピー(登録商標)ディスク・光ディスク・CD−ROM・MOディスク・磁気ディスクなど任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体などの、非一時的なコンピュータ可読記憶媒体に記憶される。
発明の具体的な実施形態は、完全にハードウェアによって実現されるものでも良いし、完全にソフトウェアによって実現されるものでも良いし、ハードウェアとソフトウェアの両方によって実現されるものでも良い。好ましい実施形態は、ソフトウェアによって実現される。ここでソフトウェアとは、ファームウェア、常駐ソフトウェア、マイクロコードやその他のソフトウェアを含むものである。
さらに、ある実施形態は、コンピュータが利用あるいは読み込み可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取る。この記憶媒体は、コンピュータや任意の命令実行システムによってあるいはそれらと共に利用されるプログラムコードを提供する。コンピュータが利用あるいは読み込み可能な記憶媒体とは、命令実行システムや装置によってあるいはそれらと共に利用されるプログラムを、保持、格納、通信、伝搬および転送可能な任意の装置を指す。
プログラムコードを格納・実行するために適したデータ処理システムは、システムバスを介して記憶素子に直接または間接的に接続された少なくとも1つのプロセッサを有する。記憶素子は、プログラムコードの実際の実行に際して使われるローカルメモリや、大容量記憶装置や、実行中に大容量記憶装置からデータを取得する回数を減らすためにいくつかのプログラムコードを一時的に記憶するキャッシュメモリなどを含む。
入力/出力(I/O)装置は、例えばキーボード、ディスプレイ、ポインティング装置などであるが、これらはI/Oコントローラを介して直接あるいは間接的にシステムに接続される。
システムにはネットワークアダプタも接続されており、これにより、私的ネットワーク
や公共ネットワークを介して他のデータ処理システムやリモートにあるプリンタや記憶装置に接続される。モデム、ケーブルモデム、イーサネット(登録商標)は、現在利用可能なネットワークアダプタのほんの一例である。
最後に、本明細書において提示されるアルゴリズムおよび表示は特定のコンピュータや他の装置と本来的に関連するものではない。本明細書における説明にしたがったプログラムを有する種々の汎用システムを用いることができるし、また要求された処理ステップを実行するための特定用途の装置を製作することが適した場合もある。これら種々のシステムに要求される構成は、以上の説明において明らかにされる。さらに、本発明は、特定のプログラミング言語と関連づけられるものではない。本明細書で説明される本発明の内容を実装するために種々のプログラミング言語を利用できることは明らかであろう。
100 環境
102 ロボットユニット
104 被検者
106 経路
108a 区間A
108b 区間B
108c 区間C
200 歩行分析システム
201 計算サーバ
204 センサ
208 歩行分析器
214 アクチュエータ
216 通信バス
220 ネットワーク
232 クライアントデバイス

Claims (15)

  1. 移動可能なロボットと接続されたコンピュータによって実行されるデータ取得方法であって、
    前記ロボットが有するセンサを用いて、経路に沿って歩行する被検者の動きを表すセンサデータを取得する取得ステップと、
    前記センサデータに基づいて、前記被検者の歩行分析を行うための歩行データを生成する生成ステップと、
    を含むデータ取得方法。
  2. 前記ロボットが有するセンサが前記経路の少なくとも一部をセンシングできる位置を決定する位置決定ステップと、
    前記決定した位置に前記ロボットを移動させる移動ステップと、
    をさらに含む、請求項1に記載のデータ取得方法。
  3. 前記被検者が歩行する経路の少なくとも一部を判定する経路判定ステップと、
    をさらに含む、請求項1または2に記載のデータ取得方法。
  4. 前記生成ステップでは、前記センサデータが所定の基準を満たした場合に、前記歩行データを生成する、
    請求項1から3のいずれかに記載のデータ取得方法。
  5. 出力装置を用いて、前記被検者に第一のガイダンスを出力するステップと、
    前記被検者が、前記経路に沿った所定の地点に移動したことを判定するステップと、
    前記出力装置を用いて、前記被検者に第二のガイダンスを出力するステップと、
    をさらに含む、請求項1から4のいずれかに記載のデータ取得方法。
  6. 前記第一および第二のガイダンスは、音声によるガイダンス、または、光を用いて経路を指示するガイダンスのいずれかである、
    請求項5に記載のデータ取得方法。
  7. 前記取得ステップでは、
    前記被検者が歩行する経路と平行な経路である第二の経路を決定し、
    前記第二の経路に沿って前記ロボットを移動させながら前記センサデータを取得する、
    請求項1から6のいずれかに記載のデータ取得方法。
  8. 前記第二の経路に沿って移動する前記ロボットの、前記被検者に対する姿勢ずれを補正するステップをさらに含む、
    請求項7に記載のデータ取得方法。
  9. 前記取得ステップでは、
    能動的に前記被検者を前記経路に誘導したうえでモニタリングを行うアクティブモニタリング手法、または、歩行する前記被検者を受動的にモニタリングするパッシブモニタリング手法のいずれかを用いて前記センサデータを取得する、
    請求項1に記載のデータ取得方法。
  10. 前記アクティブモニタリング手法は、
    (1)前記被検者が歩行する前記経路を決定し、
    (2)前記経路に前記被検者を誘導し、
    (3)前記経路の少なくとも一部をセンシングできる位置に前記ロボットを移動させる
    各ステップを含む、
    請求項9に記載のデータ取得方法。
  11. 前記パッシブモニタリング手法は、
    前記被検者が歩行する経路の少なくとも一部が所定の長さ以上であり、前記経路の少なくとも一部をセンシングできる位置に前記ロボットがある場合に、前記センサデータを取得する手法である、
    請求項9または10に記載のデータ取得方法。
  12. 前記取得ステップでは、
    前記アクティブモニタリング手法、前記パッシブモニタリング手法、前記被検者がとる経路を予測した結果に基づいてモニタリングを行うハイブリッドモニタリング手法のいずれかを用いて前記センサデータを取得する、
    請求項9から11のいずれかに記載のデータ取得方法。
  13. 前記ハイブリッドモニタリング手法は、
    (1)前記被検者をセンシングした結果に基づいて、前記被検者がとる経路を予測し、
    (2)前記経路の少なくとも一部が所定の長さ以上である場合に、前記経路の少なくとも一部をセンシングできる位置に前記ロボットを移動させ、
    (3)前記経路に沿って歩行する被検者に対して前記センサデータを取得する
    各ステップからなる、
    請求項12に記載のデータ取得方法。
  14. 請求項1から13のいずれかに記載のデータ取得方法をコンピュータに実行させるプログラム。
  15. 移動可能なロボットと通信可能なデータ取得装置であって、
    前記ロボットが有するセンサを用いて、経路に沿って歩行する被検者の動きを表すセンサデータを取得する取得手段と、
    前記センサデータに基づいて、前記被検者の歩行分析を行うための歩行データを生成する生成手段と、
    を有する、データ取得装置。
JP2017086506A 2016-04-26 2017-04-25 歩行分析支援ロボット Active JP6551455B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/139,275 2016-04-26
US15/139,275 US10383552B2 (en) 2016-04-26 2016-04-26 Gait analysis medical assistance robot

Publications (2)

Publication Number Publication Date
JP2017196414A true JP2017196414A (ja) 2017-11-02
JP6551455B2 JP6551455B2 (ja) 2019-07-31

Family

ID=60089211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017086506A Active JP6551455B2 (ja) 2016-04-26 2017-04-25 歩行分析支援ロボット

Country Status (2)

Country Link
US (1) US10383552B2 (ja)
JP (1) JP6551455B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10383552B2 (en) * 2016-04-26 2019-08-20 Toyota Jidosha Kabushiki Kaisha Gait analysis medical assistance robot
KR20210060182A (ko) * 2019-11-18 2021-05-26 (주)한스이엔지 장애물 인지 및 회피 주행 제어 시스템 및 그 방법

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6892393B2 (ja) * 2015-04-22 2021-06-23 マサチューセッツ インスティテュート オブ テクノロジー 足接地位置追随装置、その動きを制御する方法、コンピュータ実行可能なプログラム、及びそれを格納したコンピュータ読取可能な非一時的な情報記録媒体
US10722775B2 (en) * 2016-09-27 2020-07-28 Adidas Ag Robotic training systems and methods
CN106656712A (zh) * 2016-12-30 2017-05-10 深圳市优必选科技有限公司 用于总线的异常处理方法、用于机器人的控制器
KR102391914B1 (ko) * 2017-06-30 2022-04-27 엘지전자 주식회사 이동 로봇의 동작 방법
US10698413B2 (en) * 2017-12-28 2020-06-30 Savioke Inc. Apparatus, system, and method for mobile robot relocalization
US10170135B1 (en) * 2017-12-29 2019-01-01 Intel Corporation Audio gait detection and identification
WO2020076416A2 (en) * 2018-08-16 2020-04-16 Ketchup On, Inc. Computer vision monitoring and prediction of ailments
US20200289027A1 (en) * 2019-03-11 2020-09-17 Celloscope Ltd. System, method and computer program product for assessment of a user's gait
SG10201910779YA (en) * 2019-11-18 2021-06-29 Advanced Analyzer Tech Pte Ltd Device for apnea detection
WO2022086161A1 (ko) * 2020-10-20 2022-04-28 삼성전자주식회사 로봇 및 그 제어 방법
CN112656402B (zh) * 2020-11-30 2023-01-13 重庆优乃特医疗器械有限责任公司 应用于3d体态检测分析的采集机器人联动控制系统
CN112381048A (zh) * 2020-11-30 2021-02-19 重庆优乃特医疗器械有限责任公司 基于多用户同步检测的3d体态检测分析系统及方法
CN112494034B (zh) * 2020-11-30 2023-01-17 重庆优乃特医疗器械有限责任公司 基于3d体态检测分析的数据处理分析系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048666A (ja) * 2004-07-07 2006-02-16 Matsushita Electric Ind Co Ltd 移動体の対象者同行方法及び移動体用対象者同行装置
JP2015109937A (ja) * 2013-01-23 2015-06-18 株式会社東芝 動作情報処理装置
JP2016073630A (ja) * 2014-10-03 2016-05-12 国立大学法人豊橋技術科学大学 移動訓練支援装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7243024B2 (en) * 2001-08-11 2007-07-10 Endicott William L Computer-implemented system and method for wayfinding
US7158859B2 (en) * 2003-01-15 2007-01-02 Intouch Technologies, Inc. 5 degrees of freedom mobile robot
US7702420B2 (en) * 2004-07-07 2010-04-20 Panasonic Corporation Method for making mobile unit accompany objective person
GB0602127D0 (en) 2006-02-02 2006-03-15 Imp Innovations Ltd Gait analysis
US20080108913A1 (en) 2006-11-06 2008-05-08 Colorado Seminary, Which Owns And Operates The University Of Denver Smart apparatus for gait monitoring and fall prevention
DE102007049323A1 (de) 2007-10-15 2009-04-23 Zebris Medical Gmbh Vorrichtung und Verfahren zur Ganganalyse unter Einsatz eines Laufbandes
EP2476035A1 (en) * 2009-09-07 2012-07-18 BAE Systems Plc Path determination
KR101970962B1 (ko) * 2012-03-19 2019-04-22 삼성전자주식회사 아기 감시 방법 및 장치
KR102104896B1 (ko) * 2014-01-17 2020-05-29 엘지전자 주식회사 로봇청소기 및 이를 이용한 휴먼 케어방법
GB201410648D0 (en) * 2014-06-14 2014-07-30 Pape Lise S Walking aid providing tactile and visual cues to trigger and improve mobility
US9586316B1 (en) * 2015-09-15 2017-03-07 Google Inc. Determination of robotic step path
US10383552B2 (en) * 2016-04-26 2019-08-20 Toyota Jidosha Kabushiki Kaisha Gait analysis medical assistance robot
US20180289579A1 (en) * 2017-04-11 2018-10-11 The Trustees Of Columbia University In The City Of New York Powered Walking Assistant and Associated Systems and Methods

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048666A (ja) * 2004-07-07 2006-02-16 Matsushita Electric Ind Co Ltd 移動体の対象者同行方法及び移動体用対象者同行装置
JP2015109937A (ja) * 2013-01-23 2015-06-18 株式会社東芝 動作情報処理装置
JP2016073630A (ja) * 2014-10-03 2016-05-12 国立大学法人豊橋技術科学大学 移動訓練支援装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
安達 宏幸: "KINECT・自走ロボットを使用した歩行データの取得", 電子情報通信学会技術研究報告, vol. 第114巻, JPN6018009179, 2014, JP, pages 25 - 30, ISSN: 0003909056 *
飯田真大: "家庭用ロボットの人追従及び歩行パラメータ取得に関する研究", 日本建築学会技術報告集, vol. 第22巻、第50号, JPN6018009181, February 2016 (2016-02-01), pages 253 - 257, ISSN: 0003909057 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10383552B2 (en) * 2016-04-26 2019-08-20 Toyota Jidosha Kabushiki Kaisha Gait analysis medical assistance robot
KR20210060182A (ko) * 2019-11-18 2021-05-26 (주)한스이엔지 장애물 인지 및 회피 주행 제어 시스템 및 그 방법
KR102332200B1 (ko) * 2019-11-18 2021-11-30 (주)한스이엔지 장애물 인지 및 회피 주행 제어 시스템 및 그 방법

Also Published As

Publication number Publication date
JP6551455B2 (ja) 2019-07-31
US20170303825A1 (en) 2017-10-26
US10383552B2 (en) 2019-08-20

Similar Documents

Publication Publication Date Title
JP6551455B2 (ja) 歩行分析支援ロボット
US11009941B2 (en) Calibration of measurement units in alignment with a skeleton model to control a computer system
US20190126484A1 (en) Dynamic Multi-Sensor and Multi-Robot Interface System
US9552056B1 (en) Gesture enabled telepresence robot and system
US8854594B2 (en) System and method for tracking
Rashid et al. Wireless electric appliance control for smart buildings using indoor location tracking and BIM-based virtual environments
US8214082B2 (en) Nursing system
JP2021522564A (ja) 非制約環境において人間の視線及びジェスチャを検出するシステムと方法
US20190219409A1 (en) System and methods for robotic autonomous motion planning and navigation
WO2017220788A1 (en) System and method for artificial agent based cognitive operating rooms
US20160250751A1 (en) Providing personalized patient care based on electronic health record associated with a user
CN106604804B (zh) 碰撞检测
JP2019041261A (ja) 画像処理システムおよび画像処理システムの設定方法
JP2011209203A (ja) 自己位置推定装置および自己位置推定方法
JP2019082999A (ja) クラウドサービスシステムを組み込んだロボットシステム
EP3585569B1 (en) Systems, apparatus, and methods for robotic learning and execution of skills
US20190054631A1 (en) System and method for operating and controlling a hyper configurable humanoid robot to perform multiple applications in various work environments
JP6927937B2 (ja) 三次元骨格表現を生成するためのシステム及び方法
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
Pavón-Pulido et al. A service robot for monitoring elderly people in the context of ambient assisted living
US11199561B2 (en) System and method for standardized evaluation of activity sequences
JP2018147482A (ja) 移動ロボットによる外観モデル維持のための事前対応的データ取得
JP2008289676A (ja) 患者異常通知システム
Jin et al. Human-robot interaction for assisted object grasping by a wearable robotic object manipulation aid for the blind
Ni et al. Research on Mobile User Interface for Robot Arm Remote Control in Industrial Application

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190617

R151 Written notification of patent or utility model registration

Ref document number: 6551455

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250