JP6194971B2 - ユーザの健康記録に基づいてパーソナライズされた看護の提供 - Google Patents

ユーザの健康記録に基づいてパーソナライズされた看護の提供 Download PDF

Info

Publication number
JP6194971B2
JP6194971B2 JP2016032933A JP2016032933A JP6194971B2 JP 6194971 B2 JP6194971 B2 JP 6194971B2 JP 2016032933 A JP2016032933 A JP 2016032933A JP 2016032933 A JP2016032933 A JP 2016032933A JP 6194971 B2 JP6194971 B2 JP 6194971B2
Authority
JP
Japan
Prior art keywords
user
robot
electronic health
module
health record
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016032933A
Other languages
English (en)
Other versions
JP2016159155A (ja
Inventor
エリック マーティンソン,
エリック マーティンソン,
エムラ アクン シシュボット,
エムラ アクン シシュボット,
ベエーラガネッシュ ヤラ,
ベエーラガネッシュ ヤラ,
尾口 健太郎
健太郎 尾口
中野 雄介
雄介 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2016159155A publication Critical patent/JP2016159155A/ja
Application granted granted Critical
Publication of JP6194971B2 publication Critical patent/JP6194971B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/03Teaching system
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Nursing (AREA)
  • Business, Economics & Management (AREA)
  • Remote Sensing (AREA)
  • Databases & Information Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Pathology (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Rehabilitation Tools (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、ユーザの健康記録に基づいてパーソナライズされた看護の提供に関する。
(関連出願への相互参照)
本出願は、"PROVIDING PERSONALIZED PATIENT CARE BASED ON ELECTRONIC HEALTH RECORD ASSOCIATED WITH A USER"と題され、2015年2月26日に出願された、米国特許出願第14/632,165号の優先権を主張する。当該出願は、その全体が本明細書中に参照として組み込まれる。
身体的な制限を有するユーザは、日常的な作業を行ううえで支援を必要とすることが多い。例えば、車椅子の利用を必須とするユーザは、床から物を拾い上げたり、環境内において物体を受け取ることに苦労する場合がある。
一方で、このようなユーザを補助するためのロボットが存在する。例えば、ロボットは、床から物を拾い上げることが難しいユーザに対して、物体を受け渡せるように構成されることができる。
本発明は、ロボットを用いてユーザの補助を行うシステムにおいて、安全性や快適性を向上させることを目的とする。
上記課題を解決するための、本発明の革新的な一形態に係る方法は、ユーザに関連付いた電子健康記録に基づいて、カスタマイズされた患者のケアを提供するための方法である。
具体的には、ロボットを用いて、ユーザ環境内にいるユーザの補助を行うシステムが実行する方法であって、前記ユーザ環境内におけるユーザの現在位置を取得する位置取得ステップと、前記ユーザ環境内にある障害物を検出する障害物検出ステップと、前記ユーザに関連付いた電子健康記録(EHR)に基づいて、前記ユーザの身体的能力を推定する能力推定ステップと、前記ユーザ環境内にある障害物と、前記ユーザの身体的能力と、に基づいて、前記ロボットがタスクを実行するための命令を生成する命令生成ステップと、前記生成した命令をロボットに送信する命令送信ステップと、を含むことを特徴とする。
また、前記ロボットに対する命令は、前記ユーザに対して物体を手渡しするために、前記物体を所定の位置および向きに再配置させる命令であってもよい。
また、前記電子健康記録に基づいて、前記ユーザのロボットに近い側の手が不自由か否かを判定する判定ステップをさらに含み、前記命令生成ステップでは、前記判定結果に基づいて、前記物体を、不自由ではない手の側に移動させる命令を生成してもよい。
また、前記ユーザの状態を監視する監視ステップと、前記ユーザの状態の変化に応じて、前記ロボットに対する命令を変更する命令変更ステップと、前記ユーザの状態の変化を、前記電子健康記録に反映させる反映ステップと、をさらに含んでいてもよい。
また、前記電子健康記録は、前記ユーザの現在および過去における医学的状態を表した情報であってもよい。
一実施形態において、ユーザ環境の空間内における位置および向きは、三次元の地点を含む。三次元の地点とは、例えば、ユーザが物体を受け取るために体を動かした際に届く(あるいは、ほぼ届く)、ユーザ環境に含まれる空間内の直交座標系における点(X,Y
,Z)である。この三次元の地点は、手渡しイベントが発生しうる空間における「位置」を表す。
ユーザ環境とは、ユーザの周囲にあるエリアである。三次元の地点は、ユーザ環境に含まれる「面」であってもよい。例えば、物体をテーブルの表面や、他のユーザ環境内にある面に配置できるように、三次元の地点を設定してもよい。また、三次元の地点は、ユーザがロボットから物体を受け取る際に手が届く、空間内のある点であってもよい。このようにすることで、自然な手渡しを行うことができる。
ユーザ環境の空間における位置と向きは、例えば、ロール、ピッチ、ヨーのような三つの異なる次元によって定義された回転を含んでいてもよい。ロール、ピッチ、ヨーは、手渡し位置にいるとき、または、手渡し位置に移動する際のロボットのアクチュエータの回転様態を表す。ロール、ピッチ、ヨーは、アクチュエータが空間内のある点から次の点に移動する時間の経過とともに変化してもよい。
このように、手渡し位置が静的なのに対して、アクチュエータの回転は動的であってもよい。
一実装例において、ロボットは、環境内で発生する、手渡し位置の変化をもたらすイベントを検出してもよい。このような場合、手渡し位置も動的になりうる。
ユーザ環境の空間における位置と向きは、空間内におけるアームジョイントの姿勢や、アームジョイントの軌跡に関連する他の数値や次元を含んでいてもよい。
ユーザの一つ以上の身体的能力は、当該ユーザに関連付いたEHRによって示される、ユーザの状態や制限である。一実施例において、ユーザの一つ以上の身体的能力は、ユーザの心理的特性を含んでいてもよい。例えば、EHRに、ユーザの心理状態を示す情報が含まれている場合、ロボットによってユーザが驚かないように、ロボットに対して、ロボットの動きの加減速を緩慢にする命令を生成するようにしてもよい。例えば、ロボットのアクチュエータの加速度を、3インチ/Sec2から、1インチ/Sec2に抑えてもよい。
また、これらの形態の一つ以上の他の実装として、方法、システム、装置、これらのためのコンピュータプログラム、その他の実装などが含まれる。
また、上記の態様は、以下の特徴うちの一つまたは複数を含んでいてもよい。
例えば、前記電子健康記録は、前記ユーザが動ける範囲、前記ユーザの手が届く範囲、前記ユーザの筋肉の状態、前記ユーザの快適度、前記ユーザの嗜好、前記ユーザが前記ロボットから物体を受け取るのにかかる時間、手渡し動作の後で前記ユーザが前記ロボットと接する時間、タスクを完了するのにかかる時間、の少なくともいずれかを含んでいてもよい。
また、前記ロボットに対して発行される命令は、前記ユーザを誘導するために前記ロボットを所定のパスに沿って移動させる命令であり、前記所定のパスは、前記ユーザの移動速度、前記ユーザに対する相対位置、誘導の複雑度、前記ロボットがユーザに対して提供する情報の量、の少なくともいずれかに基づいて決定してもよい。
また、前記電子健康記録に基づいて、前記ロボットが前記ユーザに対して取るべき間隔を決定するステップをさらに含み、前記所定のパスは、前記間隔を維持するように決定されてもよい。
また、前記能力推定ステップでは、取得した電子健康記録に基づいてシミュレーションを行うことで、前記ユーザの身体的能力を推定してもよい。
また、前記能力推定ステップでは、前記ユーザに関連付いた状態を識別するために、分類器と、トレーニングデータセットを生成してもよい。
本明細書によって開示される発明は、特にいくつかの面において有利である。
例えば、相互作用のための新しいロボットの動きを構築するために患者の医療履歴を役立てることができる。
加えて、ユーザに関連付いたEHRから知識を取り入れることで、特定の患者に対して用いる分類器を高性能化することができる。
そして、ロボットのタスクをカスタマイズすることができ、利用における汎用性を高め、ユーザのフラストレーションを抑えることができる。例えば、ロボットは、環境内から物体を探索し、取得する時間を短くするためにEHRを用いる。他の例では、ロボットは、EHRに基づいて、ユーザに対してナビゲーション支援を提供する。これにより、ユーザ環境内の障害物を回避することができる。
なお、本明細書にて述べるシステムの利点はあくまで例であり、他の多数の利点および利益を有し得る。
本発明によると、ロボットによって物体を手渡すシステムにおいて、安全性や快適性を向上させることができる。
EHRに基づいてパーソナライズされた患者ケアを提供するシステムの例を表したブロック図である。 EHRに基づいてパーソナライズされた患者ケアを提供する処理フローの例を表したブロック図である。 ユーザに固有な視覚分類器を学習させるためのトレーニングデータの例を表したブロック図である。 ナビゲーションアシスタンスを提供する際にロボットの動作を修正する動き推定アプリケーションの例を表したブロック図である。 動き推定デバイスの例を表したブロック図である。 医療履歴を提供するためのユーザ入力を受け付けるユーザインタフェースを示した図である。 EHRに基づいてパーソナライズされた患者ケアを提供する方法の例を表したフローチャート図である。 ロボットによって実行される手渡し動作を決定する方法の例を表したフローチャート図である。 対象ユーザを発見して認識し、タスクを実行する方法の例を表したフローチャート図である。
以下の説明および添付の図面は本発明を説明するための例示であり、本発明を限定するものではない。図面においては、同様の要素には同一の参照符号を付してある。
なお、明細書の説明において、プログラムとは、ユーザに対するロボットの振る舞いを定義するためのデータであるものとする。また、プログラムや命令を修正ないしカスタマイズするとは、ロボットが行うべき動作の内容を、ユーザの状況に応じて本則から修正するといった意味で用いる。
(システム概要)
ロボットは、ユーザにサービスを提供する。例えば、ロボットは、病院、高齢者ケアセンター、ホスピス、患者宅や他の施設において、ユーザのためにタスクを実行する。
これらのサービスは、以下のうちの一つ以上を含む。
・ユーザのモニタリング(監視)
・ユーザのための物体の操作
・環境内におけるユーザに対する案内
ロボットが、身体的制限を有するユーザに対して動作する場合、問題が起こりうる。
身体的な制限とは、年齢、病気、一時的または恒久的な障害などに起因して発生する。その結果、ユーザの視力、聴力、脚力、歩行、握力や他の能力を制限する一つ以上の症状の影響をユーザが受けるため、ロボットのプログラマは、ユーザが「健常である」と推測することができない。
もしロボットが、これらのユーザの状態や制限を考慮せずにプログラムされていた場合、ロボットはユーザを傷つけてしまうおそれがある。
また、ロボットのプログラマは、全てのユーザが制約または制限を有していると仮定することもできない。ユーザの期待に背き、ロボットが最終的に放棄されうるためである。
既存のソリューションでは、ユーザの制約や制限を判定し、ロボットの振る舞いを適合させることで、ユーザを苛立たせることなく危険から保護するということを可能にするという問題を解決することができなかった。
例えば、いくつかのソリューションでは、ロボットが電子健康記録を利用している。しかし、これらのソリューションでは、ユーザを識別し、当該ユーザに関連付いた電子健康記録に基づいて自己のプログラムを修正するようなロボットの能力について触れられていない。
代わりに、このようなソリューションでは、ロボットが、患者に会う医師や他の管理者の代理として行動するロボットについて触れている。このようなロボットは、医師と患者とを対話可能にするような技術を備えている。
従って、このようなソリューションは、電子健康記録について触れられているかもしれないが、ユーザを傷つけないようにするために、「ユーザを識別し、当該ユーザに関連付いた電子健康記録に基づいて自己のプログラムを修正する」という問題を解決するには不十分である。
これと比較して、本明細書の開示は、ユーザを識別し、当該ユーザに関連付いた電子健康記録に基づいて自己のプログラムを修正することで、ロボットのパフォーマンスを有益に向上させる「動き推定アプリケーション」を含んでいる。
いくつかの既存のソリューションは、ユーザの電子健康記録にアクセスし、当該電子健康記録に基づいて、ユーザに対して実行するアクティビティを決定することに触れられている。
しかし、これらのソリューションは、ロボットがユーザに害をなしたり、脅かしたりしないように、電子健康記録に示されたユーザの制限に基づいて、これらのアクティビティを実行する方法をカスタマイズしていない。
従って、これらのソリューションでは、ロボットが、患者を傷つけたり脅かしたりしないように振る舞うため、自己のプログラムを動的に修正したいという問題を解決することができない。
これと比較して、本明細書に記載された動き推定アプリケーションでは、患者を傷つけたり脅かしたりしないように振る舞うため、自己のプログラムを動的に修正可能にすることにより、ロボットのパフォーマンスを有益に向上させることができる。
いくつかのソリューションは、視覚分類器(すなわち、取得した画像に基づいてユーザの状態を判定する分類器)を学習させることを含んでいる。
しかし、このような分類器の学習は、ノイズが多いと考えられる。なぜなら、本プロセスは、容認できないほどの多くの誤りを本質的に含んでいるためである。
新しい分類器を生成する場合、ノイズを克服するための多くの画像(例えば、千〜百万
枚の画像)が必要となる。結果として、視覚分類器の学習は、長時間を要し、このような理由により好ましくない。
これとは対照的に、本明細書に記載の動き推定アプリケーションは、視覚分類器のための学習セットの品質を向上させる機能を有している。そして、視覚分類器の学習速度と精度を向上させることができる。
さらに、動き推定アプリケーションは、ユーザの電子健康記録に部分的に基づいて、各ユーザに対応するカスタマイズされた分類器を生成する機能を有している。
カスタマイズされた分類器は、一人のユーザに対応付けられてもよく、ユーザの電子健康記録によって示された当該ユーザの固有の特性に基づいて、ロボットが当該ユーザのためにプログラムをカスタマイズするように構成されてもよい。
新しいプログラムの学習は、成功と失敗の双方を含む多くの例を必要とする。
いくつかのソリューションでは、新しいアルゴリズムを学習するために必要な例を多数取得し、シミュレーションの繰り返し適用に基づいて、ロボットのための新たな制御動作を決定している。
しかし、これらのソリューションは、ユーザの電子健康記録に基づいて、特定のユーザのためにシミュレーションをカスタマイズすることはしていない。
これと比較して、動き推定アプリケーションは、特定のユーザのニーズ(ユーザのために実行される特定のタスク、および、電子健康記録に記されたユーザの症状および制限に基づいて、それらのタスクをユーザに対して実行することができる方法を含む)に合わせたカスタマイズ可能なシミュレーションを行う。
動き推定アプリケーションは、ロボットまたはコンピュータの性能を向上させるための、他の多くの利益を提供する。例えば、動き推定アプリケーションは、ロボットの制御および認識プログラムを、一つ以上の障害を持った一人以上のユーザ向けにカスタマイズ(ロボットの動きまたは知覚の観点からロボットの振る舞いを修正)する。
動き推定アプリケーションは、ユーザの電子健康記録にアクセスし、一つ以上の肯定的および否定的な例を生成し、それに基づいて、新しいロボットのプログラムを学習させてもよいし、ユーザのためにカスタマイズされたプログラムを提供するように既存の動作を適合させてもよい(例えば図1Bの符号156)。
動き推定アプリケーションは、図1Aを参照して以下で説明するように、有線または無線ネットワーク経由で電子健康記録にアクセスする。例えば、電子健康記録は、図1Aを参照して以下で説明するように、ヘルスサーバ110のようなクラウドサーバに記録され、アクセスされてもよい。
いくつかの実装例において、動き推定アプリケーションは、シミュレーションを行うために電子健康記録を使用してもよい。このように、シミュレーションは、動き推定アプリケーションによって取得された電子健康記録によって示されたような、特定のユーザの障害または能力に応じてカスタマイズされてもよい。
シミュレーションは、例えば、電子健康記録によって表されたユーザの状態や制限に基づいて、ユーザが何をできるか、または感知できるかを表すデータを含んでいてもよい。
シミュレーションは、図2を参照して以下で説明するメモリ227のような、動き推定アプリケーションに関連付いた実メモリに保存されてもよい。
動き推定アプリケーションは、プロセッサおよび実記憶媒体を含んでいてもよい。
例えば、動き推定アプリケーションは、ロボット(あるいはコンピュータ)の構成要素である。動き推定アプリケーションによって行われるシミュレーションは、ロボットの性能を有益に向上させる。例えば、動き推定アプリケーションは、一つ以上のユーザに特化された視覚分類器を有している。当該視覚分類器は、特定のユーザに関連付いたものであ
る。
動き推定アプリケーションは、視覚分類器が特定のユーザの特性に適合するように、視覚分類器を学習させるための、例えば、100から100万以上の肯定的または否定的な例を生成する。いくつかの実施例における、視覚分類器を学習させるための肯定的または否定的な例(例えばトレーニングデータ170)は、図1Cを参照しながらのちほど説明する。
動き推定アプリケーションによって行われるシミュレーションは、以下の技術のうちの一つ以上を用いて、異なる制御ストラテジーの効果をシミュレーションすることで、ロボットのパフォーマンスを有益に向上させることができる。
・機械学習
・システム識別
・適応制御
・シミュレーションアダプティブ法
・ロボットのコードまたはルーチンに対する入力パラメータのどのような変更が成功率に影響を与えるかについてのシミュレーション
動き推定アプリケーションによって行われるシミュレーションは、ロボットによる物体受け渡しまたは人物検出タスクのサーチ空間を絞り込むことで、ロボットのパフォーマンスを有益に向上させることができる。
例えば、ユーザの近くにある環境から物体(ユーザオブジェクト)を取り出すタスクをロボットが行うと仮定する。動き推定アプリケーションによって行われるシミュレーションが無い場合、ロボットは、環境センサ(例えば外部カメラ等)を用いて当該環境内をサーチしたり、物体取り出しのためのアクチュエータを用いて環境内を探索したりする必要がある。しかし、動き推定アプリケーションによって提供される一つ以上のシミュレーションは、当該環境および環境内に含まれる物体を表すデータを含む。したがって、当該シミュレーションを用いることで、ロボットは、物体を識別、物体へのナビゲート、物体を無事に取り出すために分析および検索するべき環境内の空間を絞り込むことができる。
上述した利点の結果、動き推定アプリケーションは、ロボットプログラム(および、当該プログラムを実行することによる、ロボットの動きやロボットの認識といったようなロボットの動作)のパフォーマンスを有益に向上させることができる。
動き推定アプリケーションによって提供される一つ以上のシミュレーションは、ロボットによってサービスを提供される特定のユーザに対応する電子健康記録に基づいて、一つ以上のロボットプログラムをカスタマイズされるためにも使用される。
このように、動き推定アプリケーションは、障害や能力制限を持つ特定のユーザに対応するロボットプログラムを有益にカスタマイズすることができる。
ロボットは、ユーザに対応する、異なる視覚分類器や電子健康記録を利用し、異なるユーザに対して当該プロセスを繰り返してもよい。これにより、個々のユーザと、類似または異なる障害や能力制限を有する他のユーザに対して、ロボットをより便利にすることができる。
図1Aは、ユーザに関連付いた電子健康記録に基づいてパーソナライズされた患者ケアを提供するシステム100の、一実施形態におけるブロック図を例示したものである。
システム100は、信号線104を介してネットワーク105に接続されたコンピュータ107と、信号線118を介してネットワーク105に接続されたロボット190と、信号線112を介してネットワーク105に接続されたヘルスサーバ110と、信号線119を介してネットワーク105に、信号線120を介してロボット190に接続されたユーザ101と、を含む。
なお、図1Aには一人のユーザ101、一つのコンピュータ107、一つのヘルスサーバ110および一つのロボット190が示されているが、本発明を適用可能なシステムのアーキテクチャは、一人以上のユーザ101、一つ以上のコンピュータ107、一つ以上のヘルスサーバ110、および一つ以上のロボット190を含むことができる。
さらに、図1Aには、システム100の構成要素に接続された一つのネットワーク105が示されているが、実際には、様々なタイプの一つ以上のネットワーク105が、これらの構成要素に接続されていてもよい。
ネットワーク105は、有線ネットワークであっても無線ネットワークであってもよく、また、スター型、トークンリング型や当業者に知られているその他の構成を取ることができる。さらに、ネットワーク105は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)(例えばインターネット)、または、複数の装置が通信に用いる相互接続されたその他の任意のデータパスであってもよい。さらに別の形態では、ネットワーク105はピアツーピアネットワークであってもよい。ネットワーク105は、複数の異なる通信プロトコルでデータ送信するための通信ネットワークと接続されたり、このような通信ネットワークを含んだりしてもよい。
ある実施形態では、ネットワーク105は、Bluetooth(登録商標)通信ネットワークや、携帯電話通信ネットワークを含み、SMS(ショートメッセージサービス)、MMS(マルチメディアメッセージサービス)、HTTP(ハイパーテキスト転送プロトコル)、直接データ接続、WAP、電子メールなどのデータを送受信する。
ある実施形態では、ネットワーク105は、ロボット190に対してGPSナビゲーションを提供するためのGPS衛星を含んでいてもよい。
また、ネットワーク105は、例えば、3G、4G、LTE、ボイスオーバーLTE(VoLTE)といったモバイルデータネットワーク、他のモバイルデータネットワーク、または、モバイルデータネットワークの組合せであってもよい。
一実施形態において、ネットワーク105は、異なるネットワークの組合せであってもよい。
ヘルスサーバ110は、プロセッサおよびメモリを含み、ネットワークへアクセス可能なハードウェアサーバである。ヘルスサーバ110は、電子健康記録(EHR)データ111を生成または記憶する。例えば、ヘルスサーバ110は、ユーザにEHRデータを提供する集中型システムの一部であってもよく、ヘルスサーバ110は、単一のヘルスケア機関(例えば病院や診療所等)に対応したものであってもよい。
ヘルスサーバ110は、コンピュータ107やロボット190からリクエストを受信し、ユーザ101に対応するEHRを送信する。
ヘルスサーバ110は、米国HIPAA(医療保険の相互運用性と説明責任に関する法令、Health Insurance Portability and Accountability Act of 1996)に従って、暗号
化されたEHRを送信するために、HL7メッセージングを利用してもよい。
一実施形態において、動き推定アプリケーション199aは、ロボット190によって実行可能である。ロボット190は、メモリ、プロサッサ、およびロボット190の駆動を補助するハードウェアを含む。
ロボット190は、ユーザ101に対してタスクを実行する。例えば、ロボットは、物体を掴み上げ、空間内の特定の位置および向きに移動させることで、物体を元の場所から、ユーザ空間のある位置および向きに物体を移動させる「手渡し動作」を実行する。
他の例において、ロボット190は、ユーザを経路に沿ってガイドする。さらに他の例において、ロボットは、ユーザ101のために物体を運搬する。
ユーザ101は、ロボット190の動き推定アプリケーション199aに対して、音声コマンドによってインタラクションしてもよい。また、ロボット190の動き推定アプリケーション199aにデータを送信する機能を有する、コンピュータ107に搭載された
動き推定アプリケーション199bに対してインタラクションすることで、ロボット190の動き推定アプリケーション199aに対してインタラクションしてもよい。
ある実施例において、空間内の地点および向きは、ユーザ環境に含まれる空間内の直交座標系(X,Y,Z)における地点であって、ユーザが物体を受け取るために体を動かした際に届く(あるいは、ほぼ届く)地点を含む。
空間内の地点および向きはまた、回転を表す回転データを含んでいてもよい。例えば、空間内の地点および向きは、ロボット190や、ロボット190が有するアクチュエータのロール・ピッチ・ヨーの角度を表す回転データを含んでいてもよい。
一実施例において、三次元の地点および回転データ(ロール・ピッチ・ヨー)は、ロボットに対する一つ以上のシミュレーションを表すシミュレーションデータに基づいて決定される。例えば、シミュレーションデータは、「ロボットから物体を受け取るためにユーザがどのように体を動かすか」を表したデータを含む、リーチシミュレーションを表すデータである。
ユーザ環境とは、ユーザの周囲にあるエリアである。
三次元の地点は、ユーザ環境に含まれる「面」であってもよい。例えば、三次元の地点は、テーブルの表面や、ユーザ環境内の他の面など、物体を配置できるような地点であってもよい。三次元の地点は、物体を空間内の空の地点(Empty point)(ユーザがロボッ
トから物体を受け取るために自然な動きによって手が届く地点)に移動するための地点であってもよい。
いくつかの実施例において、シミュレーションデータは、他のタイプのシミュレーションを表すものであってもよい。例えば、シミュレーションデータは、ユーザ環境内において案内されるユーザがどのように歩くか(走るか)を表すデータであってもよい。
いくつかの実施例において、動き推定アプリケーション199bは、コンピュータ107上で実行される。
コンピュータ107は、メモリとプロセッサを含むコンピュータであり、例えば、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、携帯電話、スマートフォン、個人情報端末(PDA)、モバイル電子メール装置、スマートウォッチを含むウェアラブル装置、携帯ゲーム装置、携帯音楽プレーヤ、ネットワーク105へのアクセスが可能なその他の電子機器などである。
コンピュータ107は、サーバの一部であって、ブラウザを介してユーザ101が利用できるものであってもよい。
動き推定アプリケーション199aおよび199bは個別の名称であり、全体的には「動き推定アプリケーション199」と称する。
いくつかの実施例において、動き推定アプリケーション199のモジュールは、一つのサーバまたは装置に格納されてもよい。いくつかの他の実施例において、動き推定アプリケーション199のモジュールは、複数の装置やサーバに分散して格納されてもよい。
例えば、ロボット190が有する動き推定アプリケーション199aは、ユーザ101に対する現在位置を判定し、位置をコンピュータ107上の動き推定アプリケーション199bに送信し、およびコンピュータ107上の動き推定アプリケーション199bから命令を受信してタスクを実行してもよい。
さらに、本明細書で説明される実施形態における種々のコンポーネント、モジュール、およびサーバの分離は、全ての実施形態においてそのような分離を必要とすると理解するべきではない。一実施形態では、説明されるコンポーネント、モジュール、デバイス、またはサーバは概して、単一のコンポーネント、モジュール、デバイス、またはサーバに一
体に統合されてもよい。
動き推定アプリケーション199は、ユーザ101の現在位置を判定するためのコードおよびルーチンを含む。例えば、ロボット190は、ユーザ101の画像を取り込んで、ロボット190に対するユーザ101の位置を判定するカメラを含む。また、動き推定アプリケーション199は、環境内の障害物を検出する。例えば、動き推定アプリケーション199は、床の上にある物体の位置および出入口の幅を検出する。
動き推定アプリケーション199は、ユーザ101に関連付いたEHRに基づいて、ユーザ101の一つ以上の身体的能力を推定する。例えば、EHRによって、ユーザ101が、目が不自由であることを識別してもよい。EHRは、ヘルスサーバ110から受信されてもよく、または動き推定アプリケーション199によって生成されてもよい。
動き推定アプリケーション199は、環境内の障害物およびユーザ101の一つ以上の身体的能力に基づいて、タスクを実行するためのロボット190に対する命令を生成する。例えば、目が不自由なユーザ101は、ユーザに床上の障害物を警告し、および出入口を通ってユーザを案内することを支援するガイドとして動作するロボット190によって支援される。動き推定アプリケーション199は、タスクを実行するようにロボット190に指示する。
一実施形態において、動き推定アプリケーション199は、FPGAやASICを含むハードウェアによって実装される。また、一実施形態において、動き推定アプリケーション199は、ハードウェアとソフトウェアの組み合わせによって実装される。動き推定アプリケーション199は、装置およびサーバの組み合わせに格納されていてもよいし、装置またはサーバのいずれかに格納されていてもよい。
図1Bは、ユーザ101に関連付いた電子健康記録に基づいて、パーソナライズされた患者ケアを提供するための例示的な処理フロー140を示すブロック図である。処理フロー140は、図1Aを参照して説明した、システム100の一つ以上の要素によって実装されてもよい。例えば、処理フロー140は、動き推定アプリケーション199およびヘルスサーバ110によって実装されてもよい。要素148,150,153,155,157および158は、動き推定アプリケーション199によって実行されてもよい。また、要素151および152の問い合わせ処理は、ヘルスサーバ110によって部分的に実行されてもよい。図1Bに示した実施形態では、電子健康記録データ111が、ヘルスサーバ110によってホスティングされるデータベースに記憶されてもよい。また、動き推定アプリケーション199は、要素148,150,153,155,157および158のうちの一つ以上を参照しながら以下で説明する機能を提供するように構成されたコードおよびルーチンを含んでいてもよい。
処理フロー140は、4つのステージを含む。
まず、処理フローが開始される(ステップ148)。このとき、タスクおよびターゲット識別子が、動き推定アプリケーション199に提供されてもよい。当該タスクは、ロボット190またはコンピュータ107によって実行されるタスクを表すデータを含んでいてもよい。また、ターゲット識別子は、タスクと関連付いた、環境内のユーザ101または位置を識別するデータを含んでいてもよい。
次に、動き推定アプリケーション199が、タスクおよびターゲット識別子に基づいて、EHRクエリ151を構築する(ステップ150)。動き推定アプリケーション199は、ユーザ101と関連付いた電子健康記録データ111を取り出すために、EHRクエリ151を使用する。
次に、動き推定アプリケーション199は、取得した電子健康記録データ111に基づいて、シミュレータ154を生成する(ステップ153)。
次に、動き推定アプリケーション199は、シミュレータ154に基づいて、ロボット
190またはコンピュータ107の振る舞いを適合させる(ステップ155)。
このようにして、動き推定アプリケーション199は、ロボットまたはコンピュータ107に対するカスタマイズされたプログラム156を得ることができる。カスタマイズされたプログラム156は、ユーザ101に対する電子健康記録データ111に基づいてカスタマイズされたものである。
そして、動き推定アプリケーション199は、カスタマイズされたプログラム156を実行する(ステップ157)。
なお、オプションとして、動き推定アプリケーション199は、カスタマイズされたプログラム156の実行結果に基づいて、パフォーマンスフィードバック158を行ってもよい。例えば、パフォーマンスフィードバック158は、サービスをユーザ101に提供した際の、カスタマイズされたプログラムの性能、成功、または失敗を表すデータを含む。
また、動き推定アプリケーション199は、カスタマイズされたプログラム156の性能をさらに改善するために、パフォーマンスフィードバックを使用してもよい。例えば、パフォーマンスフィードバック158を表すパフォーマンスフィードバックデータを、ユーザ101に関連付いた電子健康記録データ111に追加してもよい。このようにして、動き推定アプリケーション199は、ロボット190またはコンピュータ107の性能を改善させることができる。
図1Cは、ユーザに固有な視覚分類器をトレーニングするための例示的なトレーニングデータ170を示すブロック図である。図2を参照して以下で説明される分類器データ292は、とりわけ、一つ以上のユーザに固有な視覚分類器を表すデータを含んでいてもよい。トレーニングデータ170は、図2を参照して以下で説明されるメモリ227などの実メモリに記憶されてもよい。例えば、トレーニングデータ170は、分類器データ292の要素に含まれていてもよい。
動き推定アプリケーション199は、トレーニングデータ170を使用して、一つ以上のユーザに固有な視覚分類器をトレーニングするためのコードおよびルーチンを含む。動き推定アプリケーション199は、トレーニングデータ170を使用して、ユーザに固有な視覚分類器を新たに構築し、または、既存のユーザに固有な視覚分類器を更新する。ユーザに固有な視覚分類器は、ロボット190が個々のユーザ101に接触し、または個々のユーザ101に対して実行されることになる一つ以上の現在または後のタスクに応答する前に、オフラインで構築または更新されてもよい。
一実施形態では、トレーニングデータ170は、ロボット190の、ユーザ、物体、タスクに対する認識をカスタマイズするように構成されてもよい。
トレーニングデータ170は、数百から数百万の画像を含んでいてもよい。例えば、図1Cに示される例示的なトレーニングデータ170は、第1の画像161、第2の画像163、第3の画像165、第4の画像167、第5の画像169、および第6の画像171を含む。図1Cの例では、限られた画像が示されているが、不図示のさらなる画像を含んでいてもよい。したがって、図1Cに示される例は、例示的かつ非限定的な意図がある。
トレーニングデータ170に含まれる画像は、2つの異なる組にグループ化されている。第1の組171は、ユーザ101が実行する通常のデータイム活動に対応する画像である。例えば、画像は、走っている状態(161)、かがんでいる状態(163)、立っている状態(165)、または座っている状態(167)を表す。
第2の組173は、足に負荷をかけられないユーザの画像である。例えば、画像は、寝ている状態(169および171)、座っている状態(167)を表す。
ここで、座っている状態(167)は、いずれのクラスにも関連付けることができるため、画像167は、組171にも組173にも含まれることに留意すべきである。言い換えると、「座っている」という活動は、通常のデータイム活動にもなり得るし、足に負荷をかけられないユーザに関連付いた活動にもなり得る。
動き推定アプリケーション199は、画像の組171および173の一つ以上を使用して、ユーザに固有な視覚分類器をトレーニングする。また、動き推定アプリケーション199は、ユーザ101に関連付いたEHRデータ111に基づいて、ユーザ101に固有な視覚分類器をトレーニングするのに使用される画像を選択してもよい。
例えば、EHRデータ111が、患者が足を骨折していること、または下半身が麻痺していることを示している場合、動き推定アプリケーション199は、第2の組173から画像を選択する。これらの画像が、当該ユーザ101の障害および能力と関連付いている可能性がより高いためである。
組171および173は、例示的なものであり非限定的なものである。実際には、トレーニングデータ170は、ユーザ101またはロボット190に対する活動のいずれかのクラスを表す画像の一つ以上の組を含んでいてもよい。また、クラスは、EHRデータ111に含まれる個々の症状によってカスタマイズされていてもよい。例えば、トレーニングデータ170は、パーキンソン病、アルツハイマー病、心臓病、様々な癌、脚の損傷、腕の損傷、手の損傷、足の損傷、または、個々のEHRデータ111においてユーザ101に対して説明できる任意の他の症状もしくは障害、と関連付いた画像のクラスを含んでいてもよい。
一実施形態では、動き推定アプリケーション199は、トレーニングデータ170に含まれる画像の数を増やすことによって性能を改善することができる。動き推定アプリケーション199の性能はまた、トレーニングデータに含まれる画像が、ロボット190が実行する実際のタスクに沿ったものである場合に、さらに改善される。一実施形態では、動き推定アプリケーション199は、さらなる画像、またはロボット190によって実行されるタスクに固有な画像を含むために、トレーニングデータ170をオンザフライで作成、または更新できるように構成してもよい。
一実施形態では、ロボット190の認識は、トレーニングデータ170を使用してトレーニングされた、ユーザに固有な視覚分類器に基づいて修正される。例えば、ロボット190は、環境を認識するための一つ以上のセンサを含む。ロボット190は、環境内のユーザ101を識別してもよい。また、ロボット190は、識別されたユーザ101に関連付いた、ユーザに固有な視覚分類器を取得してもよい。また、ロボット190は、ユーザ101に関連付いた、ユーザに固有な視覚分類器に基づいて、ユーザ101のアクティブまたは非アクティブ状態を認識または解釈してもよい。
図1Dは、ユーザ101に対してナビゲーション支援を提供する際に、ロボット190の振る舞いを修正する、動き推定アプリケーション199の例180を示すブロック図である。図1Dは、ユーザ101がロボット190(不図示)によって廊下を案内されている、3つの例示的なシナリオ181、183、185を表す。矢印は、ロボット190が廊下の該当する位置にいた場合における、動くべき方向を示す。また、矢印が長いほど、ロボット190の移動速度が速いことを表す。
通常の移動(符号181)の場合、ロボット190は、ロボット190がユーザ101から見えるように、ユーザ101の前にとどまり、また、ユーザ101のすぐ前方に位置する。例えば、ロボットは、歩いている間、ユーザ101から1.5〜3メートルの距離を維持してもよい。
シナリオ183では、EHRデータ111が、ユーザ101の視力が低いことを示していると動き推定アプリケーション199が判定している。したがって、動き推定アプリケーション199は、シナリオ181のときよりも、ロボット190がよりユーザ101の近くに位置するように、ロボット190に対するプログラムを、ユーザ101に対してカスタマイズすべきであると判定する。
動き推定アプリケーション199は、ロボット190がよりユーザ101の近くに位置するように(それにより、ロボット190がユーザ101から見えるようになるため)、ロボット190のプログラムをカスタマイズする。例えば、ロボット190は、ユーザ101から0.3〜1.5メートルの距離を維持してもよい。なお、ロボット190は、ユーザ101のより近くに位置するため、動き推定アプリケーション199はまた、ロボット190がシナリオ181よりも遅く、または減速して移動するように、ロボット190に対するプログラムをカスタマイズしてもよい。例えば、シナリオ181では毎秒1.2メートルなのに対し、シナリオ183では、ユーザ101の一つ以上の身体的能力に応じて、毎秒1.0メートル以下としてもよい。
同様に、ロボット190は、シナリオ183において、シナリオ181と比較して10〜20%減速させてもよい。シナリオ183における短い矢印は、ロボット190がシナリオ181および185よりも低速で移動することを示す。
シナリオ185では、EHRデータ111が、ユーザ101の左耳が不自由であることを示していると動き推定アプリケーション199が判定している。したがって、動き推定アプリケーション199は、ロボット190がシナリオ183のとき(毎秒1.0メートル)よりも早く動くように(毎秒1.2メートル)、ユーザ101に対してカスタマイズする。
例えば、ユーザ101は、部分的に耳が不自由であっても、ロボット190を見ることができ、また、ロボット190をより速く移動させることによって、ユーザを害するリスクを減らせる。動き推定アプリケーション199はまた、ユーザ101がロボット190の音を聞くのに苦労するため、ロボット190がユーザ101のより近くにとどまるように、ロボット190のプログラムをカスタマイズしてもよい。例えば、ロボット190は、ユーザ101から0.3〜1.5メートルの距離を維持してもよい。また、動き推定アプリケーション199はさらに、左耳が不自由であることを示すEHRデータ111に基づいて、「ユーザ101が主に右耳を使う可能性が高いため、ロボット190が、ユーザ101の右側かつ右耳の範囲にとどまる」ように、ロボット190に対するプログラムをカスタマイズしてもよい。
これらのシナリオ181,183,185の各々について、動き推定アプリケーション199は、ロボット190がユーザ101に対して移動する際の機能的な距離または位置を推定するためのシミュレーションを構築してもよい。このようなシミュレーションを構築することを、「視点取得(perspective taking)」と称する。視点取得の品質は、EHRデータ111に含まれるデータに基づいて向上する。
(動き推定アプリケーションの例)
図2は、動き推定デバイス200の例を示すブロック図である。一実施形態では、動き推定デバイス200は、図2を参照して以下に説明する機能の一部または全てを提供するように構成された専用のコンピュータを含んでいてもよい。
動き推定デバイス200は、図1Aに示されるシステム100におけるロボット190またはコンピュータ107であってもよく、これらを含んでもよく、もしくはこれらに含まれてもよい。動き推定デバイス200は、いくつかの例に従って、動き推定アプリケーション199、プロセッサ225、メモリ227、通信ユニット245、センサ247、
カメラ249、モータ251、モバイルハードウェア253、およびスピーカ267を含んでいてもよい。また、動き推定アプリケーション199は、通信モジュール202、位置モジュール204、検出モジュール206、推定モジュール208、状態モジュール210、ユーザモジュール212、およびユーザインタフェースモジュール214を含む。動き推定デバイス200のコンポーネントは、バス220によって通信可能に結合されている。
プロセッサ225は、算術論理ユニット、マイクロプロセッサ、汎用コントローラ、または、計算を実行して表示装置に表示信号を提供する他のプロセッサアレイ等を含む。
プロセッサ225は、データ信号を処理し、CISC(Complex Instruction Set Computer)、RISC(Reduced Instruction Set Computer)、GPU(グラフィック処理ユニット)、命令セットの組合せとして実装されたアーキテクチャなど様々なアーキテクチャを含みうる。なお、図2には一つのプロセッサ225だけが示されているが、複数のプロセッサ225が含まれていてもよい。上記以外のプロセッサ、オペレーティングシステム、センサ、表示装置、あるいは物理的構成も採用可能である。
一実施形態において、プロセッサ225は、図4および図5に示した方法400および500の一つ以上のブロックを実行するようにプログラムされる。プロセッサ225は、バス220に接続され、信号線226を介して他のコンポーネントと通信する。
メモリ227は、プロセッサ225が実行可能な命令やデータを格納する。格納される命令やデータは、本明細書に示す技術を実行するためのコードを含んでいてもよい。
メモリ227は、DRAM、SRAM、フラッシュメモリやその他の既存のメモリ装置であってもよい。一実施形態において、メモリ227は、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、CD−ROM装置、DVD−ROM装置、DVD−RAM装置、DVD−RW装置、フラッシュメモリ装置や情報記憶の分野において既知のその他の大容量記憶装置などの、非一時的(non-volatile)メモリや永久記憶装置を含んでいてもよい。メモリ227は、バス220に接続され、信号線228を介して他のコンポーネントと通信する。
図2に示すように、メモリ227は、分類器データ292およびユーザデータ297を記憶する。メモリ227はまた、本明細書で説明される機能を提供するための他のデータを記憶してもよい。
分類器データ292は、異なるタイプの病状に対応するロボット190に対する命令を含んだデータである。例えば、ユーザ101と関連付いた病状が、車椅子なしでは歩くことが不可能なものである場合、ロボット190に対する命令は、車椅子を使用することを妨げる障害物を識別するものとなる。また、「車椅子に座っているユーザ101の手の高さに近い3次元空間の地点に物体を運ぶ手渡し動作」を用いることによって、物体をユーザ101に提供する命令を含んでいてもよい。
一実施形態では、動き推定アプリケーション199は、分類器を生成するためのシミュレーションにおいてユーザ101およびロボット190を観察する。
ユーザデータ297は、ユーザ101に関する情報を含んだデータである。当該情報は、ユーザ識別子(ID)、ユーザ101のユーザ名およびパスワード、ヘルスサーバ110から取得または動き推定アプリケーション199によって生成される、ユーザ101のEHRを含む。EHRは、ユーザ101に関連付いた病状を含む。また、動き推定アプリケーション199は、ユーザ101に関連付いた病状を、分類器データ292の一部である分類器と比較して、ロボット190に対する命令を識別して、タスクを実行してもよい。
通信ユニット245は、システム100に含まれるサーバ107、ロボット190、ヘルスサーバ110の少なくとも一つに対してデータを送受信する手段である。通信ユニット245は、信号線230を通してバス220に接続される。ある実施形態では、第一の通信ユニット245は、ネットワーク105や他の通信チャネルへの直接的な物理的接続のためのポートを含む。例えば、通信ユニット245は、システム100の他の構成要素と有線通信を行うためのUSB、SD、CAT−5または類似のポートを含む。
一実施形態において、通信ユニット245は、IEEE802.11、IEEE802.16、BlueTooth(登録商標)、または他の適切な無線通信方式を含む、一つまたは複数の無線通信方式を用いて、システム100の他の構成要素や他の通信チャネルとデータを交換するための無線送受信部を含んでいてもよい。
一実施形態において、通信ユニット245は、携帯電話ネットワークを介して、ショートメッセージサービス(SMS)、マルチメディアメッセージサービス(MMS)、ハイパーテキスト転送プロトコル(HTTP)、直接的データ接続、WAP、電子メールやその他の適切な種類の電子的通信を含むデータを送信するための携帯無線送受信機を含む。
通信ユニット245は、TCP/IP、HTTP、HTTPS、SMTPなどを含む標準ネットワークプロトコルを用いて、ファイルやメディアオブジェクトを配布するために、ネットワーク105への従来型の接続を提供することもできる。
センサ247は、物理的な変化を感知する任意の装置である。センサ247は、信号線232を介してバス220に接続されている。
一実施形態において、センサ247はモーションディテクタである。例えば、センサ247は、ロボット190の姿勢を検出するジャイロスコープである。
また、他の実施形態において、センサ247は、ロボット190の加速度を測るのに用いられる加速度計である。さらに別の例では、センサ247は、例えば、GPS衛星や、無線情報によってGPS座標を取得することで位置検出を行う。
一実施形態において、センサ247は、通信モジュール202を介して位置情報を位置モジュール204に送る。
他の実施形態において、センサ247は、分類器データ292の一部として位置情報をメモリ227に保存する。
一実施形態において、センサ247は深さセンサを含む。
一実施形態において、深さセンサは、例えば赤外線レーザ光のスペックルパターンのような構造化光(structured light)を用いて深さを決定する。
他の実施形態において、深さセンサは、カメラから対象物まで光信号が進むのにかかる時間に基づいて深さを決定する、飛行時間計測式(time-of-flight)の技術を用いて深さを決定する。例えば、深さセンサはレーザ測距器である。
深さセンサは、地上における深さの変化や、変化の大きさを識別するために用いられる。
一実施形態において、センサ247は、ユーザ101や障害物の位置を識別するために、深さ情報を位置モジュール204に送信する。
一実施形態において、センサ247は、音を電気信号に変換するためのマイクを含む。マイクは、視覚障害のあるユーザ101から、要求を満たすための命令を取得する。例えば、マイクは、視覚障害のあるユーザ101のために物体を拾い上げるという命令を取得する。マイクは、命令を処理するために、電気信号を動き推定アプリケーション199、例えば、ステータスの変化を識別する命令を処理する状態モジュール210に送信する。
カメラ249は、信号線234を介してバス220に接続された、画像を取得するための物理デバイスである。一実施形態において、カメラ249は電気的な画像を取り込む。
カメラ249は、CCD(charge-coupled device)やCMOS(complementary metal-oxide semiconductor)といった、視覚的イメージを電気信号に変換するイメージセンサを含む。
一実施形態において、カメラは、電気信号を、ユーザ101の位置を識別するために位置モジュール204に送信し、環境内の障害物の位置を検出するために検出モジュール206に送信し、また、ユーザ101の状態に変化がないか判定するために状態モジュール210に送信する。
他の実施形態において、カメラ249は、分類器データ292やユーザデータ297の一部として電気信号をメモリ227に格納する。
動き推定デバイス200がロボット190の一部である実施形態では、動き推定デバイス200は、モータ251およびモバイルハードウェア253を含んでいる。モータ251は、信号線236を介してバス220に結合されている。また、モバイルハードウェア253は、信号線238を介してバス220に結合されている。
モータ251は、モバイルハードウェア253を駆動するためのハードウェアである。また、モバイルハードウェア253は、ホイールなどの、ロボット190を移動させるハードウェアである。モータ251およびモバイルハードウェア253は、ロボット190を移動させるために使用される。
例えば、推定モジュール208は、モバイルハードウェア253を駆動して、環境内の障害物およびユーザ101の一つ以上の身体的能力に基づいてタスクを実行するようにモータ251に指示する。
スピーカ267は、信号線254を介してバス220に結合された、音声指示を流すためのオプションのハードウェアである。例えば、動き推定デバイス200がロボット190である場合、スピーカ267は、目の不自由なユーザ101に音声指示を提供するための信号を推定モジュール208から受信する。
一実施形態では、動き推定アプリケーション199におけるモジュール202、204、206、208、210、212、および214のそれぞれは、以下に説明する機能を提供するための、プロセッサ225によって実行可能な命令の組を含む。他の実施形態では、モジュール202、204、206、208、210、212、および214のそれぞれはメモリに記憶され、システムのプロセッサ225によってアクセス可能かつ実行可能であってもよい。また、モジュール202、204、206、208、210、212、および214のそれぞれは、動き推定デバイス200のプロセッサ225および他のコンポーネントとの協調および通信に適合されてもよい。一実施形態では、モジュール202、204、206、208、210、212、および214のそれぞれは、動き推定デバイス200のプロセッサによって記憶および実行される一つ以上のシンクライアントとして機能するように適合されてもよい。
通信モジュール202は、動き推定アプリケーション199と動き推定デバイス200の他のコンポーネントとの間の通信を扱うためのルーチンを含むソフトウェアである。一実施形態では、通信モジュール202は、通信を扱うための以下に説明する機能を提供するための、プロセッサ225によって実行可能な命令の組を含む。通信モジュール202は、信号線203を介してバス220に通信可能に結合されている。
通信モジュール202は、通信ユニット245を介して、コンピュータ107、ロボット190、およびヘルスサーバ110の一つ以上に対してデータを送受信する。例えば、通信モジュール202は、通信ユニット245を介して、ヘルスサーバ110から電子健康記録データ111を受信する。
一実施形態では、通信モジュール202は、動き推定アプリケーション199のコンポーネントからデータを受信し、およびメモリ227にデータを記憶させる。一実施形態では、通信モジュール202は、メモリ227からデータを取得し、動き推定アプリケーション199の一つ以上のコンポーネントにデータを送信する。例えば、通信モジュール202は、カメラ249からの画像を、ユーザデータ297として記憶させてもよい。一実施形態では、通信モジュール202は、動き推定アプリケーション199のコンポーネント間の通信を扱ってもよい。例えば、通信モジュール202は、ユーザ101の位置に関するデータを位置モジュールから受信し、当該データを推定モジュール208に送信する。
位置モジュール204は、ロボット190の現在位置を判定し、ならびにユーザ101の位置、方向および速度に関するセンサデータを受信するためのルーチンを含むソフトウェアである。一実施形態では、位置モジュール204は、ロボット190およびユーザ101の位置を判定するための、以下に説明する機能を提供するためのプロセッサ225によって実行可能な命令の組を含む。位置モジュール204は、信号線205を介してバス220に通信可能に結合されている。
一実施形態では、位置モジュール204は、センサ247から、ロボット190の位置に関する位置情報を受信する。例えば、位置モジュール204は、センサ247からGPS座標を受信する。別の例では、位置モジュール204は、既知の位置情報(例えば、携帯電話の基地局、WiFiホットスポットなど)および信号強度を受信する。位置モジュール204は、ロボット190の現在位置を判定してもよい。例えば、位置モジュール204は、GPS座標、WiFiを使用した三角測量信号などに基づいてロボット190の位置を判定する。別の例では、位置モジュール204は、カメラ249から画像を取得し、画像中の既知の物体の位置をロボット190と比較することによって、ロボット190の現在位置を判定する。
一実施形態では、位置モジュール204は、ユーザ101に関連付いた病状に基づいて、ユーザ101の位置を判定する。例えば、位置モジュール204は、ユーザ101が病状の通りであるとの予測に基づいて、通信モジュール202を介して、カメラ249から画像を取得する。
例えば、ユーザ101が足に負荷をかけられない状態である場合、ユーザ101は、座り、寄りかかり、または横たわっている可能性が高い。よって、位置モジュール204は、「足に負荷をかけられないユーザ」に対応する分類器を使用することができる。当該分類器は、ユーザ101が健常である場合よりも低い高さでユーザを探すような命令を含む。
一実施形態では、位置モジュール204は、カメラ249から取得した画像から、ユーザ101の位置および方位を認識する。位置は、直交座標系に従って、経度および緯度として表されてもよい。また、位置モジュール204は、ユーザの胴体の方向を識別し、当該ユーザ101の胴体の方向に基づいて、ユーザ101が向いている方位を判定してもよい。また、位置モジュール204は、ユーザ101の顔の向きを判定してもよい。胴体の方向および顔の方向の組み合わせによって、方位を構成することができる。
検出モジュール206は、環境内の障害物を検出するためのルーチンを含むソフトウェアである。一実施形態では、検出モジュール206は、環境内の障害物を検出するための、以下に説明する機能を提供するための、プロセッサ225により実行可能な命令の組を含む。検出モジュール206は、信号線207を介してバス220に通信可能に結合されている。
一実施形態では、検出モジュール206は、環境内にある物体を識別する。例えば、検出モジュール206は、カメラ249から画像を取得し、環境内の障害物を識別する。障害物とは、静止した物体であり、例えば、テーブル、いす、出入口、およびユーザ101の経路を妨げる他の物などである。障害物はまた、動いている物体であってもよく、例えば、自動車、スケートボード、自転車、人、および動物などである。また、検出モジュール206は、障害物の位置を表すマップを生成してもよい。
一実施形態では、検出モジュール206は、ユーザ101に関連付いたEHRに基づいて障害物を識別する。例えば、ユーザ101が車椅子に乗っている場合、一部の狭い出入口が、ユーザ101によって通行不可となることがある。別の例では、ユーザ101の目が不自由である場合、杖で物体を検出できないことがあるため、地面に広がっている物体がユーザ101にとって危険なことがある。
推定モジュール208は、ユーザ101に関連付いたEHRに基づいて、ユーザ101の一つ以上の身体的能力を推定し、また、環境内の障害物およびユーザ101の一つ以上の身体的能力に基づいてタスクを実行するために、ロボット190に対する命令を生成するためのルーチンを含むソフトウェアである。
一実施形態では、推定モジュール208は、ユーザ101の一つ以上の身体的能力を推定し、およびタスクを実行するためのロボット190に対する命令を生成するために、以下に説明する機能を提供するための、プロセッサ225によって実行可能な命令の組を含む。推定モジュール208は、信号線209を介してバス220に通信可能に結合されている。
推定モジュール208は、通信モジュール202を介してユーザモジュール212またはヘルスサーバ110からEHRを受信する。なお、推定モジュール208は、ユーザ101に関連付いた病状をEHRから識別し、当該病状に基づいて、ユーザ101の一つ以上の身体的能力を推定してもよい。
一実施形態では、推定モジュール208は、ユーザ101の現在の病状に基づいて、ユーザ101の一つ以上の身体的能力を推定する。例えば、ユーザ101が、右のかかとの手術を受けている場合、推定モジュール208は、ユーザ101が、右のかかとを動かす能力が制限されていると判定する。一実施形態では、推定モジュール208は、ユーザ101の過去の病状に基づいて、ユーザ101の一つ以上の身体的能力を推定する。例えば、推定モジュール208は、ある期間にわたってなされた観察に基づいて、ユーザ101の右肩の怪我を理由に、ユーザ101がその右半身を動かす能力が制限されていると判定してもよい。また、推定モジュール208は、ユーザ101の現在の病状または過去の病状に基づいて、EHRを更新するようにユーザモジュール212に指示してもよい。
一実施形態では、推定モジュール208は、ユーザ101に関連付いたEHR、ユーザ101の現在の病状、ユーザ101の過去の病状などに基づいて、コスト式(cost equation)を生成する。推定モジュール208は、ユーザ101に関連付いた観察結果に基づ
いて、コスト式に重み付けをしてもよい。推定モジュール208に対する変数は、ユーザ101についての、可動範囲、到達可能性、筋肉の緊張、快適感、好み、ロボット190から物体を受け取るのに要す時間、ロボット190が手渡し動作を実行した後にロボット190と接する時間、およびタスクにかかる時間を含んでいてもよい。
推定モジュール208は、病状にそれぞれ対応する分類器に基づいて、ユーザ101の一つ以上の身体的能力を推定してもよい。一実施形態では、推定モジュール208は、既知の病状を有さない(すなわち、少なくとも学習に影響する病状ではない)ユーザ101のアクティブまたは非アクティブ状態を観察し、既知の病状を有するユーザ101と比較
することによって、分類器を生成する。推定モジュール208は、期間を拡張してトレーニングデータを収集してもよい。例えば、推定モジュール208は、24時間の間(または12時間、48時間など)、病状を有するユーザ101を観察してもよい。
例えば、推定モジュール208は、足に負荷がかからないユーザ101に対する分類器の組を作成してもよい。推定モジュール208は、既知の病状を有さない(すなわち、ユーザ101の足に影響する病状ではない)対象を、足に負荷がかからないユーザ101と比較する。対照させるユーザ101は、立つこと、歩くこと、物体を拾い上げること、コンピュータデスクで働くことなどを含む種々の活動を行うことができる。一方、足に負荷がかからないユーザ101は、座ること、寄りかかること、および横たわることに大部分の時間を費やす。推定モジュール208は、これらの相違に基づいて分類器を生成し、分類器を分類器データ292の一部としてメモリ227に記憶させる。
一実施形態では、推定モジュール208は、メモリ227に記憶された分類器データ292から分類器を取り出す。分類器は、ユーザ101と独立してオフラインで生成されてもよく、または、ユーザ101のアクティブもしくは非アクティブ状態を観察するステップに対応して生成されてもよい。一実施形態では、推定モジュール208は、ユーザ101のさらなる3次元ビューを取得するように、ロボット190の外部カメラから画像を取得する。
推定モジュール208は、ユーザ101を観察した後で、ユーザ101に対する分類器を生成してもよい。推定モジュール208は、パーソナライズされた分類器、ユーザ101が有する病状に関連付いた分類器、または両方のタイプの分類器の組み合わせに基づいて、ユーザ101の一つ以上の身体的能力を推定してもよい。
推定モジュール208は、環境内にある障害物およびユーザ101の一つ以上の身体的能力に基づいてタスクを実行するための、ロボット190に対する命令を生成する。推定モジュール208は、ユーザ101の可動性に基づいてユーザ101がどのように移動するか、ならびに、環境内の障害物およびユーザ101の一つ以上の身体的能力に基づいて、タスクを完了するためにロボット190がどのように移動するべきかについてのシミュレーションを生成してもよい。
例えば、ユーザ101の左耳が不自由な場合、推定モジュール208は、「病状を有しないユーザ101に対してロボット190がどのように移動するか」と比較して、ユーザ101により近く、およびユーザ101の右に移動するようにロボット190に指示してもよい。
シミュレーションを生成するために、シミュレーションは、ユーザ101に関連付いた病状に対応する分類器を使用してもよい。一実施形態では、推定モジュール208は、機械学習、システム識別、適応制御、または類似の適応方法に基づいて、シミュレーションを修正する。
代わりに、または追加として、推定モジュール208は、入力パラメータおよびタスク実行の成功率に基づいてシミュレーションを生成する。入力パラメータとは、ユーザ101の速度、ユーザ101に対するロボット190の相対位置、タスクの困難度、および、ロボット190が案内のためにユーザ101に中継する情報の量などである。
推定モジュール208は、入力パラメータが成功率にどのように影響するかをシミュレートしてもよい。
推定モジュール208は、タスクを実行するようにロボット190に指示する。命令は、シミュレーションに基づいたものであってもよい。タスクとは、ユーザ101のために物体を取得すること、物体をユーザ101に提供すること、ユーザ101から物体を受け
取ること、ユーザ101に対してナビゲーション支援を提供すること、ユーザ101に対して物体を運ぶこと等である。推定モジュール208は、タスクに対する成功率を最大化するために振る舞いを選択、適合、生成してもよい。
一実施形態では、推定モジュール208は、物体に対するリクエストをユーザ101から取得し、当該物体を環境内で探索し、環境内にある物体を識別し、リクエストを行ったユーザ101を識別し、識別された物体を取得することによって、ユーザへ提供すべき物体を取得する。推定モジュール208は、口頭による命令を検出するマイクロフォンを含むセンサ247によって、ユーザ101からのリクエストを取得してもよい。また、推定モジュール208は、EHRに基づいて、環境における物体を識別してもよい。例えば、ユーザ101が車椅子に座っている場合、推定モジュール208は、車椅子に座っているユーザ101がアクセス可能な環境内のエリアを判定する。また、推定モジュール208は、例えば、位置モジュール204から得た情報、および、口頭によるリクエストが来た方向に基づいて、要求を行ったユーザ101を判定してもよい。
物体の取得を実行する上記ステップを実行することで、環境を探索する時間、および物体の取り出しの時間が有利に減少し、それによって、ロボット190がユーザ101にとってより有益となる。
ユーザ101に対する物体の提供は、元の位置からユーザ環境の空間内における位置および向きに物体を移動させる「手渡し動作」を含んでいてもよい。これは、ユーザが車椅子に束縛され、または、かがんで物体を拾うことが困難な場合に有益となる。別の例では、推定モジュール208は、坐骨神経痛のユーザ101の病状に基づいて、「ユーザ101が20ポンド(または、10ポンド、30ポンドなど)よりも重たい物体を運ぶ場合にユーザ101が痛みを受ける」と判定する。推定モジュール208は、対象のスーツケースが20ポンドよりも重たいことを理由に、ユーザの手からスーツケースを受け取り、運ぶようにロボット190に指示してもよい。
一実施形態では、推定モジュール208は、ロボット190に近い側の手が不自由であるかを、当該手の可動範囲、当該手の到達可能性の少なくとも一つに基づいて判定したうえで、手渡し動作を実行する。ロボットに近い側にある手が不自由である場合、推定モジュール208は、元の位置から、ロボットから離れた側にある遠方の手の側に物体を移動させ、手渡し動作を実行するようにロボット190に対する命令を生成してもよい。
推定モジュール208は、ナビゲーション支援をユーザ101に提供してもよい。これは、ユーザ101が視覚障害者である場合に特に有益である。一実施形態では、推定モジュール208は、経路に沿ってユーザ101を追跡および案内するため、ロボット190に対する経路を生成する。推定モジュール208は、視覚障害のあるユーザ101が経路に沿って移動する間、環境内で障害物に遭遇するかを判定し、視覚障害のあるユーザ101の一つ以上の身体的能力に基づいて経路を生成する。例えば、視覚障害のあるユーザ101が、車椅子に座ってレストラン内を移動している場合、ロボット190は、テーブルと椅子との間隔が、視覚障害のあるユーザ101の車椅子が通るために十分に広いような、レストラン内の経路を選択してもよい。
推定モジュール208は、ユーザ101からのユーザ入力に基づいて、経路の始点および終点を判定してもよい。例えば、ユーザ101は、マイクロフォンとして機能するセンサ247により、目的地を取得するための命令をロボットに提供することを口頭でリクエストしてもよい。推定モジュール208は、リクエストについて発話からテキストへの変換を実行して、機械が理解できる言語を生成し、命令を生成してもよい。経路の始点は、ユーザ101が向いている方位に基づいてもよい。例えば、ユーザ101が、終点に到達するために移動するべき方向とは逆を向いている場合、推定モジュール208は、正しい
方向に移動するようユーザ101を案内する経路を生成する。
一実施形態では、推定モジュール208は、ユーザ101の過去の振る舞いに基づいて、経路の始点および終点を判定する。例えば、視覚障害のあるユーザ101が月曜日から金曜日までの午前8時に同一の経路をとる場合であって、ユーザ101が週末の午前8時に経路をリクエストした場合、推定モジュール208は、同一の終点を持った経路であって、環境内の障害物に応じて変化する経路を生成する。
推定モジュール208は、スピーカ267から流れる音を生成することによって、経路に沿ってユーザ101を案内してもよい。代わりに、または追加として、ロボット190は、ユーザ101と身体的に接触し、経路に沿って進むために異なる方向に移動するようユーザ101をガイドする触覚フィードバックデバイスに命令を送信してもよい。
状態モジュール210は、ユーザ101に関連付いた状態を追跡するためのルーチンを含むソフトウェアである。一実施形態では、状態モジュール210は、ユーザ101の状態を追跡するために、以下に説明する機能を提供するためのプロセッサ225によって実行可能な命令の組を含む。状態モジュール210は、信号線211を介してバス220に通信可能に結合されている。
一実施形態では、状態モジュール210は、推定モジュール208により生成されたシミュレーションに対する入力のいずれかが変化したかを判定することで、ユーザ101に関連付いた状態を追跡する。例えば、タスクがユーザ101を案内するものであって、ユーザ101の速度が変化した場合、状態モジュール210は、ユーザ101の速度をアップデートすることで、シミュレーションを調節するように、通信モジュール202を介して推定モジュール208に指示する。代わりに、または追加として、状態モジュール210は、ユーザ101からのフィードバックを検出してもよい。例えば、ユーザ101は、口頭で、または、ユーザインタフェースモジュール214によって生成されるユーザインタフェースを通じてフィードバックを行ってもよい。フィードバックは、ロボット190が自動的に支援しない場合にロボット190に支援をリクエストするものであってもよいし、ロボット190が受け取った物体が誤っていたことをロボット190に伝えるものであってもよい。また、ロボット190がある場所を通過した場合に当該場所に物体を置くようにロボット190に指示するもの等であってもよい。
一実施形態では、状態モジュール210は、フィードバックに基づいてEHRを更新する。フィードバックは、ユーザ101の病状の誤認識に関するものであってもよい。例えば、ユーザ101が、以前に足を怪我しており、治療を受けた場合、ユーザ101は、「足の怪我がすでに治っている」というフィードバックを提供してもよい。また、状態モジュール210は、EHRを更新するようにユーザモジュール212に指示してもよい。ユーザ101は、口頭によるフィードバック、またはユーザインタフェースモジュール214により生成されるユーザインタフェースを通じたフィードバックを提供してもよい。
ユーザモジュール212は、ユーザデータ297を生成するためのルーチンを含むソフトウェアである。一実施形態では、ユーザモジュール212は、ユーザデータ297を生成するために、以下に説明する機能を提供するためのプロセッサ225により実行可能な命令の組を含む。ユーザモジュール212は、信号線213を介してバス220に通信可能に結合されている。
一実施形態では、ユーザモジュール212は、ユーザ101を登録する。ユーザモジュール212は、ユーザ101から情報を受信するユーザインタフェースを表示するための命令を、ユーザインタフェースモジュール214に送信してもよい。例えば、ユーザイン
タフェースは、ユーザ名、人口学的情報、ユーザ101に関連付いた病状を含む医療履歴、ユーザ101に関連付いた好みなどを提供するための、ユーザ101に対応するフィールドを含む。ユーザの好みとは、例えば、ユーザ101に対して一定重量より重い物体を取得するロボット190に対する好みを含んでいてもよい。ユーザモジュール212は、通信モジュール202を介してユーザインタフェースモジュール214からユーザ入力を受信し、ユーザ101に固有なEHRを生成してもよい。また、ユーザモジュール212は、EHRを、ユーザデータ297の一部として記憶してもよい。
代わりに、または追加として、ユーザモジュール212は、動き推定デバイス200の外部にあるデータソースから情報を受信してもよい。例えば、ユーザモジュール212は、医療履歴クエリを生成し、および、通信モジュール202を介して医療履歴クエリをヘルスサーバ110に送信することで、電子健康記録データ111を取得してもよい。また、ユーザモジュール212は、電子健康記録データ111からユーザ101に対するEHRを識別してもよい。また、ユーザモジュール212は、HIPAAに準拠して暗号化されたEHRを受信してもよい。例えば、ユーザモジュール212は、EHRを受信するためにHL7メッセージングを使用してもよい。また、ユーザモジュール212は、EHRを復号化し、および復号化したEHRをユーザデータ297として記憶してもよい。
ユーザインタフェースモジュール214は、ユーザインタフェースを提供するための、グラフィカルデータを生成するためのコードおよびルーチンを含むモジュールである。一実施形態では、ユーザインタフェースモジュール214は、ユーザインタフェースを提供するために、グラフィカルデータを生成するための以下に説明する機能を提供するためのプロセッサ225により実行可能な命令の組を含む。一実施形態では、ユーザインタフェースモジュール214は、動き推定デバイス200のメモリ227に記憶されてもよく、プロセッサ225によってアクセス可能および実行可能としてもよい。ユーザインタフェースモジュール214は、信号線215を介してバス220に結合される。
一実施形態では、ユーザインタフェースモジュール214は、ユーザ101の登録に際してユーザ101がユーザ情報を入力するためのユーザインタフェースを生成する命令を、ユーザモジュール212から受信する。例えば、ユーザインタフェースは、ユーザ名を入力するためのフィールド、パスワードを入力するためのフィールド、および医療履歴を入力するための一つ以上のフィールドなどを含んでいてもよい。また、ユーザインタフェースは、ユーザインタフェースとヘルスサーバ110から得たEHRとをリンクさせるオプションを含んでいてもよい。
一実施形態では、ユーザインタフェースモジュール214は、ユーザ101がフィードバックを提供するためのユーザインタフェースを生成する命令を状態モジュール210から受信する。フィードバックは、医療履歴を医療情報によって更新するというオプションを含んでいてもよい。例えば、ユーザ101は、新たに診断された病状を追加し、治療された現在の病状を削除してもよい。
図3は、ユーザインタフェースの例である。図3は、医療履歴を提供するためのユーザ入力を受け付けるユーザインタフェース300をグラフィカルに示したものである。ユーザインタフェース300は、ユーザインタフェースモジュール214によって生成されたトップパネル305とボトムパネル310に分割される。トップパネル305は、「以下の症状のいずれかを経験したことがありますか?」という質問を含む。この例では、質問への回答として、糖尿病のアイコン315、脳卒中のアイコン320、および心臓発作のアイコン325を選択するためのボタンが表示される。回答のいずれかを選択することによって、ユーザインタフェースモジュール214が、回答に関する追加的な質問を有するユーザインタフェースを生成する。例えば、心臓発作のアイコン325を選択することに
よって、ユーザインタフェースモジュール214が、ユーザ101が経験した心臓発作の回数、心臓発作の日付、心臓発作と関連付いた症状を治療するためにユーザ101が薬剤投与を受けているかなど、に関してユーザ101に問い合わせるユーザインタフェースを生成する。ユーザモジュール212は、回答に基づいてEHRを生成してもよい。
トップパネル305はまた、EHRアップロードアイコン330を含む。アイコン330が選択されると、ユーザインタフェースモジュール214に、ユーザインタフェースをユーザ101に対するEHRにリンクさせるためのユーザインタフェースを生成させる。これにより、ユーザ101が医療履歴を入力するのに費やす時間を減らすことができ、また、ユーザによって提供された不正確な情報ではなく、医師の所見に基づいたより正確な医療履歴を含ませることができるため、有利である。
ボトムパネル310には、選択することで、ユーザインタフェースモジュール214に、アイコンに対応するユーザインタフェースを生成させる他のアイコンを含む。アイコンは、ユーザ設定(好み)、健康状態、ロボット命令、場所、および設定を含む。
(方法の例)
図4を参照して、ユーザの一つ以上の身体的能力に基づいてロボットのタスクを決定する例示的な方法400のフローチャートを説明する。
一実施形態では、方法400の一つ以上のステップは、方法400の一つ以上のステップを実行するためにプログラミングされた、プロセッサベースのコンピュータによって実行されてもよい。例えば、方法400の一つ以上のステップは、方法400の一つ以上のステップを実行するためにプログラミングされたモバイルコンピュータによって実行されてもよい。代わりに、または追加として、方法400は、図1Aにおけるコンピュータ107、または、ロボット190に記憶された動き推定アプリケーション199のモジュールによって実行されてもよい。例えば、動き推定アプリケーション199は、図2の位置モジュール204、検出モジュール206、および推定モジュール208を含んでいてもよい。
まず、ステップ402において、環境におけるユーザの現在位置を判定する。例えば、位置モジュール204が、環境におけるユーザ101の現在位置を判定する。位置は、センサ247によって提供される情報に基づいて判定されてもよい。例えば、位置モジュール204が、センサ247によって提供されるGPS座標からロボット190の位置を判定してもよい。また、位置モジュール204は、ロボット190に関連するユーザ101の位置を判定するために、カメラ249から受信した画像を使用してもよい。代わりに、または追加として、位置モジュール204は、ユーザ101の位置、方向、および速度に関するセンサ出力を受信してもよい。
ステップ404では、環境内の障害物を検出する。例えば、検出モジュール206が、静止した物体(例えば、テーブルおよびイス)、ならびに動いている物体(例えば、人および自転車)を含む環境内の障害物を検出する。
ステップ406では、ユーザの一つ以上の身体的能力を、ユーザに関連付いたEHRに基づいて推定する。推定モジュール208は、ユーザ101に関連付いたEHRに基づいて、ユーザ101の一つ以上の身体的能力を推定してもよい。例えば、推定モジュール208が、「ユーザ101の身体的能力が視力の低下によって制限されている」と推定してもよい。
ステップ408では、環境内の障害物、および、ユーザの一つ以上の身体的能力に基づいて、タスクを実行するロボットに対する命令が生成される。推定モジュール208が、
環境内の障害物、および、ユーザ101の一つ以上の身体的能力に基づいてタスクを実行するようにロボット190に指示してもよい。タスクとは、例えば、ナビゲーション支援を提供し、および、ユーザ101に対して荷物を運ぶことによって、施設内を移動するユーザ101を支援するものであってもよい。
また、推定モジュール208は、「ユーザ101が、ロボット190が目に見える範囲にいることを必要としているため、ユーザ101が通常の視覚を有している場合よりも、ロボット190をユーザ101のより近くに移動させるべき」と判定してもよい。結果として、推定モジュール208は、通常の視覚を有する人と比較して、ロボット190をより遅く移動させるべきと判定する。
ステップ410では、ロボットに対してタスクを実行する指示を行う。ロボット190がタスクを実行するように指示されてもよい。例えば、推定モジュール208が、ナビゲーション支援および荷物の搬送を実行するためのモバイルハードウェア253を制御するモータ251に命令を送信することによって、タスクを実行するようにロボット190に指示する。
図5は、ロボットによって実行される手渡し動作を決定する例示的な方法500のフローチャートである。
一実施形態では、方法500の一つ以上のステップは、方法500の一つ以上のステップを実行するようにプログラミングされたプロセッサベースのコンピュータによって実行されてもよい。例えば、方法500の一つ以上のステップは、方法500の一つ以上のステップを実行するようにプログラミングされたモバイルコンピュータによって実行されてもよい。代わりに、または追加として、方法500は、図1Aにおけるコンピュータ107またはロボット190に記憶された動き推定アプリケーション199のモジュールによって実行されてもよい。例えば、動き推定アプリケーション199は、図5の位置モジュール204、検出モジュール206、推定モジュール208、状態モジュール210、およびユーザモジュール212を含んでいてもよい。
まず、ステップ502において、環境におけるユーザの現在位置を判定する。例えば、位置モジュール204が、環境におけるユーザ101の現在位置を判定する。位置モジュール204は、センサ247からの情報に基づいて、ユーザ101に対する現在位置を判定してもよい。
ステップ504では、環境内の障害物を判定する。例えば、検出モジュール206が、環境内の障害物を検出する。検出モジュール206は、静止した物体および動いている物体の位置を検出してもよい。
ステップ506では、ユーザに関連付いたEHRに基づいて、ユーザの一つ以上の身体的能力を推定する。推定モジュール208が、ユーザ101に関連付いたEHRに基づいて、ユーザ101の一つ以上の身体的能力を推定してもよい。例えば、推定モジュール208は、EHRに基づいて、ユーザ101の左ひじが弱っていることを判定する。
また、推定モジュール208は、ユーザ101の一つ以上の身体的能力を判定するためのシミュレーションを生成してもよい。当該シミュレーションは、弱っている左ひじの制限についての入力パラメータや、ユーザ101がベッドに横たわっており、容易に立つことができず、右手に不快度レベルを生じさせる静脈点滴注射をしているといった観察データなどを含む。
推定モジュール208は、シミュレーションに基づいて、ユーザ101が、ユーザの101の体の近くで、左手で物体を保持する場合に楽に保持することができると判定する。
ステップ508では、環境内の障害物およびユーザの一つ以上の身体的能力に基づいて
、元の位置からユーザ環境の空間内における位置および向きに物体を移動させるための手渡し動作を実行するためのロボットに対する命令を生成する。例えば、推定モジュール208が、環境内の障害物およびユーザ101の一つ以上の身体的能力に基づいて、元の位置から、ユーザ環境の空間内における位置および向きに物体を移動させるための、手渡し動作を実行するためのロボット190に対する命令を生成してもよい。上記例では、推定モジュール208が、ユーザ101の不自由な右手を回避するため、左手をターゲットとした手渡し動作を実行するためにロボット190に対する命令を生成する。
ステップ510では、ロボットに対して手渡し動作を実行するように指示する。推定モジュール208が、手渡し動作を実行するようにロボット190に指示してもよい。例えば、推定モジュール208が、モバイルハードウェア253を制御するモータ251に命令を送信することによって、手渡し動作を実行するようにロボット190に指示する。
ステップ512では、ユーザの状態を追跡する。例えば、状態モジュール210が、ユーザ101の状態を追跡する。状態モジュール210は、カメラ249から画像を取得し、シミュレーションに対する入力パラメータが変化したかを判定することによって状態を追跡してもよい。例えば、ユーザ101が着座状態から起立状態に変化した場合、状態モジュール210は、ユーザ101の状態が変化したと判定する。
ステップ514では、ユーザの状態の変化に応答して、手渡し動作を実行するためのロボットに対する修正された命令を生成する。例えば、ユーザの状態の変化に応答して、状態モジュール210が、手渡し動作を実行するためのロボット190に対する修正された命令を生成してもよい。状態モジュール210は、座っているのではなく、立っているユーザ101に物体を手渡すことによって、手渡し動作を実行するようにロボット190に指示してもよい。
ステップ516では、ユーザの状態の変更を含ませるようにEHRを更新する。ユーザモジュール212が、ユーザの状態の変更を含ませるようにEHRを更新してもよい。例えば、ユーザモジュール212は、ユーザ101が起立可能であることを反映するようにEHRを更新してもよい。
ここで図6を参照して、ターゲットユーザを発見および認識するタスクを実行する例示的な方法600のフローチャートを説明する。一実施形態では、方法600の一つ以上のステップは、方法600の一つ以上のステップを実行するようにプログラミングされたプロセッサベースのコンピュータによって実行されてもよい。例えば、方法600の一つ以上のステップは、方法600の一つ以上のステップを実行するようにプログラミングされたモバイルコンピュータによって実行されてもよい。代わりに、または追加として、方法600は、図1Aにおけるコンピュータ107またはロボット190に記憶された動き推定アプリケーション199のモジュールによって実行されてもよい。例えば、動き推定アプリケーション199は、図2の位置モジュール204、検出モジュール206、および推定モジュール208を含んでいてもよい。
ステップ602で、ターゲットユーザを判定する。例えば、位置モジュール204が、ユーザ101がターゲットユーザであると判定する。一実施形態では、医師または看護師などの医療の専門家が、ロボット190に対するターゲットユーザを定義してもよい。例えば、看護師が、ロボット190に対するターゲットユーザである患者にコップ一杯の水を提供するようにロボット190に指示してもよい。
ステップ604では、ターゲットユーザに対するEHRデータ111を取得する。例えば、動き推定アプリケーション199が、ヘルスサーバ110またはロボット190に記
憶されたデータベースから、ターゲットユーザに関連付いたEHRデータ111を取得するためのクエリを生成してもよい。EHRデータ111は、ターゲットユーザの一つ以上の身体的能力を表すものであってもよい。
ステップ606では、環境内の障害物を検出する。例えば、検出モジュール206が、静止した物体(例えば、テーブルおよびイス)、ならびに動いている物体(例えば、人および自転車)を含む環境内の障害物を検出してもよい。
ステップ608では、環境内の障害物およびEHRデータ111に基づいて、ターゲットユーザに対して一つ以上のタスクを実行するため、ロボット190に対するカスタマイズされた命令を生成する。このように、タスクを実行するための命令は、環境内の障害物、および、EHRデータ111に記述されたユーザの一つ以上の身体的能力に基づいてカスタマイズされてもよい。一実施形態では、タスクは、環境におけるターゲットユーザを発見および認識することを含んでいてもよい。タスクはさらに、物体をターゲットユーザに渡すことを含んでいてもよい。例えば、ロボット190が、コップ一杯の水をターゲットユーザに渡してもよい。
ステップ610では、ロボット190が、カスタマイズされた命令に基づいて、ターゲットユーザに対して一つ以上のタスクを実行する。例えば、ロボット190は、ターゲットユーザを発見および認識し、次いで看護師に指示されたようにコップ一杯の水をターゲットユーザに提供してもよい。
以上の説明では、本発明を十分に理解できるように、多くの詳細について説明した。しかしながら、各実施形態はこれらの具体的な詳細無しでも良いことは当業者にとって明らかであろう。また、説明が不明瞭になることを避けるために、構造や装置をブロック図の形式で表すこともある。例えば、実施形態は、ユーザインタフェースおよび特定のハードウェアとともに説明される。しかし、ここでの説明は、データおよびコマンドを受信する任意のタイプの計算装置および任意の周辺機器について適用できる。
本明細書における「一実施形態」または「他の実施形態」等という用語は、その実施形態と関連づけて説明される特定の特徴・構造・性質が少なくとも本発明の一つの実施形態に含まれることを意味する。「一つの実施形態における」等という用語は本明細書内で複数用いられるが、これらは必ずしも同一の実施形態を示すものとは限らない。
本明細書の詳細な説明の一部は、非一時的(non-transitory)なコンピュータ可読記憶媒体に記憶されたデータビットに対する動作のアルゴリズムおよび記号的表現として提供される。これらのアルゴリズム的な説明および表現は、データ処理技術分野の当業者によって、他の当業者に対して自らの成果の本質を最も効果的に説明するために用いられるものである。なお、本明細書において(また一般に)アルゴリズムとは、所望の結果を得るための論理的な手順を意味する。処理のステップは、物理量を物理的に操作するものである。必ずしも必須ではないが、通常は、これらの量は記憶・伝送・結合・比較およびその他の処理が可能な電気的または磁気的信号の形式を取る。通例にしたがって、これらの信号をビット・値・要素・エレメント・シンボル・キャラクタ・項・数値などとして称することが簡便である。
なお、これらの用語および類似する用語はいずれも、適切な物理量と関連付いているものであり、これら物理量に対する簡易的なラベルに過ぎないということに留意する必要がある。以下の説明から明らかなように、特に断らない限りは、本明細書において「処理」「計算」「コンピュータ計算(処理)」「判断」「表示」等の用語を用いた説明は、コンピュータシステムや類似の電子的計算装置の動作および処理であって、コンピュータシス
テムのレジスタやメモリ内の物理的(電子的)量を、他のメモリやレジスタまたは同様の情報ストレージや通信装置、表示装置内の物理量として表される他のデータへ操作および変形する動作および処理を意味する。
本発明は、本明細書で説明される動作を実行する装置にも関する。この装置は要求される目的のために特別に製造されるものであっても良いし、汎用コンピュータを用いて構成しコンピュータ内に格納されるプログラムによって選択的に実行されたり再構成されたりするものであっても良い。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な、例えばフロッピー(登録商標)ディスク・光ディスク・CD−ROM・MOディスク・磁気ディスクなど任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体などのコンピュータ可読記憶媒体に記憶される。
発明の具体的な実施形態は、完全にハードウェアによって実現されるものでも良いし、完全にソフトウェアによって実現されるものでも良いし、ハードウェアとソフトウェアの両方によって実現されるものでも良い。好ましい実施形態は、ソフトウェアによって実現される。ここでソフトウェアとは、ファームウェア、常駐ソフトウェア、マイクロコードやその他のソフトウェアを含むものである。
さらに、ある実施形態は、コンピュータが利用あるいは読み込み可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取る。この記憶媒体は、コンピュータや任意の命令実行システムによってあるいはそれらと共に利用されるプログラムコードを提供する。コンピュータが利用あるいは読み込み可能な記憶媒体とは、命令実行システムや装置によってあるいはそれらと共に利用されるプログラムを、保持、格納、通信、伝搬および転送可能な任意の装置を指す。
プログラムコードを格納・実行するために適したデータ処理システムは、システムバスを介して記憶素子に直接または間接的に接続された少なくとも一つのプロセッサを有する。記憶素子は、プログラムコードの実際の実行に際して使われるローカルメモリや、大容量記憶装置や、実行中に大容量記憶装置からデータを取得する回数を減らすためにいくつかのプログラムコードを一時的に記憶するキャッシュメモリなどを含む。
入力/出力(I/O)装置は、例えばキーボード、ディスプレイ、ポインティング装置などであるが、これらはI/Oコントローラを介して直接あるいは間接的にシステムに接続される。
システムにはネットワークアダプタも接続されており、これにより、私的ネットワークや公共ネットワークを介して他のデータ処理システムやリモートにあるプリンタや記憶装置に接続される。モデム、ケーブルモデム、イーサネット(登録商標)は、現在利用可能なネットワークアダプタのほんの一例である。
最後に、本明細書において提示されるアルゴリズムおよび表示は特定のコンピュータや他の装置と本来的に関連するものではない。本明細書における説明にしたがったプログラムを有する種々の汎用システムを用いることができるし、また要求された処理ステップを実行するための特定用途の装置を製作することが適した場合もある。これら種々のシステムに要求される構成は、以下の説明において明らかにされる。さらに、本発明は、特定のプログラミング言語と関連づけられるものではない。本明細書で説明される本発明の内容を実装するために種々のプログラミング言語を利用できることは明らかであろう。
実施形態の前述の説明は、例示と説明を目的として行われたものである。したがって、開示された実施形態が本発明の全てではないし、本発明を上記の実施形態に限定するものでもない。本発明は、上記の開示にしたがって、種々の変形が可能である。本発明の範囲は上述の実施形態に限定解釈されるべきではなく、特許請求の範囲にしたがって解釈されるべきである。本発明の技術に詳しい者であれば、本発明はその思想や本質的特徴から離れることなくその他の種々の形態で実現できることを理解できるであろう。同様に、モジュール・処理・特徴・属性・方法およびその他の本発明の態様に関する名前付けや分割方法は必須なものでものないし重要でもない。また、本発明やその特徴を実装する機構は異なる名前や分割方法や構成を備えていても構わない。さらに、当業者であれば、モジュール・処理・特徴・属性・方法およびその他の本発明の態様は、ソフトウェア、ハードウェア、ファームウェアもしくはこれらの組合せとして実装できることを理解できるであろう。また、本発明をソフトウェアとして実装する場合には、モジュールなどの各要素は、どのような様式で実装されても良い。例えば、スタンドアローンのプログラム、大きなプログラムの一部、異なる複数のプログラム、静的あるいは動的なリンクライブラリー、カーネルローダブルモジュール、デバイスドライバー、その他コンピュータプログラミングの当業者にとって既知な方式として実装することができる。さらに、本発明の実装は特定のプログラミング言語に限定されるものではないし、特定のオペレーティングシステムや環境に限定されるものでもない。以上のように、上記の本発明の説明は限定的なものではなく例示的なものであり、本発明の範囲は添付の特許請求の範囲にしたがって定められる。
101 ユーザ
105 ネットワーク
107 コンピュータ
110 ヘルスサーバ
111 電子健康記録データ
190 ロボット
199 動き推定アプリケーション
202 通信モジュール
204 位置モジュール
206 検出モジュール
208 推定モジュール
210 状態モジュール
212 ユーザモジュール
214 ユーザインタフェースモジュール
225 プロセッサ
227 メモリ
245 通信ユニット
247 センサ
249 カメラ
251 モータ
253 モバイルハードウェア
267 スピーカ
292 分類器データ
297 ユーザデータ

Claims (21)

  1. ロボットを用いて、ユーザ環境内にいるユーザの補助を行うシステムが実行する方法であって、
    前記ユーザ環境内におけるユーザの現在位置を取得する位置取得ステップと、
    前記ユーザ環境内にある障害物を検出する障害物検出ステップと、
    前記ユーザに関連付いた電子健康記録(EHR)に基づいて、前記ユーザの身体的能力を推定する能力推定ステップと、
    前記ユーザ環境内にある障害物と、前記ユーザの身体的能力と、に基づいて、前記ロボットがタスクを実行するための命令を生成する命令生成ステップと、
    前記生成した命令をロボットに送信する命令送信ステップと、
    前記ユーザの状態を監視する監視ステップと、
    前記ユーザの状態の変化に応じて、前記ロボットに対する命令を変更する命令変更ステップと、
    前記ユーザの状態の変化を、前記電子健康記録に反映させる反映ステップと、
    を含む方法。
  2. 前記ロボットに対する命令は、前記ユーザに対して物体を手渡しするために、前記物体を所定の位置および向きに再配置させる命令である、
    請求項1に記載の方法。
  3. 前記電子健康記録に基づいて、前記ユーザのロボットに近い側の手が不自由か否かを判定する判定ステップをさらに含み、
    前記命令生成ステップでは、前記判定結果に基づいて、前記物体を、不自由ではない手の側に移動させる命令を生成する、
    請求項2に記載の方法。
  4. 前記電子健康記録は、前記ユーザの現在および過去における医学的状態を表した情報である、
    請求項1から3のいずれかに記載の方法。
  5. 前記電子健康記録は、前記ユーザが動ける範囲、前記ユーザの手が届く範囲、前記ユー
    ザの筋肉の状態、前記ユーザの快適度、前記ユーザの嗜好、前記ユーザが前記ロボットから物体を受け取るのにかかる時間、手渡し動作の後で前記ユーザが前記ロボットと接する時間、タスクを完了するのにかかる時間、の少なくともいずれかを含む、
    請求項1から4のいずれかに記載の方法。
  6. 前記ロボットに対して発行される命令は、前記ユーザを誘導するために前記ロボットを所定のパスに沿って移動させる命令であり、
    前記所定のパスは、前記ユーザの移動速度、前記ユーザに対する相対位置、誘導の複雑度、前記ロボットがユーザに対して提供する情報の量、の少なくともいずれかに基づいて決定される、
    請求項1から3のいずれかに記載の方法。
  7. 前記電子健康記録に基づいて、前記ロボットが前記ユーザに対して取るべき間隔を決定するステップをさらに含み、
    前記所定のパスは、前記間隔を維持するように決定される、
    請求項6に記載の方法。
  8. 前記能力推定ステップでは、取得した電子健康記録に基づいてシミュレーションを行うことで、前記ユーザの身体的能力を推定する、
    請求項1から7のいずれかに記載の方法。
  9. 前記能力推定ステップでは、前記ユーザに関連付いた状態を識別するために、分類器と、トレーニングデータセットを生成する、
    請求項8に記載の方法。
  10. 請求項1から9のいずれかに記載の方法の各ステップをコンピュータに実行させるプログラム。
  11. ユーザの補助を行うロボットの制御を行う方法であって、
    前記ユーザの身体的能力が記述されている電子健康記録(EHR)が記録されているサーバに対してクエリを発行し、対応する電子健康記録を取得するステップと、
    取得した電子健康記録に基づいて、前記ロボットの挙動を決定するプログラムのうち、初期プログラムである第一のプログラムを実行した際の結果をシミュレーションしたデータであるシミュレーションデータを生成するステップと、
    前記第一のプログラムと、前記シミュレーションデータと、に基づいて、前記ユーザの身体的能力に応じた、第二のプログラムを生成するステップと、
    前記第二のプログラムを前記ロボットに適用するステップと、
    前記第二のプログラムの実行結果に基づいて、フィードバックデータを生成するステップと、
    前記フィードバックデータに基づいて、前記第二のプログラムを修正するステップと、
    前記フィードバックデータを前記電子健康記録に追加するステップと、
    を含む方法。
  12. 前記シミュレーションデータ、前記第二のプログラム、前記フィードバックデータに基づいて、前記ユーザに対応する第三のプログラムを生成するステップをさらに含む、
    請求項11に記載の方法。
  13. 記電子健康記録に含まれるフィードバックデータに基づいて、新たなシミュレーションデータを生成するステップと、をさらに含む、
    請求項11または12に記載の方法。
  14. ユーザの補助を行うロボットの制御を行う方法であって、
    前記ユーザの健康状態が記述されている電子健康記録(EHR)に基づいて、前記ユーザの身体的能力を決定する決定ステップと、
    前記電子健康記録に基づいて、前記ロボットを制御するプログラムの修正内容を決定する修正ステップと、
    前記ロボットの挙動が、前記ユーザの身体的能力に適合するように、前記修正内容に基づいて、前記ロボットのプログラムを修正する適用ステップと、
    前記ユーザの状態を監視する監視ステップと、
    前記ユーザの状態の変化に応じて、前記プログラムをさらに修正する第二の修正ステップと、
    前記ユーザの状態の変化を、前記電子健康記録に反映させる反映ステップと、
    を含む、方法。
  15. 前記電子健康記録は、前記ユーザの視力が低いことを示すものであり、
    前記修正ステップが決定する修正内容は、通常のプログラムと比べて、ロボットとユーザとの距離をより近くする、または、減速度をより大きくするものである、
    請求項14に記載の方法。
  16. 前記電子健康記録は、前記ユーザのいずれかの耳の聴力が低いことを示すものであり、
    前記修正ステップが決定する修正内容は、聴力が低い耳と反対側の耳の側にロボットを配置するものである、
    請求項14または15に記載の方法。
  17. ロボットを用いて、ユーザ環境内にいるユーザの補助を行うシステムが実行する方法であって、
    補助対象のユーザを決定するステップと、
    前記補助対象のユーザの身体的能力が記述されている電子健康記録(EHR)を取得するステップと、
    前記ユーザ環境内にある障害物を検出する障害物検出ステップと、
    前記ユーザ環境内にある障害物と、前記ユーザの身体的能力に基づいて、前記ロボットがタスクを実行するための命令を修正する命令修正ステップと、
    前記修正した命令をロボットに送信する命令送信ステップと、
    前記ユーザの状態を監視する監視ステップと、
    前記ユーザの状態の変化に応じて、前記ロボットに対する命令をさらに修正する第二の命令修正ステップと、
    前記ユーザの状態の変化を、前記電子健康記録に反映させる反映ステップと、
    を含む、方法。
  18. 前記ロボットに対する命令は、前記ユーザに対して物体を手渡しするために、前記物体を所定の位置および向きに再配置させる命令である、
    請求項17に記載の方法。
  19. 前記ロボットに対する命令は、前記ユーザの元へ物体を運ぶ命令である、
    請求項17に記載の方法。
  20. 前記電子健康記録は、前記ユーザの現在および過去における医学的状態を表した情報である、
    請求項17から19のいずれかに記載の方法。
  21. 前記ユーザ環境内におけるユーザの現在位置を取得する位置取得ステップをさらに含む、
    請求項17から20のいずれかに記載の方法。
JP2016032933A 2015-02-26 2016-02-24 ユーザの健康記録に基づいてパーソナライズされた看護の提供 Active JP6194971B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/632,165 US9694496B2 (en) 2015-02-26 2015-02-26 Providing personalized patient care based on electronic health record associated with a user
US14/632,165 2015-02-26

Publications (2)

Publication Number Publication Date
JP2016159155A JP2016159155A (ja) 2016-09-05
JP6194971B2 true JP6194971B2 (ja) 2017-09-13

Family

ID=56798637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016032933A Active JP6194971B2 (ja) 2015-02-26 2016-02-24 ユーザの健康記録に基づいてパーソナライズされた看護の提供

Country Status (2)

Country Link
US (1) US9694496B2 (ja)
JP (1) JP6194971B2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106950908A (zh) 2012-08-28 2017-07-14 戴尔斯生活有限责任公司 用于改善与可居住环境相关联的幸福感的系统、方法以及物件
EP3111411A4 (en) 2014-02-28 2017-08-09 Delos Living, LLC Systems, methods and articles for enhancing wellness associated with habitable environments
US10923226B2 (en) 2015-01-13 2021-02-16 Delos Living Llc Systems, methods and articles for monitoring and enhancing human wellness
US9563268B2 (en) 2015-05-19 2017-02-07 Spotify Ab Heart rate control based upon media content selection
US9978426B2 (en) 2015-05-19 2018-05-22 Spotify Ab Repetitive-motion activity enhancement based upon media content selection
US10188580B2 (en) * 2016-05-09 2019-01-29 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for providing environment information using an unmanned vehicle
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
US11990213B1 (en) 2016-09-14 2024-05-21 Altera Digital Health Methods and systems for visualizing patient population data
KR20230003653A (ko) * 2016-11-11 2023-01-06 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 환자 건강 기록들 기반 기구 제어를 갖는 원격조작 수술 시스템
CN107688983A (zh) * 2017-07-27 2018-02-13 北京光年无限科技有限公司 基于商务平台的智能机器人定制业务处理方法及系统
US11668481B2 (en) 2017-08-30 2023-06-06 Delos Living Llc Systems, methods and articles for assessing and/or improving health and well-being
CN107544248B (zh) * 2017-09-13 2019-12-13 上海思岚科技有限公司 一种移动机器人中的任务优化方法及设备
JP7102169B2 (ja) * 2018-02-28 2022-07-19 パナソニックホールディングス株式会社 装置、ロボット、方法、及びプログラム
WO2020055872A1 (en) 2018-09-14 2020-03-19 Delos Living Llc Systems and methods for air remediation
JP6985230B2 (ja) * 2018-09-19 2021-12-22 株式会社日立製作所 業務分析サーバ、業務分析方法、および業務分析プログラム
JP7262979B2 (ja) * 2018-11-22 2023-04-24 オムロン株式会社 文書作成装置、方法及びプログラム
KR102261797B1 (ko) * 2018-12-14 2021-06-07 신라대학교 산학협력단 의료 보조서비스를 제공하는 로봇 시스템 및 그 방법
US11738449B2 (en) 2018-12-19 2023-08-29 Honda Motor Co., Ltd. Guide robot control device, guidance system using same, and guide robot control method
JPWO2020129309A1 (ja) * 2018-12-19 2021-09-30 本田技研工業株式会社 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
WO2020176503A1 (en) 2019-02-26 2020-09-03 Delos Living Llc Method and apparatus for lighting in an office environment
US11898898B2 (en) 2019-03-25 2024-02-13 Delos Living Llc Systems and methods for acoustic monitoring
US10576630B1 (en) * 2019-05-31 2020-03-03 Mujin, Inc. Robotic system with a robot arm suction control mechanism and method of operation thereof
US11449793B2 (en) * 2019-07-03 2022-09-20 Kpn Innovations, Llc. Methods and systems for medical record searching with transmittable machine learning
CN112327878B (zh) * 2020-11-25 2022-06-10 珠海一微半导体股份有限公司 一种基于tof摄像头的障碍物分类避障控制方法
CN112256044B (zh) * 2020-12-23 2021-03-12 炬星科技(深圳)有限公司 减少人机交互等待时长的方法、设备及存储介质
US20220009103A1 (en) * 2021-09-24 2022-01-13 Intel Corporation System and safety guide robot for accessing automated environments

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7860583B2 (en) * 2004-08-25 2010-12-28 Carefusion 303, Inc. System and method for dynamically adjusting patient therapy
JP2003339796A (ja) 2002-05-24 2003-12-02 Mitsubishi Heavy Ind Ltd 介護ロボット
JP2004017185A (ja) * 2002-06-13 2004-01-22 Mitsubishi Heavy Ind Ltd ロボット制御装置
US20120072024A1 (en) * 2002-07-25 2012-03-22 Yulun Wang Telerobotic system with dual application screen presentation
US7733224B2 (en) * 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
JP5327668B2 (ja) 2008-12-09 2013-10-30 公立大学法人首都大学東京 ユーザ健康維持活性化支援及び見守りシステム
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US20120191464A1 (en) * 2011-01-21 2012-07-26 Intouch Technologies, Inc. Telerobotic System with a Dual Application Screen Presentation
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
JP2013111737A (ja) 2011-12-01 2013-06-10 Sony Corp ロボット装置及びその制御方法、並びにコンピューター・プログラム
JP2013184273A (ja) * 2012-03-09 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
US20130338525A1 (en) * 2012-04-24 2013-12-19 Irobot Corporation Mobile Human Interface Robot
EP2954883B1 (en) * 2013-02-07 2024-03-06 FUJI Corporation Movement assistance robot
US9355368B2 (en) * 2013-03-14 2016-05-31 Toyota Motor Engineering & Manufacturing North America, Inc. Computer-based method and system for providing active and automatic personal assistance using a robotic device/platform

Also Published As

Publication number Publication date
JP2016159155A (ja) 2016-09-05
US9694496B2 (en) 2017-07-04
US20160250751A1 (en) 2016-09-01

Similar Documents

Publication Publication Date Title
JP6194971B2 (ja) ユーザの健康記録に基づいてパーソナライズされた看護の提供
US11389686B2 (en) Robotically assisted ankle rehabilitation systems, apparatuses, and methods thereof
EP3571992A1 (en) Mitigating effects of neuro-muscular ailments
ES2969892T3 (es) Sistema y método para reconocimiento de intención de usuario
JP6065077B2 (ja) ロボットによる物体手渡しシステム
Mugueta-Aguinaga et al. Is technology present in frailty? Technology a back-up tool for dealing with frailty in the elderly: A systematic review
JP5732459B2 (ja) 視覚テスト及びトレーニングのためのマルチタッチディスプレイ及び入力
Parajuli et al. Senior health monitoring using Kinect
US20140184384A1 (en) Wearable navigation assistance for the vision-impaired
KR20200121832A (ko) 낙상 위험의 실시간 평가용 연결된 키오스크
KR20160099552A (ko) 서비스 제공 관리 시스템
US20160321955A1 (en) Wearable navigation assistance for the vision-impaired
US20110296306A1 (en) Methods and systems for personal support assistance
Garcia-Macias et al. Uasisi: A modular and adaptable wearable system to assist the visually impaired
JP2017012691A (ja) リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法及びプログラム
WO2019087502A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2019058285A (ja) 活動支援方法、プログラム、及び活動支援システム
US11273357B2 (en) Interactive exercise experience
Domb Wearable devices and their Implementation in various domains
Vieira et al. A gamified application for assessment of balance and fall prevention
Pandit et al. Exercisecheck: A scalable platform for remote physical therapy deployed as a hybrid desktop and web application
US20210193294A1 (en) Patient management based on sensed activities
US20220054355A1 (en) Body care motion tracking device and body care management method using same
Boulo et al. Validity and reliability of the tracking measures extracted from the oculus quest 2 during locomotion
JP2020096826A (ja) リハビリテーション支援装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170731

R151 Written notification of patent or utility model registration

Ref document number: 6194971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151