JP6194971B2 - ユーザの健康記録に基づいてパーソナライズされた看護の提供 - Google Patents
ユーザの健康記録に基づいてパーソナライズされた看護の提供 Download PDFInfo
- Publication number
- JP6194971B2 JP6194971B2 JP2016032933A JP2016032933A JP6194971B2 JP 6194971 B2 JP6194971 B2 JP 6194971B2 JP 2016032933 A JP2016032933 A JP 2016032933A JP 2016032933 A JP2016032933 A JP 2016032933A JP 6194971 B2 JP6194971 B2 JP 6194971B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- robot
- electronic health
- module
- health record
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000036541 health Effects 0.000 title claims description 88
- 230000000474 nursing effect Effects 0.000 title description 2
- 238000000034 method Methods 0.000 claims description 77
- 238000004088 simulation Methods 0.000 claims description 44
- 238000001514 detection method Methods 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 18
- 238000012544 monitoring process Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000004304 visual acuity Effects 0.000 claims description 3
- 230000003862 health status Effects 0.000 claims description 2
- 210000003205 muscle Anatomy 0.000 claims description 2
- 238000012937 correction Methods 0.000 claims 8
- 230000004048 modification Effects 0.000 claims 2
- 238000012986 modification Methods 0.000 claims 2
- 210000005069 ears Anatomy 0.000 claims 1
- 230000033001 locomotion Effects 0.000 description 124
- 238000004891 communication Methods 0.000 description 45
- 230000015654 memory Effects 0.000 description 32
- 230000000007 visual effect Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 230000006399 behavior Effects 0.000 description 7
- 230000001771 impaired effect Effects 0.000 description 7
- 208000024891 symptom Diseases 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 208000010125 myocardial infarction Diseases 0.000 description 5
- 206010061225 Limb injury Diseases 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 208000017899 Foot injury Diseases 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 208000024827 Alzheimer disease Diseases 0.000 description 1
- 208000021421 Arm injury Diseases 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 208000011092 Hand injury Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 208000018982 Leg injury Diseases 0.000 description 1
- 206010061599 Lower limb fracture Diseases 0.000 description 1
- 206010049816 Muscle tightness Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 208000018737 Parkinson disease Diseases 0.000 description 1
- 208000008765 Sciatica Diseases 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/009—Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/03—Teaching system
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- Biomedical Technology (AREA)
- Primary Health Care (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Nursing (AREA)
- Business, Economics & Management (AREA)
- Remote Sensing (AREA)
- Databases & Information Systems (AREA)
- General Business, Economics & Management (AREA)
- Pathology (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Rehabilitation Tools (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本出願は、"PROVIDING PERSONALIZED PATIENT CARE BASED ON ELECTRONIC HEALTH RECORD ASSOCIATED WITH A USER"と題され、2015年2月26日に出願された、米国特許出願第14/632,165号の優先権を主張する。当該出願は、その全体が本明細書中に参照として組み込まれる。
一方で、このようなユーザを補助するためのロボットが存在する。例えば、ロボットは、床から物を拾い上げることが難しいユーザに対して、物体を受け渡せるように構成されることができる。
具体的には、ロボットを用いて、ユーザ環境内にいるユーザの補助を行うシステムが実行する方法であって、前記ユーザ環境内におけるユーザの現在位置を取得する位置取得ステップと、前記ユーザ環境内にある障害物を検出する障害物検出ステップと、前記ユーザに関連付いた電子健康記録(EHR)に基づいて、前記ユーザの身体的能力を推定する能力推定ステップと、前記ユーザ環境内にある障害物と、前記ユーザの身体的能力と、に基づいて、前記ロボットがタスクを実行するための命令を生成する命令生成ステップと、前記生成した命令をロボットに送信する命令送信ステップと、を含むことを特徴とする。
また、前記ロボットに対する命令は、前記ユーザに対して物体を手渡しするために、前記物体を所定の位置および向きに再配置させる命令であってもよい。
また、前記電子健康記録に基づいて、前記ユーザのロボットに近い側の手が不自由か否かを判定する判定ステップをさらに含み、前記命令生成ステップでは、前記判定結果に基づいて、前記物体を、不自由ではない手の側に移動させる命令を生成してもよい。
また、前記ユーザの状態を監視する監視ステップと、前記ユーザの状態の変化に応じて、前記ロボットに対する命令を変更する命令変更ステップと、前記ユーザの状態の変化を、前記電子健康記録に反映させる反映ステップと、をさらに含んでいてもよい。
また、前記電子健康記録は、前記ユーザの現在および過去における医学的状態を表した情報であってもよい。
,Z)である。この三次元の地点は、手渡しイベントが発生しうる空間における「位置」を表す。
ユーザ環境とは、ユーザの周囲にあるエリアである。三次元の地点は、ユーザ環境に含まれる「面」であってもよい。例えば、物体をテーブルの表面や、他のユーザ環境内にある面に配置できるように、三次元の地点を設定してもよい。また、三次元の地点は、ユーザがロボットから物体を受け取る際に手が届く、空間内のある点であってもよい。このようにすることで、自然な手渡しを行うことができる。
このように、手渡し位置が静的なのに対して、アクチュエータの回転は動的であってもよい。
一実装例において、ロボットは、環境内で発生する、手渡し位置の変化をもたらすイベントを検出してもよい。このような場合、手渡し位置も動的になりうる。
例えば、前記電子健康記録は、前記ユーザが動ける範囲、前記ユーザの手が届く範囲、前記ユーザの筋肉の状態、前記ユーザの快適度、前記ユーザの嗜好、前記ユーザが前記ロボットから物体を受け取るのにかかる時間、手渡し動作の後で前記ユーザが前記ロボットと接する時間、タスクを完了するのにかかる時間、の少なくともいずれかを含んでいてもよい。
また、前記ロボットに対して発行される命令は、前記ユーザを誘導するために前記ロボットを所定のパスに沿って移動させる命令であり、前記所定のパスは、前記ユーザの移動速度、前記ユーザに対する相対位置、誘導の複雑度、前記ロボットがユーザに対して提供する情報の量、の少なくともいずれかに基づいて決定してもよい。
また、前記電子健康記録に基づいて、前記ロボットが前記ユーザに対して取るべき間隔を決定するステップをさらに含み、前記所定のパスは、前記間隔を維持するように決定されてもよい。
また、前記能力推定ステップでは、取得した電子健康記録に基づいてシミュレーションを行うことで、前記ユーザの身体的能力を推定してもよい。
また、前記能力推定ステップでは、前記ユーザに関連付いた状態を識別するために、分類器と、トレーニングデータセットを生成してもよい。
例えば、相互作用のための新しいロボットの動きを構築するために患者の医療履歴を役立てることができる。
加えて、ユーザに関連付いたEHRから知識を取り入れることで、特定の患者に対して用いる分類器を高性能化することができる。
そして、ロボットのタスクをカスタマイズすることができ、利用における汎用性を高め、ユーザのフラストレーションを抑えることができる。例えば、ロボットは、環境内から物体を探索し、取得する時間を短くするためにEHRを用いる。他の例では、ロボットは、EHRに基づいて、ユーザに対してナビゲーション支援を提供する。これにより、ユーザ環境内の障害物を回避することができる。
なお、明細書の説明において、プログラムとは、ユーザに対するロボットの振る舞いを定義するためのデータであるものとする。また、プログラムや命令を修正ないしカスタマイズするとは、ロボットが行うべき動作の内容を、ユーザの状況に応じて本則から修正するといった意味で用いる。
ロボットは、ユーザにサービスを提供する。例えば、ロボットは、病院、高齢者ケアセンター、ホスピス、患者宅や他の施設において、ユーザのためにタスクを実行する。
これらのサービスは、以下のうちの一つ以上を含む。
・ユーザのモニタリング(監視)
・ユーザのための物体の操作
・環境内におけるユーザに対する案内
身体的な制限とは、年齢、病気、一時的または恒久的な障害などに起因して発生する。その結果、ユーザの視力、聴力、脚力、歩行、握力や他の能力を制限する一つ以上の症状の影響をユーザが受けるため、ロボットのプログラマは、ユーザが「健常である」と推測することができない。
もしロボットが、これらのユーザの状態や制限を考慮せずにプログラムされていた場合、ロボットはユーザを傷つけてしまうおそれがある。
また、ロボットのプログラマは、全てのユーザが制約または制限を有していると仮定することもできない。ユーザの期待に背き、ロボットが最終的に放棄されうるためである。
代わりに、このようなソリューションでは、ロボットが、患者に会う医師や他の管理者の代理として行動するロボットについて触れている。このようなロボットは、医師と患者とを対話可能にするような技術を備えている。
従って、このようなソリューションは、電子健康記録について触れられているかもしれないが、ユーザを傷つけないようにするために、「ユーザを識別し、当該ユーザに関連付いた電子健康記録に基づいて自己のプログラムを修正する」という問題を解決するには不十分である。
これと比較して、本明細書の開示は、ユーザを識別し、当該ユーザに関連付いた電子健康記録に基づいて自己のプログラムを修正することで、ロボットのパフォーマンスを有益に向上させる「動き推定アプリケーション」を含んでいる。
しかし、これらのソリューションは、ロボットがユーザに害をなしたり、脅かしたりしないように、電子健康記録に示されたユーザの制限に基づいて、これらのアクティビティを実行する方法をカスタマイズしていない。
従って、これらのソリューションでは、ロボットが、患者を傷つけたり脅かしたりしないように振る舞うため、自己のプログラムを動的に修正したいという問題を解決することができない。
これと比較して、本明細書に記載された動き推定アプリケーションでは、患者を傷つけたり脅かしたりしないように振る舞うため、自己のプログラムを動的に修正可能にすることにより、ロボットのパフォーマンスを有益に向上させることができる。
しかし、このような分類器の学習は、ノイズが多いと考えられる。なぜなら、本プロセスは、容認できないほどの多くの誤りを本質的に含んでいるためである。
新しい分類器を生成する場合、ノイズを克服するための多くの画像(例えば、千〜百万
枚の画像)が必要となる。結果として、視覚分類器の学習は、長時間を要し、このような理由により好ましくない。
これとは対照的に、本明細書に記載の動き推定アプリケーションは、視覚分類器のための学習セットの品質を向上させる機能を有している。そして、視覚分類器の学習速度と精度を向上させることができる。
さらに、動き推定アプリケーションは、ユーザの電子健康記録に部分的に基づいて、各ユーザに対応するカスタマイズされた分類器を生成する機能を有している。
カスタマイズされた分類器は、一人のユーザに対応付けられてもよく、ユーザの電子健康記録によって示された当該ユーザの固有の特性に基づいて、ロボットが当該ユーザのためにプログラムをカスタマイズするように構成されてもよい。
いくつかのソリューションでは、新しいアルゴリズムを学習するために必要な例を多数取得し、シミュレーションの繰り返し適用に基づいて、ロボットのための新たな制御動作を決定している。
しかし、これらのソリューションは、ユーザの電子健康記録に基づいて、特定のユーザのためにシミュレーションをカスタマイズすることはしていない。
これと比較して、動き推定アプリケーションは、特定のユーザのニーズ(ユーザのために実行される特定のタスク、および、電子健康記録に記されたユーザの症状および制限に基づいて、それらのタスクをユーザに対して実行することができる方法を含む)に合わせたカスタマイズ可能なシミュレーションを行う。
動き推定アプリケーションは、ユーザの電子健康記録にアクセスし、一つ以上の肯定的および否定的な例を生成し、それに基づいて、新しいロボットのプログラムを学習させてもよいし、ユーザのためにカスタマイズされたプログラムを提供するように既存の動作を適合させてもよい(例えば図1Bの符号156)。
シミュレーションは、例えば、電子健康記録によって表されたユーザの状態や制限に基づいて、ユーザが何をできるか、または感知できるかを表すデータを含んでいてもよい。
シミュレーションは、図2を参照して以下で説明するメモリ227のような、動き推定アプリケーションに関連付いた実メモリに保存されてもよい。
例えば、動き推定アプリケーションは、ロボット(あるいはコンピュータ)の構成要素である。動き推定アプリケーションによって行われるシミュレーションは、ロボットの性能を有益に向上させる。例えば、動き推定アプリケーションは、一つ以上のユーザに特化された視覚分類器を有している。当該視覚分類器は、特定のユーザに関連付いたものであ
る。
動き推定アプリケーションは、視覚分類器が特定のユーザの特性に適合するように、視覚分類器を学習させるための、例えば、100から100万以上の肯定的または否定的な例を生成する。いくつかの実施例における、視覚分類器を学習させるための肯定的または否定的な例(例えばトレーニングデータ170)は、図1Cを参照しながらのちほど説明する。
・機械学習
・システム識別
・適応制御
・シミュレーションアダプティブ法
・ロボットのコードまたはルーチンに対する入力パラメータのどのような変更が成功率に影響を与えるかについてのシミュレーション
例えば、ユーザの近くにある環境から物体(ユーザオブジェクト)を取り出すタスクをロボットが行うと仮定する。動き推定アプリケーションによって行われるシミュレーションが無い場合、ロボットは、環境センサ(例えば外部カメラ等)を用いて当該環境内をサーチしたり、物体取り出しのためのアクチュエータを用いて環境内を探索したりする必要がある。しかし、動き推定アプリケーションによって提供される一つ以上のシミュレーションは、当該環境および環境内に含まれる物体を表すデータを含む。したがって、当該シミュレーションを用いることで、ロボットは、物体を識別、物体へのナビゲート、物体を無事に取り出すために分析および検索するべき環境内の空間を絞り込むことができる。
動き推定アプリケーションによって提供される一つ以上のシミュレーションは、ロボットによってサービスを提供される特定のユーザに対応する電子健康記録に基づいて、一つ以上のロボットプログラムをカスタマイズされるためにも使用される。
このように、動き推定アプリケーションは、障害や能力制限を持つ特定のユーザに対応するロボットプログラムを有益にカスタマイズすることができる。
ロボットは、ユーザに対応する、異なる視覚分類器や電子健康記録を利用し、異なるユーザに対して当該プロセスを繰り返してもよい。これにより、個々のユーザと、類似または異なる障害や能力制限を有する他のユーザに対して、ロボットをより便利にすることができる。
システム100は、信号線104を介してネットワーク105に接続されたコンピュータ107と、信号線118を介してネットワーク105に接続されたロボット190と、信号線112を介してネットワーク105に接続されたヘルスサーバ110と、信号線119を介してネットワーク105に、信号線120を介してロボット190に接続されたユーザ101と、を含む。
さらに、図1Aには、システム100の構成要素に接続された一つのネットワーク105が示されているが、実際には、様々なタイプの一つ以上のネットワーク105が、これらの構成要素に接続されていてもよい。
ある実施形態では、ネットワーク105は、Bluetooth(登録商標)通信ネットワークや、携帯電話通信ネットワークを含み、SMS(ショートメッセージサービス)、MMS(マルチメディアメッセージサービス)、HTTP(ハイパーテキスト転送プロトコル)、直接データ接続、WAP、電子メールなどのデータを送受信する。
ある実施形態では、ネットワーク105は、ロボット190に対してGPSナビゲーションを提供するためのGPS衛星を含んでいてもよい。
また、ネットワーク105は、例えば、3G、4G、LTE、ボイスオーバーLTE(VoLTE)といったモバイルデータネットワーク、他のモバイルデータネットワーク、または、モバイルデータネットワークの組合せであってもよい。
一実施形態において、ネットワーク105は、異なるネットワークの組合せであってもよい。
ヘルスサーバ110は、コンピュータ107やロボット190からリクエストを受信し、ユーザ101に対応するEHRを送信する。
ヘルスサーバ110は、米国HIPAA(医療保険の相互運用性と説明責任に関する法令、Health Insurance Portability and Accountability Act of 1996)に従って、暗号
化されたEHRを送信するために、HL7メッセージングを利用してもよい。
ロボット190は、ユーザ101に対してタスクを実行する。例えば、ロボットは、物体を掴み上げ、空間内の特定の位置および向きに移動させることで、物体を元の場所から、ユーザ空間のある位置および向きに物体を移動させる「手渡し動作」を実行する。
他の例において、ロボット190は、ユーザを経路に沿ってガイドする。さらに他の例において、ロボットは、ユーザ101のために物体を運搬する。
ユーザ101は、ロボット190の動き推定アプリケーション199aに対して、音声コマンドによってインタラクションしてもよい。また、ロボット190の動き推定アプリケーション199aにデータを送信する機能を有する、コンピュータ107に搭載された
動き推定アプリケーション199bに対してインタラクションすることで、ロボット190の動き推定アプリケーション199aに対してインタラクションしてもよい。
空間内の地点および向きはまた、回転を表す回転データを含んでいてもよい。例えば、空間内の地点および向きは、ロボット190や、ロボット190が有するアクチュエータのロール・ピッチ・ヨーの角度を表す回転データを含んでいてもよい。
三次元の地点は、ユーザ環境に含まれる「面」であってもよい。例えば、三次元の地点は、テーブルの表面や、ユーザ環境内の他の面など、物体を配置できるような地点であってもよい。三次元の地点は、物体を空間内の空の地点(Empty point)(ユーザがロボッ
トから物体を受け取るために自然な動きによって手が届く地点)に移動するための地点であってもよい。
コンピュータ107は、メモリとプロセッサを含むコンピュータであり、例えば、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、携帯電話、スマートフォン、個人情報端末(PDA)、モバイル電子メール装置、スマートウォッチを含むウェアラブル装置、携帯ゲーム装置、携帯音楽プレーヤ、ネットワーク105へのアクセスが可能なその他の電子機器などである。
コンピュータ107は、サーバの一部であって、ブラウザを介してユーザ101が利用できるものであってもよい。
いくつかの実施例において、動き推定アプリケーション199のモジュールは、一つのサーバまたは装置に格納されてもよい。いくつかの他の実施例において、動き推定アプリケーション199のモジュールは、複数の装置やサーバに分散して格納されてもよい。
例えば、ロボット190が有する動き推定アプリケーション199aは、ユーザ101に対する現在位置を判定し、位置をコンピュータ107上の動き推定アプリケーション199bに送信し、およびコンピュータ107上の動き推定アプリケーション199bから命令を受信してタスクを実行してもよい。
さらに、本明細書で説明される実施形態における種々のコンポーネント、モジュール、およびサーバの分離は、全ての実施形態においてそのような分離を必要とすると理解するべきではない。一実施形態では、説明されるコンポーネント、モジュール、デバイス、またはサーバは概して、単一のコンポーネント、モジュール、デバイス、またはサーバに一
体に統合されてもよい。
動き推定アプリケーション199は、ユーザ101に関連付いたEHRに基づいて、ユーザ101の一つ以上の身体的能力を推定する。例えば、EHRによって、ユーザ101が、目が不自由であることを識別してもよい。EHRは、ヘルスサーバ110から受信されてもよく、または動き推定アプリケーション199によって生成されてもよい。
動き推定アプリケーション199は、環境内の障害物およびユーザ101の一つ以上の身体的能力に基づいて、タスクを実行するためのロボット190に対する命令を生成する。例えば、目が不自由なユーザ101は、ユーザに床上の障害物を警告し、および出入口を通ってユーザを案内することを支援するガイドとして動作するロボット190によって支援される。動き推定アプリケーション199は、タスクを実行するようにロボット190に指示する。
まず、処理フローが開始される(ステップ148)。このとき、タスクおよびターゲット識別子が、動き推定アプリケーション199に提供されてもよい。当該タスクは、ロボット190またはコンピュータ107によって実行されるタスクを表すデータを含んでいてもよい。また、ターゲット識別子は、タスクと関連付いた、環境内のユーザ101または位置を識別するデータを含んでいてもよい。
次に、動き推定アプリケーション199が、タスクおよびターゲット識別子に基づいて、EHRクエリ151を構築する(ステップ150)。動き推定アプリケーション199は、ユーザ101と関連付いた電子健康記録データ111を取り出すために、EHRクエリ151を使用する。
次に、動き推定アプリケーション199は、取得した電子健康記録データ111に基づいて、シミュレータ154を生成する(ステップ153)。
次に、動き推定アプリケーション199は、シミュレータ154に基づいて、ロボット
190またはコンピュータ107の振る舞いを適合させる(ステップ155)。
このようにして、動き推定アプリケーション199は、ロボットまたはコンピュータ107に対するカスタマイズされたプログラム156を得ることができる。カスタマイズされたプログラム156は、ユーザ101に対する電子健康記録データ111に基づいてカスタマイズされたものである。
そして、動き推定アプリケーション199は、カスタマイズされたプログラム156を実行する(ステップ157)。
なお、オプションとして、動き推定アプリケーション199は、カスタマイズされたプログラム156の実行結果に基づいて、パフォーマンスフィードバック158を行ってもよい。例えば、パフォーマンスフィードバック158は、サービスをユーザ101に提供した際の、カスタマイズされたプログラムの性能、成功、または失敗を表すデータを含む。
また、動き推定アプリケーション199は、カスタマイズされたプログラム156の性能をさらに改善するために、パフォーマンスフィードバックを使用してもよい。例えば、パフォーマンスフィードバック158を表すパフォーマンスフィードバックデータを、ユーザ101に関連付いた電子健康記録データ111に追加してもよい。このようにして、動き推定アプリケーション199は、ロボット190またはコンピュータ107の性能を改善させることができる。
第2の組173は、足に負荷をかけられないユーザの画像である。例えば、画像は、寝ている状態(169および171)、座っている状態(167)を表す。
ここで、座っている状態(167)は、いずれのクラスにも関連付けることができるため、画像167は、組171にも組173にも含まれることに留意すべきである。言い換えると、「座っている」という活動は、通常のデータイム活動にもなり得るし、足に負荷をかけられないユーザに関連付いた活動にもなり得る。
例えば、EHRデータ111が、患者が足を骨折していること、または下半身が麻痺していることを示している場合、動き推定アプリケーション199は、第2の組173から画像を選択する。これらの画像が、当該ユーザ101の障害および能力と関連付いている可能性がより高いためである。
動き推定アプリケーション199は、ロボット190がよりユーザ101の近くに位置するように(それにより、ロボット190がユーザ101から見えるようになるため)、ロボット190のプログラムをカスタマイズする。例えば、ロボット190は、ユーザ101から0.3〜1.5メートルの距離を維持してもよい。なお、ロボット190は、ユーザ101のより近くに位置するため、動き推定アプリケーション199はまた、ロボット190がシナリオ181よりも遅く、または減速して移動するように、ロボット190に対するプログラムをカスタマイズしてもよい。例えば、シナリオ181では毎秒1.2メートルなのに対し、シナリオ183では、ユーザ101の一つ以上の身体的能力に応じて、毎秒1.0メートル以下としてもよい。
同様に、ロボット190は、シナリオ183において、シナリオ181と比較して10〜20%減速させてもよい。シナリオ183における短い矢印は、ロボット190がシナリオ181および185よりも低速で移動することを示す。
例えば、ユーザ101は、部分的に耳が不自由であっても、ロボット190を見ることができ、また、ロボット190をより速く移動させることによって、ユーザを害するリスクを減らせる。動き推定アプリケーション199はまた、ユーザ101がロボット190の音を聞くのに苦労するため、ロボット190がユーザ101のより近くにとどまるように、ロボット190のプログラムをカスタマイズしてもよい。例えば、ロボット190は、ユーザ101から0.3〜1.5メートルの距離を維持してもよい。また、動き推定アプリケーション199はさらに、左耳が不自由であることを示すEHRデータ111に基づいて、「ユーザ101が主に右耳を使う可能性が高いため、ロボット190が、ユーザ101の右側かつ右耳の範囲にとどまる」ように、ロボット190に対するプログラムをカスタマイズしてもよい。
図2は、動き推定デバイス200の例を示すブロック図である。一実施形態では、動き推定デバイス200は、図2を参照して以下に説明する機能の一部または全てを提供するように構成された専用のコンピュータを含んでいてもよい。
カメラ249、モータ251、モバイルハードウェア253、およびスピーカ267を含んでいてもよい。また、動き推定アプリケーション199は、通信モジュール202、位置モジュール204、検出モジュール206、推定モジュール208、状態モジュール210、ユーザモジュール212、およびユーザインタフェースモジュール214を含む。動き推定デバイス200のコンポーネントは、バス220によって通信可能に結合されている。
プロセッサ225は、データ信号を処理し、CISC(Complex Instruction Set Computer)、RISC(Reduced Instruction Set Computer)、GPU(グラフィック処理ユニット)、命令セットの組合せとして実装されたアーキテクチャなど様々なアーキテクチャを含みうる。なお、図2には一つのプロセッサ225だけが示されているが、複数のプロセッサ225が含まれていてもよい。上記以外のプロセッサ、オペレーティングシステム、センサ、表示装置、あるいは物理的構成も採用可能である。
一実施形態において、プロセッサ225は、図4および図5に示した方法400および500の一つ以上のブロックを実行するようにプログラムされる。プロセッサ225は、バス220に接続され、信号線226を介して他のコンポーネントと通信する。
メモリ227は、DRAM、SRAM、フラッシュメモリやその他の既存のメモリ装置であってもよい。一実施形態において、メモリ227は、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、CD−ROM装置、DVD−ROM装置、DVD−RAM装置、DVD−RW装置、フラッシュメモリ装置や情報記憶の分野において既知のその他の大容量記憶装置などの、非一時的(non-volatile)メモリや永久記憶装置を含んでいてもよい。メモリ227は、バス220に接続され、信号線228を介して他のコンポーネントと通信する。
一実施形態では、動き推定アプリケーション199は、分類器を生成するためのシミュレーションにおいてユーザ101およびロボット190を観察する。
一実施形態において、通信ユニット245は、IEEE802.11、IEEE802.16、BlueTooth(登録商標)、または他の適切な無線通信方式を含む、一つまたは複数の無線通信方式を用いて、システム100の他の構成要素や他の通信チャネルとデータを交換するための無線送受信部を含んでいてもよい。
通信ユニット245は、TCP/IP、HTTP、HTTPS、SMTPなどを含む標準ネットワークプロトコルを用いて、ファイルやメディアオブジェクトを配布するために、ネットワーク105への従来型の接続を提供することもできる。
一実施形態において、センサ247はモーションディテクタである。例えば、センサ247は、ロボット190の姿勢を検出するジャイロスコープである。
また、他の実施形態において、センサ247は、ロボット190の加速度を測るのに用いられる加速度計である。さらに別の例では、センサ247は、例えば、GPS衛星や、無線情報によってGPS座標を取得することで位置検出を行う。
一実施形態において、センサ247は、通信モジュール202を介して位置情報を位置モジュール204に送る。
他の実施形態において、センサ247は、分類器データ292の一部として位置情報をメモリ227に保存する。
一実施形態において、深さセンサは、例えば赤外線レーザ光のスペックルパターンのような構造化光(structured light)を用いて深さを決定する。
他の実施形態において、深さセンサは、カメラから対象物まで光信号が進むのにかかる時間に基づいて深さを決定する、飛行時間計測式(time-of-flight)の技術を用いて深さを決定する。例えば、深さセンサはレーザ測距器である。
深さセンサは、地上における深さの変化や、変化の大きさを識別するために用いられる。
一実施形態において、センサ247は、ユーザ101や障害物の位置を識別するために、深さ情報を位置モジュール204に送信する。
カメラ249は、CCD(charge-coupled device)やCMOS(complementary metal-oxide semiconductor)といった、視覚的イメージを電気信号に変換するイメージセンサを含む。
一実施形態において、カメラは、電気信号を、ユーザ101の位置を識別するために位置モジュール204に送信し、環境内の障害物の位置を検出するために検出モジュール206に送信し、また、ユーザ101の状態に変化がないか判定するために状態モジュール210に送信する。
他の実施形態において、カメラ249は、分類器データ292やユーザデータ297の一部として電気信号をメモリ227に格納する。
モータ251は、モバイルハードウェア253を駆動するためのハードウェアである。また、モバイルハードウェア253は、ホイールなどの、ロボット190を移動させるハードウェアである。モータ251およびモバイルハードウェア253は、ロボット190を移動させるために使用される。
例えば、推定モジュール208は、モバイルハードウェア253を駆動して、環境内の障害物およびユーザ101の一つ以上の身体的能力に基づいてタスクを実行するようにモータ251に指示する。
例えば、ユーザ101が足に負荷をかけられない状態である場合、ユーザ101は、座り、寄りかかり、または横たわっている可能性が高い。よって、位置モジュール204は、「足に負荷をかけられないユーザ」に対応する分類器を使用することができる。当該分類器は、ユーザ101が健常である場合よりも低い高さでユーザを探すような命令を含む。
一実施形態では、推定モジュール208は、ユーザ101の一つ以上の身体的能力を推定し、およびタスクを実行するためのロボット190に対する命令を生成するために、以下に説明する機能を提供するための、プロセッサ225によって実行可能な命令の組を含む。推定モジュール208は、信号線209を介してバス220に通信可能に結合されている。
いて、コスト式に重み付けをしてもよい。推定モジュール208に対する変数は、ユーザ101についての、可動範囲、到達可能性、筋肉の緊張、快適感、好み、ロボット190から物体を受け取るのに要す時間、ロボット190が手渡し動作を実行した後にロボット190と接する時間、およびタスクにかかる時間を含んでいてもよい。
することによって、分類器を生成する。推定モジュール208は、期間を拡張してトレーニングデータを収集してもよい。例えば、推定モジュール208は、24時間の間(または12時間、48時間など)、病状を有するユーザ101を観察してもよい。
例えば、ユーザ101の左耳が不自由な場合、推定モジュール208は、「病状を有しないユーザ101に対してロボット190がどのように移動するか」と比較して、ユーザ101により近く、およびユーザ101の右に移動するようにロボット190に指示してもよい。
シミュレーションを生成するために、シミュレーションは、ユーザ101に関連付いた病状に対応する分類器を使用してもよい。一実施形態では、推定モジュール208は、機械学習、システム識別、適応制御、または類似の適応方法に基づいて、シミュレーションを修正する。
推定モジュール208は、入力パラメータが成功率にどのように影響するかをシミュレートしてもよい。
取ること、ユーザ101に対してナビゲーション支援を提供すること、ユーザ101に対して物体を運ぶこと等である。推定モジュール208は、タスクに対する成功率を最大化するために振る舞いを選択、適合、生成してもよい。
物体の取得を実行する上記ステップを実行することで、環境を探索する時間、および物体の取り出しの時間が有利に減少し、それによって、ロボット190がユーザ101にとってより有益となる。
方向に移動するようユーザ101を案内する経路を生成する。
タフェースは、ユーザ名、人口学的情報、ユーザ101に関連付いた病状を含む医療履歴、ユーザ101に関連付いた好みなどを提供するための、ユーザ101に対応するフィールドを含む。ユーザの好みとは、例えば、ユーザ101に対して一定重量より重い物体を取得するロボット190に対する好みを含んでいてもよい。ユーザモジュール212は、通信モジュール202を介してユーザインタフェースモジュール214からユーザ入力を受信し、ユーザ101に固有なEHRを生成してもよい。また、ユーザモジュール212は、EHRを、ユーザデータ297の一部として記憶してもよい。
よって、ユーザインタフェースモジュール214が、ユーザ101が経験した心臓発作の回数、心臓発作の日付、心臓発作と関連付いた症状を治療するためにユーザ101が薬剤投与を受けているかなど、に関してユーザ101に問い合わせるユーザインタフェースを生成する。ユーザモジュール212は、回答に基づいてEHRを生成してもよい。
図4を参照して、ユーザの一つ以上の身体的能力に基づいてロボットのタスクを決定する例示的な方法400のフローチャートを説明する。
一実施形態では、方法400の一つ以上のステップは、方法400の一つ以上のステップを実行するためにプログラミングされた、プロセッサベースのコンピュータによって実行されてもよい。例えば、方法400の一つ以上のステップは、方法400の一つ以上のステップを実行するためにプログラミングされたモバイルコンピュータによって実行されてもよい。代わりに、または追加として、方法400は、図1Aにおけるコンピュータ107、または、ロボット190に記憶された動き推定アプリケーション199のモジュールによって実行されてもよい。例えば、動き推定アプリケーション199は、図2の位置モジュール204、検出モジュール206、および推定モジュール208を含んでいてもよい。
環境内の障害物、および、ユーザ101の一つ以上の身体的能力に基づいてタスクを実行するようにロボット190に指示してもよい。タスクとは、例えば、ナビゲーション支援を提供し、および、ユーザ101に対して荷物を運ぶことによって、施設内を移動するユーザ101を支援するものであってもよい。
また、推定モジュール208は、「ユーザ101が、ロボット190が目に見える範囲にいることを必要としているため、ユーザ101が通常の視覚を有している場合よりも、ロボット190をユーザ101のより近くに移動させるべき」と判定してもよい。結果として、推定モジュール208は、通常の視覚を有する人と比較して、ロボット190をより遅く移動させるべきと判定する。
一実施形態では、方法500の一つ以上のステップは、方法500の一つ以上のステップを実行するようにプログラミングされたプロセッサベースのコンピュータによって実行されてもよい。例えば、方法500の一つ以上のステップは、方法500の一つ以上のステップを実行するようにプログラミングされたモバイルコンピュータによって実行されてもよい。代わりに、または追加として、方法500は、図1Aにおけるコンピュータ107またはロボット190に記憶された動き推定アプリケーション199のモジュールによって実行されてもよい。例えば、動き推定アプリケーション199は、図5の位置モジュール204、検出モジュール206、推定モジュール208、状態モジュール210、およびユーザモジュール212を含んでいてもよい。
また、推定モジュール208は、ユーザ101の一つ以上の身体的能力を判定するためのシミュレーションを生成してもよい。当該シミュレーションは、弱っている左ひじの制限についての入力パラメータや、ユーザ101がベッドに横たわっており、容易に立つことができず、右手に不快度レベルを生じさせる静脈点滴注射をしているといった観察データなどを含む。
推定モジュール208は、シミュレーションに基づいて、ユーザ101が、ユーザの101の体の近くで、左手で物体を保持する場合に楽に保持することができると判定する。
、元の位置からユーザ環境の空間内における位置および向きに物体を移動させるための手渡し動作を実行するためのロボットに対する命令を生成する。例えば、推定モジュール208が、環境内の障害物およびユーザ101の一つ以上の身体的能力に基づいて、元の位置から、ユーザ環境の空間内における位置および向きに物体を移動させるための、手渡し動作を実行するためのロボット190に対する命令を生成してもよい。上記例では、推定モジュール208が、ユーザ101の不自由な右手を回避するため、左手をターゲットとした手渡し動作を実行するためにロボット190に対する命令を生成する。
憶されたデータベースから、ターゲットユーザに関連付いたEHRデータ111を取得するためのクエリを生成してもよい。EHRデータ111は、ターゲットユーザの一つ以上の身体的能力を表すものであってもよい。
テムのレジスタやメモリ内の物理的(電子的)量を、他のメモリやレジスタまたは同様の情報ストレージや通信装置、表示装置内の物理量として表される他のデータへ操作および変形する動作および処理を意味する。
105 ネットワーク
107 コンピュータ
110 ヘルスサーバ
111 電子健康記録データ
190 ロボット
199 動き推定アプリケーション
202 通信モジュール
204 位置モジュール
206 検出モジュール
208 推定モジュール
210 状態モジュール
212 ユーザモジュール
214 ユーザインタフェースモジュール
225 プロセッサ
227 メモリ
245 通信ユニット
247 センサ
249 カメラ
251 モータ
253 モバイルハードウェア
267 スピーカ
292 分類器データ
297 ユーザデータ
Claims (21)
- ロボットを用いて、ユーザ環境内にいるユーザの補助を行うシステムが実行する方法であって、
前記ユーザ環境内におけるユーザの現在位置を取得する位置取得ステップと、
前記ユーザ環境内にある障害物を検出する障害物検出ステップと、
前記ユーザに関連付いた電子健康記録(EHR)に基づいて、前記ユーザの身体的能力を推定する能力推定ステップと、
前記ユーザ環境内にある障害物と、前記ユーザの身体的能力と、に基づいて、前記ロボットがタスクを実行するための命令を生成する命令生成ステップと、
前記生成した命令をロボットに送信する命令送信ステップと、
前記ユーザの状態を監視する監視ステップと、
前記ユーザの状態の変化に応じて、前記ロボットに対する命令を変更する命令変更ステップと、
前記ユーザの状態の変化を、前記電子健康記録に反映させる反映ステップと、
を含む方法。 - 前記ロボットに対する命令は、前記ユーザに対して物体を手渡しするために、前記物体を所定の位置および向きに再配置させる命令である、
請求項1に記載の方法。 - 前記電子健康記録に基づいて、前記ユーザのロボットに近い側の手が不自由か否かを判定する判定ステップをさらに含み、
前記命令生成ステップでは、前記判定結果に基づいて、前記物体を、不自由ではない手の側に移動させる命令を生成する、
請求項2に記載の方法。 - 前記電子健康記録は、前記ユーザの現在および過去における医学的状態を表した情報である、
請求項1から3のいずれかに記載の方法。 - 前記電子健康記録は、前記ユーザが動ける範囲、前記ユーザの手が届く範囲、前記ユー
ザの筋肉の状態、前記ユーザの快適度、前記ユーザの嗜好、前記ユーザが前記ロボットから物体を受け取るのにかかる時間、手渡し動作の後で前記ユーザが前記ロボットと接する時間、タスクを完了するのにかかる時間、の少なくともいずれかを含む、
請求項1から4のいずれかに記載の方法。 - 前記ロボットに対して発行される命令は、前記ユーザを誘導するために前記ロボットを所定のパスに沿って移動させる命令であり、
前記所定のパスは、前記ユーザの移動速度、前記ユーザに対する相対位置、誘導の複雑度、前記ロボットがユーザに対して提供する情報の量、の少なくともいずれかに基づいて決定される、
請求項1から3のいずれかに記載の方法。 - 前記電子健康記録に基づいて、前記ロボットが前記ユーザに対して取るべき間隔を決定するステップをさらに含み、
前記所定のパスは、前記間隔を維持するように決定される、
請求項6に記載の方法。 - 前記能力推定ステップでは、取得した電子健康記録に基づいてシミュレーションを行うことで、前記ユーザの身体的能力を推定する、
請求項1から7のいずれかに記載の方法。 - 前記能力推定ステップでは、前記ユーザに関連付いた状態を識別するために、分類器と、トレーニングデータセットを生成する、
請求項8に記載の方法。 - 請求項1から9のいずれかに記載の方法の各ステップをコンピュータに実行させるプログラム。
- ユーザの補助を行うロボットの制御を行う方法であって、
前記ユーザの身体的能力が記述されている電子健康記録(EHR)が記録されているサーバに対してクエリを発行し、対応する電子健康記録を取得するステップと、
取得した電子健康記録に基づいて、前記ロボットの挙動を決定するプログラムのうち、初期プログラムである第一のプログラムを実行した際の結果をシミュレーションしたデータであるシミュレーションデータを生成するステップと、
前記第一のプログラムと、前記シミュレーションデータと、に基づいて、前記ユーザの身体的能力に応じた、第二のプログラムを生成するステップと、
前記第二のプログラムを前記ロボットに適用するステップと、
前記第二のプログラムの実行結果に基づいて、フィードバックデータを生成するステップと、
前記フィードバックデータに基づいて、前記第二のプログラムを修正するステップと、
前記フィードバックデータを前記電子健康記録に追加するステップと、
を含む方法。 - 前記シミュレーションデータ、前記第二のプログラム、前記フィードバックデータに基づいて、前記ユーザに対応する第三のプログラムを生成するステップをさらに含む、
請求項11に記載の方法。 - 前記電子健康記録に含まれるフィードバックデータに基づいて、新たなシミュレーションデータを生成するステップと、をさらに含む、
請求項11または12に記載の方法。 - ユーザの補助を行うロボットの制御を行う方法であって、
前記ユーザの健康状態が記述されている電子健康記録(EHR)に基づいて、前記ユーザの身体的能力を決定する決定ステップと、
前記電子健康記録に基づいて、前記ロボットを制御するプログラムの修正内容を決定する修正ステップと、
前記ロボットの挙動が、前記ユーザの身体的能力に適合するように、前記修正内容に基づいて、前記ロボットのプログラムを修正する適用ステップと、
前記ユーザの状態を監視する監視ステップと、
前記ユーザの状態の変化に応じて、前記プログラムをさらに修正する第二の修正ステップと、
前記ユーザの状態の変化を、前記電子健康記録に反映させる反映ステップと、
を含む、方法。 - 前記電子健康記録は、前記ユーザの視力が低いことを示すものであり、
前記修正ステップが決定する修正内容は、通常のプログラムと比べて、ロボットとユーザとの距離をより近くする、または、減速度をより大きくするものである、
請求項14に記載の方法。 - 前記電子健康記録は、前記ユーザのいずれかの耳の聴力が低いことを示すものであり、
前記修正ステップが決定する修正内容は、聴力が低い耳と反対側の耳の側にロボットを配置するものである、
請求項14または15に記載の方法。 - ロボットを用いて、ユーザ環境内にいるユーザの補助を行うシステムが実行する方法であって、
補助対象のユーザを決定するステップと、
前記補助対象のユーザの身体的能力が記述されている電子健康記録(EHR)を取得するステップと、
前記ユーザ環境内にある障害物を検出する障害物検出ステップと、
前記ユーザ環境内にある障害物と、前記ユーザの身体的能力に基づいて、前記ロボットがタスクを実行するための命令を修正する命令修正ステップと、
前記修正した命令をロボットに送信する命令送信ステップと、
前記ユーザの状態を監視する監視ステップと、
前記ユーザの状態の変化に応じて、前記ロボットに対する命令をさらに修正する第二の命令修正ステップと、
前記ユーザの状態の変化を、前記電子健康記録に反映させる反映ステップと、
を含む、方法。 - 前記ロボットに対する命令は、前記ユーザに対して物体を手渡しするために、前記物体を所定の位置および向きに再配置させる命令である、
請求項17に記載の方法。 - 前記ロボットに対する命令は、前記ユーザの元へ物体を運ぶ命令である、
請求項17に記載の方法。 - 前記電子健康記録は、前記ユーザの現在および過去における医学的状態を表した情報である、
請求項17から19のいずれかに記載の方法。 - 前記ユーザ環境内におけるユーザの現在位置を取得する位置取得ステップをさらに含む、
請求項17から20のいずれかに記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/632,165 US9694496B2 (en) | 2015-02-26 | 2015-02-26 | Providing personalized patient care based on electronic health record associated with a user |
US14/632,165 | 2015-02-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016159155A JP2016159155A (ja) | 2016-09-05 |
JP6194971B2 true JP6194971B2 (ja) | 2017-09-13 |
Family
ID=56798637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016032933A Active JP6194971B2 (ja) | 2015-02-26 | 2016-02-24 | ユーザの健康記録に基づいてパーソナライズされた看護の提供 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9694496B2 (ja) |
JP (1) | JP6194971B2 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106950908A (zh) | 2012-08-28 | 2017-07-14 | 戴尔斯生活有限责任公司 | 用于改善与可居住环境相关联的幸福感的系统、方法以及物件 |
EP3111411A4 (en) | 2014-02-28 | 2017-08-09 | Delos Living, LLC | Systems, methods and articles for enhancing wellness associated with habitable environments |
US10923226B2 (en) | 2015-01-13 | 2021-02-16 | Delos Living Llc | Systems, methods and articles for monitoring and enhancing human wellness |
US9563268B2 (en) | 2015-05-19 | 2017-02-07 | Spotify Ab | Heart rate control based upon media content selection |
US9978426B2 (en) | 2015-05-19 | 2018-05-22 | Spotify Ab | Repetitive-motion activity enhancement based upon media content selection |
US10188580B2 (en) * | 2016-05-09 | 2019-01-29 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for providing environment information using an unmanned vehicle |
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
US11990213B1 (en) | 2016-09-14 | 2024-05-21 | Altera Digital Health | Methods and systems for visualizing patient population data |
KR20230003653A (ko) * | 2016-11-11 | 2023-01-06 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 환자 건강 기록들 기반 기구 제어를 갖는 원격조작 수술 시스템 |
CN107688983A (zh) * | 2017-07-27 | 2018-02-13 | 北京光年无限科技有限公司 | 基于商务平台的智能机器人定制业务处理方法及系统 |
US11668481B2 (en) | 2017-08-30 | 2023-06-06 | Delos Living Llc | Systems, methods and articles for assessing and/or improving health and well-being |
CN107544248B (zh) * | 2017-09-13 | 2019-12-13 | 上海思岚科技有限公司 | 一种移动机器人中的任务优化方法及设备 |
JP7102169B2 (ja) * | 2018-02-28 | 2022-07-19 | パナソニックホールディングス株式会社 | 装置、ロボット、方法、及びプログラム |
WO2020055872A1 (en) | 2018-09-14 | 2020-03-19 | Delos Living Llc | Systems and methods for air remediation |
JP6985230B2 (ja) * | 2018-09-19 | 2021-12-22 | 株式会社日立製作所 | 業務分析サーバ、業務分析方法、および業務分析プログラム |
JP7262979B2 (ja) * | 2018-11-22 | 2023-04-24 | オムロン株式会社 | 文書作成装置、方法及びプログラム |
KR102261797B1 (ko) * | 2018-12-14 | 2021-06-07 | 신라대학교 산학협력단 | 의료 보조서비스를 제공하는 로봇 시스템 및 그 방법 |
US11738449B2 (en) | 2018-12-19 | 2023-08-29 | Honda Motor Co., Ltd. | Guide robot control device, guidance system using same, and guide robot control method |
JPWO2020129309A1 (ja) * | 2018-12-19 | 2021-09-30 | 本田技研工業株式会社 | 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法 |
WO2020176503A1 (en) | 2019-02-26 | 2020-09-03 | Delos Living Llc | Method and apparatus for lighting in an office environment |
US11898898B2 (en) | 2019-03-25 | 2024-02-13 | Delos Living Llc | Systems and methods for acoustic monitoring |
US10576630B1 (en) * | 2019-05-31 | 2020-03-03 | Mujin, Inc. | Robotic system with a robot arm suction control mechanism and method of operation thereof |
US11449793B2 (en) * | 2019-07-03 | 2022-09-20 | Kpn Innovations, Llc. | Methods and systems for medical record searching with transmittable machine learning |
CN112327878B (zh) * | 2020-11-25 | 2022-06-10 | 珠海一微半导体股份有限公司 | 一种基于tof摄像头的障碍物分类避障控制方法 |
CN112256044B (zh) * | 2020-12-23 | 2021-03-12 | 炬星科技(深圳)有限公司 | 减少人机交互等待时长的方法、设备及存储介质 |
US20220009103A1 (en) * | 2021-09-24 | 2022-01-13 | Intel Corporation | System and safety guide robot for accessing automated environments |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7860583B2 (en) * | 2004-08-25 | 2010-12-28 | Carefusion 303, Inc. | System and method for dynamically adjusting patient therapy |
JP2003339796A (ja) | 2002-05-24 | 2003-12-02 | Mitsubishi Heavy Ind Ltd | 介護ロボット |
JP2004017185A (ja) * | 2002-06-13 | 2004-01-22 | Mitsubishi Heavy Ind Ltd | ロボット制御装置 |
US20120072024A1 (en) * | 2002-07-25 | 2012-03-22 | Yulun Wang | Telerobotic system with dual application screen presentation |
US7733224B2 (en) * | 2006-06-30 | 2010-06-08 | Bao Tran | Mesh network personal emergency response appliance |
JP5327668B2 (ja) | 2008-12-09 | 2013-10-30 | 公立大学法人首都大学東京 | ユーザ健康維持活性化支援及び見守りシステム |
US9014848B2 (en) * | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
US20120191464A1 (en) * | 2011-01-21 | 2012-07-26 | Intouch Technologies, Inc. | Telerobotic System with a Dual Application Screen Presentation |
US20140139616A1 (en) | 2012-01-27 | 2014-05-22 | Intouch Technologies, Inc. | Enhanced Diagnostics for a Telepresence Robot |
JP2013111737A (ja) | 2011-12-01 | 2013-06-10 | Sony Corp | ロボット装置及びその制御方法、並びにコンピューター・プログラム |
JP2013184273A (ja) * | 2012-03-09 | 2013-09-19 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
US20130338525A1 (en) * | 2012-04-24 | 2013-12-19 | Irobot Corporation | Mobile Human Interface Robot |
EP2954883B1 (en) * | 2013-02-07 | 2024-03-06 | FUJI Corporation | Movement assistance robot |
US9355368B2 (en) * | 2013-03-14 | 2016-05-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Computer-based method and system for providing active and automatic personal assistance using a robotic device/platform |
-
2015
- 2015-02-26 US US14/632,165 patent/US9694496B2/en active Active
-
2016
- 2016-02-24 JP JP2016032933A patent/JP6194971B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016159155A (ja) | 2016-09-05 |
US9694496B2 (en) | 2017-07-04 |
US20160250751A1 (en) | 2016-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6194971B2 (ja) | ユーザの健康記録に基づいてパーソナライズされた看護の提供 | |
US11389686B2 (en) | Robotically assisted ankle rehabilitation systems, apparatuses, and methods thereof | |
EP3571992A1 (en) | Mitigating effects of neuro-muscular ailments | |
ES2969892T3 (es) | Sistema y método para reconocimiento de intención de usuario | |
JP6065077B2 (ja) | ロボットによる物体手渡しシステム | |
Mugueta-Aguinaga et al. | Is technology present in frailty? Technology a back-up tool for dealing with frailty in the elderly: A systematic review | |
JP5732459B2 (ja) | 視覚テスト及びトレーニングのためのマルチタッチディスプレイ及び入力 | |
Parajuli et al. | Senior health monitoring using Kinect | |
US20140184384A1 (en) | Wearable navigation assistance for the vision-impaired | |
KR20200121832A (ko) | 낙상 위험의 실시간 평가용 연결된 키오스크 | |
KR20160099552A (ko) | 서비스 제공 관리 시스템 | |
US20160321955A1 (en) | Wearable navigation assistance for the vision-impaired | |
US20110296306A1 (en) | Methods and systems for personal support assistance | |
Garcia-Macias et al. | Uasisi: A modular and adaptable wearable system to assist the visually impaired | |
JP2017012691A (ja) | リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法及びプログラム | |
WO2019087502A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2019058285A (ja) | 活動支援方法、プログラム、及び活動支援システム | |
US11273357B2 (en) | Interactive exercise experience | |
Domb | Wearable devices and their Implementation in various domains | |
Vieira et al. | A gamified application for assessment of balance and fall prevention | |
Pandit et al. | Exercisecheck: A scalable platform for remote physical therapy deployed as a hybrid desktop and web application | |
US20210193294A1 (en) | Patient management based on sensed activities | |
US20220054355A1 (en) | Body care motion tracking device and body care management method using same | |
Boulo et al. | Validity and reliability of the tracking measures extracted from the oculus quest 2 during locomotion | |
JP2020096826A (ja) | リハビリテーション支援装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170731 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6194971 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |