WO2022259595A1 - 介護ロボット - Google Patents
介護ロボット Download PDFInfo
- Publication number
- WO2022259595A1 WO2022259595A1 PCT/JP2022/001667 JP2022001667W WO2022259595A1 WO 2022259595 A1 WO2022259595 A1 WO 2022259595A1 JP 2022001667 W JP2022001667 W JP 2022001667W WO 2022259595 A1 WO2022259595 A1 WO 2022259595A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- robot
- care
- joint axis
- care robot
- application
- Prior art date
Links
- 230000000474 nursing effect Effects 0.000 title claims abstract description 160
- 210000000323 shoulder joint Anatomy 0.000 claims abstract description 39
- 210000003128 head Anatomy 0.000 claims description 62
- 210000005252 bulbus oculi Anatomy 0.000 claims description 57
- 230000033001 locomotion Effects 0.000 claims description 43
- 235000002673 Dioscorea communis Nutrition 0.000 claims description 13
- 241000544230 Dioscorea communis Species 0.000 claims description 13
- 208000035753 Periorbital contusion Diseases 0.000 claims description 13
- 239000007787 solid Substances 0.000 claims description 4
- 210000001624 hip Anatomy 0.000 abstract description 18
- 210000004394 hip joint Anatomy 0.000 abstract description 3
- 238000013459 approach Methods 0.000 description 43
- 238000012545 processing Methods 0.000 description 34
- 238000005259 measurement Methods 0.000 description 33
- 238000011156 evaluation Methods 0.000 description 25
- 238000012544 monitoring process Methods 0.000 description 23
- 230000029142 excretion Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 19
- 230000000694 effects Effects 0.000 description 18
- 230000010365 information processing Effects 0.000 description 17
- 206010012289 Dementia Diseases 0.000 description 15
- 230000009471 action Effects 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 14
- 238000013500 data storage Methods 0.000 description 14
- 241001122767 Theaceae Species 0.000 description 13
- 238000002360 preparation method Methods 0.000 description 13
- 238000009826 distribution Methods 0.000 description 12
- 210000001508 eye Anatomy 0.000 description 12
- 235000011888 snacks Nutrition 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 230000004913 activation Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 230000036760 body temperature Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 230000003340 mental effect Effects 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 6
- 230000033764 rhythmic process Effects 0.000 description 6
- 230000001914 calming effect Effects 0.000 description 5
- 230000001687 destabilization Effects 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 4
- 230000036772 blood pressure Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 229910052760 oxygen Inorganic materials 0.000 description 4
- 239000001301 oxygen Substances 0.000 description 4
- 235000019640 taste Nutrition 0.000 description 4
- 206010048909 Boredom Diseases 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000002618 waking effect Effects 0.000 description 3
- 206010037180 Psychiatric symptoms Diseases 0.000 description 2
- 206010038743 Restlessness Diseases 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000009529 body temperature measurement Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000006996 mental state Effects 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 208000035473 Communicable disease Diseases 0.000 description 1
- 208000001692 Esotropia Diseases 0.000 description 1
- 208000001431 Psychomotor Agitation Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000003287 bathing Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000003651 drinking water Substances 0.000 description 1
- 235000020188 drinking water Nutrition 0.000 description 1
- 230000001073 episodic memory Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036571 hydration Effects 0.000 description 1
- 238000006703 hydration reaction Methods 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 210000004705 lumbosacral region Anatomy 0.000 description 1
- 239000002932 luster Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/009—Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/06—Programme-controlled manipulators characterised by multi-articulated arms
Definitions
- a care robot 100 includes a head 1 having eyeballs 11 , a chest 2 , and a base 3 that supports the chest 2 .
- the lower portion of the base portion 3 is, for example, an omnidirectional mobile carriage. Thereby, the care robot 100 can move in all directions.
- the various sensors 110 include a vital sensor, a microphone, a distance image sensor, an omnidirectional distance sensor, a tactile sensor, and a force sensor. Some of the various sensors 110 are provided in the head sensor 51, the chest sensor 52, and the hand sensor 53 described above.
- the real need from the nursing care facility is to stabilize the mental state of the subject 101 of nursing care by watching over (state observation and communication) while the staff member 200 is absent.
- the nursing care robot 100 which can actively go to acquire information, watches over the nursing care target person 101 in advance and continues approaches such as greetings, voices, prompting, etc. Calm the state and try to preserve the stable state.
- the group of applications installed in the robot operating system aims to reduce the work load on the staff member 200 and further stabilize the mental state of the care recipient 101 .
- the evaluation data includes the gaze time of the subject 101 toward the care robot 100 (the time during which the face and eyes are aligned, etc.), the utterance time of the subject 101, whether or not a smile of the subject 101 is detected, and negative reactions. The presence or absence of, etc. may be included.
- This evaluation data may be defined as an acceptability value.
- the application generating unit 323 obtains the optimum approach distance and approach that match the receptivity of each subject 101, and causes the care robot 100 to perform caregiving actions.
- the above application list is the result of consideration of needs (level of problems), functions, value to be obtained, and technical feasibility from among 50 items of applications that may be used in nursing care site work that were created in advance. , the selection is made in order of importance under the supervision of the staff member 200 .
- Active monitoring which is a basic application, (1) Differences between morning, noon, night, and midnight (2) Differences between states on bed in living room 402 (Fig. 28) and on wheelchair in living room 401 (Fig. 28) (3) Care recipient 101 Degree of dementia (4)
- Individual approaches such as how to keep a distance from the target person 101, how to approach the target person 101, greetings, and dialogue content, are optimized according to the target person 101, and can be executed through a schedule and sensing results.
- An individual approach is automatically generated for each target person 101 by the application generating unit 323 and presented to the large information terminal 310 or the small information terminal 212 .
- FIG. 23 and FIG. 24 show the processing flow of an embodiment of the basic application "greeting to calm down/vital measurement".
- the positional distance and angle values shown in FIGS. 23 and 24 are representative examples, and it is important to go through the stages of long, medium, and short distances.
- Optimum values are set for each subject 101 for the above numerical values.
- the care robot 100 performs greetings by speech and motion, measures vitals, checks for negative reactions while measuring reactions, and moves between waypoints.
- FIG. 25 shows the flow of this sensing.
- the measured evaluation data is output as a table so that the employee 200 can confirm it, and can be displayed on a small information terminal 12 such as a tablet operated by the employee 200 (FIG. 26).
- the robot operation system collects, as evaluation data, gaze time (face and eye direction match), speech time, presence/absence of smile detection, and presence/absence of negative reaction. is output (step S207).
- the robot operation system acquires the family information of the subject 101 (step S501).
- the robot operation system prepares to know what the subject 101 wants to do (step S502).
- the target person 101 is asked to select from provided contents (photographs, etc.) output (displayed) from the application generation unit 323 of the center PC 320 to the small information terminal 130 carried by the care robot 100 .
- the robot operation system performs processing to find out what the subject 101 wants to do (step S503).
- the care robot 100 makes a conversation while looking at the photos output (displayed) on the small information terminal 130 to create a "memory talk album".
- the care robot 100 can extend its arm from the side of the table 500 and place the compact information terminal 130 in the optimal posture for the user.
- the robot operation system can capture the face of the user, who is the caller, using a camera arranged on the small information terminal 130, for example.
- the work load on the staff member 200 can be reduced, and care work can be carried out with peace of mind.
- the number of people who wish to enter facilities that have been introduced increases.
- the number of people who wish to work as nursing care staff 200 and nursing staff 200 at the introduced facility increases.
- the person 101 can be loved like a child or grandchild, and by being taken care of, the person 101 to be cared for can live with a role.
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Nursing (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
Description
0.比較例
1.第1の実施の形態
1.1 介護ロボットの構成例(図1~図20)
1.2 介護ロボットの作用・効果
1.3 ロボット運用システムの構成例および動作例(図21~図43)
1.4 ロボット運用システムの作用・効果
2.その他の実施の形態
(介護ロボットに求められる構成)
老人ホーム等の介護施設では、人手不足を起因として生じる、リビングでの職員不在時間と介護の対象者の待ち時間とにおいて、認知症のある対象者が不安定化することがある。不安定化の例としては、落ち着かない、寂しがる、および怒る、などがある。不安定化した結果、急な立ち上がり等で怪我を負うリスクがあったり生活リズムが乱れるといったことが生じ得る。要介護度を上げることにもつながり、必要となるケアも増加する。個室ケアと並行して対応する必要があり、対応の難易度が高く、職員の負荷も高い。介護施設における見守り機器としては、既存の受動的な見守りセンサ(定点カメラ、ベッドセンサ等)が存在するが、転倒等があった際に、事後報告しかできず、介護の対象者が不安定化したことは検知が困難である。監視カメラ的センサの利用を嫌がる介護の対象者やその家族も多く、介護の対象者からの受容性は低い。
上述のように、既存の受動的な見守りセンサは、介護の対象者からの受容性は低い。住環境に取り付けられたセンサやカメラ、およびスピーカ等を用いて介護の対象者へ発話しても、音源定位が難しい対象者も多く、コミュニケーションは成立しにくい。
[1.1 介護ロボットの構成例]
(介護ロボットの概要)
図1は、本開示の第1の実施の形態に係る介護ロボット100の正面方向および側面方向から見た外観の一例を示している。図1の左側に正面外観図、右側に側面外観図を示す。図2は、介護ロボット100の背面方向から見た外観の一例を示している。図3は、介護ロボット100の正面斜め方向から見た外観の一例を示している。図4は、介護ロボット100の背面斜め方向から見た外観の一例を示している。図5は、介護ロボット100の手73の外観の一例を示している。図6には、介護ロボット100のサイズと一般的なテーブル500のサイズとを比較して示す。
頭部センサ51は、例えば距離画像センサである。頭部センサ51は、ユマニチュードモーションの実践や、フェイストラッキングモーションの実践等が可能となるように、センシング方向が介護ロボット100の視線方向と略同一方向となるように構成されている。ここで、一般的なテーブル500の高さは例えば700mm程度であり、介護施設の一般的なテーブル500の高さは例えば高さ660mm程度である。例えば図6に示したように、テーブル500の天板501の上を一望できる位置に頭部センサ51が配置されている。頭部1は、椅子に座位している状態(座位姿勢)における介護の対象者の顔を見上げる位置に配置されいる。頭部センサ51は、頭部1の高い位置(例えば高さ760mm程度の位置)において、例えば5deg程度、上向きに搭載されている。頭部センサ51は、頭部1の外径ラインから飛び出しすぎないように配置されている。これにより、例えば図6に示したように、標準的なテーブル500の上にある物体の認識や、テーブル500越しの座位姿勢の介護の対象者の顔認識が可能となる。また。標準ベッド上の座位姿勢の介護の対象者の顔認識や、標準ベッド上の仰向姿勢の介護の対象者の顔認識が可能となる。また、近距離座位姿勢の介護の対象者を見上げる角度での顔認識、および近距離起立姿勢の介護の対象者を見上げる角度での顔認識等が可能となる。
図7は、介護ロボット100の各部の寸法のパラメータを示す正面図である。図8は、介護ロボット100の各部の寸法のパラメータを示す側面図である。図9は、介護ロボット100の各部の寸法の一例を示す正面図である。図10は、介護ロボット100の各部の寸法の一例を示す側面図である。図11は、介護ロボット100の腕部7の各部の寸法の一例を示す構成図である。図12ないし図14は、介護ロボット100の各部の寸法の一例を示す説明図である。図15は、介護ロボット100の各部の関節軸の可動範囲の一例を示す説明図である。
0<L2/L1<1.5 ……(1)
0.2<L5/L4<0.6 ……(2)
3.3<L7/L6<5.0 ……(3)
0.2<L17/L6<0.5 ……(4)
0.3<L5/L6<0.6 ……(5)
1.3<L18/L17<2.5 ……(6)
0.4<L19/L17≦1.0 ……(7)
1<L22/L21<1.3 ……(8)
図16および図17は、介護ロボット100の眼球部11の一構成例を示す外観図である。図18は、介護ロボット100の眼球部11の一構成例を示す断面図である。図19は、介護ロボット100の眼球部11の寸法のパラメータを示す正面図である。図20は、介護ロボット100の眼球部11の内部構成例を示す分解図である。
第1の実施の形態に係る介護ロボット100は、ロボットハードウェアの実機構成を、人共存環境における介護の対象者からの受容性(怖がられることなく、何をしているかが分かりやすい)を上げる仕様とすることができる。特に、認知症高齢者や乳幼児といった、認知に特性のある介護の対象者からの受容性を上げる仕様とすることができる。
サイズに関して、2歳児相当の実在感があり適度に小さく、座位高齢者が見下ろす高さであり、介護の対象者にとって威圧感がなく怖くない構成とされている。頭部1の高さが、一般的なテーブル500の上を一望できるような構成とされている。肩5の高さと腕部7の長さが、一般的なテーブル500の端部にアプローチ可能な構成とされている。フォルムに関して、頭身も大きく、かわいい孫に似た形とされている。眼球部11に関して、眼が合いやすい高さ位置にあり、介護の対象者にとって、眼球部11に表示された視線や画像の意味が分かる構成とされている。動作に関して、人と異なる自由度軸、可動域を持たず、動きが怖くなく、何をしているか分かる構成とされている。ユマニチュードモーションの実践が可能となる構成とされている。能動的見守りロボットにおける、基本アプリケーションの実施が可能となる構成とされている。
2.認知症高齢者からの受容性が高いため、介護の対象者のそばに近づき、能動的な見守り、あいさつ落ち着かせ、バイタル計測、配茶、お話レクリエーションといったアプリケーションを提供可能となる。
3.職員不在時のリビングや居室においても、介護の対象者の状態不安的化を防ぎ、落ち着かせることができる。
4.スケジュールに合わせてアプリケーションを繰り返し実施することで、介護の対象者の生活リズムが整う。
5.介護の対象者の生活リズムを整え、不安定化を防ぐことで、施設全体の安定化につながり、介護業務全体が効率化しコスト削減にもつながる。
6.ロボット1台で介護施設の1ユニット分(約10名)の介護の対象者を対応できる。
7.介護の対象者のQOL(Quality of Life)が上がる。
8.職員の業務負荷を減少させ、安心してケア業務を遂行できるようになる。
9.導入した施設への入所希望者が増える。
10.導入した施設への介護職員、看護職員としての就職希望者が増える。
11.子供や孫のようにかわいがられることができ、お世話してもらうことで介護の対象者に役割を持って生活していただける。
1.センサ位置に関し,頭部1の前方上部位置、胸部2の前方上部位置に広い空間を作りやすくなるため、センサレイアウト自由度が高まる。例えば、座位姿勢、立位姿勢の介護の対象者に対するバイタルセンシング性の良い位置にセンサを配置することが可能となる。
2.頭部前方は部品が集中しやすく重量が大きくなりやすいが、首関節軸4C、肩関節軸5C、および腰関節軸6Cの3つの関節軸の前後方向位置が同一後ろ方向にオフセットするように配置されているため、腰6から上の重心バランスとして、偏心加重となりにくい。
(ロボット運用システムの概要)
図21は、第1の実施の形態に係るロボット運用システムの一構成例を概略的に示している。
小型情報端末212は、本開示の技術における「情報端末」の一具体例に相当する。
介護施設からの真のニーズは、介護の対象者101にとっての職員200の不在時間における、見守り(状態観察とコミュニケーション)による、対象者101の心的状態の安定化にある。移動機構とマニピュレータを用いることで能動的に情報を獲得しに行ける介護ロボット100により、介護の対象者101に対して未然に見守り、あいさつ、声掛け、促し等のアプローチを続けることで、心的状態を落ち着かせ、安定状態の保存を図る。さらに、ロボット運用システムに実装されるアプリケーション群により、職員200の業務負荷低減と共に、介護の対象者101の心的状態のさらなる安定化を目指す。
ここで、評価データには、介護ロボット100に対する対象者101の注視時間(顔や目の向きが合う等の時間)、対象者101の発話時間、対象者101の笑顔検出の有無、ネガティブな反応の有無等が含まれてもよい。この評価データを受容性の値と定義してもよい。これにより、アプリケーション生成部323は、対象者101ごとの受容性に合わせた、最適な接近距離とアプローチを求めて介護ロボット100に介護行動を実行させる。
図23は、ロボット運用システムによる「あいさつ落ち着かせ・バイタル計測アプリケーション」の処理動作の一例を示すフローチャートである。図24は、図23に続くフローチャートである。図25は、ロボット運用システムによる「あいさつ落ち着かせ・バイタル計測アプリケーション」による評価データの出力処理の一例を示すフローチャートである。図26は、ロボット運用システムによる「あいさつ落ち着かせ・バイタル計測アプリケーション」による評価データの出力結果の一例を示している。図27は、ロボット運用システムによる複数のアプリケーションの実施スケジュールの作成例を示している。図28は、ロボット運用システムの対象となる介護ルームの一例を示している。図29は、ロボット運用システムによる複数のアプリケーションの実施動作の一例を示すフローチャートである。図30は、ロボット運用システムによる複数のアプリケーションの実施中に他のアプリケーションの割り込みがあった場合のアプリケーションの実施動作の一例を示すフローチャートである。図31は、ロボット運用システムによるアプリケーションの実施スケジュールの設定インタフェースの一例を示している。図32は、ロボット運用システムによる介護の対象者101に対する個別設定を行うための設定インタフェースの一例を示している。図33は、ロボット運用システムによる「個別レクリエーションアプリケーション」の処理動作の一例を示すフローチャートである。図34は、図33に続くフローチャートである。図35は、ロボット運用システムによる「見守り・バイタルアプリケーション」の一実施例を示している。図36は、ロボット運用システムによる「お茶配りアプリケーション」の一実施例を示している。図37は、ロボット運用システムによる「おやつ配りアプリケーション」の一実施例を示している。図38は、ロボット運用システムによる「おしぼり配りアプリケーション」の一実施例を示している。図39は、ロボット運用システムによる「排泄準備アプリケーション」の一実施例を示している。図40は、ロボット運用システムによる「電話お手伝いアプリケーション」の一実施例を示している。図41は、ロボット運用システムによる「おはなしアプリケーション」の一実施例を示している。図42は、ロボット運用システムによる「排泄準備アプリケーション」の一実施例を示している。図43は、ロボット運用システムによる「排泄片付けアプリケーション」の一実施例を示している。
間接介助:バイタル計測
-遠距離非接触(体温、心拍)
-近距離接触(体温、血圧、酸素飽和度)
オーダー、おしぼり配り、おやつ配り、お茶配り
直接介助:移乗補助(掴まってもらう)
周辺業務:排泄準備、排泄片付け、机拭き、お茶下膳、おやつ下膳、コップ洗い、お茶作り
レクリエーション:おはなし(思い出の写真、趣味嗜好の写真の話等)、歌、踊り、体操、ハンドマッサージ、やりたいことのお手伝い(好きなことを教えてもらう)、電話お手伝い(家族との電話)
(1)朝、昼、夜、深夜と時間帯の違い
(2)居室402(図28)のベッド上、リビング401(図28)の車椅子上の状態の違い
(3)介護の対象者101の認知症度合い
(4)介護ロボット100に対する受容性の違い
に応じた、実行シナリオにバリエーションが複数存在する。対象者101への距離の取り方、近づき方、あいさつ、および対話内容など、個別アプローチは対象者101に応じて最適化され、スケジュールとセンシング結果を通じて実行可能となる。アプリケーション生成部323により個別アプローチが対象者101ごとに自動生成され、これが大型情報端末310や小型情報端末212に提示される。個別アプローチは職員200により、修正確認された後に、介護ロボット100によって実行可能となるように展開される。上記アプリケーションの代表例のストーリーボードを図35~図39に示す。ロボット運用システムの要点である、受容性高さ上げるアプローチを用いることで実現できる、個別レクリエーションアプリケーションの実施フローを図33、図34に示す。関連写真画像を用いた対話を行い、対象者101ごとのやりたいことを深堀して知り、その情報を職員200や家族へ伝達し、やりたいことを叶える支援を行うアプリケーションである。
基本アプリケーション「あいさつ落ち着かせ・バイタル計測」の実施例の処理フローを、図23、図24に示す。図23、図24に示した位置の距離と角度の数値は代表例であり、遠距離、中距離、および近距離の段階を経ることが重要である。上記数値は対象者101ごとの最適値が設定される。ロボット運用システムでは、それぞれの経由点にて、介護ロボット100が発話とモーションによるあいさつと、バイタル計測を実施し、反応を計測しながら、ネガティブな反応の有無を確認し、経由点を移動する。このセンシングのフローを図25に示す。計測した評価データは職員200から確認できるよう表として出力し、職員200の操作するタブレット等の小型情報端末12へ表示可能とする(図26)。
第1の実施の形態に係るロボット運用システムによれば、以下のような作用・効果が得られる。
1.ロボット運用システムによる能動見守りアプリケーションを実施することで、介護の対象者101との認知症の度合いに合わせた、そばに近づき、能動的な見守り、あいさつ落ち着かせ、バイタル計測、配茶、および、お話レクリエーションといった高品質なアプリケーションを実行可能となる。対象者101に応じて個別アプローチを選定することでこれを実現している。ここで言う高品質とは、”受容性”(怖がられず近くに居られること。発話と動作の意味の分かりやすいこと)が高い状態のことを指す。
2.ロボット運用システムによる応用アプリケーションを行うことで、機能的作用としても、バイタル計測の取得回数の向上、水分補給の促しによる飲水回数の向上等の効果も期待できる。排泄準備などの業務支援としても、職員200の業務負荷を低減する作用を有する。
3.職員200の不在時のリビング401(図28)や居室402(図28)においても、介護の対象者101の状態不安的化を防ぎ、落ち着かせることができる。
4.スケジュールに合わせてアプリケーションを繰り返し実施することで、介護の対象者101の生活リズムが整う。
5.介護の対象者101の生活リズムを整え、不安定化を防ぐことで、施設全体の安定化につながり、介護業務全体が効率化しコスト削減にもつながる。
6.介護ロボット100が1台で介護施設の1ユニット分(約10名)の介護の対象者101を対応できる。
7.介護の対象者101のQOLが上がる。
8.職員200の業務負荷を減少させ、安心してケア業務を遂行できるようになる。
9.導入した施設への入所希望者が増える。
10.導入した施設への介護の職員200、看護の職員200としての就職希望者が増える。
11.子供や孫のようにかわいがられることができ、お世話してもらうことで介護の対象者101に役割を持って生活していただける。
12.上記受容性の獲得の実現によって得られるさらなる効果は、状態観察のビッグデータを持つことで得られる。介護の対象者101のそれぞれの心の中にある、パーソナルメモリー、アイデンティティ、およびエピソード記憶に関する情報を知ることも可能となる。
13.パーソナルメモリーの獲得により、能動見守り・あいさつ時の対話個別アプローチも最適化が行われる。その結果として最終的に目指すのは、認知症の進行を少しでも食い止める(要介護度の変化、反応データから指標を作る)ことである。定性的には、「おじいちゃんとおばあちゃんの笑顔」を増やすことである。
本開示による技術は、上記実施の形態の説明に限定されず種々の変形実施が可能である。
以下の構成の本技術によれば、標準姿勢における側面方向から見たときに、首関節軸を肩関節軸に対して後ろ方向にオフセット配置し、腰関節軸を肩関節軸に対して前方向にオフセット配置する。これにより、介護の対象者に対する受容性を高めることが可能となる。
眼球部を有する頭部と、
胸部と、
前記胸部に取り付けられた腕部と、
前記頭部と前記胸部との間に設けられ、首関節軸を有する可動の首と、
前記胸部と前記腕部との間に設けられ、肩関節軸を有する可動の肩と、
前記胸部の下部に設けられ、腰関節軸を有する可動の腰と
を備え、
標準姿勢における側面方向から見たときに、前記首関節軸が前記肩関節軸に対して後ろ方向にオフセット配置され、前記腰関節軸が前記肩関節軸に対して前方向にオフセット配置されている
介護ロボット。
(2)
前記腰関節軸と前記肩関節軸との前後方向の距離をL1、前記肩関節軸と前記首関節軸との前後方向の距離をL2、前記腰関節軸と前記肩関節軸との上下方向の距離をL4、前記肩関節軸と前記首関節軸との上下方向の距離をL5としたときに、
0<L2/L1<1.5 ……(1)
0.2<L5/L4<0.6 ……(2)
を満足する
上記(1)に記載の介護ロボット。
(3)
標準姿勢における全頭高をL6、身長をL7としたときに、
3.3<L7/L6<5.0 ……(3)
を満足する
上記(1)または(2)に記載の介護ロボット。
(4)
前記眼球部が、前記頭部の上下方向の中心位置よりも下側位置に配置されている
上記(1)ないし(3)のいずれか1つに記載の介護ロボット。
(5)
標準姿勢における全頭高をL6、前記眼球部の中心位置から前記頭部の顎下までの上下方向の距離をL17としたときに、
0.2<L17/L6<0.5 ……(4)
を満足する
上記(4)に記載の介護ロボット。
(6)
前記肩関節軸と前記首関節軸との上下方向の距離をL5、標準姿勢における全頭高をL6としたときに、
0.3<L5/L6<0.6 ……(5)
を満足する
上記(1)ないし(5)のいずれか1つに記載の介護ロボット。
(7)
前記眼球部の中心位置から前記頭部の顎下までの上下方向の距離をL17、前記眼球部の中心位置から前記肩関節軸までの上下方向の距離をL18、前記眼球部の中心位置から前記首関節軸までの上下方向の距離をL19としたときに、
1.3<L18/L17<2.5 ……(6)
0.4<L19/L17≦1.0 ……(7)
を満足する
上記(1)ないし(6)のいずれか1つに記載の介護ロボット。
(8)
前記首のピッチ軸の可動域が、下向き方向よりも上向き方向の方が大きくなるように構成されている
上記(1)ないし(7)のいずれか1つに記載の介護ロボット。
(9)
標準姿勢における側面方向から見たときに、前記頭部の顔前面部が、前記胸部の前面部よりも後ろ側となるように構成されている
上記(1)ないし(8)のいずれか1つに記載の介護ロボット。
(10)
標準姿勢における側面方向から見たときの前記首関節軸から前記頭部の顔前面部までの距離をL21、標準姿勢における側面方向から見たときの前記首関節軸から前記胸部の前面部までの距離をL22としたときに、
1<L22/L21<1.3 ……(8)
を満足する
上記(9)に記載の介護ロボット。
(11)
前記頭部の前方上部に距離画像センサが設けられている
上記(1)ないし(10)のいずれか1つに記載の介護ロボット。
(12)
前記胸部の前方上部にバイタルセンサが設けられている
上記(1)ないし(11)のいずれか1つに記載の介護ロボット。
(13)
前記眼球部は、
第1の端面と第2の端面とを有する透明中実な円筒部と、
前記円筒部の前記第1の端面側に設けられ、黒眼の動作を表示するディスプレイと、
前記円筒部の前記第2の端面側に設けられ、前記円筒部を介して入射した前記ディスプレイからの表示光を出射する半球状の透明な球面部と
を有する
上記(1)ないし(12)のいずれか1つに記載の介護ロボット。
(14)
前記眼球部の眼球の中心位置が、前記球面部の外周の中心位置に対して内側にオフセットされるように構成されている
上記(13)に記載の介護ロボット。
Claims (14)
- 眼球部を有する頭部と、
胸部と、
前記胸部に取り付けられた腕部と、
前記頭部と前記胸部との間に設けられ、首関節軸を有する可動の首と、
前記胸部と前記腕部との間に設けられ、肩関節軸を有する可動の肩と、
前記胸部の下部に設けられ、腰関節軸を有する可動の腰と
を備え、
標準姿勢における側面方向から見たときに、前記首関節軸が前記肩関節軸に対して後ろ方向にオフセット配置され、前記腰関節軸が前記肩関節軸に対して前方向にオフセット配置されている
介護ロボット。 - 前記腰関節軸と前記肩関節軸との前後方向の距離をL1、前記肩関節軸と前記首関節軸との前後方向の距離をL2、前記腰関節軸と前記肩関節軸との上下方向の距離をL4、前記肩関節軸と前記首関節軸との上下方向の距離をL5としたときに、
0<L2/L1<1.5 ……(1)
0.2<L5/L4<0.6 ……(2)
を満足する
請求項1に記載の介護ロボット。 - 標準姿勢における全頭高をL6、身長をL7としたときに、
3.3<L7/L6<5.0 ……(3)
を満足する
請求項1に記載の介護ロボット。 - 前記眼球部が、前記頭部の上下方向の中心位置よりも下側位置に配置されている
請求項1に記載の介護ロボット。 - 標準姿勢における全頭高をL6、前記眼球部の中心位置から前記頭部の顎下までの上下方向の距離をL17としたときに、
0.2<L17/L6<0.5 ……(4)
を満足する
請求項4に記載の介護ロボット。 - 前記肩関節軸と前記首関節軸との上下方向の距離をL5、標準姿勢における全頭高をL6としたときに、
0.3<L5/L6<0.6 ……(5)
を満足する
請求項1に記載の介護ロボット。 - 前記眼球部の中心位置から前記頭部の顎下までの上下方向の距離をL17、前記眼球部の中心位置から前記肩関節軸までの上下方向の距離をL18、前記眼球部の中心位置から前記首関節軸までの上下方向の距離をL19としたときに、
1.3<L18/L17<2.5 ……(6)
0.4<L19/L17≦1.0 ……(7)
を満足する
請求項1に記載の介護ロボット。 - 前記首のピッチ軸の可動域が、下向き方向よりも上向き方向の方が大きくなるように構成されている
請求項1に記載の介護ロボット。 - 標準姿勢における側面方向から見たときに、前記頭部の顔前面部が、前記胸部の前面部よりも後ろ側となるように構成されている
請求項1に記載の介護ロボット。 - 標準姿勢における側面方向から見たときの前記首関節軸から前記頭部の顔前面部までの距離をL21、標準姿勢における側面方向から見たときの前記首関節軸から前記胸部の前面部までの距離をL22としたときに、
1<L22/L21<1.3 ……(8)
を満足する
請求項9に記載の介護ロボット。 - 前記頭部の前方上部に距離画像センサが設けられている
請求項1に記載の介護ロボット。 - 前記胸部の前方上部にバイタルセンサが設けられている
請求項1に記載の介護ロボット。 - 前記眼球部は、
第1の端面と第2の端面とを有する透明中実な円筒部と、
前記円筒部の前記第1の端面側に設けられ、黒眼の動作を表示するディスプレイと、
前記円筒部の前記第2の端面側に設けられ、前記円筒部を介して入射した前記ディスプレイからの表示光を出射する半球状の透明な球面部と
を有する
請求項1に記載の介護ロボット。 - 前記眼球部の眼球の中心位置が、前記球面部の外周の中心位置に対して内側にオフセットされるように構成されている
請求項13に記載の介護ロボット。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202280039626.6A CN117412839A (zh) | 2021-06-10 | 2022-01-18 | 护理机器人 |
US18/565,642 US20240261979A1 (en) | 2021-06-10 | 2022-01-18 | Nursing care robot |
JP2023527478A JPWO2022259595A1 (ja) | 2021-06-10 | 2022-01-18 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021-097442 | 2021-06-10 | ||
JP2021097442 | 2021-06-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022259595A1 true WO2022259595A1 (ja) | 2022-12-15 |
Family
ID=84425612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/001667 WO2022259595A1 (ja) | 2021-06-10 | 2022-01-18 | 介護ロボット |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240261979A1 (ja) |
JP (1) | JPWO2022259595A1 (ja) |
CN (1) | CN117412839A (ja) |
WO (1) | WO2022259595A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307338A (ja) * | 2001-04-18 | 2002-10-23 | Nippon Telegr & Teleph Corp <Ntt> | 動作型存在情報伝達装置およびその制御方法 |
JP2018124399A (ja) * | 2017-01-31 | 2018-08-09 | 富士フイルム株式会社 | ディスプレイ及びロボット |
JP2019055463A (ja) * | 2017-09-21 | 2019-04-11 | パナソニック株式会社 | 移動体 |
JP2019089197A (ja) * | 2016-09-08 | 2019-06-13 | Groove X株式会社 | 自然な距離感を保つ自律行動型ロボットおよびプログラム |
JP2019130610A (ja) * | 2018-01-31 | 2019-08-08 | トヨタ自動車株式会社 | コミュニケーションロボットおよびその制御プログラム |
JP6588624B2 (ja) * | 2016-04-05 | 2019-10-09 | 株式会社日立製作所 | ヒューマノイドロボット |
-
2022
- 2022-01-18 WO PCT/JP2022/001667 patent/WO2022259595A1/ja active Application Filing
- 2022-01-18 CN CN202280039626.6A patent/CN117412839A/zh active Pending
- 2022-01-18 JP JP2023527478A patent/JPWO2022259595A1/ja active Pending
- 2022-01-18 US US18/565,642 patent/US20240261979A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307338A (ja) * | 2001-04-18 | 2002-10-23 | Nippon Telegr & Teleph Corp <Ntt> | 動作型存在情報伝達装置およびその制御方法 |
JP6588624B2 (ja) * | 2016-04-05 | 2019-10-09 | 株式会社日立製作所 | ヒューマノイドロボット |
JP2019089197A (ja) * | 2016-09-08 | 2019-06-13 | Groove X株式会社 | 自然な距離感を保つ自律行動型ロボットおよびプログラム |
JP2018124399A (ja) * | 2017-01-31 | 2018-08-09 | 富士フイルム株式会社 | ディスプレイ及びロボット |
JP2019055463A (ja) * | 2017-09-21 | 2019-04-11 | パナソニック株式会社 | 移動体 |
JP2019130610A (ja) * | 2018-01-31 | 2019-08-08 | トヨタ自動車株式会社 | コミュニケーションロボットおよびその制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN117412839A (zh) | 2024-01-16 |
US20240261979A1 (en) | 2024-08-08 |
JPWO2022259595A1 (ja) | 2022-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6329121B2 (ja) | 移動ロボットを含むロボットシステムにより実行される方法 | |
US10433646B1 (en) | Microclimate control systems and methods | |
CN110024000B (zh) | 使瞳部变化的行为自主型机器人 | |
JP2024096291A (ja) | ロボット、プログラム及び方法 | |
US10405745B2 (en) | Human socializable entity for improving digital health care delivery | |
CN109526208A (zh) | 活动量受控制的行为自主型机器人 | |
Hornecker et al. | The interactive enactment of care technologies and its implications for human-robot-interaction in care | |
JP6557840B2 (ja) | ロボット、サーバ及び行動制御プログラム | |
WO2022259596A1 (ja) | ロボット運用システム | |
US11744376B2 (en) | Microclimate control systems and methods | |
CN109475464A (zh) | 按摩机 | |
Hai et al. | Remote healthcare for the elderly, patients by tele-presence robot | |
JP2020089947A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2024055866A (ja) | 内部状態または外部環境に応じて自律的に行動選択するロボット | |
WO2022259595A1 (ja) | 介護ロボット | |
Sather et al. | Assistive robots designed for eldery care and caregivers | |
Bedaf et al. | Robots supporting care for elderly people | |
JP2022074047A (ja) | 対話型リマインダ・コンパニオン | |
JP7189434B2 (ja) | 空間制御システム | |
WO2018208243A1 (en) | Plurally controllable automated robotic system for children | |
Cooper et al. | Robot to support older people to live independently | |
JP7548621B2 (ja) | 日常生活を記録する自律行動型ロボット | |
JP2024128408A (ja) | 情報処理装置及び介護ロボットの制御方法 | |
WO2023243431A1 (ja) | 介護ロボット、介護ロボットの制御方法、及び、情報処理装置 | |
Choi | A study of human-robot interaction with an assistive robot to help people with severe motor impairments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22819786 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2023527478 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 18565642 Country of ref document: US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 202280039626.6 Country of ref document: CN |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 22819786 Country of ref document: EP Kind code of ref document: A1 |