WO2022259595A1 - 介護ロボット - Google Patents

介護ロボット Download PDF

Info

Publication number
WO2022259595A1
WO2022259595A1 PCT/JP2022/001667 JP2022001667W WO2022259595A1 WO 2022259595 A1 WO2022259595 A1 WO 2022259595A1 JP 2022001667 W JP2022001667 W JP 2022001667W WO 2022259595 A1 WO2022259595 A1 WO 2022259595A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
care
joint axis
care robot
application
Prior art date
Application number
PCT/JP2022/001667
Other languages
English (en)
French (fr)
Inventor
慶直 袖山
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to CN202280039626.6A priority Critical patent/CN117412839A/zh
Priority to US18/565,642 priority patent/US20240261979A1/en
Priority to JP2023527478A priority patent/JPWO2022259595A1/ja
Publication of WO2022259595A1 publication Critical patent/WO2022259595A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/06Programme-controlled manipulators characterised by multi-articulated arms

Definitions

  • a care robot 100 includes a head 1 having eyeballs 11 , a chest 2 , and a base 3 that supports the chest 2 .
  • the lower portion of the base portion 3 is, for example, an omnidirectional mobile carriage. Thereby, the care robot 100 can move in all directions.
  • the various sensors 110 include a vital sensor, a microphone, a distance image sensor, an omnidirectional distance sensor, a tactile sensor, and a force sensor. Some of the various sensors 110 are provided in the head sensor 51, the chest sensor 52, and the hand sensor 53 described above.
  • the real need from the nursing care facility is to stabilize the mental state of the subject 101 of nursing care by watching over (state observation and communication) while the staff member 200 is absent.
  • the nursing care robot 100 which can actively go to acquire information, watches over the nursing care target person 101 in advance and continues approaches such as greetings, voices, prompting, etc. Calm the state and try to preserve the stable state.
  • the group of applications installed in the robot operating system aims to reduce the work load on the staff member 200 and further stabilize the mental state of the care recipient 101 .
  • the evaluation data includes the gaze time of the subject 101 toward the care robot 100 (the time during which the face and eyes are aligned, etc.), the utterance time of the subject 101, whether or not a smile of the subject 101 is detected, and negative reactions. The presence or absence of, etc. may be included.
  • This evaluation data may be defined as an acceptability value.
  • the application generating unit 323 obtains the optimum approach distance and approach that match the receptivity of each subject 101, and causes the care robot 100 to perform caregiving actions.
  • the above application list is the result of consideration of needs (level of problems), functions, value to be obtained, and technical feasibility from among 50 items of applications that may be used in nursing care site work that were created in advance. , the selection is made in order of importance under the supervision of the staff member 200 .
  • Active monitoring which is a basic application, (1) Differences between morning, noon, night, and midnight (2) Differences between states on bed in living room 402 (Fig. 28) and on wheelchair in living room 401 (Fig. 28) (3) Care recipient 101 Degree of dementia (4)
  • Individual approaches such as how to keep a distance from the target person 101, how to approach the target person 101, greetings, and dialogue content, are optimized according to the target person 101, and can be executed through a schedule and sensing results.
  • An individual approach is automatically generated for each target person 101 by the application generating unit 323 and presented to the large information terminal 310 or the small information terminal 212 .
  • FIG. 23 and FIG. 24 show the processing flow of an embodiment of the basic application "greeting to calm down/vital measurement".
  • the positional distance and angle values shown in FIGS. 23 and 24 are representative examples, and it is important to go through the stages of long, medium, and short distances.
  • Optimum values are set for each subject 101 for the above numerical values.
  • the care robot 100 performs greetings by speech and motion, measures vitals, checks for negative reactions while measuring reactions, and moves between waypoints.
  • FIG. 25 shows the flow of this sensing.
  • the measured evaluation data is output as a table so that the employee 200 can confirm it, and can be displayed on a small information terminal 12 such as a tablet operated by the employee 200 (FIG. 26).
  • the robot operation system collects, as evaluation data, gaze time (face and eye direction match), speech time, presence/absence of smile detection, and presence/absence of negative reaction. is output (step S207).
  • the robot operation system acquires the family information of the subject 101 (step S501).
  • the robot operation system prepares to know what the subject 101 wants to do (step S502).
  • the target person 101 is asked to select from provided contents (photographs, etc.) output (displayed) from the application generation unit 323 of the center PC 320 to the small information terminal 130 carried by the care robot 100 .
  • the robot operation system performs processing to find out what the subject 101 wants to do (step S503).
  • the care robot 100 makes a conversation while looking at the photos output (displayed) on the small information terminal 130 to create a "memory talk album".
  • the care robot 100 can extend its arm from the side of the table 500 and place the compact information terminal 130 in the optimal posture for the user.
  • the robot operation system can capture the face of the user, who is the caller, using a camera arranged on the small information terminal 130, for example.
  • the work load on the staff member 200 can be reduced, and care work can be carried out with peace of mind.
  • the number of people who wish to enter facilities that have been introduced increases.
  • the number of people who wish to work as nursing care staff 200 and nursing staff 200 at the introduced facility increases.
  • the person 101 can be loved like a child or grandchild, and by being taken care of, the person 101 to be cared for can live with a role.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Nursing (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

本開示の介護ロボットは、頭部と、胸部と、胸部に取り付けられた腕部と、頭部と胸部との間に設けられ、首関節軸を有する可動の首と、胸部と腕部との間に設けられ、肩関節軸を有する可動の肩と、胸部の下部に設けられ、腰関節軸を有する可動の腰とを備え、標準姿勢における側面方向から見たときに、首関節軸が肩関節軸に対して後ろ方向にオフセット配置され、腰関節軸が肩関節軸に対して前方向にオフセット配置されている。

Description

介護ロボット
 本開示は、介護ロボットに関する。
 産業用として、複数の関節軸を有するロボットがある(特許文献1,2参照)。一方、例えば老人ホーム等の介護施設において、認知症高齢者等を介護の対象者として、介護の補助を行うような介護ロボットの開発が望まれている。
特開2011-101918号公報 国際公開第2009/125648号
 特に認知症高齢者等を介護の対象者とする場合、介護ロボットには対象者に対する受容性の高い構成が望まれている。
 介護の対象者に対する受容性を高めることが可能な介護ロボットを提供することが望ましい。
 本開示の一実施の形態に係る介護ロボットは、頭部と、胸部と、胸部に取り付けられた腕部と、頭部と胸部との間に設けられ、首関節軸を有する可動の首と、胸部と腕部との間に設けられ、肩関節軸を有する可動の肩と、胸部の下部に設けられ、腰関節軸を有する可動の腰とを備え、標準姿勢における側面方向から見たときに、首関節軸が肩関節軸に対して後ろ方向にオフセット配置され、腰関節軸が肩関節軸に対して前方向にオフセット配置されている。
 本開示の一実施の形態に係る介護ロボットでは、標準姿勢における側面方向から見たときに、首関節軸が肩関節軸に対して後ろ方向にオフセット配置され、腰関節軸が肩関節軸に対して前方向にオフセット配置される。
本開示の第1の実施の形態に係る介護ロボットの正面方向および側面方向から見た外観の一例を示す外観図である。 第1の実施の形態に係る介護ロボットの背面方向から見た外観の一例を示す外観図である。 第1の実施の形態に係る介護ロボットの正面斜め方向から見た外観の一例を示す外観図である。 第1の実施の形態に係る介護ロボットの背面斜め方向から見た外観の一例を示す外観図である。 第1の実施の形態に係る介護ロボットの手の外観の一例を示す外観図である。 第1の実施の形態に係る介護ロボットのサイズと一般的なテーブルのサイズとを比較して示した説明図である。 第1の実施の形態に係る介護ロボットの各部の寸法のパラメータを示す正面図である。 第1の実施の形態に係る介護ロボットの各部の寸法のパラメータを示す側面図である。 第1の実施の形態に係る介護ロボットの各部の寸法の一例を示す正面図である。 第1の実施の形態に係る介護ロボットの各部の寸法の一例を示す側面図である。 第1の実施の形態に係る介護ロボットの腕部の各部の寸法の一例を示す構成図である。 第1の実施の形態に係る介護ロボットの各部の寸法の一例を示す説明図である。 第1の実施の形態に係る介護ロボットの各部の寸法の一例を示す説明図である。 第1の実施の形態に係る介護ロボットの各部の寸法の一例を示す説明図である。 第1の実施の形態に係る介護ロボットの各部の関節軸の可動範囲の一例を示す説明図である。 第1の実施の形態に係る介護ロボットの眼球部の一構成例を示す外観図である。 第1の実施の形態に係る介護ロボットの眼球部の一構成例を示す外観図である。 第1の実施の形態に係る介護ロボットの眼球部の一構成例を示す断面図である。 第1の実施の形態に係る介護ロボットの眼球部の寸法のパラメータを示す正面図である。 第1の実施の形態に係る介護ロボットの眼球部の内部構成例を示す分解図である。 第1の実施の形態に係るロボット運用システムの一構成例を概略的に示すブロック図である。 第1の実施の形態に係るロボット運用システムによって運用される介護ロボットの対象者に対する接近位置の一例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる「あいさつ落ち着かせ・バイタル計測アプリケーション」の処理動作の一例を示すフローチャートである。 図23に続くフローチャートである。 第1の実施の形態に係るロボット運用システムによる「あいさつ落ち着かせ・バイタル計測アプリケーション」による評価データの出力処理の一例を示すフローチャートである。 第1の実施の形態に係るロボット運用システムによる「あいさつ落ち着かせ・バイタル計測アプリケーション」による評価データの出力結果の一例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる複数のアプリケーションの実施スケジュールの作成例を示す説明図である。 第1の実施の形態に係るロボット運用システムの対象となる介護ルームの一例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる複数のアプリケーションの実施動作の一例を示すフローチャートである。 第1の実施の形態に係るロボット運用システムによる複数のアプリケーションの実施中に他のアプリケーションの割り込みがあった場合のアプリケーションの実施動作の一例を示すフローチャートである。 第1の実施の形態に係るロボット運用システムによるアプリケーションの実施スケジュールの設定インタフェースの一例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる介護の対象者に対する個別設定を行うための設定インタフェースの一例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる「個別レクリエーションアプリケーション」の処理動作の一例を示すフローチャートである。 図33に続くフローチャートである。 第1の実施の形態に係るロボット運用システムによる「見守り・バイタルアプリケーション」の一実施例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる「お茶配りアプリケーション」の一実施例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる「おやつ配りアプリケーション」の一実施例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる「おしぼり配りアプリケーション」の一実施例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる「排泄準備アプリケーション」の一実施例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる「電話お手伝いアプリケーション」の一実施例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる「おはなしアプリケーション」の一実施例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる「排泄準備アプリケーション」の一実施例を示す説明図である。 第1の実施の形態に係るロボット運用システムによる「排泄片付けアプリケーション」の一実施例を示す説明図である。
 以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
 0.比較例
 1.第1の実施の形態
  1.1 介護ロボットの構成例(図1~図20)
  1.2 介護ロボットの作用・効果
  1.3 ロボット運用システムの構成例および動作例(図21~図43)
  1.4 ロボット運用システムの作用・効果
 2.その他の実施の形態
 
<0.比較例>
(介護ロボットに求められる構成)
 老人ホーム等の介護施設では、人手不足を起因として生じる、リビングでの職員不在時間と介護の対象者の待ち時間とにおいて、認知症のある対象者が不安定化することがある。不安定化の例としては、落ち着かない、寂しがる、および怒る、などがある。不安定化した結果、急な立ち上がり等で怪我を負うリスクがあったり生活リズムが乱れるといったことが生じ得る。要介護度を上げることにもつながり、必要となるケアも増加する。個室ケアと並行して対応する必要があり、対応の難易度が高く、職員の負荷も高い。介護施設における見守り機器としては、既存の受動的な見守りセンサ(定点カメラ、ベッドセンサ等)が存在するが、転倒等があった際に、事後報告しかできず、介護の対象者が不安定化したことは検知が困難である。監視カメラ的センサの利用を嫌がる介護の対象者やその家族も多く、介護の対象者からの受容性は低い。
 既存のロボット(単腕モバイルマニピュレータ等)による介護用途の例も存在するが、形状が大きすぎたり、小さすぎたりすると、認知症高齢者からの受容性が低く、ロボットは対話をする相手として認識されないという結果がある。関節軸配置や可動域が人と異なると、動作も何をしているか分かりにくいため、恐怖を与えたり、コミュニケーションが成立しないといった課題がある。またテーブル上サイズのロボットでは、小型であるため怖がられることも少ないが、利用者間の自律移動ができずアプリケーションが限定的である。
 一般的な産業用垂直多関節型ロボットマニピュレータや人型ロボットにおける関節軸構成は、主に制御性と駆動効率とを重視して、軸構成をオフセットせずに同一軸上にレイアウトしている。ロボットアームとしての制御性および駆動効率は上がるのであるが、実際の人体の関節軸は同一軸上に配置されてはおらず、受容性を上げるために人に模した外観を持たせようとした際に、自然なフォルムとならず受容性が下がってしまう。他には、例えば人の頸椎、腰椎のように多自由度ロボットの構成を取ることで、すべての関節軸を同一軸上に配置したとしても自然な姿勢を取ることが可能であるが、自由度数が増えることで必要以上にシステムが複雑化するため不利となる。
 そこで、介護の対象者に対する受容性を高めることが可能な介護ロボットの開発が望まれる。
(介護ロボットの運用について)
 上述のように、既存の受動的な見守りセンサは、介護の対象者からの受容性は低い。住環境に取り付けられたセンサやカメラ、およびスピーカ等を用いて介護の対象者へ発話しても、音源定位が難しい対象者も多く、コミュニケーションは成立しにくい。
 介護の対象者の不安定化を防ぐ手段として、リビングにテレビを設置して視聴してもらう施設もあるが、視聴最適位置もそれぞれ異なり、聴力や認知の特性の違いから、すべての人が満足して視聴しているといった状況とはなっていない。個別のモニタを各机に置くという手段もあり得るが、個別モニタの電源管理、配線設備工事費も必要でありコストは低くない。ユニット型個室の老人ホームでは、自宅で過ごすような日常生活空間としてであったり、人や社会との繋がりを失わないという意味で施設の供用リビングを運営している例が多く、常に個別モニタを皆が見ているというのも受容性は低い。
 上述のように、単腕モバイルマニピュレータ等のロボットは、認知症高齢者からの受容性が低く、対話をする相手として認識されにくいという結果がある。またテーブル上サイズのロボットでは、小型であるため怖がられることも少ないが、介護の対象者間の自律移動ができずアプリケーションが限定的である。一人一台としても充電管理や移動配置、システムの管理工数が多く、導入コストも結果的に大きい。
 また、移動台車型ロボットや産業用ロボットマニピュレータの形体をしたロボットであると、関節軸配置や可動域が人と異なり、動作も何をしているか分かりにくいため、対象者に恐怖を与えたり、コミュニケーションの成立が困難であるといった課題がある。目的地への接近アプローチとしても時間や距離の効率に重きを置いた動作計画を主としており、介護の対象者からの受容性は考慮されていない。
 バイタル計測のアプリケーションとしては、体温、心拍、血圧、および酸素飽和度について計測のニーズがあり、計測器自体は様々に存在するが、職員の工数不足から高頻度での計測が困難な状況にあり、自動化ニーズは高い。体温計測については感染防止対策としても特に必要とされており、自動化ニーズが高い。
 非接触のバイタルセンサを室内壁面や天井に取り付けて自動計測も可能であるが、介護の対象者ごとの最適な計測位置でセンシングすることが難しく、計測精度が劣る。装着式のバイタルセンサによる自動計測も可能であるが、対象者人数分の台数の電源管理、装着状態管理、システム管理の工数も大きく、コストが高い。腕時計やアクセサリーなどの装着品が気になり外してしまったり、ぶつけてしまったりといった介護の対象者も多く存在し受容性が低い。衣服のボタンに擬態した小型センサ等という解もあり得るが、同様に個別管理工数は大きい。
 そこで、介護ロボットに対する介護の対象者の受容性を高めることが可能なロボット運用システムの開発が望まれる。
<1.第1の実施の形態>
[1.1 介護ロボットの構成例]
(介護ロボットの概要)
 図1は、本開示の第1の実施の形態に係る介護ロボット100の正面方向および側面方向から見た外観の一例を示している。図1の左側に正面外観図、右側に側面外観図を示す。図2は、介護ロボット100の背面方向から見た外観の一例を示している。図3は、介護ロボット100の正面斜め方向から見た外観の一例を示している。図4は、介護ロボット100の背面斜め方向から見た外観の一例を示している。図5は、介護ロボット100の手73の外観の一例を示している。図6には、介護ロボット100のサイズと一般的なテーブル500のサイズとを比較して示す。
 第1の実施の形態に係る介護ロボット100は、眼球部11を有する頭部1と、胸部2と、胸部2を支持するベース部3とを備えている。ベース部3は、下部が例えば全方位移動台車となっている。これにより、介護ロボット100は、全方位移動可能となっている。
 また、介護ロボット100は、胸部2の左側上側部および右側上側部に取り付けられた腕部7を備えている。また、介護ロボット100は、頭部1と胸部2との間に設けられ、首関節軸4Cを有する可動の首4を備えている。また、介護ロボット100は、胸部2と腕部7との間に設けられ、肩関節軸5Cを有する可動の肩5を備えている。また、介護ロボット100は、胸部2の下部に設けられ、腰関節軸6Cを有する可動の腰6を備えている。
 腕部7は、肘部71と、手首72と、手73とを有する。
 頭部1の前方上部には、頭部センサ51が設けられている。頭部センサ51は、例えば距離画像センサである。
 胸部2の前方上部には、胸部センサ52が設けられている。胸部センサ52は、例えば非接触式バイタルセンサである。
 手73には、ハンドセンサ53が設けられている。ハンドセンサ53は、例えば接触式バイタルセンサである。
 介護ロボット100は、後述するロボット運用システムによって運用される。第1の実施の形態に係るロボット運用システムは、後述するように、介護施設において、介護職員の判断の元で作成されたスケジューラと介護の対象者ごとのロボット運用個別設定に合わせて、介護ロボット100に介護行動を実行させるための複数のアプリケーションを実施する。アプリケーションは、介護の対象者の元へのあいさつ落ち着かせ、バイタル計測といったものがある。介護ロボット100は、介護の対象者の不安定化を防ぎ、生活リズムを整える効果を狙ったアプリケーションを実施可能となるように構成されている。介護ロボット100は、介護の対象者に対して、状態観察、コミュニケーション、および周辺業務タスクといったアプリケーションを、受容性の高い品質で遂行可能とする人型モバイルマニピュレータ・ロボットである。介護ロボット100は、頭部センサ51により人認識、および顔認識が可能で、対象者の瞳をトラッキングしたインタラクションを遂行できる。介護ロボット100の身長は、椅子に座った座位姿勢の介護の対象者から軽く見下ろすことが可能な高さとなっている。また、介護ロボット100の身長は、図6に示したように一般的なテーブル500の上が一望できる高さとなっている。
(センサ構成の詳細)
 頭部センサ51は、例えば距離画像センサである。頭部センサ51は、ユマニチュードモーションの実践や、フェイストラッキングモーションの実践等が可能となるように、センシング方向が介護ロボット100の視線方向と略同一方向となるように構成されている。ここで、一般的なテーブル500の高さは例えば700mm程度であり、介護施設の一般的なテーブル500の高さは例えば高さ660mm程度である。例えば図6に示したように、テーブル500の天板501の上を一望できる位置に頭部センサ51が配置されている。頭部1は、椅子に座位している状態(座位姿勢)における介護の対象者の顔を見上げる位置に配置されいる。頭部センサ51は、頭部1の高い位置(例えば高さ760mm程度の位置)において、例えば5deg程度、上向きに搭載されている。頭部センサ51は、頭部1の外径ラインから飛び出しすぎないように配置されている。これにより、例えば図6に示したように、標準的なテーブル500の上にある物体の認識や、テーブル500越しの座位姿勢の介護の対象者の顔認識が可能となる。また。標準ベッド上の座位姿勢の介護の対象者の顔認識や、標準ベッド上の仰向姿勢の介護の対象者の顔認識が可能となる。また、近距離座位姿勢の介護の対象者を見上げる角度での顔認識、および近距離起立姿勢の介護の対象者を見上げる角度での顔認識等が可能となる。
 胸部センサ52は、例えば非接触式バイタルセンサである。非接触式バイタルセンサとしては、例えば体温センサ、心拍センサ、および呼吸センサ等がある。胸部センサ52は、胸部2の前方上部の位置(例えば高さ537mm程度の位置)において、例えば10deg程度、上向きに搭載されている。これにより、頭部1のモーションの影響を受けずに胸部センサ52による計測が可能となる。また、マニピュレーション中の腕部7による死角の発生を少なくすることができる。また、座位姿勢の介護の対象者の顔、遠距離(例えば2m程度)の起立姿勢の介護の対象者の顔、および近距離仰向姿勢の介護の対象者の顔等からバイタルセンシングが可能となる。また、アプリケーション実施中の対象者の状態変化を常時センシング可能となる。
 ハンドセンサ53は、例えば接触式バイタルセンサである。接触式バイタルセンサとしては、例えば心拍センサ、血圧センサ、および酸素飽和度計測センサ等がある。ハンドセンサ53は、例えば図5に示したように、手73の先端の親指外側に配置されている。これにより、バイタルセンシング時に手73で対象者の手を挟むことがない。自分からハンドセンサ53を当てに行くのでなく、対象者から手を置く、握ってもらうことでバイタルセンシングが可能となる。このようなハンドセンサ53は、認知症高齢者にとってよく知っているインタフェースであり、対象者の受容性が高い。また、把持力制御のためのセンサをハンドの内側に別途構成可能となる。
(各部の構成値)
 図7は、介護ロボット100の各部の寸法のパラメータを示す正面図である。図8は、介護ロボット100の各部の寸法のパラメータを示す側面図である。図9は、介護ロボット100の各部の寸法の一例を示す正面図である。図10は、介護ロボット100の各部の寸法の一例を示す側面図である。図11は、介護ロボット100の腕部7の各部の寸法の一例を示す構成図である。図12ないし図14は、介護ロボット100の各部の寸法の一例を示す説明図である。図15は、介護ロボット100の各部の関節軸の可動範囲の一例を示す説明図である。
 図9ないし図11には、各部の寸法の最良の値の一例を示す。図12ないし図14には、各部の寸法の最良の値の一例と、各部の寸法比率の最良の値の一例と、各部の寸法比率の許容比率範囲の値の一例とを示す。なお、図9ないし図15に示した具体的な数値は一例であり、他の数値を取り得る。
 各部を図9ないし図15に示した値を取るように構成することで、介護の対象者に対する受容性を高めることが可能となる。以下、代表的な部分の構成値について説明する。
 介護ロボット100は、図1の右側に示したように、標準姿勢における側面方向から見たときに、首関節軸4Cが肩関節軸5Cに対して後ろ方向にオフセット配置され、腰関節軸6Cが肩関節軸5Cに対して前方向にオフセット配置されている。これにより、標準姿勢における側面方向から見たときに、首関節軸4C、肩関節軸5C、および腰関節軸6Cの3つの関節軸の前後方向位置が、鉛直直列ではなく同一後ろ方向にオフセットするように配置されている。
 介護ロボット100は、上記のように3つの関節軸がオフセット配置されるように、以下の条件式(1),(2)を満足する。ここで、腰関節軸6Cと肩関節軸5Cとの前後方向の距離をL1、肩関節軸5Cと首関節軸4Cとの前後方向の距離をL2、腰関節軸6Cと肩関節軸5Cとの上下方向の距離をL4、肩関節軸5Cと首関節軸4Cとの上下方向の距離をL5とする。
 0<L2/L1<1.5 ……(1)
 0.2<L5/L4<0.6 ……(2)
 介護ロボット100は、頭身に関し、以下の条件式(3)を満足するように構成されている。これにより、頭身が比較的大きくなるように構成されている。ここで、標準姿勢における全頭高(身長)をL6、身長をL7とする。
 3.3<L7/L6<5.0 ……(3)
 眼球部11は、頭部1の上下方向の中心位置よりも下側位置に配置されている。介護ロボット100は、眼球部11の位置に関し、以下の条件式(4)を満足するように構成されている。ここで、標準姿勢における全頭高をL6、眼球部11の中心位置から頭部1の顎下までの上下方向の距離をL17とする。
 0.2<L17/L6<0.5 ……(4)
 介護ロボット100は、正面方向から見たときに、胸部2の上端部と頭部1の顎下とが略接する程度に首4の長さが短く構成されている。このため、例えば以下の条件式(5)を満足するように構成されている。ここで、肩関節軸5Cと首関節軸4Cとの上下方向の距離をL5、標準姿勢における全頭高をL6とする。
 0.3<L5/L6<0.6 ……(5)
 介護ロボット100は、正面方向から見たときに、胸部2の上端部と頭部1の顎下とが略接する程度に、頭部1における眼球部11より下側部(頬形状)が大きく構成されている。このため、例えば以下の条件式(6),(7)を満足するように構成されている。ここで、眼球部11の中心位置から頭部1の顎下までの上下方向の距離をL17、眼球部11の中心位置から肩関節軸5Cまでの上下方向の距離をL18、眼球部11の中心位置から首関節軸4Cまでの上下方向の距離をL19とする。
 1.3<L18/L17<2.5 ……(6)
 0.4<L19/L17≦1.0 ……(7)
 介護ロボット100は、首4のピッチ軸の可動域が、下向き方向よりも上向き方向の方が大きくなるように構成されている(図15参照)。
 介護ロボット100は、標準姿勢における側面方向から見たときに、頭部1の顔前面部と胸部2の前面部とが略同程度の位置にあり、かつ、頭部1の顔前面部が、胸部2の前面部よりも後ろ側となるように構成されている。このため、例えば以下の条件式(8)を満足するように構成されている。ここで、標準姿勢における側面方向から見たときの首関節軸4Cから頭部1の顔前面部までの距離をL21、標準姿勢における側面方向から見たときの首関節軸4Cから胸部2の前面部までの距離をL22とする。
 1<L22/L21<1.3 ……(8)
(眼球部の構成)
 図16および図17は、介護ロボット100の眼球部11の一構成例を示す外観図である。図18は、介護ロボット100の眼球部11の一構成例を示す断面図である。図19は、介護ロボット100の眼球部11の寸法のパラメータを示す正面図である。図20は、介護ロボット100の眼球部11の内部構成例を示す分解図である。
 眼球部11は、図20に示したように、第1の端面と第2の端面とを有する透明中実な円筒部64を有する。また、眼球部11は、円筒部64の第1の端面側(図20の下側)に設けられ、黒眼部62の動作を表示する平面状のディスプレイ65を有する。また、眼球部11は、円筒部64の第2の端面側(図20の上側)に設けられ、円筒部64を介して入射したディスプレイ65からの表示光を出射する半球状の透明な球面部63を有する。球面部63は、半球状の透明な球面レンズを構成する。球面部63の外周形状は、図16に示したように、白眼部61となるように構成されている。
 眼球部11の眼球の中心位置は、図18に示したように、球面部63の外周の中心位置に対して内側にオフセットされるように構成されている
 ロボットの眼の表現として、LCD(液晶ディスプレイ)やOLED(Organic Light Emitting Diode)を用いたディスプレイ上に、黒眼などをアニメーションとして表示するという方法がある。一般的なディスプレイは平面形状であるため、そこに表示される眼球も立体的ではなく、2次元的な表現に留まっている。平面的であるため、ロボットの実在感が失われるのと共に、表示視野角によっては正面からしか表示が見づらいといった課題がある。また、輻輳角動作の表現としても平面的となり、分かりにくい。
 また、物理的に球体形状の眼球部品を設計し、アクチュエータで駆動するという手法がある。この場合、構造が複雑であると共に黒眼の位置は変更できても、眼の表情の変化、瞬きの表現などは実現することが困難である。立体ディスプレイ表示としては、球面ディスプレイやホログラフィの技術を用いるという解も存在し得るが、現状ではコストが大きくロボットヘッドの空間レイアウト制約からも搭載が難しい。また、円筒部64を設けないただの球面の場合、主に周辺部が薄肉となり立体感が劣り、黒眼の中心と眼球中心を合わせることも難しく不自然となる。
 そこで、介護ロボット100は、眼球部11が、半球状の透明な球面部63と、透明中実な円筒部64とを有する構成とされている。そして、球面部63と円筒部64とを、黒眼部62の動作を表示する平面状のディスプレイ65の上に重ねて配置している。円筒部64の外周面は、光の侵入を防ぐように非透過の構成とされている。これにより、歪みがなく球面部63から見える表示画像が鮮明となる。球面部63がディスプレイ65と距離を置く配置されていることで奥行きの立体感が出る。球面部63は光沢をある程度持たせた上で、光の反射を抑える構成とされている。球面部63の中で,円形有色部が上下左右に黒眼部62の動き(視線)を表現する
 球面部63の球の中心を眼球の仮想的な回転中心として設計し、表示する黒眼部62の動作も球面部63の球の中心を基準として制御する。円筒部64を設けることで、黒眼の初期位置を少し内側に寄せた、より自然な球面形状を実現する。
 介護ロボット100では、例えば頭部センサ51を用いて人認識、および顔認識を行い、眼球部11の黒眼部62の位置、首4の軸(Roll,Pitch,Yaw)を制御することで、対象者の注視を行う。黒眼部62の位置は、上下左右で対象者の位置を追い注視を行い、輻輳角(寄り眼、離れ眼)を用いて対象者との距離を表現する。対象者にとって、介護ロボット100の視線がどこを向いているのか(特に遠近方向についても)、分かりやすい構成となっている。介護施設における認知症高齢者については、受容性と認識性の高さが求められる。眼球部11は、このニーズに合った構成とされている。
 以上のように、介護ロボット100では、眼球部11を3次元的な立体構成とし、低コストで黒眼部62の動作を表示することを可能とした。これにより、眼球球体を内包したかのような眼を持った顔を実現した。眼球部11において、球面部63が半球状の球面レンズで構成されているためレンズ効果も歪みがなく、眼球として違和感がない。瞳のハイライトが本物のライトの反射光として表現できるため、応答性もリアルタイムで違和感がない。首4や全体動作の前に視線を動作制御することで、介護の対象者にとって、介護ロボット100の受容性、および認知性が向上する。
 以上の眼球部11の構成によれば、平面ディスプレイと異なり、どの角度からでも視認性が良い内蔵された球体に表示されている、または動いているように見え、歪みもなく、眼球らしさがある。黒眼部62の中心と球面部63の球の中心とがあっており、球面の厚み、形状に違和感がない。球面部63の表面に環境光の反射光が映り込み、瞳のハイライトが自然にリアルタイムで表現できる。介護の対象者にとって、眼が合う感覚が得られる効果がある。
[1.2 介護ロボットの作用・効果]
 第1の実施の形態に係る介護ロボット100は、ロボットハードウェアの実機構成を、人共存環境における介護の対象者からの受容性(怖がられることなく、何をしているかが分かりやすい)を上げる仕様とすることができる。特に、認知症高齢者や乳幼児といった、認知に特性のある介護の対象者からの受容性を上げる仕様とすることができる。
 第1の実施の形態に係る介護ロボット100は、以下のような受容性を高める実機構成とされている。
 サイズに関して、2歳児相当の実在感があり適度に小さく、座位高齢者が見下ろす高さであり、介護の対象者にとって威圧感がなく怖くない構成とされている。頭部1の高さが、一般的なテーブル500の上を一望できるような構成とされている。肩5の高さと腕部7の長さが、一般的なテーブル500の端部にアプローチ可能な構成とされている。フォルムに関して、頭身も大きく、かわいい孫に似た形とされている。眼球部11に関して、眼が合いやすい高さ位置にあり、介護の対象者にとって、眼球部11に表示された視線や画像の意味が分かる構成とされている。動作に関して、人と異なる自由度軸、可動域を持たず、動きが怖くなく、何をしているか分かる構成とされている。ユマニチュードモーションの実践が可能となる構成とされている。能動的見守りロボットにおける、基本アプリケーションの実施が可能となる構成とされている。
 第1の実施の形態に係る介護ロボット100によれば、以下のような作用・効果が得られる。
1.上記した受容性を高める実機構成とされていることで、最小自由度構成でありながら、認知症高齢者からの受容性(怖がられない、分かりやすい)を高めることができる。
2.認知症高齢者からの受容性が高いため、介護の対象者のそばに近づき、能動的な見守り、あいさつ落ち着かせ、バイタル計測、配茶、お話レクリエーションといったアプリケーションを提供可能となる。
3.職員不在時のリビングや居室においても、介護の対象者の状態不安的化を防ぎ、落ち着かせることができる。
4.スケジュールに合わせてアプリケーションを繰り返し実施することで、介護の対象者の生活リズムが整う。
5.介護の対象者の生活リズムを整え、不安定化を防ぐことで、施設全体の安定化につながり、介護業務全体が効率化しコスト削減にもつながる。
6.ロボット1台で介護施設の1ユニット分(約10名)の介護の対象者を対応できる。
7.介護の対象者のQOL(Quality of Life)が上がる。
8.職員の業務負荷を減少させ、安心してケア業務を遂行できるようになる。
9.導入した施設への入所希望者が増える。
10.導入した施設への介護職員、看護職員としての就職希望者が増える。
11.子供や孫のようにかわいがられることができ、お世話してもらうことで介護の対象者に役割を持って生活していただける。
 さらに、以下のような作用・効果が得られる。
1.センサ位置に関し,頭部1の前方上部位置、胸部2の前方上部位置に広い空間を作りやすくなるため、センサレイアウト自由度が高まる。例えば、座位姿勢、立位姿勢の介護の対象者に対するバイタルセンシング性の良い位置にセンサを配置することが可能となる。
2.頭部前方は部品が集中しやすく重量が大きくなりやすいが、首関節軸4C、肩関節軸5C、および腰関節軸6Cの3つの関節軸の前後方向位置が同一後ろ方向にオフセットするように配置されているため、腰6から上の重心バランスとして、偏心加重となりにくい。
[1.3 ロボット運用システムの構成例および動作例]
(ロボット運用システムの概要)
 図21は、第1の実施の形態に係るロボット運用システムの一構成例を概略的に示している。
 第1の実施の形態に係るロボット運用システムは、コントローラ210と、大型情報端末310と、センタPC(パーソナルコンピュータ)320と、介護ロボット100と、小型情報端末130とを備える。
 介護ロボット100は、例えば後述の図28に示すように、リビング401と居室402とを有する介護ルーム400において運用される。介護ロボット100は、複数台、存在してもよい。この場合、第1の実施の形態に係るロボット運用システムによって複数台の介護ロボット100が同時に運用されてもよい。介護ロボット100は、各種センサ110と、スピーカ111と、ロボット内部PC120とを有する。
 各種センサ110は、バイタルセンサと、マイクと、距離画像センサと、全方位距離センサと、触覚センサと、力センサとを有する。各種センサ110の一部は、上述の頭部センサ51と、胸部センサ52と、ハンドセンサ53とに設けられている。
 ロボット内部PC120は、モータ駆動制御部と、移動経路制御部と、眼球表示制御部と、音声入出力制御部とを有する。ロボット内部PC120は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)を備えたコンピュータで構成されてもよい。この場合、ロボット内部PC120による各種の処理は、ROMまたはRAMに記憶されたプログラムに基づく処理をCPUが実行することで実現し得る。また、ロボット内部PC120による各種の処理は、例えば有線または無線によるネットワークにより外部から供給されたプログラムに基づく処理をCPUが実行することで実現してもよい。
 小型情報端末130は、情報表示モニタと操作パネルとを有する。小型情報端末130は、介護ロボット100の手73によって保持可能となっている。
 コントローラ210は、職員200が携帯または装着することが可能なロボット・コントローラデバイスとなっている。コントローラ210は複数存在し、複数の職員200によって携帯可能となっていてもよい。コントローラ210は、ヘッドセット211(イヤホン、スピーカ、マイク)と、小型情報端末(情報表示モニタ、操作パネル)212とを有する。アクセサリー類は介護の対象者101が気になって手を伸ばすことがあるということで、ヘッドセット211のイヤホンは小型のインナーイヤホンタイプのような目立たない外観にするとよい。コントローラ210からの音声入力により、介護ロボット100にリアルタイムでコマンド操作(対象者101の選択、アプリケーション選択、スタート、およびストップ等)が可能となっている。介護ロボット100からの見守り結果の提示、異常時の提示もコントローラ210を通じて職員200に通知される。また、コントローラ210を介して介護ロボット100のスピーカ111から、対象者101に対して職員200の音声出力を行うことも可能である。
 ヘッドセット211は、イヤホンと、スピーカと、マイクとを有する。小型情報端末212は、情報表示モニタと操作パネル)212とを有する。
 小型情報端末212は、本開示の技術における「情報端末」の一具体例に相当する。
 大型情報端末310とセンタPC320は、例えばスタッフルーム300に配置される。
 大型情報端末310は、例えば情報表示モニタと操作パネルとを有する。
 センタPC320は、センサ情報処理部321と、計測結果分析記憶部322と、アプリケーション生成部323とを有する。センタPC320は、例えばCPU、ROM、およびRAMを備えたコンピュータで構成されてもよい。この場合、センタPC320による各種の処理は、ROMまたはRAMに記憶されたプログラムに基づく処理をCPUが実行することで実現し得る。また、センタPC320による各種の処理は、例えば有線または無線によるネットワークにより外部から供給されたプログラムに基づく処理をCPUが実行することで実現してもよい。
 アプリケーション生成部323は、ユーザ個別設定データ記憶部324と、アプリ実施スケジュールデータ記憶部325とを有する。
 センサ情報処理部321は、本開示の技術における「情報処理部」の一具体例に相当する。アプリケーション生成部323は、本開示の技術における「行動制御部」の一具体例に相当する。ユーザ個別設定データ記憶部324は、本開示の技術における「個別設定記憶部」の一具体例に相当する。アプリ実施スケジュールデータ記憶部325は、本開示の技術における「スケジュール記憶部」の一具体例に相当する。計測結果分析記憶部322は、本開示の技術における「評価データ記憶部」の一具体例に相当する。
 なお、センタPC320が行う一部またはすべての処理を、ロボット内部PC120が行うようにしてもよい。また、センタPC320が行う一部またはすべての処理を、クラウド上のサーバが行うようにしてもよい。
(ロボット運用システムの各部が行う処理)
 介護施設からの真のニーズは、介護の対象者101にとっての職員200の不在時間における、見守り(状態観察とコミュニケーション)による、対象者101の心的状態の安定化にある。移動機構とマニピュレータを用いることで能動的に情報を獲得しに行ける介護ロボット100により、介護の対象者101に対して未然に見守り、あいさつ、声掛け、促し等のアプローチを続けることで、心的状態を落ち着かせ、安定状態の保存を図る。さらに、ロボット運用システムに実装されるアプリケーション群により、職員200の業務負荷低減と共に、介護の対象者101の心的状態のさらなる安定化を目指す。
 センサ情報処理部321は、介護ロボット100に搭載された各種センサ110によって計測された計測情報に基づいて、介護の対象者の状態を評価する。アプリケーション生成部323は、センサ情報処理部321による評価の結果に基づいて、介護ロボット100を対象者との距離が異なる複数の接近位置(経由点)に一時停止させつつ、介護ロボット100を対象者に対して段階的に接近させ、介護ロボット100に対して対象者に対する状態観察およびコミュニケーションを含む介護行動を実行させる。対象者に対するコミュニケーションは、対象者に対する発話を含む。複数の接近位置は、例えば後述の図22に示す遠距離位置P3、中距離位置P2、および近距離位置P1であってもよい。
 センサ情報処理部321は、複数の接近位置のそれぞれにおいて計測された計測情報に基づいて、対象者の状態を評価するようにしてもよい。センサ情報処理部321による対象者の状態の評価は、対象者にネガティブな反応があるか否かの評価を含む。アプリケーション生成部323は、センサ情報処理部321によって対象者にネガティブな反応がないと評価された場合に、介護ロボット100を対象者に対して段階的に接近させるようにしてもよい。
 図22は、第1の実施の形態に係るロボット運用システムによって運用される介護ロボット100の対象者に対する接近位置の一例を概略的に示している。
 アプリケーション生成部323は、例えば、介護ロボット100を初期位置P0→遠距離位置P3→中距離位置P2→近距離位置P1と段階的に一時停止させる。アプリケーション生成部323は、介護ロボット100に、例えば、対象者101の顔方向に自機の顔と姿勢の向きを合わせ、対象者101に向けた発話とモーションを実行させる。
 ここで、遠距離位置P3は、対象者101に対して前方向の距離半径2m付近、中距離位置P2は、対象者101に対して前方向の距離半径距離1.2m付近、近距離位置P1は、対象者101に対して前方向の距離半径距離0.6m付近であってもよい。アプリケーション生成部323は、各接近位置(経由点)での停止ごとに、対象者101の反応を観測し、ネガティブな反応がないことを確認しながら、介護ロボット100を段階的に対象者101へと接近させる。ネガティブな反応については、対象者101が、首を横に振る、完全に下を向いて目を合わせることができない、介護ロボット100の位置と正対する位置へ顔を向ける、極端に大きな声を上げる、極端で大きな姿勢変化があるといった認識結果を嫌がっている状態または驚いている状態と定義する。
 センサ情報処理部321は、さらに、計測情報に基づいて、障害物の有無を判断するようにしてもよい。アプリケーション生成部323は、センサ情報処理部321によって判断された対象者101の正面に正対する障害物の有無に基づいて、介護ロボット100による対象者101に対する正面方向からの接近角度を変化させるようにしてもよい。障害物は、例えば机、椅子、キャビネット等であってもよい。
 アプリケーション生成部323は、センサ情報処理部321によって障害物があると判断された場合には、介護ロボット100を、対象者101に近づくに従い接近角度が大きくなるように接近させるようにしてもよい。例えば、アプリケーション生成部323は、センサ情報処理部321によって障害物があると判断された場合には、図22に示したように、遠距離位置P3では対象者101に対して0度方向付近、中距離位置P2では対象者101に対して45度方向付近、近距離位置P1では対象者101に対して70度方向付近となるように介護ロボット100による接近角度を変化させるようにしてもよい。
 アプリケーション生成部323は、センサ情報処理部321によって障害物がないと判断された場合には、介護ロボット100を、対象者101との距離に関わらず正面方向の同一の接近角度を保ったまま接近させるようにしてもよい。アプリケーション生成部323は、例えば、対象者101の正面に正対する障害物がない場合は、遠距離位置P3、中距離位置P2、および近距離位置P1のすべてにおいて、対象者101に対して0度方向付近の角度で介護ロボット100を接近させるようにしてもよい。
 アプリケーション生成部323は、介護ロボット100を、対象者101に近づくに従い、接近角度が対象者101の利き手方向側に大きくなるように接近させるようにしてもよい。
 センサ情報処理部321は、さらに、計測情報に基づいて、対象者101の利き手方向側を介護ロボット100が移動可能か否かを判断するようにしてもよい。移動可能か否かを判断は、例えば、障害物の有無や、通行可能床面積幅が取れないといった条件に基づいて行うようにしてもよい。
 アプリケーション生成部323は、センサ情報処理部321によって介護ロボット100が対象者101の利き手方向側を移動できないと判断された場合には、介護ロボット100を対象者101の利き手方向とは異なる方向側から接近させるようにしてもよい。
 計測結果分析記憶部322は、センサ情報処理部321による評価の結果を示す評価データを記憶する。センサ情報処理部321は、介護ロボット100に介護行動を実行させた際に各種センサ110によって計測された計測情報に基づいて、評価データとして、対象者101の介護ロボット100に対する受容性を示す評価データを生成するようにしてもよい(後述の図25、図26、図32参照)。アプリケーション生成部323は、計測結果分析記憶部322に記憶された受容性を示す評価データに基づいて、介護ロボット100に介護行動を実行させるようにしてもよい(後述の図21~図26、図32参照)。
 ここで、評価データには、介護ロボット100に対する対象者101の注視時間(顔や目の向きが合う等の時間)、対象者101の発話時間、対象者101の笑顔検出の有無、ネガティブな反応の有無等が含まれてもよい。この評価データを受容性の値と定義してもよい。これにより、アプリケーション生成部323は、対象者101ごとの受容性に合わせた、最適な接近距離とアプローチを求めて介護ロボット100に介護行動を実行させる。
 アプリケーション生成部323は、例えば後述の図23~図26等に示すように、対象者101の認知特性、および対象者101の介護ロボット100に対する受容性に基づいて、介護ロボット100にユマニチュードを規範とした介護行動を実行させるようにしてもよい。
 アプリ実施スケジュールデータ記憶部325は、介護ロボット100に介護行動を実行させるための複数のアプリケーションの実施スケジュールのデータを記憶する。アプリケーション生成部323は、アプリ実施スケジュールデータ記憶部325に記憶された実施スケジュールに従って、各アプリケーションによる介護行動を介護ロボット100に実行させるようにしてもよい(後述の図27~図31等参照)。
 アプリ実施スケジュールデータ記憶部325は、小型情報端末212からの指示に基づいて設定された、実施スケジュールに従って実施するアプリケーションの選択とアプリケーションを実施する対象者101の選択とアプリケーションを実施する時刻とに関する設定情報を、実施スケジュールの設定データとして記憶する(後述の図27、図31参照)。アプリケーション生成部323は、アプリ実施スケジュールデータ記憶部325に記憶された実施スケジュールに従って、各アプリケーションによる介護行動を介護ロボット100に実行させた後、アプリ実施スケジュールデータ記憶部325に記憶された実施スケジュールの設定データを、介護行動を実行させた結果に基づいて修正するようにしてもよい。これにより、アプリケーション生成部323は、例えば、基本アプリケーションとして、「あいさつ落ち着かせ・バイタル計測」を、応用アプリケーションとして、例えば「レクリエーション」、「配茶」、「排泄手伝い」、「面会手伝い」といったアプリケーションを、スケジューラにて設定したシフト表に合わせて実行するようにしてもよい。小型情報端末212は、実施スケジュールの設定を介護施設の職員200から受け付ける。アプリケーション生成部323は、修正後の実施スケジュールの設定データを、介護施設の職員200によって編集可能となるように小型情報端末212に提示するようにしてもよい。
 ユーザ個別設定データ記憶部324は、介護ロボット100に対する対象者101の受容性に関する情報に基づいて設定された、介護ロボット100の対象者101に対する個別の運用パラメータを記憶する(後述の図32参照)。アプリケーション生成部323は、ユーザ個別設定データ記憶部324に記憶された介護ロボット100の運用パラメータに基づいて、介護ロボット100に介護行動を実行させるようにしてもよい。運用パラメータには、例えば、声掛けの可否、声の音量、発話速度、身体動作速度、移動速度、接近可能距離、身体接触可否、趣味嗜好、その他特記事項に関する設定が含まれてもよい。運用パラメータの設定を、小型情報端末212を介して介護施設の職員200から受け付ける。
 アプリケーション生成部323は、ユーザ個別設定データ記憶部324に記憶された介護ロボット100の運用パラメータに基づいて、介護ロボット100に介護行動を実行させた後、ユーザ個別設定データ記憶部324に記憶された介護ロボット100の運用パラメータを、介護行動を実行させた結果に基づいて修正し、修正後の介護ロボット100の運用パラメータを、介護施設の職員200によって編集可能となるように小型情報端末212に提示するようにしてもよい。アプリケーション生成部323は、アプリケーション実施ごとの評価結果をフィードバック学習し、個別設定の修正案、スケジュール修正案を自動生成して提案し、職員200がこれを確認編集することで、介護ロボット100に介護行動を実行させるようにしてもよい。
(スケジューラ、アプリケーションの概要)
 図23は、ロボット運用システムによる「あいさつ落ち着かせ・バイタル計測アプリケーション」の処理動作の一例を示すフローチャートである。図24は、図23に続くフローチャートである。図25は、ロボット運用システムによる「あいさつ落ち着かせ・バイタル計測アプリケーション」による評価データの出力処理の一例を示すフローチャートである。図26は、ロボット運用システムによる「あいさつ落ち着かせ・バイタル計測アプリケーション」による評価データの出力結果の一例を示している。図27は、ロボット運用システムによる複数のアプリケーションの実施スケジュールの作成例を示している。図28は、ロボット運用システムの対象となる介護ルームの一例を示している。図29は、ロボット運用システムによる複数のアプリケーションの実施動作の一例を示すフローチャートである。図30は、ロボット運用システムによる複数のアプリケーションの実施中に他のアプリケーションの割り込みがあった場合のアプリケーションの実施動作の一例を示すフローチャートである。図31は、ロボット運用システムによるアプリケーションの実施スケジュールの設定インタフェースの一例を示している。図32は、ロボット運用システムによる介護の対象者101に対する個別設定を行うための設定インタフェースの一例を示している。図33は、ロボット運用システムによる「個別レクリエーションアプリケーション」の処理動作の一例を示すフローチャートである。図34は、図33に続くフローチャートである。図35は、ロボット運用システムによる「見守り・バイタルアプリケーション」の一実施例を示している。図36は、ロボット運用システムによる「お茶配りアプリケーション」の一実施例を示している。図37は、ロボット運用システムによる「おやつ配りアプリケーション」の一実施例を示している。図38は、ロボット運用システムによる「おしぼり配りアプリケーション」の一実施例を示している。図39は、ロボット運用システムによる「排泄準備アプリケーション」の一実施例を示している。図40は、ロボット運用システムによる「電話お手伝いアプリケーション」の一実施例を示している。図41は、ロボット運用システムによる「おはなしアプリケーション」の一実施例を示している。図42は、ロボット運用システムによる「排泄準備アプリケーション」の一実施例を示している。図43は、ロボット運用システムによる「排泄片付けアプリケーション」の一実施例を示している。
 アプリケーション生成部323は、スケジューラを提供する。アプリケーション生成部323は、ある一日の中で、介護ロボット100が遂行するアプリケーションの実行パターン・スケジューリングセットを、自動生成して提案する。アプリケーション生成部323は、介護施設における、介護の対象者101の状態変化(認知症の度合い、体調、気持ちの変化と共に、介護ロボット100への受容性の度合いもパラメータに含む)、職員200の業務シフト変化など、日々発生する変化に対応して、職員200のリビング401(図28)の不在時間を最小化するための最適なアプリケーションセットを提案する。アプリケーション生成部323は、ベースロードとして見守り(状態観察とコミュニケーション)アプリケーションを提供し、そのベースアプリケーションの上に、周辺業務アプリケーション、見守りアプリケーションの発展としてのレクリエーションアプリケーションを提供する。
 アプリケーション生成部323が提供するアプリケーションの例を以下に示す。
 能動見守り:朝見守り、昼見守り、夜見守り、深夜見守り
 間接介助:バイタル計測
 -遠距離非接触(体温、心拍)
 -近距離接触(体温、血圧、酸素飽和度)
 オーダー、おしぼり配り、おやつ配り、お茶配り
 直接介助:移乗補助(掴まってもらう)
 周辺業務:排泄準備、排泄片付け、机拭き、お茶下膳、おやつ下膳、コップ洗い、お茶作り
 レクリエーション:おはなし(思い出の写真、趣味嗜好の写真の話等)、歌、踊り、体操、ハンドマッサージ、やりたいことのお手伝い(好きなことを教えてもらう)、電話お手伝い(家族との電話)
 上記アプリケーションリストは、予め作成した50項目の介護現場業務で活用可能性のあるアプリケーションリストの中から、ニーズ(困りごとの程度)と機能、得られる価値、技術的実現性について考察を行った結果から、職員200による監修の元で重要度順に選定を行ったものである。
 基本アプリケーションである能動見守りについては、
(1)朝、昼、夜、深夜と時間帯の違い
(2)居室402(図28)のベッド上、リビング401(図28)の車椅子上の状態の違い
(3)介護の対象者101の認知症度合い
(4)介護ロボット100に対する受容性の違い
に応じた、実行シナリオにバリエーションが複数存在する。対象者101への距離の取り方、近づき方、あいさつ、および対話内容など、個別アプローチは対象者101に応じて最適化され、スケジュールとセンシング結果を通じて実行可能となる。アプリケーション生成部323により個別アプローチが対象者101ごとに自動生成され、これが大型情報端末310や小型情報端末212に提示される。個別アプローチは職員200により、修正確認された後に、介護ロボット100によって実行可能となるように展開される。上記アプリケーションの代表例のストーリーボードを図35~図39に示す。ロボット運用システムの要点である、受容性高さ上げるアプローチを用いることで実現できる、個別レクリエーションアプリケーションの実施フローを図33、図34に示す。関連写真画像を用いた対話を行い、対象者101ごとのやりたいことを深堀して知り、その情報を職員200や家族へ伝達し、やりたいことを叶える支援を行うアプリケーションである。
 アプリケーション生成部323は、アプリケーションと介護の対象者101ごとの必要実施想定時間を算出(過去の所要時間データより計算)し、あわせて、介護ロボット100の電源残量から必要充電待機時間も算出し、所定の時間内に実施可能なアプリケーションのスケジュールシフト表を自動生成する。介護の対象者101ごとの必要実施想定時間は、アプリケーション内容、介護の対象者101の場所、および個別設定内容(移動速度、発話速度、およびユーザの特性(発話の量や好み等)等から算出する。1日のスケジュールの作成例を図27に示す。対象者101の名前、座席404の配置、および居室402の配置といった情報も初めに登録し、目標位置情報として用いる(図28)。なお、図28には、介護施設の1ユニットにおける座席404の位置と居室402の構成例を示す。ロボット運用システムでは、例えば、介護の対象者101へアプローチする場所を、座席404の位置、居室402内の位置の2か所に限定し介護の対象者101と紐づけることで、介護ロボット100の自律移動制御負荷、人認識発見負荷を減らし、アプリケーションの実現安定性を向上させている。
 ロボット運用システムでは、職員200の確認の上で、設定したスケジューラに合わせてアプリケーションが実行される(図29)。ロボット運用システムでは、アプリケーション実行前後には、介護ロボット100はリビング401内の充電待機ポイント403(図28)にて充電を行う。また、センタPC320では、アプリケーション実施時の入力データ保存を行う。介護ロボット100は、定点固定にてリビング401の見守りを常時行う。介護ロボット100は、定点固定によるリビング401の見守りでは、トラッキング、音声入力、および体温計測により、観測可能範囲において異常検出を続ける。
 ロボット運用システムでは、トラブルにより算出予定時間内にアプリケーション群が終わらない場合はアプリケーション実施優先度の低いものからキャンセルされ、次のスケジューラの実行が優先される(図30)。ロボット運用システムは、介護ロボット100の充電時間に余裕をもってスケジュールするため、待機時間を削って、アプリケーション実施時間に割り当てることも行う。職員200による依頼、割り込みアプリケーションも優先順位を高く判定し、スケジュールに割り込んで処理を行う。介護ロボット100の電源残量とアプリケーション実施残時間、および次の待機充電可能時間から、割り込み後のスケジュールを、A,B,Cの実施パターンから自動で選択し実行する。割り込みにより算出予定時間内に予定したアプリケーション群が終わらない場合は、アプリケーション実施優先度の低いものからキャンセルされ、次のスケジューラの実行が優先される。介護ロボット100の充電時間に余裕をもってスケジュールするため、待機時間を削って、アプリケーション実施時間に割り当てることも行う。割り込みアプリケーションとして用いられるアプリケーションとしては、職員200からの排泄手伝い、あいさつ落ち着かせの依頼がニーズとして高いと分析している。
 介護施設では、入浴や通院、レクリエーション等のスケジュールによって、曜日ごとの生活パターンが定まっていることが多い。このため、ロボット運用システムでは、例えば週単位にて、介護ロボット100のアプリケーションの実施スケジュールを作成する。例えば、Day1からDay7までをWeek1とし、Week1からWeek4(月によってはWeek5)までをMonth1として月間の実施スケジュールを作成する。その他、職員200のシフト変更(人数変更)や家族の訪問、通院等の予定変更が生じた際には、ロボット運用システムは、職員200に業務シフト修正を行ってもらい、その勤務データを反映したスケジュールおよび詳細なフローを自動生成する。
 ロボット運用システムでは、スケジューラによって提示された介護ロボット100のアプリケーションスケジュールセットを、職員200が手動で調整するためのプログラミングツールを有する(図31)。また、介護の対象者101に対する個別設定を行うためのツールを有する(図32)。介護の対象者101の個別設定としては、介護の対象者101ごとの受容性に関する情報を考慮し、介護ロボット100の運用パラメータ(声掛けの可否、声の音量、発話速度、身体動作速度、移動速度、接近可能距離、身体接触可否、趣味嗜好、およびその他特記事項)に関する設定がある。設定の操作は、小型情報端末212を用いて行う。小型情報端末212を用いて、職員200が対象者101に応じたアプリケーションとそのタイミングを、リストから選択しドラッグアンドドロップで組み替えが可能である。職員200がリアルタイムでアプリケーションの使用を判断して実行することもできる。ロボット運用システムでは、図31および図32に示すツールによって行われた職員200の判断による調整結果をデータベース化し学習に用いることで、個別設定等の自動生成結果の品質も向上していく。
 第1の実施の形態に係るロボット運用システムは、完全自律ロボットシステムではない。介護現場における、複雑な状況変化に対応した介護ロボット100の行動変容はAI(人工知能)にも生成することは困難であり、経験豊かな職員200とロボット運用システムとの共創により、はじめて実現されるシステムである。良質な介護は人にしか実現できない。ロボット運用システムは、その人の肉体を拡張し、分身させて、想いを叶える手段となる。
(ロボット運用システムによる処理フロー)
 基本アプリケーション「あいさつ落ち着かせ・バイタル計測」の実施例の処理フローを、図23、図24に示す。図23、図24に示した位置の距離と角度の数値は代表例であり、遠距離、中距離、および近距離の段階を経ることが重要である。上記数値は対象者101ごとの最適値が設定される。ロボット運用システムでは、それぞれの経由点にて、介護ロボット100が発話とモーションによるあいさつと、バイタル計測を実施し、反応を計測しながら、ネガティブな反応の有無を確認し、経由点を移動する。このセンシングのフローを図25に示す。計測した評価データは職員200から確認できるよう表として出力し、職員200の操作するタブレット等の小型情報端末12へ表示可能とする(図26)。
 ロボット運用システムでは、職員200が対象者101を観察して嫌がっていると判断できる際にも、アプリケーション実行終了の指示を音声指示等により行うことができる。手先アプローチ位置修正量は対象者101ごとのアプローチ・パラメータとして接近距離、対象者101との相対角度、手先座標位置をデータ保存し、対象者101ごとの最適手先アプローチ位置を学習し、計測成功率を上げていく。
 次に、図23の「あいさつ落ち着かせ・バイタル計測アプリケーション」の処理動作について説明する。
 ロボット運用システムでは、まず、介護ロボット100が、待機充電、初期位置P0(標準待機位置)にて定点見守りを行う(ステップS101)。次に、ロボット運用システムは、時刻t1に設定されたスケジューラを起動する(ステップS102)。次に、ロボット運用システムは、時刻t1-1に設定されたアプリケーション(ユーザNo.1、場所No.1、個別設定No.1)の実行を開始する(ステップS103)。次に、ロボット運用システムは、座席No.1の遠距離位置P3(座位位置から正面2m前方位置)へ介護ロボット100を移動させる(ステップS104)。次に、ロボット運用システムは、介護ロボット100にユーザNo.1の顔を探索させる(ステップS105)。ステップS105において人(介護の対象者101)を発見できた場合、ロボット運用システムは、次に、ステップS108の処理に進む。ステップS105において人を発見できなかった場合、次に、ロボット運用システムは、時刻t1-1に設定されたアプリケーションの実行を終了し、介護ロボット100を初期位置P0へ移動させる(ステップS106)。次に、ロボット運用システムは、時刻t1-2に設定されたアプリケーション(ユーザNo.2、場所No.2、個別設定No.2)の実行を開始する(ステップS107)。
 一方、ステップS105において人を発見できた場合、次に、ロボット運用システムは、介護ロボット100に発話・モーションを開始させ、非接触バイタル計測(体温)を行わせる(ステップS108)。ステップS108においてネガティブな反応があった場合、または接近可能距離設定があった場合、次に、ロボット運用システムは、ステップS106の処理に進む。ステップS108においてネガティブな反応がなかった場合、次に、ロボット運用システムは、座席No.1の近距離位置P2(座位位置から1.2m斜め45度前方位置)へ介護ロボット100を移動させる(ステップS109)。
 ステップS109においてネガティブな反応があった場合、次に、ロボット運用システムは、ステップS106の処理に進む。ステップS109においてネガティブな反応がなかった場合、次に、ロボット運用システムは、介護ロボット100に発話・モーションを開始させ、介護ロボット100に非接触バイタル計測(体温)を行わせる(ステップS110)。ステップS110においてネガティブな反応があった場合、または接近可能距離設定があった場合、次に、ロボット運用システムは、ステップS106の処理に進む。ステップS110においてネガティブな反応がなかった場合、次に、ロボット運用システムは、座席No.1の近距離位置P1(座位位置から0.6m斜め70度前方位置)へ介護ロボット100を移動させる(ステップS111)。
 ステップS111においてネガティブな反応があった場合、次に、ロボット運用システムは、ステップS106の処理に進む。ステップS111においてネガティブな反応がなかった場合、次に、ロボット運用システムは、介護ロボット100に発話・モーションを開始させ、介護ロボット100に非接触バイタル計測(体温)を行わせ、接触バイタル計測(心拍、血圧、酸素飽和度)を実行させる(ステップS112)。ステップS112において計測エラーがあった場合、次に、ロボット運用システムは、手先アプローチ位置を修正(ステップS114)し、再度、ステップS112の処理を行う。ステップS112において計測が完了した場合、次に、ロボット運用システムは、介護ロボット100にアプリケーション終了の発話・モーションを行わせる(ステップS113)。次に、ロボット運用システムは、介護ロボット100を中距離位置P2へ移動させ、終了の発話・モーションを開始させた後(ステップS115)、ステップS106の処理に進む。
 次に、図25の「あいさつ落ち着かせ・バイタル計測アプリケーション」による評価データの出力処理の動作について説明する。
 まず、ロボット運用システムは、スケジューラ、個別設定、発話モーション、データベースの処理を行う(ステップS201)。次に、ロボット運用システムは、時刻t1-1に設定されたアプリケーション(ユーザNo.1、場所No.1、個別設定No.1)の実行を開始する(ステップS202)。
 次に、ロボット運用システムは、遠距離位置P3(座位位置から正面2m前方位置)へ介護ロボット100を移動させ、発話・モーション・センシングを実施させる(ステップS203)。ステップS203においてネガティブな反応がなかった場合、次に、ロボット運用システムは、近距離位置P2(座位位置から1.2m斜め45度前方位置)へ介護ロボット100を移動させ、発話・モーション・センシングを実施させる(ステップS204)。ステップS204においてネガティブな反応がなかった場合、次に、ロボット運用システムは、近距離位置P1(座位位置から0.6m斜め70度前方位置)へ介護ロボット100を移動させ、発話・モーション・センシングを実施させる(ステップS205)。次に、ロボット運用システムは、時刻t1-1に設定されたアプリケーションの実行を終了する(ステップS206)。
 また、ステップS203、ステップS204、およびステップS205のそれぞれにおいて、ロボット運用システムは、評価データとして、注視時間(顔、目の向きが合う)、発話時間、笑顔検出の有無、およびネガティブな反応の有無を出力する(ステップS207)。
 次に、図29の複数のアプリケーションの実施動作のフローについて説明する。
 まず、ロボット運用システムでは、介護ロボット100が、待機充電、初期位置P0(標準待機位置)にて定点見守りを行う(ステップS301)。次に、ロボット運用システムは、時刻t1に設定されたスケジューラを起動する(ステップS302)。次に、ロボット運用システムは、アプリケーションAを実行する(ステップS303)。アプリケーションAとしては、時刻t1-1に設定されたアプリケーション(ユーザNo.1、場所No.1、個別設定No.1)、時刻t1-2に設定されたアプリケーション(ユーザNo.2、場所No.2、個別設定No.2)、時刻t1-nに設定されたアプリケーション(ユーザNo.n、場所No.n、個別設定No.n)を順次、実行する。
 次に、ロボット運用システムは、時刻t1-0において介護ロボット100の待機充電を行う。また、ロボット運用システムでは、アプリケーションAを実行することにより得られたデータの保存を行い、介護ロボット100によって初期位置P0(標準待機位置)にて定点見守りを行う(ステップS304)。次に、ロボット運用システムは、時刻t2に設定されたスケジューラを起動し、アプリケーションBを実行する(ステップS305)。次に、ロボット運用システムは、介護ロボット100の待機充電を行う。また、アプリケーションBを実行することにより得られたデータの保存を行い、介護ロボット100によって初期位置P0(標準待機位置)にて定点見守りを行う(ステップS306)。次に、ロボット運用システムは、時刻tnに設定されたスケジューラを起動し、アプリケーションnを実行する(ステップS307)。次に、ロボット運用システムは、介護ロボット100の待機充電を行う。また、アプリケーションBを実行することにより得られたデータの保存を行い、介護ロボット100によって初期位置P0(標準待機位置)にて定点見守りを行う(ステップS308)。
 次に、図30の他のアプリケーションの割り込みがあった場合のアプリケーションの実施動作のフローを説明する。
 まず、ロボット運用システムでは、介護ロボット100が、待機充電、初期位置P0(標準待機位置)にて定点見守りを行う(ステップS401)。次に、ロボット運用システムは、スケジューラを起動し、アプリケーションAを実行する(ステップS402)。次に、ロボット運用システムは、割り込み起動を行い、割り込みアプリケーション(例えばアプリケーションF)を実行する(ステップS403)。ステップS403の処理の後、アプリケーションAのスケジュール内で実施可能時間が充足している場合(実施パターンA)、次に、ロボット運用システムは、アプリケーションAの続きを実行する(ステップS404)。ステップS403の処理の後、アプリケーションAのスケジュール内で実施可能時間が不足、かつ介護ロボット100の充電残量が必要量を満たしていない場合(実施パターンB)、次に、ロボット運用システムは、アプリケーションAの続きの処理をキャンセル(ステップS405)した後、介護ロボット100の待機充電処理、アプリケーションAを実行することにより得られたデータの保存処理、および介護ロボット100による定点見守り処理を行う(ステップS406)。
 ステップS403の処理の後、アプリケーションAのスケジュール内で実施可能時間が不足、かつ介護ロボット100の充電残量が必要量を満たしている場合(実施パターンC)、次に、ロボット運用システムは、あらたなスケジューラを起動し、アプリケーションBを実行する(ステップS407)。次に、ロボット運用システムは、介護ロボット100の待機充電処理、アプリケーションBを実行することにより得られたデータの保存処理、および介護ロボット100による定点見守り処理を行う(ステップS408)。次に、ロボット運用システムは、あらたなスケジューラを起動し、アプリケーションnを実行する(ステップS409)。次に、ロボット運用システムは、介護ロボット100の待機充電処理、アプリケーションnを実行することにより得られたデータの保存処理、および介護ロボット100による定点見守り処理を行う(ステップS410)。
 次に、図32の個別設定を行うための設定インタフェースについて説明する。
 設定インタフェースでは、介護の対象者101の名前と顔、座席404の場所、居室402(図28)の場所を登録する。介護の対象者101ごとの認知症と受容性に関する特性と関連する、ロボットアプリケーションに関する個別設定を職員200の判断で登録する。
 例えば、一番初めに介護ロボット100を介護の対象者101に職員200が紹介する際に、職員200が介護の対象者101の反応や認知特性を鑑みて判断し設定を行う。その後、例えば、使用を続けていった際に、反応や特性に変化が生じたら、その都度、職員200の判断により設定を変更する。また、アプリケーション実施後の評価データを職員200に伝達し、設定変更の判断材料としてもらう。例えば、個別対応パターン登録が可能で、同様な傾向のある介護の対象者101に対してはパターンより選択して設定、細部を調整する。
 次に、図33、図34の「個別レクリエーションアプリケーション」の処理動作のフローを説明する。
 まず、ロボット運用システムは、対象者101の家族情報を取得する(ステップS501)。次に、ロボット運用システムは、対象者101のやりたいことを知るための準備を行う(ステップS502)。知るための準備としては、センタPC320のアプリケーション生成部323から介護ロボット100が携帯する小型情報端末130に出力(表示)された提供コンテンツ(写真等)から対象者101に選んでもらう。次に、ロボット運用システムは、対象者101のやりたいことを知る処理を行う(ステップS503)。やりたいことを知る処理として、まず、介護ロボット100によって、小型情報端末130に出力(表示)された写真を見ながらの会話を行い、「思い出トークアルバム」を作成する。写真としては、例えばパーソナルな写真(家族写真)や一般的な写真(関連写真)を用いる。家族写真としては、例えば、なんらかのパーソナルなエピソードが含む写真を用いる。関連写真としては、例えば一般的な名産、名物、および名所を含む写真を用いる。そして、ロボット運用システムは、介護ロボット100によって対象者101の感度計測(笑顔、発話頻度、声量等)を行い、心的活性化マップを作成して評価を行う。
 ステップS503で作成した心的活性化マップの評価が所定の点数以上(例えば5点以上)の場合、ロボット運用システムは、対象者101のやりたいことが見つかったと判断する(ステップS504)。次に、ロボット運用システムは、対象者101のやりたいことを深く知るための準備を行う(ステップS505)。深く知るための準備としては、ステップS503における心的活性化マップの結果を介護ロボット100によって、小型情報端末130を介して職員200に見てもらい、さらに深く知るための提供コンテンツを職員200に決めてもらう。次に、ロボット運用システムは、対象者101のやりたいことを深く知る処理を行う(ステップS506)。やりたいことを深く知る処理として、まず、介護ロボット100によって、写真を見ながらの会話や、音楽を聴きながらの会話を行い、「やりたいことアルバム」を作成する。写真としては、一般的な写真(関連写真)を用いる。また、音楽としては、一般的な音楽(関連音楽)を用いる。そして、ロボット運用システムは、介護ロボット100によって対象者101の感度計測(笑顔、発話頻度、声量等)を行い、心的活性化マップを作成して評価を行う。
 ステップS506で作成した心的活性化マップの評価が所定の点数以上(例えば5点以上)の場合、ロボット運用システムは、対象者101のやりたいことが見つかったと判断する(ステップS507)。次に、ロボット運用システムは、対象者101のやりたいことを叶えるための準備を行う(ステップS508)。やりたいことを叶えるための準備としては、ステップS506における心的活性化マップの結果を介護ロボット100によって小型情報端末130を介して職員200に見てもらい、実際にできそうなことを職員200に決めてもらう。次に、ロボット運用システムは、対象者101のやりたいことを叶える処理を行う(ステップS509)。やりたいことを叶える処理として、まず、介護ロボット100によって道具を持って行って、写真を見ながらの会話や、音楽を聴きながらの会話を行い、「叶えるアプリケーション」による処理を行う。写真としては、一般的な写真(関連写真)を用いる。また、音楽としては、一般的な音楽(関連音楽)を用いる。また、道具としては、一般的な道具(関連道具)を用いる。そして、ロボット運用システムは、対象者101の感度計測(笑顔、発話頻度、声量等)を行い、心的活性化マップを作成して評価を行う。
 以上の処理により、対象者101のやりたいことが叶う(ステップS510)。
 図35を参照して、「見守り・バイタルアプリケーション」の一実施例をストーリー形式で説明する。ロボット運用システムでは「見守り・バイタルアプリケーション」により、例えば図28に示した介護ルーム400において、以下のような介護ストーリーを実現可能である。
 職員Aさんは朝の居室介助中、リビング401の利用者(介護の対象者101)のことが気になり、リビング401と居室402を行ったり来たりします。朝起きてすぐのリビング401で、おばあちゃん(介護の対象者101)は退屈そうにしています(ステップS351)。
 このような状況において、介護ロボット100がゆっくり近づいてきて、バイタルを測ってくれます(ステップS352)。介護ロボット100はおばあちゃんの好きな話をしながらバイタルを測ってくれます(ステップS353)。こうして、職員Aさんは安心して居室402の介助を行えます。おばあちゃんは退屈さを忘れてお話を楽しみました(ステップS354)。
 次に、図36を参照して、「お茶配りアプリケーション」の一実施例をストーリー形式で説明する。ロボット運用システムでは「お茶配りアプリケーション」により、例えば図28に示した介護ルーム400において、以下のような介護ストーリーを実現可能である。
 職員Aさんは居室402での起床介助中、リビング401に起きてきた利用者(介護の対象者101)にタイミングよくお茶配りする必要があり、業務負荷が高いです。昼寝から起床後すぐのリビング401で、おばあちゃん(介護の対象者101)は一人で寂しそうにしています。また、おばあちゃんはトイレの不安を抱えているため、あまり水分補給に前向きになれません(ステップS361)。
 このような状況において、おばあちゃんが席に着くと、介護ロボット100はおばあちゃんのお茶を取りに行きます(ステップS362)。介護ロボット100はおばあちゃんとお話をしながらお茶を配り、水分補給を促します(ステップS363)。こうして、職員Aさんの業務負荷が低減されます。おばあちゃんは寂しさを忘れ、水分補給にも前向きになれました(ステップS364)。
 次に、図37を参照して、「おやつ配りアプリケーション」の一実施例をストーリー形式で説明する。ロボット運用システムでは「おやつ配りアプリケーション」により、例えば図28に示した介護ルーム400において、以下のような介護ストーリーを実現可能である。
 職員Aさんは居室402での起床介助中、リビング401に起きてきた利用者(介護の対象者101)にタイミングよくおやつ配りする必要があり、業務負荷が高いです。昼寝から起床後すぐのリビング401で、おばあちゃん(介護の対象者101)は退屈そうにしています。また、おばあちゃんは新しいおやつは苦手で、あまり前向きになれません(ステップS371)。
 このような状況において、おばあちゃんが席に着くと、介護ロボット100はおばあちゃんのおやつを取りに行きます(ステップS372)。介護ロボット100はおばあちゃんとお話をしながらおやつを配り、おやつを促します(ステップS373)。こうして、職員Aさんの業務負荷が低減されます。おばあちゃんは退屈さを忘れ、新しいおやつも前向きに完食しました(ステップS374)。
 次に、図38を参照して、「おしぼり配りアプリケーション」の一実施例をストーリー形式で説明する。ロボット運用システムでは「おしぼり配りアプリケーション」により、例えば図28に示した介護ルーム400において、以下のような介護ストーリーを実現可能である。
 職員Aさんはお昼ご飯前、キッチンでの配膳業務負荷が高いです。お昼ご飯前のリビング401で、おばあちゃん(介護の対象者101)は退屈そうにしています。また、おばあちゃんはよく、おしぼりで手を拭くことを忘れてしまいます(ステップS381)。
 このような状況において、おばあちゃんが席に着くと、介護ロボット100はおしぼりを取りに行きます(ステップS382)。介護ロボット100はおばあちゃんとお話をしながらおしぼりを配り、手を拭くことを促します(ステップS383)。こうして、職員Aさんの業務負荷が低減されます。おばあちゃんは退屈さを忘れ、おしぼりで手を拭いています(ステップS384)。
 次に、図39を参照して、「排泄準備アプリケーション」の一実施例をストーリー形式で説明する。ロボット運用システムでは「排泄準備アプリケーション」により、例えば図28に示した介護ルーム400において、以下のような介護ストーリーを実現可能である。
 職員Aさんは、急に追加で排泄用品が必要になり困っています。介助されているおばあちゃん(介護の対象者101)は心配になります(ステップS391)。リビング401で待っているおじいちゃん(介護の対象者101)は、職員Aさんの不在時間が長く、落ち着きがありません(ステップS392)。
 このような状況において、介護ロボット100は排泄用品バッグを身に着け、職員Aさんの所へ向かいます(ステップS393)。排泄用品バッグには、おむつ、清拭用品等が入っています。介護ロボット100は排泄用品を職員Aさんに渡します(ステップS394)。おじいちゃんは職員Aさんの不在時間が短くなり、安心しています(ステップS395)。こうして、職員Aさんは急に必要になった排泄用品を取りに行く手間を省くことができてうれしいです。おばあちゃんは職員がそばにいてくれて安心しています(ステップS396)。
 次に、図40を参照して、「電話お手伝いアプリケーション」について説明する。
 例えば各種感染症の影響により、介護施設における利用者(介護の対象者101)は家族との面会禁止や面会制限が長期間続く可能性がある。このため、電話による家族との面会ニーズが高まっている。このようなニーズに対し、ロボット運用システムでは、「電話お手伝いアプリケーション」で対応可能である。
 例えば、図40に示したように、介護ロボット100の一方の手73に通話(音声通話またはビデオ通話)可能なタブレット端末等の小型情報端末130を取り付ける。例えば、手73の親指側外側面に小型情報端末130を固定する。または、手73により小型情報端末130の把持部を把持する。その後、図40に示すフローに沿って「電話お手伝いアプリケーション」を実施する。
 小型情報端末130の機能としては、例えば通話の着信、または発信を行うことができるものであってもよい。電話番号については登録された番号のみを発信、着信可能としてもよい。通話を行う時刻については、例えば主に利用者ごとのスケジュール制とし、定刻になったら自動的に発信を行うようにしてもよい。ポイントは介護ロボット100における多軸マニピュレータの先端(手73)に通話可能な小型情報端末130を搭載し、これを利用者の利用しやすい姿勢位置にマニピュレーションしてアプローチが可能であるところである。利用者によっては、首や体をひねることが難しい方も存在し、テーブル500の横の位置に小型情報端末130が配置されても通話が困難である。なお、一般的なテレプレゼンスロボットでは、可動軸のない体幹フレームに小型情報端末130が固定されている。このため、座位姿勢の利用者の正面に小型情報端末130を配置することは困難であり、高さ位置も、ピッチ角度も制御することが困難である。このため、利用者にとって困難な姿勢での通話となってしまう。
 利用者はリビング401に滞在中はテーブル500の前に着席していることが多く、テーブル500が障害物となり正面からのアプローチが難しい。第1の実施の形態に係るロボット運用システムでは、介護ロボット100はテーブル500のサイドから腕を伸ばして小型情報端末130を利用者にとって最適な姿勢位置に配置することが可能である。ビデオ通話であれば、ロボット運用システムは、例えば小型情報端末130に配置されたカメラにより通話者である利用者の顔を捉えることが可能である。ロボット運用システムは、介護ロボット100の多軸マニピュレータの自由度により(主に手首関節のピッチ軸とヨー軸を用いることで)小型情報端末130のカメラによる利用者の顔のトラッキングを行い、常に適切に顔を捉えたビデオ通話が可能となる。また、座位姿勢の利用者のみではなく、ベッドに横たわっていたりリクライニングした姿勢の利用者に対しても、それぞれ最適な位置と角度にて、小型情報端末130を用いた通話アプローチをすることが可能である。
 以下、図40の「電話お手伝いアプリケーション」の処理動作のフローを説明する。
 まず、ロボット運用システムは、介護ロボット100に取り付けられた小型情報端末130を用いた利用者(介護の対象者101)の家族への通話(音声通話またはビデオ通話)発信、または、利用者の家族からの通話(音声通話またはビデオ通話)着信を行う(ステップS601)。
 次に、ロボット運用システムは、介護ロボット100に遠距離位置P3において利用者に対するあいさつ、声掛けのモーションを実行させる(ステップS602)。次に、ロボット運用システムは、介護ロボット100に中距離位置P2において利用者に対するあいさつ、声掛けのモーションを実行させる(ステップS603)。
 次に、ロボット運用システムは、介護ロボット100に近距離位置P1において利用者に対するあいさつ、声掛けのモーションを実行させる。例えば、介護ロボット100に利用者に対する家族との電話についての説明、通話機能付きの小型情報端末130をテーブル500に乗せることの説明を実行させる(ステップS604)。
 次に、ロボット運用システムは、介護ロボット100に手先に搭載した小型情報端末130を利用者の目視しやすい位置へアプローチさせ、通話を開始させる(ステップS605)。通話終了後は、ロボット運用システムは、介護ロボット100に利用者に対するあいさつ、声掛けモーションを実施させる。次に、ロボット運用システムは、介護ロボット100に中距離位置P2において再度、あいさつ、声掛けモーションを実施させ、介護ロボット100を初期位置P0へと戻らせる(ステップS606)。
 次に、図41を参照して、「おはなし(思い出の写真、趣味嗜好の写真の話等)アプリケーション」の一実施例を説明する。
 まず、ロボット運用システムは、介護ロボット100に遠距離位置P3において利用者(介護の対象者101)に対するあいさつ、声掛けのモーションを実行させる(ステップS701)。次に、ロボット運用システムは、介護ロボット100に中距離位置P2において利用者に対するあいさつ、声掛けのモーションを実行させる(ステップS702)。
 次に、ロボット運用システムは、介護ロボット100に近距離位置P1において利用者に対するあいさつ、声掛けのモーションを実行させる。ここで、ロボット運用システムは、介護ロボット100に、写真を使ったおはなしについての説明を実行させる(ステップS703)。
 次に、ロボット運用システムは、介護ロボット100に手先に搭載したタブレット端末等の小型情報端末130を利用者の目視しやすい位置へアプローチさせる(ステップS704)。そして、ロボット運用システムは、小型情報端末130に写真を表示し、介護ロボット100に写真の内容に応じたストーリーをおはなしさせる。写真は利用者ごとの趣味趣向に即したものであったり、家族や思い出のあるものを使用する。なお、小型情報端末130に表示された写真ではなく、写真そのものを介護ロボット100に携帯させて利用者に提示させるようにしてもよい。
 おはなし終了後は、ロボット運用システムは、介護ロボット100に利用者に対するあいさつ、声掛けモーションを実施させる。次に、ロボット運用システムは、介護ロボット100に中距離位置P2において再度、あいさつ、声掛けモーションを実施させ、介護ロボット100を初期位置P0へと戻らせる(ステップS705)。
 次に、図42を参照して、「排泄準備アプリケーション」の一実施例を説明する。
 まず、ロボット運用システムは、介護施設内において、介護ロボット100を排泄道具のストックされたキャビネット601へ移動させる(ステップS801)。次に、ロボット運用システムは、キャビネット601におかれた排泄用品バッグ(使用前)を介護ロボット100に把持させて移動させる(ステップS802)。
 次に、ロボット運用システムは、介護ロボット100を居室へと向かわせる(ステップS803)。次に、ロボット運用システムは、介護ロボット100を、居室内のキャビネット602へと移動させる(ステップS804)。次に、ロボット運用システムは、介護ロボット100に、居室内のキャビネット602へ排泄用品バッグを配置させる(ステップS805)。
 次に、図43を参照して、「排泄片付けアプリケーション」の一実施例を説明する。
 まず、ロボット運用システムは、介護施設内において、介護ロボット100を居室内のキャビネット602(または、居室内の排泄用品バッグ配置スペース)の前へ移動させる(ステップS901)。次に、ロボット運用システムは、介護ロボット100に、居室内のキャビネット602(または,居室内の床面上)にある排泄用品バッグ(使用済み)を把持させる(ステップS902)。
 次に、ロボット運用システムは、介護ロボット100を、介護施設内の同一フロアにある汚物庫へ移動させる(ステップS903)。次に、ロボット運用システムは、介護ロボット100を、汚物庫内のキャビネット603の前へ移動させ、排泄用品バッグ(使用済み)をキャビネット603に配置(または、汚物庫内の床面上に配置)させる(ステップS904)。
[1.4 ロボット運用システムの作用・効果]
 第1の実施の形態に係るロボット運用システムによれば、以下のような作用・効果が得られる。
(受容性の獲得)
1.ロボット運用システムによる能動見守りアプリケーションを実施することで、介護の対象者101との認知症の度合いに合わせた、そばに近づき、能動的な見守り、あいさつ落ち着かせ、バイタル計測、配茶、および、お話レクリエーションといった高品質なアプリケーションを実行可能となる。対象者101に応じて個別アプローチを選定することでこれを実現している。ここで言う高品質とは、”受容性”(怖がられず近くに居られること。発話と動作の意味の分かりやすいこと)が高い状態のことを指す。
2.ロボット運用システムによる応用アプリケーションを行うことで、機能的作用としても、バイタル計測の取得回数の向上、水分補給の促しによる飲水回数の向上等の効果も期待できる。排泄準備などの業務支援としても、職員200の業務負荷を低減する作用を有する。
3.職員200の不在時のリビング401(図28)や居室402(図28)においても、介護の対象者101の状態不安的化を防ぎ、落ち着かせることができる。
4.スケジュールに合わせてアプリケーションを繰り返し実施することで、介護の対象者101の生活リズムが整う。
5.介護の対象者101の生活リズムを整え、不安定化を防ぐことで、施設全体の安定化につながり、介護業務全体が効率化しコスト削減にもつながる。
6.介護ロボット100が1台で介護施設の1ユニット分(約10名)の介護の対象者101を対応できる。
7.介護の対象者101のQOLが上がる。
8.職員200の業務負荷を減少させ、安心してケア業務を遂行できるようになる。
9.導入した施設への入所希望者が増える。
10.導入した施設への介護の職員200、看護の職員200としての就職希望者が増える。
11.子供や孫のようにかわいがられることができ、お世話してもらうことで介護の対象者101に役割を持って生活していただける。
(パーソナルメモリーの獲得)
12.上記受容性の獲得の実現によって得られるさらなる効果は、状態観察のビッグデータを持つことで得られる。介護の対象者101のそれぞれの心の中にある、パーソナルメモリー、アイデンティティ、およびエピソード記憶に関する情報を知ることも可能となる。
(夢、成し遂げたい想い)
13.パーソナルメモリーの獲得により、能動見守り・あいさつ時の対話個別アプローチも最適化が行われる。その結果として最終的に目指すのは、認知症の進行を少しでも食い止める(要介護度の変化、反応データから指標を作る)ことである。定性的には、「おじいちゃんとおばあちゃんの笑顔」を増やすことである。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。以降の他の実施の形態の効果についても同様である。
<2.その他の実施の形態>
 本開示による技術は、上記実施の形態の説明に限定されず種々の変形実施が可能である。
 例えば、本技術は以下のような構成を取ることもできる。
 以下の構成の本技術によれば、標準姿勢における側面方向から見たときに、首関節軸を肩関節軸に対して後ろ方向にオフセット配置し、腰関節軸を肩関節軸に対して前方向にオフセット配置する。これにより、介護の対象者に対する受容性を高めることが可能となる。
(1)
 眼球部を有する頭部と、
 胸部と、
 前記胸部に取り付けられた腕部と、
 前記頭部と前記胸部との間に設けられ、首関節軸を有する可動の首と、
 前記胸部と前記腕部との間に設けられ、肩関節軸を有する可動の肩と、
 前記胸部の下部に設けられ、腰関節軸を有する可動の腰と
 を備え、
 標準姿勢における側面方向から見たときに、前記首関節軸が前記肩関節軸に対して後ろ方向にオフセット配置され、前記腰関節軸が前記肩関節軸に対して前方向にオフセット配置されている
 介護ロボット。
(2)
 前記腰関節軸と前記肩関節軸との前後方向の距離をL1、前記肩関節軸と前記首関節軸との前後方向の距離をL2、前記腰関節軸と前記肩関節軸との上下方向の距離をL4、前記肩関節軸と前記首関節軸との上下方向の距離をL5としたときに、
 0<L2/L1<1.5 ……(1)
 0.2<L5/L4<0.6 ……(2)
 を満足する
 上記(1)に記載の介護ロボット。
(3)
 標準姿勢における全頭高をL6、身長をL7としたときに、
 3.3<L7/L6<5.0 ……(3)
 を満足する
 上記(1)または(2)に記載の介護ロボット。
(4)
 前記眼球部が、前記頭部の上下方向の中心位置よりも下側位置に配置されている
 上記(1)ないし(3)のいずれか1つに記載の介護ロボット。
(5)
 標準姿勢における全頭高をL6、前記眼球部の中心位置から前記頭部の顎下までの上下方向の距離をL17としたときに、
 0.2<L17/L6<0.5 ……(4)
 を満足する
 上記(4)に記載の介護ロボット。
(6)
 前記肩関節軸と前記首関節軸との上下方向の距離をL5、標準姿勢における全頭高をL6としたときに、
 0.3<L5/L6<0.6 ……(5)
 を満足する
 上記(1)ないし(5)のいずれか1つに記載の介護ロボット。
(7)
 前記眼球部の中心位置から前記頭部の顎下までの上下方向の距離をL17、前記眼球部の中心位置から前記肩関節軸までの上下方向の距離をL18、前記眼球部の中心位置から前記首関節軸までの上下方向の距離をL19としたときに、
 1.3<L18/L17<2.5 ……(6)
 0.4<L19/L17≦1.0 ……(7)
 を満足する
 上記(1)ないし(6)のいずれか1つに記載の介護ロボット。
(8)
 前記首のピッチ軸の可動域が、下向き方向よりも上向き方向の方が大きくなるように構成されている
 上記(1)ないし(7)のいずれか1つに記載の介護ロボット。
(9)
 標準姿勢における側面方向から見たときに、前記頭部の顔前面部が、前記胸部の前面部よりも後ろ側となるように構成されている
 上記(1)ないし(8)のいずれか1つに記載の介護ロボット。
(10)
 標準姿勢における側面方向から見たときの前記首関節軸から前記頭部の顔前面部までの距離をL21、標準姿勢における側面方向から見たときの前記首関節軸から前記胸部の前面部までの距離をL22としたときに、
 1<L22/L21<1.3 ……(8)
 を満足する
 上記(9)に記載の介護ロボット。
(11)
 前記頭部の前方上部に距離画像センサが設けられている
 上記(1)ないし(10)のいずれか1つに記載の介護ロボット。
(12)
 前記胸部の前方上部にバイタルセンサが設けられている
 上記(1)ないし(11)のいずれか1つに記載の介護ロボット。
(13)
 前記眼球部は、
 第1の端面と第2の端面とを有する透明中実な円筒部と、
 前記円筒部の前記第1の端面側に設けられ、黒眼の動作を表示するディスプレイと、
 前記円筒部の前記第2の端面側に設けられ、前記円筒部を介して入射した前記ディスプレイからの表示光を出射する半球状の透明な球面部と
 を有する
 上記(1)ないし(12)のいずれか1つに記載の介護ロボット。
(14)
 前記眼球部の眼球の中心位置が、前記球面部の外周の中心位置に対して内側にオフセットされるように構成されている
 上記(13)に記載の介護ロボット。
 本出願は、日本国特許庁において2021年6月10日に出願された日本特許出願番号第2021-97442号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (14)

  1.  眼球部を有する頭部と、
     胸部と、
     前記胸部に取り付けられた腕部と、
     前記頭部と前記胸部との間に設けられ、首関節軸を有する可動の首と、
     前記胸部と前記腕部との間に設けられ、肩関節軸を有する可動の肩と、
     前記胸部の下部に設けられ、腰関節軸を有する可動の腰と
     を備え、
     標準姿勢における側面方向から見たときに、前記首関節軸が前記肩関節軸に対して後ろ方向にオフセット配置され、前記腰関節軸が前記肩関節軸に対して前方向にオフセット配置されている
     介護ロボット。
  2.  前記腰関節軸と前記肩関節軸との前後方向の距離をL1、前記肩関節軸と前記首関節軸との前後方向の距離をL2、前記腰関節軸と前記肩関節軸との上下方向の距離をL4、前記肩関節軸と前記首関節軸との上下方向の距離をL5としたときに、
     0<L2/L1<1.5 ……(1)
     0.2<L5/L4<0.6 ……(2)
     を満足する
     請求項1に記載の介護ロボット。
  3.  標準姿勢における全頭高をL6、身長をL7としたときに、
     3.3<L7/L6<5.0 ……(3)
     を満足する
     請求項1に記載の介護ロボット。
  4.  前記眼球部が、前記頭部の上下方向の中心位置よりも下側位置に配置されている
     請求項1に記載の介護ロボット。
  5.  標準姿勢における全頭高をL6、前記眼球部の中心位置から前記頭部の顎下までの上下方向の距離をL17としたときに、
     0.2<L17/L6<0.5 ……(4)
     を満足する
     請求項4に記載の介護ロボット。
  6.  前記肩関節軸と前記首関節軸との上下方向の距離をL5、標準姿勢における全頭高をL6としたときに、
     0.3<L5/L6<0.6 ……(5)
     を満足する
     請求項1に記載の介護ロボット。
  7.  前記眼球部の中心位置から前記頭部の顎下までの上下方向の距離をL17、前記眼球部の中心位置から前記肩関節軸までの上下方向の距離をL18、前記眼球部の中心位置から前記首関節軸までの上下方向の距離をL19としたときに、
     1.3<L18/L17<2.5 ……(6)
     0.4<L19/L17≦1.0 ……(7)
     を満足する
     請求項1に記載の介護ロボット。
  8.  前記首のピッチ軸の可動域が、下向き方向よりも上向き方向の方が大きくなるように構成されている
     請求項1に記載の介護ロボット。
  9.  標準姿勢における側面方向から見たときに、前記頭部の顔前面部が、前記胸部の前面部よりも後ろ側となるように構成されている
     請求項1に記載の介護ロボット。
  10.  標準姿勢における側面方向から見たときの前記首関節軸から前記頭部の顔前面部までの距離をL21、標準姿勢における側面方向から見たときの前記首関節軸から前記胸部の前面部までの距離をL22としたときに、
     1<L22/L21<1.3 ……(8)
     を満足する
     請求項9に記載の介護ロボット。
  11.  前記頭部の前方上部に距離画像センサが設けられている
     請求項1に記載の介護ロボット。
  12.  前記胸部の前方上部にバイタルセンサが設けられている
     請求項1に記載の介護ロボット。
  13.  前記眼球部は、
     第1の端面と第2の端面とを有する透明中実な円筒部と、
     前記円筒部の前記第1の端面側に設けられ、黒眼の動作を表示するディスプレイと、
     前記円筒部の前記第2の端面側に設けられ、前記円筒部を介して入射した前記ディスプレイからの表示光を出射する半球状の透明な球面部と
     を有する
     請求項1に記載の介護ロボット。
  14.  前記眼球部の眼球の中心位置が、前記球面部の外周の中心位置に対して内側にオフセットされるように構成されている
     請求項13に記載の介護ロボット。
PCT/JP2022/001667 2021-06-10 2022-01-18 介護ロボット WO2022259595A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202280039626.6A CN117412839A (zh) 2021-06-10 2022-01-18 护理机器人
US18/565,642 US20240261979A1 (en) 2021-06-10 2022-01-18 Nursing care robot
JP2023527478A JPWO2022259595A1 (ja) 2021-06-10 2022-01-18

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-097442 2021-06-10
JP2021097442 2021-06-10

Publications (1)

Publication Number Publication Date
WO2022259595A1 true WO2022259595A1 (ja) 2022-12-15

Family

ID=84425612

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/001667 WO2022259595A1 (ja) 2021-06-10 2022-01-18 介護ロボット

Country Status (4)

Country Link
US (1) US20240261979A1 (ja)
JP (1) JPWO2022259595A1 (ja)
CN (1) CN117412839A (ja)
WO (1) WO2022259595A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002307338A (ja) * 2001-04-18 2002-10-23 Nippon Telegr & Teleph Corp <Ntt> 動作型存在情報伝達装置およびその制御方法
JP2018124399A (ja) * 2017-01-31 2018-08-09 富士フイルム株式会社 ディスプレイ及びロボット
JP2019055463A (ja) * 2017-09-21 2019-04-11 パナソニック株式会社 移動体
JP2019089197A (ja) * 2016-09-08 2019-06-13 Groove X株式会社 自然な距離感を保つ自律行動型ロボットおよびプログラム
JP2019130610A (ja) * 2018-01-31 2019-08-08 トヨタ自動車株式会社 コミュニケーションロボットおよびその制御プログラム
JP6588624B2 (ja) * 2016-04-05 2019-10-09 株式会社日立製作所 ヒューマノイドロボット

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002307338A (ja) * 2001-04-18 2002-10-23 Nippon Telegr & Teleph Corp <Ntt> 動作型存在情報伝達装置およびその制御方法
JP6588624B2 (ja) * 2016-04-05 2019-10-09 株式会社日立製作所 ヒューマノイドロボット
JP2019089197A (ja) * 2016-09-08 2019-06-13 Groove X株式会社 自然な距離感を保つ自律行動型ロボットおよびプログラム
JP2018124399A (ja) * 2017-01-31 2018-08-09 富士フイルム株式会社 ディスプレイ及びロボット
JP2019055463A (ja) * 2017-09-21 2019-04-11 パナソニック株式会社 移動体
JP2019130610A (ja) * 2018-01-31 2019-08-08 トヨタ自動車株式会社 コミュニケーションロボットおよびその制御プログラム

Also Published As

Publication number Publication date
CN117412839A (zh) 2024-01-16
US20240261979A1 (en) 2024-08-08
JPWO2022259595A1 (ja) 2022-12-15

Similar Documents

Publication Publication Date Title
JP6329121B2 (ja) 移動ロボットを含むロボットシステムにより実行される方法
US10433646B1 (en) Microclimate control systems and methods
CN110024000B (zh) 使瞳部变化的行为自主型机器人
JP2024096291A (ja) ロボット、プログラム及び方法
US10405745B2 (en) Human socializable entity for improving digital health care delivery
CN109526208A (zh) 活动量受控制的行为自主型机器人
Hornecker et al. The interactive enactment of care technologies and its implications for human-robot-interaction in care
JP6557840B2 (ja) ロボット、サーバ及び行動制御プログラム
WO2022259596A1 (ja) ロボット運用システム
US11744376B2 (en) Microclimate control systems and methods
CN109475464A (zh) 按摩机
Hai et al. Remote healthcare for the elderly, patients by tele-presence robot
JP2020089947A (ja) 情報処理装置、情報処理方法及びプログラム
JP2024055866A (ja) 内部状態または外部環境に応じて自律的に行動選択するロボット
WO2022259595A1 (ja) 介護ロボット
Sather et al. Assistive robots designed for eldery care and caregivers
Bedaf et al. Robots supporting care for elderly people
JP2022074047A (ja) 対話型リマインダ・コンパニオン
JP7189434B2 (ja) 空間制御システム
WO2018208243A1 (en) Plurally controllable automated robotic system for children
Cooper et al. Robot to support older people to live independently
JP7548621B2 (ja) 日常生活を記録する自律行動型ロボット
JP2024128408A (ja) 情報処理装置及び介護ロボットの制御方法
WO2023243431A1 (ja) 介護ロボット、介護ロボットの制御方法、及び、情報処理装置
Choi A study of human-robot interaction with an assistive robot to help people with severe motor impairments

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22819786

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023527478

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18565642

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202280039626.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22819786

Country of ref document: EP

Kind code of ref document: A1