JP2019197509A - 介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラム - Google Patents

介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラム Download PDF

Info

Publication number
JP2019197509A
JP2019197509A JP2018092555A JP2018092555A JP2019197509A JP 2019197509 A JP2019197509 A JP 2019197509A JP 2018092555 A JP2018092555 A JP 2018092555A JP 2018092555 A JP2018092555 A JP 2018092555A JP 2019197509 A JP2019197509 A JP 2019197509A
Authority
JP
Japan
Prior art keywords
care
information
unit
evaluation result
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018092555A
Other languages
English (en)
Inventor
俊治 居山
Shunji Iyama
俊治 居山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fubright Communications Inc
Original Assignee
Fubright Communications Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fubright Communications Inc filed Critical Fubright Communications Inc
Priority to JP2018092555A priority Critical patent/JP2019197509A/ja
Publication of JP2019197509A publication Critical patent/JP2019197509A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】適切な介護を提供することができる、介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラムを提供する。【解決手段】介護ロボットは、介護を受ける被介護者に係る被介護者情報を登録する被介護者情報登録部と、被介護者を識別する介護者識別部と、登録された被介護者情報に基づき、識別された被介護者に対して実行する動作を決定する動作決定部と、決定された動作を実行する動作実行部と、実行された動作に対する被介護者からの反応を検出する反応検出部と、実行された動作に対する検出された反応を評価して評価結果を生成する評価結果生成部と、登録された被介護者情報、実行された動作に係る動作情報、及び生成された評価結果を機械学習する機械学習部とを備える。【選択図】図1

Description

本発明は、介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラムに関する。
近年の高齢化社会においては、介護や高齢者福祉の担い手不足の懸念から、介護分野においてロボットの利用が検討されている。例えば、人口知能による機械学習の機能を備えて人の生体状態を推定するコミュニケーションロボットがある(例えば、特許文献1を参照)。また、被介護者を介護するロボットがある(例えば、特許文献2を参照)。
また、被介護者には、性別、性格、喜怒哀楽等の感情、体調、身体機能、日常生活自立度、又は要介護状態等の個性があり、それぞれの被介護者に合わせた適切なコミュニケーションを取るには、被介護者の様々な個性やその場における状況等を適切に判断する必要がある。例えば、被介護者を介護する介護者には、豊富な経験と判断力が要求される。介護分野においてロボットを利用するためには、介護者と同様に、適切な判断をするための経験をロボットに対しても機械学習させる必要がある。機械学習においては、成功体験と失敗体験を数多く学習させる必要がある。介護分野においても被介護者との適切なコミュケーションを取るには、ロボットに成功体験とともに失敗体験を多く学習させる必要がある。
特開2017−100221号公報 特開2015−165879号公報
しかし、介護ロボットに対して失敗体験を多く学習させることは、被介護者に対する不適切な介護を実施することになるため、十分な学習データを収集して適切な介護を提供することが困難となる場合があった。
また、豊富な知識と経験を有する介護者のスキルをロボットに伝授して適切な介護を提供することが困難となる場合があった。
本発明は上記事情に鑑みてなされたものであり、1つの実施形態において、適切な介護を提供することができる、介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラムを提供することを一つの目的とする。
(1)上記の課題を解決するため、実施形態の介護ロボットは、介護を受ける被介護者に係る被介護者情報を登録する被介護者情報登録部と、前記被介護者を識別する介護者識別部と、登録された前記被介護者情報に基づき、識別された前記被介護者に対して実行する動作を決定する動作決定部と、決定された前記動作を実行する動作実行部と、実行された前記動作に対する前記被介護者からの反応を検出する反応検出部と、実行された前記動作に対する検出された前記反応を評価して評価結果を生成する評価結果生成部と、登録された前記被介護者情報、実行された前記動作に係る動作情報、及び生成された前記評価結果を機械学習する機械学習部とを備える。
(2)また、実施形態の介護ロボットにおいて、前記被介護者情報登録部は、前記被介護者情報として前記被介護者の状態に係る状態情報を登録し、前記動作決定部は、登録された前記状態情報に基づき前記動作を決定する。
(3)また、実施形態の介護ロボットにおいて、前記被介護者情報登録部は、前記状態情報として前記被介護者の要介護認定に係る認定情報を登録し、前記動作決定部は、登録された前記認定情報に基づき前記動作を決定する。
(4)また、実施形態の介護ロボットにおいて、実行された前記動作に対する前記反応に基づき、登録された前記状態情報に係る前記状態の変化を検出する状態変化検出部と、検出された前記状態の変化を報知する状態変化報知部とをさらに備える。
(5)また、実施形態の介護ロボットにおいて、前記反応検出部は、前記反応として、前記被介護者の発話、表情又は動作の少なくともいずれか1つを検出する。
(6)また、実施形態の介護ロボットにおいて、前記動作決定部は、前記機械学習の学習結果にさらに基づき前記動作を決定する。
(7)また、実施形態の介護ロボットにおいて、登録された前記被介護者情報、実行された前記動作に係る動作情報、又は生成された前記評価結果のうち少なくともいずれか1つの情報を記録する情報記録部と、記録された前記情報を外部装置に提供する情報提供部とをさらに備える。
(8)また、実施形態の介護ロボットにおいて、前記動作決定部は、前記動作実行部において可能な動作を判断し、可能な動作の中から実行する動作を決定する。
(9)また、実施形態の介護ロボットにおいて、前記評価結果生成部は、前記評価結果として、実行された前記動作に対する前記反応に基づき前記被介護者との信頼の大きさを表す信頼度を生成し、前記機械学習部は、生成された前記信頼度を機械学習する。
(10)また、実施形態の介護ロボットにおいて、前記動作実行部は、前記被介護者に対する音声出力を実行し、前記反応検出部は、前記反応として、前記被介護者の発話を検出し、前記評価結果生成部は、実行された前記音声出力に対する検出された前記発話から会話が成立しているか否かを評価する。
(11)また、実施形態の介護ロボットにおいて、前記評価結果生成部は、実行された前記動作に対する検出された前記反応に基づき、前記被介護者の感情を評価する。
(12)また、実施形態の介護ロボットにおいて、前記被介護者情報登録部は、前記被介護者情報として、介護者から収集されたノウハウを登録し、前記動作決定部は、登録された前記ノウハウに基づき前記動作を決定する。
(13)また、実施形態の介護ロボットにおいて、前記評価結果生成部は、介護者から収集されたノウハウに基づき前記反応を評価する。
(14)上記の課題を解決するため、実施形態の介護ロボット制御方法は、介護を受ける被介護者に係る被介護者情報を登録する被介護者情報登録ステップと、前記被介護者を識別する介護者識別ステップと、登録された前記被介護者情報に基づき、識別された前記被介護者に対して実行する動作を決定する動作決定ステップと、決定された前記動作を実行する動作実行ステップと、実行された前記動作に対する前記被介護者からの反応を検出する反応検出ステップと、実行された前記動作に対する検出された前記反応を評価して評価結果を生成する評価結果生成ステップと、登録された前記被介護者情報、実行された前記動作に係る動作情報、及び生成された前記評価結果を機械学習する機械学習ステップとを含む。
(15)上記の課題を解決するため、実施形態の介護ロボット制御プログラムは、コンピュータを上記いずれか一に記載の介護ロボットとして機能させる。
一つの実施形態によれば、適切な介護を提供することができる、介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラムを提供することができる。
実施形態における介護ロボットのソフトウェア構成の一例を示すブロック図である。 実施形態における管理装置のソフトウェア構成の一例を示すブロック図である。 実施形態における介護ロボットのハードウェア構成の一例を示すブロック図である。 実施形態における介護ロボット制御プログラムの動作の一例を示すフローチャートである。
以下、図面を参照して本発明の一実施形態における介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラムについて詳細に説明する。
先ず、図1を用いて、介護ロボットのソフトウェア構成を説明する。図1は、実施形態における介護ロボットのソフトウェア構成の一例を示すブロック図である。
図1において、介護ロボット1は、被介護者情報登録部11、介護者識別部12、動作決定部13、動作実行部14、反応検出部15、評価結果生成部16、機械学習部17、状態変化検出部18A、状態変化報知部18B、情報記録部19Aおよび情報提供部19Bの各機能を有する。本実施形態における介護ロボット1の上記各機能は、介護ロボット1を制御する介護ロボット制御プログラム(ソフトウェア)によって実現される機能モジュールであるものとして説明する。介護ロボット制御プログラムは、介護ロボットで動作する。
介護ロボット1は、例えば、移動型ロボット(人型、動物型等)もしくはスマートスピーカ(AI(Artificial Intelligence:人工知能)スピーカ)等の専用装置、またはスマホフォン、タブレットPC、ノートPCもしくはデスクトップPC等の汎用装置である。すなわち、介護ロボット制御プログラムが動作する装置は介護ロボットである。
被介護者情報登録部11は、介護を受ける被介護者に係る被介護者情報を登録する。本実施形態における介護とは、生活介助、リハビリテーション又は看護等を含む概念であり、介護を受ける被介護者は、年齢、性別、障害の有無、疾病の有無等を問わない。
<被介護者情報:識別情報>
被介護者情報には、被介護者を識別するための識別情報が含まれてもよい。識別情報は、例えば、氏名、年齢、性別、生体認証情報、もしくは個人番号等である。生体認証情報は、例えば、指紋、静脈、顔、網膜、虹彩または声紋(音声)等の身体的特徴により個人を特定するための情報である。また、生体認証情報は、身体動作または筆跡等の行動的特徴により個人を特定するための情報であってもよい。識別情報は、例えば、識別情報を有する市町村、病院、福祉施設、金融機関等からデータを取得することにより登録することができる。
<被介護者情報:状態情報>
被介護者情報には、被介護者の状態に係る状態情報が含まれてもよい。状態情報は、被介護者において経時的に変化する可能性のある情報である。状態情報は、例えば、要介護認定に係る認定情報、体力の状態、性格、趣味または嗜好等の情報である。要介護認定に係る認定情報は、例えば、身体機能の状態、起居動作の可否、生活機能の状態、認知機能の状態、精神・行動障害の有無、社会生活への適応性等の情報である。状態情報は、例えば、家族、医師、看護師、介護福祉士、介護職員、社会福祉士または精神保健福祉士等から定期的にまたは非定期的に取得して登録することができる。
状態情報には例えば、介護ロボット1との会話に対する積極性、介護ロボットからの指示に対する順応性(例えば、指示されたリハビリ体操の実施)、ロボットの言葉使いの好み(例えば、敬語の使用、幼児言葉の使用等)、好みの介護ロボットの形状(人型、犬型、猫型等)の嗜好情報を含めることができる。介護福祉士等の介護者は、被介護者それぞれの状態を考慮してコミュケーションを取りながら介護を行うノウハウやスキルを有している場合が多い。状態情報を被介護者情報として登録しておくことにより、介護者の知識(ノウハウ)と経験(スキル)を登録することが可能となる。
介護者識別部12は、被介護者を識別する。識別とは、被介護者個人を識別することである。介護者識別部12は、例えば、生体認証情報とカメラで撮影された被介護者の身体的な特徴(顔、指紋等)から、被介護者個人を識別する。介護者識別部12は、介護ロボット1の外部の識別サービス(図示せず)を利用して被介護者を識別するようにしてもよい。外部の識別サービスとは、例えば、画像識別エンジンを用いた識別機能を提供するクラウドサービスであり、撮影した被介護者の撮影画像を介護者識別部12から取得することにより、識別された(特定された)被介護者の識別情報を介護者識別部12に対して提供するものである。
動作決定部13は、被介護者情報登録部11において登録された被介護者情報に基づき、介護者識別部12において識別された被介護者に対して実行する動作を決定する。被介護者に対して実行する動作とは、例えば、介護ロボット1からの音声出力、介護ロボット1のアクチュエータの駆動、介護ロボット1のランプの点灯、介護ロボット1の表示装置への表示等である。実行する動作には、例えば、スピーカからの音声出力、ランプの点灯、お辞儀をする等の単純な動作であってもよく、また、被介護者に対する身体的な介護、被介護者との会話、被介護者に対する生活介護等、複数の動作を組合わせた複合的な動作を伴うものであってもよい。動作決定部13は、動作実行部において可能な動作を判断し、可能な動作の中から実行する動作を決定する。動作実行部において可能な動作とは、例えばハードウェア的な要因で可能な動作である。例えば、アクチュエータを具備しない介護ロボット1においては、アクチュエータの動作が必要な動作を実行しない。動作実行部において可能な動作は、それぞれの介護ロボット1の設定ファイルに記述され動作決定部13から読み出されるようにしてもよい。動作決定部13は、被介護者情報登録部11において登録された介護者の知識や経験に基づき動作を実行するため、適切な介護を決定することが可能となる。
動作決定部13は、例えば被介護者の認知機能等の状態に合わせて、音声出力する会話の内容(使用する単語、文章の長さ等)、会話の音量、会話の速度、会話における敬語の使用、または、会話の口調(親しく、無機質に等)等の会話の方法を変化させる。動作決定部13は、被介護者の身体機能の状態に合わせて、リハビリ運動の内容(立って行う運動、座ったまま行う運動、身体の一部を使用する運動等)を変化させてもよい。動作決定部13は、1または複数の動作を同時に実行するように動作を決定するようにしてもよい。
動作実行部14は、動作決定部13において決定された動作を実行する。動作実行部14は、例えば、音声出力を実行する音声出力部、ランプの点灯を実行するランプ出力部、アクチュエータの駆動を実行する駆動部、または表示装置への表示を実行する表示部等である。アクチュエータとは、例えば、モータ、電磁ソレノイド、シリンダ、振動装置等である。動作実行部14は、例えば、複数(6軸)のモータを組合わせた動作を実現するようにしてもよい。
反応検出部15は、動作実行部14において実行された動作に対する被介護者からの反応を検出する。反応とは、例えば、動作実行部14において実行された動作に対する被介護者の、発話、表情、または動作の少なくともいずれか1つである。例えば、反応検出部15は、被介護者の発話をマイクロフォンで集音し、発話内容を音声分析することにより検出することができる。また、反応検出部15は、被介護者の表情をカメラで撮影し、撮影画像を画像解析することにより、被介護者の喜怒哀楽を検出することができる。また、反応検出部15は、被介護者の動作をカメラで撮影し、撮影画像を画像解析することにより、被介護者の手足の動き、姿勢、反応時間または動作速度等を検出することができる。
評価結果生成部16は、動作実行部14において実行された動作に対する、反応検出部15において検出された反応を評価して評価結果を生成する。評価結果は、例えば、成功または失敗の2段階評価、5段階評価、または成功率(%)等により生成される。例えば、評価結果生成部16は、動作実行部14において出力された音声に対する被介護者の発話内容において会話が成立しているか否かを評価する。また、評価結果生成部16は、動作実行部14において出力された音声に対して被介護者が動作するまでの反応時間において運動能力を評価する。また、評価結果生成部16は、動作実行部14において実行された動作に対する検出された反応に基づき、被介護者の感情を評価する。感情の評価は、検出された喜怒哀楽によって評価することができる。例えば、評価結果生成部16は、被介護者が喜んでいたり楽しんでいたりする場合には高評価の評価結果とする。
スキルの高い介護者は、被介護者からの反応に基づき、実施した介護が適切であったか否かを判断して、次回の介護においてその経験を生かすことができる。評価結果生成部16において介護者と同様に実行された動作に対する評価を行うことにより、介護ロボット1は、さらに適切な介護を提供することが可能となる。
評価結果生成部16は、評価結果を生成するために、評価結果を生成すための評価アルゴリズムを予め取得しておく。評価アルゴリズムは、例えば、介護者のノウハウや知識に基づく評価手法をプログラムしたものである。例えば、介護者は、介護者からの問いかけからの返答までの応答時間、正しい内容の返答か否か、返答までに要した問いかけ回数等の要因を考慮して会話が成立したか否かを判断する。また、介護者は、被介護者の表情を観察することにより、介護に対して被介護者が満足したか、不満であるかを判断する。また、介護者は、リハビリ体操の指導において、被介護者が介護者の指示通りの運動をしたか否かを確認することで指導の成否を判断する。評価結果生成部16は、介護者が有するこれらの判断手法をアルゴリズム化した評価アルゴリズムを予め取得しておくことにより、介護者と同様の評価結果を生成することが可能となる。評価結果は、機械学習部17における教師データとして使用してもよい。
評価結果生成部16は、評価結果として、動作実行部14において実行された動作に対する反応に基づき被介護者との信頼の大きさを表す信頼度を生成してもよい。介護者が介護の実績により被介護者から信頼されるのと同様に、介護ロボット1も被介護者から信頼される場合がある。信頼度とは、例えば、評価結果の累積値等で数値化することができる。被介護者の好みによって、人型ロボットが好きな被介護者と犬型ロボットが好きな被介護者では、人型ロボットまたは犬型ロボットに対する信頼度が異なる場合がある。それぞれの被介護者において信頼度の高い介護ロボットを用いて介護を実施することにより、被介護者とのコミュニケーションを向上させ、適切な介護を提供することが可能となる。
機械学習部17は、被介護者情報登録部11において登録された被介護者情報、動作実行部14において実行された動作に係る動作情報、及び生成された評価結果を機械学習する。機械学習部17は、被介護者情報、動作情報及び評価結果のセットを1つの学習データとして学習する。機械学習部17は、複数の学習データを学習することにより、被介護者情報、動作情報及び評価結果の間に存在するパターンを見出し、見出したパターンを動作決定部13にフィードバックする。機械学習部17は、任意のアルゴリズムで機械学習を行うことができる。例えば、機械学習部17は、評価結果を教師データとする被介護者情報と動作情報の対応を学習してもよい。機械学習の技法としては、例えば、ニューラルネットワーク、サポートベクターマシン、帰納論理プログラミング、クラスタリングまたはベイジアンネットワーク等を用いることができる。介護においては、被介護者の状態等、複雑な要因が介護の評価に影響する。機械学習部17は、学習データから複雑な要因を解析して適切な介護を得るための方法を学習することが可能となる。
機械学習部17は、介護ロボット1の外部の機械学習サービス(図示せず)を利用して機械学習を実行するようにしてもよい。外部の機械学習サービスとは、例えば、学習データを収集して学習結果を提供するクラウドサービスであり、1または複数のアルゴリズムにおいて機械学習のサービスを提供する。すなわち、機械学習部17は、クラウドサービスを利用するためのサービスクライアントやインタフェースであってもよい。
状態変化検出部18Aは、動作実行部14において実行された動作に対する反応に基づき、被介護者情報登録部11において登録された状態情報に係る状態の変化を検出する。状態情報は、上述のように、要介護認定に係る認定情報、体力の状態、性格、趣味または嗜好等の情報である。状態情報は、例えば、日々の体調、老化または疾病の進行とともに変化する可能性がある。状態の変化とは、例えば、今まで出来ていた運動が出来なくなる、または成立していた会話が成立しなくなる等の変化である。状態変化検出部18Aは、状態情報に係る状態の変化を検出することにより、体調の変化等を検出することが可能となる。状態変化報知部18Bは、状態変化検出部18Aにおいて検出された状態の変化を報知する。報知とは、例えば、表示装置への表示、音声出力、またはメール送信等の動作ある。報知の対象は、例えば周囲に存在する介護者、家族、または病院等の施設である。
情報記録部19Aは、被介護者情報登録部11において登録された被介護者情報、動作実行部14において実行された動作に係る動作情報、又は評価結果生成部16において生成された評価結果のうち少なくともいずれか1つの情報を記録する。これら介護に係る情報は、機械学習の学習データとして使用する以外に、例えば、それぞれの被介護者毎の記録として有用となる。ため、複数の介護ロボット間における介護の相違を把握するデータとして有用となる。情報提供部19Bは、情報記録部19Aにおいて記録された介護に係る情報を、ネットワーク9を介して接続される外部装置として例示する管理装置2に提供する。管理装置2の詳細は後述する。
なお、介護ロボット1が有する、被介護者情報登録部11、介護者識別部12、動作決定部13、動作実行部14、反応検出部15、評価結果生成部16、機械学習部17、状態変化検出部18A、状態変化報知部18B、情報記録部19Aおよび情報提供部19Bの各機能は、介護ロボット1の機能の一例を示したものであり、介護ロボット1が有する機能を限定したものではない。例えば、介護ロボット1は、上記全ての機能を有している必要はなく、一部の機能を有するものであってもよい。また、介護ロボット1は、上記以外の他の機能を有していてもよい。例えば、介護ロボット1は、機能の設定を行うための入力機能や、装置の稼働状態をLEDランプ等により報知する出力機能を有していてもよい。
また介護ロボット1が有する上記各機能は、上述の通り、ソフトウェアによって実現されるものとして説明した。しかし、介護ロボット1が有する上記機能の中で少なくとも1つ以上の機能は、ハードウェアによって実現されるものであっても良い。
また、介護ロボット1が有する上記何れかの機能は、1つの機能を複数の機能に分割して実施してもよい。また、介護ロボット1が有する上記何れか2つ以上の機能を1つの機能に集約して実施してもよい。すなわち、図1は、介護ロボット1が有する機能を機能ブロックで表現したものであり、例えば、各機能がそれぞれ別個のプログラムファイル等で構成されていることを示すものではない。
また、介護ロボット1は、1つの筐体によって実現される装置であっても、ネットワーク等を介して接続された複数の装置から実現されるシステムであってもよい。例えば、介護ロボット1は、その機能の一部または全部をクラウドコンピューティングシステムによって提供されるクラウドサービス等、仮想的な装置によって実現するものであってもよい。すなわち、介護ロボット1は、上記各機能のうち、少なくとも1以上の機能を他の装置において実現するようにしてもよい。また、介護ロボット1は、サーバ装置等の汎用的なコンピュータであってもよく、機能が限定された専用の装置であってもよい。
次に、図2を用いて、管理装置2のソフトウェア構成を説明する。図2は、実施形態における管理装置2のソフトウェア構成の一例を示すブロック図である。
図2において、管理装置2は、被介護者情報設定部21、情報収集部22および情報解析部23の各機能を有する。本実施形態における管理装置の上記各機能は、管理装置2を制御する管理装置制御プログラム(ソフトウェア)によって実現される機能モジュールであるものとして説明する。管理装置2は、複数の介護ロボット1(1A、1B、1Cで図示)とネットワーク9を介して通信可能に接続される。
被介護者情報設定部21は、介護ロボット1に対して、被介護者情を設定する。被介護者情は、複数の介護ロボット1において共有可能な情報であるため、複数の介護ロボット1が存在する場合、それぞれの介護ロボット1において個別に設定するより、管理装置2において管理して、介護ロボット1に対して設定した方が設定の作業性が向上する。被介護者情報設定部21は、それぞれの介護ロボット1に対して共通の被介護者情を設定することにより、被介護者情の設定工数を削減することができる。なお、介護ロボット1は、実行可能な動作がそれぞれ異なる場合があるため、被介護者情報設定部21は、被介護者情の中でそれぞれの介護ロボット1に応じた設定項目を設定する。
情報収集部22は、複数の介護ロボット1から介護に係る情報を収集する。情報収集部22は、介護ロボット1の情報提供部19Bから提供される、被介護者情報、動作実行部14において実行された動作に係る動作情報、又は評価結果生成部16において生成された評価結果のうち少なくともいずれか1つの介護に係る情報を収集する。情報収集部22は、収集したこれらの情報を、例えばデータベースに蓄積していくことにより被介護者との適切なコミュケーションを取るための十分な学習データを収集することができる。
情報解析部23は、情報収集部22において収集された介護に係る情報を解析する。情報解析部23は、収集された介護に係る情報が蓄積されている場合、数多くの介護におけるケースに関して解析をすることが可能となる。例えば、情報解析部23は、収集された被介護者情報、動作情報及び評価結果から、被介護者の認知機能の状態に対する最適な会話の方法を解析する。また、情報解析部23は、被介護者の身体的な状態に対する最適な運動方法を解析してもよい。情報解析部23は、解析した解析結果を被介護者情報設定部21から介護ロボット1に対して設定することにより、解析結果を複数の介護ロボット1に対してフィードバックすることができる。
次に、図3を用いて、介護ロボット1のハードウェア構成を説明する。図3は、実施形態における介護ロボット1のハードウェア構成の一例を示すブロック図である。
介護ロボット1は、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、タッチパネル104および通信I/F(Interface)105を有する。また、介護ロボット1は、カメラ111、マイク112、スピーカ121、ランプ122及びアクチュエータ123を有する。介護ロボット1は、図1で説明した介護ロボット制御プログラムを実行する装置である。
CPU101は、RAM102またはROM103に記憶された介護ロボット制御プログラムを実行することにより、介護ロボット1の制御を行う。介護ロボット制御プログラムは、例えば、介護ロボット制御プログラムを記録した記録媒体、又はネットワークを介したプログラム配信サーバ等から取得されて、ROM103にインストールされ、CPU101から読出されて実行される。
タッチパネル104は、操作入力機能と表示機能(操作表示機能)を有する。タッチパネル104は、介護ロボット1の利用者(被介護者を含む)に対して指先又はタッチペン等を用いた操作入力を可能にする。本実施形態における介護ロボット1は操作表示機能を有するタッチパネル104を用いる場合を説明するが、介護ロボット1は、表示機能を有する表示装置と操作入力機能を有する操作入力装置とを別個有するものであってもよい。その場合、タッチパネル104の表示画面は表示装置の表示画面、タッチパネル104の操作は操作入力装置の操作として実施することができる。なお、タッチパネル104は、ヘッドマウント型、メガネ型、腕時計型のディスプレイ等の種々の形態によって実現されてもよい。表示画面は、動作実行部14によって表示される。
通信I/F105は、通信用のI/Fである。通信I/F105は、例えば、無線LAN、有線LAN、赤外線等の近距離無線通信を実行する。通信I/F105は、例えば、ネットワーク9を介して管理装置2との通信を実現する。通信I/F105は、他の介護ロボット1との通信を実現するものであってもよい。なお、図において通信I/Fは通信I/F105のみを図示するが、介護ロボット1は複数の通信方式においてそれぞれの通信I/Fを有するものであってもよい。
カメラ111は周囲を撮影して撮影画像を取得する。カメラ111は、動画または静止画の少なくともいずれか1つを撮影するカメラである。カメラ111で撮影された撮影画像は、例えば、被介護者を識別し、被介護者の反応を検出し、または被介護者の状態変化を検出するのに用いられる。カメラ111で撮影された撮影画像は、介護ロボット1が移動するときの周囲の確認に用いられてもよい。カメラ111は、1台または複数台であってもよい。カメラ111を2台してステレオカメラを構成することにより、撮影画像を立体的に把握することが可能となる。マイク112は、周囲の音(音声)を集音する。例えば、マイク112で集音された音声は、被介護者の発話内容の評価に用いられる。
スピーカ121は、音声を出力する。ランプ122は、例えば、表示用LEDランプである。アクチュエータ123は、例えば、介護ロボット1の移動機構を駆動するモータまたはシリンダ等である。スピーカ121、ランプ122またはアクチュエータ123は、動作実行部14によって駆動される。動作実行部14によって、スピーカ121から音声が出力され、ランプ122が点灯され、またはアクチュエータ123が駆動される。
次に、図4を用いて、介護ロボット制御プログラムの動作を説明する。図4は、実施形態における介護ロボット制御プログラムの動作の一例を示すフローチャートである。以下のフローチャートの説明において、動作の実行主体は介護ロボット1であるものとして説明するが、それぞれの動作は、上述した介護ロボット1の各機能において実行することができる。
図4において、介護ロボット1は、介護指示を取得したか否かを判断する(ステップS11)。介護ロボット1は、どの被介護者に対してどのような介護を実施するかの指示を取得してから介護を実行する。介護指示は、例えば、管理装置2、介護ロボット1のタッチパネル104から取得することができる。また、介護指示は、介護ロボット1に対する呼びかけをきっかけに取得するものであってもよい。また、介護指示は、介護ロボット1に内蔵されたRTC(Real−Time Clock)に基づき介護実行のタイミングを管理するスケジューラから取得するようにしてもよい。介護指示は、複数の被介護者に対する介護(例えば、リハビリ体操の指導等)を指示するものであってもよい。介護指示を取得していないと判断した場合(ステップS11:NO)、介護ロボット1は、ステップS11の処理を繰り返し、介護指示が取得されるのを待機する。
一方、介護指示を取得したと判断した場合(ステップS11:YES)、介護ロボット1は、被介護者を識別する(ステップS12)。被介護者の識別は、例えば、介護者識別部12において実行することができる。被介護者を識別することにより、介護の対象者を確認することが可能となる。被介護者の識別は、介護ロボット1に対する呼びかけを行った者の声を解析することにより行うことができる。また、被介護者の識別は、介護指示において指示された被介護者を、カメラで撮影された被介護者の身体的な特徴から識別するものであってもよい。
ステップS12の処理を実行した後、介護ロボット1は、実行する介護を決定する(ステップS13)。実行する介護の決定は、動作決定部13において実行される。例えば、介護指示に基づく介護がリハビリ体操の指導だったとする。動作決定部13は、介護指示に基づく介護対象の被介護者の状態情報に基づき、例えば、被介護者の体力、身体的機能、認知機能等の状態を考慮して、リハビリ体操の運動種目、運動強度または運動時間等を適正化した介護の詳細を決定する。
ステップS13の処理を実行した後、介護ロボット1は、介護動作を実行する(ステップS14)。介護動作の実行は、動作実行部14において実行することができる。動作実行部14は、ステップS13の処理で決定された介護の詳細に応じて動作を調整する。例えば、動作実行部14は、リハビリ体操を指導する音声のテンポ、音量、口調等を調整する。
ステップS14の処理を実行した後、介護ロボット1は、被介護者の反応を検出する(ステップS15)。反応の検出は、反応検出部15において実行することができる。例えば、反応検出部15は、リハビリ体操中における被介護者の表情、体の動き、視線等を検出し、被介護者がリハビリ体操の指導に対して正しく体操を実行しているか否か、または負荷が適切か否か等を検出する。
ステップS15の処理を実行した後、介護ロボット1は、介護者の状態の変化を検出したか否かを判断する(ステップS16)。状態の変化を検出したか否かは、状態変化検出部18Aにおいて実行することができる。例えば、状態変化検出部18Aは、登録されている被介護者の状態情報においては実行できるレベルの負荷の体操が実行されていない場合、被介護者の状態が悪化している可能性があることを検出する。同様に、状態変化検出部18Aは、登録されている被介護者の状態情報においてやっと実行できるレベルの負荷の体操が余裕をもって実行されている場合、被介護者の状態が好転している可能性があることを検出する。
ステップS16の処理において、介護者の状態の変化を検出したと判断した場合(ステップS16:YES)、介護ロボット1は、状態の変化を報知する(ステップS17)。状態の変化の報知は、状態変化報知部18Bにおいて実行することができる。例えば、状態変化報知部18Bは、検出された状態の変化を介護者にメール送信する。状態変化報知部18Bは、特に被介護者の状態の変化が大きい場合、警報を用いた緊急的な報知を行うようにしてもよい。
一方、ステップS16の処理において、介護者の状態の変化を検出していないと判断した場合(ステップS16:NO)、またはステップS17の処理を実行した後、介護ロボット1は、評価結果を生成する(ステップS18)。評価結果の生成は、評価結果生成部16において実行することができる。例えば、評価結果生成部16は、リハビリ体操に対する被介護者の動作、被介護者の表情から、実行したリハビリ体操が適正であったか否かを評価する。また、評価結果生成部16は、被介護者との会話内容に基づき、介護ロボットに対する信頼を数値化した信頼度を算出して評価してもよい。
ステップS18の処理を実行した後、介護ロボット1は、機械学習を行う(ステップS19)。機械学習は、機械学習部17において実行することができる。例えば、機械学習部17は、登録されている被介護者情報、リハビリ体操の詳細および評価結果を対応づけて学習することにより、実施された介護が適切であったか否かを学習して、被介護者の状態と実行すべきリハビリ体操の関係を推測する。
ステップS19の処理を実行した後、介護ロボット1は、情報を記録する(ステップS20)。情報の記録は、情報記録部19Aにおいて実行することができる。例えば、情報記録部19Aは、被介護者の状態、実施したリハビリ体操の詳細、評価結果および学習結果を記録する。
ステップS20の処理を実行した後、介護ロボット1は、記録した情報を提供する(ステップS21)。記録した情報の提供は、情報提供部19Bが実行することができる。例えば、情報提供部19Bは、記録された情報が所定のサンプル数に達したときに管理装置2に対して情報を提供する。情報の提供は、例えば、個人が特定されないように、個人情報以外の情報についてのみ行うようにしてもよい。ステップS21の処理を実行した後、介護ロボット1は、フローチャートで示した動作を終了する。
なお、フローチャートで図示した処理の実行順序は、図示したものに限定されない。例えば、ステップS19における機械学習の処理は、ステップS20において記録された情報のサンプル数が所定数に達した後に実行するようにしてもよい。
また、図示するフローチャートにおいては、評価結果は介護動作実行後に行う場合を示したが、例えば、評価結果を介護動作の実行中に生成し、評価結果に基づき実行する介護の内容をリアルタイムに変更するようにしてもよい。
なお、本実施形態で説明した装置を構成する機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本実施形態の上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組合せで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。
以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。
1 介護ロボット
11 被介護者情報登録部
12 介護者識別部
13 動作決定部
14 動作実行部
15 反応検出部
16 評価結果生成部
17 機械学習部
18A 状態変化検出部
18B 状態変化報知部
19A 情報記録部
19B 情報提供部
2 管理装置
21 被介護者情報設定部
22 情報収集部
23 情報解析部
9 ネットワーク
101 CPU
102 RAM
103 ROM
104 タッチパネル
105 通信I/F
111 カメラ
112 マイク
121 スピーカ
122 ランプ
123 アクチュエータ

Claims (15)

  1. 介護を受ける被介護者に係る被介護者情報を登録する被介護者情報登録部と、
    前記被介護者を識別する介護者識別部と、
    登録された前記被介護者情報に基づき、識別された前記被介護者に対して実行する動作を決定する動作決定部と、
    決定された前記動作を実行する動作実行部と、
    実行された前記動作に対する前記被介護者からの反応を検出する反応検出部と、
    実行された前記動作に対する検出された前記反応を評価して評価結果を生成する評価結果生成部と、
    登録された前記被介護者情報、実行された前記動作に係る動作情報、及び生成された前記評価結果を機械学習する機械学習部と
    を備える、介護ロボット。
  2. 前記被介護者情報登録部は、前記被介護者情報として前記被介護者の状態に係る状態情報を登録し、
    前記動作決定部は、登録された前記状態情報に基づき前記動作を決定する、請求項1に記載の介護ロボット。
  3. 前記被介護者情報登録部は、前記状態情報として前記被介護者の要介護認定に係る認定情報を登録し、
    前記動作決定部は、登録された前記認定情報に基づき前記動作を決定する、請求項2に記載の介護ロボット。
  4. 実行された前記動作に対する前記反応に基づき、登録された前記状態情報に係る前記状態の変化を検出する状態変化検出部と、
    検出された前記状態の変化を報知する状態変化報知部と
    をさらに備える、請求項2又は3に記載の介護ロボット。
  5. 前記反応検出部は、前記反応として、前記被介護者の発話、表情又は動作の少なくともいずれか1つを検出する、請求項1から4のいずれか一項に記載の介護ロボット。
  6. 前記動作決定部は、前記機械学習の学習結果にさらに基づき前記動作を決定する、請求項1から5のいずれか一項に記載の介護ロボット。
  7. 登録された前記被介護者情報、実行された前記動作に係る動作情報、又は生成された前記評価結果のうち少なくともいずれか1つの情報を記録する情報記録部と、
    記録された前記情報を外部装置に提供する情報提供部と
    をさらに備える、請求項1から6のいずれか一項に記載の介護ロボット。
  8. 前記動作決定部は、前記動作実行部において可能な動作を判断し、可能な動作の中から実行する動作を決定する、請求項1から7のいずれか一項に記載の介護ロボット。
  9. 前記評価結果生成部は、前記評価結果として、実行された前記動作に対する前記反応に基づき前記被介護者との信頼の大きさを表す信頼度を生成し、
    前記機械学習部は、生成された前記信頼度を機械学習する、請求項1から8のいずれか一項に記載の介護ロボット。
  10. 前記動作実行部は、前記被介護者に対する音声出力を実行し、
    前記反応検出部は、前記反応として、前記被介護者の発話を検出し、
    前記評価結果生成部は、実行された前記音声出力に対する検出された前記発話から会話が成立しているか否かを評価する、請求項1から9のいずれか一項に記載の介護ロボット。
  11. 前記評価結果生成部は、実行された前記動作に対する検出された前記反応に基づき、前記被介護者の感情を評価する、請求項1から10のいずれか一項に記載の介護ロボット。
  12. 前記被介護者情報登録部は、前記被介護者情報として、介護者から収集されたノウハウを登録し、
    前記動作決定部は、登録された前記ノウハウに基づき前記動作を決定する、請求項1から11のいずれか一項に記載の介護ロボット。
  13. 前記評価結果生成部は、介護者から収集されたノウハウに基づき前記反応を評価する、請求項1から12のいずれか一項に記載の介護ロボット。
  14. 介護を受ける被介護者に係る被介護者情報を登録する被介護者情報登録ステップと、
    前記被介護者を識別する介護者識別ステップと、
    登録された前記被介護者情報に基づき、識別された前記被介護者に対して実行する動作を決定する動作決定ステップと、
    決定された前記動作を実行する動作実行ステップと、
    実行された前記動作に対する前記被介護者からの反応を検出する反応検出ステップと、
    実行された前記動作に対する検出された前記反応を評価して評価結果を生成する評価結果生成ステップと、
    登録された前記被介護者情報、実行された前記動作に係る動作情報、及び生成された前記評価結果を機械学習する機械学習ステップと
    を含む、介護ロボット制御方法。
  15. コンピュータを、請求項1から13のいずれか一項に記載の介護ロボットとして機能させるための介護ロボット制御プログラム。
JP2018092555A 2018-05-11 2018-05-11 介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラム Pending JP2019197509A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018092555A JP2019197509A (ja) 2018-05-11 2018-05-11 介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018092555A JP2019197509A (ja) 2018-05-11 2018-05-11 介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラム

Publications (1)

Publication Number Publication Date
JP2019197509A true JP2019197509A (ja) 2019-11-14

Family

ID=68537527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018092555A Pending JP2019197509A (ja) 2018-05-11 2018-05-11 介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラム

Country Status (1)

Country Link
JP (1) JP2019197509A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021108021A (ja) * 2019-12-27 2021-07-29 パナソニックIpマネジメント株式会社 感情分析システムおよび感情分析方法
WO2022224833A1 (ja) * 2021-04-19 2022-10-27 日立グローバルライフソリューションズ株式会社 生活支援システム
WO2022259596A1 (ja) * 2021-06-10 2022-12-15 ソニーグループ株式会社 ロボット運用システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266200A (ja) * 2008-04-24 2009-11-12 Korea Advanced Inst Of Sci Technol ロボットの好感度形成装置及びその方法
WO2015093382A1 (ja) * 2013-12-20 2015-06-25 Re & Do 株式会社 サービス提供管理システム
JP2016012340A (ja) * 2014-06-05 2016-01-21 ソフトバンク株式会社 行動制御システム及びプログラム
JP2017213631A (ja) * 2016-05-31 2017-12-07 株式会社デンソーアイティーラボラトリ ロボットアーム制御装置、ロボットアーム制御方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009266200A (ja) * 2008-04-24 2009-11-12 Korea Advanced Inst Of Sci Technol ロボットの好感度形成装置及びその方法
WO2015093382A1 (ja) * 2013-12-20 2015-06-25 Re & Do 株式会社 サービス提供管理システム
JP2016012340A (ja) * 2014-06-05 2016-01-21 ソフトバンク株式会社 行動制御システム及びプログラム
JP2017213631A (ja) * 2016-05-31 2017-12-07 株式会社デンソーアイティーラボラトリ ロボットアーム制御装置、ロボットアーム制御方法、およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021108021A (ja) * 2019-12-27 2021-07-29 パナソニックIpマネジメント株式会社 感情分析システムおよび感情分析方法
WO2022224833A1 (ja) * 2021-04-19 2022-10-27 日立グローバルライフソリューションズ株式会社 生活支援システム
WO2022259596A1 (ja) * 2021-06-10 2022-12-15 ソニーグループ株式会社 ロボット運用システム

Similar Documents

Publication Publication Date Title
US11776669B2 (en) System and method for synthetic interaction with user and devices
JP6815486B2 (ja) 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム
US10726846B2 (en) Virtual health assistant for promotion of well-being and independent living
WO2019246239A1 (en) Systems and methods for mental health assessment
JP2019197509A (ja) 介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラム
Gashi et al. Hierarchical classification and transfer learning to recognize head gestures and facial expressions using earbuds
Prakash et al. Computer vision-based assessment of autistic children: Analyzing interactions, emotions, human pose, and life skills
US20220207426A1 (en) Method of semi-supervised data collection and machine learning leveraging distributed computing devices
Ktistakis et al. Applications of ai in healthcare and assistive technologies
US20210142047A1 (en) Salient feature extraction using neural networks with temporal modeling for real time incorporation (sentri) autism aide
Theilig et al. Employing environmental data and machine learning to improve mobile health receptivity
EP4413588A1 (en) Mental health intervention using a virtual environment
KR102377414B1 (ko) 인공지능 기반 개인화 청각 재활 시스템
El Arbaoui et al. A review on the application of the Internet of Things in monitoring autism and assisting parents and caregivers
Rai et al. Multimodal mental state analysis
WO2022165109A1 (en) Methods and systems enabling natural language processing, understanding and generation
KR102407457B1 (ko) 인공지능을 이용한 보청기 적합 시스템
Mahmood A package of smartphone and sensor-based objective measurement tools for physical and social exertional activities for patients with illness-limiting capacities
Vargas Martin et al. Artificial empathy for clinical companion robots with privacy-by-design
Kirandziska et al. A concept for building more humanlike social robots and their ethical consequence
Karami et al. Early Detection of Alzheimer's Disease Assisted by AI-Powered Human-Robot Communication
KR20210028370A (ko) 가상현실 기반 지능형 표준화환자 훈련 및 평가 시스템
Jaboob et al. Multimodal Assistive Technologies Prototype for the Disabled in Oman
Woodward Tangible fidgeting interfaces for mental wellbeing recognition using deep learning applied to physiological sensor data
López-Fernández et al. Knowledge-Driven Dialogue and Visual Perception for Smart Orofacial Rehabilitation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221108