JPWO2019181008A1 - 対話支援装置、対話支援方法、およびプログラム - Google Patents

対話支援装置、対話支援方法、およびプログラム Download PDF

Info

Publication number
JPWO2019181008A1
JPWO2019181008A1 JP2020507308A JP2020507308A JPWO2019181008A1 JP WO2019181008 A1 JPWO2019181008 A1 JP WO2019181008A1 JP 2020507308 A JP2020507308 A JP 2020507308A JP 2020507308 A JP2020507308 A JP 2020507308A JP WO2019181008 A1 JPWO2019181008 A1 JP WO2019181008A1
Authority
JP
Japan
Prior art keywords
information
action
target
memory
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020507308A
Other languages
English (en)
Other versions
JP7010544B2 (ja
Inventor
小泉 博一
博一 小泉
康行 伊原
康行 伊原
亮輔 磯谷
亮輔 磯谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Publication of JPWO2019181008A1 publication Critical patent/JPWO2019181008A1/ja
Application granted granted Critical
Publication of JP7010544B2 publication Critical patent/JP7010544B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

認知症等の記憶障がい者および家族等の周囲の人が、記憶障がい者の記憶の忘却によるストレスを軽減できる新たなシステムの提供を目的とする。本発明の対話支援装置1は、対象者の記憶の判定対象となる判定対象行動を設定する判定対象行動設定部10、前記判定対象行動に関する前記対象者の行動情報を取得する行動情報取得部11、前記判定対象行動に対する前記対象者の発話情報を取得する発話情報取得部12、前記発話情報が前記行動情報と一致するか否かを判断し、前記発話情報が一致しない場合、前記対象者が前記対象者の記憶から前記行動情報を引き出せないと判定し、前記発話情報が一致する場合、前記対象者が前記対象者の記憶から前記行動情報を引き出せると判定する記憶判定部13、記憶判定部13が前記対象者の記憶から前記対象者が前記行動情報を引き出せないと判定した場合、前記対象者が行った前記行動情報を前記対象者以外の者が行ったという情報に変更した修正行動情報を生成する修正行動情報生成部14、前記修正行動情報を出力する出力部15を含む。

Description

本発明は、対話支援装置、対話支援方法、およびプログラムに関する。
認知症患者等の記憶障がい者は、自身がとった行動や、自分の発言を忘れてしまうため、例えば、片付けた場所を忘れて物を探し続けたり、予定を何度も家族に尋ねたりという行動をとる。
片付け場所を忘れることに対しては、例えば、記憶障がい者の財布等の所有物に、無線機能のタグを取り付けるという方法がある。この方法によれば、例えば、財布が手元から離れると、スマートフォン等の端末に、いつ、どこで無くしたか等が通知される(特許文献1)。しかしながら、記憶障がい者の様々な所有物に前記タグを取り付けることは、コスト高であり、記憶障がい者自身が、前記端末の利用を覚えることができるかという懸念もある。
また、記憶障がい者が自分の行動を忘れてしまうことについては、家族が行動をメモ等に記録しておき、記憶障がい者が、自分の行動を思い出せない場合には、そのメモを提示するという方法がある。しかし、記憶障がい者は、自分がそのような行動をとったという事実を覚えていないため、家族がそのメモを提示しても、事実として受け止めることができず、混乱が生じたり、不安に感じてしまう。
記憶障がい者が自分の発言を忘れてしまうことについては、前記記憶障がい者の会話内容を記憶し、前記会話内容に含まれるキーワードを回答とする質問を生成することで、前記記憶障がい者の記憶を確認し、記憶の定着を図る方法がある(特許文献2)。しかし、前記記憶障がい者は、自分の発言をすでに忘れており、思い出すことができない場合がある。この場合も、記憶障がい者に混乱が生じたり、不安に感じてしまう。
このようなことから、記憶障がい者本人はもちろんのこと、それを支える介護者等も、ストレスを感じるという問題がある。
特開2016−197776号公報 国際公開第2013/190963号公報
そこで、本発明は、認知症患者等の記憶障がい者および家族等の周囲の人が、記憶障がい者の記憶の忘却によるストレスを軽減できる、新たなシステムの提供を目的とする。
前記目的を達成するために、本発明の記憶障がい者との対話支援装置は、
判定対象行動設定部、行動情報取得部、発話情報取得部、記憶判定部、修正行動情報生成部、および出力部を含み、
前記判定対象行動設定部は、対象者の記憶を判定する対象となる判定対象行動を設定し、
前記行動情報取得部は、前記判定対象行動に関する前記対象者の行動情報を取得し、
前記発話情報取得部は、前記判定対象行動に対する前記対象者の発話情報を取得し、
前記記憶判定部は、前記発話情報が、前記行動情報と一致するか否かを判断して、前記発話情報が一致しない場合、前記対象者が前記対象者の記憶から前記行動情報を引き出すことができないと判定し、前記発話情報が一致する場合、前記対象者が前記対象者の記憶から前記行動情報を引き出すことができると判定し、
前記記憶判定部が、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができないと判定した場合、
前記修正行動情報生成部は、前記対象者が行った前記行動情報を、前記対象者以外の者が行ったという情報に変更した修正行動情報を生成し、
前記出力部は、前記修正行動情報を出力する
ことを特徴とする。
本発明の記憶障がい者との対話支援方法は、
判定対象行動設定工程、行動情報取得工程、発話情報取得工程、記憶判定工程、修正行動情報生成工程、および出力工程を含み、
前記判定対象行動設定工程は、対象者の記憶を判定する対象となる判定対象行動を設定し、
前記行動情報取得工程は、前記判定対象行動に関する前記対象者の行動情報を取得し、
前記発話情報取得工程は、前記判定対象行動に対する前記対象者の発話情報を取得し、
前記記憶判定工程は、前記発話情報が、前記行動情報と一致するか否かを判断して、前記発話情報が一致しない場合、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができないと判定し、前記発話情報が一致する場合、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができると判定し、
前記記憶判定工程が、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができないと判定した場合、
前記修正行動情報生成工程は、前記対象者が行った前記行動情報を、前記対象者以外の者が行ったという情報に変更した修正行動情報を生成し、
前記出力工程は、前記修正行動情報を出力する
ことを特徴とする。
本発明のプログラムは、前記本発明の対話支援方法をコンピュータに実行させることを特徴とする。
本発明の記録媒体は、前記本発明のプログラムを記録したコンピュータ読み取り可能である。
本発明によれば、認知症患者等の記憶障がい者および家族等の周囲の人が、記憶障がい者の記憶の忘却によるストレスを軽減できる。
図1は、実施形態1の対話支援装置の一例を示すブロック図である。 図2は、実施形態1の対話支援装置のその他の例を示すブロック図である。 図3は、実施形態1の対話支援装置のハードウエア構成の一例を示すブロック図である。 図4は、実施形態1の対話支援方法の一例を示すフローチャートである。 図5は、実施形態1において、対話支援装置の使用状態の一例を示す概略図である。 図6は、実施形態2において、対話支援装置の一例を示すブロック図である。 図7は、実施形態2の対話支援方法の工程の一例を示すフローチャートである。
本発明によれば、ユーザの行動情報と、その行動に対するユーザの発話情報とから、ユーザが、自分の記憶から自らの行動を引き出すことができるか否かを判定し、引き出すことができないと判定した場合には、ユーザが行った行動について、ユーザ以外が行った行動に変更する修正行動情報を生成し、それが出力される。記憶障がい者は、自らの行動を第三者から伝えられても、忘却している場合、その事実を受け入れることができず、話が堂々巡りとなり、記憶障がい者本人も、周囲の対応相手も、その会話にストレスと不安を感じる。しかし、本発明によれば、記憶障がい者本人が覚えていない場合には、実際の行動(例えば、記憶障がい者がタンスに財布をしまったという行動)を、第三者が行った行動(例えば、家族がタンスに財布をしまったという行動)として、出力する。この出力内容によれば、記憶障がい者は、例えば、財布がタンスにしまわれていることを知ることができ、且つ、自分の行動と自らの記憶との辻褄があわないことによる不安やストレスを感じることも防止できる。また、対応相手も、この出力内容により、記憶障がい者に、例えば、財布の所在地を知らせることができ、且つ、記憶障がい者に実際の行動を思い出してもらえないことの不安やストレスを回避できる。年々、認知症患者をはじめとする記憶障がい者の数は増加しており、それを支える介護者の不足から、両者が抱えるストレスは、大きな問題となっている。このため、本発明は、記憶障がい者との会話がスムーズに進むよう支援できることから、介護の分野において、極めて有用である。
本発明の実施形態について説明する。なお、本発明は、以下の実施形態には限定されない。なお、以下の各図において、同一部分には、同一符号を付している。また、各実施形態の説明は、特に言及がない限り、互いの説明を援用できる。さらに、各実施形態の構成は、特に言及がない限り、組合せ可能である。
本発明の対象となる記憶障がい者は、特に制限されない。記憶障がいとは、一般に、自分の体験したこと、過去等について、記憶が欠落する障害を意味する。記憶障がい者としては、例えば、アルツハイマー病、認知症等の患者があげられる。本発明において、「対象者」とは、記憶障がい者を示す。また、介護者とは、例えば、家族、医療関係者、ヘルパー等である。
[実施形態1]
本発明の対話支援装置の一例について、図を用いて説明する。
図1は、本実施形態の対話支援装置の一例を示すブロック図である。対話支援装置1は、判定対象行動設定部10、行動情報取得部11、発話情報取得部12、記憶判定部13、修正行動情報生成部14、出力部15を含む。対話支援装置1は、例えば、対話支援システムともいう。対話支援装置1は、例えば、前記各部を含む1つの対話支援装置でもよいし、前記各部が、通信回線網を介して接続可能な対話支援装置でもよい。対話支援装置1は、例えば、会話ロボットである。
対話支援装置1は、例えば、後述するように、対話支援装置1自体が、音声による対話が可能な音声対話型装置でもよいし、文章等の表示による対話が可能な表示対話型装置でもよい。また、例えば、介護者に対して、対象者への対話内容を出力する表示型装置でもよい。
判定対象行動設定部10は、対象者の記憶を判定する対象となる判定対象行動(判定対象行動(X))を設定する。判定対象行動(X)は、任意に設定できる。例えば、対象者と介護者との間の会話、または、対象者と対話支援装置1との間の会話等において、会話が成立していない、対象者が同じことを繰り返し発話している等のネガティブな事象が発生した場合、その会話および発話に含まれる対象となる行動を、判定対象行動(X)として選択し、設定できる。判定対象行動(X)は、例えば、後述するように対話支援装置1によって設定してもよいし、介護者が対話支援装置1に入力することによって、設定することもできる。
行動情報取得部11は、判定対象行動(X)に関する対象者の行動情報(Ax)を取得する。行動情報(Ax)の取得方法は、特に制限されない。例えば、介護者が把握している場合は、介護者が行動情報(Ax)を対話支援装置1に入力することにより、取得してもよい。また、カメラ、センサ、マイク等の機器によって取得された対象者のデータを利用してもよい。前記機器により取得されたデータは、例えば、前記データの種類に応じた解析方法(例えば、画像解析、センシングデータ解析、音声解析等)で解析することにより、対象者の行動情報を抽出できる。この場合、行動情報取得部11は、前記データを解析して、行動情報を抽出する抽出部を兼ねてもよい。
前記機器は、例えば、対話支援装置1が備えてもよいし、対象者の居住空間に設置されてもよい。後者の場合、図2に示すように、対話支援装置1は、例えば、これらの外部機器3(カメラ31、センサ32、マイク33)と、通信回線網2を介して、通信可能であることが好ましい。対話支援装置1と外部機器3との接続は、例えば、有線による接続でもよいし、無線による接続でもよい。前記通信回線網は、特に制限されず、公知の通信回線網を使用でき、具体的には、例えば、LAN(Local Area Network)、WiFi(Wireless Fidelity)等があげられる。また、対話支援装置1と外部機器3との接続は、例えば、無線通信による接続でもよく、無線通信は、例えば、Bluetooth(登録商標)等があげられる。対話支援装置1と外部機器3とは、例えば、コネクターケーブル等を用いた有線によって接続されてもよい。本発明の対話支援装置は、例えば、対話支援装置1と外部機器3とを含む形態でもよい。
判定対象行動(X)に関する対象者の行動情報(Ax)は、例えば、対象者の実際の行動から直接的に導かれる行動情報でもよいし、他の情報から間接的に導かれる行動情報でもよい。前者としては、例えば、対象者の行動そのものの情報である。後者としては、例えば、対象者の所持品の移動情報等から導き出される行動情報があげられる。具体例として、例えば、対象者の所持品に、位置や移動を示すタグ等のセンサを取り付けておけば、前記所持品の移動情報は、間接的に、対象者が、前記所持品を移動させたという行動情報を示すこととなる。
発話情報取得部12は、判定対象行動(X)に対する対象者の発話情報(Sx)を取得する。判定対象行動(X)に対する対象者の発話情報(Sx)は、例えば、介護者または対話支援装置1が、判定対象行動(X)について対象者に質問を投げかけ、対象者が前記質問について回答することによって、得ることができる。対話支援装置1が質問する場合、対話支援装置1は、例えば、さらに、判定対象行動(X)に関する対象者の発話情報(Sx)を得るための、質問文を生成する質問生成部を有してもよい。前記質問文は、例えば、後述するように、出力部15から、音声または文章等によって出力できる。前記質問文は、例えば、予め設定した対話ひな型の改変により生成できる。対話支援装置1は、例えば、さらに、記憶部を備え、前記対話ひな型は、前記記憶部に記憶してもよい。
対象者の発話情報(Sx)の取得方法は、特に制限されない。例えば、介護者が把握している場合は、介護者が対話支援装置1に入力することにより、発話情報取得部12が取得してもよい。また、機器(例えば、マイク)によって取得された対象者のデータを利用してもよい。前記機器により取得されるデータが音声データの場合、例えば、音声解析によりテキスト化し、得られたテキストデータから、判定対象行動(X)に対する発話情報(Sx)を抽出できる。この場合、発話情報取得部12は、例えば、前記発話情報を抽出する抽出部を兼ねてもよい。前記機器は、例えば、対話支援装置1が備えてもよいし、対象者の居住空間に設置されてもよい。後者の場合、対話支援装置1は、例えば、前述のように、これらの外部機器と通信可能であればよい。
記憶判定部13は、前記発話情報が、前記行動情報と一致するか否かを判断して、前記発話情報が一致しない場合、前記対象者が前記対象者の記憶から前記行動情報を引き出すことができないと判定し、前記発話情報が一致する場合、前記対象者が前記対象者の記憶から前記行動情報を引き出すことができると判定する。前記行動情報と前記発話情報とが一致するか否かは、例えば、前記行動情報および前記発話情報とを対比することによって行うことができる。
修正行動情報生成部14は、記憶判定部13が、対象者の記憶から対象者が前記行動情報を引き出すことができないと判定した場合、対象者が実際に行った前記行動情報を、対象者以外の者が行ったという情報に変更した修正行動情報を生成する。前記修正行動情報の生成は、例えば、対象者の行動情報について、その主体を、対象者から対象者以外の者に変更することで生成できる。対象者以外とは、例えば、対話支援装置1でもよいし、介護者でもよいし、仮想の第三者であってもよい。
前記修正行動情報は、後述するように、出力部15から出力するため、例えば、対話型の情報であることが好ましい。前記対話型の情報は、例えば、予め設定した対話ひな型の改変により生成できる。対話支援装置1は、例えば、さらに、記憶部を備え、前記対話ひな型は、前記記憶部に記憶してもよい。
前記修正行動情報の形式は、特に制限されず、例えば、出力部15からの出力形式に応じて適宜選択できる。音声により出力する場合、修正行動情報生成部14は、さらに、音声合成部を兼ね、前記修正行動情報の音声を合成する。文章により出力する場合、修正行動情報生成部14は、さらに、文字合成部を兼ね、前記修正行動情報の文章を合成する。
出力部15は、前記修正行動情報を出力する。出力部15からの前記修正行動情報の出力方式は、例えば、音声の出力でもよいし、文字、画像等の出力でもよい。前者の場合、出力部15は、例えば、スピーカ等の音声発生部であり、また、後者の場合、出力部15は、例えば、ディスプレイ等の表示部である。
記憶判定部13が、対象者の記憶から対象者が前記行動情報を引き出すことができると判定した場合、出力部15は、例えば、対象者が行った行動として、未修正の前記行動情報を出力してもよい。前記未修正の行動情報の出力方式も、特に制限されず、前述と同様である。
図3に、対話支援装置1のハードウエア構成のブロック図を例示する。対話支援装置1は、例えば、CPU(中央処理装置)101、メモリ102、バス103、カメラ104、センサ105、マイク106、入力装置107、スピーカ108、ディスプレイ109、通信デバイス110、記憶装置111等を有する。対話支援装置1の各部は、例えば、それぞれのインターフェイス(I/F)により、バス103を介して、接続されている。前記ハードウエア構成において、内部での回路間の通信は、バス103によって接続される。
CPU101は、対話支援装置1の全体の制御を担う。対話支援装置1において、CPU101により、例えば、本発明のプログラムやその他のプログラムが実行され、また、各種情報の読み込みや書き込みが行われる。具体的に、対話支援装置1は、例えば、CPU101が、判定対象行動設定部10、行動情報取得部11、発話情報取得部12、記憶判定部13、修正行動情報生成部14として機能する。
対話支援装置1は、例えば、外部機器とも接続できる。対話支援装置1は、バス103に接続された通信デバイス110により、通信回線網に接続でき、前記通信回線網を介して、前記外部機器と接続することもできる。前記外部機器は、特に制限されず、例えば、パーソナルコンピュータ(PC)、タブレット、スマートフォン等の外部端末があげられる。対話支援装置1と前記外部機器との接続方式は、特に制限されず、例えば、有線による接続でもよいし、無線による接続でもよい。前記有線による接続は、例えば、コードによる接続でもよいし、通信回線網を利用するためのケーブル等による接続でもよい。前記無線による接続は、例えば、通信回線網を利用した接続でもよいし、無線通信を利用した接続でもよい。前記通信回線網は、特に制限されず、例えば、公知の通信回線網を使用でき、前述と同様である。
メモリ102は、例えば、メインメモリを含み、前記メインメモリは、主記憶装置ともいう。CPU101が処理を行う際には、例えば、後述する補助記憶装置に記憶されている、本発明のプログラム等の種々のプログラムを、メモリ102が読み込み、CPU101は、メモリ102からデータを受け取って、前記プログラムを実行する。前記メインメモリは、例えば、RAM(ランダムアクセスメモリ)である。メモリ102は、例えば、さらに、ROM(読み出し専用メモリ)を含む。
記憶装置111は、例えば、前記メインメモリ(主記憶装置)に対して、いわゆる補助記憶装置ともいう。記憶装置111は、例えば、記憶媒体と、前記記憶媒体に読み書きするドライブとを含む。前記記憶媒体は、特に制限されず、例えば、内蔵型でも外付け型でもよく、HD(ハードディスク)、FD(フロッピー(登録商標)ディスク)、CD−ROM、CD−R、CD−RW、MO、DVD、フラッシュメモリー、メモリーカード等があげられ、前記ドライブは、特に制限されない。記憶装置111は、例えば、記憶媒体とドライブとが一体化されたハードディスクドライブ(HDD)も例示できる。記憶装置111は、例えば、本発明のプログラム等の動作プログラム112が格納され、前述のように、CPU101に動作プログラム112を実行させる際、メモリ102が、記憶装置111から動作プログラム112を読み込む。また、記憶装置111は、例えば、前記記憶部であり、前記対話ひな型等のデータが格納されてもよい。
対話支援装置1は、前述のように、カメラ104、センサ105、マイク106等のデータ収集の機器を備えてもよい。この場合、行動情報取得部11および発話情報取得部12からの制御によって、カメラ104、センサ105、マイク106により、各種データ(画像データ、センシングデータ、音声データ等)が取得される。センサ105は、例えば、対象者の行動を解析可能なデータを取得できるセンサであり、具体例として、モーションセンサ、位置センサ(例えば、グローバル・ポジショニング・システム:GPS)、圧力センサ、または3D距離センサ等があげられる。前記機器により得られる各種データは、例えば、記憶装置111に格納される。
対話支援装置1は、例えば、さらに、入力装置107、スピーカ108、ディスプレイ109を有する。入力装置107は、例えば、タッチパネル等である。スピーカ108は、例えば、前記修正行動情報または未修正の前記行動情報を音声で出力する場合、出力部15となる。ディスプレイ109は、例えば、前記修正行動情報または未修正の前記行動情報を文章等で出力する場合、出力部15となる。ディスプレイ109は、LEDディスプレイ、液晶ディスプレイ等があげられる。スピーカ108およびディスプレイ109は、例えば、対話支援装置1の本体とは独立する端末であってもよく、この場合、前記本体と前記端末とが、通信回線網を介して接続可能であってもよい。前記端末は、例えば、介護者または対象者が携帯する、携帯電話、スマートフォン、ウェアラブル端末等があげられる。
つぎに、本実施形態の対話支援方法について、説明する。本実施形態の対話支援方法は、例えば、図1から図3に示す対話支援装置1を用いて実施できる。なお、本実施形態の対話支援方法は、これらの図面に示す対話支援装置1の使用には限定されない。また、本実施形態の対話支援方法における記載は、前述した対話支援装置1に援用できる。
前記判定対象行動設定工程は、対象者の記憶を判定する対象となる判定対象行動を設定し、例えば、対話支援装置1の判定対象行動設定部10により実行できる。
前記行動情報取得工程は、前記判定対象行動に関する前記対象者の行動情報を取得する工程であり、例えば、対話支援装置1の行動情報取得部11により実行できる。
前記発話情報取得工程は、前記判定対象行動に対する前記対象者の発話情報を取得する工程であり、例えば、対話支援装置1の発話情報取得部12により実行できる。
前記記憶判定工程は、前記発話情報が、前記行動情報と一致するか否かを判断して、前記発話情報が一致しない場合、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができないと判定し、前記発話情報が一致する場合、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができると判定する工程であり、例えば、対話支援装置1の記憶判定部13により実行できる。
前記修正行動情報生成工程は、前記記憶判定工程が、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができないと判定した場合、対象者が実際に行った前記行動情報を、前記対象者以外の者が行ったという情報に変更した修正行動情報を生成する工程であり、例えば、対話支援装置1の修正行動情報生成部14により実行できる。
前記出力工程は、前記修正行動情報を出力する工程であり、例えば、対話支援装置1の出力部15により実行できる。前記出力工程は、例えば、さらに、前記記憶判定工程において、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができると判定した場合、前記対象者が行った行動として、未修正の前記行動情報を出力してもよい。
さらに、本実施形態の対話支援方法について、図4のフローチャートを用いて説明する。また、図5に、対話支援装置1を使用する際の概略を示す。対象者4の居住空間50には、カメラ31、センサ(図示せず)、マイク33等の外部機器3が設置されており、これらの外部機器3と対話支援装置1とは、通信回線網を介して、接続可能である。以下の具体例では、対象者4が、居住空間50のタンス51に、財布を片付けた状態であることを例にあげて説明する。
まず、対象者4と対話支援装置1または介護者との会話等において、対象者4が困っていたり、怒っていたりする対象の行動を、判定対象行動(X)として設定する(S100)。対象者4が、例えば、「財布がどこにあるかわからない」等と発話している場合、「財布の片づけ」または「財布の取扱」等を、判定対象行動(X)に設定できる。判定対象行動(X)は、例えば、後述するように、対話支援装置1により設定してもよいし、介護者が設定して対話支援装置1に入力してもよい。
つぎに、判定対象行動(X)に関する対象者4の行動情報(Ax)を取得する(S101)。行動情報(Ax)の取得方法は、特に制限されず、例えば、前述の通りである。
また、判定対象行動(X)に関する対象者4の発話情報(Sx)を取得する(S102)。発話情報(Sx)の取得方法は、特に制限されず、例えば、前述の通りである。発話情報(Sx)は、例えば、対話支援装置1または介護者が、「財布は片付けた?」、「財布はどこに置いた?」、「財布は自分でタンスに片付けたよね?」という質問を行い、それに対する対象者4の回答の発話から、取得することができる。
前記工程(S101)と(S102)は、例えば、同時に行ってもよいし、別々に行ってもよく、また、後者の場合、その順序は、特に制限されない。
そして、判定対象行動(X)について、対象者4の実際の行動情報(Ax)と発話情報(Sx)とが一致するか否かを判断する(S103)。そして、一致しないと判断した場合(NO)、対象者4の記憶から対象者4が行動情報(Ax)を引き出すことができないと判定する(S104)。行動情報(Ax)と発話情報(Sx)とが一致しない場合とは、例えば、行動情報(Ax)が、「対象者4が、自分で財布をタンスに片付けた」であるのに対して、発話情報(Sx)が、「片付けていない」、「知らない」等の場合である。
このように、実際の行動情報(Ax)と発話情報(Sx)とが食い違う場合、対象者4に、実際に対象者4がどのような行動をとったのかを話しても、対象者4は、その事実を受け入れがたく、ストレスと不安を感じてしまう。そこで、この場合には、対象者4が実際に行った行動情報(Ax)を、対象者4以外の者が行ったという情報に変更した修正行動情報を生成する(S105)。実際の行動情報(Ax)は、「対象者4は、自分で財布をタンスに片付けた」であるため、例えば、「家族のCさんが、財布をタンスに片付けた」、「対話支援装置1が、財布をタンスに片付けた」というように、財布をタンスに片付けたという行為が、対象者4ではなく、その他の者によって行われた行為であるとの内容に修正した、修正行動情報を生成する。
そして、前記修正行動情報を、出力し(S106)、終了する(END)。前記修正行動情報の出力は、例えば、音声でもよいし、文章等の画面への表示でもよい。財布をタンスに片付けたのは、実際には対象者4であるが、それを覚えていない対象者4に対して、「家族のCさんが、財布をタンスに片付けた」、「対話支援装置1が、財布をタンスに片付けた」という前記修正行動情報を出力することによって、対象者4は、まず、財布の所在を知ることができる。さらに、対象者4は、自分の実際の行動を覚えていないことに関して、例えば、介護者との間で話が通じないことにストレスを感じたり、自分の記憶が曖昧であることから混乱したり、不安を感じることも、軽減できる。また、介護者側も、自分の行動を覚えていない対象者4に対して、何度も思い出させるための同じ会話を続けることを防止でき、これによって、対象者4を感情的にさせたり、また、それによって自らが感情的になってストレスを感じることも低減できる。
前記修正行動情報は、前述のように、対話型の情報が好ましい。前記対話型の情報としては、例えば、「家族のCさんが、財布をタンスに片付けたんだ。伝えていなくて、ごめんね。」、「実はボク(対話支援装置1)が片付けたんだ。困らせてごめんね。」等が例示できる。このように、対話型の情報とし、さらに、謝りの言葉等を加えることで、対象者4の心理的なストレスをさらに下げることもできる。このような対話型の情報は、前述のように、例えば、予め設定した対話ひな型を改変することにより生成できる。
一方、判定対象行動(X)について、対象者4の実際の行動情報(Ax)と発話情報(Sx)とが一致すると判断した場合(YES)、対象者4の記憶から対象者4が行動情報(Ax)を引き出すことができると判定する(S107)。行動情報(Ax)と発話情報(Sx)とが一致する場合とは、例えば、行動情報(Ax)が、「対象者4が、自分で財布をタンスに片付けた」であるのに対して、発話情報(Sx)が、「タンスに入れた」等の場合である。この場合、そのまま終了してもよいし(END)、未修正の対象者4が実際に行った行動情報(Ax)を出力してもよい(S108)。
前記実際に行った行動情報(Ax)は、「対象者4は、自分で財布をタンスに片付けた」であるが、前記工程(S106)と同様に、例えば、対話型の情報として出力してもよい。前記対話型の情報としては、例えば、「(対象者4が)自分で財布をタンスに片付けたんだね。偉いね。」、「(対象者4が)自分で財布をタンスに片付けたんだね。教えてくれてありがとう。」等が例示できる。このように、対話型の情報として、さらに、褒める言葉や感謝の言葉等を加えることで、対象者4の気持ちを安心させることもできる。
前記の例では、財布の場所がわからない状態を例にあげて説明したが、これには何ら限定されず、例えば、以下のような場面での利用が例示できる。
(物を取られたとの妄想に対する肩代わり)
対象者が、実際には、居住空間に収容されている自分の所持品について、何者かに盗まれたと妄想する状態が想定される。この場合、本発明を利用することによって、例えば、以下のような会話が可能になる。
会話1(対象者):通帳がない。盗まれた。
会話2(装置1):引き出しにあるよ。
会話3(対象者):本当だ。引き出しにあった。誰がこんなところに置いたんだ。
会話4(装置1):自分で片付けたんじゃないの?
会話5(対象者):片付けてないよ。
会話6(装置1):実は、ボクがさっき引き出しに片付けたんだ。ごめんね。
会話7(対象者):君が片付けたのか。仕方ないな。
会話1から3より、対象者と装置1との間の会話の辻褄があっていないことから、前記工程(S100)において、判定対象行動(X)として、「通帳の片づけ」が設定される。一方、前記工程(S101)において、「通帳の片付け」に関する対象者の行動情報(Ax)として、「対象者が通帳を引き出しにしまった」という情報が取得されたとする。この場合、対話支援装置1は、判定対象行動(X)に対する対象者の発話情報(Sx)を取得するために、質問形式の会話4を出力する。そして、対象者による回答の会話5により、判定対象行動(X)に対する発話情報(Sx)を取得する(S102)。行動情報(Ax)と発話情報(Sx)とが一致するか否かを判断すると(S103)、一致していないため(NO)、対象者の記憶から対象者が行動情報(Ax)を引き出すことができないと判定する(S104)。
そして、実際には、対象者が通帳を引き出しにしまっているが、対象者が実際に行った行動情報(Ax)を、対象者以外の者(対話支援装置1)が行ったという情報に変更した修正行動情報を生成し(S105)、会話6として出力する(S106)。このように、実際には、対象者が行った行動ではあるが、記憶が欠落していることから、対話支援装置1が行った行動として会話6を出力することによって、対象者は、通帳を片付けたのが誰であるかという点について、疑問や不安を回避でき、結果として、会話7のように納得することが可能になる。
(同じことを言って介護者から怒られることへのフォロー)
対象者が、何回も同じことを言って、介護者から怒られる状態が想定される。この場合、本発明を利用することによって、例えば、以下のような会話が可能になる。下記例では、対象者と対話支援装置1との対話を例にあげる。
会話1(対象者):〇〇の予定は、いつだった?
会話2(介護者):何度もその質問をしてるよ!
会話3(装置1):何度も同じ質問をしたの?
会話4(対象者):してないよ。
会話5(装置1):実は、ボクが同じ質問を何度もしたんだよ。キミが怒られてごめんね。
会話6(対象者):キミのせいだったのか。仕方ないな。
会話1および2より、対象者が介護者に対して、何度も同じ質問を行い、介護者がそれに対して怒ってしまったことから、前記工程(S100)において、判定対象行動(X)として、「同じ質問の繰り返し」が設定される。一方、前記工程(S101)において、対象者の行動情報(Ax)として、「対象者が同じ質問を繰り返している」という情報が取得されたとする。この場合、対話支援装置1は、判定対象行動(X)に対する対象者の発話情報(Sx)を取得するために、質問形式の会話3を出力する。そして、対象者による回答の会話4により、判定対象行動(X)に対する発話情報(Sx)を取得する(S102)。行動情報(Ax)と発話情報(Sx)とが一致するか否かを判断すると(S103)、一致していないため(NO)、対象者の記憶から対象者が行動情報(Ax)を引き出すことができないと判定する(S104)。
そして、実際には、対象者が何度も同じ質問をしているが、対象者が実際に行った行動情報(Ax)を、対象者以外の者(対話支援装置1)が行ったという情報に変更した修正行動情報を生成し(S105)、会話5として出力する(S106)。このように、実際には、対象者が行った行動ではあるが、記憶が欠落していることから、対話支援装置1が行った行動として会話5を出力することによって、対象者は、なぜ介護者に怒られたのかわからないという疑問や不安を払拭でき、結果として、会話6のように納得することが可能になる。
[実施形態2]
本実施形態は、前記判定対象行動の設定に関する具体例について、図を用いて説明する。なお、特に示さない限り、実施形態1の記載を援用できる。また、前述の各図と同じ箇所には、同じ符号を付している。
図6は、本実施形態の対話支援装置の一例を示すブロック図である。対話支援装置6は、前記実施形態1の対話支援装置1の構成に加えて、さらに、記憶部60、発話情報抽出部61、行動抽出部62を有する。
記憶部60は、対象者の行動情報群(An)、および、対象者の発話情報群(Sn)の少なくとも一方を記憶する。記憶部60に蓄積される行動情報群(An)および発話情報群(Sn)は、例えば、後述するように、行動情報取得部11において、対象者の判定対象行動に対する行動情報の取得において利用される。このため、行動情報群(An)および発話情報群(Sn)は、例えば、経時的に記憶部60において蓄積しておくことが好ましい。記憶部60には、例えば、前記実施形態1と同様に、さらに、対話ひな型が記憶されてもよい。
行動情報群(An)は、対象者の行動(N)に関する行動情報であればよく、行動(N)の種類および数は、何ら制限されない。様々な行動(N)に関する行動情報群(An)は、例えば、前記実施形態1に示すような各種機器(例えば、カメラ、センサ、マイク等の機器)から得ることができる。前記機器は、前述のように、対話支援装置6が有してもよいし、対話支援装置6とは別の外部機器でもよく、後者の場合、例えば、対話支援装置6と前記機器とは、有線または無線により、接続可能である。
発話情報群(Sn)は、対象者の発話情報であればよく、発話情報群(Sn)に含まれる各発話情報において、発話の対象となる行動の種類および数は、何ら制限されない。発話情報群(Sn)は、例えば、前記マイク等の機器から得ることができる。
発話情報抽出部61は、発話情報群(Sn)から、行動に関するネガティブな発話情報を抽出する。発話情報群(Sn)からのネガティブな発話情報の抽出方法は、特に制限されず、例えば、音声解析により行うことができる。具体的には、例えば、前述のように、音声データをテキスト化し、得られたテキストデータについて、予め設定したネガティブワードの出現を分析することによって、前記ネガティブな発話情報を抽出できる。
行動抽出部62は、前記ネガティブな発話情報から、対象となる行動を抽出する。前記抽出した行動は、前述した判定対象行動設定部10において、前記判定対象行動として設定される。前記発話情報からの行動の抽出方法は、特に制限されず、前述のように、例えば、音声解析により行うことができる。
そして、行動情報取得部11は、記憶された前記行動情報群(An)および前記発話情報群(Sn)の少なくとも一方から、前記判定対象行動に対する前記対象者の行動情報を取得する。前述のように、記憶部60には、例えば、経時的に、対象者の複数の行動情報および複数の発話情報が蓄積されている。このため、例えば、対象者が、前記ネガティブな発話情報を発した時点よりも前における前記行動情報や前記発話情報から、前記判定対象行動に対する前記対象者の行動情報を取得することができる。
発話情報抽出部61および行動抽出部62は、例えば、CPUにより実行できる。記憶部60は、例えば、前記実施形態1で例示した記憶装置があげられる。
つぎに、本実施形態の対話支援方法について、説明する。本実施形態の対話支援方法は、例えば、図6に示す対話支援装置6を用いて実施できる。なお、本実施形態の対話支援方法は、この図面に示す対話支援装置6の使用には限定されない。また、本実施形態は、特に示さない限り、前記実施形態1と同様である。
前記判定対象行動設定工程は、対象者の記憶を判定する対象となる判定対象行動を設定し、例えば、対話支援装置6の判定対象行動設定部10により実行できる。
前記記憶工程は、対象者の行動情報群(An)、および、対象者の発話情報群(Sn)を記憶する工程であり、例えば、対話支援装置6の記憶部60により実行できる。
前記発話情報抽出工程は、前記発話情報群(Sn)から、行動に関するネガティブな発話情報を抽出する工程であり、例えば、対話支援装置6の発話情報抽出部61により実行できる。
前記行動抽出工程は、前記ネガティブな発話情報から、対象となる行動を抽出する工程であり、例えば、対話支援装置6の行動抽出部62により実行できる。
前記判定対象行動設定工程は、前記行動抽出工程において抽出した行動を、前記判定対象行動として設定する工程であり、例えば、対話支援装置6の判定対象行動設定部10により実行でき、前記行動情報取得工程は、記憶された前記行動情報群(An)および前記発話情報群(Sn)の少なくとも一方から、前記判定対象行動に対する前記対象者の行動情報を取得する工程であり、例えば、対話支援装置6の行動情報取得部11により実行できる。
さらに、本実施形態の対話支援方法について、図7のフローチャートを用いて説明する。特に示さない限りは、前記実施形態1の例示と同様である。
まず、対象者の行動情報群(An)および発話情報群(Sn)を記憶する(S600)。そして、発話情報群(Sn)から、ネガティブな発話情報を抽出する(S601)。ネガティブな発話情報とは、例えば、前記実施形態1で例示したような、「財布がどこにあるかわからない」等の発話情報である。そして、抽出したネガティブな発話情報から、その対象となる行動(X)を抽出する(S602)。「財布がどこにあるかわからない」等の発話情報の場合、例えば、「財布の片づけ」または「財布の取扱」等が行動(X)として抽出できる。この行動(X)を、判定対象行動(X)として設定する(S603)。前記工程(S603)は、前記実施形態1における前記工程(S100)に対応する。
そして、記憶された行動情報群(An)および発話情報群(Sn)の少なくとも一方から、判定対象行動(X)に対する対象者の行動情報(Ax)を取得する(S604)。前記工程(S604)は、前記実施形態1における前記工程(S101)に対応する。例えば、発話情報群(Sn)に、判定対象行動(X)よりも前の発話情報として、「財布を自分でタンスに片付けた」等が含まれる場合、これを判定対象行動(X)に対する対象者の行動情報(Ax)として取得できる。また、これには限られず、行動情報群(An)に含まれる行動情報から、判定対象行動(X)に関する対象者の行動情報(Ax)を取得してもよい。
前記工程(S604)以降は、前記実施形態1における前記工程(S103)に続く。また、前記工程(S603)の後の工程(S102)は、前記実施形態1と同じであり、それ以降は、前記実施形態1における前記工程(S103)に続く。
[実施形態3]
本実施形態のプログラムは、前記各実施形態の対話支援方法を、コンピュータ上で実行可能なプログラムである。または、本実施形態のプログラムは、例えば、コンピュータ読み取り可能な記録媒体に記録されてもよい。前記記録媒体としては、特に限定されず、例えば、前述のような記憶媒体等があげられる。
以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2018年3月22日に出願された日本出願特願2018−054665を基礎とする優先権を主張し、その開示の全てをここに取り込む。
<付記>
上記の実施形態および実施例の一部または全部は、以下の付記のように記載されうるが、以下には限られない。
(付記1)
判定対象行動設定部、行動情報取得部、発話情報取得部、記憶判定部、修正行動情報生成部、および出力部を含み、
前記判定対象行動設定部は、対象者の記憶を判定する対象となる判定対象行動を設定し、
前記行動情報取得部は、前記判定対象行動に関する前記対象者の行動情報を取得し、
前記発話情報取得部は、前記判定対象行動に対する前記対象者の発話情報を取得し、
前記記憶判定部は、前記発話情報が、前記行動情報と一致するか否かを判断して、前記発話情報が一致しない場合、前記対象者が前記対象者の記憶から前記行動情報を引き出すことができないと判定し、前記発話情報が一致する場合、前記対象者が前記対象者の記憶から前記行動情報を引き出すことができると判定し、
前記記憶判定部が、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができないと判定した場合、
前記修正行動情報生成部は、前記対象者が行った前記行動情報を、前記対象者以外の者が行ったという情報に変更した修正行動情報を生成し、
前記出力部は、前記修正行動情報を出力する
ことを特徴とする記憶障がい者との対話支援装置。
(付記2)
前記記憶判定部が、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができると判定した場合、
前記出力部は、前記対象者が行った行動として未修正の前記行動情報を出力する、付記1に記載の対話支援装置。
(付記3)
前記出力部は、音声発生部であり、前記修正行動情報または未修正の前記行動情報を示す音声を発生する、付記1または2に記載の対話支援装置。
(付記4)
前記出力部は、表示部であり、前記修正行動情報または未修正の前記行動情報を表示する、付記1から3のいずれかに記載の対話支援装置。
(付記5)
さらに、記憶部、発話情報抽出部、および行動抽出部を有し、
前記記憶部は、対象者の行動情報群、および、対象者の発話情報群の少なくとも一方を記憶し、
前記発話情報抽出部は、前記発話情報群から、行動に関するネガティブな発話情報を抽出し、
前記行動抽出部は、前記ネガティブな発話情報から、対象となる行動を抽出し、
前記判定対象行動設定部は、前記行動抽出部において抽出した行動を、前記判定対象行動として設定し、
前記行動情報取得部は、記憶された前記行動情報群および前記発話情報群の少なくとも一方から、前記判定対象行動に対する前記対象者の行動情報を取得する、
付記1から4のいずれかに記載の対話支援装置。
(付記6)
前記行動情報が、前記対象者を撮像した撮像データ、前記対象者をセンシングしたセンシングデータ、および前記対象者の発話の音声データからなる群から選択された少なくとも一つに基づく行動情報である、付記1から5のいずれかに記載の対話支援装置。
(付記7)
対話型装置である、付記1から6のいずれかに記載の対話支援装置。
(付記8)
判定対象行動設定工程、行動情報取得工程、発話情報取得工程、記憶判定工程、修正行動情報生成工程、および出力工程を含み、
前記判定対象行動設定工程は、対象者の記憶を判定する対象となる判定対象行動を設定し、
前記行動情報取得工程は、前記判定対象行動に関する前記対象者の行動情報を取得し、
前記発話情報取得工程は、前記判定対象行動に対する前記対象者の発話情報を取得し、
前記記憶判定工程は、前記発話情報が、前記行動情報と一致するか否かを判断して、前記発話情報が一致しない場合、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができないと判定し、前記発話情報が一致する場合、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができると判定し、
前記記憶判定工程が、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができないと判定した場合、
前記修正行動情報生成工程は、前記対象者が行った前記行動情報を、前記対象者以外の者が行ったという情報に変更した修正行動情報を生成し、
前記出力工程は、前記修正行動情報を出力する
ことを特徴とする記憶障がい者との対話支援方法。
(付記9)
前記記憶判定工程において、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができると判定した場合、
前記出力工程は、前記対象者が行った行動として前記行動情報を出力する、付記8に記載の対話支援方法。
(付記10)
前記出力工程において、前記修正行動情報または未修正の前記行動情報を示す音声を発生する、付記8または9に記載の対話支援方法。
(付記11)
前記出力工程において、前記修正行動情報または未修正の前記行動情報をディスプレイに表示する、付記8から10のいずれかに記載の対話支援方法。
(付記12)
さらに、記憶工程、発話情報抽出工程、および行動抽出工程を有し、
前記記憶工程は、対象者の行動情報群、および、対象者の発話情報群を記憶し、
前記発話情報抽出工程は、前記発話情報群から、行動に関するネガティブな発話情報を抽出し、
前記行動抽出工程は、前記ネガティブな発話情報から、対象となる行動を抽出し、
前記判定対象行動設定工程は、前記行動抽出工程において抽出した行動を、前記判定対象行動として設定し、
前記行動情報取得工程は、記憶された前記行動情報群および前記発話情報群の少なくとも一方から、前記判定対象行動に対する前記対象者の行動情報を取得する、付記8から11のいずれかに記載の対話支援方法。
(付記13)
前記行動情報が、前記対象者を撮像した撮像データ、前記対象者をセンシングしたセンシングデータ、および前記対象者の発話の音声データからなる群から選択された少なくとも一つに基づく行動情報である、付記8から12のいずれかに記載の対話支援方法。
(付記14)
付記1から7のいずれかに記載の対話支援装置を使用する、付記8から13のいずれかに記載の対話支援方法。
(付記15)
付記8から14のいずれかに記載の対話支援方法をコンピュータに実行させることを特徴とするプログラム。
(付記16)
付記15に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
本発明によれば、ユーザの行動情報と、その行動に対するユーザの発話情報とから、ユーザが、自分の記憶から自らの行動を引き出すことができるか否かを判定し、引き出すことができないと判定した場合には、ユーザが行った行動について、ユーザ以外が行った行動に変更する修正行動情報を生成し、それが出力される。記憶障がい者は、自らの行動を第三者から伝えられても、忘却している場合、その事実を受け入れることができず、話が堂々巡りとなり、記憶障がい者本人も、周囲の対応相手も、その会話にストレスと不安を感じる。しかし、本発明によれば、記憶障がい者本人が覚えていない場合には、実際の行動(例えば、記憶障がい者がタンスに財布をしまったという行動)を、第三者が行った行動(例えば、家族がタンスに財布をしまったという行動)として、出力する。この出力内容によれば、記憶障がい者は、例えば、財布がタンスにしまわれていることを知ることができ、且つ、自分の行動と自らの記憶との辻褄があわないことによる不安やストレスを感じることも防止できる。また、対応相手も、この出力内容により、記憶障がい者に、例えば、財布の所在地を知らせることができ、且つ、記憶障がい者に実際の行動を思い出してもらえないことの不安やストレスを回避できる。年々、認知症患者をはじめとする記憶障がい者の数は増加しており、それを支える介護者の不足から、両者が抱えるストレスは、大きな問題となっている。このため、本発明は、記憶障がい者との会話がスムーズに進むよう支援できることから、介護の分野において、極めて有用である。
1、6 対話支援装置
4 対象者
10 判定対象行動設定部
11 行動情報取得部
12 発話情報取得部
13 記憶判定部
14 修正行動情報生成部
15 出力部
2 通信回線網
3 外部機器
31、104 カメラ
32、105 センサ
33、106 マイク
50 居住空間
51 タンス
101 CPU
102 メモリ
103 バス
107 入力装置
108 スピーカ
109 ディスプレイ
110 通信デバイス
111 記憶装置
112 プログラム

Claims (16)

  1. 判定対象行動設定部、行動情報取得部、発話情報取得部、記憶判定部、修正行動情報生成部、および出力部を含み、
    前記判定対象行動設定部は、対象者の記憶を判定する対象となる判定対象行動を設定し、
    前記行動情報取得部は、前記判定対象行動に関する前記対象者の行動情報を取得し、
    前記発話情報取得部は、前記判定対象行動に対する前記対象者の発話情報を取得し、
    前記記憶判定部は、前記発話情報が、前記行動情報と一致するか否かを判断して、前記発話情報が一致しない場合、前記対象者が前記対象者の記憶から前記行動情報を引き出すことができないと判定し、前記発話情報が一致する場合、前記対象者が前記対象者の記憶から前記行動情報を引き出すことができると判定し、
    前記記憶判定部が、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができないと判定した場合、
    前記修正行動情報生成部は、前記対象者が行った前記行動情報を、前記対象者以外の者が行ったという情報に変更した修正行動情報を生成し、
    前記出力部は、前記修正行動情報を出力する
    ことを特徴とする記憶障がい者との対話支援装置。
  2. 前記記憶判定部が、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができると判定した場合、
    前記出力部は、前記対象者が行った行動として未修正の前記行動情報を出力する、請求項1に記載の対話支援装置。
  3. 前記出力部は、音声発生部であり、前記修正行動情報または未修正の前記行動情報を示す音声を発生する、請求項1または2に記載の対話支援装置。
  4. 前記出力部は、表示部であり、前記修正行動情報または未修正の前記行動情報を表示する、請求項1から3のいずれか一項に記載の対話支援装置。
  5. さらに、記憶部、発話情報抽出部、および行動抽出部を有し、
    前記記憶部は、対象者の行動情報群、および、対象者の発話情報群の少なくとも一方を記憶し、
    前記発話情報抽出部は、前記発話情報群から、行動に関するネガティブな発話情報を抽出し、
    前記行動抽出部は、前記ネガティブな発話情報から、対象となる行動を抽出し、
    前記判定対象行動設定部は、前記行動抽出部において抽出した行動を、前記判定対象行動として設定し、
    前記行動情報取得部は、記憶された前記行動情報群および前記発話情報群の少なくとも一方から、前記判定対象行動に対する前記対象者の行動情報を取得する、
    請求項1から4のいずれか一項に記載の対話支援装置。
  6. 前記行動情報が、前記対象者を撮像した撮像データ、前記対象者をセンシングしたセンシングデータ、および前記対象者の発話の音声データからなる群から選択された少なくとも一つに基づく行動情報である、請求項1から5のいずれか一項に記載の対話支援装置。
  7. 対話型装置である、請求項1から6のいずれか一項に記載の対話支援装置。
  8. 判定対象行動設定工程、行動情報取得工程、発話情報取得工程、記憶判定工程、修正行動情報生成工程、および出力工程を含み、
    前記判定対象行動設定工程は、対象者の記憶を判定する対象となる判定対象行動を設定し、
    前記行動情報取得工程は、前記判定対象行動に関する前記対象者の行動情報を取得し、
    前記発話情報取得工程は、前記判定対象行動に対する前記対象者の発話情報を取得し、
    前記記憶判定工程は、前記発話情報が、前記行動情報と一致するか否かを判断して、前記発話情報が一致しない場合、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができないと判定し、前記発話情報が一致する場合、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができると判定し、
    前記記憶判定工程が、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができないと判定した場合、
    前記修正行動情報生成工程は、前記対象者が行った前記行動情報を、前記対象者以外の者が行ったという情報に変更した修正行動情報を生成し、
    前記出力工程は、前記修正行動情報を出力する
    ことを特徴とする記憶障がい者との対話支援方法。
  9. 前記記憶判定工程において、前記対象者の記憶から前記対象者が前記行動情報を引き出すことができると判定した場合、
    前記出力工程は、前記対象者が行った行動として前記行動情報を出力する、請求項8に記載の対話支援方法。
  10. 前記出力工程において、前記修正行動情報または未修正の前記行動情報を示す音声を発生する、請求項8または9に記載の対話支援方法。
  11. 前記出力工程において、前記修正行動情報または未修正の前記行動情報をディスプレイに表示する、請求項8から10のいずれか一項に記載の対話支援方法。
  12. さらに、記憶工程、発話情報抽出工程、および行動抽出工程を有し、
    前記記憶工程は、対象者の行動情報群、および、対象者の発話情報群を記憶し、
    前記発話情報抽出工程は、前記発話情報群から、行動に関するネガティブな発話情報を抽出し、
    前記行動抽出工程は、前記ネガティブな発話情報から、対象となる行動を抽出し、
    前記判定対象行動設定工程は、前記行動抽出工程において抽出した行動を、前記判定対象行動として設定し、
    前記行動情報取得工程は、記憶された前記行動情報群および前記発話情報群の少なくとも一方から、前記判定対象行動に対する前記対象者の行動情報を取得する、請求項8から11のいずれか一項に記載の対話支援方法。
  13. 前記行動情報が、前記対象者を撮像した撮像データ、前記対象者をセンシングしたセンシングデータ、および前記対象者の発話の音声データからなる群から選択された少なくとも一つに基づく行動情報である、請求項8から12のいずれか一項に記載の対話支援方法。
  14. 請求項1から7のいずれか一項に記載の対話支援装置を使用する、請求項8から13のいずれか一項に記載の対話支援方法。
  15. 請求項8から14のいずれか一項に記載の対話支援方法をコンピュータに実行させることを特徴とするプログラム。
  16. 請求項15に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2020507308A 2018-03-22 2018-09-18 対話支援装置、対話支援方法、およびプログラム Active JP7010544B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018054665 2018-03-22
JP2018054665 2018-03-22
PCT/JP2018/034340 WO2019181008A1 (ja) 2018-03-22 2018-09-18 対話支援装置、対話支援方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2019181008A1 true JPWO2019181008A1 (ja) 2020-12-03
JP7010544B2 JP7010544B2 (ja) 2022-01-26

Family

ID=67988334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020507308A Active JP7010544B2 (ja) 2018-03-22 2018-09-18 対話支援装置、対話支援方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP7010544B2 (ja)
WO (1) WO2019181008A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7347794B2 (ja) 2019-11-29 2023-09-20 Necソリューションイノベータ株式会社 対話型情報取得装置、対話型情報取得方法、及びプログラム
JP2024014213A (ja) * 2022-07-22 2024-02-01 誠心堂株式会社 頭部装着型ウェアラブル端末を使用した介護者支援システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184597A (ja) * 2014-03-25 2015-10-22 国立大学法人埼玉大学 コミュニケーション支援ロボットシステム
WO2017051601A1 (ja) * 2015-09-24 2017-03-30 シャープ株式会社 対話システム、端末、対話を制御する方法、およびコンピュータを対話システムとして機能させるためのプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184597A (ja) * 2014-03-25 2015-10-22 国立大学法人埼玉大学 コミュニケーション支援ロボットシステム
WO2017051601A1 (ja) * 2015-09-24 2017-03-30 シャープ株式会社 対話システム、端末、対話を制御する方法、およびコンピュータを対話システムとして機能させるためのプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
榊原誠司 他: ""在宅認知症者の日常カウンセリングシステムのための個人向け話題生成"", 電子情報通信学会技術研究報告, vol. 116, no. 488, JPN6021024335, 23 February 2017 (2017-02-23), pages 35 - 40, ISSN: 0004538717 *

Also Published As

Publication number Publication date
WO2019181008A1 (ja) 2019-09-26
JP7010544B2 (ja) 2022-01-26

Similar Documents

Publication Publication Date Title
US11301680B2 (en) Computing device for enhancing communications
US9858924B2 (en) Voice processing apparatus and voice processing method
US10504379B2 (en) System and method for generating an adaptive embodied conversational agent configured to provide interactive virtual coaching to a subject
JP2004310034A (ja) 対話エージェントシステム
US11751813B2 (en) System, method and computer program product for detecting a mobile phone user's risky medical condition
US20170344713A1 (en) Device, system and method for assessing information needs of a person
Do et al. Clinical screening interview using a social robot for geriatric care
JP7010544B2 (ja) 対話支援装置、対話支援方法、およびプログラム
JP2010094243A (ja) 自動問診システム
CN109698021A (zh) 用于运行医学图像采集设备的方法和图像采集设备
KR20210100831A (ko) 인공지능 기반 수어통역 서비스 제공 시스템 및 방법
JP6369907B2 (ja) ソーシャルタッチ制御装置
KR20210100832A (ko) 사용자의 감정상태를 판단하는 인공지능 기반 수어통역 서비스 제공 시스템 및 방법
JP2021081977A (ja) 診療支援システム
JP2020177383A (ja) 高齢者等見守システム
US20240008766A1 (en) System, method and computer program product for processing a mobile phone user's condition
US20220139562A1 (en) Use of virtual agent to assess psychological and medical conditions
JP2000194252A (ja) 理想行動支援装置及びその方法及びそのシステム並びに記憶媒体
Rita et al. BlueEyes: A pilot project and a new way to see the world.
JP2024060391A (ja) 問診装置、問診システム及び問診方法
JP2023172480A (ja) 医療従事者の業務特定装置および判定モデル生成方法
JP2023169448A (ja) 生活を支援する方法、装置、システム、及びプログラム
JP2021051424A (ja) 情報処理システム
JP2019192071A (ja) 支援システム及び支援方法
Series et al. Noise in Voice

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220106

R150 Certificate of patent or registration of utility model

Ref document number: 7010544

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150