WO2017168907A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2017168907A1
WO2017168907A1 PCT/JP2016/089131 JP2016089131W WO2017168907A1 WO 2017168907 A1 WO2017168907 A1 WO 2017168907A1 JP 2016089131 W JP2016089131 W JP 2016089131W WO 2017168907 A1 WO2017168907 A1 WO 2017168907A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
information processing
processing apparatus
unit
Prior art date
Application number
PCT/JP2016/089131
Other languages
English (en)
French (fr)
Inventor
康治 浅野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/088,202 priority Critical patent/US20200297264A1/en
Priority to EP16897122.4A priority patent/EP3437567A4/en
Publication of WO2017168907A1 publication Critical patent/WO2017168907A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • a processor obtains a response of the user to a question regarding personal information or behavior information of the user, determines whether the response is correct, and associates the question, the response, and the determination result. Proposing an information processing method including storing in a storage unit.
  • the information processing apparatus 1 may have an image output unit 14 and can display image information when replying.
  • the voice recognition unit 11 performs voice recognition on the voice signal output from the voice input unit 10 and converts the user's uttered voice into text.
  • the utterance data converted into text is output to the control unit 12.
  • the user related information acquisition unit 126 can acquire information on the user's whereabouts from information on the position sensor of the user terminal or wearable device. Specifically, the user-related information acquisition unit 126 can know the location where the user is based on the latitude / longitude information obtained from the position sensor and the location information obtained from the GIS (Geographic Information Information Systems) service, The information is registered in the user related information storage unit 125.
  • a position sensor mounted on a user terminal or a wearable device is realized by, for example, a GPS (Global Positioning System) positioning unit, receives a radio wave from a GPS satellite, and detects a position where the device exists. In addition to GPS, the position sensor detects the position by, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), transmission / reception with a mobile phone / PHS / smartphone, or short distance communication. Also good.
  • FIG. 8 is a flowchart showing the dialogue processing according to this embodiment.
  • the interactive processing according to the present embodiment is executed by a system (application program) that is activated by the information processing apparatus 1.
  • step S124 If user related information is included (step S124 / Yes), the user utterance content determination unit 122 registers the user related information in the user related information storage unit 125 (step S127).
  • the present embodiment has been described centering on voice-user interaction with the system, it is not limited to that.
  • it can be realized by using a display with a touch panel, or by using an input by a display and a keyboard.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Neurology (AREA)
  • Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Educational Administration (AREA)
  • Physiology (AREA)
  • Social Psychology (AREA)
  • Neurosurgery (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Emergency Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザとの自然なインタラクションを通じてユーザの脳機能の状態を把握することが可能な情報処理装置、情報処理方法、およびプログラムを提供する。 【解決手段】ユーザの個人情報または行動情報に関する質問に対する前記ユーザの応答を取得する取得部と、前記応答の正誤を判定する判定部と、前記質問、応答、および判定結果を関連付けて記憶する記憶部と、を備える、情報処理装置。

Description

情報処理装置、情報処理方法、およびプログラム
 本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
 少子高齢化という社会状況を反映して、近年、一人暮らしをする高齢者(独居高齢者)が増加している。それに伴い、遠隔地に住む子供等の親族が独居高齢者の安否や健康状態を確認したいというニーズが増えている。
 このようなニーズに対して、IT機器等を利用して独居高齢者を見守るサービスが提供されている。例えば、高齢者が無線型のボタンを携帯し、ボタンが押されると契約しているセキュリティ会社から要員が駆けつけるといったサービスや、高齢者が電気ポットを利用するとその利用履歴が親族のもとにメールで配信されるといったサービスが実用化されている。
 さらに、下記特許文献1では、高齢者の行動、体調、状況、要求に対応するボタンを配したタッチパネルディスプレイを用意し、高齢者が自分でボタン押すことに加えて、配食サービスと連携して配食依頼を受け付けたり、配食のために訪問した訪問員がタッチパネルを操作することによる安否確認サービスが開示されている。
特開2015-146085号公報
 上記のようなユーザとの単純なインタラクションでは、ユーザの安否や肉体的な健康状態を把握することはある程度可能であるが、ユーザの認知機能に関する状態、すなわち認知症の兆候を早期に発見するといったことは困難である。
 厚生労働省によると、認知症の対策としては早期発見が重要であり、距離や忙しさのせいで親族がたまにしか独居高齢者とインタラクションする機会がない場合には、認知症の発見が遅れ、病気が進行してしまう可能性がある。その一方で、http://test.ninchishouyobou-k.com/ 等に掲載されているような認知症のためのテストを行うと、独居高齢者の自尊心(プライド)を傷つける場合がある。
 そこで、本開示では、自然なユーザとのインタラクションを通じてユーザの脳機能の状態を把握することが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
 本開示によれば、ユーザの個人情報または行動情報に関する質問に対する前記ユーザの応答を取得する取得部と、前記応答の正誤を判定する判定部と、前記質問、応答、および判定結果を関連付けて記憶する記憶部と、を備える、情報処理装置を提案する。
 本開示によれば、プロセッサが、ユーザの個人情報または行動情報に関する質問に対する前記ユーザの応答を取得することと、前記応答の正誤を判定することと、前記質問、応答、および判定結果を関連付けて記憶部に記憶することと、を含む、情報処理方法を提案する。
 本開示によれば、コンピュータを、ユーザの個人情報または行動情報に関する質問に対する前記ユーザの応答を取得する取得部と、前記応答の正誤を判定する判定部と、前記質問、応答、および判定結果を関連付けて記憶する記憶部と、として機能させるための、プログラムを提案する。
 以上説明したように本開示によれば、自然なユーザとのインタラクションを通じてユーザの脳機能の状態を把握することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態による情報処理装置の概要を説明する図である。 本実施形態による情報処理装置の構成の一例を示すブロック図である。 本実施形態による制御部の機能構成例を示す図である。 本実施形態による対話データ記憶部に格納されているデータの一例を示す図である。 本実施形態によるユーザ関連情報記憶部に記憶されるデータの一例を示す図である。 本実施形態によるユーザとの対話からユーザ関連情報を取得する場合について説明する図である。 本実施形態による発話情報記憶部に記憶されるデータの一例を示す図である。 本実施形態による対話処理を示すフローチャートである。 本実施形態による対話の一例を示す図である。 本実施形態によるユーザ発話に対する正誤判定の一例を示す図である。 本実施形態によるアラート判定処理を示すフローチャートである。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理装置の概要
 2.情報処理装置の構成
 3.動作処理
  3-1.対話処理
  3-2.アラート判定処理
 4.まとめ
 <<1.本開示の一実施形態による情報処理装置の概要>>
 まず、本開示の一実施形態による情報処理装置の概要について説明する。図1は、本実施形態による情報処理装置1の概要を説明する図である。図1に示すように、本実施形態による情報処理装置1は、音声入力部10(例えばマイクアレイ)および音声出力部16を有し、ユーザとの音声対話を実現するエージェント機能を有する。情報処理装置1は、ユーザの発話音声を音声入力部10により取得し、音声認識および意味解析を行い、ユーザの発話に対する応答情報を生成し、音声出力部16からユーザに対して発話(返答)する。例えば明日の天気の問い合わせを受けた場合、情報処理装置1はネットワークを経由して天気情報サービスにアクセスし、明日の天気情報を取得し、ユーザに伝える。
 さらに、情報処理装置1は画像出力部14を有していてもよく、返答する際に画像情報を表示することが可能である。
 情報処理装置1は、図1に示すような据え置き型のホームエージェント装置であってもよいし、自走型のホームエージェント装置(例えばロボット)であってもよい。また、情報処理装置1は、スマートフォン、タブレット端末、携帯電話端末、ウェアラブル端末等のモバイル端末であってもよいし、パーソナルコンピュータ、ゲーム機、音楽プレイヤー等の装置であってもよい。
 上述したように、一人暮らしをする高齢者(独居高齢者)が増加している昨今において、遠隔地に住む子供等の親族が独居高齢者の安否や健康状態を確認したいというニーズが増えてきている。従来からのユーザ(高齢者)との単純なインタラクションに基づく安否確認では、ユーザの脳機能に関する状態、具体的には認知症の兆候を早期に発見するといったことは困難であった。認知症の対策としては早期発見が重要であり、親族と離れて暮らす独居高齢者は認知症の発見が遅れ、病気が進行してしまう可能性がある。
 そこで、本実施形態による情報処理装置1は、ユーザとの自然なインタラクション(対話)を通じてユーザの脳機能の状態を把握することを可能とする。具体的には、例えば情報処理装置1は、ユーザとの間のインタラクションにおいて、ユーザに関連する情報を確認するための質問を対話の中に含め、質問に対するユーザの応答が正しかったか否かを確認することで、ユーザの認知症の早期発見を実現する。ユーザに関連する情報は、普段のユーザとの対話内容や、外部装置若しくはネットワークから受信する種々の情報(センサデータ、撮像画像、移動履歴、購買履歴、ネットワーク利用履歴、SNS投稿履歴、視聴履歴、デバイス操作履歴等)から取得し得る。
 以上、本実施形態による情報処理装置1の概要について説明した。続いて、本実施形態による情報処理装置1の構成について図2を参照して説明する。
 <<2.構成>>
 図2は、本実施形態による情報処理装置1の構成の一例を示すブロック図である。図2に示すように、情報処理装置1は、音声入力部10、音声認識部11、制御部12、通信部13、画像出力部14、音声合成部15、および音声出力部16を有する。
 音声入力部10は、ユーザ音声や周辺の環境音を収音し、音声信号を音声認識部11に出力する。具体的には、音声入力部10は、マイクロホンおよびアンプ等により実現される。また、音声入力部10は、複数のマイクロホンから成るマイクアレイにより実現されてもよい。
 音声認識部11は、音声入力部10から出力された音声信号に対して音声認識を行い、ユーザの発話音声をテキスト化する。テキスト化した発話データは、制御部12に出力される。
 制御部12は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置1内の動作全般を制御する。制御部12は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部12は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 また、本実施形態による制御部12は、音声認識部11から出力されたユーザ発話データ(テキスト情報)に対して応答する発話情報や、自発的な発話情報を生成する。制御部12は、生成した発話情報を画像出力部14または音声合成部15に出力する。制御部12の詳細な構成については図3を参照して後述する。
 通信部13は、有線/無線により他の装置との間でデータの送受信を行う通信モジュールである。通信部13は、例えば有線LAN(Local Area Network)、無線LAN、Wi-Fi(Wireless Fidelity、登録商標)、赤外線通信、Bluetooth(登録商標)、近距離/非接触通信等の方式で、外部機器と直接またはネットワークアクセスポイントを介して無線通信する。
 本実施形態による通信部13は、例えばカメラ、ユーザ端末、センサ類から各種情報を受信する。センサ類はユーザ端末に設けられてもよいし、ユーザが装着するウェアラブル端末に設けられていてもよいし、部屋のドアやソファー、廊下等に設置されていてもよい。センサ類としては、例えばジャイロセンサ、加速度センサ、方位センサ、位置測位部、および生体センサ等が想定される。
 画像出力部14は、例えば液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置等により実現される。画像出力部14は、制御部12から出力された画像情報をユーザに表示する。
 音声合成部15は、制御部12から出力された発話情報(テキスト)を音声データに変換(音声化)し、音声出力部16に出力する。
 音声出力部16は、音声合成部15から出力された音声データをユーザに出力する。具体的には、音声出力部16は、スピーカおよびアンプ等により実現されている。
 (制御部12の詳細構成)
 続いて、図3を参照して本実施形態による制御部12の詳細構成について説明する。図3は、本実施形態による制御部12の機能構成例を示す図である。
 図3に示すように、本実施形態による制御部12は、発話意味解析部121、ユーザ発話内容判定部122、対話データ記憶部123、アラート判定部124、ユーザ関連情報記憶部125、ユーザ関連情報取得部126、発話タイミング制御部127、発話内容決定部128、発話情報生成部129、および発話情報記憶部130として機能する。
 発話意味解析部121は、音声認識部11から入力された発話データ(テキスト)に対していわゆる自然言語処理を適用し、発話中のキーワードの抽出やユーザの発話意図の推定等を行なう。発話解析結果は、ユーザ発話内容判定部に出力される。
 ユーザ発話内容判定部122は、発話意味解釈部から出力された発話解析結果に応じて、2つの処理を行う。1つ目は、発話解析結果にユーザ関連情報が含まれているか否かを判定し、含まれている場合はその内容をユーザ関連情報記憶部125に登録する処理である。例えば夕食に何を食べたか、どこへ出かけたか、何を買ったか、孫の名前や誕生日等、ユーザやユーザの家族に関する個人情報や行動履歴が発話解析結果から抽出され、ユーザ関連情報記憶部125に登録する。かかる登録処理を継続的に行うことで、ユーザ関連情報が更新され得る。
 2つ目は、発話解析結果と、後述する発話情報記憶部130に記憶されている直前のシステム側(すなわち情報処理装置1側)の発話内容に基づいて、ユーザの発話内容の正誤を判定する処理である。判定結果は、システム側の発話内容(質問)およびユーザ発話の解析結果(応答)と対応付けて対話データ記憶部123に格納される。より具体的には、ユーザ発話内容判定部122は、ユーザ関連情報記憶部125に記憶されているユーザ関連情報を参照してシステム側の質問に対するユーザの応答内容に問題がないかを判定する。判定結果は、予め用意したいくつのパターンに分類され得る。例えば、以下のように分類する。
  CORRECT:問題なし
  FORGET:覚えていなかった
  WRONG_MEMORY:誤って覚えていた
  INCONSISTENT:以前のユーザの発話内容と矛盾していた
  NOT_CLASSIFIABLE:判断不能
 なおユーザ関連情報記憶部125に記憶されているユーザ関連情報は正しいデータであることが前提であるが、ユーザとの対話から取得された情報に関する質問に対してのユーザの回答が誤っていた場合は、「INCONSISTENT:以前のユーザの発話内容と矛盾していた」と判定される。
 また、ユーザ発話内容判定部122は、上述したような正誤判定に加えて、どのような情報をどの程度忘れていたか、また、行動履歴に関する質問を行った場合はその行動が行われてからの時間経過を考慮して判定してもよい。
 また、「CORRECT:問題なし」と判定されるレベルは、発話情報記憶部130に登録されている情報の粒度によって異なってしまうが、ある程度のユーザ発話内容の揺らぎ(曖昧さ)であれば、外部サーバから取得したデータで補完して「CORRECT:問題なし」と判定することも可能である。例えば「外出先:○○デパート@A町」という情報が発話情報記憶部130に登録されている場合に、「どこへ出かけたのですか?」というシステム側の質問に対するユーザの回答が「A町のCショップ」であった場合、ユーザ発話内容判定部122は、『Cショップ』がA町のどこにあるかを示す情報をネットワーク上から検索する。そして、『Cショップ』が『○○デパート』に入っているという情報が得られた場合、ユーザ発話内容判定部122は、ユーザの回答に対して「CORRECT:問題なし」と判定することができる。
 対話データ記憶部123は、ユーザ発話内容判定部122において判定する際に利用された情報(システム側発話内容およびユーザ発話内容)と判定結果を対応付けて格納する。ここで、対話データ記憶部123のデータ例を図4に示す。図示されたように、発生日時、システム発話内容、ユーザ発話内容、および判定結果が保持されている。発生日時は、質問および応答の対話(インタラクション)が行われた日時である。また、システム発話内容とは、例えばユーザに質問した確認事項(「昨日の夕食」、「昨日の外出先」、「誰と電話していたのか」等)である。また、ユーザ発話内容とは、ユーザの応答内容(「覚えていない」、「渋谷」、「息子」等)である。判定結果は、上述したように、例えば予め分類されたいくつかのパターンのうちどれに該当するかが示されている。
 ユーザ関連情報記憶部125は、ユーザの個人情報(例えばユーザの氏名、年齢、誕生日、親族の氏名、年齢、誕生日等)や、行動履歴(食事内容、外出履歴、視聴履歴等)を記憶する。本明細書中、行動情報とは、行動履歴、行動予定、行動中の動作のうち少なくともいずれか一つを含む(以下の説明では行動履歴を行動情報として用いる)。ここで、ユーザ関連情報記憶部125に記憶されるデータの一例を図5に示す。図示されたように、ユーザ関連情報は、情報項目、情報源、発生日時、および内容が対応付けられたデータ構成となっている。
 情報項目とは、記憶された情報の区分であって、例えば図5に示すように、「長男の名前」、「長男の生年月日」、「夕食」、「外出先」、「購入」等が想定される。
 情報源とは、当該情報をどのようなところから取得したかを示すものであって、ユーザ発話から得られる情報と、ユーザ関連情報取得部126により得られる情報がある。ユーザ発話から得られる情報は、発話意味解析部121による発話解析結果に基づいてユーザ発話内容判定部122によりユーザ関連情報と判定された際に、ユーザ関連情報記憶部125に登録される情報である。この場合、情報源は、図5に示すように「ユーザとの対話」となる。また、ユーザ関連情報取得部126により得られる情報は、具体的には通信部13を介してユーザ端末やネットワーク上の各種サーバ、若しくは周辺の機器から得られる情報である。例えば「連絡帳データ」は、ユーザ端末またはネットワーク上から得られる。また、「GPS」は、ユーザ端末に設けられたGPS(Global Positioning System)等の位置センサにより検知された位置情報である。また、「配食サービス」、「ポイントサービス」は、外部サーバの一例であって、ネットワーク上から得られる。また、「通話記録」は、ユーザ端末または家庭用固定電話機から得られる。また、「TV視聴記録」は、無線/有線接続するTVから得られる。
 発生日時は、当該情報を取得した(記録した)日時、若しくは当該情報が示す事象が発生した日時である。内容は、当該情報の内容である。
 ここで、ユーザとの対話からユーザ関連情報を取得する場合について図6を参照して説明する。図6では、ユーザと情報処理装置1(システム)との発話内容が時系列上に示されている。図示されたように、例えば「写真を見せて」というユーザからの写真表示依頼に応じて、情報処理装置1が「テレビに写します」と回答すると共に、通信部13を介してテレビに画像情報を送信し、テレビ画面上に表示する。この際、情報処理装置1は、表示した写真に関する質問を行う。例えば、画像解析により写真に2人の人物が写っており、一人はユーザ本人であることが判明した場合、一緒に写真に写っている人物に関する話題をユーザに提示し、ユーザの応答に基づいて当該人物に関する情報を取得する。図6に示す例では、例えば「一緒に写っているのは誰ですか?」と質問し、「孫の太郎よ」というユーザの回答から、「孫の名前:太郎」といったユーザ関連情報を取得する。さらに「太郎さんの誕生日はいつですか?」と質問し、「確か5月1日だったかな」というユーザの回答から、「孫の誕生日:5月1日」といったユーザ関連情報を取得する。
 以上説明したユーザ関連情報は、後述する発話内容決定部128によりユーザへの質問を決定する際や、ユーザ発話内容判定部122によりユーザの応答の正誤を判定する際に用いられる。
 ユーザ関連情報取得部126は、通信部13を介して、ネットワーク上の各種サーバや、ユーザ端末、ウェアラブル装置、周辺機器等からユーザ関連情報を取得する。ネットワーク上の各種サーバからユーザ関連情報を取得することで、各種外部サービスとの連携が可能となる。例えばユーザ関連情報取得部126は、ユーザが契約している高齢者向けの配食サービス会社が提供するサーバにアクセスして毎日の献立情報を取得し、ユーザが特定の日にどのような食事をしたかの情報をユーザ関連情報としてユーザ関連情報記憶部125に登録することが可能である。
 同様に、ユーザが利用する物販サービスと連携することによってユーザが最近購入した商品の情報を取得したり、動画配信、音楽配信サービスと連携することによってユーザが最近見た映画や聴いた音楽に関する情報を取得することも可能である。
 また、ユーザ関連情報取得部126は、ユーザ端末やウェアラブル装置の位置センサの情報からユーザの外出先に関する情報を取得することができる。具体的には、ユーザ関連情報取得部126は、位置センサから得られる緯度経度情報と、GIS(Geographic Information Systems)サービスから得られる場所情報とに基づいて、ユーザがいる場所を知ることができ、その情報をユーザ関連情報記憶部125に登録する。ユーザ端末やウェアラブル装置に搭載される位置センサは、例えばGPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信して、自身が存在している位置を検知する。また、位置センサは、GPSの他、例えばWi-Fi(登録商標)、Bluetooth(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
 アラート判定部124は、対話データ記憶部123に格納されているデータをチェックし、必要に応じて親族やかかりつけ医等、所定の連絡先にアラート情報を通信部13からネットワークを経由して通知する。アラート判定部124は、例えば対話データ記憶部123に格納されている判定結果に基づいて、問題となる判定結果が一定の割合を超えた合にアラート情報を通知するようにしてもよい。また、アラート判定部124は、判定結果に基づいて統計処理を行い、算出結果が所定の条件を満たす場合にアラート情報を通知するようにしてもよい。
 発話タイミング制御部127は、ユーザに対する発話のタイミングを制御する。例えば発話タイミング制御部127は、ユーザから話しかけられた時に応答するよう制御する他、ネットワーク経由で接続されているカメラや人感センサ等の情報からユーザの起床や帰宅を検知した時に自発的に発話するよう制御する。
 発話内容決定部128は、ユーザに対して発話する内容を決定する。例えば発話内容決定部128は、ユーザから何らかの要求を受けた場合、例えば明日の天気の問い合わせを受けた場合、ネットワークを経由して天気情報サーバにアクセスし、取得した明日の天気情報を発話内容(応答)として決定する。また、発話内容決定部128は、ユーザ関連情報記憶部125に登録されている情報から適切に選んだ内容についてユーザが覚えているか否かを確認するための質問を発話内容として決定してもよい。
 発話内容決定部128による処理は、発話内容のパターンを予め用意しておくことで効率的に決定することが可能である。例えば発話内容決定部128は、以下のような発話内容を決定する。
 ・Inform(Item,Date,Value):“Dateの日”における“Itemの値”が“Valueであること”をユーザに応答する。
 ・Ask(Item, Date):“Dateの日”における“Itemの値”をユーザに質問する。
 発話情報生成部129は、発話内容決定部128で決定された発話内容に基づいて、実際にユーザに提示する発話情報を生成する。例えば、発話内容決定部128で決定された発話内容が「Inform(Weather,Tomorrow,Fine)」であれば、「明日の天気は晴れです」といった応答文を生成する。また、発話内容決定部128で決定された発話内容が「Ask(visit_place,Yesterday)」であれば、「昨日はどちらに行かれたのですか?」といった質問文を生成する。発話情報生成部129で生成された発話情報は、画像出力部14または音声合成部15に出力される。画像出力部14に出力された場合、発話情報(テキスト)が画面に表示、若しくは壁等に投影される。また、音声合成部15に出力された場合、発話情報(テキスト)が音声化され、音声出力部16から再生される。また、発話情報が通信部13から接続する周辺の表示装置や音声出力装置、ユーザ端末、ウェアラブル装置等に送信され、これらの外部装置からユーザに提示されてもよい。
 発話情報記憶部130は、発話内容決定部128により決定された発話内容および発話情報生成部129により生成された発話情報を記憶する。ここで、図7に、発話情報記憶部130に記憶されるデータの一例を示す。図示されたように、システム側の発話日時、発話内容、および発話情報(テキスト)が対応付けられたデータ構成となっている。
 以上、本実施形態による情報処理装置1の構成について具体的に説明した。なお本実施形態による情報処理装置1の構成は図2および図3に示す例に限定されない。例えば情報処理装置1の一部の構成が、通信部13を介して接続する外部装置(クラウド上のサーバを含む)に設けられていてもよい。また、情報処理装置1が人感センサやカメラを有していてもよい。
  <<3.動作>>
 続いて、本実施形態による動作処理について図8~図9を参照して説明する。
 <3-1.対話処理>
 図8は、本実施形態による対話処理を示すフローチャートである。本実施形態による対話処理は、情報処理装置1で起動するシステム(アプリケーションプログラム)により実行される。
 図8に示すように、まず、ユーザからの入力(発話)が有った場合(ステップS103/Yes)、情報処理装置1の制御部12は、コンテキストを考慮してユーザ発話内容を解析する(ステップS115)。コンテキストを考慮してとは、ユーザ発話が情報処理装置1(システム)からの質問に対する応答であるか否かを考慮する意である。
 システムからの質問に対する応答でない場合(ステップS118/No)、ユーザ発話内容判定部122は、発話内容にユーザ関連情報が含まれるか否かを判定する(ステップS124)。
 ユーザ関連情報が含まれる場合(ステップS124/Yes)、ユーザ発話内容判定部122は、ユーザ関連情報をユーザ関連情報記憶部125に登録する(ステップS127)。
 一方、システムからの質問に対する応答である場合(ステップS118/Yes)、ユーザ発話内容判定部122は、当該応答が質問に対して適切であるかを判定し、その判定結果と、ユーザ発話(応答)および直前のシステム発話(質問)を対応付けて対話データとして対話データ記憶部123に記憶する(ステップS121)。
 次いで、制御部12は、発話内容決定部128によりユーザの発話に対する応答内容を決定し、発話情報生成部129により発話情報を生成し、音声出力または画像出力によりユーザに提示する(ステップS130)。
 また、ユーザからの入力がない場合(ステップS103/No)、情報処理装置1は、各種センサからの情報を取得する(ステップS106)。例えば情報処理装置1は、リビングに設けられた人感センサやテレビの電源ON/OFFと連動したセンサ等から通信部13を介して受信する。
 次に、発話タイミング制御部127は、ユーザに話し掛けてもよいタイミングであるか否かを判断する(ステップS109)。例えば、人感センサから取得したデータに基づいて判断されるユーザが帰宅した(不在状態から存在状態に切り替わった)タイミングや、テレビの電源ON/OFFと連動したセンサから取得したデータに基づいて判断されるユーザがテレビを消したタイミングが、ユーザに話し掛ける適切なタイミングとして挙げられる。また、電話機と連動したセンサから取得したデータに基づいて判断されるユーザが電話を終了したタイミング等も、ユーザに話し掛ける適切なタイミングとして挙げられる。
 ユーザに話しかけるタイミングとして適切ではないと判断された場合(ステップS109/No)、上記ステップS103に戻る。
 一方、ユーザに話しかけるタイミングとして適切であると判断された場合(ステップS109/Yes)、発話内容決定部128は、ユーザ関連情報記憶部125に登録されているユーザ関連情報からユーザに確認する項目を選び、選んだ項目に関する質問(発話内容)を決定する。そして、発話情報生成部129により発話情報(質問文)を生成し、画像出力または音声出力によりユーザに提示する(ステップS112)。
 ここでユーザに対する確認項目の質問としては、例えば以下のようなものが挙げられる。本実施形態による質問は、例えば公益社団法人認知症の人と家族の会による「認知症早期発見のめやす」(http://www.alzheimer.or.jp/?page_id=2196)において提示されている項目等を参考に決定してもよい。
 ・電話を切った後に誰と話していたかを尋ねる。正誤判定は、電話機に登録されているアドレス帳データから通話先を取得して行われ得る。
 ・テレビ番組を見終わった後、出演者や内容について尋ねる。正誤判定は、テレビの視聴履歴と電子番組表から、テレビの内容に関する情報を取得して行われ得る。
 ・曜日や月を尋ねる。
 ・知人の写真をディスプレイに表示して、誰であるかを尋ねる。
 ・どこに住んでいるか、また、仕事は何かを尋ねる。
 ・ゲーム(野菜の名前や動物の名前等をあげるゲーム等)を行う。
 また、本実施形態による情報処理装置1は、常にユーザ関連情報を確認する発話(質問)を行うのではなく、ユーザに利便性や娯楽性を提供する対話を行うことを多くしてもよい。ユーザ関連情報を確認する発話は、そのような対話に適度に織り交ぜられ、ユーザが認知症の検査をされていることを意識しないよう、発話タイミングが制御される。ここで、図9に本実施形態による対話の一例を示す。図9では、ユーザと情報処理装置1(システム)との発話内容が時系列上に示されている。
 図示されたように、例えばユーザが今日の午後の天気予報を問い合わる発話U1を情報処理装置1に対して行うと、情報処理装置1はネットワーク上から天気予報情報を取得して応答する発話U2を行う。さらに、情報処理装置1は、ユーザが天気予報を確認していることからユーザが外出するタイミングであることを推定し、どこに出かけるのかを尋ねる発話U3を行う。これに対し、ユーザがA町のデパートに行くことを答えると、情報処理装置1はユーザ関連情報として登録する。この際、情報処理装置1のユーザ発話内容判定部122は、カレンダーアプリケーション等に問い合わせてユーザの予定を確認し、マッチングを行ってもよい。情報処理装置1は、最後に「いってらっしゃい」と挨拶の発話U5を行って一連の対話制御を終了する。
 次に、ユーザが外出から帰宅したタイミングで、情報処理装置1は、「おかえりなさい」と挨拶の発話U6を行うと共に、外出前にデパートに行くという情報をユーザとの対話から得ているため、デパートに関する話題で会話を進める。例えば、ユーザがA町のデパートで買った物に関する情報が外部のポイントサービス管理サーバやカード会社サーバ等から取得されユーザ関連情報記憶部125に登録されている場合、買い物情報から適切な項目を選択してユーザに質問する。例えば、デパートで何を買ったかを尋ねる発話U7や、昼食は何を食べたかを尋ねる発話U9を行う。そして、情報処理装置1は、これらの質問に対するユーザからの応答の発話U8、U10に対してユーザ発話内容判定部122により正誤判定を行い、判定結果を対話データ記憶部123に記憶する。
 このように、本実施形態では、自然な会話の流れでユーザに確認項目の質問を行うため、ユーザに認知症早期発見の質問事項とは意識させずに、認知機能の状態把握を行うことが可能となる。
 次いで、図10を参照してユーザの発話内容に対する正誤判定の一例について説明する。図10では、ユーザと情報処理装置1(システム)との発話内容が時系列上に示されている。図示されたように、情報処理装置1が昨晩食べたものを質問する発話U11「昨晩何を召し上がりましたか?」を行い、ユーザが応答の発話U12、U13、U14、U15、またはU16を行うと、情報処理装置1はユーザ発話内容判定部122によりユーザ関連情報記憶部125に記憶されているユーザ関連情報を参照して当該発話内容の正誤を判定する。
 具体的には、例えばユーザ発話内容判定部122は、ユーザの応答が発話U14「なんだったっけ?」または発話U15「忘れちゃった」のように、覚えていない旨が示された場合や質問に対する具体的な回答が得られない場合、「FORGET」と判定する。
 また、具体的な回答が得られた場合、ユーザ発話内容判定部122は、「CORRECT」、「WRONG_MEMORY」、「INCONSISTENT」のいずれかで判定する。判定処理は、ユーザ関連情報記憶部125に記憶されているユーザ関連情報とマッチングして行われるが、自然言語によって表現されたユーザの発話においては、同じ事柄を表現するのに複数の言い方が存在するため、ユーザ関連情報と一致するか否かだけでは「CORRECT」の判定範囲が非常に狭くなってしまう。例えば、昨晩食べたものを確認する質問に対してユーザが「肉と野菜の煮物と、豆腐」(発話U13)と応答したが、ユーザ関連情報記憶部125には「肉じゃが(Nikujyaga)、冷奴(Hiyayakko)」と登録されている場合、ユーザ関連情報と応答内容が一致せず、「WRONG_MEMORY」と判定されてしまう。しかしながら、情報処理装置1が所定のサーバ(例えばユーザに夕飯を提供している配食サービスのサーバ)からレシピ情報を取得し、「肉じゃが」の材料は豚肉、ジャガイモ、ニンジン、玉ねぎであり、また、「冷奴」の材料は豆腐であるという情報をいわゆるオントロジーとして利用することで、上記ユーザの応答内容が正しいと判定することができる。レシピ情報は、実際にユーザに夕飯を提供している配食サービスのサーバから取得することが望ましいが、本実施形態はこれに限定されず、一般的なレシピ情報サイトから取得してもよい。
 なお、ユーザが「肉じゃがと冷奴よ」(発話U12)と応答した場合は、登録された情報と一致するため「CORRECT」と判定される。
 同様に、例えば外出先に関しても、ユーザが「A町の○○デパートにあるBハウス(店名)」に行った場合に、情報処理装置1の「どこに行きましたか?」という質問に対して、ユーザが「A町」、「○○デパート」、若しくは「Bハウス」と応答した場合、いずれも正しい(「CORRECT」)と判定される。外出先の情報に関しては、例えばユーザ端末のGPSにより取得された外出先における緯度経度を利用してGIS(Geographic Information System)から取得できる情報や、ポイントサービス等のサーバから取得した購入履歴等をオントロジー情報として利用する。
 次いで、ユーザ発話内容判定部122は、具体的な回答は得られたが正しくなかった場合、登録されているユーザ関連情報が以前のユーザとの対話に基づく情報であれば「INCONSISTENT」、ユーザとの対話以外に基づく情報であれば「WRONG_MEMORY」と判定する。
 ユーザとの対話以外に基づくユーザ関連情報は、主に外部サーバや各種センサから得られた情報であって、真実である可能性が高く、ユーザの応答が「CORRECT」と判定できない理由が主にユーザの記憶違いによるものであると想定され、「WRONG_MEMORY」と判定される。例えば図10に示す例では、配食サービスサーバから夕飯が「肉じゃが、冷奴」という情報が得られている場合に、ユーザの応答が「焼き魚だったかしら」(発話U16)である場合、ユーザ発話内容判定部122は「WRONG_MEMORY」と判定する。
 一方、ユーザとの対話に基づくユーザ関連情報は、以前のユーザとの対話と今回のユーザの発話とのいずれが真実であるかの判断が難しいため、ユーザ発話内容判定部122は、単に過去の発言と矛盾していることを示す「INCONSISTENT」と判定する。
 例えば、ユーザ関連情報記憶部125にユーザとの対話に基づく「孫の名前:太郎」というユーザ関連情報が登録されている場合に、図10に示すように情報処理装置1が「浩一さんのところのお孫さんは何と言いましたっけ?」(発話U17)と質問し、ユーザが「太郎よ」(発話U18)と正しい応答をした場合は、「CORRECT」と判定される。また、ユーザが「次郎だったかしら」(発話U19)と誤った応答をした場合は、「INCONSISTENT」と判定される。また、ユーザが「ええっと、誰だったっけ」と具体的な回答をしなかった場合には「FORGET」と判定される。
 なお、ユーザの応答が正しくないと判定された場合(「FORGET」、「WRONG_MEMORY」、または「INCONSISTENT」)でも、情報処理装置1は間違いを指摘することなく、「そうですか」等と自然に対話を続けていくことで、認知機構の検査であることをユーザに気付かれないようにする。
 以上説明した図8に示すステップS103~S130の対話処理は、情報処理装置1の電源がオフになり、システムが終了状態になるまで繰り返される(ステップS133)。
 <3-2.アラート判定処理>
 次に、本実施形態によるアラート判定部124による動作処理について図11を参照して説明する。図11は、本実施形態によるアラート判定処理を示すフローチャートである。図11に示すアラート判定処理は、所定の条件を満たした時、例えば毎日(毎週)の決められた時刻、あるいは一定の期間ごとに実行される。
 図11に示すように、まず、アラート判定部124は、対話データ記憶部123にアクセスし、情報処理装置1からの質問に対するユーザの応答履歴と、その判定結果を取得する(ステップS143)。
 次いで、アラート判定部124は、判定結果を集計し、問題のある応答(例えば「FORGET」、「WRONG_MEMORY」、または「INCONSISTENT」と判定された応答等)の割合を求めて、予め設定されている閾値と比較する(ステップS146)。この際、アラート判定部124は、一定期間における問題のある応答の割合を求めて閾値と比較を行うだけでなく、集計する期間をずらして問題のある応答の割合の時間変異を集計し、別の閾値と比較することもできる。
 そして問題のある応答の割合が閾値を超えた場合(ステップS146/Yes)、アラート判定部124は、予め登録されている連絡先(例えば親類、かかりつけ医等)にアラート(例えば高齢者の認知症兆候に関するレポートを含むアラート)を送信する(ステップS149)。
 最後に、本実施例は音声によるユーザとシステムのインタラクションを中心に記載したが、それだけに限るものではない。例えばタッチパネル付のディスプレイを利用しても実現可能であるし、ディスプレイとキーボードによる入力を利用して実現可能である。
  <<4.まとめ>>
 上述したように、本開示の実施形態による情報処理装置1では、ユーザとの自然なインタラクションを通じてユーザの脳機能の状態を把握することを可能とする。
 具体的には、本実施形態によって、ユーザはエージェント機能による利便性や娯楽性を享受しつつ、インタラクション(対話)の中に埋め込まれるやり取りを通じて、認知機能の低下に対するチェックを受けることができる。これにより独居高齢者であるユーザはわざわざ検査を受けるといった煩わしさを感じることなく、また、その親族は独居高齢者の認知機能の低下を早期に発見することができ、医師による適切な治療を行うことが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述した情報処理装置1に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置1の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 なお、本実施形態による情報処理装置1とユーザの対話は音声に限定されず、ジェスチャー(手話、身振り手振り)やテキスト(チャット)であってもよい。この場合、例えばタッチパネル付のディスプレイや、ディスプレイとキーボードによる入力等を介してインタラクションが実現される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 ユーザの個人情報または行動情報に関する質問に対する前記ユーザの応答を取得する取得部と、
 前記応答の正誤を判定する判定部と、
 前記質問、応答、および判定結果を関連付けて記憶する記憶部と、
を備える、情報処理装置。
(2)
 前記情報処理装置は、
 前記記憶部に記憶された判定結果を外部装置に送信する送信部をさらに備える、前記(1)に記載の情報処理装置。
(3)
 前記情報処理装置は、
 ユーザの個人情報または行動情報を少なくとも含むユーザ関連情報の内容をユーザが記憶しているかを確認するための前記質問を生成する生成部と、
 前記質問を出力する出力部と、
をさらに備える、前記(1)または(2)に記載の情報処理装置。
(4)
 前記生成部は、前記ユーザとの対話の流れまたは前記ユーザの行動に応じた自然な質問を生成する、前記(3)に記載の情報処理装置。
(5)
 前記判定部は、前記ユーザ関連情報を参照して前記応答の正誤を判定する、前記(3)または(4)に記載の情報処理装置。
(6)
 前記判定部は、行動履歴に関する質問を行った場合はその行動が行われてからの時間経過を考慮して判定する、前記(5)に記載の情報処理装置。
(7)
 前記判定部は、正誤判定に加えて、どのような情報をどの程度忘れていたかを判定する、前記(5)または(6)に記載の情報処理装置。
(8)
 前記ユーザ関連情報は、ユーザに関する個人情報またはユーザの行動履歴を少なくとも含む、前記(3)~(7)のいずれか1項に記載の情報処理装置。
(9)
 前記行動履歴は、ユーザとの対話内容、センサデータ、撮像画像、移動履歴、購買履歴、ネットワーク利用履歴、SNS投稿履歴、視聴履歴、またはデバイス操作履歴から抽出される、前記(8)に記載の情報処理装置。
(10)
 前記情報処理装置は、
 前記記憶部に記憶された判定結果に基づいて統計処理を行い、算出結果に応じて外部装置へのアラートを行うか否かを判定するアラート判定部をさらに備える、前記(1)~(9)のいずれか1項に記載の情報処理装置。
(11)
 前記情報処理装置は、
 前記算出結果が所定の条件を満たす場合に前記外部装置へアラートを送信する送信部をさらに備える、前記(10)に記載の情報処理装置。
(12)
 前記アラートは、高齢者の認知症兆候に関するアラートである、前記(10)または(11)に記載の情報処理装置。
(13)
 プロセッサが、
 ユーザの個人情報または行動情報に関する質問に対する前記ユーザの応答を取得することと、
 前記応答の正誤を判定することと、
 前記質問、応答、および判定結果を関連付けて記憶部に記憶することと、
を含む、情報処理方法。
(14)
 コンピュータを、
 ユーザの個人情報または行動情報に関する質問に対する前記ユーザの応答を取得する取得部と、
 前記応答の正誤を判定する判定部と、
 前記質問、応答、および判定結果を関連付けて記憶する記憶部と、
として機能させるための、プログラム。
  1 情報処理装置
  10 音声入力部
  11 音声認識部
  12 制御部
  13 通信部
  14 画像出力部
  15 音声合成部
  16 音声出力部
  121 発話意味解析部
  122 ユーザ発話内容判定部
  123 対話データ記憶部
  124 アラート判定部
  125 ユーザ関連情報記憶部
  126 ユーザ関連情報取得部
  127 発話タイミング制御部
  128 発話内容決定部
  129 発話情報生成部
  130 発話情報記憶部

Claims (14)

  1.  ユーザの個人情報または行動情報に関する質問に対する前記ユーザの応答を取得する取得部と、
     前記応答の正誤を判定する判定部と、
     前記質問、応答、および判定結果を関連付けて記憶する記憶部と、
    を備える、情報処理装置。
  2.  前記情報処理装置は、
     前記記憶部に記憶された判定結果を外部装置に送信する送信部をさらに備える、請求項1に記載の情報処理装置。
  3.  前記情報処理装置は、
     ユーザの個人情報または行動情報を少なくとも含むユーザ関連情報の内容をユーザが記憶しているかを確認するための前記質問を生成する生成部と、
     前記質問を出力する出力部と、
    をさらに備える、請求項1に記載の情報処理装置。
  4.  前記生成部は、前記ユーザとの対話の流れまたは前記ユーザの行動に応じた自然な質問を生成する、請求項3に記載の情報処理装置。
  5.  前記判定部は、前記ユーザ関連情報を参照して前記応答の正誤を判定する、請求項3に記載の情報処理装置。
  6.  前記判定部は、行動履歴に関する質問を行った場合はその行動が行われてからの時間経過を考慮して判定する、請求項5に記載の情報処理装置。
  7.  前記判定部は、正誤判定に加えて、どのような情報をどの程度忘れていたかを判定する、請求項5に記載の情報処理装置。
  8.  前記ユーザ関連情報は、ユーザに関する個人情報またはユーザの行動履歴を少なくとも含む、請求項3に記載の情報処理装置。
  9.  前記行動履歴は、ユーザとの対話内容、センサデータ、撮像画像、移動履歴、購買履歴、ネットワーク利用履歴、SNS投稿履歴、視聴履歴、またはデバイス操作履歴から抽出される、請求項8に記載の情報処理装置。
  10.  前記情報処理装置は、
     前記記憶部に記憶された判定結果に基づいて統計処理を行い、算出結果に応じて外部装置へのアラートを行うか否かを判定するアラート判定部をさらに備える、請求項1に記載の情報処理装置。
  11.  前記情報処理装置は、
     前記算出結果が所定の条件を満たす場合に前記外部装置へアラートを送信する送信部をさらに備える、請求項10に記載の情報処理装置。
  12.  前記アラートは、高齢者の認知症兆候に関するアラートである、請求項10に記載の情報処理装置。
  13.  プロセッサが、
     ユーザの個人情報または行動情報に関する質問に対する前記ユーザの応答を取得することと、
     前記応答の正誤を判定することと、
     前記質問、応答、および判定結果を関連付けて記憶部に記憶することと、
    を含む、情報処理方法。
  14.  コンピュータを、
     ユーザの個人情報または行動情報に関する質問に対する前記ユーザの応答を取得する取得部と、
     前記応答の正誤を判定する判定部と、
     前記質問、応答、および判定結果を関連付けて記憶する記憶部と、
    として機能させるための、プログラム。
PCT/JP2016/089131 2016-03-31 2016-12-28 情報処理装置、情報処理方法、およびプログラム WO2017168907A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/088,202 US20200297264A1 (en) 2016-03-31 2016-12-28 Information processing device, information processing method, and program
EP16897122.4A EP3437567A4 (en) 2016-03-31 2016-12-28 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016072096 2016-03-31
JP2016-072096 2016-03-31

Publications (1)

Publication Number Publication Date
WO2017168907A1 true WO2017168907A1 (ja) 2017-10-05

Family

ID=59962896

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/089131 WO2017168907A1 (ja) 2016-03-31 2016-12-28 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20200297264A1 (ja)
EP (1) EP3437567A4 (ja)
WO (1) WO2017168907A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6263308B1 (ja) * 2017-11-09 2018-01-17 パナソニックヘルスケアホールディングス株式会社 認知症診断装置、認知症診断方法、及び認知症診断プログラム
JP2018148987A (ja) * 2017-03-10 2018-09-27 パイオニア株式会社 判定装置
JP2019198695A (ja) * 2019-08-21 2019-11-21 西日本電信電話株式会社 通知システム、通知装置、通知方法、及びプログラム
JPWO2020195163A1 (ja) * 2019-03-26 2020-10-01
JP2020166464A (ja) * 2019-03-29 2020-10-08 株式会社日本総合研究所 意思決定支援システムおよびプログラム
JP2021015423A (ja) * 2019-07-11 2021-02-12 東京瓦斯株式会社 情報処理システム、情報処理装置、および、プログラム
WO2021215259A1 (ja) * 2020-04-24 2021-10-28 パナソニックIpマネジメント株式会社 認知機能検査方法、プログラム、及び認知機能検査システム
US11495211B2 (en) 2020-10-29 2022-11-08 International Business Machines Corporation Memory deterioration detection and amelioration

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11960592B2 (en) * 2021-06-29 2024-04-16 Capital One Services, Llc Preventing unauthorized access to personal data during authentication processes

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007282992A (ja) * 2006-04-19 2007-11-01 Sky Kk 認知症診断支援システム
JP2010259634A (ja) * 2009-05-08 2010-11-18 Nippon Tect Co Ltd 認知症検査支援システム及び認知症検査支援装置
JP2013109661A (ja) * 2011-11-22 2013-06-06 Sharp Corp 認知症ケア支援方法、認知症情報出力装置、認知症ケア支援システム、及びコンピュータプログラム
JP2013246459A (ja) * 2012-05-23 2013-12-09 Sharp Corp 認知症問診支援装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003045252A1 (fr) * 2001-11-28 2003-06-05 Matsushita Electric Industrial Co., Ltd. Appareil d'evaluation de capacite de jugement, robot, procede d'evaluation de capacite de jugement, programme et support
US8814359B1 (en) * 2007-10-01 2014-08-26 SimpleC, LLC Memory recollection training system and method of use thereof
US9208692B2 (en) * 2010-10-11 2015-12-08 The Herman Group, Co. System for measuring speed and magnitude of responses and methods thereof
US9251713B1 (en) * 2012-11-20 2016-02-02 Anthony J. Giovanniello System and process for assessing a user and for assisting a user in rehabilitation
US20160035235A1 (en) * 2014-08-01 2016-02-04 Forclass Ltd. System and method thereof for enhancing students engagement and accountability

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007282992A (ja) * 2006-04-19 2007-11-01 Sky Kk 認知症診断支援システム
JP2010259634A (ja) * 2009-05-08 2010-11-18 Nippon Tect Co Ltd 認知症検査支援システム及び認知症検査支援装置
JP2013109661A (ja) * 2011-11-22 2013-06-06 Sharp Corp 認知症ケア支援方法、認知症情報出力装置、認知症ケア支援システム、及びコンピュータプログラム
JP2013246459A (ja) * 2012-05-23 2013-12-09 Sharp Corp 認知症問診支援装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3437567A4 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148987A (ja) * 2017-03-10 2018-09-27 パイオニア株式会社 判定装置
JP6263308B1 (ja) * 2017-11-09 2018-01-17 パナソニックヘルスケアホールディングス株式会社 認知症診断装置、認知症診断方法、及び認知症診断プログラム
JP2019084249A (ja) * 2017-11-09 2019-06-06 Phcホールディングス株式会社 認知症診断装置、認知症診断方法、及び認知症診断プログラム
JP7145427B2 (ja) 2019-03-26 2022-10-03 パナソニックIpマネジメント株式会社 認知機能検査システム、及びプログラム
JPWO2020195163A1 (ja) * 2019-03-26 2020-10-01
WO2020195163A1 (ja) * 2019-03-26 2020-10-01 パナソニックIpマネジメント株式会社 認知機能検査方法、プログラム、及び認知機能検査システム
JP2020166464A (ja) * 2019-03-29 2020-10-08 株式会社日本総合研究所 意思決定支援システムおよびプログラム
JP7257846B2 (ja) 2019-03-29 2023-04-14 株式会社日本総合研究所 意思決定支援システムおよびプログラム
JP2021015423A (ja) * 2019-07-11 2021-02-12 東京瓦斯株式会社 情報処理システム、情報処理装置、および、プログラム
JP2019198695A (ja) * 2019-08-21 2019-11-21 西日本電信電話株式会社 通知システム、通知装置、通知方法、及びプログラム
WO2021215259A1 (ja) * 2020-04-24 2021-10-28 パナソニックIpマネジメント株式会社 認知機能検査方法、プログラム、及び認知機能検査システム
JP7378076B2 (ja) 2020-04-24 2023-11-13 パナソニックIpマネジメント株式会社 認知機能検査方法、プログラム、及び認知機能検査システム
US11495211B2 (en) 2020-10-29 2022-11-08 International Business Machines Corporation Memory deterioration detection and amelioration

Also Published As

Publication number Publication date
EP3437567A4 (en) 2019-04-03
US20200297264A1 (en) 2020-09-24
EP3437567A1 (en) 2019-02-06

Similar Documents

Publication Publication Date Title
WO2017168907A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN107003999B (zh) 对用户的在先自然语言输入的后续响应的系统和方法
US11735060B2 (en) Observation platform for training, monitoring, and mining structured communications
US9794355B2 (en) Systems and methods for adaptive notification networks
KR102039848B1 (ko) 기억과 의사 결정력 향상을 위한, 개인 감정-기반의 인지 보조 시스템, 개인 감정-기반의 인지 보조 제공 방법 및 비-일시적 컴퓨터 판독 가능 매체
DeHaan et al. The interplay between online and offline explorations of identity, relationships, and sex: A mixed-methods study with LGBT youth
CN110021301A (zh) 数字助理服务的远场延伸
CN109196491A (zh) 机器智能预测通信和控制系统
Antaki et al. How adults with a profound intellectual disability engage others in interaction
WO2020105302A1 (ja) 応答生成装置、応答生成方法及び応答生成プログラム
KR20150142610A (ko) 관계 유형을 고려한 코칭 방법 및 시스템
Wei et al. Understanding user perceptions of proactive smart speakers
Quadflieg et al. Making sense of other people’s encounters: Towards an integrative model of relational impression formation
WO2020116026A1 (ja) 応答処理装置、応答処理方法及び応答処理プログラム
Asghar et al. The impact of assistive software application to facilitate people with dementia through participatory research
WO2017175442A1 (ja) 情報処理装置、および情報処理方法
JP6767322B2 (ja) 出力制御装置、出力制御方法及び出力制御プログラム
JP2018503187A (ja) 被験者とのインタラクションのスケジューリング
WO2018179745A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Walsh Autism, Culture, Church: From Disruption to Hope
Ganz et al. Aided augmentative and alternative communication: an overview
Beamish Parents’ use of mobile computing devices, caregiving, and the social and emotional development of children: A systematic review and exploratory study of expert opinion.
JP2019164314A (ja) 推定装置、推定方法および推定プログラム
Horstmann et al. Alexa, I Do Not Want to Be Patronized: A Qualitative Interview Study to Explore Older Adults' Attitudes Towards Intelligent Voice Assistants
JP2019028925A (ja) 通知システム

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016897122

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016897122

Country of ref document: EP

Effective date: 20181031

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16897122

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP