JP2021174204A - Behavior estimation device, method, and program - Google Patents

Behavior estimation device, method, and program Download PDF

Info

Publication number
JP2021174204A
JP2021174204A JP2020076843A JP2020076843A JP2021174204A JP 2021174204 A JP2021174204 A JP 2021174204A JP 2020076843 A JP2020076843 A JP 2020076843A JP 2020076843 A JP2020076843 A JP 2020076843A JP 2021174204 A JP2021174204 A JP 2021174204A
Authority
JP
Japan
Prior art keywords
behavior
target user
information
question
cognitive load
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020076843A
Other languages
Japanese (ja)
Inventor
智樹 渡部
Tomoki Watabe
玲子 有賀
Reiko Ariga
透 小林
Toru Kobayashi
研一 荒井
Kenichi Arai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Nagasaki University NUC
Original Assignee
Nippon Telegraph and Telephone Corp
Nagasaki University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Nagasaki University NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2020076843A priority Critical patent/JP2021174204A/en
Publication of JP2021174204A publication Critical patent/JP2021174204A/en
Pending legal-status Critical Current

Links

Images

Abstract

To allow a behavior of an object user to be further accurately estimated regardless of the user's situations without physical and mental burdens on the user.SOLUTION: A behavior estimation device, method, and program causes an interactive device to present question information to an object user and acquires answer information of the object user to the question information from the interactive device to estimate a behavior of the object user. The behavior estimation device, method, and program detect an initial behavior of the object user, determine a cognitive load of the object user during the initial behavior on the basis of the detected initial behavior, generate the question information to the object user on the basis of the determined cognitive load and a behavior scene estimated from the initial behavior, and output the generated question information to the interactive device.SELECTED DRAWING: Figure 3

Description

この発明は、例えば、対話型ロボットを用いて対象ユーザの行動を推定する行動推定装置、方法およびプログラムに関する。 The present invention relates to, for example, a behavior estimation device, a method, and a program for estimating the behavior of a target user using an interactive robot.

高齢化社会の進展に伴い、65歳以上の高齢者人口に占める一人暮らしの割合は年々増加傾向にある。一人暮らしの高齢者は、社会との接点が少なく引きこもりがちであるため、知らず知らずのうちに認知症が進行してしまうリスクがある。 With the development of an aging society, the proportion of living alone in the elderly population aged 65 and over is increasing year by year. Elderly people living alone have few contacts with society and tend to withdraw, so there is a risk that dementia will progress unknowingly.

これまで、高齢者の認知症診断には、例えば非特許文献1に記載されるように、所定のアルゴリズムに従い専門知識をもった医師等がテストする方法が用いられている。しかし、診断を受ける場合高齢者は、病院などのように専門のいるところに出向くという物理的な負担と、テストを受けるという精神的な負担を強いられることが多い。 So far, for the diagnosis of dementia in the elderly, as described in Non-Patent Document 1, for example, a method of testing by a doctor or the like having specialized knowledge according to a predetermined algorithm has been used. However, when receiving a diagnosis, elderly people are often forced to have the physical burden of going to a specialized place such as a hospital and the mental burden of taking a test.

一方、人型コミュケーションロボットを活用し、一人暮らしの高齢者との自然な会話に基づいて認知症診断を行うシステムも開発されている(例えば非特許文献2を参照)。このシステムを使用すれば、医師は、高齢者に移動等の物理的な負担を与えることなく、また認知症テストあることをできるだけ意識させずに診断を行うことができる。さらには、認知症の診断結果をソーシャルメディア等を介して族等の近親者に通知することも可能である。 On the other hand, a system for diagnosing dementia based on natural conversation with an elderly person living alone by utilizing a humanoid communication robot has also been developed (see, for example, Non-Patent Document 2). By using this system, doctors can make a diagnosis without imposing a physical burden such as movement on the elderly and without being aware that there is a dementia test as much as possible. Furthermore, it is also possible to notify close relatives such as tribes of the diagnosis result of dementia via social media or the like.

長谷川式認知症スケール、インターネット<URL: https://info.ninchisho.net/check>Hasegawa Dementia Scale, Internet <URL: https://info.ninchisho.net/check> 小林透,宮崎大志,荒井研一、「ソーシャルメディア仲介ロボットによる認知症早期発見システムの研究」、マルチメディア,分散,協調とモバイル(DICOMO2018)シンポジウム、平成30年7月,7A-3,p.1332Toru Kobayashi, Taishi Miyazaki, Kenichi Arai, "Research on Early Detection System for Dementia by Social Media Mediated Robots", Multimedia, Distributed, Cooperative and Mobile (DICOMO2018) Symposium, July 2018, 7A-3, p.1332

ところで、認知症を総合的に診断するためには、認知機能障害の把握だけでなく、対象ユーザの日常生活における行動障害の把握が必要となることが分かってきた。しかしながら、非特許文献1、2のいずれにも対象ユーザの行動障害を把握する点については記載されていない。また、対象ユーザの行動障害を把握する方法として、例えば対象ユーザの周囲の人々にヒアリングする手法がある。しかし、この手法ではそもそも一人暮らしの対象ユーザに対しては適用が難しく、行動障害を早期に把握することは困難だった。 By the way, in order to comprehensively diagnose dementia, it has been found that it is necessary not only to grasp cognitive dysfunction but also to grasp behavioral disorders in daily life of the target user. However, neither of Non-Patent Documents 1 and 2 describes the point of grasping the behavioral disorder of the target user. Further, as a method of grasping the behavioral disorder of the target user, for example, there is a method of hearing with people around the target user. However, this method was difficult to apply to target users living alone in the first place, and it was difficult to grasp behavioral disorders at an early stage.

この発明は上記事情に着目してなされたもので、一側面では、対象ユーザの行動を、ユーザに物理的および精神的な負担を与えることなく、かつユーザの状況によらずより正確に推定することを可能にした技術を提供することにある。 The present invention has been made by paying attention to the above circumstances, and on one aspect, the behavior of the target user is estimated more accurately without imposing a physical and mental burden on the user and regardless of the user's situation. It is to provide the technology that makes it possible.

上記目的を達成するためにこの発明の一態様は、対象ユーザに対し対話装置により質問情報を提示させ、当該質問情報に対する前記対象ユーザの回答情報を前記対話装置から取得することにより前記対象ユーザの行動を推定する行動推定装置、方法又はプログラムにあって、前記対象ユーザの初期行動を検出し、検出された前記初期行動をもとに、当該初期行動中における前記対象ユーザの認知負荷を判定し、判定された前記認知負荷と、前記初期行動から推定される行動シーンとに基づいて、前記対象ユーザに対する前記質問情報を生成し、生成された前記質問情報を前記対話装置へ出力するようにしたものである。 In order to achieve the above object, one aspect of the present invention is to make a target user present question information by a dialogue device, and acquire the answer information of the target user to the question information from the dialogue device. A behavior estimation device, method, or program that estimates behavior detects the initial behavior of the target user, and determines the cognitive load of the target user during the initial behavior based on the detected initial behavior. Based on the determined cognitive load and the behavior scene estimated from the initial behavior, the question information for the target user is generated, and the generated question information is output to the dialogue device. It is a thing.

この発明の一態様によれば、対象ユーザの初期行動に応じた質問情報を提示する際に、初期行動中における対象ユーザの認知負荷が考慮された質問情報が生成され出力される。このため、対象ユーザから妥当性を高い回答を取得することが可能となり、これにより対象ユーザの行動をより正確に推定することが可能となる。 According to one aspect of the present invention, when presenting the question information according to the initial action of the target user, the question information in consideration of the cognitive load of the target user during the initial action is generated and output. Therefore, it is possible to obtain a highly valid answer from the target user, which makes it possible to more accurately estimate the behavior of the target user.

すなわちこの発明の一態様によれば、対象ユーザの行動を、ユーザに物理的および精神的な負担を与えることなく、かつユーザの状況によらずより正確に推定することを可能にした技術を提供することができる。 That is, according to one aspect of the present invention, there is provided a technique capable of estimating the behavior of a target user more accurately regardless of the user's situation without imposing a physical and mental burden on the user. can do.

図1は、この発明の一実施形態に係る行動推定装置を含むシステムの全体構成の一例を示す図である。FIG. 1 is a diagram showing an example of an overall configuration of a system including a behavior estimation device according to an embodiment of the present invention. 図2は、この発明の一実施形態に係る行動推定装置のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration of the behavior estimation device according to the embodiment of the present invention. 図3は、この発明の一実施形態に係る行動推定装置のソフトウェア構成を示すブロック図である。FIG. 3 is a block diagram showing a software configuration of the behavior estimation device according to the embodiment of the present invention. 図4は、図3に示す行動推定装置による処理手順と処理内容を示すフローチャートである。FIG. 4 is a flowchart showing a processing procedure and processing contents by the behavior estimation device shown in FIG. 図5は、図4に示した処理手順のうち、ロボット対話処理の手順と処理内容を示すフローチャートである。FIG. 5 is a flowchart showing the procedure and the processing content of the robot dialogue processing among the processing procedures shown in FIG. 図6は、管理用端末に表示される登録画面の一例を示す図である。FIG. 6 is a diagram showing an example of a registration screen displayed on the management terminal. 図7は、デバイスDBに記憶されたデバイス情報の一例を示す図である。FIG. 7 is a diagram showing an example of device information stored in the device DB. 図8は、シナリオDBに記憶されたシナリオ情報の一例を示す図である。FIG. 8 is a diagram showing an example of scenario information stored in the scenario DB. 図9は、シーンに対する認知負荷およびセリフグループの割り当て例を示す図である。FIG. 9 is a diagram showing an example of cognitive load and dialogue group allocation for a scene. 図10は、認知負荷に対し予め用意されたセリフの一覧を示す図である。FIG. 10 is a diagram showing a list of lines prepared in advance for the cognitive load. 図11は、質問・回答DBに記憶されたシナリオ実行結果を示すデータの構造の一例を示す図である。FIG. 11 is a diagram showing an example of the structure of data showing the scenario execution result stored in the question / answer DB.

以下、図面を参照してこの発明に係わる実施形態を説明する。
[一実施形態]
(構成例)
(1)システム
図1は、この発明の一実施形態に係る行動推定装置を含むシステムの全体構成を示す図である。
例えば、一人暮らしの高齢者等の対象ユーザUSの宅内には、対象ユーザUSと対話を行うために、対話装置としての対話型ロボット(以後ロボットと呼称することもある)RBが設置されている。また宅内には、対象ユーザUSの宅内における行動を検出するために複数のセンサデバイスD1〜Dnが設置されている。
Hereinafter, embodiments according to the present invention will be described with reference to the drawings.
[One Embodiment]
(Configuration example)
(1) System FIG. 1 is a diagram showing an overall configuration of a system including a behavior estimation device according to an embodiment of the present invention.
For example, an interactive robot (hereinafter sometimes referred to as a robot) RB as a dialogue device is installed in the house of the target user US such as an elderly person living alone in order to have a dialogue with the target user US. Further, in the house, a plurality of sensor devices D1 to Dn are installed in order to detect the behavior of the target user US in the house.

センサデバイスD1〜Dnは、例えば窓やカーテン、トイレや浴室の扉WD、冷蔵庫や洗濯機の扉FD、薬箱の蓋等の開閉を検出するセンサデバイスと、対象ユーザUSの手首等に装着されるウェアラブルデバイスとを含む。前者は例えば加速度センサを有し、上記各扉WD,FDの開閉を検出するとその検出結果を示すセンサデータを対話型ロボットRBへ送信する。後者は例えば加速度センサまたは音声センサを有し、対象ユーザUSの歩数や会話時間等を検出してその検出結果を示すセンサデータを対話型ロボットRBへ送信する。なお、センサデータの送信手段としては、無線LAN(Local Area Network)や、Bluetooth(登録商標)等の小電力データ通信規格を使用する無線インタフェースが使用される。 The sensor devices D1 to Dn are attached to, for example, a sensor device that detects opening and closing of windows, curtains, doors of toilets and bathrooms, doors of refrigerators and washing machines, FDs of medicine boxes, lids of medicine boxes, and the wrists of the target user US. Includes wearable devices. The former has, for example, an acceleration sensor, and when it detects the opening and closing of each of the doors WD and FD, it transmits sensor data indicating the detection result to the interactive robot RB. The latter has, for example, an acceleration sensor or a voice sensor, detects the number of steps and conversation time of the target user US, and transmits sensor data indicating the detection result to the interactive robot RB. As the sensor data transmission means, a wireless LAN (Local Area Network) or a wireless interface using a low power data communication standard such as Bluetooth (registered trademark) is used.

またシステムは、行動推定装置として動作するサーバコンピュータ(以後サーバ装置と称する)SVを備える。サーバ装置SVは、例えばクラウド、Web又はエッジに設置される。そして、サーバ装置SVは、ネットワークNWを介して、上記対話型ロボットRB、システム管理者が使用する管理用端末MT、および上記対象ユーザUSの近親者が使用する近親者端末PTとの間で、それぞれデータ通信を行えるようになっている。なお、サーバ装置SVは、対話型ロボットRBに付属する状態、或いは対話型ロボットRBに内蔵される状態で宅内に設置されてもよい。 The system also includes a server computer (hereinafter referred to as a server device) SV that operates as a behavior estimation device. The server device SV is installed, for example, in the cloud, the Web, or the edge. Then, the server device SV is connected to the interactive robot RB, the management terminal MT used by the system administrator, and the close relative terminal PT used by the close relatives of the target user US via the network NW. Each can perform data communication. The server device SV may be installed in the house in a state of being attached to the interactive robot RB or in a state of being built in the interactive robot RB.

ネットワークNWは、例えば、インターネットを中核とする広域網と、この広域網にアクセスするためのアクセス網とを備える。アクセス網としては、例えば有線および無線の公衆ネットワーク、有線および無線のLAN、CATV(Cable Television)ネットワークが使用される。 The network NW includes, for example, a wide area network centered on the Internet and an access network for accessing the wide area network. As the access network, for example, a wired and wireless public network, a wired and wireless LAN, and a CATV (Cable Television) network are used.

(2)装置
図2はサーバ装置SVのハードウェア構成を示すブロック図、図3はサーバ装置SV、対話型ロボットRB、管理用端末MTおよび近親者端末PTの機能構成を示すブロック図である。
(2) Device FIG. 2 is a block diagram showing the hardware configuration of the server device SV, and FIG. 3 is a block diagram showing the functional configurations of the server device SV, the interactive robot RB, the management terminal MT, and the close relative terminal PT.

(2−1)管理用端末MTおよび近親者端末PT
管理用端末MTは、例えばパーソナルコンピュータからなり、この発明に係る処理機能として登録設定処理部61を有している。登録設定処理部61は、例えばシステムを運用する管理者がサーバ装置SVに対しデバイス情報およびシナリオ情報を登録するために使用される。
(2-1) Management terminal MT and close relative terminal PT
The management terminal MT is composed of, for example, a personal computer, and has a registration setting processing unit 61 as a processing function according to the present invention. The registration setting processing unit 61 is used, for example, for an administrator who operates the system to register device information and scenario information in the server device SV.

近親者端末PTは、例えばノート型のパーソナルコンピュータ、スマートフォン又はタブレット端末等の携帯情報端末からなり、この発明に係る処理機能として質問/回答送受信部71および通知情報受信表示部72を有している。質問/回答送受信部71は、サーバ装置SVから近親者向けに送信される質問情報を受信して表示又は音声出力すると共に、上記質問情報に対し近親者が入力した回答情報をサーバ装置SVへ返送する。通知情報受信表示部72は、サーバ装置SVから送信される通知情報を受信して表示する。通知情報には、例えば、対象ユーザUSの行動障害の度合いの推定結果を表す情報が含まれる。 The close relative terminal PT is composed of a mobile information terminal such as a notebook type personal computer, a smartphone or a tablet terminal, and has a question / answer transmission / reception unit 71 and a notification information reception / display unit 72 as processing functions according to the present invention. .. The question / answer transmission / reception unit 71 receives the question information transmitted from the server device SV to the close relatives, displays or outputs the voice, and returns the answer information input by the close relatives to the server device SV. do. The notification information reception display unit 72 receives and displays the notification information transmitted from the server device SV. The notification information includes, for example, information representing an estimation result of the degree of behavioral disorder of the target user US.

(2−2)対話型ロボットRB
対話型ロボットRBは、この発明に係る機能として、センサデータ送受信部51と、音声合成処理部52と、音声出力部53と、音声入力部54とを有する。なお、対話型ロボットRBは一般的なスマートスピーカのように床やテーブル等に固定的に設置されてもよく、また対話動作と連動して顔部分や手足部分が動いたり、自律移動する起呼卯を備えていてもよい。
(2-2) Interactive robot RB
The interactive robot RB has a sensor data transmission / reception unit 51, a voice synthesis processing unit 52, a voice output unit 53, and a voice input unit 54 as functions according to the present invention. The interactive robot RB may be fixedly installed on the floor or table like a general smart speaker, and the face and limbs move in conjunction with the dialogue movement, or the caller moves autonomously. May be provided.

センサデータ送受信部51は、上記センサデバイスD1〜Dnから送信されるセンサデータをそれぞれ受信し、受信された各センサデータをサーバ装置SVへ転送する。音声合成処理部52は、サーバ装置SVから送られた、例えばテキストデータからなる質問情報を受信し、受信されたテキストデータをもとに質問文に対応する音声データを合成する。音声出力部53は、上記音声合成処理部52から出力された音声データに対応する音声をスピーカから拡声出力する。 The sensor data transmission / reception unit 51 receives the sensor data transmitted from the sensor devices D1 to Dn, and transfers the received sensor data to the server device SV. The voice synthesis processing unit 52 receives question information composed of, for example, text data sent from the server device SV, and synthesizes voice data corresponding to the question text based on the received text data. The voice output unit 53 outputs the voice corresponding to the voice data output from the voice synthesis processing unit 52 from the speaker.

音声入力部54は、対象ユーザUSが発した回答内容を表す音声をマイクロフォンにより検出し、検出された音声データを符号化してサーバ装置SVへ送信する。なお、対話型ロボットRBに音声認識処理部が設けられている場合には、この音声認識処理部により、上記音声データから回答文を認識し、認識された回答文を表す情報をサーバ装置SVへ送信するようにしてもよい。 The voice input unit 54 detects the voice representing the answer content issued by the target user US with a microphone, encodes the detected voice data, and transmits the detected voice data to the server device SV. When the interactive robot RB is provided with a voice recognition processing unit, the voice recognition processing unit recognizes the answer sentence from the above voice data and transmits the information representing the recognized answer sentence to the server device SV. You may send it.

(2−3)サーバ装置SV
サーバ装置SVは、上記対話型ロボットRBの制御機能を有し、このロボット制御機能を利用して対象ユーザUSの行動を推定する動作を行う。そのためにサーバ装置SVは、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを有する制御部1を備え、この制御部1に対しバス5を介して、プログラム記憶部2およびデータ記憶部3を有する記憶ユニットと、通信インタフェース(通信I/F)4を接続したものとなっている。
(2-3) Server device SV
The server device SV has the control function of the interactive robot RB, and uses this robot control function to perform an operation of estimating the behavior of the target user US. Therefore, the server device SV includes a control unit 1 having a hardware processor such as a central processing unit (CPU), and the program storage unit 2 and the data storage unit are provided to the control unit 1 via the bus 5. The storage unit having 3 is connected to the communication interface (communication I / F) 4.

通信I/F4は、制御部1の制御の下、ネットワークNWにより定義される通信プロトコルを使用して上記管理用端末MT、近親者端末PTおよび対話型ロボットRBとの間でデータ伝送を行うもので、例えば有線ネットワーク用のインタフェースを有する。 The communication I / F4 transmits data between the management terminal MT, the close relative terminal PT, and the interactive robot RB using the communication protocol defined by the network NW under the control of the control unit 1. And, for example, it has an interface for a wired network.

プログラム記憶部2は、例えば、記憶媒体としてHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM(Read Only Memory)等の不揮発性メモリとを組み合わせて構成したもので、OS(Operating System)等のミドルウェアに加えて、この発明の一実施形態に係る各種制御処理を実行するために必要なプログラムを格納する。 The program storage unit 2 includes, for example, a non-volatile memory such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) that can be written and read at any time as a storage medium, and a non-volatile memory such as a ROM (Read Only Memory). In addition to middleware such as an OS (Operating System), a program necessary for executing various control processes according to an embodiment of the present invention is stored.

データ記憶部3は、例えば、記憶媒体として、HDDまたはSSD等の随時書込みおよび読出しが可能な不揮発性メモリと、RAM(Random Access Memory)等の揮発性メモリと組み合わせたもので、この発明の一実施形態を実施するために必要な主たる記憶部として、デバイスデータベース(以後データベースをDBと記載する)31と、シナリオDB32と、シーンDB33と、セリフDB34と、質問・回答DB35とを備えている。 The data storage unit 3 is, for example, a combination of a non-volatile memory such as an HDD or SSD capable of writing and reading at any time and a volatile memory such as a RAM (Random Access Memory) as a storage medium, and is one of the present inventions. A device database (hereinafter, the database is referred to as a DB) 31, a scenario DB 32, a scene DB 33, a dialogue DB 34, and a question / answer DB 35 are provided as main storage units necessary for implementing the embodiment.

デバイスDB31は、センサデバイスD1〜Dn毎にその属性を表すデバイス情報を記憶する。各デバイス情報は、センサデバイスを識別するデバイスIDに対し、デバイス種別、設置場所、適用期間およびシナリオIDを対応付けたものである。 The device DB 31 stores device information representing its attributes for each of the sensor devices D1 to Dn. Each device information associates the device type, the installation location, the application period, and the scenario ID with the device ID that identifies the sensor device.

シナリオDBは、対象ユーザUSの初期行動から推定される行動シーンに対応する質問を発するための複数のシナリオ情報を記憶する。各シナリオ情報は、シナリオIDに対し、取得されたセンサデータの種別とタイミングと、対象ユーザUSに対する質問内容とタイミング、又は近親者に対する質問内容とタイミングを対応付けたものである。 The scenario DB stores a plurality of scenario information for asking a question corresponding to an action scene estimated from the initial action of the target user US. Each scenario information corresponds to the scenario ID with the type and timing of the acquired sensor data, the question content and timing for the target user US, or the question content and timing for a close relative.

シーンDB33は、対象ユーザUSについて想定される複数の行動シーンの各々に対する認知負荷およびセリフグループの割り当て結果を表すシーン情報を記憶する。シーン情報は、例えば、朝および晩の適用期間別に、シーンIDに対応して、シーンの内容、センサデバイスの設置場所、認知負荷およびセリフグループIDを対応付けたものである。 The scene DB 33 stores scene information representing the cognitive load and the allocation result of the dialogue group for each of the plurality of action scenes assumed for the target user US. The scene information is associated with the content of the scene, the installation location of the sensor device, the cognitive load, and the dialogue group ID according to the scene ID, for example, for each application period of morning and evening.

セリフDB34は、上記セリフグループ毎に、当該グループに含まれる複数のセリフ内容を示すデータをセリフIDに対応付けて記憶する。なお、以後セリフ内容を示すデータをセリフ情報とも呼称する。 The dialogue DB 34 stores data indicating the contents of a plurality of dialogues included in the dialogue group for each dialogue group in association with the dialogue ID. Hereinafter, the data indicating the content of the dialogue is also referred to as the dialogue information.

質問・回答DB35は、対象ユーザUSの初期行動を示すセンサデータと、上記シナリオ情報に従い対象ユーザUS又は近親者に対し発した質問情報と、この質問情報に対し対象ユーザUS又は近親者が応答した回答情報とを、相互に対応付けて記憶する。その記憶形態としては、例えば主語、述語、目的語の関係を表すResource Description Framework(RDF)が利用される。 The question / answer DB 35 includes sensor data indicating the initial behavior of the target user US, question information issued to the target user US or close relatives according to the above scenario information, and the target user US or close relatives responding to the question information. The answer information is stored in association with each other. As the storage form, for example, Resource Description Framework (RDF) representing the relationship between a subject, a predicate, and an object is used.

なお、上記デバイスDB31、シナリオDB32、シーンDB33、セリフDB34および質問・回答DB35に記憶された情報の一例は後述する。 An example of the information stored in the device DB 31, the scenario DB 32, the scene DB 33, the dialogue DB 34, and the question / answer DB 35 will be described later.

制御部1は、この発明の一実施形態に係る処理機能として、登録受付処理部11と、センサデータ取得処理部12と、シナリオ選択処理部13と、認知負荷・セリフグループ判定処理部14と、セリフ選択処理部15と、質問文送信・記憶処理部16と、回答文受信・記憶処理部17と、予兆判定処理部18と、通知情報送信処理部19とを備えている。これらの処理部11〜19は、何れもプログラム記憶部2に格納されたプログラムを、制御部1のハードウェアプロセッサに実行させることにより実現される。 The control unit 1 includes a registration reception processing unit 11, a sensor data acquisition processing unit 12, a scenario selection processing unit 13, a cognitive load / dialogue group determination processing unit 14, and a processing function according to an embodiment of the present invention. It includes a dialogue selection processing unit 15, a question sentence transmission / storage processing unit 16, an answer sentence reception / storage processing unit 17, a sign determination processing unit 18, and a notification information transmission processing unit 19. Each of these processing units 11 to 19 is realized by causing the hardware processor of the control unit 1 to execute the program stored in the program storage unit 2.

登録受付処理部11は、デバイス情報およびシナリオ情報の登録を受け付ける処理を行う。例えば、管理用端末MTからの登録要求に応じて登録用のテンプレートデータを送信し、この登録用テンプレートデータに従い管理用端末MTにおいて入力されたデバイス情報およびシナリオ情報を受信して、それぞれデバイスDB31およびシナリオDB32に記憶させる処理を行う。なお、登録受付処理部11は、シーン情報およびセリフ情報の登録を受け付けてシーンDB33およびセリフDB34に記憶させる処理機能を有していてもよい。 The registration acceptance processing unit 11 performs a process of accepting registration of device information and scenario information. For example, the template data for registration is transmitted in response to the registration request from the management terminal MT, and the device information and the scenario information input in the management terminal MT are received according to the registration template data, respectively, and the device DB 31 and the device DB 31 and the scenario information are received. The process of storing in the scenario DB 32 is performed. The registration acceptance processing unit 11 may have a processing function of accepting the registration of the scene information and the dialogue information and storing them in the scene DB 33 and the dialogue DB 34.

センサデータ取得処理部12は、センサデバイスD1〜Dnから出力されるセンサデータを対話型ロボットRBを経由して受信し、受信されたセンサデータを対象ユーザUSの初期行動に表す情報として質問・回答DB35に記憶させると共に、シナリオ選択処理部13および認知負荷・セリフグループ判定処理部14に渡す処理を行う。 The sensor data acquisition processing unit 12 receives the sensor data output from the sensor devices D1 to Dn via the interactive robot RB, and asks / answers the received sensor data as information representing the initial action of the target user US. In addition to being stored in the DB 35, a process of passing the data to the scenario selection processing unit 13 and the cognitive load / dialogue group determination processing unit 14 is performed.

シナリオ選択処理部13は、上記センサデータ取得処理部12により受信されたセンサデータをもとに、その発生元となったセンサデバイスのデバイス情報に対応付けられたシナリオIDをデバイスDB31から読み出す。そしてシナリオ選択処理部13は、読み出された上記シナリオIDをもとにシナリオDB32から対応するシナリオ情報を読み出す処理を行う。 Based on the sensor data received by the sensor data acquisition processing unit 12, the scenario selection processing unit 13 reads the scenario ID associated with the device information of the sensor device that is the source of the sensor data from the device DB 31. Then, the scenario selection processing unit 13 performs a process of reading the corresponding scenario information from the scenario DB 32 based on the read scenario ID.

認知負荷・セリフグループ判定処理部14は、選択された上記シナリオ情報で定義された質問相手が対象ユーザUSの場合に、上記センサデータ取得処理部12により受信されたセンサデータに対応する初期行動中の対象ユーザUSの認知負荷と、当該認知負荷に対応するセリフグループを判定する処理を行う。例えば、上記センサデータの種別とその発生タイミングをもとに、シーンDB33から対象ユーザUSの行動シーンを特定し、特定された行動シーンに対応付けられた認知負荷とセリフグループを読み出す処理を行う。 The cognitive load / dialogue group determination processing unit 14 is in the initial action corresponding to the sensor data received by the sensor data acquisition processing unit 12 when the question partner defined in the selected scenario information is the target user US. Performs a process of determining the cognitive load of the target user US and the dialogue group corresponding to the cognitive load. For example, based on the type of the sensor data and its occurrence timing, the action scene of the target user US is specified from the scene DB 33, and the cognitive load and the dialogue group associated with the specified action scene are read out.

セリフ選択処理部15は、上記シーンDB33から読み出された認知負荷およびセリフグループに基づいて、セリフDB34から対応するセリフ内容、つまり質問文を選択する処理を行う。 The dialogue selection processing unit 15 performs a process of selecting the corresponding dialogue content, that is, a question sentence from the dialogue DB 34, based on the cognitive load and the dialogue group read from the scene DB 33.

質問文送信・記憶処理部16は、上記セリフ選択処理部15から上記質問文を受け取ると、当該質問文を表す例えばテキストデータを通信I/F4から対話型ロボットRBへ送信すると共に、上記質問文を質問・回答DB35に記憶させる処理を行う。 When the question text transmission / storage processing unit 16 receives the question text from the dialogue selection processing unit 15, for example, text data representing the question text is transmitted from the communication I / F4 to the interactive robot RB, and the question text is transmitted. Is stored in the question / answer DB35.

また、質問文送信・記憶処理部16は、上記シナリオ選択処理部13により選択されたシナリオ情報で定義された質問相手が近親者の場合には、当該シナリオ情報に記載された近親者用の質問文を表すテキストデータを通信I/F4から近親者端末PTへ送信すると共に、上記質問文を質問・回答DB35に記憶させる処理を行う。 In addition, when the question partner defined in the scenario information selected by the scenario selection processing unit 13 is a close relative, the question text transmission / storage processing unit 16 asks a question for the close relative described in the scenario information. The text data representing the sentence is transmitted from the communication I / F4 to the close relative terminal PT, and the above question sentence is stored in the question / answer DB 35.

回答文受信・記憶処理部17は、上記質問文の送信後に対話型ロボットRBから対象ユーザUSの音声データを受信した場合に、受信された音声データについて音声認識処理を行って回答文を再生する。そして、再生された回答文のテキストデータを、上記初期行動を表すセンサデータ、および送信された上記質問文のテキストデータと対応付けて、質問・回答DB35に記憶させる処理を行う。 When the response sentence reception / storage processing unit 17 receives the voice data of the target user US from the interactive robot RB after transmitting the above question sentence, the response sentence reception / storage processing unit 17 performs voice recognition processing on the received voice data and reproduces the answer sentence. .. Then, the reproduced text data of the answer sentence is associated with the sensor data representing the initial action and the transmitted text data of the question sentence, and a process of storing the text data in the question / answer DB 35 is performed.

また回答文受信・記憶処理部17は、上記質問文の送信後に近親者端末PTから近親者の回答情報を受信した場合に、受信された回答情報を、上記初期行動を表すセンサデータ、および送信された上記質問文のテキストデータと対応付けて、質問・回答DB35に記憶させる処理を行う。 Further, when the answer sentence reception / storage processing unit 17 receives the answer information of the close relative from the close relative terminal PT after the transmission of the question sentence, the received answer information is transmitted to the sensor data representing the initial action and the transmission. The process of storing the question / answer DB 35 in association with the text data of the above question sentence is performed.

予兆判定処理部18は、上記質問・回答DB35に記憶された各データをもとに対象ユーザUSの行動障害の度合いを評価し、その評価結果を閾値と比較して近親者への通知の要否を判定する処理を行う。 The sign determination processing unit 18 evaluates the degree of behavioral disorder of the target user US based on each data stored in the above question / answer DB 35, compares the evaluation result with the threshold value, and needs to notify close relatives. Performs a process to determine whether or not.

通知情報送信処理部19は、上記予兆判定処理部18により通知が必要と判定された場合に、認知症予兆の推定結果を含む通知情報を通信I/F4から近親者端末PTへ送信する処理を行う。 The notification information transmission processing unit 19 performs a process of transmitting notification information including the estimation result of the dementia sign from the communication I / F4 to the close relative terminal PT when the sign determination processing unit 18 determines that the notification is necessary. conduct.

(動作例)
次に、以上のように構成されたサーバ装置SVの動作例を、対話型ロボットRB、管理用端末MTおよび近親者端末PTの動作と共に説明する。
図4はサーバ装置SVによる行動推定動作に係る処理手順と処理内容の一例を示すフローチャートである。
(Operation example)
Next, an operation example of the server device SV configured as described above will be described together with the operations of the interactive robot RB, the management terminal MT, and the close relative terminal PT.
FIG. 4 is a flowchart showing an example of the processing procedure and the processing content related to the action estimation operation by the server device SV.

(1)デバイス情報およびシナリオ情報の登録
デバイス情報およびシナリオ情報の登録処理は、例えばサービス運用者の操作に応じて以下のように行われる。
(1) Registration of device information and scenario information The registration process of device information and scenario information is performed as follows, for example, according to the operation of the service operator.

すなわち、対象ユーザUSの宅内の所定の場所(対象ユーザUSの手首等を含む)にセンサデバイスD1〜Dnが設置された状態で、例えばサービス運用者が管理用端末MTにおいて登録要求操作を行うと、管理用端末MTからサーバ装置SVに対し登録要求が送信される。 That is, when the sensor devices D1 to Dn are installed at a predetermined location in the home of the target user US (including the wrist of the target user US), for example, when the service operator performs a registration request operation on the management terminal MT. , The registration request is transmitted from the management terminal MT to the server device SV.

サーバ装置SVの制御部1は、上記登録要求を受信すると、登録受付処理部11の制御の下、ステップST10において、先ずデバイス情報登録用のテンプレートデータを送信する。そして、このテンプレートデータに従い、上記管理用端末MTにおいてデバイス情報が入力されると、登録受付処理部11は入力された上記デバイス情報を管理用端末MTから通信I/F4を介して受信し、受信されたデバイス情報をデバイスIDに紐づけてデバイスDB31に記憶させる。 Upon receiving the registration request, the control unit 1 of the server device SV first transmits the template data for device information registration in step ST10 under the control of the registration reception processing unit 11. Then, when the device information is input in the management terminal MT according to the template data, the registration reception processing unit 11 receives the input device information from the management terminal MT via the communication I / F4 and receives it. The generated device information is associated with the device ID and stored in the device DB 31.

図6は管理者端末MTに表示されるテンプレートデータによる登録画面の一例を示し、図7は登録されたデバイス情報の一例を示すものである。図7に示すように、デバイス情報として登録されるデータには、デバイス種別、設置場所および当該センサデバイスが有効となる期間を表す適用期間を示す各データと、シナリオIDが含まれ、これらのデータはデバイスIDに紐づけられた状態で記憶される。なお、シナリオIDは、センサデバイスD1〜Dn毎に、当該センサデバイスにより検出される対象ユーザUSの初期行動に対応するシナリオを指定するために用いられる。 FIG. 6 shows an example of a registration screen using template data displayed on the administrator terminal MT, and FIG. 7 shows an example of registered device information. As shown in FIG. 7, the data registered as the device information includes each data indicating the device type, the installation location, the applicable period indicating the period during which the sensor device is valid, and the scenario ID, and these data. Is stored in a state associated with the device ID. The scenario ID is used for each of the sensor devices D1 to Dn to specify a scenario corresponding to the initial action of the target user US detected by the sensor device.

登録受付処理部11は、続いてシナリオ情報登録用のテンプレートデータを送信する。この状態で、上記テンプレートデータに従い、管理用端末MTにおいてシナリオ情報が入力されると、登録受付処理部11は上記シナリオ情報を管理用端末MTから通信I/F4を介して受信し、シナリオDB32に記憶させる。 The registration reception processing unit 11 subsequently transmits template data for scenario information registration. In this state, when the scenario information is input in the management terminal MT according to the template data, the registration reception processing unit 11 receives the scenario information from the management terminal MT via the communication I / F4 and sends it to the scenario DB 32. Remember.

図8は、登録されたシナリオ情報の一例を示すものである。図8に示すように、シナリオ情報として登録されるデータには、取得されたセンサデータの種別と取得タイミング、対象ユーザUSへの質問内容と送信タイミング又は近親者への質問内容と送信タイミングを示すデータが含まれ、これらのデータは上記シナリオIDに紐づけられた状態で記憶される。 FIG. 8 shows an example of the registered scenario information. As shown in FIG. 8, the data registered as the scenario information shows the type and acquisition timing of the acquired sensor data, the question content and transmission timing to the target user US, or the question content and transmission timing to the close relatives. Data is included, and these data are stored in a state associated with the scenario ID.

一方、シーン情報および質問内容を示すセリフ情報は、例えば事前にシステム管理者によりシーンDB33およびセリフDB34に登録される。
図9は、シーンDB33に記憶されるシーン情報の一例を示すものである。図9に示すように、シーン情報は、朝と晩のそれぞれ時間帯において対象ユーザUSが実行すると想定される複数の行動シーンの各々に対し、当該行動シーンを実行する際の対象ユーザUSの初期行動(1) 〜(6) の種類との対応関係を定義する。またシーン情報には、上記行動シーンの各々に対し割り当てられた、認知負荷(高、中、低)およびセリフグループG1〜G4が含まれ、これらのデータはシーンIDに紐づけられた状態でシーンDB33に記憶される。
On the other hand, the scene information and the dialogue information indicating the question contents are registered in the scene DB 33 and the dialogue DB 34 in advance by, for example, the system administrator.
FIG. 9 shows an example of scene information stored in the scene DB 33. As shown in FIG. 9, the scene information is the initial stage of the target user US when executing the action scene for each of a plurality of action scenes expected to be executed by the target user US in each of the morning and evening time zones. Define the correspondence with the types of actions (1) to (6). Further, the scene information includes cognitive load (high, medium, low) and dialogue groups G1 to G4 assigned to each of the above action scenes, and these data are associated with the scene ID in the scene. It is stored in the DB 33.

図10は、セリフDB34に記憶されるセリフ情報の一例を示すものである。図10に示すように、セリフ情報は、上記セリフグループG1〜G4毎に、当該グループに含まれる複数のセリフ内容(質問文)をセリフIDと紐づけた状態で記憶したものである。セリフ内容は例えばテキストデータからなる。
なお、シーンDB33およびセリフDB34へのシーン情報およびセリフ情報の登録処理は、登録受付処理部11の制御の下、サービス運用者の操作により行われてもよい。
FIG. 10 shows an example of dialogue information stored in the dialogue DB 34. As shown in FIG. 10, the serif information is stored for each of the serif groups G1 to G4 in a state in which a plurality of serif contents (question sentences) included in the group are associated with the serif ID. The content of the dialogue consists of, for example, text data.
The process of registering the scene information and the dialogue information in the scene DB 33 and the dialogue DB 34 may be performed by the operation of the service operator under the control of the registration reception processing unit 11.

(2)対象ユーザUSの行動推定
(2−1)センサデータの取得
例えば宅内において、対象ユーザUSが冷蔵庫の扉FDの開閉操作等を行うと、当該開閉操作がセンサデバイスD2により検出される。なお、窓やカーテンWDの開閉操作や、洗濯機の扉の操作開閉、薬箱の蓋の操作開閉、ソファー、テーブル又はこたつへの離着席等が行われた場合にも、同様にそれぞれのセンサデバイスにより検出される。また、対象ユーザUSが外出又は帰宅した場合にも、その行動はウェアラブル端末Dnにより検出される。
(2) Behavior estimation of the target user US (2-1) Acquisition of sensor data For example, when the target user US performs an opening / closing operation of the refrigerator door FD in the house, the opening / closing operation is detected by the sensor device D2. Similarly, when the windows and curtains WD are opened and closed, the door of the washing machine is opened and closed, the lid of the medicine box is opened and closed, and the sofa, table or kotatsu is seated or removed, the respective sensors are similarly opened and closed. Detected by the device. Further, even when the target user US goes out or returns home, the behavior is detected by the wearable terminal Dn.

上記センサデバイスD1〜Dnから出力されたセンサデータは、無線LAN又はBluetooth(登録商標)等の無線インタフェースを介して対話型ロボットRBに送られる。そして、上記センサデータは、対話型ロボットRBのセンサデータ送受信部51により中継されてサーバ装置SVへ送信される。なお、センサデバイスD1〜Dnのうち対象ユーザUSに装着されているウェアラブル端末Dnは、対象ユーザUSの外出中に検出された例えば歩数や会話時間を表すデータ端末内に保存する。そして、保存された上記歩数や会話時間を表すデータを帰宅後に読み出して上記対話型ロボットRBへ送信する。対話型ロボットRBは、上記歩数や会話時間を表すデータをサーバ装置SVへ転送する。 The sensor data output from the sensor devices D1 to Dn is sent to the interactive robot RB via a wireless interface such as wireless LAN or Bluetooth (registered trademark). Then, the sensor data is relayed by the sensor data transmission / reception unit 51 of the interactive robot RB and transmitted to the server device SV. The wearable terminal Dn attached to the target user US among the sensor devices D1 to Dn is stored in a data terminal representing, for example, the number of steps and the conversation time detected while the target user US is out. Then, the stored data representing the number of steps and the conversation time is read out after returning home and transmitted to the interactive robot RB. The interactive robot RB transfers data representing the number of steps and conversation time to the server device SV.

サーバ装置SVは、上記対話型ロボットRBから送信されたセンサデータを、センサデータ取得処理部12の制御の下、ステップST11,ST12により通信I/F4を介して受信し、受信された上記センサデータを質問・回答DB35に記憶させる。なお、センサデータには、送信元のセンサデバイスD1〜Dnの識別情報(デバイスID)が含まれている。 The server device SV receives the sensor data transmitted from the interactive robot RB under the control of the sensor data acquisition processing unit 12 via the communication I / F4 in steps ST11 and ST12, and the received sensor data. Is stored in the question / answer DB35. The sensor data includes identification information (device ID) of the source sensor devices D1 to Dn.

(2−2)シナリオ情報の選択
サーバ装置SVの制御部1は、上記センサデータが受信されると、次にシナリオ選択処理部13の制御の下、ステップST13において、上記センサデータに含まれるデバイスIDをもとにデバイスDB31から対応するデバイス情報を読み出す。例えば、センサデータが冷蔵庫の扉FDに取着されているセンサデバイスD2から発生されたものであれば、そのデバイスID(D02)に対応付けられたデバイス情報が読み出される。このデバイス情報には、例えば図7に示すようにシナリオID(S02)が含まれている。そしてシナリオ選択処理部13は、上記シナリオID(S02)をもとにシナリオDB32を検索し、当該シナリオDB32から対応するシナリオ情報を読み出す。
(2-2) Selection of scenario information When the control unit 1 of the server device SV receives the sensor data, the device included in the sensor data is included in the sensor data in step ST13 under the control of the scenario selection processing unit 13. The corresponding device information is read from the device DB 31 based on the ID. For example, if the sensor data is generated from the sensor device D2 attached to the refrigerator door FD, the device information associated with the device ID (D02) is read out. This device information includes a scenario ID (S02) as shown in FIG. 7, for example. Then, the scenario selection processing unit 13 searches the scenario DB 32 based on the scenario ID (S02), and reads out the corresponding scenario information from the scenario DB 32.

シナリオ選択処理部13は、続いてステップST14において、上記シナリオ情報に質問が記載されているか否かを判定する。そして、質問が記載されていれば、ステップST15において、上記対応するデバイス情報で定義された適用期間内で最初に実行されるシナリオ情報を選択し、選択された当該シナリオ情報をもとに質問相手が対象ユーザUSか又は近親者かをステップST16で判定する。この判定の結果、質問相手が対象ユーザUSであれば、ステップST17によるロボット対話処理に移行する。 Subsequently, in step ST14, the scenario selection processing unit 13 determines whether or not the question is described in the scenario information. Then, if a question is described, in step ST15, the scenario information to be executed first within the applicable period defined in the corresponding device information is selected, and the question partner is asked based on the selected scenario information. It is determined in step ST16 whether is the target user US or a close relative. As a result of this determination, if the question partner is the target user US, the process proceeds to the robot dialogue process according to step ST17.

一方、上記シナリオ情報に質問が記載されていなければ、シナリオ選択処理部13はステップST20による予兆判定処理に移行する。また、質問が記載され、その相手が近親者であれば、シナリオ選択処理部13はステップST18による近親者対話処理に移行する。 On the other hand, if the question is not described in the scenario information, the scenario selection processing unit 13 shifts to the sign determination processing in step ST20. Further, if the question is described and the other party is a close relative, the scenario selection processing unit 13 shifts to the close relative dialogue process according to step ST18.

(2−3)ロボット対話処理
サーバ装置SVの制御部1は、以下のようにロボット対話処理を実行する。
図5は、ロボット対話処理の処理手順と処理内容を示すフローチャートである。すなわち、先ず認知負荷・セリフグループ判定処理部14の制御の下、ステップST171,ST172において、上記検索されたデバイス情報およびシナリオ情報をもとに行動種別と適用期間を判定し、その各判定結果をもとに、ステップST173においてシーンDB33から対応する行動シーンを選択する。そして、選択された行動シーンをもとに、ステップST174において、選択された上記行動シーンに対応する対象ユーザUSの認知負荷と、当該認知負荷に対応するセリフグループを判定する。
(2-3) Robot Dialogue Processing The control unit 1 of the server device SV executes robot dialogue processing as follows.
FIG. 5 is a flowchart showing a processing procedure and processing contents of the robot dialogue processing. That is, first, under the control of the cognitive load / dialogue group determination processing unit 14, in steps ST171 and ST172, the action type and the application period are determined based on the searched device information and the scenario information, and each determination result is determined. Based on this, the corresponding action scene is selected from the scene DB 33 in step ST173. Then, based on the selected action scene, in step ST174, the cognitive load of the target user US corresponding to the selected action scene and the dialogue group corresponding to the cognitive load are determined.

例えば、いまセンサデータを発生したセンサデバイスが冷蔵庫の扉FDに設置されているセンサデバイスD2で、かつセンサデータが発生した時刻が朝7:00であれば、行動シーンとして、例えば図9に示すようにシーンID(S102)に紐づけられたシーン情報が選択される。そして、このシーン情報から、認知負荷は「高」、それに対応するセリフグループはG1とそれぞれ判定される。 For example, if the sensor device that has generated the sensor data is the sensor device D2 installed on the door FD of the refrigerator and the time when the sensor data is generated is 7:00 in the morning, it is shown as an action scene, for example, FIG. The scene information associated with the scene ID (S102) is selected as described above. Then, from this scene information, the cognitive load is determined to be "high", and the corresponding dialogue group is determined to be G1.

続いてサーバ装置SVの制御部1は、セリフ選択処理部15の制御の下、ステップST175において、セリフDB34に記憶された多数のセリフ情報の中から、上記セリフグループに対応しかつ上記行動シーンに合致するセリフ内容を選択する。例えば、図9に示すように、シーン情報から判定されたセリフグループがG1で、かつ行動シーンが「朝食の準備」であれば、図10に示すセリフDB34から、セリフID(M10)に紐づけられたセリフ内容「朝ごはんのメニューはなんですか?」が選択される。 Subsequently, under the control of the dialogue selection processing unit 15, the control unit 1 of the server device SV corresponds to the dialogue group and changes to the action scene from among a large number of dialogue information stored in the dialogue DB 34 in step ST175. Select the matching dialogue content. For example, as shown in FIG. 9, if the dialogue group determined from the scene information is G1 and the action scene is "preparation for breakfast", the dialogue DB34 shown in FIG. 10 is linked to the dialogue ID (M10). The content of the dialogue "What is the breakfast menu?" Is selected.

次にサーバ装置SVの制御部1は、質問文送信・記憶処理部16の制御の下、ステップST176において、選択された上記セリフ内容、つまり質問文を表すテキストデータを生成し、生成された質問文のテキストデータをステップST177により通信I/F4から対話型ロボットRBに向け送信する。 Next, the control unit 1 of the server device SV generates the text data representing the selected dialogue content, that is, the question sentence in step ST176 under the control of the question sentence transmission / storage processing unit 16, and generates the generated question. The text data of the sentence is transmitted from the communication I / F4 to the interactive robot RB in step ST177.

対話型ロボットRBは、上記質問文のテキストデータを受信すると、音声合成処理部52により上記テキストデータをもとに音声合成処理を行うことで上記質問文に対応する音声を生成し、生成された音声を例えばスピーカを有する音声出力部53から対象ユーザUSに対し出力する。この結果、例えば対話型ロボットRBから対象ユーザUSに対し、質問として「朝ごはんのメニューはなんですか?」が発せられる。
なお、上記質問文の音声合成処理は、対話型ロボットRBではなく、サーバ装置SVにおいて行われてもよい。
When the interactive robot RB receives the text data of the question sentence, the voice synthesis processing unit 52 performs a voice synthesis process based on the text data to generate a voice corresponding to the question sentence. The voice is output to the target user US from, for example, the voice output unit 53 having a speaker. As a result, for example, the interactive robot RB asks the target user US "What is the breakfast menu?" As a question.
The voice synthesis process of the above question sentence may be performed by the server device SV instead of the interactive robot RB.

同様に、対象ユーザUSがソファー又はこたつに座ったことがセンサデバイスにより検出されると、サーバ装置SVは、先ず上記センサデバイスのデバイスIDをもとにデバイス情報から例えばシナリオID(S03)を選択する。続いて、選択されたシナリオIDに対応するシナリオ情報をもとに質問相手が対象ユーザUSか近親者かを判定する。そして、質問相手が対象ユーザUSと判定されれば、上記センサデータの発生元となったデバイスIDと発生時刻とから対象ユーザUSの行動シーン(S105)を判定する。そして、判定された上記行動シーン(S105)から認知負荷「中」とセリフグループG2を判定し、さらにこのセリフグループG2に含まれる複数のセリフ内容M011〜M020の中からセリフ内容を1つ質問文として選択し、この質問文のデータを対話型ロボットRBへ送信する。この結果、対話型ロボットRBから対象ユーザUSに対し、上記質問文の音声が発せられる。 Similarly, when the sensor device detects that the target user US is sitting on the sofa or kotatsu, the server device SV first selects, for example, a scenario ID (S03) from the device information based on the device ID of the sensor device. do. Subsequently, it is determined whether the question partner is the target user US or a close relative based on the scenario information corresponding to the selected scenario ID. Then, if the question partner is determined to be the target user US, the action scene (S105) of the target user US is determined from the device ID from which the sensor data is generated and the time of occurrence. Then, the cognitive load "medium" and the dialogue group G2 are determined from the determined behavior scene (S105), and one dialogue content is asked from the plurality of dialogue contents M011 to M020 included in the dialogue group G2. And send the data of this question to the interactive robot RB. As a result, the interactive robot RB emits the voice of the above question to the target user US.

また、対象ユーザUSが外出から帰宅し、ウェアラブル端末Dnから外出中の歩数データまたは会話時間を表すデータが対話型ロボットRBを介してサーバ装置SVへ送信されると、サーバ装置SVでは、先ず上記ウェアラブル端末DnのデバイスIDをもとにデバイス情報から、例えばシナリオID(S06又はS07)が選択される。 Further, when the target user US returns home from going out and the wearable terminal Dn sends the step count data or the data representing the conversation time while going out to the server device SV via the interactive robot RB, the server device SV first describes the above. For example, a scenario ID (S06 or S07) is selected from the device information based on the device ID of the wearable terminal Dn.

なお、上記対象ユーザUSの帰宅は、例えば、ウェアラブル端末Dnの位置情報と予め登録されている自宅の位置情報との差を用いるか、あるいはウェアラブル端末Dnと対話型ロボットRBとの間で無線通信が可能になったことを検出することで判定可能である。さらに、対話型ロボットRBが対象ユーザUSの接近を検知し、顔認証により本人を特定した後に、対話型ロボットRBがウェアラブル端末Dnから歩数データ又は会話時間を表すデータを取得して、サーバ装置SVへ転送するようにしてもよい。 The target user US returns home by using, for example, the difference between the position information of the wearable terminal Dn and the position information of the home registered in advance, or wireless communication between the wearable terminal Dn and the interactive robot RB. Can be determined by detecting that is possible. Further, after the interactive robot RB detects the approach of the target user US and identifies the person by face recognition, the interactive robot RB acquires the step count data or the data representing the conversation time from the wearable terminal Dn, and the server device SV. You may want to transfer to.

続いてサーバ装置SVは、選択された上記シナリオID(S06又はS07)に対応するシナリオ情報をもとに質問相手が対象ユーザUSか近親者かを判定する。そして、質問相手が対象ユーザUSと判定されれば、上記ウェアラブル端末DnのデバイスIDと帰宅時刻をもとに対象ユーザUSの行動シーンを判定する。そして、判定された行動シーンに対し設定された認知負荷(例えば「中」)とセリフグループG2をシーン情報から判定し、さらにこのセリフグループG2に含まれる複数のセリフ内容M011〜M020の中からセリフ内容を質問文として1つ選択し、対話型ロボットRBへ送信する。 Subsequently, the server device SV determines whether the question partner is the target user US or a close relative based on the scenario information corresponding to the selected scenario ID (S06 or S07). Then, if the question partner is determined to be the target user US, the action scene of the target user US is determined based on the device ID of the wearable terminal Dn and the time to return home. Then, the cognitive load (for example, "medium") set for the determined action scene and the dialogue group G2 are determined from the scene information, and the dialogue is further selected from the plurality of dialogue contents M011 to M020 included in the dialogue group G2. Select one of the contents as a question and send it to the interactive robot RB.

この結果、対話型ロボットRBから対象ユーザUSに向け上記質問文の音声が発せられる。例えば、質問文として「今日はどこに行ってきたの?」、「今日はだれと会ってきたの?」が発せられる。 As a result, the voice of the above question sentence is emitted from the interactive robot RB to the target user US. For example, the question texts are "Where did you go today?" And "Who did you meet today?"

以上のように質問情報の送信が終了すると、質問文送信・記憶処理部16は、ステップST19において、送信した上記質問文のデータを、当該質問の契機となった対象ユーザUSの初期行動を示すセンサデータと関連付けて、質問・回答DB35に記憶させる。 When the transmission of the question information is completed as described above, the question text transmission / storage processing unit 16 indicates the initial action of the target user US that triggered the question by displaying the transmitted data of the question text in step ST19. It is associated with the sensor data and stored in the question / answer DB35.

(2−4)近親者との対話処理
例えば、薬箱が開けられ、その蓋に設置されたセンサデバイスから薬箱の開閉を表すセンサデータが出力されたとする。この場合サーバ装置SVは、上記センサデータを対話型ロボットRBから受信すると、その発生元のセンサデバイスのデバイスID(D05)をもとにデバイス情報を検索し、このデバイス情報からシナリオID(S05)を判定する。そして、このシナリオID(S05)に対応するシナリオ情報をもとに、ステップST16により質問相手が近親者(例えばケアマネージャ)であると判定すると、ステップST18に移行する。
(2-4) Dialogue processing with close relatives For example, suppose that a medicine box is opened and sensor data indicating the opening and closing of the medicine box is output from a sensor device installed on the lid. In this case, when the server device SV receives the sensor data from the interactive robot RB, the server device SV searches for device information based on the device ID (D05) of the sensor device from which the sensor data is generated, and the scenario ID (S05) is searched from this device information. To judge. Then, based on the scenario information corresponding to this scenario ID (S05), if it is determined in step ST16 that the question partner is a close relative (for example, a care manager), the process proceeds to step ST18.

このステップST18においてサーバ装置SVの制御部1は、質問文送信・記憶処理部16の制御の下、先ず現在時刻が上記シナリオ情報に記載された近親者向けの質問タイミングに該当するか否かを判定する。この判定の結果、例えば過去3日間薬箱が開閉されていなければ、質問文送信・記憶処理部16は、上記シナリオ情報に記載された質問内容を読み出し、この質問内容を表すテキストデータを、通信I/F4から、対象ユーザUSに対応付けて予め登録されている近親者端末PTへ送信する。 In step ST18, the control unit 1 of the server device SV first determines whether or not the current time corresponds to the question timing for close relatives described in the above scenario information under the control of the question text transmission / storage processing unit 16. judge. As a result of this determination, for example, if the medicine box has not been opened or closed for the past three days, the question text transmission / storage processing unit 16 reads out the question content described in the scenario information and communicates the text data representing the question content. It is transmitted from the I / F4 to the close relative terminal PT registered in advance in association with the target user US.

この結果、ケアマネージャ等が所持する近親者端末PTでは、質問/回答送受信部71により上記質問内容を表すテキストデータが受信され表示される。例えば図8に示される「薬は処方されていますか?」が表示される。なお、この場合の質問内としては、「薬を飲み忘れています。対象ユーザに確認してください。」のような内容が選択されてもよく、質問内容は任意に選択可能である。 As a result, in the close relative terminal PT possessed by the care manager or the like, the question / answer transmission / reception unit 71 receives and displays the text data representing the above question content. For example, "Is the drug prescribed?" Shown in FIG. 8 is displayed. In this case, a question such as "I forgot to take the medicine. Please check with the target user." May be selected, and the question content can be arbitrarily selected.

(2−5)回答情報の受信・記憶
対話型ロボットRBから上記音声による質問が発せられ、これに対し対象ユーザUSが回答内容を音声により発したとする。この回答内容の音声は、対話型ロボットRBにおいてスピーカを有する音声入力部54により検出されて音声データに変換された後、サーバ装置SVへ送信される。
(2-5) Receiving and storing answer information It is assumed that the interactive robot RB issues the above-mentioned voice question, and the target user US responds by voice. The voice of the answer content is detected by the voice input unit 54 having a speaker in the interactive robot RB, converted into voice data, and then transmitted to the server device SV.

サーバ装置SVの制御部1は、上記回答文受信・記憶処理部17の制御の下、対話型ロボットRBから送信された回答内容の音声データを通信I/F4を介して受信すると、受信された音声データに対し音声認識処理を行って回答内容のテキストデータを生成する。そしてステップST19において、生成された上記回答内容を表すテキストデータを、先に記憶した質問のテキストデータと関連付けて質問・回答DB35に記憶させる。 When the control unit 1 of the server device SV receives the voice data of the response content transmitted from the interactive robot RB via the communication I / F4 under the control of the response sentence reception / storage processing unit 17, it is received. Voice recognition processing is performed on the voice data to generate text data of the answer contents. Then, in step ST19, the generated text data representing the answer content is stored in the question / answer DB 35 in association with the text data of the previously stored question.

なお、対話型ロボットRBに音声認識処理機能を持たせ、対象ユーザUSが入力した回答内容の音声を対話型ロボットRBにより音声認識処理して回答内容を表すテキストデータを生成し、生成された回答内容を表すテキストデータをサーバ装置SVへ送信するようにしてもよい。 The interactive robot RB is provided with a voice recognition processing function, and the voice of the response content input by the target user US is voice-recognized by the interactive robot RB to generate text data representing the response content, and the generated response. Text data representing the contents may be transmitted to the server device SV.

また、近親者端末PTにおいて、受信された上記質問内容に対して、近親者が回答を入力すると、近親者端末PTは質問/回答送受信部71により、入力された上記回答内容を表すデータをサーバ装置SVへ送信する。なお、近親者端末PTとサーバ装置SVとの間の質問情報および回答情報の送受信は、メール又はSNS(Social Network Service)により行われるが、音声データ通信を用いてもよい。 Further, when a close relative inputs an answer to the received question content in the close relative terminal PT, the close relative terminal PT uses the question / answer transmission / reception unit 71 to send data representing the input answer content to the server. Send to the device SV. The question information and the answer information are transmitted and received between the close relative terminal PT and the server device SV by mail or SNS (Social Network Service), but voice data communication may also be used.

サーバ装置SVの制御部1は、回答受信・記憶処理部17の制御の下、上記近親者端末PTから送信された回答内容を表すテキストデータを通信I/F4を介して受信し、受信された回答内容を表すテキストデータを、先に記憶した質問のテキストデータと関連付けて質問・回答DB35に記憶させる。 Under the control of the response reception / storage processing unit 17, the control unit 1 of the server device SV receives and receives the text data representing the response content transmitted from the close relative terminal PT via the communication I / F4. The text data representing the answer content is stored in the question / answer DB 35 in association with the text data of the question stored earlier.

ところで、質問・回答DB35において、質問情報および回答情報は、センサデバイスD1〜Dnにより検出された対象ユーザUSの初期行動を表す情報と関連付けられて記憶される。そのデータ構造としては、例えば主語、述語、目的語の関係を表すResource Description Framework(RDF)が使用される。 By the way, in the question / answer DB 35, the question information and the answer information are stored in association with the information representing the initial behavior of the target user US detected by the sensor devices D1 to Dn. As the data structure, for example, Resource Description Framework (RDF) representing the relationship between a subject, a predicate, and an object is used.

図11はその一例を示すものである。この例では、“対象ユーザUS”が主語になり、どこに設置されたデバイスなのかが述語に、そのデバイスIDが目的語となる。さらに、そのデバイスIDが主語となり、データを取得した日付が述語になり、そのデバイスによる検出時刻やこの検出時刻に基づいてそのデバイスが設置された機器の使用時間を推定した結果が目的語となる。そして、対象ユーザUS又は近親者に対し行った質問とその回答の内容は、新たな目的語として記憶される。例えば、図11の例では、対象ユーザUSへの質問に対する回答である“アジの開き”や、近親者への質問に対する回答である“薬処方あり”が記憶される。 FIG. 11 shows an example thereof. In this example, "target user US" is the subject, where the device is installed is the predicate, and the device ID is the object. Further, the device ID becomes the subject, the date when the data is acquired becomes the predicate, and the result of estimating the detection time by the device and the usage time of the device in which the device is installed based on the detection time becomes the object. .. Then, the question asked to the target user US or a close relative and the content of the answer are stored as a new object. For example, in the example of FIG. 11, "opening of horse mackerel" which is an answer to a question to the target user US and "with a drug prescription" which is an answer to a question to a close relative are stored.

このように、質問・回答DB35に記憶される質問と回答のデータ構造としてRDFを使用すると、新たなデバイスを追加したり、新たなシナリオを追加しても、質問および回答を柔軟に記憶することが可能となる。 In this way, by using RDF as the data structure of questions and answers stored in the question / answer DB35, the questions and answers can be flexibly stored even if a new device is added or a new scenario is added. Is possible.

(2−6)質問・回答を用いない場合の行動の推定
シナリオ情報には、例えば図8に示すように質問を行わないシナリオも定義されており、これらのシナリオを用いても対象ユーザの行動を推定することができる。例えば、トイレのドアにセンサデバイスを設置したことをデバイス情報に登録し、このセンサデバイスによりトイレのドアの開閉が検出された場合に、トイレの使用回数や使用時間を記憶するシナリオS01を登録しておく。このようにすると、対象ユーザUSの宅内でのトイレの使用という行動を推定することができる。
(2-6) Estimating behavior when no question / answer is used Scenario information also defines scenarios in which no question is asked, as shown in FIG. 8, and even if these scenarios are used, the behavior of the target user Can be estimated. For example, the fact that the sensor device is installed on the toilet door is registered in the device information, and when the opening / closing of the toilet door is detected by this sensor device, the scenario S01 that stores the number of times the toilet is used and the usage time is registered. I'll keep it. In this way, the behavior of using the toilet in the home of the target user US can be estimated.

同様に、洗濯機の扉にセンサデバイスを設置したことをデバイス情報に登録し、このセンサデバイスにより洗濯機の扉の開閉が検出された場合に、洗濯機の使用回数や使用時間を記憶するシナリオS04を登録しておく。このようにすると、対象ユーザUSの洗濯機の使用という行動を推定することができる。 Similarly, a scenario in which the fact that a sensor device is installed on the door of the washing machine is registered in the device information, and when the opening / closing of the door of the washing machine is detected by this sensor device, the number of times the washing machine is used and the usage time are stored. Register S04. In this way, the behavior of the target user US using the washing machine can be estimated.

(3)行動障害の判定
サーバ装置SVの制御部1は、予兆判定処理部18の制御の下、ステップST20において、上記質問・回答DB35に記憶された対象ユーザUSの初期行動と対象ユーザUS自身又は近親者の回答との関係に基づいて、対象ユーザUSの行動障害の度合いを評価する。例えば、冷蔵庫の扉FDを開いたものの、朝食を調理する(又はした)旨の回答が無い場合は、朝食の準備行動の点でネガティブな評価値が算出される。
(3) The control unit 1 of the behavioral disorder determination server device SV, under the control of the sign determination processing unit 18, in step ST20, the initial behavior of the target user US stored in the question / answer DB 35 and the target user US itself. Alternatively, the degree of behavioral disorder of the target user US is evaluated based on the relationship with the answers of close relatives. For example, if the refrigerator door FD is opened but there is no response to cook (or have) breakfast, a negative evaluation value is calculated in terms of breakfast preparation behavior.

一例を述べると、冷蔵庫の扉FDを開けた時点で、朝食を作るかどうかを対話型ロボットRBから対象ユーザUSに対し質問する。そして、この質問に対し対象ユーザUSが「作る」と回答した場合には評価点として+5点が、これに対し「作らない」と回答した場合には+3点がそれぞれ与えられる。また、冷蔵庫の扉FDを開ける操作が行われていない状態で同じ質問を行い、この質問に対し対象ユーザUSが「作る」と回答した場合には+2点を、これに対し「作らない」と回答した場合には0点をそれぞれ与える。 As an example, when the refrigerator door FD is opened, the interactive robot RB asks the target user US whether or not to prepare breakfast. Then, when the target user US answers "make" to this question, +5 points are given as an evaluation point, and when the target user US answers "do not make", +3 points are given respectively. Also, if the same question is asked when the operation to open the refrigerator door FD is not performed and the target user US answers "make" to this question, +2 points are given to this question, and "do not make". If you answer, you will be given 0 points.

予兆判定処理部18は、例えば一定期間における対象ユーザの評価点の合計値を予め設定された閾値と比較する。そして、この比較の結果、評価点の合計値が閾値を超えると、行動障害の度合いが高いと判定する。 The sign determination processing unit 18 compares, for example, the total value of the evaluation points of the target user in a certain period with a preset threshold value. Then, as a result of this comparison, when the total value of the evaluation points exceeds the threshold value, it is determined that the degree of behavioral disorder is high.

通知情報送信処理部19は、ステップST21において、上記評価点の判定結果に基づいてその旨の通知情報を生成する。そして、生成された上記通知情報を通信I/F4から同居していない家族又はケアマネージャ等が所持する近親者端末PTに向け送信する。送信媒体としては、例えば電子メール又はSNSが用いられる。 In step ST21, the notification information transmission processing unit 19 generates notification information to that effect based on the determination result of the evaluation points. Then, the generated notification information is transmitted from the communication I / F4 to the close relative terminal PT possessed by a family member or a care manager who does not live together. As the transmission medium, for example, e-mail or SNS is used.

これに対し、近親者端末PTでは、上記サーバ装置SVから通知情報が送られると、通知情報受信表示部72により上記通知情報を受信して表示する。従って、ケアマネージャ等の近親者は、上記行動障害に関する通知情報を確認することにより、これにより対象ユーザの認知症の予兆の疑いに早期に気づくことが可能となり、早期の受診につなげることができる。 On the other hand, in the close relative terminal PT, when the notification information is sent from the server device SV, the notification information reception display unit 72 receives and displays the notification information. Therefore, by confirming the notification information regarding the above-mentioned behavioral disorder, a close relative such as a care manager can be aware of the suspicion of a sign of dementia of the target user at an early stage, which can lead to an early consultation. ..

(作用・効果)
以上述べたように一実施形態によれば、センサデバイスD1〜Dnの種別および設置場所を含むデバイス情報と、対象ユーザについて上記センサデバイスD1〜Dnにより検出される初期行動に対応するシナリオ情報を予め記憶しておき、上記センサデバイスD1〜Dnにより対象ユーザの初期行動が検出されたとき、対応するシナリオ情報を選択し、当該シナリオ情報に従い対象ユーザ又は近親者に対し質問を行ってその回答を取得することにより、対象ユーザの行動を推定するようにしている。従って、対象ユーザの初期行動に応じたシナリオに従い、対象ユーザの様々な行動を適切に推定することができる。
(Action / effect)
As described above, according to one embodiment, device information including the type and installation location of the sensor devices D1 to Dn and scenario information corresponding to the initial action detected by the sensor devices D1 to Dn for the target user are provided in advance. When the initial behavior of the target user is detected by the sensor devices D1 to Dn, the corresponding scenario information is selected, a question is asked to the target user or a close relative according to the scenario information, and the answer is obtained. By doing so, the behavior of the target user is estimated. Therefore, various behaviors of the target user can be appropriately estimated according to the scenario according to the initial behavior of the target user.

また、対象ユーザに対し質問を行う際には、上記対象ユーザの初期行動から想定される行動シーンに対応する認知負荷を判定し、判定された認知負荷に対応するセリフグループの中から上記行動シーンに対応するセリフを選択し、選択された上記セリフを質問情報として出力するようにしている。このため、対象ユーザの行動シーン毎にその時の対象ユーザの認知負荷を考慮した適切な質問が行われ、これにより対象ユーザから妥当性を高い回答を取得することが可能となる。従って、対象ユーザの行動をさらに正確に推定することが可能となる。 In addition, when asking a question to the target user, the cognitive load corresponding to the behavior scene assumed from the initial behavior of the target user is determined, and the behavior scene is selected from the dialogue groups corresponding to the determined cognitive load. The line corresponding to is selected, and the selected line is output as question information. Therefore, an appropriate question is asked for each behavior scene of the target user in consideration of the cognitive load of the target user at that time, and it is possible to obtain a highly valid answer from the target user. Therefore, the behavior of the target user can be estimated more accurately.

[他の実施形態]
(1)シーン情報における朝、晩の設定項目については、時刻又は時間帯を設定してもよい。また、認知負荷レベルを「高」と「中/小」の2段階としたが、さらに多くの段階を設定してもよい。
[Other Embodiments]
(1) For the morning and evening setting items in the scene information, the time or time zone may be set. In addition, although the cognitive load level is set to two levels of "high" and "medium / small", more levels may be set.

(2)回答が妥当でない場合や回答がなかった場合が予め設定した回数(例えば3回)連続するか、又は所定の期間(例えば1週間)に取得された回答のうち所定数(例えば半数)以上が妥当ではないと判定された場合には、当該行動シーンに対応する認知負荷のレベルが対象ユーザにとっては高かったものと見なし、当該行動シーンに対応する認知負荷のレベルを1段階下げるといった、行動シーンに対する認知負荷レベルの設定変更を行う制御を行うようにしてもよい。この制御は、例えば質問毎に当該質問に対し妥当性のある回答集を予め記憶しておき、この回答集に含まれない回答の数をカウントすることで実現できる。 (2) If the answer is not valid or if there is no answer, the number of answers is set in advance (for example, 3 times), or the specified number (for example, half) of the answers obtained during the specified period (for example, 1 week). If it is determined that the above is not appropriate, the level of cognitive load corresponding to the behavior scene is considered to be high for the target user, and the level of cognitive load corresponding to the behavior scene is lowered by one level. Control may be performed to change the setting of the cognitive load level for the action scene. This control can be realized, for example, by storing a collection of valid answers to the question in advance for each question and counting the number of answers not included in this collection of answers.

(3)認知負荷レベルに対するセリフは、対象ユーザの趣味や日頃の活動等のユーザ属性を鑑み変更設定されてもよい。例えば、図10において、セリフグループG2に含まれるセリフM017の「頭の体操をしませんか?「き」のつく食べ物を3つ挙げてください」は、対象ユーザUSの認知負荷レベルが「小/中」のときの質問項目に設定されている。しかし、例えば対象ユーザUSの趣味が花(を育てること)で、花の名前について詳しいと想定される場合、対象ユーザUSにとっては認知負荷レベルが「高」ときでも容易に回答できる可能性が高い。 (3) The dialogue for the cognitive load level may be changed and set in consideration of user attributes such as the hobby of the target user and daily activities. For example, in FIG. 10, in the dialogue M017 included in the dialogue group G2, "Why don't you do brain teaser? Please list three foods with" ki "", the cognitive load level of the target user US is "small / It is set in the question item when "Medium". However, for example, if the hobby of the target user US is flower (growing) and it is assumed that the target user US is familiar with the name of the flower, there is a high possibility that the target user US can easily answer even when the cognitive load level is "high". ..

そこで、この対象ユーザUSに対しては、上記セリフM017を認知負荷「高」のセリフグループに含めるか、或いは対象ユーザUSの行動シーンとして例えば「花を生ける」が用意されている場合に、当該行動シーンに対する認知負荷レベルを「小/中」に設定する。なお、これは例えば、対象ユーザの趣味が花である旨の申告をシステム運営者が対象ユーザあるいは近親者から事前に取得し、取得された趣味に関する情報を考慮してシーン情報またはセリフ情報を設定することにより実現できる。 Therefore, for this target user US, if the above line M017 is included in the line group with a cognitive load of "high", or if, for example, "flowering" is prepared as an action scene of the target user US, the relevant line is applicable. Set the cognitive load level for the behavior scene to "Small / Medium". For example, the system operator obtains a declaration that the target user's hobby is a flower from the target user or a close relative in advance, and sets scene information or dialogue information in consideration of the acquired hobby information. It can be realized by doing.

このように対話型ロボットRBから発する質問の内容(セリフ)を、その時の対象ユーザUSの属性情報に応じて設定することにより、対象ユーザUSに対しさらに適切な質問を行うことができ、これにより対象ユーザUSの行動をより一層的確に把握することが可能となる。 By setting the content (line) of the question issued from the interactive robot RB in accordance with the attribute information of the target user US at that time, it is possible to ask a more appropriate question to the target user US. It becomes possible to more accurately grasp the behavior of the target user US.

(4)一実施形態では、サーバ装置SVのデータ記憶部3にデバイスDB31、シナリオDB32、シーンDB33、セリフDB34および質問・回答DB35を設けた場合を例にとって説明した。しかし、この発明はこれに限定されるものではなく、上記各DB31〜35を例えば別のデータベースサーバに設け、サーバ装置SVがネットワークを介して上記データベースサーバの上記各DB31〜35にアクセスするように構成してもよい。 (4) In one embodiment, a case where the device DB 31, the scenario DB 32, the scene DB 33, the dialogue DB 34, and the question / answer DB 35 are provided in the data storage unit 3 of the server device SV has been described as an example. However, the present invention is not limited to this, and each of the DBs 31 to 35 is provided in, for example, another database server so that the server device SV accesses each of the DBs 31 to 35 of the database server via a network. It may be configured.

(5)一実施形態では、サーバ装置SVの制御部1が、登録受付処理部11、センサデータ取得処理部12、シナリオ選択処理部13、認知負荷・セリフグループ判定処理部14、セリフ選択処理部15、質問文送信・記憶処理部16、回答文受信・記憶処理部17、予兆判定処理部18および通知情報送信処理部19の各処理を実行するプログラムを備えている場合を例にとって説明した。しかし、この発明はこれに限らず、上記各部11〜19の処理を実行するプログラムを別のクラウド又はWeb上のサーバ装置に設け、必要に応じて当該サーバ装置から上記プログラムをダウンロードして使用するように構成してもよい。 (5) In one embodiment, the control unit 1 of the server device SV is a registration reception processing unit 11, a sensor data acquisition processing unit 12, a scenario selection processing unit 13, a cognitive load / dialogue group determination processing unit 14, and a dialogue selection processing unit. 15. A case where a program for executing each process of the question sentence transmission / storage processing unit 16, the answer sentence reception / storage processing unit 17, the sign determination processing unit 18, and the notification information transmission processing unit 19 is provided has been described as an example. However, the present invention is not limited to this, and a program for executing the processes of each of the above parts 11 to 19 is provided in another cloud or a server device on the Web, and the above program is downloaded from the server device and used as needed. It may be configured as follows.

(6)センサデバイスの種類や設置場所は、検出対象となる対象ユーザの初期行動に応じてどのように設定されてもよい。また、シナリオ情報、シーン情報およびセリフ情報についても、想定される対象ユーザの初期行動の種類や行動シーン、ユーザ属性等に応じてどのように設定されてもよい。その他、対話型ロボットの種類や構成、サーバ装置の種類や構成、その処理手順と処理内容等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。 (6) The type and installation location of the sensor device may be set in any way according to the initial behavior of the target user to be detected. Further, the scenario information, the scene information, and the dialogue information may be set in any way according to the type of initial action of the assumed target user, the action scene, the user attribute, and the like. In addition, the type and configuration of the interactive robot, the type and configuration of the server device, the processing procedure and processing content thereof, and the like can be variously modified and implemented without departing from the gist of the present invention.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 In short, the present invention is not limited to the above-described embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof. In addition, various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. In addition, components from different embodiments may be combined as appropriate.

SV…サーバ装置
US…対象ユーザ
RB…対話型ロボット
FD,WD…監視対象物
D1,D2〜Dn…センサデバイス
MT…管理用端末
PT…近親者端末
NW…ネットワーク
1…制御部
2…プログラム記憶部
3…データ記憶部
4…通信I/F
5…バス
11…登録受付処理部
12…センサデータ取得処理部
13…シナリオ選択処理部
14…認知負荷・セリフグループ判定処理部
15…セリフ選択処理部
16…質問文送信・記憶処理部
17…回答文受信・記憶処理部
18…予兆判定処理部
19…通知情報送信処理部
31…デバイスDB
32…シナリオDB
33…シーンDB
34…セリフDB
35…質問・回答DB
51…センサデータ送受信部
52…音声合成処理部
53…音声出力部
54…音声入力部
61…登録設定処理部
71…質問/回答送受信部
72…通知情報受信表示部
SV ... Server device US ... Target user RB ... Interactive robot FD, WD ... Monitoring target D1, D2 to Dn ... Sensor device MT ... Management terminal PT ... Relatives terminal NW ... Network 1 ... Control unit 2 ... Program storage unit 3 ... Data storage unit 4 ... Communication I / F
5 ... Bus 11 ... Registration reception processing unit 12 ... Sensor data acquisition processing unit 13 ... Scenario selection processing unit 14 ... Cognitive load / dialogue group judgment processing unit 15 ... Dialogue selection processing unit 16 ... Question text transmission / storage processing unit 17 ... Answer Sentence reception / storage processing unit 18 ... Predictive judgment processing unit 19 ... Notification information transmission processing unit 31 ... Device DB
32 ... Scenario DB
33 ... Scene DB
34 ... Dialogue DB
35 ... Question / Answer DB
51 ... Sensor data transmission / reception unit 52 ... Voice synthesis processing unit 53 ... Voice output unit 54 ... Voice input unit 61 ... Registration setting processing unit 71 ... Question / answer transmission / reception unit 72 ... Notification information reception display unit

Claims (7)

対象ユーザに対し対話装置により質問情報を提示させ、当該質問情報に対する前記対象ユーザの回答情報を前記対話装置から取得することにより前記対象ユーザの行動を推定する行動推定装置であって、
前記対象ユーザの初期行動を検出する検出部と、
検出された前記初期行動をもとに、当該初期行動中における前記対象ユーザの認知負荷を判定する判定部と、
判定された前記認知負荷と、前記初期行動から推定される行動シーンとに基づいて、前記対象ユーザに対する前記質問情報を生成する生成部と、
生成された前記質問情報を前記対話装置へ出力する出力部と
を具備する行動推定装置。
An action estimation device that estimates the behavior of the target user by having the target user present question information by a dialogue device and acquiring the response information of the target user to the question information from the dialogue device.
A detection unit that detects the initial behavior of the target user,
Based on the detected initial action, a determination unit that determines the cognitive load of the target user during the initial action, and a determination unit.
A generation unit that generates the question information for the target user based on the determined cognitive load and the behavior scene estimated from the initial behavior.
A behavior estimation device including an output unit that outputs the generated question information to the dialogue device.
前記判定部は、複数の前記初期行動の各々に対応して予め設定された前記認知負荷を記憶する第1の記憶媒体を備え、検出された前記初期行動に基づいて前記第1の記憶媒体から対応する前記認知負荷を選択する、請求項1に記載の行動推定装置。 The determination unit includes a first storage medium for storing the cognitive load preset corresponding to each of the plurality of initial actions, and from the first storage medium based on the detected initial action. The behavior estimation device according to claim 1, wherein the corresponding cognitive load is selected. 前記認知負荷が複数のレベルにより定義される場合に、
前記生成部は、複数の前記行動シーンと前記認知負荷の複数のレベルとの組合せに対応して予め用意された複数の前記質問情報を記憶する第2の記憶媒体を備え、前記判定部により選択された前記認知負荷のレベルと、前記初期行動から推定される前記行動シーンとに基づいて、前記第2の記憶媒体から対応する前記質問情報を選択する、請求項2に記載の行動推定装置。
When the cognitive load is defined by multiple levels,
The generation unit includes a second storage medium for storing a plurality of the question information prepared in advance corresponding to a combination of the plurality of behavior scenes and the plurality of levels of the cognitive load, and is selected by the determination unit. The behavior estimation device according to claim 2, wherein the corresponding question information is selected from the second storage medium based on the cognitive load level and the behavior scene estimated from the initial behavior.
前記認知負荷が複数のレベルにより定義される場合に、
前記質問情報に対する前記対象ユーザの回答情報の妥当性を判定し、判定された妥当性が予め定義した判定条件を満たさない場合に、前記第1の記憶媒体に記憶された前記初期行動に対応する前記認知負荷のレベルを変更する変更部を、さらに具備する、請求項2に記載の行動推定装置。
When the cognitive load is defined by multiple levels,
The validity of the answer information of the target user with respect to the question information is determined, and when the determined validity does not satisfy the predetermined determination condition, it corresponds to the initial action stored in the first storage medium. The behavior estimation device according to claim 2, further comprising a changing unit for changing the level of the cognitive load.
検出された前記初期行動を表す情報と、当該初期行動に応じて出力された前記質問情報と、当該質問情報に対する前記対象ユーザの回答情報とを記憶する第3の記憶媒体を備え、記憶された前記各情報に基づいて前記対象ユーザの行動障害の度合いを判定する行動障害判定部を、さらに具備する、請求項1に記載の行動推定装置。 A third storage medium for storing the detected information representing the initial action, the question information output in response to the initial action, and the answer information of the target user to the question information is provided and stored. The behavior estimation device according to claim 1, further comprising a behavioral disorder determination unit that determines the degree of behavioral disorder of the target user based on the respective information. 対象ユーザに対し対話装置により質問情報を提示させ、当該質問情報に対する前記対象ユーザの回答情報を前記対話装置から取得することにより前記対象ユーザの行動を推定する行動推定装置が実行する行動推定方法であって、
前記対象ユーザの初期行動を検出する過程と、
検出された前記初期行動をもとに、当該初期行動中における前記対象ユーザの認知負荷を判定する過程と、
判定された前記認知負荷と、前記初期行動から推定される行動シーンとに基づいて、前記対象ユーザに対する前記質問情報を生成する過程と、
生成された前記質問情報を前記対話装置へ出力する過程と
を具備する行動推定方法。
A behavior estimation method executed by a behavior estimation device that estimates the behavior of the target user by having the target user present question information by the dialogue device and acquiring the response information of the target user to the question information from the dialogue device. There,
The process of detecting the initial behavior of the target user and
Based on the detected initial behavior, the process of determining the cognitive load of the target user during the initial behavior and
A process of generating the question information for the target user based on the determined cognitive load and the behavior scene estimated from the initial behavior, and
A behavior estimation method including a process of outputting the generated question information to the dialogue device.
請求項1乃至5の何れかに記載の行動推定装置が具備する前記各部の処理を、前記行動推定装置が備えるプロセッサに実行させるプログラム。 A program for causing a processor included in the behavior estimation device to execute the processing of each part included in the behavior estimation device according to any one of claims 1 to 5.
JP2020076843A 2020-04-23 2020-04-23 Behavior estimation device, method, and program Pending JP2021174204A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020076843A JP2021174204A (en) 2020-04-23 2020-04-23 Behavior estimation device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020076843A JP2021174204A (en) 2020-04-23 2020-04-23 Behavior estimation device, method, and program

Publications (1)

Publication Number Publication Date
JP2021174204A true JP2021174204A (en) 2021-11-01

Family

ID=78279642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020076843A Pending JP2021174204A (en) 2020-04-23 2020-04-23 Behavior estimation device, method, and program

Country Status (1)

Country Link
JP (1) JP2021174204A (en)

Similar Documents

Publication Publication Date Title
Chung et al. Chatbot-based heathcare service with a knowledge base for cloud computing
Turjamaa et al. How smart homes are used to support older people: An integrative review
WO2018043113A1 (en) Information processing apparatus, information processing method, and program
JP5959051B2 (en) Dementia inquiry support device
US10678941B2 (en) Privacy focused network sensor device object recognition
Harbison et al. A new measure of child vocal reciprocity in children with autism spectrum disorder
Alnanih et al. Characterising context for mobile user interfaces in health care applications
JP6082832B1 (en) Message management apparatus and message management method
Robinson What the pregnancy test is testing
Sadavarte et al. Pregnancy companion chatbot using alexa and amazon web services
US9129501B1 (en) Augmented acknowledgement of alarms and messages in mobile health systems
Campos et al. Inferring social isolation in older adults through ambient intelligence and social networking sites
JP2021174204A (en) Behavior estimation device, method, and program
WO2021106099A1 (en) Action assistance information generation device, method, and program
KR101926855B1 (en) Apparatus for providing question-answering service of call center
Gale et al. Co‐production in the epidemiological clinic: A decentred analysis of the tensions in community‐based, client‐facing risk work
Fredrich et al. An ontology for user profile modeling in the field of ambient assisted living
de Alencar et al. Towards design guidelines for software applications that collect user data for ubicomp
Peruzzini et al. Design of a service-oriented architecture for AAL
Jih et al. A multi-agent service framework for context-aware elder care
Wlodarczak et al. Reality mining in eHealth
JP6934132B2 (en) Information presentation system, program and information presentation method
Torii et al. Improvement of sharing of observations and awareness in nursing and caregiving by voice tweets
JP2010041482A (en) Presence information generating system, computer program, and presence information generating method
WO2022029859A1 (en) Communication assist device, communication assist method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20200605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220121