JP2022127234A - Information processing method, information processing system, and program - Google Patents

Information processing method, information processing system, and program Download PDF

Info

Publication number
JP2022127234A
JP2022127234A JP2021025264A JP2021025264A JP2022127234A JP 2022127234 A JP2022127234 A JP 2022127234A JP 2021025264 A JP2021025264 A JP 2021025264A JP 2021025264 A JP2021025264 A JP 2021025264A JP 2022127234 A JP2022127234 A JP 2022127234A
Authority
JP
Japan
Prior art keywords
user
information processing
information
content
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021025264A
Other languages
Japanese (ja)
Inventor
諒太 伊澤
Ryota Izawa
優 宮路
Yu Miyaji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hatapro Inc
Original Assignee
Hatapro Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hatapro Inc filed Critical Hatapro Inc
Priority to JP2021025264A priority Critical patent/JP2022127234A/en
Publication of JP2022127234A publication Critical patent/JP2022127234A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing method and the like that can determine the state of a cognitive function in consideration of characteristics such as a user's strong field or weak field.SOLUTION: An information processing system includes a robot and a display device communicatively connected to the robot. The information processing system outputs a program for determining a physical condition to a target person through the display device and obtains answer information about the target person's answer to the program through the display device or the robot. Based on the obtained answer information, the information processing system identifies a category related to the target person's cognitive function, and outputs content related to the cognitive function through the display device according to the identified category.SELECTED DRAWING: Figure 1

Description

本開示は、情報処理方法、情報処理システム及びプログラムに関する。 The present disclosure relates to an information processing method, an information processing system, and a program.

近年、高齢者が増加しており、例えば一人暮らし又は単身で施設に入居する高齢者は日常生活において他人とかかわる機会が少なく、体調の変化を把握することが難しい。特に、記憶力、言語能力又は判断力等の認知機能の低下を自身で把握することは難しい。そこで、特許文献1では、日常的な健康管理の一環として認知機能検査を行うことが可能な技術が開示されている。特許文献1に開示された技術では、例えば血圧測定の機会を利用して認知機能検査が行われる。 In recent years, the number of elderly people is increasing. For example, elderly people who live alone or live alone in a facility have few opportunities to interact with others in their daily lives, and it is difficult to grasp changes in their physical condition. In particular, it is difficult to perceive deterioration of cognitive functions such as memory, language, or judgment by oneself. Therefore, Patent Literature 1 discloses a technology capable of performing a cognitive function test as part of daily health care. In the technique disclosed in Patent Literature 1, for example, a cognitive function test is performed using the opportunity of blood pressure measurement.

特開2020-151045号公報JP 2020-151045 A

認知機能についてはユーザ毎に得意な分野又は不得意な分野等の差異が生じるが、特許文献1に開示された技術は、一般的な認知機能検査を行うものであり、ユーザの特徴を考慮して認知機能の状態を判定することは難しい。 With respect to cognitive functions, each user has a different field of strength or weakness. It is difficult to determine the state of cognitive function by

本開示は、このような事情に鑑みてなされたものであり、その目的とするところは、ユーザの得意分野又は不得意分野等の特徴を考慮して認知機能の状態を判定することが可能な情報処理方法等を提供することにある。 The present disclosure has been made in view of such circumstances, and its purpose is to determine the state of cognitive function in consideration of characteristics such as the user's strong field or weak field. An object of the present invention is to provide an information processing method and the like.

本開示の一態様に係る情報処理方法は、ロボットと、前記ロボットに通信可能に接続された表示装置とを備え、前記表示装置を通じて対象者に、身体の状態を判定するためのプログラムを出力し、前記表示装置又はロボットを通じて、前記プログラムに対する前記対象者の回答に関する回答情報を取得し、取得した回答情報に基づいて、前記対象者の認知機能に関する分類を特定し、特定した分類に応じて認知機能に関するコンテンツを前記表示装置を通じて出力する処理を含む。 An information processing method according to an aspect of the present disclosure includes a robot and a display device communicably connected to the robot, and outputs a program for determining a physical condition to a subject through the display device. , through the display device or robot, acquire response information about the subject's response to the program, identify the classification of the cognitive function of the subject based on the obtained response information, and recognize according to the identified classification A process of outputting content related to the function through the display device is included.

本開示の一態様にあっては、ユーザの得意分野又は不得意分野等の特徴を考慮して認知機能の状態を判定することが可能であり、ユーザの特徴を反映した判定結果に応じてユーザに適したコンテンツを提供することが可能となる。 In one aspect of the present disclosure, it is possible to determine the state of cognitive function in consideration of characteristics such as the user's strong field or weak field, and the user according to the determination result reflecting the user's characteristics It is possible to provide content suitable for

情報処理システムの構成例を示す模式図である。1 is a schematic diagram showing a configuration example of an information processing system; FIG. 情報処理装置及びロボットの内部構成例を示すブロック図である。FIG. 2 is a block diagram showing an internal configuration example of an information processing device and a robot; 情報処理装置が記憶するテストDBの構成例を示す模式図である。4 is a schematic diagram showing a configuration example of a test DB stored in an information processing device; FIG. 情報処理装置が記憶する履歴DBの構成例を示す模式図である。4 is a schematic diagram showing a configuration example of a history DB stored in an information processing apparatus; FIG. サーバの内部構成例を示すブロック図である。It is a block diagram which shows the internal structural example of a server. サーバが記憶するDBの構成例を示す模式図である。4 is a schematic diagram showing a configuration example of a DB stored by a server; FIG. サーバが記憶するDBの構成例を示す模式図である。4 is a schematic diagram showing a configuration example of a DB stored in a server; FIG. 学習モデルの構成例を示す模式図である。FIG. 4 is a schematic diagram showing a configuration example of a learning model; 学習モデルの生成処理手順の一例を示すフローチャートである。FIG. 11 is a flowchart showing an example of a learning model generation processing procedure; FIG. コンテンツの提供処理手順の一例を示すフローチャートである。FIG. 11 is a flowchart showing an example of a content provision processing procedure; FIG. 画面例を示す模式図である。It is a schematic diagram which shows an example of a screen. 画面例を示す模式図である。It is a schematic diagram which shows a screen example. 画面例を示す模式図である。It is a schematic diagram which shows an example of a screen. 実施形態2のコンテンツの提供処理手順の一例を示すフローチャートである。FIG. 12 is a flowchart showing an example of a content providing processing procedure according to the second embodiment; FIG. 実施形態3のコンテンツの提供処理手順の一例を示すフローチャートである。FIG. 12 is a flowchart showing an example of a content provision processing procedure according to the third embodiment; FIG. 実施形態3の画面例を示す模式図である。FIG. 11 is a schematic diagram showing an example of a screen according to the third embodiment; FIG. 実施形態4のコンテンツの提供処理手順の一例を示すフローチャートである。FIG. 16 is a flowchart showing an example of a content provision processing procedure according to the fourth embodiment; FIG. 実施形態4の画面例を示す模式図である。FIG. 12 is a schematic diagram showing an example of a screen according to Embodiment 4; 実施形態5の情報処理システムの構成例を示す模式図である。FIG. 12 is a schematic diagram showing a configuration example of an information processing system according to Embodiment 5; 実施形態5のコンテンツの提供処理手順の一例を示すフローチャートである。FIG. 21 is a flow chart showing an example of a content provision processing procedure according to the fifth embodiment; FIG. 実施形態5の画面例を示す模式図である。FIG. 11 is a schematic diagram showing an example of a screen according to Embodiment 5; 実施形態6の情報処理装置の内部構成例を示すブロック図である。FIG. 12 is a block diagram showing an example of the internal configuration of an information processing apparatus according to Embodiment 6; サーバが記憶するユーザ情報DBの構成例を示す模式図である。4 is a schematic diagram showing a configuration example of a user information DB stored by a server; FIG. 実施形態7のコンテンツの提供処理手順の一例を示すフローチャートである。FIG. 16 is a flow chart showing an example of a content provision processing procedure according to the seventh embodiment; FIG. 実施形態7の画面例を示す模式図である。FIG. 21 is a schematic diagram showing an example of a screen according to Embodiment 7; トレーニングの成果が低いユーザの抽出処理手順の一例を示すフローチャートである。FIG. 11 is a flowchart showing an example of an extraction processing procedure for users with low training results; FIG.

以下に、本開示の情報処理方法、情報処理システム及びプログラムについて、その実施形態を示す図面に基づいて説明する。 An information processing method, an information processing system, and a program according to the present disclosure will be described below based on drawings showing embodiments thereof.

(実施形態1)
ユーザに対してプログラム(検査用のプログラム)を出力(出題)し、ユーザが回答する際の動作傾向に応じてユーザの認知機能のタイプを特定し、特定したタイプに応じたコンテンツを提供する情報処理システムについて説明する。図1は情報処理システムの構成例を示す模式図である。本実施形態の情報処理システムは、情報処理装置10、ロボット30、及びサーバ40等を含み、情報処理装置10及びサーバ40はインターネット等のネットワークNに接続され、ネットワークNを介して情報の送受信を行う。情報処理装置10及びロボット30は、Bluetooth(登録商標)等の近距離無線通信が可能に構成されており、無線通信にて情報の送受信を行う。情報処理装置10及びロボット30は1セットとして、例えばユーザの自宅に設置されて利用される。よって、情報処理システムは、複数セットの情報処理装置10及びロボット30を含む。なお、情報処理装置10及びロボット30は、任意の場所に設置できる。
(Embodiment 1)
Information that outputs (issues) a program (test program) to the user, identifies the type of cognitive function of the user according to the behavioral tendency of the user when answering, and provides content according to the identified type A processing system will be described. FIG. 1 is a schematic diagram showing a configuration example of an information processing system. The information processing system of the present embodiment includes an information processing device 10, a robot 30, a server 40, etc. The information processing device 10 and the server 40 are connected to a network N such as the Internet, and transmit and receive information via the network N. conduct. The information processing device 10 and the robot 30 are configured to be capable of short-range wireless communication such as Bluetooth (registered trademark), and transmit and receive information by wireless communication. The information processing device 10 and the robot 30 are used as one set, for example, installed in the user's home. Accordingly, the information processing system includes multiple sets of information processing devices 10 and robots 30 . Note that the information processing device 10 and the robot 30 can be installed at any location.

情報処理装置10は、タブレット端末、パーソナルコンピュータ、スマートフォン等の汎用の情報処理装置であるが、専用の端末として構成されていてもよい。情報処理装置10は、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイ等の表示部16を有する表示装置である。また情報処理装置10は、正面側(表示画面側)を撮影できる位置にカメラ17が、正面側の音声を収集できる位置にマイク18がそれぞれ設けられている。なお、カメラ17は、情報処理装置10の正面側にいるユーザの上半身(特に顔)を撮影できる位置に設けられていればよく、マイク18は、正面側にいるユーザが発する音声を収集できる位置に設けられていればよい。 The information processing device 10 is a general-purpose information processing device such as a tablet terminal, a personal computer, or a smart phone, but may be configured as a dedicated terminal. The information processing device 10 is a display device having a display unit 16 such as a liquid crystal display or an organic EL (Electro Luminescence) display. In the information processing apparatus 10, a camera 17 is provided at a position where the front side (display screen side) can be photographed, and a microphone 18 is provided at a position where the sound on the front side can be collected. Note that the camera 17 may be provided at a position where the upper half of the body (especially the face) of the user in front of the information processing apparatus 10 can be photographed, and the microphone 18 is positioned at a position where the voice uttered by the user in front of the information processing apparatus 10 can be collected. It is sufficient if it is provided in

ロボット30は、鳥を模した小型の形状の外装を有する。ロボット30は、例えば情報処理装置10の上端(上面)に設けられた載置台に載置される。なお、載置台に、ロボット30の充電台(図示せず)が設けられていてもよく、ロボット30は、充電台を介して供給される電源、又は、ロボット30に内蔵されている電池により動作する。またロボット30は、正面側(情報処理装置10の表示画面側と同じ側)にスピーカ34、発光部35、人の接近を検知する人感センサ36、マイク37が設けられている。図1に示す例では、鳥を模した形状のロボット30において頭部にスピーカ34が配置され、目の位置に2つの発光部35が配置され、胴体の胸部に人感センサ36が配置され、人感センサ36の下部にマイク37が配置されている。なお、スピーカ34は、ロボット30の正面側にいるユーザに音声が届けられる位置に設けられていればよく、発光部35は、正面側にいるユーザが発光を視認できる位置に設けられていればよい。また、人感センサ36は、正面側におけるユーザの接近を検知できる位置に設けられていればよく、マイク37は、正面側にいるユーザの発話音声を収集できる位置に設けられていればよい。なお、本実施形態では、ロボット30は、発光部35及び人感センサ36を有しない構成でもよい。 The robot 30 has a small exterior that resembles a bird. The robot 30 is mounted, for example, on a mounting table provided at the upper end (upper surface) of the information processing apparatus 10 . A charging base (not shown) for the robot 30 may be provided on the mounting base, and the robot 30 is operated by power supplied via the charging base or by a battery built into the robot 30. do. Further, the robot 30 is provided with a speaker 34, a light emitting unit 35, a human sensor 36 for detecting the approach of a person, and a microphone 37 on the front side (the same side as the display screen side of the information processing device 10). In the example shown in FIG. 1, a robot 30 shaped like a bird has a speaker 34 on its head, two light-emitting units 35 on its eyes, and a human sensor 36 on its chest. A microphone 37 is arranged below the human sensor 36 . Note that the speaker 34 may be provided at a position where the sound can be delivered to the user on the front side of the robot 30, and the light emitting unit 35 may be provided at a position where the user on the front side can visually recognize the emitted light. good. Also, the human sensor 36 may be provided at a position where it can detect the approach of the user on the front side, and the microphone 37 may be provided at a position where it can collect the uttered voice of the user on the front side. In this embodiment, the robot 30 may be configured without the light emitting unit 35 and the human sensor 36 .

サーバ40は、種々の情報処理及び情報の送受信が可能な情報処理装置であり、例えばサーバコンピュータ又はパーソナルコンピュータを用いて構成される。サーバ40は、複数台設けられて分散処理する構成でもよいし、1台のサーバ内に設けられた複数の仮想マシンによって実現されていてもよいし、クラウドサーバを用いて実現されていてもよい。 The server 40 is an information processing device capable of various information processing and transmission/reception of information, and is configured using, for example, a server computer or a personal computer. A plurality of servers 40 may be provided for distributed processing, may be realized by a plurality of virtual machines provided in one server, or may be realized using a cloud server. .

本実施形態の情報処理システムにおいて、情報処理装置10は、ユーザ(対象者)の身体の状態を判定するためのプログラム(テストコンテンツ)をユーザに対して出力する。身体の状態を判定するためのプログラムは、例えば認知機能テスト及び身体機能テストを含み、認知機能及び身体機能の状態を判定するための設問及び問題等を含む。以下では、ユーザにプログラムを出力することを「問題を出題する」と表現する場合がある。テストコンテンツには画像データ及び音声データが含まれており、画像データは表示部16へ出力されて表示され、音声データはスピーカ22へ出力されて音声出力される。なお、音声データはロボット30へ出力されてスピーカ34から音声出力されてもよい。ユーザは、情報処理装置10から出力されるプログラム(出題される問題)に対して回答を行い、その際、カメラ17によってユーザを撮影する。情報処理装置10は、ユーザを撮影した撮影画像から、ユーザが問題に取り組んでいる際(回答している際)の目線(視線)の動き、口の動き及びふらつき度合等の挙動、並びに表情等を含む情報(回答情報)を検知する。そして情報処理装置10は、検知した情報(回答情報)をサーバ40へ送信する。サーバ40は、情報処理装置10から受信した回答情報に基づいて、ユーザの認知機能に関するタイプを特定し、特定したタイプに応じたアドバイス又はコンテンツ(例えばトレーニングコンテンツ)を情報処理装置10を介してユーザに提供する。 In the information processing system of the present embodiment, the information processing device 10 outputs to the user a program (test content) for determining the physical condition of the user (subject). The program for determining the physical state includes, for example, cognitive function tests and physical function tests, and includes questions and problems for determining the state of cognitive function and physical function. Below, outputting a program to a user may be expressed as "giving a question". The test content includes image data and audio data, the image data is output to the display unit 16 and displayed, and the audio data is output to the speaker 22 and output as audio. Note that the audio data may be output to the robot 30 and output as audio from the speaker 34 . The user answers the program (questions to be set) output from the information processing apparatus 10, and at that time, the user is photographed by the camera 17. FIG. The information processing apparatus 10, from a photographed image of the user, detects movements of the user's gaze (visual line) when the user is working on a problem (while answering), movements of the mouth, behavior such as the degree of swaying, and facial expressions. Detects information (response information) containing The information processing device 10 then transmits the detected information (response information) to the server 40 . Based on the answer information received from the information processing device 10, the server 40 identifies the user's cognitive function type, and provides advice or content (for example, training content) according to the identified type to the user via the information processing device 10. provide to

図2は情報処理装置10及びロボット30の内部構成例を示すブロック図である。情報処理装置10は、制御部11、記憶部12、第1通信部13、第2通信部14、入力部15、表示部16、カメラ17、マイク18、読み取り部19、挙動検知部20、表情検知部21、スピーカ22等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを有する。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、情報処理装置10が行うべき種々の情報処理及び制御処理等を行う。記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。また記憶部12は、後述するテストDB(データベース)12a、履歴DB12bを記憶している。テストDB12a及び履歴DB12bは、情報処理装置10に接続された他の記憶装置に記憶されていてもよく、情報処理装置10が通信可能な他の記憶装置に記憶されていてもよい。 FIG. 2 is a block diagram showing an internal configuration example of the information processing device 10 and the robot 30. As shown in FIG. Information processing apparatus 10 includes control unit 11, storage unit 12, first communication unit 13, second communication unit 14, input unit 15, display unit 16, camera 17, microphone 18, reading unit 19, behavior detection unit 20, facial expression A detection unit 21, a speaker 22, etc. are included, and these units are connected to each other via a bus. The control unit 11 has one or more processors such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), or a GPU (Graphics Processing Unit). The control unit 11 appropriately executes a control program 12P stored in the storage unit 12 to perform various information processing and control processing that the information processing apparatus 10 should perform. The storage unit 12 includes a RAM (Random Access Memory), flash memory, hard disk, SSD (Solid State Drive), and the like. The storage unit 12 stores in advance a control program 12P executed by the control unit 11 and various data necessary for executing the control program 12P. The storage unit 12 also temporarily stores data and the like generated when the control unit 11 executes the control program 12P. The storage unit 12 also stores a test DB (database) 12a and a history DB 12b, which will be described later. The test DB 12a and the history DB 12b may be stored in another storage device connected to the information processing device 10, or may be stored in another storage device with which the information processing device 10 can communicate.

第1通信部13は、有線通信又は無線通信によって、ネットワークNに接続するための通信モジュールであり、ネットワークNを介して他の装置との間で情報の送受信を行う。第2通信部14は、Bluetoothによる無線通信を行うための通信モジュールであり、無線通信にてロボット30との間で情報の送受信を行う。なお、第2通信部14は、Bluetooth以外の通信規格による無線通信を行う構成でもよく、ケーブルを介した有線通信にてロボット30との間で情報の送受信を行う構成でもよい。 The first communication unit 13 is a communication module for connecting to the network N by wired communication or wireless communication, and transmits and receives information to and from other devices via the network N. The second communication unit 14 is a communication module for wireless communication using Bluetooth, and transmits and receives information to and from the robot 30 by wireless communication. The second communication unit 14 may be configured to perform wireless communication according to a communication standard other than Bluetooth, or may be configured to transmit and receive information to and from the robot 30 by wired communication via a cable.

入力部15は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部16は、制御部11からの指示に従って各種の情報を表示する。入力部15及び表示部16は積層されて一体として構成されたタッチパネルであってもよい。カメラ17は、制御部11からの指示に従って撮影する撮影部であり、取得した撮影画像(静止画及び動画のデータ)を記憶部12へ送出して記憶させる。マイク18は、制御部11からの指示に従って周囲の音声を収集する集音部であり、取得した音声データを記憶部12へ送出して記憶させる。スピーカ22は、制御部11からの指示に従って音声出力する音声出力部であり、制御部11からの指示に従ったメッセージを音声出力する。カメラ17、マイク18及びスピーカ22は、図1及び図2に示すように情報処理装置10に内蔵されていてもよく、情報処理装置10に外付けされていてもよい。例えば、情報処理装置10は、外部カメラの接続が可能なカメラ接続部、又は外部カメラとの間で無線通信を行うカメラ通信部を備える構成でもよい。この場合、カメラ接続部又はカメラ通信部は、外部カメラにて取得された画像データの入力を受け付け、入力された画像データを記憶部12へ送出して記憶させる。また情報処理装置10は、外部マイクの接続が可能なマイク接続部、又は外部マイクとの間で無線通信を行うマイク通信部を備える構成でもよい。この場合、マイク接続部又はマイク通信部は、外部マイクにて取得された音声データの入力を受け付け、入力された音声データを記憶部12へ送出して記憶させる。更に情報処理装置10は、外部スピーカの接続が可能なスピーカ接続部又は外部スピーカとの間で無線通信を行うスピーカ通信部を備える構成でもよい。この場合、制御部11は、スピーカ接続部又はスピーカ通信部を介して外部スピーカに対して音声メッセージの出力を指示する。 The input unit 15 receives an operation input by the user and sends a control signal corresponding to the operation content to the control unit 11 . The display unit 16 displays various information according to instructions from the control unit 11 . The input unit 15 and the display unit 16 may be a touch panel that is laminated and integrally configured. The camera 17 is a photographing unit that photographs according to an instruction from the control unit 11, and sends acquired photographed images (still image and moving image data) to the storage unit 12 for storage. The microphone 18 is a sound collecting unit that collects surrounding sounds according to an instruction from the control unit 11, and transmits the acquired sound data to the storage unit 12 for storage. The speaker 22 is an audio output unit that outputs audio according to instructions from the control unit 11 , and outputs messages according to instructions from the control unit 11 . The camera 17, the microphone 18, and the speaker 22 may be built in the information processing apparatus 10 as shown in FIGS. 1 and 2, or may be externally attached to the information processing apparatus 10. For example, the information processing apparatus 10 may be configured to include a camera connection unit to which an external camera can be connected, or a camera communication unit that performs wireless communication with the external camera. In this case, the camera connection unit or the camera communication unit accepts input of image data acquired by the external camera, and sends the input image data to the storage unit 12 for storage. The information processing apparatus 10 may also be configured to include a microphone connection unit to which an external microphone can be connected, or a microphone communication unit that performs wireless communication with an external microphone. In this case, the microphone connection unit or the microphone communication unit accepts input of audio data acquired by the external microphone, and sends the input audio data to the storage unit 12 for storage. Further, the information processing apparatus 10 may be configured to include a speaker connection unit to which an external speaker can be connected or a speaker communication unit that performs wireless communication with the external speaker. In this case, the control unit 11 instructs the external speaker to output the voice message via the speaker connection unit or the speaker communication unit.

読み取り部19は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード等を含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が読み取り部19を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が第1通信部13を介して他の装置からダウンロードして記憶部12に記憶してもよい。 The reader 19 reads information stored in a portable storage medium 1a including CD (Compact Disc)-ROM, DVD (Digital Versatile Disc)-ROM, USB (Universal Serial Bus) memory, SD (Secure Digital) card, etc. read. The control program 12</b>P and various data stored in the storage unit 12 may be read from the portable storage medium 1 a by the control unit 11 via the reading unit 19 and stored in the storage unit 12 . Also, the control program 12P and various data stored in the storage unit 12 may be downloaded from another device by the control unit 11 via the first communication unit 13 and stored in the storage unit 12 .

挙動検知部20は、カメラ17によってユーザの顔を撮影した顔画像に基づいて、ユーザの目線の位置を検知する。目線の位置は、例えば表示画面中に問題及び回答の選択肢が表示されている場合、ユーザが問題の箇所を見ているか、選択肢の箇所を見ているか、その他の箇所を見ているか等を示す。挙動検知部20は、カメラ17が撮影した動画に基づいて、目線の位置を時系列で検知することができ、その結果、目線の動きを検知できる。また挙動検知部20は、カメラ17によってユーザの顔を撮影した動画(顔画像)に基づいて、ユーザの口の動きを検知する。更に挙動検知部20は、カメラ17によってユーザの全身又は上半身を撮影した動画に基づいて、ユーザのふらつき度合を検知する。本実施形態の挙動検知部20は、ユーザの目線の位置及び動き、口の動き、ふらつき度合等のユーザの挙動を検知する構成であるが、ユーザの挙動はこれらに限定されない。表情検知部21は、カメラ17によってユーザの顔を撮影した顔画像に基づいて、ユーザの顔に現れている表情を検知する。表情は、喜び、悲しみ、怒り、驚き、恐怖等の感情が現れた表情、及び真顔(無表情)等を含む。表情検知部21は、カメラ17が撮影した静止画に基づいて表情を検知してもよく、動画に基づいて表情を検知してもよく、時系列での表情の変化を検知してもよい。 The behavior detection unit 20 detects the position of the user's line of sight based on the face image of the user captured by the camera 17 . For example, when a question and answer options are displayed on the display screen, the position of the line of sight indicates whether the user is looking at the part of the question, the part of the option, or other part. . The behavior detection unit 20 can detect the position of the line of sight in chronological order based on the moving image captured by the camera 17, and as a result, can detect the movement of the line of sight. The behavior detection unit 20 also detects movements of the user's mouth based on a moving image (face image) of the user's face captured by the camera 17 . Furthermore, the behavior detection unit 20 detects the degree of swaying of the user based on the video of the user's whole body or upper body captured by the camera 17 . The behavior detection unit 20 of the present embodiment is configured to detect user behavior such as the position and movement of the user's eyes, the movement of the mouth, and the degree of swaying, but the behavior of the user is not limited to these. The facial expression detection unit 21 detects facial expressions appearing on the user's face based on a facial image of the user's face captured by the camera 17 . Facial expressions include facial expressions expressing emotions such as joy, sadness, anger, surprise, and fear, and serious faces (expressionless). The facial expression detection unit 21 may detect facial expressions based on still images captured by the camera 17, may detect facial expressions based on moving images, or may detect changes in facial expressions over time.

挙動検知部20及び表情検知部21は、記憶部12に記憶してあるアプリケーションプログラムを制御部11が実行することによって実現されるソフトウェア機能であってもよく、専用のハードウェア回路で実現されてもよい。また、表情検知部21は、機械学習によって構築されたニューラルネットワークを用いて、ユーザの撮影画像(顔画像)からユーザの表情を検出するように構成されていてもよい。例えばCNN(Convolution Neural Network)モデルで構成され、撮影画像が入力された場合に、撮影画像中の被写体(ユーザ)の表情が、予め設定された複数の表情のいずれであるかを示す情報を出力するように学習された学習モデルを用いてもよい。この場合、表情検知部21は、ユーザの顔画像を学習済みの学習モデルに入力し、学習モデルからの出力情報に基づいて、撮影画像中のユーザの表情を特定することができる。また、挙動検知部20も、機械学習によって構築されたニューラルネットワークを用いて、ユーザの撮影画像からユーザの挙動(目線の動き、口の動き、ふらつき度合等)を検出するように構成されていてもよい。例えばCNNモデルで構成され、撮影画像が入力された場合に、撮影画像中のユーザの挙動(目線の動き、口の動き、ふらつき度合)が、予め設定された複数の挙動(目線の動き、口の動き、ふらつき度合)のいずれであるかを示す情報を出力するように学習された学習モデルを用いてもよい。この場合、挙動検知部20は、ユーザの撮影画像を学習済みの学習モデルに入力し、学習モデルからの出力情報に基づいて、撮影画像中のユーザの挙動を特定することができる。情報処理装置10は、上述した構成に加えて、ユーザを撮影した撮影画像に基づいて、ユーザが行った動作(ジェスチャ)を検知するジェスチャ検知部を備える構成でもよい。この場合、情報処理装置10は、ユーザが行うジェスチャに基づく入力操作(ジェスチャ入力)を受け付けるように構成することができる。 The behavior detection unit 20 and the facial expression detection unit 21 may be software functions realized by the control unit 11 executing an application program stored in the storage unit 12, and may be realized by dedicated hardware circuits. good too. Moreover, the facial expression detection unit 21 may be configured to detect the facial expression of the user from the user's captured image (face image) using a neural network constructed by machine learning. For example, it is composed of a CNN (Convolution Neural Network) model, and when a photographed image is input, it outputs information indicating which of a plurality of preset facial expressions the subject (user) in the photographed image has. A learning model trained to do so may be used. In this case, the facial expression detection unit 21 can input the user's facial image to the learned model, and identify the user's facial expression in the captured image based on output information from the learned model. The behavior detection unit 20 also uses a neural network built by machine learning to detect the user's behavior (movement of eyes, movement of mouth, degree of swaying, etc.) from captured images of the user. good too. For example, when a photographed image is input using a CNN model, the user's behavior (eye movement, mouth movement, degree of swaying) in the photographed image is determined by a plurality of preset behaviors (eye movement, mouth movement, etc.). A learning model that has been trained to output information indicating whether it is the movement of the body or the degree of sway may be used. In this case, the behavior detection unit 20 can input the photographed image of the user to the learned learning model, and identify the behavior of the user in the photographed image based on the output information from the learning model. In addition to the configuration described above, the information processing apparatus 10 may be configured to include a gesture detection unit that detects an action (gesture) performed by the user based on a captured image of the user. In this case, the information processing apparatus 10 can be configured to receive an input operation (gesture input) based on a user's gesture.

ロボット30は、制御部31、記憶部32、通信部33、スピーカ34、発光部35、人感センサ36、マイク37等を含み、これらの各部はバスを介して相互に接続されている。ロボット30の制御部31、記憶部32、通信部33、スピーカ34、マイク37のそれぞれは、情報処理装置10の制御部11、記憶部12、第2通信部14、スピーカ22、マイク18と同様の構成であるので詳細な説明は省略する。 The robot 30 includes a control unit 31, a storage unit 32, a communication unit 33, a speaker 34, a light emitting unit 35, a human sensor 36, a microphone 37, etc. These units are interconnected via a bus. The control unit 31, the storage unit 32, the communication unit 33, the speaker 34, and the microphone 37 of the robot 30 are similar to the control unit 11, the storage unit 12, the second communication unit 14, the speaker 22, and the microphone 18 of the information processing device 10, respectively. , detailed description is omitted.

発光部35は、例えばLED(Light Emitting Diode)であり、制御部31からの指示に従った輝度及び色で発光(点灯又は点滅)する。人感センサ36は、所定の検知エリア内における人の有無を検知するセンサであり、例えば人が検知エリアに入ったこと(人の接近)を検知した場合、及び、人が検知エリアから出たことを検知した場合に検知結果を制御部31へ送出する。 The light emitting unit 35 is, for example, an LED (Light Emitting Diode), and emits light (lights up or blinks) with luminance and color according to instructions from the control unit 31 . The human sensor 36 is a sensor that detects the presence or absence of a person within a predetermined detection area. When this is detected, the detection result is sent to the control unit 31 .

本実施形態では、情報処理装置10がカメラ17、マイク18及びスピーカ22を備え、ロボット30がスピーカ34、発光部35、人感センサ36及びマイク37を備える構成とするが、このような構成に限定されない。カメラ17、マイク18,37、スピーカ22,34、発光部35及び人感センサ36のそれぞれは、情報処理装置10のみに設けられていてもよく、ロボット30のみに設けられていてもよく、両方に設けられていてもよい。 In the present embodiment, the information processing apparatus 10 includes the camera 17, the microphone 18, and the speaker 22, and the robot 30 includes the speaker 34, the light emitting unit 35, the human sensor 36, and the microphone 37. Not limited. Each of the camera 17, the microphones 18 and 37, the speakers 22 and 34, the light emitting unit 35, and the human sensor 36 may be provided only in the information processing apparatus 10, may be provided only in the robot 30, or both may be provided. may be provided in

図3は情報処理装置10が記憶するテストDB12aの構成例を示す模式図である。テストDB12aは、認知機能テスト及び身体機能テスト等を含み、ユーザの認知機能及び身体機能等、身体の状態を判定するためのテストに関する情報を記憶する。図3に示すテストDB12aは、項目列、テストID列、テストコンテンツ列、正解列、回答方法列等を含み、判定対象の項目毎に各項目用のテストに関する情報を記憶する。項目列は、判定対象の各項目を識別するための識別情報(項目名)を記憶する。図3に示す例では、記憶力、計算力、言語能力、判断力、身体能力等の項目が登録されているが、項目の種類はこれらに限定されない。テストID列は、各テストを識別するための識別情報(テストID)を記憶し、テストコンテンツ列は、各テストのコンテンツデータを記憶する。コンテンツデータは、画像データであってもよく、音声データであってもよく、画像データ及び音声データが含まれていてもよい。コンテンツデータは、テストDB12aに記憶されるほかに、記憶部12の所定領域又は他の記憶装置に記憶されてもよく、この場合、テストコンテンツ列は、コンテンツデータを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。正解列は各テストの正解を記憶し、正解は、正解の情報であってもよく、複数の選択肢から回答するテスト(問題)の場合、正解の選択肢を示す情報(選択肢の番号等)であってもよい。回答方法列は、各テストに設定されている回答方法を記憶する。回答方法は例えば入力部15を介したタッチ操作、マイク18を介した音声入力、目線(視線)による入力、ジェスチャによる入力等の回答方法を含む。テストDB12aに記憶される項目は、予め記憶されており、新たな項目が登録された場合、制御部11によって追加で記憶される。テストDB12aに記憶されるテストIDは、各項目に応じて新たなテストが登録された場合に、制御部11によって発行されて記憶される。テストDB12aに記憶される他の情報は、制御部11が第1通信部13又は読み取り部19を介して各情報の追加指示を取得した場合に制御部11によって追加される。テストDB12aの記憶内容は図3に示す例に限定されない。テストDB12aに記憶されるテストコンテンツは、認知機能及び身体機能等を判定するための機能テストに加えて、「お名前は?」、「年齢はいくつですか?」、「今日は何月何日ですか?」等の問診テストを含んでいてもよい。 FIG. 3 is a schematic diagram showing a configuration example of the test DB 12a stored in the information processing apparatus 10. As shown in FIG. The test DB 12a includes cognitive function tests, physical function tests, etc., and stores information on tests for determining physical conditions such as cognitive functions and physical functions of the user. The test DB 12a shown in FIG. 3 includes an item column, a test ID column, a test content column, a correct answer column, an answer method column, and the like, and stores information on the test for each item for each item to be judged. The item column stores identification information (item name) for identifying each item to be determined. In the example shown in FIG. 3, items such as memory ability, calculation ability, language ability, judgment ability, and physical ability are registered, but the types of items are not limited to these. The test ID column stores identification information (test ID) for identifying each test, and the test content column stores content data of each test. The content data may be image data, audio data, or may include image data and audio data. In addition to being stored in the test DB 12a, the content data may be stored in a predetermined area of the storage unit 12 or another storage device. file name indicating the storage location). The correct answer column stores the correct answer for each test, and the correct answer may be information on the correct answer, or in the case of a test (question) that requires multiple answers, information indicating the correct answer option (choice number, etc.). may The answering method column stores the answering method set for each test. The answering method includes, for example, a touch operation via the input unit 15, voice input via the microphone 18, input by line of sight (line of sight), input by gesture, and the like. The items stored in the test DB 12a are stored in advance, and are additionally stored by the control unit 11 when a new item is registered. The test ID stored in the test DB 12a is issued and stored by the control unit 11 when a new test is registered according to each item. Other information stored in the test DB 12 a is added by the control unit 11 when the control unit 11 acquires an instruction to add each information via the first communication unit 13 or the reading unit 19 . The contents stored in the test DB 12a are not limited to the example shown in FIG. The test contents stored in the test DB 12a include, in addition to functional tests for determining cognitive and physical functions, "What is your name?", "How old are you?" It may also include an interview test such as "Are you sure?"

図4は情報処理装置10が記憶する履歴DB12bの構成例を示す模式図である。履歴DB12bは、情報処理装置10及びロボット30を使用するユーザに対して行われたテストに関する履歴情報を記憶する。図4に示す履歴DB12bは、開始日時列、テストコンテンツ列、回答情報列、判定結果列等を含み、開始日時に対応付けて、実施されたテストの状況及びテスト結果から判定された判定結果を記憶する。なお、履歴DB12bは、情報処理装置10とユーザとの間で行われる一連のやり取りに関する情報を開始日時に対応付けて記憶する。開始日時列は、ユーザが情報処理装置10の使用を開始した日時を記憶する。テストコンテンツ列は、情報処理装置10がユーザに出題したテストコンテンツの識別情報(テストID)を記憶する。回答情報列は、ユーザが出題されたテスト(問題)に対して回答している際のユーザの状況を示す情報を記憶し、例えば、出題された問題の傾向、回答に要した時間、正解又は不正解(正誤)、挙動、表情、出題された時間帯、ユーザの対話傾向等を対応付けて記憶する。問題の傾向は、問題の種類、及び回答方法等を含み、問題の種類は例えば図を見て回答する問題、文字を読んで回答する問題、内容に従ったタッチ操作を伴う問題、身体を動かす問題等の種類を含む。挙動は、例えばユーザの目線の位置及び動き(凝視しているか、目線が動いているか)、口の動き、ふらつき度合等の情報を含む。表情は、喜び、悲しみ、怒り、驚き、恐怖等の感情が現れた表情、及び真顔(無表情)を含む。判定結果列は、ユーザの回答情報に基づいて判定されたユーザの状況(判定結果)を記憶し、具体的には、ユーザの認知機能のタイプ、ユーザに提供すべきトレーニング(トレーニングID)及びアドバイス(アドバイスID)を対応付けて記憶する。なお、判定結果は、情報処理装置10から回答情報を受信したサーバ40によって特定される。履歴DB12bに記憶される開始日時は、情報処理装置10がユーザに対してコンテンツの提供を開始した場合に、その時点の日時が制御部11によって記憶される。履歴DB12bに記憶されるテストコンテンツは、制御部11が表示部16を介してテストコンテンツを出力した場合に、テストコンテンツのテストIDが制御部11によって記憶される。履歴DB12bに記憶される回答情報は、制御部11がテストコンテンツを出力した場合に、出力したテストコンテンツの問題傾向及び時間帯が制御部11によって記憶され、ユーザからの回答を受け付けた後に、回答時間、回答に対する正誤、挙動検知部20による検知結果(ユーザの挙動)、表情検知部21による検知結果(ユーザの表情)が制御部11によって記憶される。履歴DB12bに記憶される判定結果は、制御部11が第1通信部13を介してサーバ40から判定結果の各情報を取得した場合に制御部11によって記憶される。履歴DB12bの記憶内容は図4に示す例に限定されない。なお、例えば情報処理装置10がユーザに問題を出題する際にユーザとの間で行った対話の内容からユーザの対話の傾向を抽出し、対話の傾向を示す情報(対話傾向)を回答情報に含めて履歴DB12bに記憶してもよい。また、判定結果に応じてユーザに提供されたトレーニングコンテンツに対してユーザが行ったトレーニングの結果を示す情報が履歴DB12bに記憶されてもよい。 FIG. 4 is a schematic diagram showing a configuration example of the history DB 12b stored by the information processing apparatus 10. As shown in FIG. The history DB 12b stores history information about tests performed on users using the information processing device 10 and the robot 30 . The history DB 12b shown in FIG. 4 includes a start date and time column, a test content column, an answer information column, a determination result column, etc., and in association with the start date and time, the status of the performed test and the determination result determined from the test result. Remember. Note that the history DB 12b stores information about a series of exchanges between the information processing apparatus 10 and the user in association with the start date and time. The start date and time column stores the date and time when the user started using the information processing apparatus 10 . The test content column stores identification information (test ID) of test content given to the user by the information processing apparatus 10 . The answer information column stores information indicating the user's situation when the user is answering the given test (question). Incorrect answers (correct or incorrect), behaviors, facial expressions, time zones in which questions were set, user's conversation tendencies, etc. are associated and stored. The tendency of questions includes the types of questions, answering methods, etc. Examples of question types include questions to be answered by looking at pictures, questions to be answered by reading letters, questions involving touch operations according to the content, and physical movement. Including the type of problem, etc. The behavior includes information such as the position and movement of the user's line of sight (whether the user is staring or whether the line of sight is moving), movement of the mouth, degree of swaying, and the like. Facial expressions include facial expressions expressing emotions such as joy, sadness, anger, surprise, and fear, and straight faces (expressionless). The determination result column stores the user's situation (determination result) determined based on the user's answer information, specifically, the type of cognitive function of the user, training to be provided to the user (training ID) and advice (advice ID) are associated with each other and stored. Note that the determination result is specified by the server 40 that has received the reply information from the information processing device 10 . The start date and time stored in the history DB 12b is stored by the control unit 11 when the information processing apparatus 10 starts providing content to the user. As for the test content stored in the history DB 12b, the test ID of the test content is stored by the control unit 11 when the control unit 11 outputs the test content via the display unit 16. FIG. As the answer information stored in the history DB 12b, when the control unit 11 outputs the test content, the control unit 11 stores the problem tendency and the time zone of the output test content, and after receiving the answer from the user, the answer The control unit 11 stores the time, whether the answer is correct or not, the result of detection by the behavior detection unit 20 (behavior of the user), and the result of detection by the facial expression detection unit 21 (facial expression of the user). The determination result stored in the history DB 12 b is stored by the control unit 11 when the control unit 11 acquires each information of the determination result from the server 40 via the first communication unit 13 . The contents stored in the history DB 12b are not limited to the example shown in FIG. For example, when the information processing apparatus 10 poses a question to the user, the tendency of the user's dialogue is extracted from the contents of the dialogue performed with the user, and the information indicating the tendency of the dialogue (dialogue tendency) is used as the answer information. It may be stored in the history DB 12b including. Also, information indicating the results of training performed by the user on training content provided to the user according to the determination result may be stored in the history DB 12b.

図5はサーバ40の内部構成例を示すブロック図である。サーバ40は、制御部41、記憶部42、通信部43、入力部44、表示部45、読み取り部46等を含み、これらの各部はバスを介して相互に接続されている。サーバ40の制御部41、記憶部42、通信部43、入力部44、表示部45、読み取り部46のそれぞれは、情報処理装置10の制御部11、記憶部12、第1通信部13、入力部15、表示部16、読み取り部19と同様の構成であるので詳細な説明は省略する。なお、サーバ40の記憶部42は、制御部41が実行する制御プログラム42Pに加え、例えば機械学習によって訓練データを学習済みの学習モデル42M、後述するタイプDB42a、トレーニングDB42b、アドバイスDB42c及び対話DB42dを記憶している。 FIG. 5 is a block diagram showing an internal configuration example of the server 40. As shown in FIG. The server 40 includes a control section 41, a storage section 42, a communication section 43, an input section 44, a display section 45, a reading section 46, etc. These sections are interconnected via a bus. The control unit 41, the storage unit 42, the communication unit 43, the input unit 44, the display unit 45, and the reading unit 46 of the server 40 correspond to the control unit 11, the storage unit 12, the first communication unit 13, the input Since the configuration is the same as that of the unit 15, the display unit 16, and the reading unit 19, detailed description thereof will be omitted. In addition to the control program 42P executed by the control unit 41, the storage unit 42 of the server 40 stores a learning model 42M trained on training data by, for example, machine learning, a type DB 42a, a training DB 42b, an advice DB 42c, and a dialogue DB 42d, which will be described later. I remember.

学習モデル42Mは、情報処理装置10で収集されるユーザの回答情報が入力された場合に、この回答情報によって判定されるユーザの認知機能に関するタイプを出力するように学習された学習済みモデルである。学習モデル42Mは、人工知能ソフトウェアを構成するプログラムモジュールとしての利用が想定される。学習モデル42Mは、入力値に対して所定の演算を行い、演算結果を出力するものであり、記憶部42には、この演算を規定する関数の係数や閾値等のデータが学習モデル42Mとして記憶される。タイプDB42a、トレーニングDB42b、アドバイスDB42c及び対話DB42dは、サーバ40に接続された他の記憶装置に記憶されてもよく、サーバ40が通信可能な他の記憶装置に記憶されてもよい。 The learning model 42M is a trained model that has been learned to output a type related to the user's cognitive function determined by this answer information when the user's answer information collected by the information processing device 10 is input. . The learning model 42M is assumed to be used as a program module that constitutes artificial intelligence software. The learning model 42M performs a predetermined calculation on the input value and outputs the calculation result. In the storage unit 42, data such as the coefficient of the function that defines this calculation and the threshold value are stored as the learning model 42M. be done. The type DB 42a, the training DB 42b, the advice DB 42c, and the dialogue DB 42d may be stored in another storage device connected to the server 40, or may be stored in another storage device with which the server 40 can communicate.

図6及び図7はサーバ40が記憶するDB42a~42dの構成例を示す模式図である。図6AはタイプDB42aを、図6BはトレーニングDB42bを、図6CはアドバイスDB42cを、図7は対話DB42dをそれぞれ示す。タイプDB42aは、認知機能に関する各種の特徴と、各特徴に割り当てられたタイプ(タイプID)とを対応付けて記憶する。各タイプの特徴は例えば、記憶力、計算力、言語能力、判断力、身体能力等に関する問題が苦手である、又は得意であるという特徴を含む。また、各タイプの特徴は、ガーデニングに興味がある、自動車に興味がある、料理に興味がある等のような趣味嗜好に関する特徴、外出の頻度が少ない、会話の頻度が少ない、運動の頻度が少ない、トレーニングを毎日継続している、トレーニングを2日に一度行っている等のような日常生活に関する特徴を含んでもよい。図6Aに示す例では、「記憶力の問題が苦手」のように1つの項目に関する苦手又は得意であるという特徴が記憶されているが、この構成に限定されない。例えば、「記憶力の問題及び計算力の問題が苦手である」、「計算力の問題が苦手で言語能力の問題が得意である」のように複数の項目をまとめて1つの特徴として記憶されていてもよい。タイプDB42aの記憶内容は予め登録されていてもよく、新たなタイプが出現した場合に適宜追加可能であってもよい。タイプDB42aの記憶内容は図6Aに示す例に限定されない。 6 and 7 are schematic diagrams showing configuration examples of the DBs 42a to 42d stored in the server 40. FIG. 6A shows the type DB 42a, FIG. 6B shows the training DB 42b, FIG. 6C shows the advice DB 42c, and FIG. 7 shows the dialogue DB 42d. The type DB 42a stores various features related to cognitive function in association with types (type IDs) assigned to the features. Each type of characteristic includes, for example, being weak or good at problems related to memory, arithmetic, verbal ability, judgment, physical ability, and the like. In addition, the characteristics of each type are characteristics related to hobbies and preferences such as interest in gardening, interest in automobiles, interest in cooking, etc., less frequency of going out, less frequency of conversation, less frequency of exercise. Features related to daily life such as less, continuing training every day, training once every two days, etc. may be included. In the example shown in FIG. 6A, a characteristic of being weak or good at one item such as "not good at memory problems" is stored, but the configuration is not limited to this. For example, a plurality of items such as "I am not good at memory problems and calculation problems", "I am not good at calculation problems and good at language problems", are collectively stored as one feature. may The stored contents of the type DB 42a may be registered in advance, or may be added as appropriate when a new type appears. The storage contents of the type DB 42a are not limited to the example shown in FIG. 6A.

トレーニングDB42bは、認知機能及び身体機能を改善するためのトレーニングに関する情報を記憶する。図6Bに示すトレーニングDB42bは、項目列、トレーニングID列、トレーニングコンテンツ列、タイプ列等を含み、項目毎に各項目用のトレーニングに関する情報を記憶する。項目列は、図3に示すテストDB12aの項目列と同様に、認知機能に関する各項目の項目名を記憶する。トレーニングID列は、各トレーニングを識別するための識別情報(トレーニングID)を記憶し、トレーニングコンテンツ列は、各トレーニングのコンテンツデータを記憶する。トレーニングのコンテンツデータは、画像データであってもよく、音声データであってもよく、画像データ及び音声データが含まれていてもよい。コンテンツデータは、トレーニングDB42bに記憶されるほかに、記憶部42の所定領域又は他の記憶装置に記憶されてもよく、この場合、トレーニングコンテンツ列は、コンテンツデータを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。タイプ列は、各トレーニングコンテンツを提供すべきユーザの認知機能のタイプ(タイプID)を記憶する。このような構成により、トレーニングDB42bでは、認知機能のタイプに応じてユーザに提供すべきトレーニングコンテンツが対応付けて登録される。トレーニングDB42bに記憶される項目は、予め記憶されており、新たな項目が登録された場合、制御部41によって追加で記憶される。トレーニングDB42bに記憶されるトレーニングIDは、各項目に応じて新たなトレーニングが登録された場合に、制御部41によって発行されて記憶される。トレーニングDB42bに記憶されるトレーニングコンテンツ及びタイプは、制御部41が入力部44又は通信部43を介して追加指示を取得した場合に制御部41によって追加される。トレーニングDB42bの記憶内容は図6Bに示す例に限定されない。 The training DB 42b stores information on training for improving cognitive function and physical function. The training DB 42b shown in FIG. 6B includes an item column, a training ID column, a training content column, a type column, and the like, and stores information on training for each item for each item. The item column stores the item name of each item related to cognitive function in the same manner as the item column of the test DB 12a shown in FIG. The training ID column stores identification information (training ID) for identifying each training, and the training content column stores content data of each training. The training content data may be image data, audio data, or may include image data and audio data. In addition to being stored in the training DB 42b, the content data may be stored in a predetermined area of the storage unit 42 or another storage device. file name indicating the storage location). The type column stores the type (type ID) of the user's cognitive function to which each training content should be provided. With such a configuration, in the training DB 42b, training content to be provided to the user is associated and registered according to the type of cognitive function. The items stored in the training DB 42b are stored in advance, and are additionally stored by the control unit 41 when a new item is registered. The training ID stored in the training DB 42b is issued and stored by the control unit 41 when new training is registered according to each item. The training content and type stored in the training DB 42b are added by the control unit 41 when the control unit 41 acquires an addition instruction via the input unit 44 or the communication unit 43. FIG. The storage contents of the training DB 42b are not limited to the example shown in FIG. 6B.

アドバイスDB42cは、認知機能のタイプに応じてユーザに提供されるアドバイスに関する情報を記憶する。図6Cに示すアドバイスDB42cは、アドバイスID列、アドバイスコンテンツ列、タイプ列等を含み、アドバイスIDに対応付けてアドバイスに関する情報を記憶する。アドバイスID列は、予め設定された各アドバイスを識別するための識別情報(アドバイスID)を記憶する。アドバイスコンテンツ列は、認知機能のタイプに応じた各アドバイスのコンテンツデータを記憶する。アドバイスのコンテンツデータは、画像データであってもよく、音声データであってもよく、画像データ及び音声データが含まれていてもよい。アドバイスは、例えば食事及び運動等の生活習慣、トレーニング等に関する内容であってもよく、例えば時刻に応じた食事の内容、それぞれのトレーニングの目的及び効果等を含んでいてもよい。このようなアドバイスは、医師、看護師、薬剤師、保健師、管理栄養士、心理相談員、運動指導士等の専門家が、認知機能のタイプ及び特徴に応じて設定した内容であってもよい。またアドバイスは、情報処理装置10から出力されたテストコンテンツに対するテスト結果(回答に対する正誤)、回答情報に基づいて判定された判定結果(認知機能のタイプ)、テスト内容に対する解説又は解き方、テストコンテンツの選定理由又は出題目的等を含んでいてもよい。ここでも、コンテンツデータは、アドバイスDB42cに記憶されるほかに、記憶部42の所定領域又は他の記憶装置に記憶されてもよく、この場合、アドバイスコンテンツ列は、コンテンツデータを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。タイプ列は、各アドバイスを提供すべきユーザの認知機能のタイプ(タイプID)を記憶する。このような構成により、アドバイスDB42cでは、認知機能のタイプに応じてユーザに提供すべきアドバイスが対応付けて登録される。アドバイスDB42cに記憶されるアドバイスIDは、新たなアドバイスが登録された場合に、制御部41によって発行されて記憶される。アドバイスDB42cに記憶されるアドバイスコンテンツ及びタイプは、制御部41が入力部44又は通信部43を介して追加指示を取得した場合に制御部41によって追加される。アドバイスDB42cの記憶内容は図6Cに示す例に限定されない。 The advice DB 42c stores information on advice provided to the user according to the type of cognitive function. The advice DB 42c shown in FIG. 6C includes an advice ID column, an advice content column, a type column, and the like, and stores information on advice in association with the advice ID. The advice ID column stores preset identification information (advice ID) for identifying each piece of advice. The advice content column stores the content data of each advice corresponding to the type of cognitive function. The advice content data may be image data, audio data, or may include image data and audio data. The advice may be, for example, content related to lifestyle habits such as diet and exercise, training, etc., and may include, for example, the content of meals according to the time of day, the purpose and effect of each training, and the like. Such advice may be content set by experts such as doctors, nurses, pharmacists, public health nurses, registered dietitians, psychological counselors, and exercise instructors according to the type and characteristics of cognitive function. Further, the advice includes the test result (correctness of the answer) for the test content output from the information processing device 10, the judgment result (cognitive function type) judged based on the answer information, the commentary on the test content or how to solve it, and the test content. It may include the reason for selection or purpose of questioning. Again, the content data may be stored in a predetermined area of the storage unit 42 or another storage device in addition to being stored in the advice DB 42c. In this case, the advice content string is information for reading out the content data ( For example, a file name indicating the storage location of data) is stored. The type column stores the type (type ID) of the user's cognitive function for which each piece of advice should be provided. With such a configuration, advice to be provided to the user is associated and registered in the advice DB 42c according to the type of cognitive function. The advice ID stored in the advice DB 42c is issued and stored by the control unit 41 when new advice is registered. The advice contents and types stored in the advice DB 42 c are added by the control section 41 when the control section 41 acquires an addition instruction via the input section 44 or the communication section 43 . The storage contents of the advice DB 42c are not limited to the example shown in FIG. 6C.

対話DB42dは、ユーザとの間で行う対話に関する情報を記憶する。図7に示す対話DB42dは、対話ID列、対話内容列、対話コンテンツ列等を含み、対話IDに対応付けてユーザに対して発話する対話に関する情報を記憶する。対話ID列は、予め登録された各対話コンテンツを識別するための識別情報(対話ID)を記憶する。対話内容列は、ユーザとの間で行われる対話の内容に関する情報を記憶し、例えば挨拶(朝の挨拶、昼の挨拶、夜の挨拶)又は天気等が記憶される。対話コンテンツ列は、ユーザに対して発話する対話のコンテンツデータを記憶する。対話のコンテンツデータは、画像データであってもよく、音声データであってもよく、画像データ及び音声データが含まれていてもよい。例えば対話内容が「朝の挨拶」の対話コンテンツは、例えば「おはようございます。よく眠れましたか?」のようなメッセージの表示画像及び/又は音声データを含む。ここでも、コンテンツデータは、対話DB42dに記憶されるほかに、記憶部42の所定領域又は他の記憶装置に記憶されてもよく、この場合、対話コンテンツ列は、コンテンツデータを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。対話DB42dに記憶される対話IDは、新たな対話内容が登録された場合に、制御部41によって発行されて記憶される。対話DB42dに記憶される対話内容及び対話コンテンツは、制御部41が入力部44又は通信部43を介して追加指示を取得した場合に制御部41によって追加される。対話DB42dの記憶内容は図7に示す例に限定されない。例えば、各対話コンテンツに対応付けて、対話コンテンツを出力すべき時間帯(対話時間帯)、又は、対話コンテンツを出力すべきユーザの発話内容に関する情報が対話DB42dに記憶されていてもよい。なお、情報処理装置10は、サーバ40から対話DB42dに登録してある対話コンテンツを取得して表示部16又はスピーカ22から出力することにより、ユーザに話しかけ、マイク18を介してユーザの発話音声を取得し、取得した発話内容に応じた対話コンテンツをサーバ40から取得して表示部16又はスピーカ22から出力することにより、ユーザとの間で対話を行うように構成されている。なお、サーバ40は、対話DB42dの代わりに公知のチャットボットによって、ユーザの発話内容に応じたメッセージ(対話コンテンツ)を生成してもよい。 The dialogue DB 42d stores information related to dialogue with the user. The dialog DB 42d shown in FIG. 7 includes a dialog ID column, a dialog content column, a dialog content column, and the like, and stores information about a dialog to be spoken to the user in association with the dialog ID. The dialogue ID column stores identification information (dialogue ID) for identifying each pre-registered dialogue content. The dialogue content column stores information about the content of the dialogue with the user, such as greetings (morning greetings, afternoon greetings, evening greetings) or weather. The dialog content column stores content data of dialogs spoken to the user. The dialogue content data may be image data, audio data, or may include image data and audio data. For example, dialogue content whose dialogue content is "morning greeting" includes a display image and/or audio data of a message such as "Good morning. Did you sleep well?" Again, the content data may be stored in a predetermined area of the storage unit 42 or another storage device in addition to being stored in the dialog DB 42d. In this case, the dialog content string is information for reading the content data ( For example, a file name indicating the storage location of data) is stored. The dialogue ID stored in the dialogue DB 42d is issued and stored by the control unit 41 when new dialogue content is registered. The dialogue content and dialogue content stored in the dialogue DB 42 d are added by the control unit 41 when the control unit 41 acquires an addition instruction via the input unit 44 or the communication unit 43 . The storage contents of the dialogue DB 42d are not limited to the example shown in FIG. For example, the dialogue DB 42d may store, in association with each dialogue content, a time zone (dialogue time zone) during which the dialogue content should be output, or information about the user's utterance content for which the dialogue content should be output. The information processing apparatus 10 acquires dialogue contents registered in the dialogue DB 42 d from the server 40 and outputs them from the display unit 16 or the speaker 22 to speak to the user and to listen to the user's uttered voice through the microphone 18 . It is configured to have a dialogue with the user by acquiring from the server 40 and outputting from the display unit 16 or the speaker 22 the dialogue content corresponding to the acquired utterance content. Note that the server 40 may generate a message (dialogue content) according to the content of the user's utterance by using a known chatbot instead of the dialogue DB 42d.

図8は学習モデル42Mの構成例を示す模式図である。学習モデル42Mは、情報処理装置10で収集されたユーザの回答情報を入力とし、入力された回答情報に基づいてユーザの認知機能に関するタイプを示す情報を出力するように学習された学習済みモデルである。学習モデル42Mは、例えばランダムフォレスト、決定木、SVM(Support Vector Machine)等のアルゴリズムを用いて構成される。なお、学習モデル42Mは、これらのほかに、CNN、RNN(Recurrent Neural Network)等のアルゴリズムを用いて構成されてもよく、複数のアルゴリズムを組み合わせて構成されてもよい。サーバ40は、所定の訓練データを学習する機械学習を行って学習モデル42Mを事前に生成しておく。サーバ40は、情報処理装置10から取得するユーザの回答情報を学習モデル42Mに入力し、学習モデル42Mからの出力情報に基づいてユーザの認知機能のタイプを特定する。 FIG. 8 is a schematic diagram showing a configuration example of the learning model 42M. The learning model 42M is a trained model that has been learned to output information indicating the user's cognitive function type based on the input answer information of the user collected by the information processing apparatus 10. be. The learning model 42M is configured using an algorithm such as random forest, decision tree, SVM (Support Vector Machine), or the like. In addition to these, the learning model 42M may be configured using algorithms such as CNN and RNN (Recurrent Neural Network), or may be configured by combining a plurality of algorithms. The server 40 performs machine learning for learning predetermined training data to generate a learning model 42M in advance. The server 40 inputs the user's answer information acquired from the information processing apparatus 10 to the learning model 42M, and identifies the type of user's cognitive function based on the output information from the learning model 42M.

図8に示す学習モデル42Mは、入力層、中間層及び出力層から構成されている。入力層は複数の入力ノードを有しており、各入力ノードには回答情報に含まれる各情報が対応付けられており、回答情報の各情報がそれぞれ対応付けられた入力ノードを介して学習モデル42Mに入力される。図8に示す例では、回答情報に含まれる問題傾向、回答時間、正誤情報、挙動情報、表情情報、時間帯、対話傾向の各情報が入力されるが、これらのうちの一部が入力される構成でもよく、回答情報に他の情報が含まれる場合には他の情報も入力される構成でもよい。中間層は、各種の関数及び閾値等を用いて、入力層を介して入力された各情報から出力値を算出し、算出した出力値を出力層へ出力する。なお、例えば中間層が複数の層を有する場合、各層のノードは、各層間の関数及び閾値等を用いて、入力された情報に基づく出力値を算出し、算出した出力値を順次後の層のノードに入力する。中間層は、各層のノードの出力値を順次後の層のノードに入力することにより、最終的に出力層の各出力ノードにそれぞれの出力値を与える。出力層は、予め設定されたタイプがそれぞれ対応付けられた複数の出力ノードを有しており、各出力ノードから、対応付けられたタイプに対する判別確率を出力する。本実施形態では、各出力ノードは、タイプDB42aに登録してある各タイプに対する判別確率を出力し、例えばタイプIDがTY01,TY02,…のタイプに対する判別確率をそれぞれ出力する。各出力ノードが出力する判別確率は、それぞれ対応付けられたタイプが、入力された回答情報のユーザに適切である可能性(確率)を示す。出力層の各出力ノードの出力値は例えば0~1の値であり、各出力ノードから出力される判別確率の合計が1.0となる。上述した構成により、学習モデル42Mは、ユーザの回答情報が入力された場合に、ユーザの認知機能のタイプに係る情報(各タイプに対する判別確率)を出力する。 The learning model 42M shown in FIG. 8 is composed of an input layer, an intermediate layer and an output layer. The input layer has multiple input nodes, and each input node is associated with each piece of information included in the answer information. 42M. In the example shown in FIG. 8, the question tendency, answer time, correct/incorrect information, behavior information, facial expression information, time period, and dialogue tendency information included in the answer information are input. may be configured to input other information if the answer information includes other information. The intermediate layer uses various functions and threshold values to calculate an output value from each piece of information input via the input layer, and outputs the calculated output value to the output layer. Note that, for example, when the intermediate layer has multiple layers, the nodes of each layer calculate the output value based on the input information using the functions and thresholds between each layer, and the calculated output value is sequentially applied to the subsequent layers. input to the node of The intermediate layer sequentially inputs the output values of the nodes of each layer to the nodes of the succeeding layer, and finally gives each output value to each output node of the output layer. The output layer has a plurality of output nodes each associated with a preset type, and each output node outputs a discrimination probability for the associated type. In this embodiment, each output node outputs the discrimination probability for each type registered in the type DB 42a, for example, the discrimination probabilities for types with type IDs TY01, TY02, . . . The discrimination probability output by each output node indicates the possibility (probability) that the associated type is appropriate for the user of the input answer information. The output value of each output node in the output layer is, for example, a value between 0 and 1, and the sum of the discrimination probabilities output from each output node is 1.0. With the configuration described above, the learning model 42M outputs information (discrimination probability for each type) related to the user's cognitive function type when the user's answer information is input.

サーバ40は、上述した学習モデル42Mにおいて、出力層からの出力値のうちで最大の出力値(判別確率)を出力した出力ノードを特定し、特定した出力ノードに対応するタイプを、ユーザの認知機能のタイプに特定する。なお、学習モデル42Mの出力層は、それぞれのタイプに対する判別確率を出力する複数の出力ノードを有する構成のほかに、判別確率が最も高いタイプ(タイプID)を出力する1個の出力ノードを有する構成でもよい。 In the learning model 42M described above, the server 40 identifies the output node that outputs the maximum output value (discrimination probability) among the output values from the output layer, and identifies the type corresponding to the identified output node. Be specific to the type of function. The output layer of the learning model 42M has a structure having a plurality of output nodes that output the discrimination probability for each type, and also has one output node that outputs the type with the highest discrimination probability (type ID). may be configured.

学習モデル42Mは、ユーザの回答情報に対して、ユーザの認知機能のタイプを示す情報(正解ラベル)が付与された訓練データを用いて学習する。正解ラベルのタイプは、例えばユーザの回答情報に基づいて医師等の専門家が判定した認知機能のタイプを用いることができる。訓練データ用の回答情報及びタイプは、過去に情報処理装置10から取得した回答情報と、この回答情報に基づいて判定されたタイプとを用いることができる。学習モデル42Mは、訓練データに含まれる回答情報が入力された場合に、訓練データに含まれる正解ラベル(正解のタイプ)に対応する出力ノードからの出力値が1に近づき、他の出力ノードからの出力値が0に近づくように学習する。具体的には、学習モデル42Mは、入力された回答情報に基づいて中間層での演算を行い、出力層の各出力ノードからの出力値を算出する。そして学習モデル42Mは、算出した各出力ノードの出力値と正解ラベルに応じた値(0又は1)とを比較し、各出力値がそれぞれの正解ラベルに応じた値に近似するように、中間層及び出力層におけるパラメータを最適化する。学習モデル42Mは、例えば誤差逆伝播法を用いて、中間層及び出力層での演算に用いる各種の関数の係数及び閾値等のデータの最適化を行う。これにより、ユーザの回答情報が入力された場合に、認知機能の各タイプに対する判別確率を出力するように学習された学習モデル42Mが得られる。 The learning model 42M learns using training data in which information indicating the type of cognitive function of the user (correct label) is added to the answer information of the user. As the correct label type, for example, a cognitive function type determined by an expert such as a doctor based on the user's answer information can be used. As the answer information and type for training data, answer information obtained from the information processing apparatus 10 in the past and a type determined based on this answer information can be used. When the answer information included in the training data is input to the learning model 42M, the output value from the output node corresponding to the correct label (correct type) included in the training data approaches 1, and from other output nodes is learned so that the output value of approaches 0. Specifically, the learning model 42M performs an operation in the intermediate layer based on the input answer information, and calculates an output value from each output node in the output layer. Then, the learning model 42M compares the calculated output value of each output node with the value (0 or 1) corresponding to the correct label, and performs intermediate Optimize the parameters in the layer and the output layer. The learning model 42M optimizes data such as coefficients and threshold values of various functions used for calculations in the intermediate layer and the output layer, using, for example, error backpropagation. As a result, a learning model 42M that has been learned to output the discrimination probability for each type of cognitive function when the user's answer information is input is obtained.

学習モデル42Mの学習はサーバ40以外の他の学習装置で行われてもよい。他の学習装置で学習が行われて生成された学習済みの学習モデル42Mは、例えばネットワークN経由又は可搬型記憶媒体4a経由で学習装置からサーバ40にダウンロードされて記憶部42に記憶される。学習モデル42Mは、図8に示す構成に限定されない。 Learning of the learning model 42M may be performed by a learning device other than the server 40 . A learned learning model 42M generated by learning in another learning device is downloaded from the learning device to the server 40 via, for example, the network N or the portable storage medium 4a and stored in the storage unit 42. The learning model 42M is not limited to the configuration shown in FIG.

以下に、訓練データを学習して学習モデル42Mを生成する処理について説明する。図9は学習モデル42Mの生成処理手順の一例を示すフローチャートである。以下の処理は、サーバ40の制御部41が、記憶部42に記憶してある制御プログラム42Pに従って行うが、他の学習装置で行われてもよい。 Processing for learning the training data and generating the learning model 42M will be described below. FIG. 9 is a flow chart showing an example of a processing procedure for generating the learning model 42M. The following processing is performed by the control unit 41 of the server 40 according to the control program 42P stored in the storage unit 42, but may be performed by another learning device.

サーバ40の制御部41は、あるユーザの回答情報に対して正解のタイプが付与された訓練データを取得する(S11)。訓練データは、例えば過去に情報処理装置10から受信した回答情報と、この回答情報に基づいて判定されたタイプとを対応付けて訓練データDB(図示せず)に蓄積しておいてもよい。この場合、制御部41は、訓練データDBから訓練データを取得する。制御部41は、取得した訓練データを用いて学習モデル42Mの学習処理を行う(S12)。ここでは、制御部41は、訓練データに含まれる回答情報の各情報を入力層の各入力ノードから学習モデル42Mに入力し、出力層の各出力ノードからの出力値を取得する。制御部41は、各出力ノードからの出力値と、正解のタイプに応じた値(正解のタイプに対応する出力ノードについては1、その他の出力ノードについては0)とを比較し、両者が近似するように、例えば誤差逆伝播法を用いて、中間層及び出力層におけるパラメータを最適化する。即ち、制御部41は、正解のタイプに対応する出力ノードからの出力値が1に近づき、他の出力ノードからの出力値が0に近づくように学習モデル42Mを学習させる。 The control unit 41 of the server 40 acquires training data in which the type of correct answer is given to the answer information of a certain user (S11). The training data may be stored in a training data DB (not shown) in association with, for example, answer information received from the information processing apparatus 10 in the past and a type determined based on the answer information. In this case, the control unit 41 acquires training data from the training data DB. The control unit 41 performs learning processing of the learning model 42M using the acquired training data (S12). Here, the control unit 41 inputs each information of the answer information included in the training data from each input node of the input layer to the learning model 42M, and acquires the output value from each output node of the output layer. The control unit 41 compares the output value from each output node with the value corresponding to the correct answer type (1 for the output node corresponding to the correct answer type and 0 for the other output nodes), and the two are approximated. , the parameters in the hidden and output layers are optimized using, for example, error backpropagation. That is, the control unit 41 learns the learning model 42M so that the output value from the output node corresponding to the correct answer type approaches 1 and the output value from the other output nodes approaches 0.

制御部41は、未処理の訓練データがあるか否かを判断する(S13)。例えば制御部41は、訓練データDBに記憶されている訓練データのうちで、学習処理に未だ使用されていない訓練データがあるか否かを判断する。未処理の訓練データがあると判断した場合(S13:YES)、制御部41は、ステップS11の処理に戻り、学習処理が未処理の訓練データについて、ステップS11~S12の処理を行い、訓練データを用いた学習処理を繰り返す。未処理のデータがないと判断した場合(S13:NO)、制御部41は学習処理を終了する。これにより、ユーザの回答情報が入力された場合に、ユーザの認知機能のタイプの判別結果として、予めタイプDB42aに登録してあるタイプのそれぞれに対する判別確率を出力するように学習された学習モデル42Mが生成される。なお、既に学習済みの学習モデル42Mについても、上述した処理を行うことによって再学習させることができ、この場合、判別精度がより高い学習モデル42Mを生成できる。上述した学習処理を繰り返し行うことにより、学習モデル42Mを最適化することができ、膨大な訓練データを用いて学習モデル42Mを学習させた場合には、より正確にユーザの認知機能のタイプを判別できる学習モデル42Mを実現できる。 The control unit 41 determines whether or not there is unprocessed training data (S13). For example, the control unit 41 determines whether or not there is training data that has not yet been used in the learning process among the training data stored in the training data DB. If it is determined that there is unprocessed training data (S13: YES), the control unit 41 returns to the processing of step S11, performs the processing of steps S11 and S12 on the training data that has not undergone the learning processing, and Repeat the learning process using If it is determined that there is no unprocessed data (S13: NO), the control unit 41 terminates the learning process. Thus, when the user's answer information is input, the learning model 42M learned to output the discrimination probability for each of the types registered in advance in the type DB 42a as the discrimination result of the user's cognitive function type. is generated. The learning model 42M that has already been trained can also be re-learned by performing the above-described processing, and in this case, a learning model 42M with higher discrimination accuracy can be generated. By repeating the learning process described above, the learning model 42M can be optimized, and when the learning model 42M is learned using a huge amount of training data, the type of user's cognitive function can be determined more accurately. A learning model 42M that can be used can be realized.

以下に、情報処理装置10がユーザに対して問題を出題することによって収集した回答情報からユーザの認知機能のタイプを特定し、特定したタイプに応じたコンテンツをユーザに提供する処理について説明する。なお、以下の処理において、サーバ40は、上述した処理によって生成された学習モデル42Mを用いて、情報処理装置10から受信する回答情報からユーザの認知機能のタイプを特定する。図10はコンテンツの提供処理手順の一例を示すフローチャート、図11~図13は画面例を示す模式図である。図10では左側に情報処理装置10が行う処理を、右側にサーバ40が行う処理をそれぞれ示す。以下の処理は、情報処理装置10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行され、サーバ40の記憶部42に記憶してある制御プログラム42Pに従って制御部41によって実行される。以下の処理の一部を専用のハードウェア回路で実現してもよい。 Below, a process will be described in which the information processing apparatus 10 identifies the type of cognitive function of the user from the answer information collected by asking questions to the user, and provides the user with content corresponding to the identified type. In the following process, server 40 identifies the type of user's cognitive function from the answer information received from information processing apparatus 10 using learning model 42M generated by the above-described process. FIG. 10 is a flow chart showing an example of a content provision processing procedure, and FIGS. 11 to 13 are schematic diagrams showing examples of screens. In FIG. 10, the processing performed by the information processing apparatus 10 is shown on the left side, and the processing performed by the server 40 is shown on the right side. The following processing is executed by the control unit 11 according to the control program 12P stored in the storage unit 12 of the information processing device 10, and is executed by the control unit 41 according to the control program 42P stored in the storage unit 42 of the server 40. be. A part of the following processing may be realized by a dedicated hardware circuit.

本実施形態の情報処理システムにおいて、情報処理装置10の制御部11は、テストコンテンツ又はトレーニングコンテンツ等を出力していない待機状態では、待機用コンテンツを出力している(S21)。待機用コンテンツは画像データ又は音声データを含み、画像データが含まれる場合、制御部11は、画像データを表示部16へ出力して待機画面(図示せず)を表示する。待機画面は、例えば「画面をタッチしてスタートしましょう」のメッセージを表示する。待機用コンテンツに音声データが含まれる場合、制御部11は、音声データをスピーカ22又はロボット30へ出力し、スピーカ22又はロボット30のスピーカ34から音声出力を行う。例えば「画面をタッチしてスタートしましょう」のメッセージを音声出力する。なお、待機用コンテンツは、ユーザ毎に設定することが可能であり、例えばユーザの家族又は保護者によって設定されたコンテンツであってもよく、ユーザが興味のある内容のコンテンツであってもよい。また待機状態において、ロボット30が、待機状態に対応した色及び輝度の光を発光部35によって発光するように構成されていてもよく、スピーカ34から所定の音楽が出力されるように構成されていてもよい。図10に示す処理では、画面(タッチパネル)に対するタッチ操作によって情報処理装置10による処理が開始される構成とするが、このような構成に限定されない。例えば「スタート」等の所定のメッセージをユーザが発話することによる音声入力によって情報処理装置10が処理を開始する構成でもよく、ロボット30の人感センサ36によってユーザの接近が検知された場合に情報処理装置10が処理を開始する構成でもよい。 In the information processing system of the present embodiment, the control unit 11 of the information processing device 10 outputs standby content in a standby state in which test content, training content, or the like is not output (S21). The standby content includes image data or audio data, and when image data is included, the control unit 11 outputs the image data to the display unit 16 to display a standby screen (not shown). The standby screen displays, for example, the message "Let's touch the screen to start." When audio data is included in the standby content, the control unit 11 outputs the audio data to the speaker 22 or the robot 30 and outputs audio from the speaker 22 or the speaker 34 of the robot 30 . For example, the message "Let's start by touching the screen" is output by voice. Note that the standby content can be set for each user, and may be, for example, content set by the user's family or guardian, or content that the user is interested in. Further, in the standby state, the robot 30 may be configured to emit light with a color and brightness corresponding to the standby state from the light emitting unit 35, and may be configured to output predetermined music from the speaker 34. may In the processing shown in FIG. 10, the processing by the information processing apparatus 10 is started by a touch operation on the screen (touch panel), but the configuration is not limited to this. For example, the information processing apparatus 10 may start processing by voice input by the user uttering a predetermined message such as "start". The configuration may be such that the processing device 10 starts processing.

制御部11は、入力部15を介してタッチ操作を受け付けたか否かを判断しており(S22)、受け付けていないと判断した場合(S22:NO)、待機用コンテンツの出力を継続する。タッチ操作を受け付けたと判断した場合(S22:YES)、制御部11は、ユーザに対するテストコンテンツの出題処理を開始する。具体的には、制御部11は、テストDB12aに記憶してあるテストコンテンツから、ユーザに出題すべきテストコンテンツを特定する(S23)。例えば制御部11は、前回出題したテストコンテンツと同じ項目のテストコンテンツを特定してもよく、前回出題したテストコンテンツとは異なる項目のテストコンテンツを特定してもよい。また制御部11は、過去の出題時の正誤情報(正解又は不正解)を考慮して、例えば不正解だったテストコンテンツを特定してもよい。更に制御部11は、前回の判定結果(認知機能のタイプ)を考慮して出題すべきテストコンテンツを特定してもよい。制御部11(プログラム出力部)は、特定したテストコンテンツを出力する(S24)。テストコンテンツは画像データを含み、制御部11は、画像データを表示部16へ出力し、例えば図11Aに示すようなテスト画面を表示する。なお、テストコンテンツに音声データが含まれていてもよく、この場合、制御部11は、音声データをスピーカ22又はロボット30のスピーカ34から音声出力する。なお、制御部11は、テストコンテンツを出力する前に、例えば天気又は季節の話題、ニュース又はスポーツの話題、ユーザが興味のある話題等、ユーザをリラックスさせるためのコンテンツを出力してもよい。 The control unit 11 determines whether or not a touch operation has been received via the input unit 15 (S22), and if it determines that it has not been received (S22: NO), it continues outputting the standby content. If it is determined that the touch operation has been received (S22: YES), the control unit 11 starts the process of asking the user the test content. Specifically, the control unit 11 specifies test content to be presented to the user from the test content stored in the test DB 12a (S23). For example, the control unit 11 may specify test content of the same item as the test content presented last time, or may specify test content of a different item from the test content presented last time. In addition, the control unit 11 may take into account correct/incorrect information (correct answers or incorrect answers) at the time of past questions, and identify, for example, test content that was incorrect. Furthermore, the control unit 11 may specify the test content to be set in consideration of the previous determination result (cognitive function type). The control unit 11 (program output unit) outputs the identified test content (S24). The test content includes image data, and the control section 11 outputs the image data to the display section 16 to display a test screen as shown in FIG. 11A, for example. Audio data may be included in the test content, and in this case, the control unit 11 outputs the audio data from the speaker 22 or the speaker 34 of the robot 30 . Before outputting the test content, the control unit 11 may output content for relaxing the user, such as weather or seasonal topics, news or sports topics, topics of interest to the user, and the like.

テスト画面(テストコンテンツ)は、例えば図11A~図11Dに示すように、ユーザに対するメッセージが表示され、所定時間毎に、図11A~図11Dの順に各画面が切り替わる。なお、テスト画面のそれぞれに「つぎへ」ボタンを表示し、ユーザが「つぎへ」ボタンに対するタッチ操作を行うことによって次の画面が表示されるように構成されていてもよい。なお、「つぎへ」ボタンは、タッチ操作だけでなく、例えば「つぎへ」とユーザが発話することによる音声入力、又は、「つぎへ」ボタンをユーザが見ることによる目線入力によって操作を受け付けるように構成されていてもよい。図11Bに示すテスト画面は、テストコンテンツの最初の画面であり、例えばユーザが表示メッセージを読み終えることができる所定時間が経過した場合、図11Cに示すテスト画面が表示される。また図11Cの画面が表示されてから所定時間が経過した場合に、図11Dに示すテスト画面が表示され、図11Dの画面が表示されてから所定時間が経過した場合に、図12Aに示すテスト画面が表示される。図12Aの画面では、「Aをよく見ていましたね」のメッセージが表示され、このメッセージに対する回答として「はい」を選択するための「はい」ボタン及び「いいえ」を選択するための「いいえ」ボタンが表示されている。図12Aの画面では、「はい」ボタンが選択された場合、図11Dの画面で出題された問題に対する回答としてAが選択されることになり、「いいえ」ボタンが選択された場合、問題に対する回答としてBが選択されることになる。よって、ユーザは、Aを回答する場合、図12Aの画面中の「はい」ボタンを操作し、Bを回答する場合、図12Aの画面中の「いいえ」ボタンを操作する。図12Aの画面において「はい」ボタン又は「いいえ」ボタンが操作された場合、制御部11は、図12Bに示すテスト画面を表示する。図12Bの画面では、正解が表示される。なお、制御部11は、図12Bの画面を表示した場合に、図12Aの画面を介して受け付けたユーザの回答に対する正解又は不正解を判定する。図12Bの画面が表示されてから所定時間が経過した後、制御部11は、図12Cに示すテスト画面を表示し、次の問題のテスト画面の表示に移行する。図11C~図12Bの各画面が、1つの問題におけるテスト画面であり、制御部11は、所定時間毎に、又は画面中のボタンに対する操作に従ってテスト画面を順次切り替えて表示する。図11C~図12Bの画面においても、各ボタンに対する操作は、タッチ操作だけでなく、音声入力又は目線入力によって操作できるように構成されていてもよい。これにより、ユーザは自身が得意な方法での操作を行うことができ、操作負担を軽減できる。 The test screen (test content) displays a message to the user, for example, as shown in FIGS. 11A to 11D, and each screen is switched in the order of FIGS. 11A to 11D at predetermined time intervals. It should be noted that a "next" button may be displayed on each of the test screens, and the next screen may be displayed when the user performs a touch operation on the "next" button. Note that the "next" button can be operated not only by a touch operation, but also by voice input by the user uttering "next", or by line-of-sight input by the user looking at the "next" button. may be configured to The test screen shown in FIG. 11B is the first screen of the test content. For example, when a predetermined period of time has passed so that the user can finish reading the displayed message, the test screen shown in FIG. 11C is displayed. 11D is displayed when a predetermined time has passed since the screen in FIG. 11C was displayed, and the test screen shown in FIG. 12A is displayed when a predetermined time has passed since the screen in FIG. 11D was displayed. A screen appears. On the screen of FIG. 12A, a message "You watched A well" is displayed, and a "Yes" button for selecting "Yes" and a "No" for selecting "No" are displayed as answers to this message. button is displayed. When the "Yes" button is selected on the screen of FIG. 12A, A is selected as the answer to the question set on the screen of FIG. 11D, and when the "No" button is selected, the answer to the question is B will be selected as Therefore, when answering A, the user operates the "Yes" button on the screen of FIG. 12A, and when answering B, operates the "No" button on the screen of FIG. 12A. When the "Yes" button or the "No" button is operated on the screen of FIG. 12A, the control section 11 displays the test screen shown in FIG. 12B. The correct answer is displayed on the screen of FIG. 12B. Note that, when the screen of FIG. 12B is displayed, the control unit 11 determines whether the user's answer received through the screen of FIG. 12A is correct or incorrect. After a predetermined period of time has passed since the screen of FIG. 12B was displayed, the control section 11 displays the test screen shown in FIG. 12C, and shifts to the display of the test screen of the next question. Each screen in FIGS. 11C to 12B is a test screen for one question, and the control unit 11 sequentially switches and displays the test screens at predetermined time intervals or according to the operation of buttons on the screen. In the screens of FIGS. 11C to 12B as well, each button may be operated not only by touch operation but also by voice input or line-of-sight input. As a result, the user can operate in a method that he/she is good at, and can reduce the operation burden.

図12Aに示す画面では、図11Dの画面においてユーザの目線の位置及び動きに基づいてユーザによる回答を受け付ける構成であるが、このような構成に限定されない。例えば制御部11は、図11Dの画面におけるAの画像又はBの画像に対するタッチ操作によってユーザの回答を受け付けてもよく、図11Dの画面の表示中にユーザが「A」又は「B」と発話することによる音声入力によってユーザの回答を受け付けてもよい。 Although the screen shown in FIG. 12A is configured to receive an answer from the user based on the position and movement of the user's line of sight on the screen of FIG. 11D, the configuration is not limited to this. For example, the control unit 11 may accept the user's answer by a touch operation on the image A or the image B on the screen of FIG. The user's answer may be accepted by voice input by doing.

制御部11は、図11C~図12Bの各テスト画面を表示している場合(問題を出題している場合)、カメラ17によってユーザを撮影し(S25)、例えばユーザの上半身の撮影画像を取得する。また制御部11は、順次取得するユーザの撮影画像に基づいて、挙動検知部20によってユーザの挙動を検知する(S26)。挙動としては、例えばユーザが見ている箇所が問題の表示箇所、選択肢の表示箇所もしくは問題に関係のない箇所であるか、又は、凝視しているか、目線が動いているか等の目線の位置及び動き、ユーザの口の開閉状態、ユーザの上半身又は全身におけるふらつき度合等が検知され、制御部11は挙動検知部20が検知した挙動情報を取得する。また制御部11は、順次取得するユーザの撮影画像に基づいて、表情検知部21によってユーザの表情を検知する(S27)。表情としては、例えばユーザの顔に現れている喜び、悲しみ、怒り、驚き、恐怖等の感情、又は無表情(真顔)が検知され、制御部11は表情検知部21が検知した表情情報を取得する。また制御部11は、ユーザが回答した内容に対する正解又は不正解(正誤)の情報を取得する(S28)。例えば制御部11は、図12Aの画面を介してユーザの回答を受け付け、入力されたユーザの回答が、図12Bの画面に表示した正解に一致するか(正解であるか)、一致しないか(不正解であるか)を判定し、ユーザの回答に対する正誤情報を取得する。 When each test screen of FIGS. 11C to 12B is displayed (when a question is given), the control unit 11 captures the user with the camera 17 (S25), and acquires, for example, a captured image of the user's upper body. do. Further, the control unit 11 detects the behavior of the user by the behavior detection unit 20 based on the captured images of the user that are sequentially acquired (S26). The behavior includes, for example, whether the part the user is looking at is the display part of the problem, the display part of the option, or the part unrelated to the problem, or whether the user is staring, whether the line of sight is moving, and so on. Movement, the open/closed state of the user's mouth, the degree of swaying of the user's upper body or whole body, and the like are detected, and the control unit 11 acquires the behavior information detected by the behavior detection unit 20 . Further, the control unit 11 detects the user's facial expression using the facial expression detection unit 21 based on the captured images of the user that are sequentially acquired (S27). As the facial expression, for example, emotions such as joy, sadness, anger, surprise, and fear appearing on the user's face, or expressionlessness (straight face) are detected, and the control unit 11 acquires facial expression information detected by the facial expression detection unit 21. do. Further, the control unit 11 acquires information on the correct answer or incorrect answer (correct or incorrect) for the contents of the user's answer (S28). For example, the control unit 11 accepts the user's answer via the screen of FIG. 12A, and determines whether the input user's answer matches (is it correct) or does not match (is it correct) displayed on the screen of FIG. 12B? whether the answer is incorrect or not), and obtains correct/incorrect information for the user's answer.

制御部11は、例えば1つの問題に対してステップS23~S28の処理を行う。よって、制御部11(取得部)は、1つの問題について、テストコンテンツの傾向(問題傾向)、ユーザが回答するまでに要した回答時間、ステップS28で取得したユーザの回答に対する正誤情報、ステップS26で取得した挙動情報、ステップS27で取得した表情情報、出題時の時間帯、対話傾向を回答情報として取得する。なお、対話傾向は、例えばテストコンテンツを出力する前にユーザとの間で行った対話に関する傾向を含んでもよく、テストコンテンツを出力中にユーザとの間で行った対話に関する傾向を含んでもよい。そして制御部11は、1つの問題について、出題したテストコンテンツのテストIDに対応付けて、上述した情報を含む回答情報を履歴DB12bに記憶する。なお、制御部11は、例えば図12Bの画面の表示後に、問題に対するユーザの感想を取得するように構成されていてもよく、この場合、取得した感想も回答情報に含めて履歴DB12bに記憶してもよい。制御部11は、テストコンテンツの出題処理(テスト)を終了すべきか否かを判断する(S29)。例えば制御部11は、ユーザに対するテストコンテンツの出題処理を開始してから所定時間が経過した場合、又はユーザに対して所定数のテストコンテンツの出題が完了した場合、テストコンテンツの出題処理を終了すべきであると判断する。テストコンテンツの出題処理を終了すべきでないと判断した場合(S29:NO)、制御部11は、ステップS23の処理に戻り、次に出題すべきテストコンテンツをテストDB12aに記憶してあるテストコンテンツから特定する(S23)。そして、制御部11は、特定したテストコンテンツについてステップS24~S28の処理を行い、出題したテストコンテンツに対する回答情報(問題傾向、回答時間、正誤情報、挙動情報、表情情報、時間帯、対話傾向)を履歴DB12bに記憶する。 The control unit 11 performs steps S23 to S28 for one question, for example. Therefore, for one question, the control unit 11 (acquisition unit) obtains the tendency of the test content (problem tendency), the response time required for the user to answer, the correct/incorrect information on the user's answer obtained in step S28, and the The behavior information acquired in step S27, the facial expression information acquired in step S27, the time period when the question was asked, and the conversation tendency are acquired as answer information. The dialogue tendency may include, for example, a tendency regarding dialogue with the user before outputting the test content, or a tendency regarding dialogue with the user during outputting the test content. Then, the control unit 11 stores answer information including the above-described information in the history DB 12b in association with the test ID of the given test content for one question. Note that the control unit 11 may be configured to acquire the user's impression of the question after the screen of FIG. 12B is displayed, for example. In this case, the acquired impression is also included in the answer information and stored in the history DB 12b. may The control unit 11 determines whether or not to end the questioning process (test) of the test content (S29). For example, the control unit 11 terminates the test content questioning process when a predetermined time has passed since the start of the test content questioning process for the user, or when a predetermined number of test content questions have been given to the user. judge that it should. If it is determined that the test content questioning process should not end (S29: NO), the control unit 11 returns to the process of step S23, and selects the next test content to be asked from the test content stored in the test DB 12a. Specify (S23). Then, the control unit 11 performs the processing of steps S24 to S28 for the specified test content, and the answer information (problem tendency, answer time, correct/incorrect information, behavior information, facial expression information, time zone, conversation tendency) for the set test content. is stored in the history DB 12b.

テストコンテンツの出題処理を終了すべきであると判断した場合(S29:YES)、制御部11は、出題した各テストコンテンツに対する回答情報を履歴DB12bから読み出し、サーバ40へ送信する(S30)。サーバ40の制御部41(特定部)は、情報処理装置10から各テストコンテンツに対するユーザの回答情報を取得した場合、取得した回答情報に基づいて、ユーザの認知機能のタイプ(認知機能に関する分類)を特定する(S31)。ここでは、制御部41は、ユーザの回答情報を学習モデル42Mに入力し、学習モデル42Mからの出力情報に基づいて、ユーザの認知機能のタイプを特定する。例えば制御部41は、それぞれのテストコンテンツ毎に、回答情報を学習モデル42Mに入力してユーザの認知機能のタイプを特定し、それぞれ特定されたタイプからユーザのタイプを決定してもよい。また、例えばタイプ毎に、各タイプに特定されたテストコンテンツの数(特定数)を計数し、最多の特定数となったタイプをユーザのタイプに決定してもよく、特定数が多い順に所定数(例えば2つ又は3つ)のタイプをユーザのタイプに決定してもよい。なお、回答情報からユーザの認知機能のタイプを特定する処理は、学習モデル42Mを用いる構成に限定されない。例えば認知機能の各タイプに対して、各タイプのユーザが行う可能性の高い行動の傾向をDBに登録しておき、DBの登録内容に基づいて、ユーザの回答情報が示す行動の傾向に対応するタイプを特定してもよい。また、医師等の専門家が、ユーザの回答情報が示す行動の傾向から認知機能のタイプを特定してもよい。 If it is determined that the process of setting the test content should be finished (S29: YES), the control unit 11 reads the answer information for each set of test content from the history DB 12b and transmits it to the server 40 (S30). When the control unit 41 (specification unit) of the server 40 acquires the user's answer information for each test content from the information processing device 10, based on the acquired answer information, the type of the user's cognitive function (classification related to cognitive function) is specified (S31). Here, the control unit 41 inputs the user's answer information to the learning model 42M, and identifies the type of user's cognitive function based on the output information from the learning model 42M. For example, the control unit 41 may input answer information to the learning model 42M for each test content to specify the type of the user's cognitive function, and determine the user's type from the specified type. Alternatively, for example, the number of test contents specified for each type (specified number) may be counted for each type, and the type with the largest specified number may be determined as the user type. The type of number (eg, two or three) may be determined to the type of user. Note that the process of specifying the type of cognitive function of the user from the answer information is not limited to the configuration using the learning model 42M. For example, for each type of cognitive function, the tendencies of behaviors that are highly likely to be performed by each type of user are registered in the DB, and based on the registered contents of the DB, the behavior tendencies indicated by the user's answer information are handled. You may specify the type of Also, a specialist such as a doctor may specify the type of cognitive function based on the tendency of behavior indicated by the user's answer information.

制御部41は、特定したユーザのタイプに応じて、ユーザに提供すべきアドバイスコンテンツをアドバイスDB42cから特定し(S32)、ユーザに提供すべきトレーニングコンテンツをトレーニングDB42bから特定する(S33)。例えば制御部41は、特定したタイプに対応付けてアドバイスDB42cに記憶してあるアドバイスコンテンツを特定し、特定したタイプに対応付けてトレーニングDB42bに記憶してあるトレーニングコンテンツを特定する。そして制御部41は、特定したタイプ、並びに、特定したアドバイスコンテンツ及びトレーニングコンテンツ(判定結果)を情報処理装置10へ送信する(S34)。なお、制御部41は、アドバイスDB42cから特定したアドバイスコンテンツからユーザの特徴に応じたアドバイスコンテンツを生成(カスタマイズ)してもよく、トレーニングDB42bから特定したトレーニングコンテンツからユーザの特徴に応じたトレーニングコンテンツを生成(カスタマイズ)してもよい。 The control unit 41 identifies advice content to be provided to the user from the advice DB 42c according to the identified user type (S32), and identifies training content to be provided to the user from the training DB 42b (S33). For example, the control unit 41 identifies advice content stored in the advice DB 42c in association with the identified type, and identifies training content stored in the training DB 42b in association with the identified type. Then, the control unit 41 transmits the specified type, and the specified advice content and training content (determination result) to the information processing device 10 (S34). Note that the control unit 41 may generate (customize) advice content according to the characteristics of the user from the advice contents specified from the advice DB 42c, and may customize training contents according to the characteristics of the user from the training contents specified from the training DB 42b. It may be generated (customized).

情報処理装置10の制御部11は、サーバ40から判定結果を取得した場合、取得した判定結果を履歴DB12bに記憶する(S35)。具体的には、制御部11は、判定結果に含まれるタイプのタイプID、トレーニングコンテンツのトレーニングID、アドバイスコンテンツのアドバイスIDを対応付けて、履歴DB12bの判定結果列に記憶する。その後、制御部11(コンテンツ出力部)は、サーバ40から取得したアドバイスコンテンツを出力し(S36)、また、入力部15を介したユーザからの操作に応じて、サーバ40から取得したトレーニングコンテンツを出力する(S37)。アドバイスコンテンツは画像データを含み、制御部11は、画像データを表示部16へ出力し、例えば図13Aに示すようなアドバイス画面を表示する。なお、アドバイスコンテンツに音声データが含まれていてもよく、この場合、制御部11は、音声データをスピーカ22又はロボット30のスピーカ34から音声出力する。図13Aに示すアドバイス画面は「つぎへ」ボタンを表示しており、ユーザが「つぎへ」ボタンを操作した場合、制御部11は、例えばトレーニングコンテンツを出力する。トレーニングコンテンツも画像データを含み、制御部11は、画像データを表示部16へ出力し、例えば図13B又は図13Cに示すようなトレーニング画面を表示する。なお、トレーニングコンテンツも音声データが含まれていてもよく、この場合、制御部11は、音声データをスピーカ22又はロボット30へ出力し、スピーカ22又はロボット30のスピーカ34から音声出力を行う。図13Bの画面は、例えば記憶力をトレーニングするためのトレーニングコンテンツの画面であり、図13Cの画面は、口腔トレーニング(パタカラ体操)のためのトレーニングコンテンツの画面である。制御部11は、図13B及び図13Cに示すトレーニング画面を表示した場合、所定時間の経過後に、トレーニングコンテンツにおける次の画面を表示することにより、トレーニングコンテンツをユーザに提供する。 When acquiring the determination result from the server 40, the control unit 11 of the information processing device 10 stores the acquired determination result in the history DB 12b (S35). Specifically, the control unit 11 associates the type ID of the type included in the determination result, the training ID of the training content, and the advice ID of the advice content, and stores them in the determination result column of the history DB 12b. After that, the control unit 11 (content output unit) outputs the advice content obtained from the server 40 (S36), and also outputs the training content obtained from the server 40 according to the user's operation via the input unit 15. Output (S37). The advice content includes image data, and the control section 11 outputs the image data to the display section 16 to display, for example, an advice screen as shown in FIG. 13A. Audio data may be included in the advice content, and in this case, the control unit 11 outputs the audio data from the speaker 22 or the speaker 34 of the robot 30 . The advice screen shown in FIG. 13A displays a "next" button, and when the user operates the "next" button, the control unit 11 outputs training content, for example. The training content also includes image data, and the control section 11 outputs the image data to the display section 16 to display a training screen such as that shown in FIG. 13B or 13C, for example. Note that the training content may also include audio data. In this case, the control unit 11 outputs the audio data to the speaker 22 or the robot 30 and outputs audio from the speaker 22 or the speaker 34 of the robot 30 . The screen in FIG. 13B is, for example, a training content screen for memory training, and the screen in FIG. 13C is a training content screen for oral cavity training (patacara exercises). When the training screens shown in FIGS. 13B and 13C are displayed, the control unit 11 provides the training content to the user by displaying the next screen of the training content after the lapse of a predetermined time.

上述した処理により、情報処理装置10はユーザに対して問題(テストコンテンツ)を出題し、ユーザが回答する際の状態を示す回答情報を収集することができる。また、情報処理装置10が収集した回答情報に基づいてサーバ40がユーザの認知機能のタイプを特定し、特定したタイプに応じたアドバイス及びトレーニングを情報処理装置10を通じてユーザに提供することができる。本実施形態では、問題に対するユーザの回答の正誤だけでなく、回答する際のユーザの挙動等の傾向(回答情報)に基づいて認知機能のタイプが特定されるので、ユーザの特徴をより反映したタイプの特定が可能となる。なお、本実施形態において、次にテストコンテンツの出題処理を行う際に、履歴DB12bに記憶した判定結果(タイプ)を考慮してテストコンテンツを特定することができ、ユーザの特徴(タイプ)に応じたテストコンテンツの提供が可能となる。よって、ユーザの苦手分野又は得意分野等を考慮したテストコンテンツ(問題)を出題することができる。このように、ユーザの認知機能のタイプを考慮したテストコンテンツ、アドバイスコンテンツ及びトレーニングコンテンツの提供を繰り返すことにより、ユーザの認知機能をより正確に判定できると共に、ユーザに適したパーソナライズされたコンテンツを提供できる。また、このような判定処理及びトレーニングの提供をユーザの自宅等で行うことが可能となるので、認知機能の判定及びトレーニングを手軽に行うことが可能となる。 Through the above-described processing, the information processing apparatus 10 can pose a question (test content) to the user and collect answer information indicating the state of the user's answer. Further, the server 40 can identify the type of cognitive function of the user based on the answer information collected by the information processing device 10 and provide the user with advice and training according to the identified type through the information processing device 10 . In this embodiment, the type of cognitive function is specified based not only on the correctness or wrongness of the user's answer to the question, but also on the tendency of the user's behavior when answering (answer information). It is possible to identify the type. In the present embodiment, when performing the questioning process of the test content next time, the test content can be identified by considering the determination result (type) stored in the history DB 12b. It is possible to provide test content based on Therefore, test contents (questions) can be set in consideration of the user's weak field or strong field. In this way, by repeatedly providing test content, advice content, and training content considering the type of user's cognitive function, the user's cognitive function can be determined more accurately, and personalized content suitable for the user can be provided. can. In addition, since it is possible to provide such determination processing and training at the user's home or the like, it is possible to easily perform determination and training of cognitive function.

本実施形態では、ユーザに問題を出題し、その際の回答情報に基づいて認知機能のタイプを判定し、判定結果に応じたアドバイスコンテンツ及びトレーニングコンテンツを提供する構成であるが、このような構成に限定されない。例えば、前回の判定結果(タイプ)に応じたテストコンテンツの出題処理を1ヶ月に一度行い、テストコンテンツに対するユーザの回答情報に基づく新たな判定結果に応じたトレーニングコンテンツを1ヶ月間提供するように構成することができる。また、ユーザからの指示に応じて、任意のタイミングでテストコンテンツの出題処理を行うように構成されていてもよい。この場合、ユーザがテストを受けたいタイミングでの判定処理が可能となり、任意のタイミングで行われた判定処理の結果に応じてトレーニングの内容を変更することが可能となる。 In this embodiment, a problem is presented to the user, the type of cognitive function is determined based on the answer information at that time, and advice content and training content are provided according to the determination result. is not limited to For example, once a month, the process of setting test content according to the previous judgment result (type) is performed, and training content is provided for one month according to the new judgment result based on the user's answer information to the test content. Can be configured. Further, it may be configured such that the process of setting test content questions is performed at an arbitrary timing in accordance with an instruction from the user. In this case, the determination process can be performed at the timing when the user wants to take the test, and the content of the training can be changed according to the result of the determination process performed at any timing.

本実施形態において、ユーザの回答情報に基づいてユーザの認知機能のタイプを特定する処理を情報処理装置10が行うように構成されていてもよい。例えば、学習モデル42Mを情報処理装置10の記憶部12に記憶しておくことにより、制御部11が、ユーザの回答情報を取得した場合に、学習モデル42Mを用いて、取得した回答情報からユーザの認知機能のタイプを特定することができる。このような構成とした場合、情報処理装置10は、特定したタイプをサーバ40へ送信し、サーバ40から、特定したタイプに応じたアドバイスコンテンツ及びトレーニングコンテンツを取得するように構成されていてもよい。また、トレーニングDB42b及びアドバイスDB42cを情報処理装置10の記憶部12に記憶しておいた場合、制御部11は、サーバ40に問い合わせることなく、特定したタイプに応じたアドバイスコンテンツ及びトレーニングコンテンツを特定して出力することができる。 In the present embodiment, the information processing device 10 may be configured to perform the process of identifying the cognitive function type of the user based on the user's answer information. For example, by storing the learning model 42M in the storage unit 12 of the information processing apparatus 10, when the control unit 11 acquires the user's answer information, the learning model 42M is used to obtain the user's answer information from the acquired answer information. can identify the type of cognitive function of In such a configuration, the information processing apparatus 10 may be configured to transmit the specified type to the server 40 and acquire advice content and training content corresponding to the specified type from the server 40. . Further, when the training DB 42b and the advice DB 42c are stored in the storage unit 12 of the information processing device 10, the control unit 11 identifies advice content and training content corresponding to the identified type without inquiring the server 40. can be output as

本実施形態において、サーバ40は、情報処理装置10から取得した回答情報から認知機能のタイプを特定した場合に、回答情報と特定したタイプ(タイプID)とを対応付けてDBに蓄積しておいてもよい。この場合、DBに蓄積された回答情報及びタイプを、学習モデル42Mを生成する際の訓練データに用いることが可能となる。 In this embodiment, when the type of cognitive function is specified from the answer information acquired from the information processing device 10, the server 40 associates the answer information with the specified type (type ID) and stores them in the DB. You can In this case, it is possible to use the answer information and types accumulated in the DB as training data when generating the learning model 42M.

本実施形態では、情報処理装置10の入力部15及び表示部16がタッチパネルであり、ユーザは、タッチパネルに対するタッチ操作によって問題に対する回答を入力する構成である。なお、ユーザの回答は、音声入力、目線(視線)による入力、ジェスチャによる入力等によって入力されてもよい。また、ロボット30のマイク37を介した音声入力を受け付けるように構成されている場合、ロボット30のマイク37を介した音声入力によってユーザの回答が入力される構成でもよい。この場合、ロボット30は、マイク37を介して取得した音声データを情報処理装置10へ送信し、情報処理装置10が、音声データをテキストデータに変換することにより、音声入力された情報(ユーザの回答)を取得してもよい。また、ロボット30の制御部31が、取得した音声データをテキストデータに変換した後に情報処理装置10へ送信することにより、情報処理装置10がユーザの回答を取得する構成でもよい。また、ユーザの回答情報をロボット30が取得するように構成されておいてもよい。例えばロボット30にカメラを設け、情報処理装置10を通じて提供されるテストコンテンツに対する回答を行うユーザをロボット30のカメラで撮影し、撮影したユーザの顔画像からユーザの挙動及び表情を検知して情報処理装置10へ送信してもよい。 In this embodiment, the input unit 15 and the display unit 16 of the information processing apparatus 10 are touch panels, and the user inputs an answer to the question by a touch operation on the touch panel. Note that the user's answer may be input by voice input, input by line of sight (line of sight), input by gesture, or the like. In addition, when the robot 30 is configured to accept voice input via the microphone 37 , the configuration may be such that the user's answer is input by voice input via the robot 30 microphone 37 . In this case, the robot 30 transmits the voice data acquired via the microphone 37 to the information processing device 10, and the information processing device 10 converts the voice data into text data to convert the voice input information (user's answer) may be obtained. Alternatively, the control unit 31 of the robot 30 may convert the acquired voice data into text data and then transmit the text data to the information processing apparatus 10 , so that the information processing apparatus 10 acquires the user's answer. Also, the robot 30 may be configured to acquire the user's answer information. For example, the robot 30 is provided with a camera, and the camera of the robot 30 photographs a user who answers test content provided through the information processing device 10, and information is processed by detecting the user's behavior and facial expression from the photographed user's face image. It may be transmitted to device 10 .

本実施形態では、予め設定された認知機能のタイプから、テストコンテンツに対するユーザの回答情報に基づいてユーザのタイプを特定する構成であるが、このような構成に限定されない。例えば、ユーザの回答情報から、記憶力、計算力、言語能力、判断力、身体能力等の各項目(分野)に対する苦手又は得意、タッチ操作、音声入力、目線入力等の各回答方法に対する苦手又は得意、口又は身体を動かす問題、問題文が長い問題、図を理解して回答する問題等、問題の種類に対する苦手又は得意、時間帯に対する苦手又は得意(やる気の有無)等、ユーザの特徴を抽出し、ユーザの特徴に基づいて、認知機能に関する分類(タイプ)を特定するように構成されていてもよい。また、問題に対する回答は不正解が多いが毎日トレーニングを継続している、回答に時間がかかっている、二択の問題は得意である等の特徴を抽出し、このような特徴に基づいて認知機能に関する分類を特定してもよい。 In the present embodiment, the user type is specified based on the user's answer information to the test content from the preset cognitive function type, but the present invention is not limited to such a configuration. For example, based on the user's answer information, the user's weak or good at each item (field) such as memory power, calculation power, language ability, judgment power, physical ability, weak or good at each answer method such as touch operation, voice input, eye line input , Problems that move the mouth or body, problems with long problem sentences, problems that require understanding and answering diagrams, etc. However, it may be configured to identify a classification (type) related to cognitive function based on the user's characteristics. In addition, characteristics such as the fact that the answers to the questions are often incorrect, but they continue training every day, the answers take time, and they are good at two-choice questions are extracted, and recognition is based on these characteristics. A functional classification may be specified.

本実施形態において、サーバ40が、ユーザ毎に、情報処理装置10から取得した回答情報と、回答情報から特定した認知機能のタイプとを対応付けてDBに蓄積するように構成されていてもよい。この場合、ユーザの回答情報から特定されたタイプを時系列で管理することができ、新たにユーザのタイプを特定する際に過去の判定結果(タイプ)を考慮することもできる。また、このような構成の場合、サーバ40は、判定結果(タイプ、トレーニング、アドバイス)と共に過去の判定結果を情報処理装置10へ出力することができ、ユーザは、新たな判定結果を過去の判定結果と比較して確認することができる。また、各ユーザの情報として、年齢及び性別等の属性、既往歴(病歴)、治療歴、薬剤の服用歴等をDBに登録しておくことにより、ユーザの認知機能のタイプを特定する際に、ユーザのこれらの情報を考慮することもできる。 In the present embodiment, the server 40 may be configured to associate, for each user, the response information acquired from the information processing device 10 with the type of cognitive function specified from the response information, and store them in the DB. . In this case, the type identified from the user's answer information can be managed in chronological order, and the past determination result (type) can be taken into consideration when newly identifying the user's type. In addition, in the case of such a configuration, the server 40 can output the past judgment results to the information processing device 10 together with the judgment results (type, training, advice), and the user can change the new judgment results to the past judgment results. It can be confirmed by comparing with the result. In addition, by registering attributes such as age and gender, past medical history (medical history), treatment history, medication history, etc. as information of each user in the DB, it is possible to identify the type of cognitive function of the user. , can also take into account these information of the user.

(実施形態2)
ロボット30の人感センサ36によってロボット30及び情報処理装置10に対するユーザの接近を検知した場合に、情報処理装置10がテストコンテンツの出題処理を開始する情報処理システムについて説明する。本実施形態の情報処理システムは、実施形態1の情報処理システムと同様の装置によって実現可能であるので、各装置の構成についての説明は省略する。
(Embodiment 2)
A description will be given of an information processing system in which the information processing apparatus 10 starts the process of setting test content when the human sensor 36 of the robot 30 detects the approach of the user to the robot 30 and the information processing apparatus 10 . The information processing system of the present embodiment can be realized by devices similar to those of the information processing system of the first embodiment, so description of the configuration of each device will be omitted.

図14は実施形態2のコンテンツの提供処理手順の一例を示すフローチャートである。図14に示す処理は、図10に示す処理において、ステップS22の代わりにステップS41~S43を追加したものである。図10と同じステップについては説明を省略する。また図14では図10中のステップS21,S23~S24以外のステップの図示を省略している。また図14では左側にロボット30が行う処理を、右側に情報処理装置10が行う処理をそれぞれ示す。 FIG. 14 is a flow chart showing an example of a content provision processing procedure according to the second embodiment. The process shown in FIG. 14 is obtained by adding steps S41 to S43 instead of step S22 in the process shown in FIG. Description of the same steps as in FIG. 10 will be omitted. In FIG. 14, illustration of steps other than steps S21 and S23 to S24 in FIG. 10 is omitted. In FIG. 14, the processing performed by the robot 30 is shown on the left side, and the processing performed by the information processing apparatus 10 is shown on the right side.

本実施形態の情報処理システムにおいて、ロボット30の制御部31は、ロボット30の近傍にユーザがいない待機状態では、人感センサ36によってユーザの接近を検知したか否かを判断しており(S41)、検知していないと判断した場合(S41:NO)、検知するまで待機する。ユーザの接近を検知したと判断した場合(S41:YES)、制御部31は、ユーザの接近を情報処理装置10に通知する(S42)。本実施形態において、情報処理装置10の制御部11は、待機用コンテンツを出力している場合(S21)、第2通信部14を介してロボット30からユーザの接近を通知されたか否かを判断している(S43)。ユーザの接近を通知されていないと判断した場合(S43:NO)、制御部11は、ステップS21の処理に戻り、待機用コンテンツの出力を継続する。ユーザの接近を通知されたと判断した場合(S43:YES)、制御部11は、ステップS23に処理を移行し、ユーザに対するテストコンテンツの出題処理を開始する。即ち、情報処理装置10の制御部11及びサーバ40の制御部41は、図10中のステップS23~S37の処理を行う。 In the information processing system of the present embodiment, the controller 31 of the robot 30 determines whether or not the human sensor 36 has detected the approach of the user in a standby state where there is no user near the robot 30 (S41). ), if it is determined that it is not detected (S41: NO), it waits until it is detected. When determining that the user's approach has been detected (S41: YES), the control unit 31 notifies the information processing device 10 of the user's approach (S42). In the present embodiment, when the control unit 11 of the information processing apparatus 10 is outputting standby content (S21), it determines whether or not the robot 30 has notified the user of the approach through the second communication unit 14. (S43). If it is determined that the user's approach has not been notified (S43: NO), the control unit 11 returns to the process of step S21 and continues outputting the standby content. If it is determined that the user's approach has been notified (S43: YES), the control unit 11 shifts the process to step S23, and starts the process of setting the test content to the user. That is, the control unit 11 of the information processing device 10 and the control unit 41 of the server 40 perform the processes of steps S23 to S37 in FIG.

上述した処理により、本実施形態では、ロボット30の人感センサ36によってユーザの接近が検知された場合に、情報処理装置10の表示部16に図11Aに示すようなテスト画面が表示され、ユーザに対する問題(テストコンテンツ)の出題が開始される。また、本実施形態においても、情報処理装置10は、入力部15を介したユーザの操作に従って、図11B~図12Bの画面を順次表示しつつ、問題に回答するユーザの挙動等を示す回答情報(問題傾向、回答時間、正誤情報、挙動情報、表情情報、時間帯、対話傾向)を収集する。これにより、本実施形態においても、ユーザの回答情報に基づいて、ユーザの特徴をより反映した認知機能のタイプを特定することができ、特定されたタイプに応じたアドバイス及びトレーニングをユーザに提供することができる。 According to the process described above, in this embodiment, when the human sensor 36 of the robot 30 detects the user's approach, a test screen as shown in FIG. Questions (test content) for . Also in this embodiment, the information processing apparatus 10 sequentially displays the screens of FIGS. Collect (problem tendency, answer time, correct/incorrect information, behavior information, facial expression information, time period, conversation tendency). Thus, also in this embodiment, based on the user's answer information, it is possible to identify the type of cognitive function that better reflects the characteristics of the user, and provide the user with advice and training according to the identified type. be able to.

本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、ロボット30の人感センサ36によってユーザの接近が検知された場合に、情報処理装置10によるテストコンテンツの出題処理が開始されるので、ユーザはテストを開始させるための操作を行う必要がない。なお、本実施形態において、ロボット30は、人感センサ36によってユーザの接近を検知した場合に、例えば発光部35の発光又はスピーカ34からの音声出力を行うように構成されていてもよい。この場合、ロボット30に接近したユーザにロボット30の存在をアピールすることができ、トレーニングの実施を促進することができる。 In this embodiment, the same effects as those of the first embodiment described above can be obtained. Further, in this embodiment, when the human sensor 36 of the robot 30 detects the user's approach, the information processing apparatus 10 starts the process of setting the test content, so the user performs an operation to start the test. you don't have to. In this embodiment, the robot 30 may be configured to emit light from the light emitting unit 35 or output sound from the speaker 34 when the human sensor 36 detects the user's approach. In this case, the presence of the robot 30 can be appealed to the user who has approached the robot 30, and training can be promoted.

(実施形態3)
ユーザが発した対話内容に基づいてユーザの趣味嗜好又は興味のあること等を抽出し、抽出した内容のコンテンツを待機用コンテンツに用いる情報処理システムについて説明する。本実施形態の情報処理システムは、実施形態1の情報処理システムと同様の装置によって実現可能であるので、各装置の構成についての説明は省略する。
(Embodiment 3)
An information processing system that extracts a user's hobbies, preferences, interests, or the like based on the content of a conversation uttered by the user, and uses the content of the extracted content as standby content will be described. The information processing system of the present embodiment can be realized by devices similar to those of the information processing system of the first embodiment, so description of the configuration of each device will be omitted.

図15は実施形態3のコンテンツの提供処理手順の一例を示すフローチャート、図16は実施形態3の画面例を示す模式図である。図15に示す処理は、図10に示す処理において、ステップS21の代わりにステップS51~S55を追加したものである。図10と同じステップについては説明を省略する。また図15では図10中のステップS22~S24以外のステップの図示を省略している。 FIG. 15 is a flowchart showing an example of a content providing processing procedure according to the third embodiment, and FIG. 16 is a schematic diagram showing an example of a screen according to the third embodiment. The process shown in FIG. 15 is obtained by adding steps S51 to S55 in place of step S21 in the process shown in FIG. Description of the same steps as in FIG. 10 will be omitted. In FIG. 15, illustration of steps other than steps S22 to S24 in FIG. 10 is omitted.

本実施形態の情報処理システムにおいて、情報処理装置10の制御部11は、例えばスピーカ22又はロボット30のスピーカ34からメッセージを音声出力することにより、ユーザに話しかけ、マイク18又はロボット30のマイク37を介してユーザの発話音声を取得し、取得した発話内容に応じたメッセージをスピーカ22又は34から音声出力することにより、ユーザとの間で対話を行うように構成されている。なお、ユーザの発話内容に応じたメッセージは、サーバ40から提供されるが、公知のチャットボットによって生成されてもよい。チャットボットの機能は、ロボット30、情報処理装置10、又はサーバ40のいずれに搭載されていてもよい。本実施形態の情報処理装置10は、ユーザとの対話内容に基づいて、ユーザの趣味嗜好又は興味のあること等を抽出(推定)する。 In the information processing system of the present embodiment, the control unit 11 of the information processing device 10 speaks to the user by outputting a message from the speaker 22 or the speaker 34 of the robot 30, for example, and uses the microphone 18 or the microphone 37 of the robot 30. A user's uttered voice is acquired through the speaker 22 or 34, and a message corresponding to the acquired uttered content is output as voice from the speaker 22 or 34, thereby allowing dialogue with the user. The message according to the content of the user's utterance is provided by the server 40, but may be generated by a known chatbot. The chatbot function may be installed in any of the robot 30 , the information processing device 10 , or the server 40 . The information processing apparatus 10 of the present embodiment extracts (estimates) the user's hobbies, interests, or the like, based on the content of dialogue with the user.

よって、情報処理装置10の制御部11は、スピーカ22又は34から音声出力した情報(例えばテキストデータ)と、マイク18又は37を介して取得したユーザの発話音声から生成された発話内容(例えばテキストデータ)とを含む対話情報を取得したか否かを判断しており(S51)、取得していないと判断した場合(S51:NO)、取得するまで待機する。このとき制御部11は、図10中のステップS21と同様に、予め設定された待機用コンテンツを出力してもよい。 Therefore, the control unit 11 of the information processing apparatus 10 outputs the information (eg, text data) voice-output from the speaker 22 or 34 and the utterance content (eg, text data) generated from the user's utterance voice acquired via the microphone 18 or 37 data) has been acquired (S51), and if it is determined that it has not been acquired (S51: NO), it waits until it is acquired. At this time, the control unit 11 may output preset standby content, as in step S21 in FIG.

対話情報を取得したと判断した場合(S51:YES)、制御部11は、取得した対話情報から、ユーザが興味を持っている事柄、ユーザが好む事柄等、ユーザの趣味嗜好に関する情報を抽出する(S52)。例えば料理に関する対話に対して、ユーザの返答回数が多い場合、又はユーザが楽しそうに返答している場合、ユーザの趣味嗜好に関する情報として「料理」(ユーザが料理に興味を持っていること)を抽出する。また制御部11は、機械学習によって構築されたニューラルネットワークを用いて、対話情報からユーザの趣味嗜好に関する情報を特定するように構成されていてもよい。例えばCNN又はRNNモデルで構成され、対話情報が入力された場合に、対話内容に含まれる情報(趣味嗜好に関する情報)を出力するように学習された学習モデルを用いてもよい。この場合、制御部11は、対話情報を学習済みの学習モデルに入力し、学習モデルからの出力情報に基づいて、対話内容に含まれるユーザの趣味嗜好に関する情報を特定することができる。 If it is determined that the dialogue information has been acquired (S51: YES), the control unit 11 extracts information about the user's hobbies and preferences, such as matters in which the user is interested, matters that the user likes, etc., from the acquired dialogue information. (S52). For example, if the number of times the user responds to a conversation about cooking is large, or if the user seems to be enjoying themselves, the information about the user's hobbies and preferences is "cooking" (that the user is interested in cooking). to extract Further, the control unit 11 may be configured to identify information about the user's tastes and preferences from dialogue information using a neural network constructed by machine learning. For example, a learning model configured by a CNN or RNN model and trained to output information (information on tastes and preferences) contained in dialogue content when dialogue information is input may be used. In this case, the control unit 11 can input dialogue information to a learned learning model and specify information about the user's tastes and preferences contained in the dialogue content based on the output information from the learning model.

制御部11は、ユーザの趣味嗜好に関する情報を抽出できた場合、抽出した趣味嗜好に関する情報を、例えば記憶部12に記憶しておく(S53)。また制御部11は、抽出した趣味嗜好に関する情報に基づいて、ユーザの趣味嗜好に応じたコンテンツ(第2コンテンツ、以下では趣味嗜好コンテンツという)を生成する(S54)。例えば制御部11は、ユーザが興味を持っている事柄について、ネットワークN経由で公開されているウェブサイトに対して検索処理を行い、検索したウェブサイトの情報を、ユーザ用の趣味嗜好コンテンツに用いてもよい。また、例えば記憶部12にユーザが撮影又は取得した写真又は動画等の映像コンテンツが記憶されている場合、制御部11は、ユーザが興味を持っている事柄に関する映像コンテンツを記憶部12から読み出し、ユーザ用の趣味嗜好コンテンツとしてもよい。なお、映像コンテンツが旅行、猫、自動車等のカテゴリ毎に分類して記憶部12に記憶されている場合、制御部11は、ユーザが興味を持っている事柄に対応するカテゴリを特定し、特定したカテゴリの映像コンテンツをユーザ用の趣味嗜好コンテンツに用いてもよい。更に、例えばユーザが撮影又は取得した映像コンテンツがクラウドサーバ(図示せず)に蓄積されている場合、制御部11は、ユーザが興味を持っている事柄に関する映像コンテンツをクラウドサーバから読み出してユーザ用の趣味嗜好コンテンツとしてもよい。 When the information about the user's tastes and preferences can be extracted, the control unit 11 stores the extracted information about the tastes and preferences in the storage unit 12, for example (S53). Further, the control unit 11 generates content (second content, hereinafter referred to as hobby preference content) corresponding to the user's interest and preference based on the extracted interest and preference information (S54). For example, the control unit 11 searches websites open to the public via the network N for matters in which the user is interested, and uses the information of the searched websites as hobby and taste contents for the user. may Further, for example, when video content such as a photograph or a moving image taken or obtained by the user is stored in the storage unit 12, the control unit 11 reads the video content related to the matter in which the user is interested from the storage unit 12, It may also be used as hobby and taste content for the user. Note that when video content is classified into categories such as travel, cats, and automobiles and stored in the storage unit 12, the control unit 11 identifies a category corresponding to the matter in which the user is interested, You may use the video content of the said category for a user's taste preference content. Further, for example, when video content captured or acquired by the user is accumulated in a cloud server (not shown), the control unit 11 reads out video content related to matters in which the user is interested from the cloud server and provides it to the user. hobbies and tastes content.

制御部11は、ユーザ用の趣味嗜好コンテンツを生成した場合、生成した趣味嗜好コンテンツを出力する(S55)。ここでの趣味嗜好コンテンツは画像データを含み、制御部11は、画像データを表示部16へ出力し、例えば図16に示すようなコンテンツ画面を表示する。図16に示す画面は、ユーザが神社仏閣、観光地、旅行等に興味を持っている場合に生成されるコンテンツ画面であり、神社の映像を表示する。また、図16の画面は、ユーザの趣味嗜好に応じたコンテンツ画面に重畳させて、「画面をタッチしてスタート!」のメッセージを表示している。よって、ユーザは自身の趣味嗜好に応じたコンテンツを見ることができると共に、画面をタッチ操作することによって認知機能検査又はトレーニングを開始することができる。なお、ユーザの趣味嗜好に応じたコンテンツが音声データを含む場合、制御部11は、音声データをスピーカ22又はロボット30のスピーカ34から音声出力してもよい。 When the user's hobby/preference content is generated, the control unit 11 outputs the generated hobby/preference content (S55). The hobby content here includes image data, and the control unit 11 outputs the image data to the display unit 16 to display a content screen as shown in FIG. 16, for example. The screen shown in FIG. 16 is a content screen generated when the user is interested in shrines and temples, sightseeing spots, travel, etc., and displays images of shrines. Also, the screen of FIG. 16 is superimposed on the content screen corresponding to the user's tastes and preferences, and displays the message "Touch the screen to start!". Therefore, the user can view content according to his or her tastes and preferences, and can start cognitive function testing or training by performing a touch operation on the screen. Note that, if the content according to the user's tastes and preferences includes audio data, the control unit 11 may output the audio data from the speaker 22 or the speaker 34 of the robot 30 as sound.

情報処理装置10の制御部11は、上述した処理によって生成したユーザ用の趣味嗜好コンテンツを出力した場合、ステップS22に処理を移行し、入力部15を介してタッチ操作を受け付けたか否かの判断を行う(S22)。なお、本実施形態では、ユーザとの対話内容から抽出したユーザの趣味嗜好に関する情報を記憶部12に記憶しておくので、ステップS23で制御部11がユーザに提供すべきテストコンテンツを特定する際に、ユーザの趣味嗜好に応じたテストコンテンツの特定が可能となる。例えば、料理、美容、旅行、観光地、自動車、電化製品等のカテゴリ毎に、各カテゴリに関するテストコンテンツを用意してテストDB12aに登録しておくことにより、ユーザの趣味嗜好に応じたカテゴリに関する問題の出題が可能となる。また、サーバ40において、カテゴリ毎に各カテゴリに関するトレーニングコンテンツを用意してトレーニングDB42bに登録しておくことにより、ユーザの趣味嗜好に応じたトレーニングコンテンツの提供が可能となる。またカテゴリ毎に各カテゴリに関するアドバイスコンテンツを用意してアドバイスDB42cに登録しておくことにより、ユーザの趣味嗜好に応じたアドバイスコンテンツの提供が可能となる。 When the control unit 11 of the information processing apparatus 10 outputs the hobby/preference content for the user generated by the process described above, the process proceeds to step S22 and determines whether or not the touch operation is received via the input unit 15. (S22). Note that in this embodiment, since the information on the user's tastes and preferences extracted from the content of the dialogue with the user is stored in the storage unit 12, when the control unit 11 specifies the test content to be provided to the user in step S23, In addition, it is possible to specify the test content according to the user's tastes and preferences. For example, for each category such as cooking, beauty, travel, sightseeing spots, automobiles, electrical appliances, etc., test content for each category is prepared and registered in the test DB 12a. can be asked. In addition, by preparing training content for each category in the server 40 and registering it in the training DB 42b, it is possible to provide training content according to the tastes and preferences of the user. Further, by preparing advice contents for each category and registering them in the advice DB 42c, it is possible to provide advice contents according to the tastes and preferences of the user.

図15に示す処理において、ステップS51~S54の処理は、情報処理装置10がユーザとの間で対話を行った場合に実行され、ステップS55の処理は、情報処理装置10が待機状態である場合に実行されてもよい。これにより、情報処理装置10がユーザとの間で対話を行った場合に、ユーザの趣味嗜好が抽出され、趣味嗜好に応じたコンテンツを生成することができ、生成された趣味嗜好コンテンツを待機用コンテンツとして使用することができる。 In the process shown in FIG. 15, the processes of steps S51 to S54 are executed when the information processing apparatus 10 has interacted with the user, and the process of step S55 is executed when the information processing apparatus 10 is in a standby state. may be executed. As a result, when the information processing apparatus 10 interacts with the user, the user's tastes and preferences can be extracted, and content corresponding to the user's tastes and preferences can be generated. Can be used as content.

本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、ユーザとの対話内容から特定したユーザの趣味嗜好に応じたコンテンツを待機用コンテンツとして出力することができる。また、本実施形態において、複数のカテゴリのそれぞれに対応付けて、テストコンテンツ、トレーニングコンテンツ、又はアドバイスコンテンツを用意しておいた場合、ユーザの趣味嗜好に応じたテストコンテンツ、トレーニングコンテンツ、又はアドバイスコンテンツの提供が可能となる。なお、待機用コンテンツは、ユーザの趣味嗜好に応じたコンテンツのほかに、例えばユーザの年齢、性別、出身地等に応じたコンテンツを用いてもよい。この場合、例えば、ユーザが子供の頃に流行ったものの映像、ユーザの出身地の映像等、ユーザにちなんだコンテンツを待機用コンテンツとして使用することができる。本実施形態の構成は実施形態2の情報処理システムにも適用でき、実施形態2の情報処理システムに適用した場合であっても同様の効果が得られる。また、本実施形態の情報処理システムにおいて、上述した各実施形態で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the above-described embodiments can be obtained. Further, in the present embodiment, it is possible to output, as standby content, content corresponding to the user's hobbies and preferences specified from the content of dialogue with the user. Further, in the present embodiment, when test content, training content, or advice content is prepared in association with each of a plurality of categories, test content, training content, or advice content according to the user's tastes and preferences can be obtained. can be provided. In addition to the contents according to the tastes and preferences of the user, the standby contents may be contents according to the user's age, gender, hometown, etc., for example. In this case, for example, content associated with the user, such as video of what was popular when the user was a child, video of the user's hometown, etc., can be used as standby content. The configuration of the present embodiment can also be applied to the information processing system of the second embodiment, and similar effects can be obtained even when applied to the information processing system of the second embodiment. In addition, in the information processing system of this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.

(実施形態4)
ユーザの回答情報に基づいて判定された判定結果(認知機能のタイプ)に応じた動作をロボット30に実行させる情報処理システムについて説明する。本実施形態の情報処理システムは、実施形態1の情報処理システムと同様の装置によって実現可能であるので、各装置の構成についての説明は省略する。
(Embodiment 4)
An information processing system that causes the robot 30 to perform an action according to the determination result (cognitive function type) determined based on the user's answer information will be described. The information processing system of the present embodiment can be realized by devices similar to those of the information processing system of the first embodiment, so description of the configuration of each device will be omitted.

図17は実施形態4のコンテンツの提供処理手順の一例を示すフローチャート、図18は実施形態4の画面例を示す模式図である。図17に示す処理は、図10に示す処理において、ステップS37の後にステップS61~S62を追加したものである。図10と同じステップについては説明を省略する。また図17では図10中のステップS21~S33の図示を省略している。また図17では左側にロボット30が行う処理を、中央に情報処理装置10が行う処理を、右側にサーバ40が行う処理をそれぞれ示す。 FIG. 17 is a flow chart showing an example of a content provision processing procedure according to the fourth embodiment, and FIG. 18 is a schematic diagram showing an example of a screen according to the fourth embodiment. The process shown in FIG. 17 is obtained by adding steps S61 and S62 after step S37 in the process shown in FIG. Description of the same steps as in FIG. 10 will be omitted. Also, in FIG. 17, the illustration of steps S21 to S33 in FIG. 10 is omitted. 17, the processing performed by the robot 30 is shown on the left side, the processing performed by the information processing apparatus 10 is shown in the center, and the processing performed by the server 40 is shown on the right side.

本実施形態の情報処理システムにおいて、情報処理装置10の制御部11及びサーバ40の制御部41は、図10中のステップS21~S37の処理を行う。これにより、情報処理装置10は、ユーザに対してテストコンテンツを出題し、ユーザが回答する際の回答情報を収集することができ、ユーザの回答情報に基づく判定結果(認知機能のタイプ)、アドバイス及びトレーニングをサーバ40から取得することができる。ステップS37の処理後、情報処理装置10の制御部11は、サーバ40から取得した判定結果(タイプ)に応じた動作をロボット30に指示する(S61)。なお、本実施形態の情報処理装置10は、例えばサーバ40で特定される各タイプに対応付けて、ロボット30の発光部35から出力される光の色又は輝度がDBに記憶されている。よって、制御部11は、サーバ40から取得した判定結果に対応する色又は輝度をDBから特定することができ、特定した色又は輝度での発光処理の実行をロボット30に指示する。また、情報処理装置10は、各タイプに対応付けて、ロボット30のスピーカ34から音声出力される音楽を記憶しておいてもよく、この場合、制御部11は、サーバ40から取得した判定結果に対応する音楽をDBから特定し、特定した音楽の出力処理をロボット30に指示する。 In the information processing system of this embodiment, the control unit 11 of the information processing device 10 and the control unit 41 of the server 40 perform the processes of steps S21 to S37 in FIG. As a result, the information processing apparatus 10 can set test content questions to the user, collect answer information when the user answers, and determine the result (cognitive function type) based on the answer information of the user, and give advice. and training can be obtained from server 40 . After the process of step S37, the control unit 11 of the information processing device 10 instructs the robot 30 to perform an operation according to the determination result (type) obtained from the server 40 (S61). In the information processing apparatus 10 of the present embodiment, for example, the DB stores the color or brightness of the light output from the light emitting unit 35 of the robot 30 in association with each type specified by the server 40 . Therefore, the control unit 11 can specify from the DB the color or brightness corresponding to the determination result obtained from the server 40, and instruct the robot 30 to perform the light emission process with the specified color or brightness. Further, the information processing apparatus 10 may store music output as voice from the speaker 34 of the robot 30 in association with each type. music corresponding to is specified from the DB, and the robot 30 is instructed to output the specified music.

ロボット30の制御部31は、情報処理装置10から判定結果に応じた動作を指示された場合、指示された動作を実行する(S62)。例えば、判定結果に応じた色又は輝度での発光処理を指示された場合、制御部31は、指示された色又は輝度の光を発光部35に発光させる。また、判定結果に応じた音楽の出力処理を指示された場合、制御部31は、指示された音楽をスピーカ34から出力する。なお、情報処理装置10は、判定結果に応じた動作の実行をロボット30に指示するだけでなく、判定結果に応じて、表示部16に表示するアドバイスコンテンツ又はトレーニングコンテンツの表示態様を異ならせてもよい。例えば図18Aは、判定結果が標準的なタイプであった場合の表示態様の例を示し、図18Bは、判定結果が標準よりも良いタイプであった場合の表示態様の例を示す。このように判定結果のタイプに応じた態様でアドバイスコンテンツ又はトレーニングコンテンツを表示させつつ、判定結果に応じた動作をロボット30が実行することにより、判定結果の良否を認識し易い態様でユーザに提供することができる。 When the controller 31 of the robot 30 is instructed to perform an action according to the determination result from the information processing device 10, the controller 31 performs the instructed action (S62). For example, when instructed to perform light emission processing with a color or luminance corresponding to the determination result, the control unit 31 causes the light emitting unit 35 to emit light of the instructed color or luminance. Further, when instructed to output music according to the determination result, the control unit 31 outputs the instructed music from the speaker 34 . The information processing apparatus 10 not only instructs the robot 30 to perform an action according to the determination result, but also changes the display mode of the advice content or the training content displayed on the display unit 16 according to the determination result. good too. For example, FIG. 18A shows an example of a display mode when the determination result is a standard type, and FIG. 18B shows an example of a display mode when the determination result is a better than standard type. In this way, while the advice content or training content is displayed in a manner corresponding to the type of the judgment result, the robot 30 performs an action according to the judgment result, thereby providing the judgment result to the user in a manner that makes it easy to recognize whether the judgment result is good or bad. can do.

本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、ユーザの回答情報に基づいて判定された判定結果(認知機能のタイプ)を、判定結果に応じた態様でロボット30及び情報処理装置10からユーザに通知することができる。よって、ユーザは、自身の認知機能の良否を容易に把握することができる。特に判定結果が良かった場合に、ユーザのテンションが上がるような音楽又は光をロボット30に出力させた場合に、トレーニングに対するやる気を向上させることが期待できる。本実施形態の構成は実施形態2~3の情報処理システムにも適用でき、実施形態2~3の情報処理システムに適用した場合であっても同様の効果が得られる。また、本実施形態の情報処理システムにおいて、上述した各実施形態で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the above-described embodiments can be obtained. Further, in the present embodiment, the user can be notified of the determination result (cognitive function type) determined based on the user's answer information from the robot 30 and the information processing device 10 in a manner corresponding to the determination result. Therefore, the user can easily grasp the quality of his own cognitive function. In particular, if the determination result is good and the robot 30 is caused to output music or light that raises the user's tension, it can be expected that motivation for training will be improved. The configuration of this embodiment can also be applied to the information processing systems of the second and third embodiments, and similar effects can be obtained even when applied to the information processing systems of the second and third embodiments. In addition, in the information processing system of this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.

本実施形態において、ロボット30は、鳥を模した形状における頭部が胴体部に対して、鉛直方向を軸とした回動が可能に構成されていてもよく、このような構成の場合、頭部を回動させることによってロボット30に首振り運動を行わせることができる。このような構成とした場合、判定結果に応じた首振り運動をロボット30に実行させることが可能となる。また、ロボット30はランダムに又は予め設定されたパターンで首振り運動を実行するように構成されていてもよい。ロボット30が首振り運動を実行することにより、ユーザに対して生き物のような印象を与えることができ、ユーザはロボット30が自分に反応していることを感得でき親しみを感じることができる。これにより、ユーザはロボット30に親近感を感じ、リラックスしてトレーニングを行うことが可能となる。ロボット30の形状は、例えば猫型、犬型、ヒト型等の形状であってもよく、ユーザが親近感を感じられる小型の形状であることが望ましい。 In the present embodiment, the robot 30 may be configured so that the head in the shape of a bird can rotate with respect to the body about the vertical direction. By rotating the part, the robot 30 can be caused to swing. With such a configuration, it is possible to cause the robot 30 to perform a swing motion according to the determination result. Also, the robot 30 may be configured to perform the swing motion randomly or in a preset pattern. When the robot 30 performs the swinging motion, the user can be given the impression of being alive, and the user can sense that the robot 30 is reacting to him/herself and feel familiarity. This allows the user to feel a sense of familiarity with the robot 30 and relax while training. The shape of the robot 30 may be, for example, cat-shaped, dog-shaped, or human-shaped, and preferably has a small shape that gives the user a sense of familiarity.

(実施形態5)
認知機能に関するテスト(検査)を行った後に医師等の医療従事者による遠隔診察の実行が可能な情報処理システムについて説明する。図19は実施形態5の情報処理システムの構成例を示す模式図である。本実施形態の情報処理システムは、情報処理装置10、ロボット30及びサーバ40に加えて、医師等の医療従事者が使用する医師用端末50を含む。情報処理装置10、ロボット30及びサーバ40は、実施形態1の情報処理装置10、ロボット30及びサーバ40と同様の構成を有するので説明を省略する。医師用端末50は、パーソナルコンピュータ、タブレット端末、スマートフォン等の汎用の情報処理装置である。医師用端末50は、図2に示す情報処理装置10において、挙動検知部20、表情検知部21及び第2通信部14以外の各部を備える構成であるので、構成についての詳細な説明は省略する。なお、医師用端末50の記憶部は、制御部が実行する制御プログラムに加えて、ネットワークN経由でテレビ電話又はビデオチャットを行うためのアプリケーションプログラムを記憶している。また、本実施形態の情報処理装置10の記憶部12も、ネットワークN経由でテレビ電話又はビデオチャットを行うためのアプリケーションプログラムを記憶している。
(Embodiment 5)
An information processing system that allows a medical practitioner such as a doctor to perform a remote diagnosis after performing a test (examination) on cognitive function will be described. FIG. 19 is a schematic diagram showing a configuration example of an information processing system according to the fifth embodiment. The information processing system of this embodiment includes the information processing device 10, the robot 30, and the server 40, as well as a doctor's terminal 50 used by a medical worker such as a doctor. The information processing device 10, the robot 30, and the server 40 have the same configurations as the information processing device 10, the robot 30, and the server 40 of the first embodiment, and thus the description thereof is omitted. The doctor's terminal 50 is a general-purpose information processing device such as a personal computer, tablet terminal, or smart phone. The doctor's terminal 50 has a configuration including each section other than the behavior detection section 20, the facial expression detection section 21, and the second communication section 14 in the information processing apparatus 10 shown in FIG. 2, so detailed description of the configuration is omitted. . The storage unit of the doctor's terminal 50 stores an application program for videophone or video chat via the network N, in addition to the control program executed by the control unit. The storage unit 12 of the information processing apparatus 10 of this embodiment also stores an application program for videophone or video chat via the network N. FIG.

本実施形態の情報処理システムでは、実施形態1の情報処理システムと同様に、情報処理装置10が出題したテストコンテンツに対するユーザの回答情報に基づいてユーザの認知機能のタイプが特定され、特定された結果がサーバ40から情報処理装置10へ提供される。ユーザは、サーバ40から提供されるアドバイスコンテンツ又はトレーニングコンテンツを介して医師等の医療従事者による遠隔診察の要求を行うことができ、ユーザが要求した場合に、情報処理装置10及び医師用端末50との間でテレビ電話又はビデオチャットによる遠隔診察が行われる。 In the information processing system of the present embodiment, as in the information processing system of the first embodiment, the type of cognitive function of the user is specified based on the user's answer information to the test content given by the information processing apparatus 10, and is specified. A result is provided from the server 40 to the information processing device 10 . The user can request remote examination by a medical professional such as a doctor via advice content or training content provided by the server 40, and when the user makes a request, the information processing device 10 and the doctor terminal 50 Telemedicine is conducted by telephony or video chat.

図20は実施形態5のコンテンツの提供処理手順の一例を示すフローチャート、図21は実施形態5の画面例を示す模式図である。図20に示す処理は、図10に示す処理において、ステップS34の後にステップS71~S72を追加し、ステップS37の後にステップS73~S78を追加したものである。図10と同じステップについては説明を省略する。また図20では図10中のステップS21~S33の図示を省略している。また図20では左側に情報処理装置10が行う処理を、中央にサーバ40が行う処理を、右側に医師用端末50が行う処理をそれぞれ示す。 FIG. 20 is a flowchart showing an example of a content provision processing procedure according to the fifth embodiment, and FIG. 21 is a schematic diagram showing an example of a screen according to the fifth embodiment. The process shown in FIG. 20 is obtained by adding steps S71 to S72 after step S34 and steps S73 to S78 after step S37 in the process shown in FIG. Description of the same steps as in FIG. 10 will be omitted. Also, in FIG. 20, illustration of steps S21 to S33 in FIG. 10 is omitted. 20, the processing performed by the information processing apparatus 10 is shown on the left side, the processing performed by the server 40 is shown in the center, and the processing performed by the doctor's terminal 50 is shown on the right side.

本実施形態の情報処理システムにおいて、情報処理装置10の制御部11及びサーバ40の制御部41は、図10中のステップS21~S37の処理を行う。サーバ40の制御部41は、ステップS34の処理後、情報処理装置10のユーザに関する情報(ユーザ情報)と判定結果とを医師用端末50へ送信する(S71)。医師用端末50は予め登録されている端末であり、医師(医療従事者)が遠隔診察可能な状態である端末とする。複数の医師用端末50が登録されている場合、制御部41は、任意の医師用端末50、又は、遠隔診察可能な医師用端末50を選択し、選択した医師用端末50に対してユーザ情報及び判定結果を送信する。なお、制御部41は、ユーザ情報及び判定結果に加えて、判定結果に応じてユーザに提供したアドバイスコンテンツ及びトレーニングコンテンツの内容も医師用端末50へ送信してもよい。医師用端末50は、サーバ40からユーザ情報及び判定結果を受信した場合、受信したユーザ情報及び判定結果を記憶部に記憶し(S71)、待機する。その後、医師用端末50は、例えば情報処理装置10から遠隔診察のための接続要求を受け付けるまで待機する。 In the information processing system of this embodiment, the control unit 11 of the information processing device 10 and the control unit 41 of the server 40 perform the processes of steps S21 to S37 in FIG. After the processing of step S34, the control unit 41 of the server 40 transmits the information (user information) on the user of the information processing device 10 and the determination result to the doctor's terminal 50 (S71). The doctor's terminal 50 is a terminal registered in advance, and is a terminal in which a doctor (medical worker) can perform a remote diagnosis. When a plurality of doctors' terminals 50 are registered, the control unit 41 selects an arbitrary doctor's terminal 50 or a doctor's terminal 50 capable of remote diagnosis, and sends user information to the selected doctor's terminal 50. and send the judgment result. In addition to the user information and the determination result, the control unit 41 may also transmit to the doctor's terminal 50 the content of advice content and training content provided to the user according to the determination result. When the user information and the determination result are received from the server 40, the doctor's terminal 50 stores the received user information and the determination result in the storage unit (S71) and waits. Thereafter, the doctor's terminal 50 waits until receiving a connection request for remote diagnosis from the information processing apparatus 10, for example.

一方、情報処理装置10の制御部11は、ステップS37の処理後、表示部16に表示したアドバイス画面又はトレーニング画面を介して医療従事者による遠隔診察の実行指示を受け付けたか否かを判断する(S73)。本実施形態のアドバイス画面又はトレーニング画面は、例えば図21Aに示すように「遠隔診察を受ける」ボタンを表示しており、ユーザによって「遠隔診察を受ける」ボタンが操作された場合、制御部11は、遠隔診察の実行指示を受け付ける。制御部11は、遠隔診察の実行指示を受け付けていないと判断した場合(S73:NO)、ステップS36の処理に戻り、アドバイスコンテンツ又はトレーニングコンテンツの出力を継続する。 On the other hand, after the process of step S37, the control unit 11 of the information processing apparatus 10 determines whether or not an instruction to perform remote diagnosis by the medical staff has been received via the advice screen or the training screen displayed on the display unit 16 ( S73). The advice screen or the training screen of the present embodiment displays, for example, a "remote examination" button as shown in FIG. 21A. When the user operates the "remote examination" button, the control unit 11 , to receive a remote medical examination execution instruction. If the control unit 11 determines that the remote diagnosis execution instruction has not been received (S73: NO), the process returns to step S36 to continue outputting the advice content or the training content.

遠隔診察の実行指示を受け付けたと判断した場合(S73:YES)、制御部11は、医師用端末50に対して接続を要求する(S74)。なお、アドバイス画面又はトレーニング画面において「遠隔診察を受ける」ボタンには、医師用端末50に接続するためのURL(Uniform Resource Locator )がリンクされており、「遠隔診察を受ける」ボタンが操作された場合、制御部11は、リンクされたURLにアクセスする。また制御部11は、医師用端末50に対して接続を要求する際に、トレーニングコンテンツによってユーザが行ったトレーニングの内容及び結果を医師用端末50へ送信してもよい。また、ユーザのトレーニングの内容及び結果は、情報処理装置10から医師用端末50へ送信される構成のほかに、情報処理装置10からサーバ40へ送信され、サーバ40から医師用端末50へ送信される構成でもよい。これにより、医師用端末50を介して医師等に、ユーザの認知機能のタイプ(判定結果)だけでなく、ユーザに提供したトレーニングの内容、及びトレーニングの結果も通知することができる。 If it is determined that the execution instruction for remote diagnosis has been received (S73: YES), the control unit 11 requests connection to the doctor's terminal 50 (S74). A URL (Uniform Resource Locator) for connecting to the doctor's terminal 50 is linked to the "remote medical examination" button on the advice screen or the training screen, and the "remote medical examination" button is operated. In this case, the control unit 11 accesses the linked URL. In addition, when requesting connection to the doctor's terminal 50 , the control unit 11 may transmit to the doctor's terminal 50 the details and results of training performed by the user using the training content. Further, the content and results of the user's training are transmitted from the information processing device 10 to the doctor's terminal 50, and are also transmitted from the information processing device 10 to the server 40 and transmitted from the server 40 to the doctor's terminal 50. It may be a configuration that As a result, a doctor or the like can be notified of not only the user's cognitive function type (determination result) but also the content of the training provided to the user and the result of the training via the doctor's terminal 50 .

医師用端末50は、情報処理装置10からの接続要求を受け付けた場合、例えば情報処理装置10から接続を要求されていることを示すメッセージを表示部に表示し、医療従事者による接続の許可を入力部によって受け付ける。医師用端末50は、医療従事者による接続の許可を受け付けたか否かを判断しており(S75)、受け付けていないと判断した場合(S75:NO)、受け付けるまで待機する。なお、例えば医療従事者によって接続が拒否された場合、医師用端末50は、情報処理装置10に対して接続の拒否を通知し、遠隔診察を断念してもよい。 When receiving a connection request from the information processing apparatus 10, the doctor terminal 50 displays, for example, a message indicating that the information processing apparatus 10 is requesting connection on the display unit, and asks the medical staff for permission to connect. Accepted by the input unit. The doctor's terminal 50 determines whether or not permission for connection has been received from the medical staff (S75), and if it determines that it has not been received (S75: NO), it waits until it is received. Note that, for example, when the connection is refused by the medical staff, the doctor's terminal 50 may notify the information processing apparatus 10 of the connection rejection and abandon the remote diagnosis.

医療従事者による接続の許可を受け付けたと判断した場合(S75:YES)、医師用端末50は、接続許可を情報処理装置10へ送信し(S76)、情報処理装置10との間における遠隔診察を開始する(S77)。一方、情報処理装置10の制御部11は、医師用端末50から接続許可を受信した場合、医師用端末50との間における遠隔診察を開始する(S78)。具体的には、情報処理装置10の制御部11は、カメラ17によって撮影したユーザの撮影画像、及びマイク18を介して取得したユーザの発話音声(遠隔診察に係るデータ)をネットワークN経由で医師用端末50へ送信する。同様に、医師用端末50の制御部は、カメラによって撮影した医療従事者の撮影画像、及びマイクを介して取得した医療従事者の発話音声(遠隔診察に係るデータ)をネットワークN経由で情報処理装置10へ送信する。なお、情報処理装置10の制御部11は、医師用端末50から受信する医療従事者の撮影画像を表示部16に表示し、医療従事者の発話音声をスピーカ22又はロボット30のスピーカ34から出力する。また、医師用端末50の制御部は、情報処理装置10から受信するユーザの撮影画像を表示部に表示し、ユーザの発話音声をスピーカから出力する。 If it is determined that the connection permission from the medical staff has been received (S75: YES), the doctor terminal 50 transmits the connection permission to the information processing device 10 (S76), and performs remote diagnosis with the information processing device 10. Start (S77). On the other hand, when receiving the connection permission from the doctor's terminal 50, the control unit 11 of the information processing device 10 starts remote diagnosis with the doctor's terminal 50 (S78). Specifically, the control unit 11 of the information processing device 10 sends the user's captured image captured by the camera 17 and the user's uttered voice (data related to remote diagnosis) acquired via the microphone 18 to the doctor via the network N. to the terminal 50. Similarly, the control unit of the doctor's terminal 50 processes the captured image of the medical staff captured by the camera and the spoken voice of the medical staff (data related to remote diagnosis) acquired via the microphone via the network N. Send to device 10 . Note that the control unit 11 of the information processing device 10 displays the photographed image of the medical staff received from the doctor terminal 50 on the display unit 16, and outputs the spoken voice of the medical staff from the speaker 22 or the speaker 34 of the robot 30. do. Further, the control unit of the doctor's terminal 50 displays the captured image of the user received from the information processing device 10 on the display unit, and outputs the user's uttered voice from the speaker.

上述した処理により、情報処理装置10の表示部16には、例えば図21Bに示すような医療従事者の撮影画像が表示され、ユーザ及び医療従事者の撮影画像及び発話音声に基づく遠隔診察を行うことができる。 By the above-described processing, the display unit 16 of the information processing apparatus 10 displays, for example, a photographed image of the medical staff as shown in FIG. be able to.

本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、サーバ40によって判定された判定結果(認知機能のタイプ)がユーザに通知された後に、ユーザの希望に応じて医療従事者による遠隔診察の実施が可能となる。これにより、ユーザは、医療従事者による診察を手軽に受けることが可能となり、不安又は心配事がある場合に医療従事者に相談して解消することが可能となる。本実施形態の構成は実施形態2~4の情報処理システムにも適用でき、実施形態2~4の情報処理システムに適用した場合であっても同様の効果が得られる。また、本実施形態の情報処理システムにおいて、上述した各実施形態で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the above-described embodiments can be obtained. In addition, in this embodiment, after the determination result (cognitive function type) determined by the server 40 is notified to the user, it becomes possible for the medical staff to conduct a remote diagnosis according to the user's request. As a result, the user can easily receive a medical examination by a medical professional, and if he or she has any concerns or worries, he or she can consult with the medical professional and resolve the concern. The configuration of this embodiment can also be applied to the information processing systems of the second to fourth embodiments, and similar effects can be obtained even when applied to the information processing systems of the second to fourth embodiments. In addition, in the information processing system of this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.

本実施形態において、サーバ40は、ユーザに対する判定結果を医師用端末50へ送信するほかに、例えばユーザの家族又は保護者等の端末へ送信するように構成されていてもよい。この場合、ユーザの認知機能のタイプが特定される都度、判定結果を家族又は保護者等と共有することが可能となる。 In this embodiment, the server 40 may be configured to transmit the determination result for the user to the terminal of the user's family or guardian, in addition to transmitting the result to the doctor's terminal 50 . In this case, each time the type of cognitive function of the user is identified, the determination result can be shared with family members, guardians, or the like.

(実施形態6)
上述した実施形態1~5の情報処理システムにおいて情報処理装置10及びロボット30が実行していた処理を、情報処理装置10のみで実行する情報処理システムについて説明する。本実施形態の情報処理システムは、情報処理装置10及びサーバ40を含み、サーバ40は、実施形態1~5のサーバ40と同様の構成を有する。本実施形態の情報処理装置10は、上述した実施形態1~5の情報処理装置10が有する機能に加えて、ロボット30が有する機能を有する。上述した実施形態1~5と同様の構成については説明を省略する。
(Embodiment 6)
An information processing system in which only the information processing device 10 executes the processing that was executed by the information processing device 10 and the robot 30 in the information processing systems of the first to fifth embodiments described above will be described. The information processing system of this embodiment includes an information processing apparatus 10 and a server 40, and the server 40 has the same configuration as the servers 40 of the first to fifth embodiments. The information processing apparatus 10 of this embodiment has the functions of the robot 30 in addition to the functions of the information processing apparatuses 10 of the first to fifth embodiments described above. Descriptions of the same configurations as those of the first to fifth embodiments described above will be omitted.

図22は実施形態6の情報処理装置10の内部構成例を示すブロック図である。本実施形態の情報処理装置10は、図2に示す構成において、第2通信部14の代わりに人感センサ23を有する。人感センサ23は、図2に示すロボット30の人感センサ36と同様の構成である。なお、本実施形態の情報処理装置10は、人感センサ23を備えていなくてもよい。 FIG. 22 is a block diagram showing an internal configuration example of the information processing apparatus 10 of the sixth embodiment. The information processing apparatus 10 of this embodiment has a human sensor 23 instead of the second communication unit 14 in the configuration shown in FIG. The human sensor 23 has the same configuration as the human sensor 36 of the robot 30 shown in FIG. Note that the information processing apparatus 10 of this embodiment does not have to include the human sensor 23 .

上述した構成の本実施形態の情報処理装置10は、図10に示す実施形態1の処理の実行が可能である。よって、本実施形態においても、情報処理装置10は、ユーザにテストコンテンツを出題してユーザの回答情報を収集し、ユーザの回答情報に基づいて判定された認知機能のタイプをサーバ40から取得することができる。よって、情報処理装置10は、ユーザの特徴を反映した認知機能のタイプに応じたアドバイス及びトレーニングをユーザに提供することができる。 The information processing apparatus 10 of the present embodiment having the configuration described above is capable of executing the processing of the first embodiment shown in FIG. Therefore, also in the present embodiment, the information processing apparatus 10 presents test content to the user, collects the user's answer information, and acquires the type of cognitive function determined based on the user's answer information from the server 40. be able to. Therefore, the information processing apparatus 10 can provide the user with advice and training according to the type of cognitive function that reflects the characteristics of the user.

また、本実施形態の情報処理装置10は、図14に示す実施形態2の処理においてロボット30による処理(ステップS41~S42)及び情報処理装置10による処理(ステップS21,S43,S23~S30,S35~S37)の実行が可能である。なお、図14に示す処理において、情報処理装置10の制御部11は、待機用コンテンツを出力しつつ(S21)、人感センサ23によってユーザの接近を検知したか否かを判断しており(S41)、ユーザの接近を検知した場合(S43:YES)、ステップS23以降の処理を実行する。この場合にも、実施形態2と同様の効果が得られる。 Further, the information processing apparatus 10 of the present embodiment performs the processes of the robot 30 (steps S41 to S42) and the processes of the information processing apparatus 10 (steps S21, S43, S23 to S30, S35) in the process of the second embodiment shown in FIG. to S37) can be executed. In the process shown in FIG. 14, the control unit 11 of the information processing apparatus 10 outputs standby content (S21) and determines whether or not the human sensor 23 detects the approach of the user ( S41), when the approach of the user is detected (S43: YES), the process after step S23 is executed. Also in this case, the same effects as in the second embodiment can be obtained.

また、本実施形態の情報処理装置10は、図17に示す実施形態4の処理においてロボット30による処理(ステップS62)及び情報処理装置10による処理(ステップS21~S30,S35~S37,S61)の実行が可能である。なお、図17に示す処理において、情報処理装置10の制御部11は、判定結果に応じた動作の実行をロボット30に指示する代わりに、判定結果に応じた表示態様の画面を表示部16に表示し、判定結果に応じた音楽をスピーカ22から出力する。この場合にも、実施形態3と同様の効果が得られる。 Further, the information processing apparatus 10 of the present embodiment performs the processing by the robot 30 (step S62) and the processing by the information processing apparatus 10 (steps S21 to S30, S35 to S37, S61) in the processing of the fourth embodiment shown in FIG. It is executable. Note that in the process shown in FIG. 17, the control unit 11 of the information processing device 10 displays a screen in a display mode according to the determination result on the display unit 16 instead of instructing the robot 30 to perform an action according to the determination result. Then, music corresponding to the determination result is output from the speaker 22.例文帳に追加Also in this case, the same effects as in the third embodiment can be obtained.

更に、本実施形態の構成は実施形態3,5の情報処理システムにも適用でき、実施形態3,5の情報処理システムに適用した場合であっても同様の効果が得られる。具体的には、本実施形態の情報処理装置10は、図15に示す実施形態3の処理における情報処理装置10による処理(ステップS51~S55,S22~S30,S35~S37)の実行が可能である。また、本実施形態の情報処理装置10は、図20に示す実施形態5の処理における情報処理装置10による処理(ステップS21~S30,S35~S37,S73~S74,S78)の実行が可能である。上述したように、実施形態1~5の情報処理システムにおける情報処理装置10及びロボット30による処理を、情報処理装置10のみで実行するように構成することができ、同様の効果が得られる。更に、本実施形態の情報処理システムにおいて、上述した各実施形態で適宜説明した変形例の適用が可能である。 Furthermore, the configuration of this embodiment can also be applied to the information processing systems of the third and fifth embodiments, and similar effects can be obtained even when applied to the information processing systems of the third and fifth embodiments. Specifically, the information processing apparatus 10 of the present embodiment can execute the processing (steps S51 to S55, S22 to S30, S35 to S37) by the information processing apparatus 10 in the processing of the third embodiment shown in FIG. be. Further, the information processing apparatus 10 of the present embodiment is capable of executing the processing (steps S21 to S30, S35 to S37, S73 to S74, S78) by the information processing apparatus 10 in the processing of the fifth embodiment shown in FIG. . As described above, the processing by the information processing device 10 and the robot 30 in the information processing systems of Embodiments 1 to 5 can be configured to be executed only by the information processing device 10, and similar effects can be obtained. Furthermore, in the information processing system of the present embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.

また、本実施形態において、サーバ40の記憶部42に記憶してある学習モデル42M、トレーニングDB42b及びアドバイスDB42cを情報処理装置10の記憶部12に記憶し、サーバ40がユーザの回答情報に基づいてユーザの認知機能のタイプを特定する処理、タイプに応じたアドバイスコンテンツ及びトレーニングコンテンツを特定する処理を情報処理装置10が行う構成であってもよい。このような構成とした場合、上述した各実施形態1~5においてロボット30が実行する処理だけでなくサーバ40が行う処理も情報処理装置10に実行させることができる。 Further, in the present embodiment, the learning model 42M, the training DB 42b, and the advice DB 42c stored in the storage unit 42 of the server 40 are stored in the storage unit 12 of the information processing device 10, and the server 40 uses the user's answer information to The information processing apparatus 10 may perform the process of identifying the type of cognitive function of the user and the process of identifying advice content and training content corresponding to the type. With such a configuration, the information processing apparatus 10 can be caused to execute not only the processing executed by the robot 30 but also the processing executed by the server 40 in each of the first to fifth embodiments described above.

(実施形態7)
ユーザが情報処理装置10及びロボット30を介して行う認知機能の判定処理及びトレーニングの実施状況に応じてユーザにポイントを付与する情報処理システムについて説明する。また、本実施形態の情報処理システムは、サーバ40が認知機能を判定し、判定結果に応じたトレーニングをユーザに提供するサービスに対してサービス利用料金を徴収しており、サーバ40から提供されるトレーニングの結果が良くない場合(トレーニングの成果が低い場合)、サービス利用料金を返却するという保険が販売されている。よって、ユーザは、サーバ40が提供するサービスを利用する際に、保険に加入するか否かを選択できる。本実施形態の情報処理システムは、実施形態1の情報処理システムと同様の装置によって実現可能であるので、各装置の構成についての説明は省略する。なお、本実施形態のサーバ40は、図5に示す構成に加えて、記憶部42にユーザ情報DB42eを記憶している。
(Embodiment 7)
An information processing system that gives points to a user according to the implementation status of cognitive function determination processing and training performed by the user via the information processing device 10 and the robot 30 will be described. Further, in the information processing system of the present embodiment, the server 40 determines the cognitive function and collects a service usage fee for a service that provides the user with training according to the determination result. If the result of training is not good (if the result of training is low), an insurance that refunds the service usage fee is sold. Therefore, when using the service provided by the server 40, the user can choose whether or not to take out insurance. The information processing system of the present embodiment can be realized by devices similar to those of the information processing system of the first embodiment, so description of the configuration of each device will be omitted. The server 40 of this embodiment stores a user information DB 42e in the storage unit 42 in addition to the configuration shown in FIG.

図23はサーバ40が記憶するユーザ情報DB42eの構成例を示す模式図である。ユーザ情報DB42eは、情報処理装置10によって取得されたユーザの回答情報に基づいてサーバ40によって認知機能のタイプを判定し、アドバイスコンテンツ及びトレーニングコンテンツをサーバ40から取得するためにユーザ登録したユーザに関する情報を記憶する。図23に示すユーザ情報DB42eは、ユーザID列、保険契約内容列、判定結果列、ポイント列等を含み、ユーザIDに対応付けて、ユーザに関する各情報を記憶する。ユーザID列は、サーバ40に対してユーザ登録したユーザを識別するための識別情報(ユーザID)を記憶する。保険契約内容列は、ユーザが加入(契約)している保険の内容を示す情報を記憶する。保険内容は、例えばサーバ40から提供されるトレーニングの成果が低い場合にサービス利用料金を返却するというものであるが、これに限定されない。判定結果列は、ユーザの回答情報に基づいて判定されたユーザの判定結果(タイプ、トレーニング、アドバイス)を時系列で記憶する。ポイント列は、ユーザが情報処理装置10を介して行った認知機能テスト又はトレーニングに対して付与されたポイントを記憶し、具体的には、それぞれの認知機能テスト又はトレーニングに対して付与されたポイント(付加値)及び合計ポイント(合計値)を記憶する。ユーザ情報DB42eに記憶されるユーザIDは、サーバ40に対して新たなユーザが登録された場合に、制御部41によって発行されて記憶される。保険契約内容は、制御部41が入力部44又は通信部43を介して取得した場合に制御部41によって記憶される。判定結果は、制御部41が情報処理装置10から取得した回答情報に基づいて判定処理を行った場合に、判定結果の各情報が制御部41によって記憶される。ポイントは、制御部41が各ユーザにポイントを付与する場合に、制御部41によって記憶される。ユーザ情報DB42eの記憶内容は図23に示す例に限定されない。例えばユーザの氏名、年齢、性別等、ユーザ登録の際にユーザによって入力された各種の情報がユーザ情報DB42eに記憶されてもよい。 FIG. 23 is a schematic diagram showing a configuration example of the user information DB 42e stored by the server 40. As shown in FIG. The user information DB 42e determines the type of cognitive function by the server 40 based on the user's answer information acquired by the information processing apparatus 10, and information on the user registered as a user to acquire advice content and training content from the server 40. memorize The user information DB 42e shown in FIG. 23 includes a user ID column, an insurance policy content column, a determination result column, a point column, etc., and stores each piece of information about the user in association with the user ID. The user ID column stores identification information (user ID) for identifying a user who has registered with the server 40 . The insurance contract content column stores information indicating the content of the insurance that the user subscribes (contracts to). The content of the insurance is, for example, a refund of the service fee if the result of the training provided by the server 40 is low, but is not limited to this. The determination result column stores the user's determination results (type, training, advice) determined based on the user's answer information in chronological order. The point string stores the points given to the cognitive function test or training performed by the user via the information processing device 10, specifically, the points given to each cognitive function test or training. (additional value) and total points (total value) are stored. A user ID stored in the user information DB 42 e is issued and stored by the control unit 41 when a new user is registered with the server 40 . The content of the insurance contract is stored by the control unit 41 when the control unit 41 acquires it via the input unit 44 or the communication unit 43 . As for the determination result, when the control unit 41 performs determination processing based on the answer information acquired from the information processing device 10 , each piece of information of the determination result is stored by the control unit 41 . Points are stored by the control unit 41 when the control unit 41 gives points to each user. The contents stored in the user information DB 42e are not limited to the example shown in FIG. For example, the user information DB 42e may store various types of information input by the user at the time of user registration, such as the user's name, age, and gender.

図24は実施形態7のコンテンツの提供処理手順の一例を示すフローチャート、図25は実施形態7の画面例を示す模式図である。図24に示す処理は、図10に示す処理において、ステップS33,S34の間にステップS81を追加したものである。図10と同じステップについては説明を省略する。また図24では図10中のステップS32~S37以外のステップの図示を省略している。 FIG. 24 is a flowchart showing an example of a content providing processing procedure according to the seventh embodiment, and FIG. 25 is a schematic diagram showing an example of a screen according to the seventh embodiment. The process shown in FIG. 24 is obtained by adding step S81 between steps S33 and S34 in the process shown in FIG. Description of the same steps as in FIG. 10 will be omitted. In FIG. 24, illustration of steps other than steps S32 to S37 in FIG. 10 is omitted.

本実施形態の情報処理システムにおいて、情報処理装置10の制御部11及びサーバ40の制御部41は、図10中のステップS21~S33の処理を行う。これにより、サーバ40は、情報処理装置10から取得したユーザの回答情報に基づいて認知機能のタイプを判定し、判定結果に応じたアドバイス及びトレーニングを特定することができる。ステップS33の処理後、サーバ40の制御部41は、判定処理を行ったユーザに付与すべきポイントを特定し、特定したポイントをユーザに付加する(S81)。例えば制御部41は、情報処理装置10から取得した回答情報に基づいて、ユーザが回答した問題の数(問題の出力回数)、ユーザに提供されたアドバイスコンテンツ又はトレーニングコンテンツの数(コンテンツの出力回数)等に応じて、ユーザに付与すべきポイントを特定する。なお、ユーザが回答した問題毎、又はトレーニングコンテンツ毎にポイントが設定されていてもよく、この場合、ユーザが実施した問題又はトレーニングコンテンツ毎のポイントを加算することによって、ユーザに付与すべきポイントを特定する。制御部41は、特定したポイントをユーザIDに対応付けてユーザ情報DB42eに記憶する。このとき制御部41は、ポイントの合計値を算出し、算出した合計値もユーザ情報DB42eに記憶しておく。 In the information processing system of this embodiment, the control unit 11 of the information processing device 10 and the control unit 41 of the server 40 perform the processes of steps S21 to S33 in FIG. Accordingly, the server 40 can determine the type of cognitive function based on the user's answer information acquired from the information processing device 10, and can specify advice and training according to the determination result. After the process of step S33, the control unit 41 of the server 40 specifies points to be given to the user who has performed the determination process, and adds the specified points to the user (S81). For example, based on the answer information acquired from the information processing device 10, the control unit 41 determines the number of questions answered by the user (the number of questions output), the number of advice content or training content provided to the user (the number of content outputs). ) or the like to specify the points to be given to the user. Points may be set for each question answered by the user or for each training content. In this case, the points to be given to the user are determined by adding the points for each question or training content answered by the user. Identify. The control unit 41 stores the identified points in the user information DB 42e in association with the user ID. At this time, the control unit 41 calculates the total value of points, and stores the calculated total value in the user information DB 42e.

その後、制御部41は、ステップS34の処理に移行し、判定結果(タイプ、アドバイスコンテンツ及びトレーニングコンテンツ)を、ステップS81でユーザに付加したポイントと共に情報処理装置10へ送信する(S34)。このような判定結果を取得した情報処理装置10は、例えば図25に示すようなアドバイス画面を表示部16に表示する。図25に示すアドバイス画面は、ユーザが行ったテストに対するアドバイスと、今回のテストで付加されたポイントとを表示している。これにより、ユーザが行ったテスト及びトレーニングに対して付与されたポイントをユーザに通知でき、トレーニングに対するユーザのやる気を継続させることが期待できる。なお、ユーザに付与されるものはポイントに限定されず、各種の特典又はクーポン等であってもよい。 After that, the control unit 41 proceeds to the process of step S34, and transmits the determination result (type, advice content, and training content) to the information processing apparatus 10 together with the points added to the user in step S81 (S34). The information processing apparatus 10 that has acquired such a determination result displays an advice screen as shown in FIG. 25 on the display unit 16, for example. The advice screen shown in FIG. 25 displays advice for the test performed by the user and points added in the current test. As a result, it is possible to notify the user of the points given for the test and training performed by the user, and it can be expected that the user's motivation for training will continue. Note that what is given to the user is not limited to points, and may be various benefits, coupons, or the like.

本実施形態の情報処理システムでは、サーバ40が各ユーザに対する判定結果を蓄積しているので、各ユーザの時系列の判定結果に基づいてトレーニングの成果(効果)が得られているか否かを判断できる。本実施形態の情報処理システムでは、トレーニングの成果が得られていない場合にサービス利用料金を返却するという保険が販売されており、サーバ40は、この保険に加入しているユーザに対して、定期的にトレーニングの成果が得られていないユーザを抽出する処理を行う。図26はトレーニングの成果が低いユーザの抽出処理手順の一例を示すフローチャートである。以下の処理は、サーバ40の記憶部42に記憶してある制御プログラム42Pに従って制御部41によって実行される。 In the information processing system of the present embodiment, the server 40 accumulates determination results for each user, so it is determined whether training results (effects) have been obtained based on the time-series determination results for each user. can. In the information processing system of the present embodiment, insurance is sold in which the service usage fee will be returned if the results of the training are not obtained. A process of extracting users who have not obtained results of training on a regular basis is performed. FIG. 26 is a flow chart showing an example of a procedure for extracting users with low training results. The following processing is executed by the control unit 41 according to the control program 42P stored in the storage unit 42 of the server 40. FIG.

本実施形態の情報処理システムにおいて、サーバ40の制御部41は、例えば1ヶ月に1度のように定期的に、トレーニングの成果が低いユーザの抽出処理を行う。具体的には、制御部41は、ユーザ情報DB42eに記憶してある各ユーザの情報に基づいて、保険に加入しているユーザを特定する(S91)。図23に示すユーザ情報DB42eでは、保険契約内容列に保険内容に関する情報が登録されているユーザを特定する。そして制御部41は、特定したユーザの判定結果から、所定期間の前後の判定結果を取得する(S92)。所定期間の前後の判定結果として、例えば直近の日時に対応する判定結果(認知機能のタイプ)と、直近の日時から1ヶ月前の日時に対応する判定結果(認知機能のタイプ)とを取得する。なお、所定期間は1ヶ月に限定されず、3ヶ月、半年、1年等であってもよい。 In the information processing system of the present embodiment, the control unit 41 of the server 40 performs extraction processing of users with low training results periodically, for example, once a month. Specifically, the control unit 41 identifies users who have insurance based on the information of each user stored in the user information DB 42e (S91). In the user information DB 42e shown in FIG. 23, a user whose information on insurance details is registered in the insurance contract details column is specified. Then, the control unit 41 acquires determination results before and after the predetermined period from the determination results of the specified user (S92). As the determination results before and after the predetermined period, for example, the determination result (cognitive function type) corresponding to the most recent date and time and the determination result (cognitive function type) corresponding to the date and time one month before the most recent date and time are acquired. . Note that the predetermined period is not limited to one month, and may be three months, half a year, one year, or the like.

制御部41は、所定期間の前後の判定結果に基づいて、トレーニングの成果を特定する(S93)。例えば制御部41は、所定期間の前の判定結果に対して後の判定結果が良好であった場合、トレーニングの成果が得られた(成果が高い)と特定する。また制御部41は、所定期間の前の判定結果に対して後の判定結果が良好でなかった場合、トレーニングの成果が得られなかった(成果が低い)と特定してもよい。また判定結果がレベルで示されている場合、制御部41は、所定期間の前の判定結果と後の判定結果とのレベルの差異を算出し、レベルの差異をトレーニングの成果としてもよい。この場合、レベルの差異が負の値である場合、トレーニングの成果が得られなかった(成果が低い)と特定し、正の値である場合、トレーニングの成果が得られた(成果が高い)と特定する。 The control unit 41 identifies the results of the training based on the determination results before and after the predetermined period (S93). For example, the control unit 41 specifies that the result of the training is obtained (high result) when the result of the determination after the predetermined period is better than the result of determination before the predetermined period. In addition, the control unit 41 may specify that the result of the training was not obtained (the result was low) when the result of the determination after the predetermined period was not good compared to the result of determination before the predetermined period. Further, when the determination result is indicated by a level, the control unit 41 may calculate the level difference between the determination result before and after the predetermined period, and use the difference in level as the result of training. In this case, if the level difference is negative, we identify that the training was not successful (low outcome), and if it is positive, the training was successful (high outcome). and specify.

制御部41は、特定したトレーニングの成果が低いか否かを判断しており(S94)、低いと判断した場合(S94)、ステップS91で特定したユーザのユーザIDを記憶する(S95)。例えば記憶部42に、成果が低いユーザのリストを用意しておき、制御部41は、このユーザリストに、特定したユーザのユーザIDを登録する。成果が高いと判断した場合(S94:NO)、制御部41は、ステップS95の処理をスキップし、保険に加入しているユーザで未処理のユーザがいるか否かを判断する(S96)。未処理のユーザがいると判断した場合(S96:YES)、制御部41はステップS91の処理に戻り、未処理のユーザに対して、ステップS91~S95の処理を行う。 The control unit 41 determines whether or not the result of the specified training is low (S94), and if it is determined to be low (S94), stores the user ID of the user specified in step S91 (S95). For example, a list of users with low achievements is prepared in the storage unit 42, and the control unit 41 registers the user ID of the identified user in this user list. If it is determined that the result is high (S94: NO), the control unit 41 skips the process of step S95 and determines whether or not there is an unprocessed user among the users who have insurance (S96). If it is determined that there is an unprocessed user (S96: YES), the control unit 41 returns to the process of step S91 and performs the processes of steps S91 to S95 for the unprocessed user.

未処理のユーザがいないと判断した場合(S96:NO)、制御部41は、成果が低いユーザのリストに登録したユーザの情報(ユーザID)を出力する(S97)。例えば制御部41は、表示部45にユーザリスト(ユーザIDの一覧)を表示し、サーバ40の操作者にユーザリストを通知してもよい。また、制御部41は、予め登録されている端末装置へユーザリスト(ユーザIDの一覧)を送信し、端末装置の操作者にユーザリストを通知してもよい。ユーザリストを通知された担当者(操作者)は、各ユーザの判定結果の状況に基づいて、サービス利用料金の返却対象となるか否かを判断し、返却対象となる場合には、ユーザにサービス利用料金を返却すると共に、保険会社に保険金(ユーザに返却すべきサービス利用料金に対応する保険金)の支払いを要求する。上述した処理により、各ユーザのトレーニングの成果に応じて、ユーザにサービス利用料金を返却することが可能となるので、ユーザは、気軽にサービスの利用を開始することができる。また、ユーザにサービス利用料金を返却することによる損失は保険会社によって補填することができる。 When it is determined that there is no unprocessed user (S96: NO), the control unit 41 outputs the information (user ID) of the user registered in the list of users with low results (S97). For example, the control unit 41 may display a user list (a list of user IDs) on the display unit 45 and notify the operator of the server 40 of the user list. Further, the control unit 41 may transmit a user list (a list of user IDs) to pre-registered terminal devices and notify the operator of the terminal device of the user list. The person in charge (operator) notified of the user list determines whether or not the service usage fee is subject to return based on the status of each user's determination result. In addition to returning the service usage fee, the insurance company is requested to pay insurance money (insurance money corresponding to the service usage fee to be returned to the user). With the above-described processing, it is possible to return the service usage fee to the user according to the training result of each user, so that the user can easily start using the service. Also, the loss caused by returning the service usage fee to the user can be compensated by the insurance company.

本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、ユーザの利用状況に応じてポイントを付与することができるので、ユーザのやる気を継続させることが可能となる。また、本実施形態では、保険会社と連携して、サーバ40が提供するサービスによって効果(成果)が得られないユーザに対してサービス利用料金を返却することが可能であり、ユーザがサービスの利用を開始する際の障壁を下げることが可能となる。本実施形態の構成は実施形態2~6の情報処理システムにも適用でき、実施形態2~6の情報処理システムに適用した場合であっても同様の効果が得られる。また、本実施形態の情報処理システムにおいて、上述した各実施形態で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the above-described embodiments can be obtained. Further, in the present embodiment, since points can be given according to the user's usage status, it is possible to keep the user motivated. In addition, in this embodiment, in cooperation with an insurance company, it is possible to return the service usage fee to a user who cannot obtain an effect (result) from the service provided by the server 40, and the user can use the service. It is possible to lower the barrier when starting The configuration of this embodiment can also be applied to the information processing systems of the second to sixth embodiments, and similar effects can be obtained even when applied to the information processing systems of the second to sixth embodiments. In addition, in the information processing system of this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should not be considered restrictive. The scope of the present invention is indicated by the scope of the claims rather than the meaning described above, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

10 情報処理装置
11 制御部
12 記憶部
13 第1通信部
14 第2通信部
15 入力部
16 表示部
17 カメラ
20 挙動検知部
21 表情検知部
30 ロボット
31 制御部
32 記憶部
33 通信部
36 人感センサ
40 サーバ
41 制御部
42 記憶部
43 通信部
12a テストDB
12b 履歴DB
42a タイプDB
42b トレーニングDB
42c アドバイスDB
42M 学習モデル
10 information processing device 11 control unit 12 storage unit 13 first communication unit 14 second communication unit 15 input unit 16 display unit 17 camera 20 behavior detection unit 21 facial expression detection unit 30 robot 31 control unit 32 storage unit 33 communication unit 36 human feeling Sensor 40 Server 41 Control Unit 42 Storage Unit 43 Communication Unit 12a Test DB
12b History DB
42a type DB
42b Training DB
42c Advice DB
42M learning model

Claims (14)

ロボットと、前記ロボットに通信可能に接続された表示装置とを備え、
前記表示装置を通じて対象者に、身体の状態を判定するためのプログラムを出力し、
前記表示装置又はロボットを通じて、前記プログラムに対する前記対象者の回答に関する回答情報を取得し、
取得した回答情報に基づいて、前記対象者の認知機能に関する分類を特定し、
特定した分類に応じて認知機能に関するコンテンツを前記表示装置を通じて出力する
処理を含む情報処理方法。
A robot and a display device communicably connected to the robot,
outputting a program for judging a physical condition to a subject through the display device;
Obtaining response information about the subject's response to the program through the display device or robot;
Based on the obtained answer information, identify the classification of the cognitive function of the subject,
An information processing method including a process of outputting content related to cognitive function through the display device according to the identified classification.
前記回答情報を入力した場合に、認知機能に関する分類を出力するように学習された学習モデルに、取得した前記回答情報を入力して、前記回答情報の対象者の認知機能に関する分類を特定する
処理を含む請求項1に記載の情報処理方法。
Inputting the obtained answer information into a learning model trained to output a classification about cognitive function when the answer information is input, and identifying the classification about the cognitive function of the subject of the answer information. The information processing method according to claim 1, comprising:
前記回答情報は、出力されたプログラムの傾向、出力された時間帯、回答に要した時間、回答の正誤、回答時の前記対象者の挙動又は表情のうちの少なくとも1つを含む
請求項1又は2に記載の情報処理方法。
1 or 2. The information processing method according to 2.
前記回答情報に基づいて、前記認知機能に関する複数のタイプのいずれかに分類し、
分類したタイプに応じたコンテンツを前記表示装置を通じて出力する
処理を含む請求項1から3までのいずれかひとつに記載の情報処理方法。
Based on the answer information, classifying into one of a plurality of types related to the cognitive function,
4. The information processing method according to any one of claims 1 to 3, further comprising a process of outputting the content according to the classified type through the display device.
前記身体の状態を判定するためのプログラムは、認知機能テスト及び身体機能テストを含み、
前記認知機能テスト又は身体機能テストの結果を前記表示装置を通じて出力する
処理を含む請求項1から4までのいずれかひとつに記載の情報処理方法。
The program for determining the physical condition includes cognitive function tests and physical function tests,
5. The information processing method according to any one of claims 1 to 4, further comprising outputting the result of the cognitive function test or the physical function test through the display device.
特定した分類を医師用端末へ出力し、
前記医師用端末との間で遠隔診察に係るデータを送受信し、
前記医師用端末から受信した前記遠隔診察に係るデータを前記表示装置を通じて出力する
処理を含む請求項1から5までのいずれかひとつに記載の情報処理方法。
Output the specified classification to the doctor's terminal,
Sending and receiving data related to remote diagnosis to and from the doctor's terminal,
6. The information processing method according to any one of claims 1 to 5, further comprising outputting the data related to the remote diagnosis received from the doctor's terminal through the display device.
前記特定した分類に応じたアドバイスを出力する
処理を含む請求項1から6までのいずれかひとつに記載の情報処理方法。
7. The information processing method according to any one of claims 1 to 6, including a process of outputting advice according to the specified classification.
前記特定した分類に応じた動作を前記ロボットが実行する
処理を含む請求項1から7までのいずれかひとつに記載の情報処理方法。
8. The information processing method according to any one of claims 1 to 7, further comprising a process in which the robot executes an action corresponding to the identified classification.
前記取得した回答情報をサーバへ出力し、
前記サーバで前記回答情報に基づいて特定された前記認知機能に関する分類を取得する
処理を含む請求項1から8までのいずれかひとつに記載の情報処理方法。
Outputting the obtained answer information to the server,
9. The information processing method according to any one of claims 1 to 8, comprising acquiring a classification related to the cognitive function specified by the server based on the answer information.
前記対象者の趣味嗜好を推定し、
複数のカテゴリのうちの前記対象者の趣味嗜好に応じたカテゴリの前記プログラムを前記対象者に出力し、
前記対象者の趣味嗜好に応じたカテゴリの前記コンテンツを出力する
処理を含む請求項1から9までのいずれかひとつに記載の情報処理方法。
estimating the hobbies and preferences of the subject;
outputting to the subject the program in a category corresponding to the subject's hobbies and tastes among a plurality of categories;
10. The information processing method according to any one of claims 1 to 9, further comprising a process of outputting the content of a category according to the subject's hobbies and tastes.
前記表示装置を通じて前記プログラム又は前記コンテンツを出力していない時間帯に、前記対象者の趣味嗜好に応じた第2コンテンツを前記表示装置を通じて出力する
処理を含む請求項1から10までのいずれかひとつに記載の情報処理方法。
11. Any one of claims 1 to 10, including a process of outputting second content according to the subject's tastes and preferences through the display device during a time period in which the program or the content is not being outputted through the display device. The information processing method described in .
前記対象者に対する前記プログラムの出力回数、又は、前記対象者の回答情報に基づく認知機能に関する分類に応じたコンテンツの出力回数に基づいて、前記対象者にポイントを付与する
処理を含む請求項1から11までのいずれかひとつに記載の情報処理方法。
from claim 1, including a process of giving points to the subject based on the number of times the program is output to the subject or the number of times the content is output according to the cognitive function classification based on the response information of the subject 11. The information processing method according to any one of 11 to 11.
ロボットと、前記ロボットに通信可能に接続された表示装置とを備える情報処理システムにおいて、
前記表示装置を通じて対象者に、身体の状態を判定するためのプログラムを出力するプログラム出力部と、
前記表示装置又はロボットを通じて、前記プログラムに対する前記対象者の回答に関する回答情報を取得する取得部と、
取得した回答情報に基づいて、前記対象者の認知機能に関する分類を特定する特定部と、
特定した分類に応じて認知機能に関するコンテンツを前記表示装置を通じて出力するコンテンツ出力部と
を備える情報処理システム。
In an information processing system comprising a robot and a display device communicably connected to the robot,
a program output unit that outputs a program for determining a physical condition to a subject through the display device;
an acquisition unit that acquires answer information about the subject's answer to the program through the display device or the robot;
an identifying unit that identifies the classification of the subject's cognitive function based on the acquired answer information;
An information processing system comprising: a content output unit that outputs content related to cognitive function through the display device according to the identified classification.
ロボットに通信可能に接続された表示装置を通じて対象者に、身体の状態を判定するためのプログラムを出力し、
前記表示装置又はロボットを通じて、前記プログラムに対する前記対象者の回答に関する回答情報を取得し、
取得した回答情報に基づいて、前記対象者の認知機能に関する分類を特定し、
特定した分類に応じて認知機能に関するコンテンツを前記表示装置を通じて出力する
処理をコンピュータに実行させるプログラム。
outputting a program for judging the state of the body to the subject through a display device communicably connected to the robot;
Obtaining response information about the subject's response to the program through the display device or robot;
Based on the obtained answer information, identify the classification of the cognitive function of the subject,
A program that causes a computer to execute a process of outputting content related to cognitive function through the display device according to the identified classification.
JP2021025264A 2021-02-19 2021-02-19 Information processing method, information processing system, and program Pending JP2022127234A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021025264A JP2022127234A (en) 2021-02-19 2021-02-19 Information processing method, information processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021025264A JP2022127234A (en) 2021-02-19 2021-02-19 Information processing method, information processing system, and program

Publications (1)

Publication Number Publication Date
JP2022127234A true JP2022127234A (en) 2022-08-31

Family

ID=83059929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021025264A Pending JP2022127234A (en) 2021-02-19 2021-02-19 Information processing method, information processing system, and program

Country Status (1)

Country Link
JP (1) JP2022127234A (en)

Similar Documents

Publication Publication Date Title
US11327556B2 (en) Information processing system, client terminal, information processing method, and recording medium
JP6815486B2 (en) Mobile and wearable video capture and feedback platform for the treatment of mental illness
CN103561652B (en) Method and system for assisting patients
US20220392625A1 (en) Method and system for an interface to provide activity recommendations
CN113873935A (en) Personalized digital treatment method and device
US10657960B2 (en) Interactive system, terminal, method of controlling dialog, and program for causing computer to function as interactive system
JP6531323B1 (en) PROGRAM, INFORMATION PROCESSING APPARATUS, AND INFORMATION PROCESSING METHOD
CN109765991A (en) Social interaction system is used to help system and non-transitory computer-readable storage media that user carries out social interaction
WO2016092103A1 (en) Device, system and method for assessing information needs of a person
US10978209B2 (en) Method of an interactive health status assessment and system thereof
JP2019030557A (en) Presentation device, presentation method, emotion estimation server, emotion estimation method, and emotion estimation system
JP6664818B1 (en) Program, information processing apparatus and information processing method
US9621847B2 (en) Terminal, system, display method, and recording medium storing a display program
JP2006235772A (en) Data collection analysis display system
CN112074804A (en) Information processing system, information processing method, and recording medium
JP2022127234A (en) Information processing method, information processing system, and program
JP7418975B2 (en) information processing equipment
JP7014646B2 (en) Response device, response method, response program and response system
JP7307576B2 (en) Program and information processing device
JP7290977B2 (en) Program and information processing device
CN111971670A (en) Generating responses in a conversation
JP7123028B2 (en) Information processing system, information processing method, and program
WO2021260848A1 (en) Learning device, learning method, and learning program
US20230099519A1 (en) Systems and methods for managing stress experienced by users during events
US20240012860A1 (en) Systems, methods and computer readable media for special needs service provider matching and reviews