JP2023163600A - Baby-type interactive robot, baby-type interactive method and baby-type interactive program - Google Patents

Baby-type interactive robot, baby-type interactive method and baby-type interactive program Download PDF

Info

Publication number
JP2023163600A
JP2023163600A JP2022074604A JP2022074604A JP2023163600A JP 2023163600 A JP2023163600 A JP 2023163600A JP 2022074604 A JP2022074604 A JP 2022074604A JP 2022074604 A JP2022074604 A JP 2022074604A JP 2023163600 A JP2023163600 A JP 2023163600A
Authority
JP
Japan
Prior art keywords
baby
physical quantity
utterance
dementia
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022074604A
Other languages
Japanese (ja)
Other versions
JP7169029B1 (en
Inventor
信夫 大和
Nobuo Yamato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vstone Co Ltd
Original Assignee
Vstone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vstone Co Ltd filed Critical Vstone Co Ltd
Priority to JP2022074604A priority Critical patent/JP7169029B1/en
Priority to JP2022169167A priority patent/JP2023164249A/en
Application granted granted Critical
Publication of JP7169029B1 publication Critical patent/JP7169029B1/en
Publication of JP2023163600A publication Critical patent/JP2023163600A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a possible baby-type interactive robot, baby-type interactive method and baby-type interactive program.SOLUTION: A baby-type interactive robot comprises: a head part without any face design drawn thereon; a body part connected to the head part and having no movable portion; an input part including at least one of a microphone disposed inside of at least one of the head part and the body part and inputting voice, and one or a plurality of physical quantity sensors for detecting a physical quantity; an output part disposed inside thereof and including a speaker for outputting voice; an information processing part disposed inside thereof and outputting a speech signal to a speaker so as to output a speech of a baby in response to at least one of a speech of an elderly person with dementia input by the microphone and the physical quantity detected by the physical quantity sensor; and clothing detachably attached to the body part.SELECTED DRAWING: Figure 1

Description

本開示は、認知症高齢者向けの赤ちゃん型対話ロボット、赤ちゃん型対話方法及び赤ちゃん型対話プログラムに関する。 The present disclosure relates to a baby-type conversation robot, a baby-type conversation method, and a baby-type conversation program for elderly people with dementia.

痴呆、鬱症状を呈した高齢者、独居高齢者にリハビリテーション効果を得る人形が存在する(特許文献1参照)。その人形は、衝撃が加わると泣く機能を有する。 There are dolls that have a rehabilitation effect on elderly people suffering from dementia or depression, and elderly people living alone (see Patent Document 1). The doll has the ability to cry when a shock is applied to it.

特開2003-093749号公報Japanese Patent Application Publication No. 2003-093749

特許文献1に記載のように、衝撃が加わると泣く人形が存在する。
ところで、出願人の調査により、泣く人形を高齢者に使用させると、その泣き声によってネガティブな印象を抱く高齢者が多く、相対的に短い期間でその人形の使用を止める高齢者が多いことがわかった。また、人形を使用する高齢者に限らず、その高齢者の周囲に居る人も、人形の泣き声によってネガティブな印象を抱くことがわかった。介護施設等においては、高齢者が使用する人形が泣き続けていると、介護者がその高齢者に人形をあやす様に促す場合もあり、介護者にとっても負担となることがわかった。
As described in Patent Document 1, there are dolls that cry when a shock is applied to them.
By the way, the applicant's research has revealed that when elderly people are allowed to use crying dolls, many of them develop negative impressions due to the crying, and many of them stop using the dolls after a relatively short period of time. Ta. Furthermore, it was found that not only the elderly people who use the dolls but also the people around them have a negative impression due to the doll's crying. In nursing care facilities, etc., if a doll used by an elderly person continues to cry, the caregiver may urge the elderly person to comfort the doll, which is a burden to the caregiver.

本開示は、認知症高齢者向けに相対的に長期間使用し続けることが可能な赤ちゃん型対話ロボット、赤ちゃん型対話方法及び赤ちゃん型対話プログラムを提供する。 The present disclosure provides a baby-type conversation robot, a baby-type conversation method, and a baby-type conversation program for elderly people with dementia that can be used for a relatively long period of time.

一態様の赤ちゃん型対話ロボットは、顔のデザインが施されていない頭部と、頭部に接続する可動部の無い胴体部と、頭部及び胴体部のうちの少なくとも一方の内部に配される、音声を入力するマイク、及び、物理量を検出する1又は複数の物理量センサのうちの少なくとも1つを含む入力部と、内部に配される、音声を出力するスピーカを含む出力部と、内部に配され、マイクによって入力された認知症高齢者の発話、及び、物理量センサによって検出される物理量のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号をスピーカに出力する情報処理部と、胴体部に対して着脱可能に装着される衣服と、を備える。 In one embodiment, a baby-like interactive robot includes a head without a face design, a body without a movable part connected to the head, and an interior of at least one of the head and the body. , an input section including at least one of a microphone for inputting sound and one or more physical quantity sensors for detecting a physical quantity, an output section disposed inside including a speaker for outputting sound; an information processing unit that outputs a speech signal to a speaker so as to output the baby's speech according to at least one of the speech of the elderly person with dementia inputted by the microphone and the physical quantity detected by the physical quantity sensor; , and clothing that is detachably attached to the torso.

一態様によれば、マイクによって入力された認知症高齢者の発話、及び、物理量センサによって検出される物理量のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号をスピーカに出力するので、認知症高齢者向けに相対的に長期間使用し続けることができる。 According to one aspect, a speech signal is output to the speaker so as to output the baby's speech in response to at least one of the speech of the elderly person with dementia inputted by the microphone and the physical quantity detected by the physical quantity sensor. , can be used for a relatively long period of time for elderly people with dementia.

一実施形態に係る赤ちゃん型対話ロボットについて説明するための図である。FIG. 1 is a diagram for explaining a baby-type interactive robot according to an embodiment. 一実施形態に係る赤ちゃん型対話ロボットについて説明するためのブロック図である。FIG. 1 is a block diagram for explaining a baby-type interactive robot according to an embodiment. 一実施形態に係る情報処理方法について説明するためのフローチャートである。1 is a flowchart for explaining an information processing method according to an embodiment.

以下、一実施形態について説明する。 An embodiment will be described below.

[赤ちゃん型対話ロボット1の概要]
まず、赤ちゃん型対話ロボット1の概要について説明する。
図1は、一実施形態に係る赤ちゃん型対話ロボット1について説明するための図である。
[Overview of baby-type conversational robot 1]
First, an overview of the baby-type interactive robot 1 will be explained.
FIG. 1 is a diagram for explaining a baby-type interactive robot 1 according to an embodiment.

本実施形態の赤ちゃん型対話ロボット1は、例えば、認知症高齢者が利用するのに好適であってもよく、高齢者が利用するのに好適であってもよく、又は、成人及び子供等の種々の年齢のユーザが利用するのに好適であってもよい。
赤ちゃん型対話ロボット1は、例えば、頭部11及び胴体部12を備える赤ちゃんの形をした人形(ぬいぐるみ)であってもよい。頭部11には、顔のデザインが施されていない。胴体部12は、頭部11に接続する。胴体部12の腕及び脚等の関節部は可動しなくともよい。すなわち、胴体部12には、関節等の可動部が無くともよい。衣服13は、胴体部12に対して着脱可能に装着されてもよい。衣服13の着脱方法は、種々の方法を利用することが可能である。
The baby-type interactive robot 1 of this embodiment may be suitable for use by elderly people with dementia, for example, or may be suitable for use by elderly people, children, etc. It may be suitable for use by users of various ages.
The baby-shaped interactive robot 1 may be, for example, a baby-shaped doll (stuffed toy) including a head 11 and a body 12. The head 11 has no face design. The body portion 12 is connected to the head 11. Joints such as arms and legs of the body part 12 do not need to be movable. That is, the body portion 12 does not need to have any movable parts such as joints. Clothing 13 may be detachably attached to torso section 12 . Various methods can be used to put on and take off the clothes 13.

頭部11及び胴体部12のうちの少なくとも一方の内部には、入力部113(図2参照)が配される。入力部113は、例えば、音声を入力するマイク113a、及び、物理量を検出する1又は複数の物理量センサ113bのうちの少なくとも1つを含む構成であってもよい。物理量センサ113bには、例えば、カメラ装置が含まれてもよい。
頭部11及び胴体部12のうちの少なくとも一方の内部には、出力部114(図2参照)が配される。出力部114は、例えば、音声を出力するスピーカ114aを含む構成であってもよい。
An input unit 113 (see FIG. 2) is arranged inside at least one of the head 11 and the body 12. The input unit 113 may include, for example, at least one of a microphone 113a for inputting audio and one or more physical quantity sensors 113b for detecting a physical quantity. The physical quantity sensor 113b may include, for example, a camera device.
An output unit 114 (see FIG. 2) is disposed inside at least one of the head 11 and the body 12. The output unit 114 may include, for example, a speaker 114a that outputs audio.

頭部11及び胴体部12のうちの少なくとも一方の内部には、情報処理部103(図2参照)が配される。
情報処理部103は、マイク113aへの入力の結果、及び、物理量センサ113bによる検出の結果のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号をスピーカ114aに出力する。マイク113aへの入力は、例えば、認知症高齢者の発話であってもよい。物理量センサ113bは、例えば、認知症高齢者が赤ちゃん型対話ロボット1を触る等した場合の種々の1又は複数の物理量を検出してもよい。スピーカ114aは、発話信号に基づいて赤ちゃんの発話を出力する。
なお、情報処理部103は、例えば、手等の胴体部12に配される音量調整ボタン(図示せず)等により、スピーカ114aから出力する赤ちゃんの発話の音量を調整可能な構成であってもよい。
An information processing unit 103 (see FIG. 2) is arranged inside at least one of the head 11 and the body 12.
The information processing unit 103 outputs a speech signal to the speaker 114a to output the baby's speech according to at least one of the result of input to the microphone 113a and the result of detection by the physical quantity sensor 113b. The input to the microphone 113a may be, for example, the speech of an elderly person with dementia. The physical quantity sensor 113b may detect one or more various physical quantities when, for example, an elderly person with dementia touches the baby interactive robot 1. The speaker 114a outputs the baby's speech based on the speech signal.
Note that the information processing unit 103 may have a configuration in which the volume of the baby's speech output from the speaker 114a can be adjusted by, for example, a volume adjustment button (not shown) arranged on the body part 12 such as a hand. good.

[赤ちゃん型対話ロボット1の詳細]
次に、一実施形態に係る赤ちゃん型対話ロボット1の詳細に説明する。
図2は、一実施形態に係る赤ちゃん型対話ロボット1について説明するためのブロック図である。
[Details of baby-type conversational robot 1]
Next, the baby-type interactive robot 1 according to one embodiment will be described in detail.
FIG. 2 is a block diagram for explaining the baby-type interactive robot 1 according to one embodiment.

赤ちゃん型対話ロボット1は、例えば、頭部11、胴体部12及び衣服13の他に、通信部111、記憶部112、入力部113、出力部114及び制御部101等を備える。制御部101は、例えば、取得部102(例えば、第1取得部102a及び第2取得部102b等)及び情報処理部103等を備える。制御部101は、例えば、演算処理装置等によって構成されてもよい。制御部101(例えば、演算処理装置等)は、例えば、記憶部112等に記憶される各種プログラム等を適宜読み出して実行することにより、取得部102(第1取得部102a及び第2取得部102b)及び情報処理部103等の機能を実現してもよい。 The baby-type interactive robot 1 includes, for example, a head 11, a body 12, clothing 13, a communication section 111, a storage section 112, an input section 113, an output section 114, a control section 101, and the like. The control unit 101 includes, for example, an acquisition unit 102 (for example, a first acquisition unit 102a and a second acquisition unit 102b, etc.), an information processing unit 103, and the like. The control unit 101 may be configured by, for example, an arithmetic processing device. The control unit 101 (for example, an arithmetic processing unit, etc.) reads and executes various programs stored in the storage unit 112, etc. as appropriate, thereby controlling the acquisition unit 102 (the first acquisition unit 102a and the second acquisition unit 102b). ) and the information processing unit 103, etc. may also be implemented.

通信部111は、例えば、赤ちゃん型対話ロボット1の外部にある装置(外部装置)(図示せず)等との間で種々の情報の送受信が可能な通信インターフェースである。外部装置は、例えば、サーバ及び端末等であってもよい。端末は、例えば、デスクトップ、ラップトップ、タブレット、スマートフォン及びスマートウォッチ等であってもよい。 The communication unit 111 is, for example, a communication interface that can send and receive various information to and from a device (external device) (not shown) outside the baby-type interactive robot 1 . The external device may be, for example, a server, a terminal, or the like. The terminal may be, for example, a desktop, laptop, tablet, smartphone, smartwatch, etc.

記憶部112は、例えば、種々の情報及びプログラムを記憶してもよい。記憶部112の一例は、メモリ、ソリッドステートドライブ及びハードディスクドライブ等であってもよい。なお、記憶部112は、例えば、クラウド上にある記憶領域及びサーバ等であってもよい。
記憶部112は、赤ちゃんの発話について複数の種類を記憶してもよい。
The storage unit 112 may store various information and programs, for example. An example of the storage unit 112 may be a memory, a solid state drive, a hard disk drive, or the like. Note that the storage unit 112 may be, for example, a storage area on a cloud, a server, or the like.
The storage unit 112 may store multiple types of baby's utterances.

記憶部112に記憶される複数の種類の赤ちゃんの発話は、例えば、ポジティブな感情表現を示す発話等であってもよい。記憶部112に記憶されるポジティブな感情表現を示す赤ちゃんの発話は、例えば、可愛らしい笑い声等であってもよい。ポジティブな感情表現は、例えば、喜び及び嬉しさ等の表現であってもよい。ポジティブな感情表現を示す赤ちゃんの発話は、例えば、複数有ってもよい。この場合、弱ポジティブな感情表現を示す1又は複数の赤ちゃんの発話、及び、弱ポジティブよりも強い感情表現となるポジティブな感情表現を示す1又は複数の赤ちゃんの発話が有ってもよい。 The plurality of types of baby utterances stored in the storage unit 112 may be, for example, utterances indicating positive emotional expressions. The baby's utterance indicating a positive emotional expression stored in the storage unit 112 may be, for example, a cute laugh. Positive emotional expressions may be, for example, expressions of joy and happiness. For example, there may be multiple baby utterances that indicate positive emotional expression. In this case, there may be one or more baby utterances that indicate a weakly positive emotional expression, and one or more baby utterances that indicate a positive emotional expression that is a stronger emotional expression than the weakly positive one.

記憶部112に記憶される複数の種類の赤ちゃんの発話は、例えば、ノーマル及びネガティブのうち少なくとも一方の感情表現を示す発話等であってもよい。ノーマルな赤ちゃんの発話は、例えば、赤ちゃんが平常にしている際の種々の発話等であってもよい。ネガティブな赤ちゃんの発話は、例えば、泣き声等であってもよい。ネガティブな感情表現は、例えば、悲しさ及び寂しさ等の表現であってもよい。ネガティブな感情表現を示す赤ちゃんの発話は、例えば、複数有ってもよい。この場合、弱ネガティブな感情表現を示す1又は複数の赤ちゃんの発話、及び、弱ネガティブよりも強い感情表現となるネガティブな感情表現を示す1又は複数の赤ちゃんの発話が有ってもよい。 The plurality of types of baby utterances stored in the storage unit 112 may be, for example, utterances indicating at least one of normal and negative emotional expressions. The normal baby's utterances may be, for example, various utterances that the baby makes normally. The negative baby's utterance may be, for example, crying. Negative emotional expressions may be, for example, expressions of sadness and loneliness. For example, there may be a plurality of baby utterances that express negative emotions. In this case, there may be one or more baby utterances that express a weak negative emotion, and one or more baby utterances that express a negative emotion that is a stronger emotional expression than the weak negative.

通信部111及び記憶部112は、頭部11及び胴体部12のうちの少なくとも一方の内部に配されてもよい。 The communication unit 111 and the storage unit 112 may be arranged inside at least one of the head 11 and the body 12.

入力部113は、頭部11及び胴体部12のうちの少なくとも一方の内部に配されてもよい。入力部113は、例えば、マイク113a及び物理量センサ113bのグループから選択される少なくとも1つを備えてもよい。
マイク113aは、例えば、音声を入力する装置である。
物理量センサ113bは、例えば、物理量を検出する装置である。物理量センサ113bは、例えば、1又は複数配されてもよい。物理量センサ113bの一例は、加速度を検出する加速度センサ、赤ちゃん型対話ロボット1への物体の接触を検出する接触センサ、赤ちゃん型対話ロボット1と物体との距離を検出する距離センサ、認知症高齢者の心拍等を検出するドップラーセンサ、及び、角速度の変化率(角加速度)を検出する角加速度センサ等であってもよい。物理量センサ113bは、上記の一例に限らず、種々の物理量を検出することが可能なセンサ等であってもよい。
また、物理量センサ113bには、認知症高齢者を撮像することが可能なカメラ装置(図示せず)が含まれてもよい。カメラ装置は、例えば、赤ちゃん型対話ロボット1の近傍に居るユーザ(例えば、認知症高齢者)等を撮像することが可能である。カメラ装置は、例えば、動画又は静止画の画像を撮像して、画像情報を生成することが可能である。上述した物理量には、画像情報が含まれてもよい。
The input unit 113 may be placed inside at least one of the head 11 and the body 12. The input unit 113 may include, for example, at least one selected from the group of a microphone 113a and a physical quantity sensor 113b.
The microphone 113a is, for example, a device for inputting audio.
The physical quantity sensor 113b is, for example, a device that detects a physical quantity. For example, one or more physical quantity sensors 113b may be arranged. Examples of the physical quantity sensor 113b include an acceleration sensor that detects acceleration, a contact sensor that detects contact of an object to the baby interactive robot 1, a distance sensor that detects the distance between the baby interactive robot 1 and an object, and an elderly person with dementia. A Doppler sensor that detects a heartbeat, etc., an angular acceleration sensor that detects a rate of change in angular velocity (angular acceleration), or the like may be used. The physical quantity sensor 113b is not limited to the above example, but may be a sensor capable of detecting various physical quantities.
Further, the physical quantity sensor 113b may include a camera device (not shown) capable of capturing an image of an elderly person with dementia. The camera device can, for example, take an image of a user (eg, an elderly person with dementia) who is near the baby-type interactive robot 1. A camera device can generate image information by capturing a moving image or a still image, for example. The physical quantities described above may include image information.

なお、入力部113の少なくとも1つは、例えば、赤ちゃん型対話ロボット1の外部に配されてもよい。この場合、入力部113の少なくとも1つは、入力した音声に基づく音声信号、及び、検出した物理量に基づく検出信号のうちの少なくとも1つを、無線又は有線により赤ちゃん型対話ロボット1に送信してもよい。制御部101は、例えば、通信部111を介して、音声信号及び検出信号のうちの少なくとも1つを取得してもよい。
ここで一例として、入力部113は、上述した外部装置(図示せず)等に配されてもよい。
Note that at least one of the input units 113 may be placed outside the baby-type interactive robot 1, for example. In this case, at least one of the input units 113 transmits at least one of an audio signal based on the input audio and a detection signal based on the detected physical quantity to the baby-type interactive robot 1 via wireless or wire. Good too. For example, the control unit 101 may acquire at least one of the audio signal and the detection signal via the communication unit 111.
As an example, the input unit 113 may be provided in the above-mentioned external device (not shown) or the like.

出力部114は、頭部11及び胴体部12のうちの少なくとも一方の内部に配されてもよい。出力部114は、例えば、音声を出力するスピーカ114a等を備えてもよい。また、出力部114は、例えば、圧電素子及び回転する重り(図示せず)等を備えてもよい。圧電素子は、例えば、電気信号を機械振動に、すなわち電圧を力に変換する装置等である。回転する重りは、例えば、回転軸が重りの中心軸に対して偏心した位置に配されており、信号を入力すると回転する。重りは、例えば、回転の際に筐体と接触することにより、振動を発生させる。 The output unit 114 may be arranged inside at least one of the head 11 and the body 12. The output unit 114 may include, for example, a speaker 114a that outputs audio. Further, the output section 114 may include, for example, a piezoelectric element, a rotating weight (not shown), and the like. A piezoelectric element is, for example, a device that converts an electrical signal into mechanical vibration, that is, a voltage into force. The rotating weight has, for example, a rotating shaft placed eccentrically with respect to the central axis of the weight, and rotates when a signal is input. The weight generates vibrations, for example, by coming into contact with the housing during rotation.

取得部102は、例えば、入力部113に入力された情報を取得する。取得部102は、例えば、第1取得部102a及び第2取得部102b等を備えてもよい。第1取得部102aは、例えば、マイク113aによって入力された認知症高齢者の発話を取得してもよい。第2取得部102bは、例えば、物理量センサ113bによって検出される物理量を取得してもよい。 The acquisition unit 102 acquires, for example, information input to the input unit 113. The acquisition unit 102 may include, for example, a first acquisition unit 102a, a second acquisition unit 102b, and the like. The first acquisition unit 102a may acquire, for example, the speech of an elderly person with dementia input through the microphone 113a. The second acquisition unit 102b may acquire, for example, a physical quantity detected by the physical quantity sensor 113b.

情報処理部103は、取得部102によって取得する情報に応じて、赤ちゃんの発話を出力するよう発話信号をスピーカ114aに出力する。すなわち、情報処理部103は、第1取得部102aで取得する発話、及び、第2取得部102bで取得する物理量(上述した画像情報を含む)のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号をスピーカ114aに出力する。 The information processing unit 103 outputs a speech signal to the speaker 114a so as to output the baby's speech according to the information acquired by the acquisition unit 102. That is, the information processing unit 103 outputs the baby's utterances according to at least one of the utterances acquired by the first acquisition unit 102a and the physical quantities (including the above-mentioned image information) acquired by the second acquisition unit 102b. A speech signal is output to the speaker 114a so as to cause the speech to occur.

具体的には、情報処理部103は、頭部11及び胴体部12のうちの少なくとも一方の内部に配されてもよい。情報処理部103は、マイク113aによって入力された認知症高齢者の発話、及び、物理量センサ113bによって検出される物理量のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号をスピーカ114aに出力する。すなわち、情報処理部103は、認知症高齢者等のユーザの発話をマイク113aで入力した場合、及び、少なくとも1つの物理量センサ113bによって物理量を検出した場合のうちの少なくとも一方の場合に、スピーカ114aから赤ちゃんの発話を出力させる。発話信号は、例えば、赤ちゃんの発話をスピーカ114aから出力させるための音声信号等であってもよい。
この場合、情報処理部103は、例えば、記憶部112等に記録される音声情報を参照し、赤ちゃんの発話内容に応じた発話信号をスピーカ114aに出力してもよい。音声情報は、例えば、赤ちゃんの発話内容と、その発話内容に応じた発話信号とを対応付けた情報であってもよい。
Specifically, the information processing unit 103 may be placed inside at least one of the head 11 and the body 12. The information processing unit 103 sends a speech signal to the speaker 114a to output the baby's speech according to at least one of the speech of the elderly person with dementia inputted by the microphone 113a and the physical quantity detected by the physical quantity sensor 113b. Output. That is, the information processing unit 103 uses the speaker 114a in at least one of the following cases: when the speech of a user such as an elderly person with dementia is input through the microphone 113a, and when a physical quantity is detected by at least one physical quantity sensor 113b. output the baby's utterances. The speech signal may be, for example, an audio signal for outputting the baby's speech from the speaker 114a.
In this case, the information processing unit 103 may, for example, refer to audio information recorded in the storage unit 112 or the like and output a speech signal corresponding to the content of the baby's speech to the speaker 114a. The audio information may be, for example, information in which the contents of the baby's utterance are associated with the utterance signals corresponding to the contents of the utterance.

情報処理部103は、記憶部112に記憶される赤ちゃんの発話について複数の種類のなかから1つを選択し、選択した赤ちゃんの発話についての発話信号をスピーカ114aに出力してもよい。すなわち、情報処理部103は、認知症高齢者の発話及び検出される物理量のうちの少なくとも1つに応じて、複数の赤ちゃんの発話の中から1つを選択し、選択した発話をスピーカ114aから出力するようにしてもよい。一例として、情報処理部103は、ネガティブ、弱ネガティブ、ノーマル、弱ポジティブ及びポジティブの5つのカテゴリの感情表現を示す赤ちゃんの発話の中から選択した発話をスピーカ114aから出力してもよい。また一例として、情報処理部103は、ノーマル、弱ポジティブ及びポジティブの3つのカテゴリの感情表現を示す赤ちゃんの発話の中から選択した発話をスピーカ114aから出力してもよい。 The information processing unit 103 may select one of a plurality of types of baby's utterances stored in the storage unit 112, and output a utterance signal regarding the selected baby's utterance to the speaker 114a. That is, the information processing unit 103 selects one of the plurality of baby's utterances according to at least one of the utterance of the elderly person with dementia and the detected physical quantity, and outputs the selected utterance from the speaker 114a. It may also be output. As an example, the information processing unit 103 may output, from the speaker 114a, utterances selected from the baby's utterances indicating emotional expressions in five categories: negative, weak negative, normal, weak positive, and positive. Further, as an example, the information processing unit 103 may output, from the speaker 114a, an utterance selected from among the baby's utterances indicating emotional expressions in three categories: normal, weakly positive, and positive.

情報処理部103は、マイク113aによって入力される音声の大きさが閾値(第1閾値)以上の場合、赤ちゃんの発話を出力するよう発話信号をスピーカ114aに出力してもよい。この場合の閾値(第1閾値)は、例えば、認知症高齢者の発話を検出できるように、その発話の大きさに応じて種々の値が設定されてもよい。 The information processing unit 103 may output a speech signal to the speaker 114a so as to output the baby's speech when the volume of the sound input by the microphone 113a is equal to or greater than a threshold (first threshold). The threshold value (first threshold value) in this case may be set to various values depending on the size of the utterance, for example, so that the utterance of the elderly person with dementia can be detected.

また、情報処理部103は、物理量センサ113bによって検出される物理量の大きさが閾値(第2閾値)以上の場合、赤ちゃんの発話を出力するよう発話信号をスピーカ114aに出力してもよい。この場合の閾値(第2閾値)は、例えば、認知症高齢者が赤ちゃん型対話ロボット1をあやす際などの物理量を検出できるように、物理量センサ113bによって検出する物理量(センサの検出内容)に応じて種々の値が設定されてもよい。 Further, the information processing unit 103 may output a speech signal to the speaker 114a to output the baby's speech when the magnitude of the physical quantity detected by the physical quantity sensor 113b is equal to or larger than a threshold (second threshold). In this case, the threshold value (second threshold value) is set according to the physical quantity detected by the physical quantity sensor 113b (sensor detection content) so that the physical quantity can be detected when, for example, an elderly person with dementia is cradling the baby-type interactive robot 1. Various values may be set.

情報処理部103は、マイク113aによって入力される音声を認識し、音声内容と、返答としての赤ちゃんの発話とを対応付けた対応情報(第1対応情報)に基づいて、音声の認識の結果に応じた赤ちゃんの発話を出力するよう発話信号をスピーカ114aに出力してもよい。
第1対応情報は、例えば、記憶部112等に記憶されていてもよい。第1対応情報は、例えば、複数の音声内容(マイク113aによって入力される音声の内容)と、複数の音声内容それぞれに応じた赤ちゃんの発話(入力に応じた対話の内容(返答内容))とを対応付けた情報であってもよい。具体的な一例として、第1対応情報は、認知症高齢者の発話(音声内容)として赤ちゃん型対話ロボット1に対する「かわいいね」の発話と、赤ちゃんの発話として喜ぶような笑い声とを対応付けた情報であってもよい。
情報処理部103は、例えば、マイク113aによって入力された音声を種々の方法により音声認識を行い、マイク113aによって入力された音声の内容(音声内容)を特定してもよい。情報処理部103は、例えば、第1対応情報を参照して、特定した音声内容に応じた赤ちゃんの発話を特定してもよい。この場合、情報処理部103は、例えば、音声認識した内容に、第1対応情報に記録される音声内容が含まれる場合、その音声内容に応じた赤ちゃんの発話を特定してもよい。さらに、情報処理部103は、上述した音声情報を参照し、特定した赤ちゃんの発話に応じた発話信号をスピーカ114aに出力してもよい。
なお、音声情報及び第1対応情報は、例えば、それぞれ別の情報であってもよく、それらを1つにまとめた情報であってもよい。
The information processing unit 103 recognizes the voice input by the microphone 113a, and based on the correspondence information (first correspondence information) that associates the voice content with the baby's utterance as a response, the information processing unit 103 converts the voice recognition result into a voice recognition result. A speech signal may be output to the speaker 114a so as to output the baby's speech in response.
The first correspondence information may be stored in the storage unit 112, for example. The first correspondence information includes, for example, a plurality of audio contents (the contents of the audio input by the microphone 113a), and the baby's utterances corresponding to each of the plurality of audio contents (the contents of the dialogue (response contents) according to the input). It may also be information that associates. As a specific example, the first correspondence information associates an utterance of "You're cute" to the baby-type conversational robot 1 as an utterance (audio content) of an elderly person with dementia, and a happy laugh as an utterance of a baby. It may be information.
The information processing unit 103 may, for example, perform voice recognition on the voice input through the microphone 113a using various methods, and identify the content of the voice input through the microphone 113a (voice content). The information processing unit 103 may, for example, refer to the first correspondence information to identify the baby's utterances according to the identified audio content. In this case, for example, if the voice recognition content includes the voice content recorded in the first correspondence information, the information processing unit 103 may identify the baby's utterance according to the voice content. Further, the information processing unit 103 may refer to the above-mentioned audio information and output a speech signal corresponding to the identified baby's speech to the speaker 114a.
Note that the audio information and the first correspondence information may be, for example, separate information, or may be information that is a combination of them.

情報処理部103は、赤ちゃん型対話ロボット1に加わる物理量と、認知症高齢者の関わり方とを学習した学習済モデルに基づいて、物理量センサ113bによって検出する物理量に応じた関わり方を推定し、推定した関わり方に応じた赤ちゃんの発話を出力するよう発話信号をスピーカ114aに出力してもよい。関わり方の一例は、認知症高齢者が赤ちゃん型対話ロボット1をあやしている、認知症高齢者が赤ちゃん型対話ロボット1のそばに居る、認知症高齢者が笑顔で赤ちゃん型対話ロボット1を見ている、及び、赤ちゃんを愛でている等を始めとする、認知症高齢者と赤ちゃん型対話ロボット1との関係であってもよい。
認知症高齢者が赤ちゃん型対話ロボット1をあやしていることは、例えば、加速度センサ、接触センサ、及び、角加速度センサ等による物理量の検出結果に応じて推定することが可能である。認知症高齢者が赤ちゃん型のそばに居ることは、例えば、距離センサ等による物理量の検出結果に応じて推定することが可能である。認知症高齢者が笑顔で赤ちゃん型対話ロボット1を見ていることは、例えば、カメラ装置等により撮像の結果に応じて推定することが可能である。認知症高齢者が赤ちゃんを愛でていることは、例えば、ドップラーセンサによる心拍性(例えば、人が落ち着いている際の心拍数等)の検出結果に応じて推定することが可能である。
学習済モデルは、例えば、学習装置(図示せず)等によって生成することが可能である。学習装置は、例えば、物理量と、関わり方とを学習することにより学習済モデルを生成することが可能である。
なお、学習済モデルは、例えば、物理量と、認知症高齢者の発話と、関わり方とを学習して生成されるモデル等であってもよい。
The information processing unit 103 estimates the interaction according to the physical quantity detected by the physical quantity sensor 113b, based on the learned model that has learned the physical quantities applied to the baby-like interactive robot 1 and the interaction with the elderly person with dementia. A speech signal may be output to the speaker 114a so as to output the baby's speech according to the estimated relationship. Examples of interactions include an elderly person with dementia cradling the baby-type conversational robot 1, an elderly person with dementia sitting next to the baby-type conversational robot 1, and an elderly person with dementia looking at the baby-type conversational robot 1 with a smile. The relationship between the elderly person with dementia and the baby-type interactive robot 1 may include the elderly person with dementia and the baby-like conversation robot 1, such as the elderly person with dementia and the baby being petted.
It can be estimated that the elderly person with dementia is cradling the baby-like interactive robot 1, based on the detection results of physical quantities by, for example, an acceleration sensor, a contact sensor, an angular acceleration sensor, or the like. It is possible to estimate whether the elderly person with dementia is near the baby type, for example, based on the detection result of a physical quantity by a distance sensor or the like. The fact that the elderly person with dementia is smiling and looking at the baby-type interactive robot 1 can be estimated based on the result of imaging using, for example, a camera device. It is possible to estimate that an elderly person with dementia is fondling a baby, for example, based on the detection result of heart rate (for example, heart rate when the person is calm) by a Doppler sensor.
The trained model can be generated by, for example, a learning device (not shown). The learning device can generate a learned model by learning, for example, physical quantities and how they relate.
Note that the learned model may be, for example, a model generated by learning physical quantities, utterances of an elderly person with dementia, and how to interact.

情報処理部103は、例えば、通信部111を介して、学習済モデルを取得してもよい。また、学習済モデルは、例えば、記憶部112に記憶されてもよい。この場合、情報処理部103は、記憶部112に記憶される学習済モデルを参照してもよい。
情報処理部103は、例えば、学習済モデルと、物理量センサ113bによって検出した物理量とに基づいて、その物理量に応じた認知症高齢者と赤ちゃん型対話ロボット1との関わり方を推定する。
The information processing unit 103 may acquire the learned model via the communication unit 111, for example. Further, the learned model may be stored in the storage unit 112, for example. In this case, the information processing unit 103 may refer to the trained model stored in the storage unit 112.
For example, based on the trained model and the physical quantity detected by the physical quantity sensor 113b, the information processing unit 103 estimates how the elderly person with dementia interacts with the baby-like interactive robot 1 according to the physical quantity.

情報処理部103は、例えば、推定した関わり方に応じた赤ちゃんの発話を特定する。この場合、情報処理部103は、例えば、記憶部112等に記憶される対応情報(第2対応情報)を参照して、推定した関わり方に応じた赤ちゃんの発話を特定してもよい。第2対応情報は、例えば、複数の関わり方の内容と、複数の関わり方の内容それぞれに応じた赤ちゃんの発話とを対応付けた情報であってもよい。具体的な一例として、第2対応情報は、認知症高齢者の関わり方として赤ちゃん型対話ロボット1をあやすような関わり方と、赤ちゃんの発話として喜ぶような笑い声とを対応付けた情報であってもよい。
情報処理部103は、例えば、第2対応情報を参照して、推定した赤ちゃんの関わり方に応じた赤ちゃんの発話を特定してもよい。さらに、情報処理部103は、上述した音声情報を参照し、特定した赤ちゃんの発話に応じた発話信号をスピーカ114aに出力してもよい。
なお、音声情報及び第2対応情報は、例えば、それぞれ別の情報であってもよく、それらを1つにまとめた情報であってもよい。
また、音声情報、第1対応情報及び第2対応情報は、例えば、それぞれ別の情報であってもよく、それらを1つにまとめた情報であってもよい。
また、第1対応情報及び第2対応情報は、例えば、それぞれ別の情報であってもよく、それらを1つにまとめた情報であってもよい。
For example, the information processing unit 103 identifies the baby's utterances according to the estimated manner of involvement. In this case, the information processing unit 103 may, for example, refer to correspondence information (second correspondence information) stored in the storage unit 112 or the like to identify the baby's utterances according to the estimated manner of involvement. The second correspondence information may be, for example, information that associates the contents of the plurality of ways of involvement with the baby's utterances corresponding to the contents of each of the plurality of ways of involvement. As a specific example, the second response information is information that associates a way of interacting with the elderly person with dementia, such as cradling the baby-type interactive robot 1, and a happy laugh as the baby's utterance. Good too.
The information processing unit 103 may, for example, refer to the second correspondence information and identify the baby's utterances according to the estimated baby's involvement. Further, the information processing unit 103 may refer to the above-mentioned audio information and output a speech signal corresponding to the identified baby's speech to the speaker 114a.
Note that the audio information and the second correspondence information may be, for example, separate information, or may be information that is a combination of them.
Further, the audio information, the first correspondence information, and the second correspondence information may be different pieces of information, or may be pieces of information that combine them into one piece of information, for example.
Further, the first correspondence information and the second correspondence information may be, for example, separate information, or may be information that is a combination of them.

情報処理部103は、赤ちゃんの発話としての第1発話の発話信号をスピーカ114aに出力した後、マイク113aによって認知症高齢者の発話を入力し、又は、物理量センサ113bによって物理量を検出すると、第1発話よりもポジティブな感情表現を示す発話としての第2発話の発話信号をスピーカ114aに出力してもよい。すなわち、情報処理部103は、赤ちゃん型対話ロボット1による第1発話の後(スピーカ114aから第1発話を出力した後)、さらに、マイク113aで発話を入力した場合、及び、物理量センサ113bで物理量を検出した場合のうち少なくとも一方の場合、第2発話をスピーカ114aから出力させる。第2発話は、第1発話よりもポジティブな感情表現を示す発話である。この場合、情報処理部103は、上述した5つのカテゴリ、又は、3つのカテゴリのうち、相対的に低いカテゴリの中から第1発話を選択してスピーカ114aから出力した後、上述した5つのカテゴリ又は3のカテゴリのうち第1発話よりもポジティブな感情表現となるカテゴリの中から第2発話を選択してスピーカ114aから出力してもよい。 After outputting the speech signal of the first utterance as the baby's utterance to the speaker 114a, the information processing unit 103 inputs the utterance of the elderly person with dementia through the microphone 113a or detects the physical quantity using the physical quantity sensor 113b. An utterance signal of a second utterance as an utterance indicating a more positive emotional expression than the first utterance may be output to the speaker 114a. That is, after the first utterance by the baby-like interactive robot 1 (after outputting the first utterance from the speaker 114a), when the utterance is further input through the microphone 113a, and when the physical quantity sensor 113b outputs the first utterance, the information processing unit 103 outputs the physical quantity In at least one of the cases where the second utterance is detected, the second utterance is output from the speaker 114a. The second utterance is an utterance that expresses a more positive emotion than the first utterance. In this case, the information processing unit 103 selects the first utterance from the above-mentioned five categories or a relatively low category among the three categories, outputs it from the speaker 114a, and then outputs the first utterance from the above-mentioned five categories. Alternatively, the second utterance may be selected from among the three categories that express a more positive emotion than the first utterance and output from the speaker 114a.

第1発話及び第2発話それぞれ(カテゴリ)は、例えば、第1対応情報及び第2対応情報それぞれの赤ちゃんの発話に設定されていてもよい。情報処理部103は、例えば、第1対応情報及び第2対応情報それぞれに設定される第1発話又は第2発話(第1発話設定又は第2発話設定)の違いに応じて、認知症高齢者の発話及び物理量センサ113bで検出される物理量の少なくとも一方に応じた第1発話及び第2発話をスピーカ114aから出力させてもよい。 Each of the first utterance and the second utterance (category) may be set to the baby's utterance of the first correspondence information and the second correspondence information, for example. For example, the information processing unit 103 determines whether the elderly with dementia The speaker 114a may output a first utterance and a second utterance according to at least one of the utterance and the physical quantity detected by the physical quantity sensor 113b.

一例として、情報処理部103は、ネガティブ、弱ネガティブ、ノーマル、弱ポジティブ及びポジティブの5つのカテゴリの感情表現を示す赤ちゃんの発話の中から選択した第1発話をスピーカ114aから出力し、その後、所定時間経過した後の、認知症高齢者の発話又は検出する物理量の少なくとも一方に応じて、上述した5つのカテゴリの感情表現を示す赤ちゃんの発話の中から選択した第2発話をスピーカ114aから出力してもよい。この場合、情報処理部103は、第2発話の感情表現を、第1発話の感情表現よりもポジティブなものにしてもよい。なお、上述した5つのカテゴリでは、例えば、ネガティブ、弱ネガティブ、ノーマル、弱ポジティブ及びポジティブの順に感情表現のポジティブ度が高くなる。
なお、感情表現は、上述した5のカテゴリに分類される感情表現に限定されず、例えば、ノーマル、弱ポジティブ及びポジティブの3つのカテゴリに分類される感情表現であってもよい。
As an example, the information processing unit 103 outputs, from the speaker 114a, a first utterance selected from the baby's utterances indicating emotional expressions in five categories: negative, weak negative, normal, weak positive, and positive, and then After a lapse of time, a second utterance selected from among the baby's utterances indicating emotional expressions in the five categories described above is output from the speaker 114a, depending on at least one of the utterance of the elderly person with dementia or the detected physical quantity. It's okay. In this case, the information processing unit 103 may make the emotional expression of the second utterance more positive than the emotional expression of the first utterance. In addition, in the five categories mentioned above, the positive degree of emotional expression increases in the order of negative, weak negative, normal, weak positive, and positive, for example.
Note that the emotional expression is not limited to the emotional expression classified into the five categories described above, but may be an emotional expression classified into three categories: normal, weak positive, and positive, for example.

又は、第1発話及び第2発話は、例えば、赤ちゃんの発話の周波数及び赤ちゃんの発話の大きさのうち少なくとも一方の違いであってもよい。この場合、第1発話は、例えば、赤ちゃんの発話の周波数が相対的に低く、又は、赤ちゃんの発話の大きさが相対的に小さいものであってもよい。また、第2発話は、例えば、赤ちゃんの発話の周波数が相対的に高く(第1発話の周波数<第2発話の周波数)、又は、赤ちゃんの発話の大きさが相対的に大きい(第1発話の大きさ<第2発話の大きさ)ものであってもよい。
この場合、発話信号には、例えば、第1発話及び第2発話の違いに応じて、赤ちゃんの発話の周波数及び大きさが設定されていてもよい。
Alternatively, the first utterance and the second utterance may be different in at least one of the frequency of the baby's utterance and the size of the baby's utterance, for example. In this case, the first utterance may be, for example, a baby's utterance with a relatively low frequency or a baby's utterance with a relatively small volume. In addition, the second utterance may have a relatively high frequency of the baby's utterance (frequency of the first utterance <frequency of the second utterance), or a relatively large size of the baby's utterance (the first utterance The size of the second utterance may be smaller than the size of the second utterance.
In this case, the frequency and loudness of the baby's speech may be set in the speech signal, for example, depending on the difference between the first speech and the second speech.

なお、上述した出力部114は、スピーカ114aに加えて振動部及び発光部(図示せず)等を備えていてもよい。振動部は、例えば、圧電素子又は回転する重り等を備え、信号を入力すると振動する。発光部は、例えば、光を出射する発光素子等を備え、信号を入力すると発光する。情報処理部103は、発話信号をスピーカ114aに出力するのに加えて、赤ちゃんの発話に応じて赤ちゃん型対話ロボット1が振動するような振動信号を振動部に出力してもよい。また、情報処理部103は、発話信号をスピーカ114aに出力するのに加えて、赤ちゃんの発話に応じて発光するような発光信号を発光部に出力してもよい。赤ちゃん型対話ロボット1は、認知症高齢者の発話及び検出する物理量の少なくとも一方に応じて、赤ちゃんの発話を行うと共に、振動及び発光のうち少なくとも一方を行ってもよい。 Note that the output section 114 described above may include a vibrating section, a light emitting section (not shown), etc. in addition to the speaker 114a. The vibrating section includes, for example, a piezoelectric element or a rotating weight, and vibrates when a signal is input. The light emitting section includes, for example, a light emitting element that emits light, and emits light when a signal is input. In addition to outputting the speech signal to the speaker 114a, the information processing section 103 may also output a vibration signal to the vibration section so that the baby-like interactive robot 1 vibrates in response to the baby's speech. Furthermore, in addition to outputting the speech signal to the speaker 114a, the information processing section 103 may output a light emission signal to the light emitting section that emits light in response to the baby's speech. The baby-type interactive robot 1 may perform baby utterances and at least one of vibration and light emission in response to at least one of the utterances of the elderly person with dementia and the detected physical quantity.

[赤ちゃん型対話方法]
次に、一実施形態に係る情報処理方法について説明する。
図3は、一実施形態に係る情報処理方法について説明するためのフローチャートである。
[Baby-style dialogue method]
Next, an information processing method according to an embodiment will be described.
FIG. 3 is a flowchart for explaining an information processing method according to an embodiment.

ステップST101において、入力部113は、マイク113aによって入力された認知症高齢者の発話、及び、物理量センサ113bによって検出される物理量のうち少なくとも一方の入力を受け付ける。 In step ST101, the input unit 113 receives input of at least one of the utterance of the elderly person with dementia input through the microphone 113a and the physical quantity detected by the physical quantity sensor 113b.

ステップST102において、情報処理部103は、ステップST101で入力される、認知症高齢者の発話及び物理量のうちの少なくとも一方に応じて、赤ちゃんの発話の発話を選択する。 In step ST102, the information processing unit 103 selects the utterance of the baby's utterance in accordance with at least one of the utterance of the elderly person with dementia and the physical quantity input in step ST101.

具体的には、まず取得部102は、例えば、ステップST101で入力された情報を取得する。すなわち、第1取得部102aは、例えば、マイク113aによって入力された認知症高齢者の発話を取得してもよい。第2取得部102bは、例えば、物理量センサ113bによって検出される物理量を取得してもよい。
情報処理部103は、取得部102によって取得する情報に応じて、赤ちゃんの発話を選択する。すなわち、情報処理部103は、第1取得部102aで取得する発話、及び、第2取得部102bで取得する物理量のうち少なくとも一方に応じて、赤ちゃんの発話を選択する。
Specifically, the acquisition unit 102 first acquires, for example, the information input in step ST101. That is, the first acquisition unit 102a may acquire, for example, the utterance of an elderly person with dementia input through the microphone 113a. The second acquisition unit 102b may acquire, for example, a physical quantity detected by the physical quantity sensor 113b.
The information processing unit 103 selects the baby's utterance according to the information acquired by the acquisition unit 102. That is, the information processing unit 103 selects the baby's utterance according to at least one of the utterance acquired by the first acquisition unit 102a and the physical quantity acquired by the second acquisition unit 102b.

この場合、情報処理部103は、記憶部112に記憶される赤ちゃんの発話について複数の種類のなかから1つを選択してもよい。複数の種類の一例は、ネガティブ、弱ネガティブ、ノーマル、弱ポジティブ及びポジティブ等の5つのカテゴリの感情表現であってもよい。又は、複数の種類の一例は、ノーマル、弱ポジティブ及びポジティブ等の3つのカテゴリの感情表現であってもよい。 In this case, the information processing unit 103 may select one of a plurality of types of baby's utterances stored in the storage unit 112. An example of the plurality of types may be five categories of emotional expressions, such as negative, weak negative, normal, weak positive, and positive. Alternatively, an example of the plurality of types may be three categories of emotional expressions, such as normal, weakly positive, and positive.

情報処理部103は、ステップST101におけるマイク113aに入力される音声の大きさが閾値(第1閾値)以上の場合、赤ちゃんの発話を選択してもよい。また、情報処理部103は、ステップST101における物理量センサ113bによって検出される物理量の大きさが閾値(第2閾値)以上の場合、赤ちゃんの発話を選択してもよい。 The information processing unit 103 may select the baby's utterance when the loudness of the voice input to the microphone 113a in step ST101 is equal to or greater than a threshold (first threshold). Further, the information processing unit 103 may select the baby's utterance when the magnitude of the physical quantity detected by the physical quantity sensor 113b in step ST101 is equal to or greater than a threshold (second threshold).

情報処理部103は、マイク113aに入力される音声を認識し、対応情報(第1対応情報)に基づいて、音声の認識の結果に応じた赤ちゃんの発話を選択してもよい。対応情報(第1対応情報)は、例えば、入力する音声内容と、返答としての赤ちゃんの発話とを対応付けた情報であってもよい。 The information processing unit 103 may recognize the voice input to the microphone 113a, and select the baby's utterance according to the result of voice recognition based on the correspondence information (first correspondence information). The correspondence information (first correspondence information) may be, for example, information that associates input audio content with the baby's utterance as a response.

情報処理部103は、学習済モデルに基づいて、物理量センサ113bによって検出される物理量に応じた関わり方を推定し、推定した関わり方に応じた赤ちゃんの発話を選択してもよい。学習済モデルは、例えば、赤ちゃん型対話ロボット1に加わる物理量と、認知症高齢者の関わり方とを学習したモデルであってもよい。 The information processing unit 103 may estimate the manner of involvement according to the physical quantity detected by the physical quantity sensor 113b based on the learned model, and select the baby's utterance according to the estimated manner of involvement. The learned model may be, for example, a model that has learned the physical quantities applied to the baby-like interactive robot 1 and how an elderly person with dementia interacts with the robot.

情報処理部103は、後述するステップST103で赤ちゃんの発話(第1発話)をスピーカ114aから出力した後、その後ステップST101に戻って認知症高齢者の発話及び物理量のうち少なくとも1つの入力を受け付ける場合、第1発話よりもポジティブな感情表現を示す発話(第2発話)を選択してもよい。 When the information processing unit 103 outputs the baby's utterance (first utterance) from the speaker 114a in step ST103, which will be described later, and then returns to step ST101 to receive input of at least one of the utterance of the elderly person with dementia and the physical quantity. , an utterance (second utterance) indicating a more positive emotional expression than the first utterance may be selected.

ステップST103において、情報処理部103は、ステップST102で選択した赤ちゃんの発話を出力する。すなわち、情報処理部103は、例えば、ステップST102で選択した赤ちゃんの発話に対応する発話信号をスピーカ114aに出力することにより、そのスピーカ114aから赤ちゃんの発話を出力するよう制御してもよい。
換言すると、情報処理部103は、ステップST102で取得部102が取得する発話及び物理量のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号をスピーカ114aに出力するよう制御する。
In step ST103, the information processing unit 103 outputs the baby's utterance selected in step ST102. That is, the information processing unit 103 may control the speaker 114a to output the baby's utterance by outputting the utterance signal corresponding to the baby's utterance selected in step ST102 to the speaker 114a, for example.
In other words, the information processing unit 103 controls the speaker 114a to output a speech signal to output the baby's speech, depending on at least one of the speech and the physical quantity acquired by the acquisition unit 102 in step ST102.

上述した赤ちゃん型対話ロボット1の各部は、コンピュータの演算処理装置等の機能として実現されてもよい。すなわち、赤ちゃん型対話ロボット1の取得部102(第1取得部102a及び第2取得部102b)及び情報処理部103(制御部101)は、コンピュータの演算処理装置等による取得機能(第1取得機能及び第2取得機能)及び情報処理機能(制御機能)としてそれぞれ実現されてもよい。
赤ちゃん型対話プログラムは、上述した各機能をコンピュータに実現させることができる。赤ちゃん型対話プログラムは、例えば、メモリ、ソリッドステートドライブ、ハードディスクドライブ又は光ディスク等の、コンピュータで読み取り可能な非一時的な記録媒体等に記録されていてもよい。記録媒体は、例えば、非一時的なコンピュータ可読媒体と言い換えてもよい。
また、上述したように、赤ちゃん型対話ロボット1の各部は、コンピュータの演算処理装置等で実現されてもよい。その演算処理装置等は、例えば、集積回路等によって構成される。このため、赤ちゃん型対話ロボット1の各部は、演算処理装置等を構成する回路として実現されてもよい。すなわち、赤ちゃん型対話ロボット1の取得部102(第1取得部102a及び第2取得部102b)及び情報処理部103(制御部101)は、コンピュータの演算処理装置等を構成する取得回路(第1取得回路及び第2取得回路)及び情報処理回路(制御回路)として実現されてもよい。
また、赤ちゃん型対話ロボット1の通信部111、記憶部112、入力部113及び出力部114は、例えば、演算処理装置等の機能を含む通信機能、記憶機能、入力機能及び出力機能として実現されもよい。また、赤ちゃん型対話ロボット1の通信部111、記憶部112、入力部113及び出力部114は、例えば、集積回路等によって構成されることにより通信回路、記憶回路、入力回路及び出力回路として実現されてもよい。また、赤ちゃん型対話ロボット1の通信部111、記憶部112、入力部113及び出力部114は、例えば、複数のデバイスによって構成されることにより通信装置、記憶装置、入力装置及び出力装置として構成されてもよい。
Each part of the baby-type interactive robot 1 described above may be realized as a function of a computer processing unit or the like. That is, the acquisition unit 102 (the first acquisition unit 102a and the second acquisition unit 102b) and the information processing unit 103 (control unit 101) of the baby-type interactive robot 1 perform an acquisition function (first acquisition function) by an arithmetic processing unit of a computer, etc. and a second acquisition function) and an information processing function (control function).
The baby-type dialogue program can cause a computer to realize each of the above-mentioned functions. The baby-type interactive program may be recorded on a computer-readable non-transitory recording medium, such as a memory, a solid state drive, a hard disk drive, or an optical disk. A recording medium may also be referred to as a non-transitory computer-readable medium, for example.
Further, as described above, each part of the baby-type interactive robot 1 may be realized by a computer processing unit or the like. The arithmetic processing device and the like are constituted by, for example, an integrated circuit or the like. Therefore, each part of the baby-type interactive robot 1 may be realized as a circuit that constitutes an arithmetic processing device or the like. That is, the acquisition unit 102 (the first acquisition unit 102a and the second acquisition unit 102b) and the information processing unit 103 (control unit 101) of the baby-type interactive robot 1 are connected to the acquisition circuit (the first It may be realized as an information processing circuit (an acquisition circuit and a second acquisition circuit) and an information processing circuit (a control circuit).
Furthermore, the communication unit 111, storage unit 112, input unit 113, and output unit 114 of the baby-type interactive robot 1 may be realized as a communication function, a storage function, an input function, and an output function, including functions such as an arithmetic processing unit, for example. good. Furthermore, the communication section 111, storage section 112, input section 113, and output section 114 of the baby-type interactive robot 1 are realized as a communication circuit, a storage circuit, an input circuit, and an output circuit by being configured with an integrated circuit, for example. It's okay. Furthermore, the communication unit 111, storage unit 112, input unit 113, and output unit 114 of the baby-type interactive robot 1 are configured as a communication device, a storage device, an input device, and an output device by being configured with a plurality of devices, for example. It's okay.

赤ちゃん型対話ロボット1は、上述した複数の各部のうち1又は任意の複数を組み合わせることが可能である。
本開示では、「情報」の文言を使用しているが、「情報」の文言は「データ」と言い換えることができ、「データ」の文言は「情報」と言い換えることができる。
The baby-type interactive robot 1 can combine one or any plurality of the plurality of parts described above.
Although the wording of "information" is used in this disclosure, the wording of "information" can be rephrased as "data" and the wording of "data" can be rephrased as "information."

[本実施形態の態様及び効果]
次に、本実施形態の一態様及び各態様が奏する効果について説明する。なお、以下に記載する各態様は出願時の一例であり、本実施形態は以下に記載する態様に限定されることはない。すなわち、本実施形態は以下に記載する各態様に限定されることはなく、上述した各部を適宜組み合わせて実現されてもよい。また、下位の態様は、それよりも上位の態様のいずれでも引用できる場合がある。
また、以下に記載する効果は一例であり、各態様が奏する効果は以下に記載するものに限定されることはない。また、各態様は、例えば、以下に記載する少なくとも1つの効果を奏してもよい。
[Aspects and effects of this embodiment]
Next, one aspect of this embodiment and the effects of each aspect will be described. Note that each aspect described below is an example at the time of filing, and the present embodiment is not limited to the aspects described below. That is, this embodiment is not limited to each aspect described below, and may be realized by appropriately combining each of the above-mentioned parts. Furthermore, a lower-level aspect may be cited by any higher-level aspect.
Further, the effects described below are just examples, and the effects achieved by each aspect are not limited to those described below. Moreover, each aspect may exhibit at least one effect described below, for example.

(態様1)
一態様の赤ちゃん型対話ロボット(一例として、認知症高齢者向けの赤ちゃん型対話ロボット等)は、顔のデザインが施されていない頭部と、頭部に接続する可動部の無い胴体部と、頭部及び胴体部のうちの少なくとも一方の内部に配される、音声を入力するマイク、及び、物理量を検出する1又は複数の物理量センサのうちの少なくとも1つを含む入力部と、内部に配される、音声を出力するスピーカを含む出力部と、内部に配され、マイクによって入力された認知症高齢者の発話、及び、物理量センサによって検出される物理量のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号をスピーカに出力する情報処理部と、胴体部に対して着脱可能に装着される衣服と、を備える。
赤ちゃん型対話ロボットは、赤ちゃんの形状とすることにより、認知症高齢者に受け入れやすくすることができ、例えば、動物型ロボット等に比べて認知症高齢者が積極的に関わるようにすることができる。また、赤ちゃん型対話ロボットは、顔のデザインが施されていないため、認知症高齢者が赤ちゃんの発話を「笑っている」及び「喜んでいる」等の自由な発想で表情を推定することができ、積極的に関わるようにすることができる。また、赤ちゃん型対話ロボットは、赤ちゃんの発話を行うため、認知症高齢者の情動を司る大脳辺縁系等に働きかけることができ、認知症高齢者に愛着を持ちやすくすることができる。これにより、赤ちゃん型対話ロボットは、認知症高齢者向けに相対的に長期間使用し続けることができる。
すなわち、赤ちゃん型対話ロボットは、例えば、ポジティブな感情表現を示す発話を行うことにより、認知症高齢者にポジティブな感情を抱かせることができる。よって、赤ちゃん型対話ロボットは、認知症高齢者向けに相対的に長期間使用し続けることができる。
そして、赤ちゃん型対話ロボットは、認知症高齢者にポジティブな感情を抱かせることにより、暴言、暴行及び徘徊といった問題行動、並びに、妄想及び意欲低減といった心理的な症状(BPSD:Behavioral and Psychological Symptoms of Dementia)の低減を図ることができる。
(Aspect 1)
One aspect of a baby-type conversational robot (for example, a baby-type conversational robot for elderly people with dementia) has a head without a face design, a body without a movable part connected to the head, an input unit including a microphone for inputting audio and at least one of one or more physical quantity sensors for detecting a physical quantity, disposed inside at least one of the head and the body; An output section including a speaker that outputs sound is arranged inside the device, and the baby's voice is output according to at least one of the utterances of the elderly person with dementia inputted by the microphone, and the physical quantity detected by the physical quantity sensor. The device includes an information processing unit that outputs a speech signal to a speaker so as to output speech, and clothing that is detachably attached to the torso.
By having a baby-shaped interactive robot, it can be more easily accepted by elderly people with dementia, and, for example, it can be more actively engaged with by elderly people with dementia than animal-type robots. . In addition, since the baby-type conversational robot does not have a face design, it is difficult for elderly people with dementia to estimate the baby's facial expressions based on their own ideas, such as "laughing" or "happy." You can actively participate in this process. In addition, since the baby-type conversational robot emits baby-like speech, it can act on the limbic system of the brain, which controls the emotions of elderly people with dementia, and can help them become attached to elderly people with dementia. This allows the baby-type interactive robot to continue to be used for a relatively long period of time for elderly people with dementia.
That is, the baby-like conversational robot can make elderly people with dementia feel positive emotions by, for example, making utterances that express positive emotions. Therefore, the baby-type interactive robot can continue to be used for a relatively long period of time for elderly people with dementia.
By making the elderly with dementia feel positive emotions, the baby-like conversational robot can help prevent problem behaviors such as verbal abuse, assault, and wandering, as well as behavioral and psychological symptoms of BPSD (BPSD) such as delusions and decreased motivation. Dementia) can be reduced.

(態様2)
一態様の赤ちゃん型対話ロボットでは、情報処理部は、マイクによって入力される音声の大きさが閾値以上の場合、赤ちゃんの発話を出力するよう発話信号をスピーカに出力することとしてもよい。
これにより、赤ちゃん型対話ロボットは、閾値に基づいて、認知症高齢者の発話と、周囲の環境音とを区別することができる。
(Aspect 2)
In one aspect of the baby-like interactive robot, the information processing unit may output a speech signal to the speaker so as to output the baby's speech when the volume of the sound input by the microphone is equal to or greater than a threshold value.
This allows the baby-like conversation robot to distinguish between the speech of an elderly person with dementia and the surrounding environmental sounds based on the threshold value.

(態様3)
一態様の赤ちゃん型対話ロボットでは、情報処理部は、物理量センサによって検出される物理量の大きさが閾値以上の場合、赤ちゃんの発話を出力するよう発話信号をスピーカに出力することとしてもよい。
これにより、赤ちゃん型対話ロボットは、閾値に基づいて、例えば、認知症高齢者による赤ちゃん型対話ロボットのあやしと、周囲の環境に基づく物理量(例えば、雑音等)とを区別することができる。
(Aspect 3)
In one embodiment of the baby-like interactive robot, the information processing unit may output a speech signal to the speaker so as to output the baby's speech when the magnitude of the physical quantity detected by the physical quantity sensor is equal to or greater than a threshold value.
Thereby, the baby-like interactive robot can distinguish, for example, between the baby-like interactive robot being cradled by an elderly person with dementia and physical quantities based on the surrounding environment (such as noise), based on the threshold value.

(態様4)
一態様の赤ちゃん型対話ロボットでは、情報処理部は、マイクによって入力される音声を認識し、音声内容と、返答としての赤ちゃんの発話とを対応付けた対応情報に基づいて、音声の認識の結果に応じた赤ちゃんの発話を出力するよう発話信号をスピーカに出力することとしてもよい。
すなわち、赤ちゃん型対話ロボットは、対応情報に基づいて、複数の赤ちゃんの発話のうち、認知症高齢者の発話に応じた赤ちゃんの発話をスピーカから出力する。これにより、赤ちゃん型対話ロボットは、認知症高齢者による赤ちゃん型対話ロボットに対する感情表現に応じた返答(赤ちゃんの発話)を行うので、認知症高齢者にポジティブな感情を抱かせることができ、認知症高齢者向けに相対的に長期間使用し続けることができる。
(Aspect 4)
In one embodiment of the baby-type conversational robot, the information processing unit recognizes the voice input through the microphone, and based on the correspondence information that associates the voice content with the baby's utterance as a response, the information processing unit determines the voice recognition result. A speech signal may be output to a speaker so as to output the baby's speech according to the baby's speech.
That is, based on the correspondence information, the baby-like conversational robot outputs, from the speaker, the baby's utterance that corresponds to the utterance of the elderly person with dementia among the utterances of the plurality of babies. As a result, the baby-type conversational robot responds (baby's utterances) according to the emotional expression of the elderly person with dementia to the baby-type conversational robot, so it is possible to make the elderly person with dementia feel positive emotions and recognize It can be used for a relatively long period of time for elderly people.

(態様5)
一態様の赤ちゃん型対話ロボットでは、情報処理部は、赤ちゃん型対話ロボットに加わる物理量と、認知症高齢者の関わり方とを学習した学習済モデルに基づいて、物理量センサによって検出する物理量に応じた関わり方を推定し、推定した関わり方に応じた赤ちゃんの発話を出力するよう発話信号をスピーカに出力することとしてもよい。
すなわち、赤ちゃん型対話ロボットは、学習済モデルに基づいて、複数の赤ちゃんの発話のうち、認知症高齢者による赤ちゃんへの感情表現に応じた赤ちゃんの発話をスピーカから出力する。これにより、赤ちゃん型対話ロボットは、認知症高齢者による赤ちゃん型対話ロボットへの感情表現に応じた赤ちゃんの発話を行うので、認知症高齢者にポジティブな感情を抱かせることができ、認知症高齢者向けに相対的に長期間使用し続けることができる。
(Aspect 5)
In one aspect of the baby-type conversational robot, the information processing unit is configured to perform processing according to the physical quantities detected by the physical quantity sensor, based on a trained model that has learned the physical quantities applied to the baby-type conversational robot and how an elderly person with dementia interacts with the baby-type conversational robot. The manner of involvement may be estimated and a speech signal may be output to a speaker so as to output the baby's utterances in accordance with the estimated manner of involvement.
That is, based on the learned model, the baby-like conversational robot outputs, from the speaker, a baby's utterance that corresponds to the emotional expression toward the baby by the elderly person with dementia, among the utterances of a plurality of babies. As a result, the baby-type conversational robot makes utterances that correspond to the emotional expressions expressed to the baby-type conversational robot by the elderly with dementia, making it possible to make the elderly with dementia feel positive emotions. It can be used for a relatively long period of time.

(態様6)
一態様の赤ちゃん型対話ロボットは、赤ちゃんの発話について複数の種類を記憶する記憶部を備え、情報処理部は、記憶部に記憶される赤ちゃんの発話について複数の種類のなかから1つを選択し、選択した赤ちゃんの発話についての発話信号をスピーカに出力することとしてもよい。
これにより、赤ちゃん型対話ロボットは、自機に対する認知症高齢者の感情表現に応じた返答(赤ちゃんの発話)を行うことができる。
(Aspect 6)
In one embodiment, a baby-type conversational robot includes a storage unit that stores a plurality of types of baby's utterances, and the information processing unit selects one of the plurality of types of baby's utterances to be stored in the storage unit. , a speech signal regarding the selected baby's speech may be output to the speaker.
As a result, the baby-like interactive robot can respond (baby's utterances) according to the emotional expression of the elderly person with dementia.

(態様7)
一態様の赤ちゃん型対話ロボットでは、記憶部に記憶される複数の種類の赤ちゃんの発話は、ポジティブな感情表現を示す発話であることとしてもよい。
これにより、赤ちゃん型対話ロボットは、認知症高齢者にポジティブな感情を抱かせることができる。
(Aspect 7)
In one embodiment of the baby-like interactive robot, the plurality of types of baby utterances stored in the storage unit may be utterances indicating positive emotional expressions.
This allows the baby-like conversational robot to evoke positive emotions in elderly people with dementia.

(態様8)
一態様の赤ちゃん型対話ロボットでは、情報処理部は、赤ちゃんの発話としての第1発話の発話信号をスピーカに出力した後、マイクによって認知症高齢者の発話を入力し、又は、物理量センサによって物理量を検出すると、第1発話よりもポジティブな感情表現を示す発話としての第2発話の発話信号をスピーカに出力することとしてもよい。
これにより、赤ちゃん型対話ロボットは、認知症高齢者によりポジティブな感情を抱かせることができる。
(Aspect 8)
In one aspect of the baby-type conversational robot, the information processing unit outputs the speech signal of the first utterance as the baby's utterance to the speaker, and then inputs the utterance of the elderly person with dementia through the microphone, or inputs the utterance of the elderly person with dementia using the physical quantity sensor. When detected, a speech signal of a second utterance as a utterance indicating a more positive emotional expression than the first utterance may be output to the speaker.
This allows the baby-like conversational robot to evoke more positive emotions in elderly people with dementia.

(態様9)
一態様の赤ちゃん型対話ロボットでは、記憶部に記憶されるポジティブな感情表現を示す赤ちゃんの発話は、可愛らしい笑い声であることとしてもよい。
これにより、赤ちゃん型対話ロボットは、認知症高齢者にポジティブな感情を抱かせることができる。
(Aspect 9)
In one aspect of the baby-like interactive robot, the baby's utterance that indicates a positive emotional expression and is stored in the storage unit may be a cute laugh.
This allows the baby-like conversational robot to evoke positive emotions in elderly people with dementia.

(態様10)
一態様の赤ちゃん型対話ロボットでは、記憶部に記憶される複数の種類の赤ちゃんの発話は、ノーマル及びネガティブのうち少なくとも一方の感情表現を示す発話であることとしてもよい。
これにより、赤ちゃん型対話ロボットは、認知症高齢者による赤ちゃん型対話ロボットへの感情表現に応じた赤ちゃんの発話を行うことができる。
(Aspect 10)
In one aspect of the baby-like interactive robot, the plurality of types of baby utterances stored in the storage unit may be utterances indicating at least one of normal and negative emotional expressions.
As a result, the baby-type conversational robot can perform baby utterances in accordance with the emotional expressions expressed to the baby-type conversational robot by the elderly person with dementia.

(態様11)
一態様の赤ちゃん型対話ロボットは、物理量センサには、認知症高齢者を撮像することが可能なカメラ装置が含まれることとしてもよい。
これにより、赤ちゃん型対話ロボットは、カメラ装置で生成される画像情報に基づいて、認知症高齢者により赤ちゃん型対話ロボットへの感情表現を取得することができる。
(Aspect 11)
In one aspect of the baby-type interactive robot, the physical quantity sensor may include a camera device capable of capturing an image of an elderly person with dementia.
Thereby, the baby-type conversational robot can acquire emotional expressions to the baby-type conversational robot by the elderly person with dementia based on the image information generated by the camera device.

(態様12)
一態様の赤ちゃん型対話方法(一例として、認知症高齢者向けの赤ちゃん型対話方法等)では、顔のデザインが施されていない頭部と、頭部に接続する可動部の無い胴体部と、頭部及び胴体部のうちの少なくとも一方の内部に配される、物理量を検出する1又は複数の物理量センサ、及び、音声を入力するマイクのうちの少なくとも1つを含む入力部と、スピーカを含む出力部と、胴体部に対して着脱可能に装着される衣服と、を備える認知症高齢者向けの赤ちゃん型対話ロボットが、
マイクによって入力された認知症高齢者の発話を取得する第1取得ステップと、物理量センサによって検出される物理量を取得する第2取得ステップと、第1取得ステップで取得する発話、及び、第2取得ステップで取得する物理量のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号をスピーカに出力する出力制御ステップと、を実行する。
これにより、赤ちゃん型対話方法は、上述した一態様の赤ちゃん型対話ロボットと同様の効果を奏してもよい。
(Aspect 12)
In one aspect of a baby-type interaction method (for example, a baby-type interaction method for elderly people with dementia), a head without a face design, a torso without a movable part connected to the head, An input unit including at least one of one or more physical quantity sensors for detecting a physical quantity and a microphone for inputting audio, which is disposed inside at least one of the head and the body, and a speaker. A baby-type conversational robot for elderly people with dementia, which is equipped with an output unit and clothes that can be attached to the torso in a removable manner.
A first acquisition step of acquiring the utterance of an elderly person with dementia inputted by a microphone, a second acquisition step of acquiring a physical quantity detected by a physical quantity sensor, the utterance acquired in the first acquisition step, and the second acquisition and an output control step of outputting a speech signal to a speaker so as to output the baby's speech according to at least one of the physical quantities acquired in the step.
Thereby, the baby-type conversation method may produce the same effects as the baby-type conversation robot of one embodiment described above.

(態様13)
一態様の赤ちゃん型対話プログラム(一例として、認知症高齢者向けの赤ちゃん型対話プログラム等)は、顔のデザインが施されていない頭部と、頭部に接続する可動部の無い胴体部と、頭部及び胴体部のうちの少なくとも一方の内部に配される、物理量を検出する1又は複数の物理量センサ、及び、音声を入力するマイクのうちの少なくとも1つを含む入力部と、スピーカを含む出力部と、胴体部に対して着脱可能に装着される衣服と、を備える認知症高齢者向けの赤ちゃん型対話ロボットに、マイクによって入力された認知症高齢者の発話を取得する第1取得機能と、物理量センサによって検出される物理量を取得する第2取得機能と、第1取得機能で取得する発話、及び、第2取得機能で取得する物理量のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号をスピーカに出力する出力制御機能と、を実現させる。
これにより、赤ちゃん型対話プログラムは、上述した一態様の赤ちゃん型対話ロボットと同様の効果を奏してもよい。
(Aspect 13)
One aspect of a baby-shaped dialogue program (for example, a baby-shaped dialogue program for elderly people with dementia) includes a head without a face design, a torso with no movable parts connected to the head, An input unit including at least one of one or more physical quantity sensors for detecting a physical quantity and a microphone for inputting audio, which is disposed inside at least one of the head and the body, and a speaker. A first acquisition function that acquires the utterances of an elderly person with dementia input through a microphone to a baby-type conversation robot for elderly people with dementia that includes an output unit and clothing that is removably attached to the body. and a second acquisition function that acquires the physical quantity detected by the physical quantity sensor, and outputs the baby's utterance according to at least one of the utterance acquired by the first acquisition function, and the physical quantity acquired by the second acquisition function. and an output control function that outputs a speech signal to a speaker so as to achieve the desired result.
Thereby, the baby-type conversation program may produce the same effects as the baby-type conversation robot of one embodiment described above.

1 赤ちゃん型対話ロボット
11 頭部
12 胴体部
13 衣服
101 制御部
102 取得部
102a 第1取得部
102b 第2取得部
103 情報処理部
111 通信部
112 記憶部
113 入力部
113a マイク
113b 物理量センサ
114 出力部
114a スピーカ
1 Baby type interactive robot 11 Head 12 Body part 13 Clothes 101 Control part 102 Acquisition part 102a First acquisition part 102b Second acquisition part 103 Information processing part 111 Communication part 112 Storage part 113 Input part 113a Microphone 113b Physical quantity sensor 114 Output part 114a speaker

Claims (13)

顔のデザインが施されていない頭部と、
前記頭部に接続する可動部の無い胴体部と、
前記頭部及び前記胴体部のうちの少なくとも一方の内部に配される、音声を入力するマイク、及び、物理量を検出する1又は複数の物理量センサのうちの少なくとも1つを含む入力部と、
前記内部に配される、音声を出力するスピーカを含む出力部と、
前記内部に配され、前記マイクによって入力された認知症高齢者の発話、及び、前記物理量センサによって検出される物理量のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号を前記スピーカに出力する情報処理部と、
前記胴体部に対して着脱可能に装着される衣服と、
を備える認知症高齢者向けの赤ちゃん型対話ロボット。
A head without a face design,
a body part without a movable part connected to the head;
an input unit that is disposed inside at least one of the head and the body and includes a microphone that inputs audio, and at least one of one or more physical quantity sensors that detect a physical quantity;
an output unit disposed inside the interior and including a speaker that outputs audio;
A speech signal is sent to the speaker so as to output the baby's speech in response to at least one of the speech of the elderly person with dementia inputted by the microphone arranged inside the interior and the physical quantity detected by the physical quantity sensor. an information processing unit that outputs;
Clothing that is removably attached to the torso;
A baby-shaped conversational robot for elderly people with dementia.
前記情報処理部は、前記マイクによって入力される音声の大きさが閾値以上の場合、赤ちゃんの発話を出力するよう発話信号を前記スピーカに出力する
請求項1に記載の赤ちゃん型対話ロボット。
The baby-type interactive robot according to claim 1, wherein the information processing unit outputs a speech signal to the speaker so as to output the baby's speech when the volume of the sound input by the microphone is equal to or greater than a threshold value.
前記情報処理部は、前記物理量センサによって検出される物理量の大きさが閾値以上の場合、赤ちゃんの発話を出力するよう発話信号を前記スピーカに出力する
請求項2に記載の赤ちゃん型対話ロボット。
The baby-type interactive robot according to claim 2, wherein the information processing section outputs a speech signal to the speaker so as to output the baby's speech when the magnitude of the physical quantity detected by the physical quantity sensor is equal to or larger than a threshold value.
前記情報処理部は、前記マイクによって入力される音声を認識し、音声内容と、返答としての赤ちゃんの発話とを対応付けた対応情報に基づいて、音声の認識の結果に応じた赤ちゃんの発話を出力するよう発話信号を前記スピーカに出力する
請求項1に記載の赤ちゃん型対話ロボット。
The information processing unit recognizes the voice input by the microphone, and based on correspondence information that associates the voice content with the baby's utterance as a response, generates the baby's utterance according to the result of voice recognition. The baby-type interactive robot according to claim 1, wherein a speech signal is output to the speaker for output.
前記情報処理部は、赤ちゃん型対話ロボットに加わる物理量と、認知症高齢者の関わり方とを学習した学習済モデルに基づいて、前記物理量センサによって検出する物理量に応じた関わり方を推定し、推定した関わり方に応じた赤ちゃんの発話を出力するよう発話信号を前記スピーカに出力する
請求項4に記載の赤ちゃん型対話ロボット。
The information processing unit estimates, based on a trained model that has learned the physical quantities applied to the baby-like interactive robot and the manner in which the elderly person with dementia interacts, the manner in which the elderly person with dementia interacts according to the physical quantity detected by the physical quantity sensor. 5. The baby-type interactive robot according to claim 4, wherein a speech signal is output to the speaker so as to output speech of the baby according to the baby's interaction.
赤ちゃんの発話について複数の種類を記憶する記憶部を備え、
前記情報処理部は、前記記憶部に記憶される赤ちゃんの発話について複数の種類のなかから1つを選択し、選択した赤ちゃんの発話についての発話信号を前記スピーカに出力する
請求項1~5のいずれか1項に記載の赤ちゃん型対話ロボット。
Equipped with a memory unit that stores multiple types of baby utterances,
The information processing unit selects one of a plurality of types of baby's utterances stored in the storage unit, and outputs a utterance signal regarding the selected baby's utterance to the speaker. The baby-type interactive robot according to any one of the items.
前記記憶部に記憶される複数の種類の赤ちゃんの発話は、ポジティブな感情表現を示す発話である
請求項6に記載の赤ちゃん型対話ロボット。
The baby-like interactive robot according to claim 6, wherein the plurality of types of baby utterances stored in the storage unit are utterances indicating positive emotional expressions.
前記情報処理部は、赤ちゃんの発話としての第1発話の発話信号を前記スピーカに出力した後、前記マイクによって認知症高齢者の発話を入力し、又は、前記物理量センサによって物理量を検出すると、第1発話よりもポジティブな感情表現を示す発話としての第2発話の発話信号を前記スピーカに出力する
請求項7に記載の赤ちゃん型対話ロボット。
The information processing unit outputs a speech signal of a first utterance as the baby's utterance to the speaker, and then inputs the speech of an elderly person with dementia through the microphone or detects a physical quantity using the physical quantity sensor. The baby-type interactive robot according to claim 7, wherein a speech signal of a second utterance, which is an utterance indicating a more positive emotional expression than the first utterance, is output to the speaker.
前記記憶部に記憶されるポジティブな感情表現を示す赤ちゃんの発話は、可愛らしい笑い声である
請求項8に記載の赤ちゃん型対話ロボット。
9. The baby-type interactive robot according to claim 8, wherein the baby's utterance indicating a positive emotional expression stored in the storage unit is a cute laugh.
前記記憶部に記憶される複数の種類の赤ちゃんの発話は、ノーマル及びネガティブのうち少なくとも一方の感情表現を示す発話である
請求項9に記載の赤ちゃん型対話ロボット。
The baby-like interactive robot according to claim 9, wherein the plurality of types of baby utterances stored in the storage unit are utterances indicating at least one of normal and negative emotional expressions.
前記物理量センサには、認知症高齢者を撮像することが可能なカメラ装置が含まれる
請求項10に記載の赤ちゃん型対話ロボット。
The baby-type interactive robot according to claim 10, wherein the physical quantity sensor includes a camera device capable of capturing an image of an elderly person with dementia.
顔のデザインが施されていない頭部と、
前記頭部に接続する可動部の無い胴体部と、
前記頭部及び前記胴体部のうちの少なくとも一方の内部に配される、物理量を検出する1又は複数の物理量センサ、及び、音声を入力するマイクのうちの少なくとも1つを含む入力部と、
スピーカを含む出力部と、
前記胴体部に対して着脱可能に装着される衣服と、
を備える認知症高齢者向けの赤ちゃん型対話ロボットが、
前記マイクによって入力された認知症高齢者の発話を取得する第1取得ステップと、
前記物理量センサによって検出される物理量を取得する第2取得ステップと、
前記第1取得ステップで取得する発話、及び、前記第2取得ステップで取得する物理量のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号を前記スピーカに出力する出力制御ステップと、
を実行する認知症高齢者向けの対話方法。
A head without a face design,
a body part without a movable part connected to the head;
an input unit that includes at least one of one or more physical quantity sensors that detect a physical quantity and a microphone that inputs audio, the input unit being disposed inside at least one of the head and the body;
an output section including a speaker;
Clothing that is removably attached to the torso;
A baby-shaped conversational robot for elderly people with dementia that is equipped with
a first acquisition step of acquiring the utterances of the elderly person with dementia input by the microphone;
a second acquisition step of acquiring a physical quantity detected by the physical quantity sensor;
an output control step of outputting a speech signal to the speaker so as to output the baby's speech according to at least one of the speech obtained in the first acquisition step and the physical quantity obtained in the second acquisition step;
Dialogue methods for elderly people with dementia.
顔のデザインが施されていない頭部と、
前記頭部に接続する可動部の無い胴体部と、
前記頭部及び前記胴体部のうちの少なくとも一方の内部に配される、物理量を検出する1又は複数の物理量センサ、及び、音声を入力するマイクのうちの少なくとも1つを含む入力部と、
スピーカを含む出力部と、
前記胴体部に対して着脱可能に装着される衣服と、
を備える認知症高齢者向けの赤ちゃん型対話ロボットに、
前記マイクによって入力された認知症高齢者の発話を取得する第1取得機能と、
前記物理量センサによって検出される物理量を取得する第2取得機能と、
前記第1取得機能で取得する発話、及び、前記第2取得機能で取得する物理量のうち少なくとも一方に応じて、赤ちゃんの発話を出力するよう発話信号を前記スピーカに出力する出力制御機能と、
を実現させる認知症高齢者向けの対話プログラム。
A head without a face design,
a body part without a movable part connected to the head;
an input unit that includes at least one of one or more physical quantity sensors that detect a physical quantity and a microphone that inputs audio, the input unit being disposed inside at least one of the head and the body;
an output section including a speaker;
Clothing that is removably attached to the torso;
A baby-shaped conversational robot for elderly people with dementia, equipped with
a first acquisition function that acquires the utterances of an elderly person with dementia input by the microphone;
a second acquisition function that acquires a physical quantity detected by the physical quantity sensor;
an output control function that outputs a speech signal to the speaker so as to output the baby's speech according to at least one of the speech acquired by the first acquisition function and the physical quantity acquired by the second acquisition function;
A dialogue program for elderly people with dementia that realizes this.
JP2022074604A 2022-04-28 2022-04-28 Baby type dialogue robot, baby type dialogue method and baby type dialogue program Active JP7169029B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022074604A JP7169029B1 (en) 2022-04-28 2022-04-28 Baby type dialogue robot, baby type dialogue method and baby type dialogue program
JP2022169167A JP2023164249A (en) 2022-04-28 2022-10-21 Baby-type interactive robot, baby-type interactive method and baby-type interactive program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022074604A JP7169029B1 (en) 2022-04-28 2022-04-28 Baby type dialogue robot, baby type dialogue method and baby type dialogue program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022169167A Division JP2023164249A (en) 2022-04-28 2022-10-21 Baby-type interactive robot, baby-type interactive method and baby-type interactive program

Publications (2)

Publication Number Publication Date
JP7169029B1 JP7169029B1 (en) 2022-11-10
JP2023163600A true JP2023163600A (en) 2023-11-10

Family

ID=83995297

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022074604A Active JP7169029B1 (en) 2022-04-28 2022-04-28 Baby type dialogue robot, baby type dialogue method and baby type dialogue program
JP2022169167A Pending JP2023164249A (en) 2022-04-28 2022-10-21 Baby-type interactive robot, baby-type interactive method and baby-type interactive program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022169167A Pending JP2023164249A (en) 2022-04-28 2022-10-21 Baby-type interactive robot, baby-type interactive method and baby-type interactive program

Country Status (1)

Country Link
JP (2) JP7169029B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080176481A1 (en) * 2007-01-12 2008-07-24 Laura Zebersky Interactive Doll
JP2012220783A (en) * 2011-04-11 2012-11-12 Togo Seisakusho Corp Robot device for care recipient
US20160346917A1 (en) * 2015-05-29 2016-12-01 Hon Hai Precision Industry Co., Ltd. Interactive robot responding to human physical touches in manner of baby
JP2018143639A (en) * 2017-03-08 2018-09-20 株式会社Soken User state prospecting apparatus with interaction and method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11122651A (en) * 1997-10-09 1999-04-30 Mobile Komu Tokyo:Kk Electronic device
JP2009297892A (en) * 2000-09-19 2009-12-24 Toyota Motor Corp Robot mounted on movable body and movable body mounted with the same
JP6023955B2 (en) * 2012-03-27 2016-11-09 株式会社国際電気通信基礎技術研究所 COMMUNICATION SYSTEM, COMMUNICATION DEVICE, PROGRAM, AND COMMUNICATION CONTROL METHOD

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080176481A1 (en) * 2007-01-12 2008-07-24 Laura Zebersky Interactive Doll
JP2012220783A (en) * 2011-04-11 2012-11-12 Togo Seisakusho Corp Robot device for care recipient
US20160346917A1 (en) * 2015-05-29 2016-12-01 Hon Hai Precision Industry Co., Ltd. Interactive robot responding to human physical touches in manner of baby
JP2018143639A (en) * 2017-03-08 2018-09-20 株式会社Soken User state prospecting apparatus with interaction and method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
住岡英信(外2名): "介護施設への赤ちゃん型ロボットの継続的導入に向けた予備的調査", 第39回日本ロボット学会学術講演会, JPN6022030848, 11 September 2021 (2021-09-11), ISSN: 0004835569 *

Also Published As

Publication number Publication date
JP7169029B1 (en) 2022-11-10
JP2023164249A (en) 2023-11-10

Similar Documents

Publication Publication Date Title
CN110900617B (en) Robot and method for operating the same
JP6505748B2 (en) Method for performing multi-mode conversation between humanoid robot and user, computer program implementing said method and humanoid robot
CN108573695B (en) Speech processing device and method, robot, and computer-readable recording medium
EP3623118B1 (en) Emotion recognizer, robot including the same, and server including the same
JP6818280B2 (en) Dialogue system, dialogue method, dialogue device, and program
WO2016068262A1 (en) Communication robot
CN108363492A (en) A kind of man-machine interaction method and interactive robot
WO2021135812A1 (en) Method and apparatus for processing emotion information
JP2004310034A (en) Interactive agent system
KR20200034038A (en) Robot and method for operating the same
KR100894569B1 (en) Humanized doll with adaptive function
JP6900058B2 (en) Personal assistant control system
US20220241985A1 (en) Systems and methods to manage conversation interactions between a user and a robot computing device or conversation agent
JP2023164249A (en) Baby-type interactive robot, baby-type interactive method and baby-type interactive program
WO2020116356A1 (en) Robot, speech synthesis program, and speech output method
JP2018176384A (en) Interaction device, interaction method, interaction program, and robot
JP7435641B2 (en) Control device, robot, control method and program
JP2018175627A (en) Interaction device, interaction method, interaction program, and robot
JP6977445B2 (en) Dialogue device, dialogue method and program
JP5602753B2 (en) A toy showing nostalgic behavior
JP6900089B2 (en) Personal assistant control system
Naeem et al. An AI based Voice Controlled Humanoid Robot
Toscano Socially assistive robot in smart spaces for ambient assisted living
JP2022097269A (en) Information processing device, information processing method, and information processing program
JP2019207286A (en) Behavior inducement support system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221021

R150 Certificate of patent or registration of utility model

Ref document number: 7169029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150