JP6900089B2 - Personal assistant control system - Google Patents

Personal assistant control system Download PDF

Info

Publication number
JP6900089B2
JP6900089B2 JP2020186217A JP2020186217A JP6900089B2 JP 6900089 B2 JP6900089 B2 JP 6900089B2 JP 2020186217 A JP2020186217 A JP 2020186217A JP 2020186217 A JP2020186217 A JP 2020186217A JP 6900089 B2 JP6900089 B2 JP 6900089B2
Authority
JP
Japan
Prior art keywords
period
user
sensor
personal assistant
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020186217A
Other languages
Japanese (ja)
Other versions
JP2021049347A (en
Inventor
康裕 川内
康裕 川内
中村 珠幾
珠幾 中村
理 遠山
理 遠山
貴裕 井上
貴裕 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Living Robot Inc
Original Assignee
Living Robot Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019139331A external-priority patent/JP6900058B2/en
Application filed by Living Robot Inc filed Critical Living Robot Inc
Priority to JP2020186217A priority Critical patent/JP6900089B2/en
Publication of JP2021049347A publication Critical patent/JP2021049347A/en
Application granted granted Critical
Publication of JP6900089B2 publication Critical patent/JP6900089B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボット等のパーソナルアシスタントを制御するパーソナルアシスタント制御システムに関し、特に人の成長に合わせて適切なサービスを提供するパーソナルアシスタント制御システムに関する。 The present invention relates to a personal assistant control system that controls a personal assistant such as a robot, and more particularly to a personal assistant control system that provides an appropriate service according to the growth of a person.

これまでロボットは、主に生産の自動化等を目的としたいわゆる産業用ロボットが大半を占めていたが、昨今では受付/接客、製品紹介等といった不特定多数の人とのコミュニケーションを行うロボットが社会に導入され始めている。今後ロボットは、個人によって所有され、当該個人に対して適切なサービスを提供するために、パーソナルアシスタントとしての機能が強化されていくと考えられ、現在においては幼児向けや高齢者向けの見守りロボットの開発が進められている。 Until now, most robots have been so-called industrial robots mainly for the purpose of automation of production, but nowadays, robots that communicate with an unspecified number of people such as reception / customer service and product introduction are becoming a society. Has begun to be introduced in. In the future, robots will be owned by individuals, and it is thought that their functions as personal assistants will be strengthened in order to provide appropriate services to those individuals. Development is in progress.

幼児向けの見守りロボットとして、例えばスマートフォン等を持たない小さな子ども(幼児)向けに親子間、友人間の音声チャットを実現するコミュニケーションロボットが知られている。他方、高齢者向けの見守りロボットについては、経済産業省と厚生労働省とが、ロボット技術の介護利用における重点分野として「見守り・コミュニケーション」を掲げ、具体的には重点分野として「介護施設において使用する、センサや外部通信機能を備えたロボット技術を用いた機器のプラットフォーム」、「高齢者等とのコミュニケーションにロボット技術を用いた生活支援機器」が挙げられている。 As a watching robot for infants, for example, a communication robot that realizes voice chat between parents and children and friends for small children (infants) who do not have a smartphone or the like is known. On the other hand, regarding watching robots for the elderly, the Ministry of Economy, Trade and Industry and the Ministry of Health, Labor and Welfare have set "watching and communication" as a priority field in the use of robot technology for long-term care, and specifically, "use in nursing care facilities" as a priority field. , "Platform of equipment using robot technology equipped with sensors and external communication functions", "Life support equipment using robot technology for communication with elderly people, etc."

従来の見守り機器が単に見守り対象の状態を検知・通知するものであったのに対し、見守りロボットは見守り対象の状態を検知してアラートを通知するのみならず、見守り対象の状態を予測する点や、アラート発生時の状況を分析できるようになった点で改良されており、また見守りロボットをネットワークに接続することで、見守りと同時に見守り対象の行動や生活データを蓄積し、そのデータを活用することで、例えば高齢者向けの見守りにおいては、ケアプランの改善や介護の質の向上にも繋げることができるとされている。 Whereas conventional watching devices simply detect and notify the state of the watching target, the watching robot not only detects the state of the watching target and notifies an alert, but also predicts the state of the watching target. In addition, it has been improved in that it is possible to analyze the situation when an alert occurs, and by connecting the watching robot to the network, at the same time as watching, the behavior and life data of the watching target are accumulated and the data is utilized. By doing so, for example, in watching over the elderly, it is said that it can lead to improvement of the care plan and improvement of the quality of care.

パーソナルアシスタントとしてのロボットを提供する技術として、例えば、少なくとも1つのセンサ、通信ユニット及び出力装置に接続されたロボット装置又はプラットフォームを用いてパーソナルアシスタントを能動的且つ自動的に提供するコンピュータベースの方法であって、前記少なくとも1つのセンサを用いて、前記少なくとも1つのセンサの少なくとも1つの近くの少なくとも1人の人と関連した第1のデータを検出する工程と、前記少なくとも1つのセンサを用いて、前記少なくとも1つのセンサの少なくとも1つの近くの物体、生物、イベント、場所、環境又はこれらの組合せと関連した第2のデータを検出する工程と、前記プロセッサを用いて、学習データを、前記第1検出データ、前記第2検出データ、前記データベースに保存された予めプログラムされたアルゴリズム又はこれらの組合せに基づいてデータベースに選択的に保存する工程と、前記プロセッサと接続され又は通信可能な前記通信ユニット又は前記出力装置を用いて、第1出力データを、前記プロセッサによって受信された要求又は前記データベースに保存された所定の若しくは予定されたイベントに応じて受動的に出力する工程と、前記通信ユニット又は前記出力装置を用いて、第2出力データを、前記第1検出データ、前記第2検出データ、前記学習データ、前記予めプログラムされたアルゴリズム又はこれらの組合せに基づいて能動的且つ自動的に出力する工程と、を含むコンピュータベースの方法が知られている。(特許文献1) As a technique for providing a robot as a personal assistant, for example, in a computer-based method of actively and automatically providing a personal assistant using a robot device or platform connected to at least one sensor, communication unit and output device. There is a step of detecting first data associated with at least one person near at least one of the at least one sensor using the at least one sensor, and using the at least one sensor. The step of detecting a second data related to at least one nearby object, organism, event, place, environment or a combination thereof of the at least one sensor, and using the processor to obtain the training data, said first. The step of selectively storing the detection data, the second detection data, the pre-programmed algorithm stored in the database, or a combination thereof in the database, and the communication unit connected to or communicable with the processor. The step of passively outputting the first output data in response to a request received by the processor or a predetermined or scheduled event stored in the database using the output device, and the communication unit or the said. A step of actively and automatically outputting the second output data based on the first detection data, the second detection data, the training data, the pre-programmed algorithm, or a combination thereof, using the output device. And computer-based methods, including, are known. (Patent Document 1)

特許文献1によれば、ユーザとユーザをとりまく環境に関するデータを検出及び処理するとともに、検出及び分析したデータに基づいて、ロボットプラットフォーム/装置を使用してパーソナルアシスタントを能動的且つ自動的に提供するための方法/システムを提供することができるとしている。 According to Patent Document 1, data related to a user and the environment surrounding the user is detected and processed, and a personal assistant is actively and automatically provided by using a robot platform / device based on the detected and analyzed data. It is said that it can provide a method / system for.

特開2014−176963号公報Japanese Unexamined Patent Publication No. 2014-176963

しかしながら、特許文献1に記載された技術は、ユーザに対するリマインドの提供、医療機関での診察時のアドバイス、アルツハイマー病であるユーザのサポート、親/介護者の子供に対するペアレンタル・コントロールの支援、車椅子を利用するユーザの支援等の各シーンについてパーソナルアシスタントが介在する状況については開示されているものの、人の成長とともにパーソナルアシスタントとしてのロボットが入れ替わった際における、具体的なパーソナルアシスタントの制御態様については何ら開示されていない。 However, the techniques described in Patent Document 1 provide reminders to users, advice during medical examinations at medical institutions, support for users with Alzheimer's disease, support for parental control of parents / caregivers' children, and wheelchairs. Although the situation where the personal assistant intervenes in each scene such as the support of the user who uses the medical care is disclosed, the specific control mode of the personal assistant when the robot as the personal assistant is replaced as the person grows. Nothing is disclosed.

即ち、幼児が成人に成長する過程や成人後に徐々に高齢化していく過程は日々連続的な事象であるが、他方ロボット等のパーソナルアシスタントは人の成長や高齢化におけるある時点において、ユーザ等の購入等の行為によってドラスティックに入れ替わるのが通常であると考えられる。特許文献1に記載された技術は、このようなパーソナルアシスタントのドラスティックな入れ替わりが生じた場合に、ロボットを含むシステムにおいてどのような処理が実行されるべきであるかについては言及されていない。 That is, the process of an infant growing into an adult and the process of gradually aging after an adult are continuous events on a daily basis, while personal assistants such as robots are used by users at some point in the growth and aging of humans. It is considered that it is usually replaced with a drastic one by an act such as purchase. The technique described in Patent Document 1 does not mention what kind of processing should be performed in a system including a robot when such a drastic replacement of a personal assistant occurs.

本発明は、このような従来技術の課題を解決するべく案出されたものであり、人の成長とともにロボット等のパーソナルアシスタントが入れ替わったとしても、パーソナルアシスタントが単なる道具ではなく、人の成長に合わせてパートナーとしてユーザを適切にサポートすることが可能なパーソナルアシスタント制御システムを提供することにある。 The present invention has been devised to solve the problems of the prior art, and even if a personal assistant such as a robot is replaced as a person grows, the personal assistant is not just a tool but a person's growth. At the same time, it is to provide a personal assistant control system that can appropriately support the user as a partner.

前記課題を解決するためになされた本発明は、ユーザによって第1の期間に利用され、複数のセンサを含む第1のセンサ群から情報を取得する第1のパーソナルアシスタントと、前記第1のパーソナルアシスタントとネットワークを介して接続され、前記第1のセンサ群から取得した情報に基づいて前記ユーザの状況を推定するサーバとを備え、前記サーバは、前記第1の期間において、前記第1のセンサ群に含まれるセンサのうち、少なくとも第1の属性を検出する第1属性検出センサから取得した情報に基づき前記ユーザの状況を推定し、前記第1の期間よりも過去の期間であるプレ期間において、前記第1のセンサ群に含まれるセンサのうち、前記第1の属性とは異なる少なくとも第2の属性を検出する第2属性検出センサから取得した情報に基づいて前記ユーザの状況を推定することを特徴とするパーソナルアシスタント制御システムである。 The present invention made to solve the above problems is used by a user in a first period, and a first personal assistant for acquiring information from a first sensor group including a plurality of sensors, and the first personal. It includes a server that is connected to the assistant via a network and estimates the user's situation based on the information acquired from the first sensor group, and the server is the first sensor in the first period. Among the sensors included in the group, the situation of the user is estimated based on the information acquired from the first attribute detection sensor that detects at least the first attribute, and in the pre-period which is a period earlier than the first period. , The user's situation is estimated based on the information acquired from the second attribute detection sensor that detects at least the second attribute different from the first attribute among the sensors included in the first sensor group. It is a personal assistant control system characterized by.

これによって、例えば第1の期間におけるユーザを乳児とし、プレ期間におけるユーザを母体に存する胎児としたとき、第1の期間とプレ期間とで共通するパーソナルアシスタントとしての第1のパーソナルアシスタントを用いて、乳児としてのユーザ及び胎児としてのユーザの状況を的確に推定することが可能となり、人が胎児である期間をも含めて、人の成長に合わせてパーソナルアシスタントがパートナーとしてユーザを適切にサポートすることが可能となる。 As a result, for example, when the user in the first period is an infant and the user in the pre-period is a foetation existing in the mother, the first personal assistant as a personal assistant common to the first period and the pre-period is used. It is possible to accurately estimate the situation of the user as an infant and the user as a foetation, and the personal assistant appropriately supports the user as a partner as the person grows, including the period when the person is a foetation. It becomes possible.

また、本発明は、ユーザによって第1の期間に利用され、複数のセンサを含む第1のセンサ群から情報を取得する第1のパーソナルアシスタントと、前記ユーザによって前記第1の期間よりも過去の期間であるプレ期間に利用され、複数のセンサを含む第2のセンサ群から情報を取得するプレ期間用パーソナルアシスタントと、前記第1のパーソナルアシスタント及び前記プレ期間用パーソナルアシスタントとネットワークを介して接続され、前記第1のセンサ群または前記第2のセンサ群から取得した情報に基づいて前記ユーザの状況を推定するサーバとを備え、前記サーバは、前記第1の期間において、前記第1のセンサ群に含まれるセンサのうち、少なくとも第1の属性を検出する第1属性検出センサから取得した情報に基づき前記ユーザの状況を推定し、前記プレ期間において、前記第2のセンサ群に含まれるセンサのうち、前記第1の属性とは異なる少なくとも第2の属性を検出する第2属性検出センサから取得した情報に基づいて前記ユーザの状況を推定することを特徴とするパーソナルアシスタント制御システムである。 The present invention also includes a first personal assistant that is used by the user in the first period to acquire information from a first sensor group that includes a plurality of sensors, and a user that is earlier than the first period. A pre-period personal assistant that is used during the pre-period and acquires information from a second sensor group including a plurality of sensors, and the first personal assistant and the pre-period personal assistant are connected via a network. The server includes a server that estimates the user's situation based on the information acquired from the first sensor group or the second sensor group, and the server is the first sensor in the first period. Among the sensors included in the group, the user's situation is estimated based on the information acquired from the first attribute detection sensor that detects at least the first attribute, and the sensors included in the second sensor group during the pre-period. Among them, the personal assistant control system is characterized in that the situation of the user is estimated based on the information acquired from the second attribute detection sensor that detects at least the second attribute different from the first attribute.

これによって、例えば第1の期間におけるユーザを乳児とし、プレ期間におけるユーザを母体に存する胎児としたとき、第1の期間においては第1のパーソナルアシスタントを、プレ期間においてはプレ期間用パーソナルアシスタントを用いて、乳児としてのユーザ及び胎児としてのユーザの状況を的確に推定することが可能となり、人が胎児である期間をも含めて、人の成長に合わせてパーソナルアシスタントがパートナーとしてユーザを適切にサポートすることが可能となる。 As a result, for example, when the user in the first period is an infant and the user in the pre-period is a foetation existing in the mother, the first personal assistant is used in the first period and the pre-period personal assistant is used in the pre-period. By using it, it is possible to accurately estimate the situation of the user as an infant and the user as a foetation, and the personal assistant appropriately makes the user as a partner as the person grows, including the period when the person is a foetation. It will be possible to support.

このように本発明によれば、人の成長とともにロボット等のパーソナルアシスタントが入れ替わったとしても、パーソナルアシスタントが単なる道具ではなく、人の成長に合わせてパートナーとしてユーザを適切にサポートすることが可能となる。 As described above, according to the present invention, even if a personal assistant such as a robot is replaced as a person grows, the personal assistant is not a mere tool, but can appropriately support the user as a partner as the person grows. Become.

本発明の第1実施形態における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図Explanatory drawing which shows the outline of the personal assistant control system S1 in the 1st period T1 and the 2nd period T2 in 1st Embodiment of this invention. (a)〜(d)は、本発明の第1実施形態における第1の期間T1、第2の期間T2、第3の期間T3、第4の期間T4の関係を示す説明図(A) to (d) are explanatory views showing the relationship between the first period T1, the second period T2, the third period T3, and the fourth period T4 in the first embodiment of the present invention. 本発明の第1実施形態における第1の期間T1におけるパーソナルアシスタント制御システムS1の構成を示すブロック図The block diagram which shows the structure of the personal assistant control system S1 in the 1st period T1 in 1st Embodiment of this invention. 本発明の第1実施形態における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図The block diagram which shows the structure of the personal assistant control system S1 in the 2nd period T2 in 1st Embodiment of this invention. 第1実施形態の第1変形例における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図Explanatory drawing which shows the outline of the personal assistant control system S1 in the 1st period T1 and the 2nd period T2 in the 1st modification of 1st Embodiment. 第1実施形態の第1変形例における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図The block diagram which shows the structure of the personal assistant control system S1 in the 2nd period T2 in the 1st modification of 1st Embodiment. 第1実施形態の第2変形例における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図Explanatory drawing which shows the outline of the personal assistant control system S1 in the 1st period T1 and the 2nd period T2 in the 2nd modification of 1st Embodiment. 第1実施形態の第2変形例における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図The block diagram which shows the structure of the personal assistant control system S1 in the 2nd period T2 in the 2nd modification of 1st Embodiment. 本発明の第2実施形態における第1の期間T1及びプレ期間T0におけるパーソナルアシスタント制御システムS1の概要を示す説明図Explanatory drawing which shows the outline of the personal assistant control system S1 in the 1st period T1 and the pre-period T0 in the 2nd Embodiment of this invention. (a),(b)は、本発明の第2実施形態におけるプレ期間T0、第1の期間T1、第2の期間T2、第3の期間T3、第4の期間T4の関係を示す説明図(A), (b) is an explanatory diagram showing the relationship between the pre-period T0, the first period T1, the second period T2, the third period T3, and the fourth period T4 in the second embodiment of the present invention. 本発明の第2実施形態におけるプレ期間T0におけるパーソナルアシスタント制御システムS1の構成を示すブロック図The block diagram which shows the structure of the personal assistant control system S1 in the pre-period T0 in the 2nd Embodiment of this invention. 本発明の第2実施形態の変形例における第1の期間T1及びプレ期間T0におけるパーソナルアシスタント制御システムS1の概要を示す説明図Explanatory drawing which shows the outline of the personal assistant control system S1 in the 1st period T1 and the pre-period T0 in the modification of 2nd Embodiment of this invention.

(第1実施形態)
以下、本発明の第1実施形態について図面を参照して説明する。図1は、本発明の第1実施形態における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図である。
(First Embodiment)
Hereinafter, the first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an explanatory diagram showing an outline of a personal assistant control system S1 in the first period T1 and the second period T2 in the first embodiment of the present invention.

図1に示すように、パーソナルアシスタント制御システムS1には、第1のパーソナルアシスタント(以降、簡略化して「第1のPA1」と称することがある。)と、第2のパーソナルアシスタント(以降、簡略化して「第2のPA2」と称することがある。また、第1のPA1と第2のPA2とを区別しないときは、単に「PA」と称することがある。)と、第1のPA1及び第2のPA2が接続されたネットワーク4と、ネットワーク4と接続されたサーバ5と、ネットワーク4に接続された情報端末6とが含まれている。 As shown in FIG. 1, the personal assistant control system S1 includes a first personal assistant (hereinafter, may be abbreviated as "first PA1") and a second personal assistant (hereinafter, simplified). It may be referred to as "second PA2", and when the first PA1 and the second PA2 are not distinguished, it may be simply referred to as "PA"), and the first PA1 and A network 4 to which a second PA 2 is connected, a server 5 connected to the network 4, and an information terminal 6 connected to the network 4 are included.

ここでPAとしては、例えばロボットが好適に用いられる。なおPAは、少なくともユーザ3との間で何らかの相互作用(インタラクション)が可能に構成されていればよく、アーム等の変位機構や移動機構の有無は問わない。また移動機構を備える場合、当該移動機構は、二足歩行機構や車輪等で構成されていてもよいし、例えばドローンのように空中を移動可能に構成されていてもよい。 Here, as the PA, for example, a robot is preferably used. The PA may be configured to enable at least some kind of interaction with the user 3, and may or may not have a displacement mechanism such as an arm or a movement mechanism. When a moving mechanism is provided, the moving mechanism may be composed of a bipedal walking mechanism, wheels, or the like, or may be configured to be movable in the air such as a drone.

図1において、第1のPA1は第1の期間T1においてユーザ3に利用され、また第2のPA2は第2の期間T2において同一のユーザ3に利用される。第1実施形態においては、第1の期間T1としてユーザ3が乳児(例えば0歳〜満一歳)〜幼児前半(例えば一歳〜二歳)の期間を、第2の期間T2としてユーザ3が幼児後半(例えば三歳〜小学校就学前)の期間を想定している。 In FIG. 1, the first PA1 is used by the user 3 in the first period T1 and the second PA2 is used by the same user 3 in the second period T2. In the first embodiment, the user 3 sets the period from the infant (for example, 0 years old to 1 year old) to the first half of the infant (for example, 1 year old to 2 years old) as the first period T1, and the user 3 sets it as the second period T2. The period of the latter half of infants (for example, from 3 years old to before entering elementary school) is assumed.

各PAが利用される期間におけるユーザ3の発達の程度を考慮し、第1の期間T1に利用される第1のPA1は例えば小動物をデフォルメした外観を備え、第1の期間T1におけるユーザ3が親近感・安心感を持つように構成されている。他方、第2の期間T2に利用される第2のPA2は、第1の期間T1から成長したユーザ3に合わせて、より機能性が重視された構成を備える。即ち、第2のPA2は、例えばディスプレイ1uを備え、ユーザ3に対して視覚的な情報を提供できるように構成される。 Considering the degree of development of the user 3 during the period in which each PA is used, the first PA1 used in the first period T1 has, for example, a deformed appearance of a small animal, and the user 3 in the first period T1 It is configured to have a sense of intimacy and security. On the other hand, the second PA2 used for the second period T2 has a configuration in which more functionality is emphasized in accordance with the user 3 who has grown from the first period T1. That is, the second PA2 includes, for example, a display 1u, and is configured to be able to provide visual information to the user 3.

なお、後述するように、第1の期間T1と第2の期間T2とは時系列に重なっていてもよく、第1の期間T1と第2の期間T2とが時系列に離間していてもよい。即ち、図1には第1のPA1及び第2のPA2の双方が記載されているが、パーソナルアシスタント制御システムS1には、ユーザ3の成長に伴って第1のPA1または第2のPA2のいずれか一方のみが含まれる状態もあり得る。 As will be described later, the first period T1 and the second period T2 may overlap in time series, and even if the first period T1 and the second period T2 are separated in time series. Good. That is, although both the first PA1 and the second PA2 are shown in FIG. 1, the personal assistant control system S1 has either the first PA1 or the second PA2 as the user 3 grows. It is possible that only one of them is included.

第1のPA1は後述する第1のセンサ群41(図3参照)から種々の情報を取得し、少なくともその一部はネットワーク4を介してサーバ5に送信される。サーバ5は受信した第1のセンサ群41の出力に基づいてユーザ3の状況を推定する。 The first PA1 acquires various information from the first sensor group 41 (see FIG. 3) described later, and at least a part of the information is transmitted to the server 5 via the network 4. The server 5 estimates the situation of the user 3 based on the output of the first sensor group 41 received.

サーバ5は推定したユーザ3の状況に基づいて、ネットワーク4を介して第1のPA1に対して制御指令を出力する。これを受信した第1のPA1は、例えばユーザ3が泣いているような状況では、ユーザ3の気持ちを穏やかにするような音声等を出力する。そしてこの音声等に対するユーザ3の反応や応答が第1のセンサ群41によって取得され、この情報もサーバ5に送信される。このようにしてユーザ3と第1のPA1の間でインタラクションが図られる。サーバ5は、例えばユーザ3の状況に応じて、どのように応答すればユーザ3がより穏やかになるかを学習し、次に同様の状況がユーザ3に生じた場合は、学習結果に基づいて適切に応答するようになる。 The server 5 outputs a control command to the first PA1 via the network 4 based on the estimated situation of the user 3. Upon receiving this, the first PA1 outputs a voice or the like that calms the user 3 in a situation where the user 3 is crying, for example. Then, the reaction or response of the user 3 to the voice or the like is acquired by the first sensor group 41, and this information is also transmitted to the server 5. In this way, interaction is achieved between the user 3 and the first PA1. The server 5 learns how to respond to the user 3 to be more calm, for example, depending on the situation of the user 3, and if a similar situation occurs in the user 3, the server 5 is based on the learning result. You will respond appropriately.

第2のPA2は後述する第2のセンサ群42(図4参照)から種々の情報を取得し、少なくともその一部はネットワーク4を介してサーバ5に送信される。サーバ5は受信した第2のセンサ群42の出力に基づいてユーザ3の状況を推定する。ユーザ3が成長して第2の期間T2を迎えた際に、第1の期間T1で獲得した学習結果は第2のPA2とユーザ3とのインタラクションにおいて継承して利用される。第2の期間T2では、ユーザ3の言語能力は大幅に向上していることから、この期間においては、ユーザ3と第2のPA2の間では、主に言語を介したインタラクション(双方向の会話)が図られる。 The second PA2 acquires various information from the second sensor group 42 (see FIG. 4) described later, and at least a part of the information is transmitted to the server 5 via the network 4. The server 5 estimates the situation of the user 3 based on the output of the second sensor group 42 received. When the user 3 grows up and reaches the second period T2, the learning result acquired in the first period T1 is inherited and used in the interaction between the second PA2 and the user 3. In the second period T2, the language ability of the user 3 is significantly improved. Therefore, in this period, the interaction (two-way conversation) mainly through the language is performed between the user 3 and the second PA2. ) Is planned.

なお、図1において情報端末6はスマートフォン、タブレット、スマートウォッチ、パーソナルコンピュータ等であり、例えばユーザ3の母親としての第三者15に所持されている。サーバ5は第1のPA1あるいは第2のPA2から得た情報に基づいて推測したユーザ3の状況やユーザ3の置かれた環境に関する情報を情報端末6に送信し、第三者15はユーザ3と離れていても、ユーザ3の状況や周囲の環境を把握することができる。そして第三者15は、例えば情報端末6に音声を入力することで、当該音声がPAにて再現される。 In FIG. 1, the information terminal 6 is a smartphone, a tablet, a smart watch, a personal computer, or the like, and is possessed by, for example, a third party 15 as a mother of the user 3. The server 5 transmits information about the situation of the user 3 estimated based on the information obtained from the first PA1 or the second PA2 and the environment in which the user 3 is placed to the information terminal 6, and the third party 15 transmits the information about the user 3 to the information terminal 6. Even if it is far from the user 3, the situation of the user 3 and the surrounding environment can be grasped. Then, the third party 15 inputs the voice to the information terminal 6, for example, and the voice is reproduced by the PA.

また、図1においてバイタルセンサ7は、例えばリストバンド形状とされてユーザ3の手首等に装着される。 Further, in FIG. 1, the vital sensor 7 has a wristband shape, for example, and is worn on the wrist or the like of the user 3.

図2(a)〜(d)は、本発明の第1実施形態における第1の期間T1、第2の期間T2、第3の期間T3、第4の期間T4の関係を示す説明図である。上述したように、第1実施形態では、第1のPA1が利用される第1の期間T1としてユーザ3が乳児〜幼児前半の期間を、第2のPA2が利用される第2の期間T2としてユーザ3が幼児後半の期間を想定している。即ち、第1の期間T1は、第2の期間T2よりも過去を含む期間である。 2 (a) to 2 (d) are explanatory views showing the relationship between the first period T1, the second period T2, the third period T3, and the fourth period T4 in the first embodiment of the present invention. .. As described above, in the first embodiment, as the first period T1 in which the first PA1 is used, the period from the baby to the first half of the infant is set as the second period T2 in which the second PA2 is used. User 3 assumes a period in the latter half of the infant. That is, the first period T1 is a period including the past than the second period T2.

図2(a)〜(d)に示すように、第1の期間T1及び第4の期間T4はユーザ3が出生してから所定時間経過した後を始期としているが、もちろん第1の期間T1及び第4の期間T4は、ユーザ3が出生した時点が始期であってもよい。このように第1の期間T1及び第4の期間T4の始期が変化するのは、例えばユーザ3の保護者(第三者15)が、どのタイミングで第1のPA1を導入するか(購入して利用に供するか)に依存するためである。 As shown in FIGS. 2A to 2D, the first period T1 and the fourth period T4 start after a predetermined time has elapsed from the birth of the user 3, but of course the first period T1 And the fourth period T4 may start at the time when the user 3 is born. In this way, the start of the first period T1 and the fourth period T4 changes, for example, at what timing the guardian (third party 15) of the user 3 introduces the first PA1 (purchases). This is because it depends on whether it is used for use.

図2(a)に示すように、時間軸T方向に第1の期間T1と第2の期間T2とが分断していてもよい。このケースは、第1のPA1の利用が終了して、しばらく時間をおいて第2のPA2の利用が開始されたことを示す。 As shown in FIG. 2A, the first period T1 and the second period T2 may be separated in the time axis T direction. This case indicates that the use of the first PA1 has ended and the use of the second PA2 has started after a while.

また、図2(b)に示すように、第1の期間T1の終期と第2の期間T2の始期とが同時であってもよい。このケースは、第2のPA2が購入された時点で第1のPA1の利用を停止したことを示す。 Further, as shown in FIG. 2B, the end of the first period T1 and the start of the second period T2 may be simultaneous. This case indicates that the use of the first PA1 was stopped when the second PA2 was purchased.

また、図2(c)、(d)に示すように、第1の期間T1の後半の一部と第2の期間T2の前半の一部とが重畳していてもよい。このケースは、第1のPA1を利用しながら、更に第2のPA2も同時に利用していることを示す。 Further, as shown in FIGS. 2 (c) and 2 (d), a part of the latter half of the first period T1 and a part of the first half of the second period T2 may overlap. This case shows that while using the first PA1, the second PA2 is also used at the same time.

ここで、第3の期間T3は、第1の期間T1と第2の期間T2とを跨ぐ期間をいい、図2(a)に示すように、第3の期間T3において、第1の期間T1と第2の期間T2とが時系列に離間していてもよく、図2(b)に示すように、第3の期間T3において、第1の期間T1の終期と第2の期間T2の始期とが一致していてもよく、図2(c)、図2(d)に示すように、第3の期間T3において、第1の期間T1の後半と第2の期間T2の前半とが重畳してもよく、更に図2(d)に示すように、第3の期間T3の終期が第2の期間T2の終期と一致していてもよい。 Here, the third period T3 refers to a period straddling the first period T1 and the second period T2, and as shown in FIG. 2A, in the third period T3, the first period T1 And the second period T2 may be separated in time series, and as shown in FIG. 2B, in the third period T3, the end of the first period T1 and the beginning of the second period T2. As shown in FIGS. 2 (c) and 2 (d), the latter half of the first period T1 and the first half of the second period T2 are superimposed in the third period T3. Alternatively, as shown in FIG. 2D, the end of the third period T3 may coincide with the end of the second period T2.

また、図2(a)〜(d)に示すように、第4の期間T4は、第1の期間T1のうち第3の期間T3に含まれない期間をいう。即ち、第4の期間T4は、第3の期間T3よりも過去の期間である。以降、詳細に説明するように、第1実施形態では、これら第1の期間T1、第2の期間T2、第3の期間T3、第4の期間T4の各期間に応じて、サーバ5は、ユーザ3の状況を推定する際に参照するセンサの種類(組み合わせ)を変えていく。 Further, as shown in FIGS. 2A to 2D, the fourth period T4 means a period of the first period T1 that is not included in the third period T3. That is, the fourth period T4 is a period earlier than the third period T3. Hereinafter, as will be described in detail, in the first embodiment, the server 5 is set according to each period of the first period T1, the second period T2, the third period T3, and the fourth period T4. The type (combination) of the sensor to be referred to when estimating the situation of the user 3 is changed.

図3は、本発明の第1実施形態における第1の期間T1におけるパーソナルアシスタント制御システムS1の構成を示すブロック図である。パーソナルアシスタント制御システムS1は、少なくとも第1のPA1と、サーバ5とで構成され、第1のPA1とサーバ5とはネットワーク4を介して接続されている。更にパーソナルアシスタント制御システムS1は、情報端末6、バイタルセンサ7を含んでいてもよい。 FIG. 3 is a block diagram showing the configuration of the personal assistant control system S1 in the first period T1 according to the first embodiment of the present invention. The personal assistant control system S1 is composed of at least a first PA1 and a server 5, and the first PA1 and the server 5 are connected to each other via a network 4. Further, the personal assistant control system S1 may include an information terminal 6 and a vital sensor 7.

以降、第1のPA1について説明する。第1のPA1は、環境センサ50と、第1のセンサ群41と、出力インタフェース53と、入力部1kと、第1のPA1とネットワーク4を接続し、サーバ5と情報の入出力を行うPAネットワークインタフェース1pと、PA制御部1vとを備える。 Hereinafter, the first PA1 will be described. The first PA1 is a PA that connects the environment sensor 50, the first sensor group 41, the output interface 53, the input unit 1k, the first PA1 and the network 4, and inputs / outputs information to and from the server 5. It includes a network interface 1p and a PA control unit 1v.

これらの各構成要素及び後述する第1のセンサ群41を構成する種々のセンサ(またはその出力(ここではアナログ信号)をA/D変換する変換モジュール)は図示しないバスで結合されている。PA制御部1vは、例えばROM(Read Only Memory)やRAM(Random access memory)等で構成されるPA記憶部1qと、例えばCPU(Central Processing Unit)等で構成されるPA演算部1sとを備える。PA演算部1sは、PA記憶部1qに記憶されたプログラムに基づき、第1のセンサ群41から取得した情報を、PAネットワークインタフェース1pを制御してサーバ5に送信し、逆にサーバ5から送信されたコマンド等に基づいて、出力インタフェース53を制御する。 Each of these components and various sensors constituting the first sensor group 41 described later (or a conversion module for A / D conversion of the output (analog signal in this case)) are connected by a bus (not shown). The PA control unit 1v includes, for example, a PA storage unit 1q composed of a ROM (Read Only Memory), a RAM (Random access memory), or the like, and a PA calculation unit 1s composed of, for example, a CPU (Central Processing Unit) or the like. .. The PA calculation unit 1s controls the PA network interface 1p to transmit the information acquired from the first sensor group 41 to the server 5 based on the program stored in the PA storage unit 1q, and conversely transmits the information from the server 5. The output interface 53 is controlled based on the command or the like.

なお、PA記憶部1qには、第1のPA1を特定するコード情報、ユーザID及びユーザ3の個人情報として、例えば生年月日、氏名、愛称等が記憶されている。ユーザ3の個人情報は、例えばユーザ3の保護者等の第三者15が情報端末6を操作・入力することで、情報端末6から第1のPA1にネットワーク4を介して送信され、第1のPA1は個人情報を受信すると、これをPA記憶部1qに格納するとともに、予めPA記憶部1qに格納されていたコード情報と合わせてサーバ5に送信する。サーバ5はこれらを受信すると、ユニークな識別子としてのユーザIDを発行し、情報端末6から送信された第1のPA1のコード情報とユーザIDと個人情報とを関連付けてデータベース5kに格納する。そしてサーバ5は生成したユーザIDを第1のPA1に送信する。第1のPA1は受信したユーザIDをPA記憶部1qに格納する。このユーザIDは、例えばサーバ5のデータベース5kを検索するときの検索キーとして使用される。 The PA storage unit 1q stores, for example, a date of birth, a name, a nickname, etc. as code information for identifying the first PA1, a user ID, and personal information of the user 3. The personal information of the user 3 is transmitted from the information terminal 6 to the first PA1 via the network 4 by, for example, a third party 15 such as a guardian of the user 3 operating and inputting the information terminal 6. When the PA1 receives the personal information, it stores the personal information in the PA storage unit 1q and transmits the personal information together with the code information stored in the PA storage unit 1q in advance to the server 5. Upon receiving these, the server 5 issues a user ID as a unique identifier, associates the code information of the first PA1 transmitted from the information terminal 6 with the user ID and personal information, and stores the user ID in the database 5k. Then, the server 5 transmits the generated user ID to the first PA1. The first PA1 stores the received user ID in the PA storage unit 1q. This user ID is used as a search key when searching the database 5k of the server 5, for example.

以降、環境センサ50について説明する。第1のPA1には、焦電センサやイメージセンサ等で構成される人感センサ1a、光学フィルタを内蔵したフォトトランジスタ等で構成される照度センサ1b、測温抵抗体等で構成される温度センサ1c、湿度の変化に応じた抵抗値や静電容量の変化を検出する湿度センサ1dが環境情報を計測するいわゆる環境センサ50として設けられ、ユーザ3が置かれた環境に関する情報を計測する。 Hereinafter, the environment sensor 50 will be described. The first PA1 includes a human sensor 1a composed of a charcoal sensor, an image sensor, etc., an illuminance sensor 1b composed of a phototransistor with a built-in optical filter, and a temperature sensor composed of a resistance temperature detector. 1c, a humidity sensor 1d that detects changes in resistance value and capacitance in response to changes in humidity is provided as a so-called environment sensor 50 that measures environmental information, and measures information about the environment in which the user 3 is placed.

ここで、人感センサ1aとしては、人の位置と数を検出可能ないわゆる画像型のセンサが好適に用いられる。人感センサ1aは、第1のPA1の近傍にユーザ3(図1参照)が存すること、あるいは第三者15(あるいは第三者15以外の他者)が存することを検出する。なお、第1実施形態において人感センサ1aは第1のPA1に内蔵されているが、画像型センサの場合は、第1のPA1とは別体として、例えば天井に設けられて、人の位置と数を計測した結果を無線で第1のPA1に送信する構成としてもよい。照度センサ1bは第1のPA1が置かれた環境(通常はユーザ3の置かれた環境でもある)の照度を検出する。温度センサ1cは第1のPA1が置かれた環境の温度を、湿度センサ1dは第1のPA1が置かれた環境の湿度を検出する。これら環境センサ50の出力はサーバ5に送信される。 Here, as the motion sensor 1a, a so-called image-type sensor capable of detecting the position and number of people is preferably used. The motion sensor 1a detects that the user 3 (see FIG. 1) exists in the vicinity of the first PA1 or that the third party 15 (or another person other than the third party 15) exists. In the first embodiment, the motion sensor 1a is built in the first PA1, but in the case of the image type sensor, it is provided as a separate body from the first PA1, for example, on the ceiling, and the position of a person. The result of measuring the number may be wirelessly transmitted to the first PA1. The illuminance sensor 1b detects the illuminance of the environment in which the first PA1 is placed (usually, it is also the environment in which the user 3 is placed). The temperature sensor 1c detects the temperature of the environment in which the first PA1 is placed, and the humidity sensor 1d detects the humidity of the environment in which the first PA1 is placed. The output of these environment sensors 50 is transmitted to the server 5.

次に、第1のセンサ群41について説明する。第1のセンサ群41のうち、イメージセンサ等で構成されるカメラ1e、音を取得するセンサとしてのマイクロフォン1f、匂いセンサ1g、圧力センサ1h、加速度センサ1i、角速度センサ1j、バイタルセンサ7は、ユーザ3の状況を検出するセンサとして用いられる。 Next, the first sensor group 41 will be described. Among the first sensor group 41, the camera 1e composed of an image sensor and the like, the microphone 1f as a sensor for acquiring sound, the odor sensor 1g, the pressure sensor 1h, the acceleration sensor 1i, the angular velocity sensor 1j, and the vital sensor 7 are included. It is used as a sensor to detect the situation of the user 3.

第1の期間T1において、通常、第1のPA1はユーザ3が置かれたベビーベッド等の近傍に配置される。この態様において、カメラ1eは主に被写体としてのユーザ3を撮影する。カメラ1eは動画あるいは静止画を撮像し、撮像された画像はサーバ5に送信される。画像が静止画の場合、撮像するタイミングは任意に定めることができる。例えば、定期的に撮像を行ってもよく、またマイクロフォン1fで所定の音圧を超える音が検出された場合(例えば、ユーザ3が泣き出したようなケース)に撮像を行ってもよく、カメラ1eの出力に基づいてユーザ3の笑顔を検出した際に撮像を行ってもよい。また、PA制御部1vは取得した画像に基づいてユーザ3の位置を検出してもよく、またアクチュエータ1oとしてカメラ1eのパン・チルト機能、あるいは少なくとも第1のPA1を平面内で回転させる機構を備えていてもよく、PA制御部1vは撮像された画像に基づいてユーザ3の位置をトレースし、カメラ1eの撮像範囲にユーザ3が含まれるようアクチュエータ1oを制御してもよい。 In the first period T1, the first PA1 is usually placed in the vicinity of the crib or the like where the user 3 is placed. In this aspect, the camera 1e mainly captures the user 3 as a subject. The camera 1e captures a moving image or a still image, and the captured image is transmitted to the server 5. When the image is a still image, the timing of imaging can be arbitrarily determined. For example, imaging may be performed periodically, or when a sound exceeding a predetermined sound pressure is detected by the microphone 1f (for example, a case where the user 3 starts crying), imaging may be performed by the camera. Imaging may be performed when the smile of the user 3 is detected based on the output of 1e. Further, the PA control unit 1v may detect the position of the user 3 based on the acquired image, and also has a pan / tilt function of the camera 1e as the actuator 1o, or a mechanism for rotating at least the first PA1 in a plane. The PA control unit 1v may be provided, and the position of the user 3 may be traced based on the captured image, and the actuator 1o may be controlled so that the user 3 is included in the imaging range of the camera 1e.

マイクロフォン1fは、主にユーザ3が発した音声を取得する。取得された音情報はディジタル化された状態で定期的にサーバ5に送信されてもよく、あるいはPA制御部1vにて取得した音声等の音圧が所定の値を超えたと判断した場合にのみ送信してもよい。またPA制御部1vが周波数解析機能を具備する場合は、所定の周波数を含む音情報のみを送信してもよい。 The microphone 1f mainly acquires the voice emitted by the user 3. The acquired sound information may be periodically transmitted to the server 5 in a digitized state, or only when it is determined that the sound pressure of the voice or the like acquired by the PA control unit 1v exceeds a predetermined value. You may send it. When the PA control unit 1v has a frequency analysis function, only sound information including a predetermined frequency may be transmitted.

匂いセンサ1gは、例えば金属酸化物半導体の表面に特定の匂い分子が吸着することで半導体の抵抗値が下がる現象を応用したセンサである。通常、匂いセンサ1gは環境センサ50として利用されることも多いが、上述したように、第1の期間T1はユーザ3が乳児の時期を想定しており、ここでは乳児の排尿や排便に基づく臭気を検出する観点で、匂いセンサ1gはユーザ3の状況を検出するセンサに包含されるものとする。PA制御部1vは、匂いセンサ1gの出力を直接的にサーバ5に送ってもよいし、当該出力が所定の値より大きくなった場合に、ユーザ3が排尿あるいは排便したと判断し、その旨をサーバ5に送信してもよい。 The odor sensor 1g is a sensor that applies a phenomenon in which the resistance value of a semiconductor is lowered by adsorbing a specific odor molecule on the surface of a metal oxide semiconductor, for example. Normally, the odor sensor 1 g is often used as the environmental sensor 50, but as described above, the first period T1 assumes that the user 3 is an infant, and here, it is based on the baby's urination and defecation. From the viewpoint of detecting the odor, the odor sensor 1g is included in the sensor that detects the situation of the user 3. The PA control unit 1v may directly send the output of the odor sensor 1g to the server 5, and when the output becomes larger than a predetermined value, the PA control unit 1v determines that the user 3 has urinated or defecation, and to that effect. May be sent to the server 5.

圧力センサ1hは、例えばダイヤフラムの表面に形成した半導体ひずみゲージの変形を検出する。圧力センサ1hはユーザ3が第1のPA1を腕に抱えたり、抱きかかえたりする状況、あるいは第1のPA1に対するユーザ3の取り扱い方(大切に取り扱っているか、乱暴に取り扱っているか等)、即ち、第1のPA1に対するユーザ3の直接的な行動を検出する。PA制御部1vは、例えば圧力センサ1hの出力が所定の値を超えた場合に、当該値をサーバ5に送信する。なお、圧力センサ1hがユーザ3の行動に直接的に起因する値を計測する観点において、圧力センサ1hは第1のPA1に複数個設けられていてもよい。 The pressure sensor 1h detects, for example, the deformation of the semiconductor strain gauge formed on the surface of the diaphragm. The pressure sensor 1h is used in situations where the user 3 holds or holds the first PA1 in his arm, or how the user 3 handles the first PA1 (whether it is handled carefully or roughly, etc.), that is, , Detects the user 3's direct action with respect to the first PA1. For example, when the output of the pressure sensor 1h exceeds a predetermined value, the PA control unit 1v transmits the value to the server 5. From the viewpoint that the pressure sensor 1h measures a value directly caused by the behavior of the user 3, a plurality of pressure sensors 1h may be provided in the first PA1.

加速度センサ1iは、例えばMEMS技術を用いて静電容量変化を検出する(3軸)。また、角速度センサ1jは、例えばコリオリ力を検出する(3軸)。加速度センサ1i及び角速度センサ1jは、圧力センサ1hと同様に第1のPA1に対するユーザ3の直接的な行動を検出する。 The accelerometer 1i detects a change in capacitance using, for example, MEMS technology (three axes). Further, the angular velocity sensor 1j detects, for example, the Coriolis force (three axes). The acceleration sensor 1i and the angular velocity sensor 1j detect the user 3's direct action with respect to the first PA1 in the same manner as the pressure sensor 1h.

バイタルセンサ7は、例えばリストバンド形状に構成されている(図1参照)。バイタルセンサ7は例えば近赤外光の受発光素子を備えており、ユーザ3の手首等に装着されて脈波等を計測する。もちろん、バイタルセンサ7を用いて脈波のみならず、ユーザ3のリストバンド装着部位の体温を計測してもよい。また、バイタルセンサ7が加速度や角速度の計測が可能な場合、これらを計測してもよい。また、脈波に関しては、上述したカメラ1eでユーザ3の顔画像等を動画として撮像し、撮像した画像(特にGチャネルの出力)を用いてユーザ3の脈波を計測してもよい。 The vital sensor 7 is configured in, for example, a wristband shape (see FIG. 1). The vital sensor 7 is provided with, for example, a near-infrared light receiving / emitting element, and is attached to the wrist or the like of the user 3 to measure a pulse wave or the like. Of course, the vital sensor 7 may be used to measure not only the pulse wave but also the body temperature of the wristband wearing portion of the user 3. If the vital sensor 7 can measure acceleration and angular velocity, these may be measured. As for the pulse wave, the face image of the user 3 or the like may be captured as a moving image by the above-mentioned camera 1e, and the pulse wave of the user 3 may be measured using the captured image (particularly the output of the G channel).

なお第1実施形態においては、第1のセンサ群41のうち、バイタルセンサ7以外は第1のPA1に内蔵されている。第1のPA1の外部に存するバイタルセンサ7は、BLE等の無線によって第1のPA1と接続され、脈波の計測結果は第1のPA1を介してサーバ5に送信される。なお、第1のセンサ群41で取得された情報は、後述する学習モデルの入力に供されることから、第1のセンサ群41からの情報の取得にあたっては同期が図られる。もちろん当該同期のトリガは特に限定される必要はなく、情報は周期的に取得されてもよいし、例えばマイクロフォン1fの出力が所定の値よりも大きくなった状態をトリガとして取得されてもよい。 In the first embodiment, among the first sensor group 41, all but the vital sensor 7 are built in the first PA1. The vital sensor 7 existing outside the first PA1 is connected to the first PA1 by radio such as BLE, and the pulse wave measurement result is transmitted to the server 5 via the first PA1. Since the information acquired by the first sensor group 41 is used for inputting the learning model described later, synchronization is achieved when acquiring the information from the first sensor group 41. Of course, the trigger for the synchronization is not particularly limited, and the information may be acquired periodically, or for example, a state in which the output of the microphone 1f becomes larger than a predetermined value may be acquired as a trigger.

次に入力部1kについて説明する。入力部1kは、例えば第1のPA1の所定位置に設けられ外部からのタッチや押圧を検出する。入力部1kの用途としては、ユーザ3(ここでは、幼児)に接する第三者15が、ユーザ3の状況を判断し、例えば「落ち着いている」、「いらいらしている」等のユーザ3の状況(後述する「感性指標」に対応する)を入力する。入力部1kとして、これらユーザ3の種々の状況に対応した押圧スイッチを複数設けてもよいし、所定の項目を選択した上で確定する方式の入力インタフェースを構成してもよい。 Next, the input unit 1k will be described. The input unit 1k is provided at a predetermined position of the first PA1, for example, and detects an external touch or pressure. As an application of the input unit 1k, a third party 15 who is in contact with the user 3 (here, an infant) determines the situation of the user 3, and for example, the user 3 such as "calm" or "irritated". Enter the situation (corresponding to the "sensitivity index" described later). As the input unit 1k, a plurality of pressing switches corresponding to the various situations of the user 3 may be provided, or an input interface of a method of confirming after selecting a predetermined item may be configured.

次に、出力インタフェース53(第1のユーザインタフェース)について説明する。伝達部1lは、第1のPA1の表面の一部に設けられた例えば柔軟性を備えるポリプロピレン(PP)等で構成される膜状部材である。幼児前半の期間におけるユーザ3を想定したとき、例えばユーザ3が第1のPA1を抱きかかえた際に、伝達部1lを介して母親の心臓の鼓動を模した比較的低周波の振動を伝達することで、ユーザ3をよりリラックスした状態に導くことが可能である。 Next, the output interface 53 (first user interface) will be described. The transmission unit 1l is a film-like member provided on a part of the surface of the first PA1 and made of, for example, flexible polypropylene (PP) or the like. Assuming the user 3 in the first half of the infant period, for example, when the user 3 holds the first PA1, a relatively low frequency vibration that imitates the heartbeat of the mother is transmitted through the transmission unit 1l. Therefore, it is possible to lead the user 3 to a more relaxed state.

また出力インタフェース53には、音声等を出力するスピーカ1m、第1のPA1の目視しやすい部位に設けられ例えばLED(Light Emitting Diode)やOLED(Organic Light Emitting Diode)で構成された発光部1n、第1のPA1に所定の機械的動作を行わせるアクチュエータ1o(この一種としてのバイブレータ)の少なくとも一つが含まれる。これらは、ネットワーク4を介してサーバ5から送信された情報及び指示に基づいて駆動される。 Further, the output interface 53 includes a speaker 1 m that outputs sound and the like, and a light emitting unit 1n that is provided in an easily visible portion of the first PA1 and is composed of, for example, an LED (Light Emitting Diode) or an OLED (Organic Light Emitting Diode). At least one of the actuators 1o (vibrator as a kind thereof) that causes the first PA1 to perform a predetermined mechanical operation is included. These are driven based on the information and instructions transmitted from the server 5 via the network 4.

次にサーバ5について説明する。サーバ5は、ネットワーク4を介して第1のPA1、情報端末6と情報の入出力を行うサーバネットワークインタフェース5aと、サーバ制御部5nを備える。サーバ制御部5nは、例えばROMやRAM等で構成されるサーバ記憶部5bと、例えばCPU等で構成されるサーバ演算部5cとを備える。サーバ演算部5cは、サーバ記憶部5bに記憶されたプログラム等に基づき、サーバ5の他の構成要素を制御する。 Next, the server 5 will be described. The server 5 includes a first PA1, a server network interface 5a that inputs / outputs information to / from the information terminal 6, and a server control unit 5n via the network 4. The server control unit 5n includes, for example, a server storage unit 5b composed of a ROM, a RAM, or the like, and a server calculation unit 5c composed of, for example, a CPU or the like. The server calculation unit 5c controls other components of the server 5 based on a program or the like stored in the server storage unit 5b.

更にサーバ5は、画像認識部5d、音声認識部5e、話者解析部5f、ユーザ状況推定部5g、バイタルデータ解析部5h、PA指令生成部5i、ユーザ成熟度判定部5j、データベース5k、ユーザ行動範囲認識部5mを含む。 Further, the server 5 includes an image recognition unit 5d, a voice recognition unit 5e, a speaker analysis unit 5f, a user situation estimation unit 5g, a vital data analysis unit 5h, a PA command generation unit 5i, a user maturity determination unit 5j, a database 5k, and a user. Includes an action range recognition unit 5 m.

画像認識部5dは、第1のPA1から送信された画像情報からユーザ3の顔領域を抽出し、所定の特徴量を抽出する。音声認識部5eは、第1のPA1から送信された音情報から「音素」を抽出し、テキストに変換したうえで語彙情報を特定する。話者解析部5fは音情報に対して例えば周波数分析を行って、少なくとも話者としてのユーザ3と第三者15(母親以外を含んでもよい)とを区別する。バイタルデータ解析部5hは、第1のPA1から送信されたユーザ3の脈波情報等に基づき、ユーザ3の体調等を推定する。PA指令生成部5iは、サーバ制御部5nの指示に基づき第1のPA1に対する所定のコマンド等を生成して送信する。ユーザ成熟度判定部5jは、特に音声認識部5eが認識した語彙数、単語の難易度、認識の確からしさの程度を判定する。データベース5kはいわゆる大容量ストレージで構成されている。 The image recognition unit 5d extracts the face region of the user 3 from the image information transmitted from the first PA1 and extracts a predetermined feature amount. The voice recognition unit 5e extracts "phonemes" from the sound information transmitted from the first PA1, converts them into text, and then specifies the vocabulary information. The speaker analysis unit 5f performs, for example, frequency analysis on the sound information to distinguish at least the user 3 as a speaker and the third party 15 (which may include other than the mother). The vital data analysis unit 5h estimates the physical condition of the user 3 based on the pulse wave information of the user 3 transmitted from the first PA1. The PA command generation unit 5i generates and transmits a predetermined command or the like for the first PA1 based on the instruction of the server control unit 5n. The user maturity determination unit 5j determines, in particular, the number of vocabularies recognized by the voice recognition unit 5e, the difficulty level of the word, and the degree of certainty of recognition. The database 5k is composed of so-called large-capacity storage.

データベース5kには上述したように、第1のPA1からサーバ5に送信されたユーザID及びユーザ3の個人情報が記憶されている。またデータベース5kには予め一通りの学習が完了した学習モデルが格納されている。ユーザ状況推定部5gは、第1のセンサ群41で取得された情報を当該学習モデルに入力して(以下に示すように、一部は特徴量等に変換された情報が入力される)、学習モデルの出力として所定の指標(感性指標)を導出する。ここで学習モデルとしては、例えばパターン認識モデルであるSVM(Support Vector Machine)が好適に応用できる。もちろん深層学習によって、複数の感性指標に対して各々学習を施されたモデルを適用してもよい。 As described above, the database 5k stores the user ID and the personal information of the user 3 transmitted from the first PA1 to the server 5. Further, the database 5k stores a learning model in which a series of learning has been completed in advance. The user situation estimation unit 5g inputs the information acquired by the first sensor group 41 into the learning model (as shown below, some information converted into feature quantities and the like is input). A predetermined index (sensitivity index) is derived as the output of the learning model. Here, as the learning model, for example, SVM (Support Vector Machine), which is a pattern recognition model, can be preferably applied. Of course, a model that has been trained for each of a plurality of Kansei indexes may be applied by deep learning.

この学習モデルに対して入力されるのは、例えば、カメラ1eで取得されたカメラ画像(静止画が望ましく、動画の場合は静止画がキャプチャされる)に基づき画像認識部5dが生成した特徴量、マイクロフォン1fで取得された音情報に基づく声のトーンや音声認識部5eが生成した語彙情報、匂いセンサ1gで取得された匂い情報(特に排尿や排便に関連する匂い)、ユーザ3の第1のPA1に対する直接的に行動によって圧力センサ1h、加速度センサ1i、角速度センサ1jで取得された情報である。もちろん、これと併せてバイタルデータ解析部5hの出力が入力されてもよい。 What is input to this learning model is, for example, a feature amount generated by the image recognition unit 5d based on a camera image acquired by the camera 1e (a still image is desirable, and a still image is captured in the case of a moving image). , Voice tone based on sound information acquired by microphone 1f, vocabulary information generated by voice recognition unit 5e, odor information acquired by odor sensor 1g (particularly odor related to urination and defecation), user 3 first. This is the information acquired by the pressure sensor 1h, the acceleration sensor 1i, and the angular velocity sensor 1j by the direct action of the PA1. Of course, the output of the vital data analysis unit 5h may be input together with this.

ここで感性指標とはユーザ3の状況を示す指標であり、「笑っている」、「怒っている」、「泣いている」といった表情に現れやすい状況、「落ち着いている」、「いらいらしている」、「興奮している」、「安静にしている」、「集中している」といった内面的な状況が同時に含まれうる、ユーザ状況推定部5gは学習モデルを適用して、「泣いている」、「興奮している」のように複数の側面において感性指標を導出する。そして、この感性指標の組み合わせによってユーザ3の状況が推定される。このように、第1実施形態においては、学習モデルは一群の入力に対して複数の感性指標を出力するが、もちろん感性指標は単一であってもよい。 Here, the Kansei index is an index showing the situation of the user 3, and is a situation that tends to appear in facial expressions such as "laughing", "angry", and "crying", "calm", and "irritated". The user situation estimation unit 5g, which can simultaneously include internal situations such as "being", "excited", "resting", and "concentrating", applies a learning model and "crying". Derivation of Kansei indicators in multiple aspects such as "I am" and "I am excited". Then, the situation of the user 3 is estimated by the combination of the sensitivity indexes. As described above, in the first embodiment, the learning model outputs a plurality of Kansei indexes for a group of inputs, but of course, a single Kansei index may be used.

また、感性指標は、ユーザ3の置かれた環境によっても影響をうけることから、学習モデルを構築(学習)する際に、環境センサ50で取得した情報が参照されてもよい。このとき学習済みの学習モデルの入力には、環境センサ50から取得された情報も含まれることとなる。また同様に、感性指標は、ユーザ3の体調や健康に関連する肉体的あるいは身体的なコンディションによっても影響を受けることから、バイタルセンサ7で取得され、あるいはカメラ1eで撮像された画像を用いた脈波情報に基づく値が加味されてもよい。このとき、サーバ5はバイタルセンサ7から得られた脈波の計測結果を参照してユーザ3のストレス度合い等を計測して、これをユーザ状況推定部5gの入力として用いてもよい。 Further, since the sensitivity index is also affected by the environment in which the user 3 is placed, the information acquired by the environment sensor 50 may be referred to when constructing (learning) the learning model. At this time, the input of the learned learning model also includes the information acquired from the environment sensor 50. Similarly, since the sensitivity index is also affected by the physical or physical condition related to the physical condition and health of the user 3, the image acquired by the vital sensor 7 or captured by the camera 1e was used. A value based on pulse wave information may be added. At this time, the server 5 may measure the stress degree of the user 3 by referring to the measurement result of the pulse wave obtained from the vital sensor 7, and use this as an input of the user situation estimation unit 5g.

ユーザ状況推定部5gは導出した感性指標をサーバ制御部5nに送信する。感性指標を受信したサーバ制御部5nは、PA指令生成部5iに対して、例えばユーザ3が「興奮している」かつ「泣いている」状況においては、過去に学習した(あるいは当初に学習済みの)応答内容のうち、ユーザ3を「興奮している」かつ「泣いている」状況から「落ち着いている」状況に変化させた際の応答内容である音楽や音声(例えば母親の言葉)を抽出するよう指示を行い、これを受けてPA指令生成部5iは、データベース5kを検索して適切と推定されるコンテンツデータを選定し、音声による再生指示を第1のPA1に対して出力する。もちろん予め感性指標と第1のPA1の発光部1nの発光パターンや、アクチュエータ1o(バイブレータ)を駆動することによる第1のPA1の動作パターンの間に、何らかの相関(ここでは、例えばユーザ3をリラックスさせる効果)があるのであれば、音声のみならず、発光部1nの発光パターンや第1のPA1の動作パターン(振動パターン)に関する再生指示を出力してもよい。 The user situation estimation unit 5g transmits the derived sensitivity index to the server control unit 5n. The server control unit 5n that received the sensitivity index learned from the PA command generation unit 5i in the past (or initially learned) in a situation where the user 3 is "excited" and "crying", for example. Of the response contents, the music and voice (for example, mother's words) that are the response contents when the user 3 is changed from the "excited" and "crying" situation to the "calm" situation. Instructed to extract, the PA command generation unit 5i searches the database 5k, selects content data that is presumed to be appropriate, and outputs an audio reproduction instruction to the first PA1. Of course, there is some correlation (here, for example, user 3 is relaxed) between the sensitivity index and the light emission pattern of the light emitting unit 1n of the first PA1 and the operation pattern of the first PA1 by driving the actuator 1o (vibrator). If there is such an effect), not only the sound but also the reproduction instruction regarding the light emission pattern of the light emitting unit 1n and the operation pattern (vibration pattern) of the first PA1 may be output.

このようにすることで、第1のセンサ群41の出力に基づいて導出された感性指標を用いて、第1のPA1とユーザ3との間にインタラクションが発生する。例えば、バイタルセンサ7で取得した所定時間における脈波の数(即ち心拍数)が通常よりも多く、ユーザ3が第1のPA1を叩いたり投げ飛ばしたりする行為が検出された場合(このとき圧力センサ1h、加速度センサ1i、角速度センサ1jの出力が大きく変動する)、ユーザ状況推定部5gは、例えばユーザ3が「イライラしている」と判断する。これに基づいてサーバ制御部5nは、複数の応答候補のうちから、例えば母親の言葉「〇〇ちゃん、よしよし。おりこうさん」を再生することが最も効果的だと判断して、PA指令生成部5iに対して、当該コンテンツを再生する指示を第1のPA1に送信するよう指令を行い、PA指令生成部5iは当該指令に基づき、第1のPA1に所定のコマンドとコンテンツに関するデータを送信する。 By doing so, an interaction occurs between the first PA1 and the user 3 by using the sensitivity index derived based on the output of the first sensor group 41. For example, when the number of pulse waves (that is, heart rate) acquired by the vital sensor 7 at a predetermined time is larger than usual and the user 3 hits or throws the first PA1 is detected (at this time, the pressure sensor). 1h, the output of the acceleration sensor 1i and the angular velocity sensor 1j fluctuates greatly), and the user situation estimation unit 5g determines, for example, that the user 3 is "irritated". Based on this, the server control unit 5n determines that it is most effective to reproduce, for example, the mother's words "○○ -chan, Yoshiyoshi. Oriko-san" from among a plurality of response candidates, and generates a PA command. A command is given to the unit 5i to transmit an instruction to reproduce the content to the first PA1, and the PA command generation unit 5i transmits data related to a predetermined command and the content to the first PA1 based on the command. To do.

このようにして第1のPA1で再生される、音、発光ないし動作パターンによって、ユーザ3には新たな感情及び行動の変化が生じる。当該感情及び行動の変化は、第1のセンサ群41によって取得され、サーバ5に送信されて新たな感性指標が導出される。例えば「いらいらしている」という感情指標に改善が見られないとき、サーバ制御部5nは効果的と考えられるコンテンツのうち、他の候補の使用を指令し、ユーザ3と第1のPA1とのインタラクションが継続される。そしてこのインタラクションを通じて、サーバ制御部5nは、感情指標に対して応答すべきコンテンツのプライオリティを修正する。この応答内容はデータベース5kに蓄積され、感性指標と応答内容との関連が学習される。 The sound, light emission, or motion pattern reproduced in the first PA1 in this way causes the user 3 to experience new emotional and behavioral changes. The emotional and behavioral changes are acquired by the first sensor group 41 and transmitted to the server 5 to derive a new sensitivity index. For example, when there is no improvement in the emotional index of "irritated", the server control unit 5n commands the use of other candidates among the contents considered to be effective, and the user 3 and the first PA1 Interaction continues. Then, through this interaction, the server control unit 5n modifies the priority of the content to respond to the emotional index. This response content is accumulated in the database 5k, and the relationship between the sensitivity index and the response content is learned.

このように第1実施形態においては、サーバ5は、第1の期間T1(上述したように第2の期間T2よりも過去を含む期間)においては、第1のセンサ群41から取得した情報に基づいてユーザ3の状況(感性指標)を推定し、推定したユーザ3の状況に基づいて、第1のPA1に設けられた第1のユーザインタフェース(ここでは例えば出力インタフェース53に含まれるスピーカ1m)を介してユーザ3に応答するとともに、この応答内容とユーザ3の状況(感性指標)とを関連付けて学習する。更に後述するように、第2の期間T2においては、第2のPA2に設けられた第2のセンサ群42から取得した情報に基づいてユーザ3の状況を推定し、推定したユーザ3の状況に基づいて、第1の期間T1において学習された応答内容を参照し、第2のPA2に設けられた第2のユーザインタフェース(例えば、スピーカ1mやディスプレイ1u(図4参照))を介してユーザ3に応答する。 As described above, in the first embodiment, the server 5 receives the information acquired from the first sensor group 41 in the first period T1 (the period including the past than the second period T2 as described above). The situation (sensitivity index) of the user 3 is estimated based on the situation, and the first user interface provided in the first PA1 (here, for example, the speaker 1 m included in the output interface 53) is estimated based on the estimated situation of the user 3. While responding to the user 3 via the above, the response content and the situation (sensitivity index) of the user 3 are associated with each other for learning. Further, as will be described later, in the second period T2, the situation of the user 3 is estimated based on the information acquired from the second sensor group 42 provided in the second PA2, and the estimated situation of the user 3 is obtained. Based on this, the response content learned in the first period T1 is referred to, and the user 3 is referred to through the second user interface provided in the second PA2 (for example, the speaker 1 m or the display 1u (see FIG. 4)). Respond to.

ここで重要なのは、第1の期間T1において情報を取得する第1のセンサ群41と、第2の期間T2において情報を取得する第2のセンサ群42とには異なるセンサが含まれているが、ユーザ状況推定部5gは、異なるセンサから取得された情報が入力として含まれる場合であっても、ユーザ3の状況を共通の指標である感性指標として導出する点である。この共通する感性指標を用いることで、ユーザ3が乳児のときに学習された応答内容を、その後ユーザ3が幼児に成長したときにおいても活用できるようになる。 What is important here is that the first sensor group 41 that acquires information in the first period T1 and the second sensor group 42 that acquires information in the second period T2 include different sensors. The user situation estimation unit 5g derives the situation of the user 3 as a sensitivity index, which is a common index, even when information acquired from different sensors is included as an input. By using this common sensitivity index, the response contents learned when the user 3 is an infant can be utilized even when the user 3 grows up to be an infant.

なお、第1のセンサ群41の出力と応答すべきコンテンツを直接的に関連付けて学習することも可能である。ただしこの場合、学習モデルのブラックボックス化の度合いが大きくなる。第1のセンサ群41の出力と、出力すべきコンテンツの間にユーザ3の年代に依存しない共通指標としての「感性指標」を設けることで、ブラックボックス化は最低限に留められ、ユーザ3の年代に問わず適切なサポートを行うことが可能となる。 It is also possible to directly associate the output of the first sensor group 41 with the content to be responded to and learn. However, in this case, the degree of black boxing of the learning model increases. By providing an "sensitivity index" as a common index that does not depend on the age of the user 3 between the output of the first sensor group 41 and the content to be output, black boxing is kept to a minimum, and the user 3 Appropriate support can be provided regardless of age.

また、第1のPA1に設けられた入力部1kに対する入力結果(第三者15が抱く主観的なユーザ3の状況)と、ユーザ状況推定部5gが推定した感性指標との間に乖離がある場合は、上述した学習モデルの再トレーニングや追加学習を行うことで、乖離を小さくすることが可能である。 In addition, there is a discrepancy between the input result for the input unit 1k provided in the first PA1 (the subjective situation of the user 3 held by the third party 15) and the sensitivity index estimated by the user situation estimation unit 5g. In that case, it is possible to reduce the divergence by retraining the learning model described above or performing additional learning.

また、データベース5kには、カメラ1eで撮像された画像情報が、撮像年月日、撮像時刻、感性指標とともに蓄積(アーカイブ)される。もちろん撮像時に得られた他の第1のセンサ群41に基づく情報が画像情報と関連付けて蓄積されてもよい。 Further, in the database 5k, the image information captured by the camera 1e is stored (archived) together with the imaging date, the imaging time, and the sensitivity index. Of course, the information based on the other first sensor group 41 obtained at the time of imaging may be accumulated in association with the image information.

更に、データベース5kには、マイクロフォン1fで収録された音情報が、収録年月日、収録時刻、感性指標とともに蓄積されてもよい。もちろん収録時に得られた他の第1のセンサ群41に基づく情報が音情報と関連付けて蓄積されてもよく、例えば異常音が検出されたようなケースでは、検出時の過去数十秒に遡って画像情報を蓄積するようにしてもよい。 Further, the sound information recorded by the microphone 1f may be stored in the database 5k together with the recording date, the recording time, and the sensitivity index. Of course, the information based on the other first sensor group 41 obtained at the time of recording may be accumulated in association with the sound information. For example, in the case where an abnormal sound is detected, it goes back to the past several tens of seconds at the time of detection. The image information may be accumulated.

これら蓄積された画像情報や音情報は、ユーザ3または第三者15が、後に第1のPA1や情報端末6に対して音声等にて指示することで再生が可能とされている。例えばユーザ3は成人に達した後に「私が3歳のころ、笑っている写真が見たい」とリクエストを行うことができる。サーバ5の音声認識部5eは当該リクエストを解釈し、サーバ制御部5nは年代に感性指標をキーとして加えてデータベース5kを検索し、例えば情報端末6にユーザ3が所望する情報を送信する。 The accumulated image information and sound information can be reproduced by the user 3 or the third party 15 later instructing the first PA 1 or the information terminal 6 by voice or the like. For example, user 3 can make a request after reaching adulthood, "I want to see a laughing picture when I was 3 years old." The voice recognition unit 5e of the server 5 interprets the request, and the server control unit 5n searches the database 5k by adding the sensitivity index as a key in the age, and transmits, for example, the information desired by the user 3 to the information terminal 6.

また、サーバ制御部5nは、第1のPA1の環境センサ50(人感センサ1a)の計測結果及び話者解析部5fの解析結果に基づいて、例えば第三者15(ここでは母親)とユーザ3とのインタラクションを検出する。第三者15がユーザ3に語りかけたときの音声は音情報としてデータベース5kに蓄積されるとともに、音声認識部5eで語彙として抽出され、更にそのときのユーザ3の感性指標が取得される。このインタラクションの状況もデータベース5kに蓄積され、第三者15の行為(ここでは語りかけ)と第1のセンサ群41で取得した情報に基づく前記ユーザ3の状況(感性指標)とが関連付けられて学習される。 Further, the server control unit 5n is, for example, a third party 15 (here, a mother) and a user based on the measurement result of the environment sensor 50 (human sensor 1a) of the first PA1 and the analysis result of the speaker analysis unit 5f. Detect the interaction with 3. The voice when the third party 15 speaks to the user 3 is stored in the database 5k as sound information, and is extracted as a vocabulary by the voice recognition unit 5e, and the sensitivity index of the user 3 at that time is acquired. The status of this interaction is also accumulated in the database 5k, and learning is performed by associating the actions of the third party 15 (speaking here) with the status of the user 3 (sensitivity index) based on the information acquired by the first sensor group 41. Will be done.

この学習によって、例えば母親の「〇〇ちゃん、可愛いよ」との語りかけにより、ユーザ3の感性指標が「興奮している」から「おちついている」、「笑っている」に変化した場合が多いほど、ユーザ3の感性指標が「興奮している」となった状況においては、データベース5kに蓄積された音情報のうち、母親の「〇〇ちゃん、可愛いよ」の発声行為が第1のPA1で再生・再現される確率が高くなる。この機能は、特にユーザ3の近くに第三者15が不在であるときに、例えばユーザ3が泣き出したようなシーンにおいて、有効に機能する。 Through this learning, for example, the mother's speech "○○ -chan is cute" often changed the sensitivity index of user 3 from "excited" to "calm down" and "laughing". In the situation where the sensitivity index of user 3 is "excited", among the sound information stored in the database 5k, the mother's utterance of "OO-chan, cute" is the first PA1. The probability of being reproduced / reproduced is high. This function is effective especially when a third party 15 is absent near the user 3, for example, in a scene where the user 3 starts crying.

このように、第1実施形態においては、サーバ5は、第1の期間T1において、第1のセンサ群41から取得した情報に基づいて、ユーザ3に対する第三者15の行為(例えば語りかけ)を抽出し、第三者15の行為と第1のセンサ群41で取得した情報に基づくユーザ3の状況(感性指標)とを関連付けて学習する。後に説明するように、第2の期間T2においては、第2のセンサ群42で取得した情報から推定されたユーザ3の状況に基づいて、第1の期間T1における第三者15の行為の少なくとも一部を再現するよう、第2のPA2に対して指示が行われる。 As described above, in the first embodiment, the server 5 performs an action (for example, talking) of the third party 15 to the user 3 based on the information acquired from the first sensor group 41 in the first period T1. It is extracted and learned by associating the actions of the third party 15 with the situation (sensitivity index) of the user 3 based on the information acquired by the first sensor group 41. As will be described later, in the second period T2, at least the actions of the third party 15 in the first period T1 are based on the situation of the user 3 estimated from the information acquired by the second sensor group 42. Instructions are given to the second PA2 to reproduce part of it.

なお、第三者15とユーザ3とのインタラクションは上述した直接的なものに限定されない。第1実施形態では、環境センサ50で取得された情報、カメラ1eで撮像された画像情報、マイクロフォン1fで収録された音情報等は、ネットワーク4を介してサーバ5に送信され、サーバ5はこれらの情報を第三者15の所持する情報端末6に送信することが可能である。このとき上述した感性指標が同時に送信されてもよい。更にサーバ5は、情報端末6に備えられた第2のマイクロフォン(図示せず)で収録された音情報を受信して、PA指令生成部5iを介して音声の再生指示を1のPA1に送信することが可能である。 The interaction between the third party 15 and the user 3 is not limited to the direct one described above. In the first embodiment, the information acquired by the environment sensor 50, the image information captured by the camera 1e, the sound information recorded by the microphone 1f, and the like are transmitted to the server 5 via the network 4, and the server 5 performs these. It is possible to transmit the information of the above to the information terminal 6 possessed by the third party 15. At this time, the above-mentioned sensitivity index may be transmitted at the same time. Further, the server 5 receives the sound information recorded by the second microphone (not shown) provided in the information terminal 6 and transmits the voice reproduction instruction to the PA1 of 1 via the PA command generation unit 5i. It is possible to do.

例えば、情報端末6で受信した画像情報や音情報に基づきユーザ3が泣いていることを第三者15が把握した場合、第三者15は情報端末6の第2のマイクロフォン(図示せず)を用いて間接的にユーザ3に語りかけることができる。また第三者15が例えば部屋の温度や湿度が高い、部屋が明るすぎる等と判断した場合は、情報端末6を操作してユーザ3の置かれた環境をより快適にすることもできる。このようなユーザ3に対する第三者15の行為も結果的に環境センサ50、第1のセンサ群41で計測されて、サーバ5で感性指標が導出される。そしてこれらの第三者15の行為と感性指標は関連付けられて学習に供される。そして例えばサーバ5は、ユーザ3が特定の状況になった際に、例えば情報端末6を介して第三者15に対して「部屋の明かりを少し暗くすると、○○ちゃんが落ち着きますよ」といったアドバイスを提供してもよく、更にサーバ5に部屋の照明を制御する機能がある場合は、部屋の照明を暗くするよう制御してもよい。 For example, when the third party 15 grasps that the user 3 is crying based on the image information and the sound information received by the information terminal 6, the third party 15 is the second microphone of the information terminal 6 (not shown). Can be used to indirectly speak to the user 3. Further, when the third party 15 determines that the temperature and humidity of the room are high, the room is too bright, or the like, the information terminal 6 can be operated to make the environment in which the user 3 is placed more comfortable. As a result, such actions of the third party 15 with respect to the user 3 are also measured by the environment sensor 50 and the first sensor group 41, and the sensitivity index is derived by the server 5. Then, the actions of these third parties 15 and the sensitivity index are associated and used for learning. Then, for example, when the user 3 becomes a specific situation, the server 5 tells the third party 15 via the information terminal 6, for example, "If the room light is slightly dimmed, XX will calm down." Advice may be provided, and if the server 5 has a function to control the lighting of the room, it may be controlled to dim the lighting of the room.

さて、上述したように、第1の期間T1は、ユーザ3が乳児(例えば0歳〜満一歳)〜幼児前半(例えば一歳〜二歳)の期間と想定している。第1の期間T1においてユーザ3の成長は特に言語の発達において著しいとされている。乳児は生後二か月を過ぎると、「あ−」や「うー」といったいわゆる「クーイング」を始める。その後、第三者15とのインタラクションが進むうちに、乳児は「音が聞こえたこと」に対して徐々に音声で反応するようになり、更に生後四か月を過ぎるころから、「まぁ−」、「だー」といった母音の他に子音を含む喃語を発するようになる。そして生後八カ月を過ぎると、様々な子音を明確に発声できるようになり、母親等の発する語彙の模倣が始まる。厚生労働省の資料等によれば、その後、生後二十か月までの間に、およそ95%の幼児が意味のある単語を自己意思に基づいて話すことができるとされている。その一方で、乳児から幼児にかけての言葉の発達には個人差が大きいことも知られている。 As described above, the first period T1 assumes that the user 3 is a period from an infant (for example, 0 years old to 1 year old) to the first half of an infant (for example, 1 year old to 2 years old). In the first period T1, the growth of the user 3 is said to be remarkable especially in the development of the language. Infants begin so-called "cooling" such as "ah" and "uh" after two months of age. After that, as the interaction with the third party 15 progressed, the baby gradually began to respond to "hearing the sound" by voice, and after four months of age, "Well-" , "Da" and other babbling words including consonants will be emitted. After eight months of age, various consonants can be uttered clearly, and imitation of the vocabulary produced by mothers and the like begins. According to materials from the Ministry of Health, Labor and Welfare, about 95% of infants can speak meaningful words on their own initiative by the time they are 20 months old. On the other hand, it is also known that there are large individual differences in language development from infants to infants.

第1の期間T1において、乳児または幼児が成長していくと、音声認識部5eにおいて認識される語彙の数が増加していき、また使用される単語の難易度も上がり、また成長に伴って発音が明瞭になっていくことで音声認識部5eによる認識率も向上していく。 In the first period T1, as the baby or toddler grows up, the number of vocabularies recognized by the speech recognition unit 5e increases, the difficulty of the words used also increases, and as the baby grows up, As the pronunciation becomes clearer, the recognition rate by the voice recognition unit 5e also improves.

サーバ5に設けられたユーザ成熟度判定部5jは、音声認識部5eが認識した語彙数、単語の難易度、認識の確からしさの程度の少なくとも一つに基づいて、ユーザ3の成熟度を判定する。即ち、ユーザ成熟度判定部5jはコーパス等に基づいてユーザ3の言語能力を評価して、これを成熟度指標として出力する。サーバ制御部5nは成熟度指標が所定の値よりも大きくなった場合、ユーザ3が言語を用いたより高度なインタラクションが十分に可能な段階に到達したと判断し、ユーザ3または第三者15に対して、例えば第1のPA1または情報端末6を通じて、第1のPA1の役割が終了する時期に近づいており、ユーザ3に対して例えば文字や画像による情報提供といったより高度なインタラクションが実行可能に構成された第2のパーソナルアシスタント(後に説明する第2のPA2)への入れ替え(新規購入等)を促す提案が行われる。なお、ユーザ成熟度判定部5jはユーザ状況推定部5gが出力する感性指標を参照して、例えば一日において喜怒哀楽が変化する割合が小さくなったことを参照してユーザ3の成熟度を判定してもよく、また、ユーザ行動範囲認識部5mによって推定されたユーザ3の行動範囲が所定の値より拡大したことを参照してもよく、更に、PA記憶部1qに記憶されたユーザ個人情報のうち、生年月日の情報を参照してもよい。 The user maturity determination unit 5j provided on the server 5 determines the maturity of the user 3 based on at least one of the number of vocabularies recognized by the voice recognition unit 5e, the difficulty level of the word, and the degree of certainty of recognition. To do. That is, the user maturity determination unit 5j evaluates the language ability of the user 3 based on the corpus or the like, and outputs this as a maturity index. When the maturity index becomes larger than a predetermined value, the server control unit 5n determines that the user 3 has reached a stage where more advanced interaction using the language is sufficiently possible, and the user 3 or the third party 15 is notified. On the other hand, for example, through the first PA1 or the information terminal 6, the time when the role of the first PA1 is about to end is approaching, and more advanced interaction such as providing information by characters or images to the user 3 can be executed. A proposal is made to encourage replacement (new purchase, etc.) with the configured second personal assistant (second PA2 described later). The user maturity determination unit 5j determines the maturity of the user 3 by referring to the sensitivity index output by the user situation estimation unit 5g, for example, by referring to the fact that the rate of change in emotions and emotions decreases in one day. It may be determined, or it may be referred to that the action range of the user 3 estimated by the user action range recognition unit 5 m is expanded beyond a predetermined value, and further, the individual user stored in the PA storage unit 1q may be referred to. Of the information, the information on the date of birth may be referred to.

図4は、本発明の第1実施形態における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図である。なお、図4においてサーバ5は図3を用いて説明したものと同等であるので同一の符号を付したうえで説明を省略し、第2のPA2に含まれる構成要素についても、図3で説明したものと共通な要素には同一の符号を付し、説明を省略する。 FIG. 4 is a block diagram showing the configuration of the personal assistant control system S1 in the second period T2 in the first embodiment of the present invention. Since the server 5 is the same as that described with reference to FIG. 3 in FIG. 4, the description is omitted after assigning the same reference numerals, and the components included in the second PA2 are also described with reference to FIG. The same reference numerals are given to the elements common to the above, and the description thereof will be omitted.

以降、図4に図3を併用して、第2の期間T2に利用される第2のPA2について説明する。図示するように、第2のPA2は第2のセンサ群42を備える。第2のセンサ群42は上述した第1のセンサ群41と比較して、匂いセンサ1g、圧力センサ1h、加速度センサ1i、角速度センサ1jが除去され、他方、第1位置情報センサ1tと第2位置情報センサ8とが追加されている。 Hereinafter, the second PA2 used in the second period T2 will be described with reference to FIG. 3 in combination with FIG. As shown, the second PA2 includes a second sensor group 42. In the second sensor group 42, the odor sensor 1g, the pressure sensor 1h, the acceleration sensor 1i, and the angular velocity sensor 1j are removed as compared with the first sensor group 41 described above, while the first position information sensor 1t and the second sensor group 42 are removed. A position information sensor 8 is added.

また出力インタフェース53については、第1のPA1と比較して伝達部1l、発光部1nが除去され、他方、ディスプレイ1uが追加されている。即ち、第2のPA2は、出力インタフェース53(第2のユーザインタフェース)として、少なくともスピーカ1m、ディスプレイ1u、アクチュエータ1oの一つを含む。 As for the output interface 53, the transmission unit 1l and the light emitting unit 1n are removed as compared with the first PA1, while the display 1u is added. That is, the second PA2 includes at least one of the speaker 1m, the display 1u, and the actuator 1o as the output interface 53 (second user interface).

上述したように、第2の期間T2はユーザ3が幼児後半(例えば3歳〜小学校就学前)の期間を想定している。一般に幼児は1歳半〜2歳頃までに日中の「おむつはずれ」ができるようになるのが目安とされていることから、第2の期間T2において使用される第2のPA2には、日常的に排尿や排便の有無を検出する匂いセンサ1gは搭載されていない。また、第2の期間T2において、ユーザ3は自己の感情を言葉で表現することが可能となっており、更に行動についても理性的な側面が現れることから、第2のPA2に対する直接的な行為をもって感情指標を導出するよりも、カメラ1eで取得した画像情報に基づく表情や、マイクロフォン1fで取得した音情報を用いて音声認識部5eで認識した語彙に基づく方がより適切な感情指標を導出できると考えられる。もちろん、感情指標に影響を及ぼす環境センサ50やバイタルセンサ7の出力を参照すしてもよい。 As described above, the second period T2 assumes that the user 3 is in the latter half of the infant (for example, from 3 years old to before entering elementary school). In general, it is a guideline for infants to be able to "remove diapers" during the daytime by about one and a half to two years old. Therefore, the second PA2 used in the second period T2 includes The odor sensor 1g that detects the presence or absence of urination or defecation on a daily basis is not installed. Further, in the second period T2, the user 3 can express his / her emotions in words, and a rational aspect also appears in the behavior, so that the user 3 directly acts on the second PA2. It is more appropriate to derive an emotional index based on the facial expression based on the image information acquired by the camera 1e and the vocabulary recognized by the voice recognition unit 5e using the sound information acquired by the microphone 1f, rather than deriving the emotional index. It is thought that it can be done. Of course, the outputs of the environmental sensor 50 and the vital sensor 7 that affect the emotional index may be referred to.

第2のセンサ群42に含まれる第1位置情報センサ1tは、屋内において第2のPA2の位置を計測するセンサであり、例えば複数のWiFiアクセスポイントからの電波強度や到達時間の違いから三点測位を演算することで位置を計測するWiFi測位や、BLE(Bluetooth(登録商標) Low Energy)規格に基づく電波強度等を利用して三点測位を演算することで位置を計測するビーコン測位等を応用することが可能である。 The first position information sensor 1t included in the second sensor group 42 is a sensor that measures the position of the second PA2 indoors, and for example, three points due to differences in radio wave strength and arrival time from a plurality of WiFi access points. WiFi positioning that measures the position by calculating the positioning, and beacon positioning that measures the position by calculating the three-point positioning using the radio wave strength based on the BLE (Bluetooth (registered trademark) Low Energy) standard, etc. It can be applied.

また、第2位置情報センサ8は、屋内におけるユーザ3の位置を計測するセンサであり、例えば第1位置情報センサ1tと同様のセンシング手段が用いられる。この場合、ユーザ3は例えばBLE規格に基づくBeacon発信機等を携帯する。もちろん第1位置情報センサ1t及び第2位置情報センサ8としてGPS(Global Positioning System)を利用した測位センサが用いられてもよいし、IMES(Indoor MEssaging System)のような測位技術を応用してもよく、またカメラ1eが出力する画像情報を用いて、屋内における第2のPA2の位置情報を基準としてユーザ3の相対的な位置を計測し、これをもってユーザ3の位置としてもよい。この場合カメラ1eとしては、デプス情報が得られる点でいわゆるステレオカメラが望ましい。 Further, the second position information sensor 8 is a sensor that measures the position of the user 3 indoors, and for example, the same sensing means as the first position information sensor 1t is used. In this case, the user 3 carries, for example, a Beacon transmitter based on the BLE standard. Of course, a positioning sensor using GPS (Global Positioning System) may be used as the first position information sensor 1t and the second position information sensor 8, or a positioning technology such as IMES (Indoor MEssaging System) may be applied. Often, using the image information output by the camera 1e, the relative position of the user 3 may be measured with reference to the position information of the second PA2 indoors, and this may be used as the position of the user 3. In this case, the camera 1e is preferably a so-called stereo camera in that depth information can be obtained.

第2の期間T2では、ユーザ3は屋内を自由に移動することが可能となり、例えば移動速度や移動範囲は感情指標にも影響を及ぼすと考えられる。即ち、落ち着いているときは移動速度が比較的ゆっくりとなり、他方、いらいらしているときの移動速度は一般的に速くなる。また、第2のPA2とユーザ3との離間距離は、両者の関係性を示すパラメータの一つであると考えられる。特に第2のPA2がアクチュエータ1oによって移動可能に構成されているケースでは、両者の位置関係が取得されることで、感性指標に基づいて第2のPA2をユーザ3の近くに移動させたり、逆に離間させたりすることが可能となる。 In the second period T2, the user 3 can freely move indoors, and it is considered that, for example, the moving speed and the moving range also affect the emotional index. That is, when calm, the moving speed is relatively slow, while when irritated, the moving speed is generally high. Further, the separation distance between the second PA2 and the user 3 is considered to be one of the parameters indicating the relationship between the two. In particular, in the case where the second PA2 is configured to be movable by the actuator 1o, the second PA2 can be moved closer to the user 3 based on the sensitivity index by acquiring the positional relationship between the two, or vice versa. It is possible to separate them from each other.

第2の期間T2においても第2のセンサ群42で取得された情報は、ネットワーク4を介してサーバ5に送信され、ユーザ状況推定部5gは感性指標を出力し、サーバ制御部5nは感性指標に基づいてユーザ3の状況を推定し、PA指令生成部5iに対して第2のPA2に動作を選択させるとともに、PA指令生成部5iは当該動作を実行するためのコマンドを生成する。このコマンドには上述した第2のPA2の位置を移動させるコマンドも含まれる。 Also in the second period T2, the information acquired by the second sensor group 42 is transmitted to the server 5 via the network 4, the user situation estimation unit 5g outputs the sensitivity index, and the server control unit 5n outputs the sensitivity index. The situation of the user 3 is estimated based on the above, the PA command generation unit 5i is made to select the operation by the second PA2, and the PA command generation unit 5i generates a command to execute the operation. This command also includes a command to move the position of the second PA2 described above.

第2のPA2には、第1のPA1に搭載されていなかったディスプレイ1uが搭載されており、ディスプレイ1uにはテキストあるいは画像(静止画、動画)のコンテンツが表示される。サーバ5は、第2のPA2から送信されたコード情報(上述したようにPAを特定するコード)に基づいて、第2のPA2にディスプレイ1uが搭載されていると判断して、音のコンテンツに代えて、あるいは音のコンテンツとともに、画像のコンテンツを第2のPA2に送信する。 The second PA2 is equipped with a display 1u that was not mounted on the first PA1, and the content of text or an image (still image, moving image) is displayed on the display 1u. The server 5 determines that the display 1u is mounted on the second PA2 based on the code information (the code that identifies the PA as described above) transmitted from the second PA2, and sets the sound content. Alternatively, or along with the sound content, the image content is transmitted to the second PA2.

第2の期間T2ではユーザ3は言語能力の他に、画像認識能力も大幅に向上していることから、ユーザ3に対して画像のコンテンツを提供することは極めて重要となる。例えば、ユーザ3に対して乗り物の画像を表示したときに特定の感性指標(ここでは、例えば「集中している」等)が、他のコンテンツを表示したときと比較して優位であるとき、サーバ5は、例えば「こんどは外国のバスを見てみますか?」等の提案をユーザ3に対して行うようになる。これは画像情報に限られたものではなく、音情報についても、同様の提案を行うことが可能である。これによってユーザ3の知的好奇心が育まれ、更に「〇〇ちゃんは、街中のモビリティに対する興味がとても高いようです。関連する基礎知識の提供頻度を増やしましょうか?」のように、情報端末6を介して第三者15に対してユーザ3の学習指針等についてのアドバイスも行えるようになる。 In the second period T2, since the user 3 has significantly improved image recognition ability as well as language ability, it is extremely important to provide the image content to the user 3. For example, when a specific Kansei index (here, for example, "concentrated") is superior to the display of other contents when the image of the vehicle is displayed to the user 3. The server 5 will make a proposal to the user 3, for example, "Would you like to see a foreign bus now?" This is not limited to image information, and similar proposals can be made for sound information. This fosters the intellectual curiosity of user 3, and further, information terminals such as "OO-chan seems to be very interested in mobility in the city. Should we increase the frequency of providing related basic knowledge?" Through 6, it becomes possible to give advice to the third party 15 about the learning guideline of the user 3.

なお、第2のPA2においては、入力部1kはディスプレイ1uの映像面に重畳して設けられたタッチパネル等であってもよい。ユーザ3は入力部1kを操作することで、所望のコンテンツを選択することができる。もちろん、第1のPA1と同様に、入力部1kは第三者15によって操作されてユーザ3の状況を入力する手段としても使用される。即ち、第2の期間T2において、第三者15は例えばユーザ3が特定の楽曲を聴いているときに安らいでいると感じたような場合に、「落ち着いている」といった主観的な情報を入力する。 In the second PA2, the input unit 1k may be a touch panel or the like provided so as to be superimposed on the image surface of the display 1u. The user 3 can select the desired content by operating the input unit 1k. Of course, like the first PA1, the input unit 1k is also used as a means for inputting the situation of the user 3 by being operated by the third party 15. That is, in the second period T2, when the third party 15 feels at ease while listening to a specific song, for example, the third party 15 inputs subjective information such as "calm". To do.

以降、第1の期間T1から第2の期間T2の経過に伴って、第1のPA1が情報を取得する第1のセンサ群41及び第2のPA2が情報を取得する第2のセンサ群42がどのような態様で使用されるかについて、図3、図4に図2を用いて説明する。 After that, as the first period T1 to the second period T2 elapses, the first sensor group 41 from which the first PA1 acquires information and the second sensor group 42 from which the second PA2 acquires information. 3 and 4 will be described with reference to FIG. 2 as to how the is used.

第1の期間T1においては第1のPA1がユーザ3に利用され、第1のPA1は第1のセンサ群41から情報を取得する。第1の期間T1において、ユーザ3の状況は、第1のセンサ群41の出力に基づいて感性指標として推定されるが、感性指標の導出にあたって各センサの寄与度はユーザ3の成長とともに変化する。第1の期間T1のうち少なくとも前半を占める第4の期間T4においては、第1のセンサ群41に含まれる全てのセンサの出力に基づいて感性指標が導出されるが、ユーザ3の成長に伴い、例えば「おむつはずれ」の後は徐々に匂いセンサ1gの寄与度は低下し、ユーザ3の行動に理性が芽生えた後は、同様に圧力センサ1h、加速度センサ1i、角速度センサ1jの寄与度は低下していく。 In the first period T1, the first PA1 is used by the user 3, and the first PA1 acquires information from the first sensor group 41. In the first period T1, the situation of the user 3 is estimated as a sensitivity index based on the output of the first sensor group 41, but the contribution of each sensor in deriving the sensitivity index changes as the user 3 grows. .. In the fourth period T4, which occupies at least the first half of the first period T1, the sensitivity index is derived based on the outputs of all the sensors included in the first sensor group 41, but as the user 3 grows, For example, after "disengagement of the diaper", the contribution of the odor sensor 1g gradually decreases, and after the behavior of the user 3 has a rationale, the contribution of the pressure sensor 1h, the acceleration sensor 1i, and the angular velocity sensor 1j is similarly increased. It will decrease.

なお、ここでいう「寄与度の低下」とは、学習モデルに対する特徴的な入力の頻度が減少し、他方、他の入力である画像情報、音情報、バイタルセンサ7から取得される情報による学習モデルの追加学習が進行することで、匂いセンサ1g等から提供される情報の重みが実質的に低下することを意味する。 The term "decrease in contribution" as used herein means that the frequency of characteristic inputs to the learning model decreases, while learning based on other inputs such as image information, sound information, and information acquired from the vital sensor 7. It means that the weight of the information provided by the odor sensor 1g or the like is substantially reduced as the additional learning of the model progresses.

第1の期間T1の後半においては、ユーザ3の言語能力が向上するとともに表情も豊かになり、更にユーザ3は動き回るようになる。従ってこの期間においては、第1のセンサ群41が取得する情報のうち、カメラ1eによって取得される画像情報、マイクロフォン1fによって取得される音情報、バイタルセンサ7によって取得される脈波等の情報が感性指標の導出に影響を及ぼすこととなる。 In the latter half of the first period T1, the language ability of the user 3 is improved, the facial expression is enriched, and the user 3 is further moved around. Therefore, during this period, among the information acquired by the first sensor group 41, information such as image information acquired by the camera 1e, sound information acquired by the microphone 1f, and pulse waves acquired by the vital sensor 7 is obtained. It will affect the derivation of the sensitivity index.

ユーザ3の成長は日々連続的であるから、第1の期間T1の少なくとも終期から第2の期間T2の少なくとも初期にあっては、ユーザ3の言語能力等に大きな変化はないと考えることができる。従って第2の期間T2の初期においても、ユーザ3に利用される第2のPA2に情報を提供する第2のセンサ群42が取得する情報のうち、カメラ1eによって取得される画像情報、マイクロフォン1fによって取得される音情報、バイタルセンサ7によって取得される脈波等の情報が、感性指標の導出に影響を及ぼす。 Since the growth of the user 3 is continuous every day, it can be considered that there is no significant change in the language ability of the user 3 at least from the end of the first period T1 to at least the beginning of the second period T2. .. Therefore, even in the initial stage of the second period T2, among the information acquired by the second sensor group 42 that provides information to the second PA2 used by the user 3, the image information acquired by the camera 1e, the microphone 1f The sound information acquired by the camera, the pulse wave acquired by the vital sensor 7, and the like affect the derivation of the sensitivity index.

即ち第1の期間T1と第2の期間T2とを跨ぐ第3の期間T3においては、第1の期間T1と第2の期間T2とにおいて共通する属性(ここでは、画像、音、生体情報)を取得する「共通センサ」としてのカメラ1e、マイクロフォン1f、バイタルセンサ7から得た情報に基づいて、ユーザ3の状況が推定される。なお共通センサとしては少なくとも、カメラ1e、マイクロフォン1fが含まれていればよい。 That is, in the third period T3 that straddles the first period T1 and the second period T2, the attributes common to the first period T1 and the second period T2 (here, image, sound, biological information). The situation of the user 3 is estimated based on the information obtained from the camera 1e, the microphone 1f, and the vital sensor 7 as the "common sensor". The common sensor may include at least a camera 1e and a microphone 1f.

即ち、第1実施形態のパーソナルアシスタント制御システムS1は、ユーザ3によって第1の期間T1に利用され、複数のセンサを含む第1のセンサ群41から情報を取得する第1のPA1と、同一のユーザ3によって第2の期間T2に利用され、複数のセンサを含む第2のセンサ群42から情報を取得する第2のPA2と、第1のPA1及び第2のPA2とネットワーク4を介して接続され、第1のセンサ群41または第2のセンサ群42から取得した情報に基づいてユーザ3の状況を推定するサーバ5とを備え、サーバ5は、第1の期間T1と第2の期間T2とを跨ぐ第3の期間T3において、第1のセンサ群41及び第2のセンサ群42に含まれるセンサのうち、少なくとも共通の属性(少なくとも画像及び音)を取得する「共通センサ」から得た情報に基づいてユーザ3の状況を推定する。なお、図3と図4において、「共通センサ」には■のマークを付している。 That is, the personal assistant control system S1 of the first embodiment is the same as the first PA1 which is used by the user 3 for the first period T1 and acquires information from the first sensor group 41 including a plurality of sensors. The second PA2, which is used by the user 3 for the second period T2 and acquires information from the second sensor group 42 including a plurality of sensors, is connected to the first PA1 and the second PA2 via the network 4. The server 5 includes a server 5 that estimates the situation of the user 3 based on the information acquired from the first sensor group 41 or the second sensor group 42, and the server 5 has a first period T1 and a second period T2. Obtained from a "common sensor" that acquires at least common attributes (at least images and sounds) among the sensors included in the first sensor group 41 and the second sensor group 42 in the third period T3 straddling the above. The situation of the user 3 is estimated based on the information. In addition, in FIG. 3 and FIG. 4, the “common sensor” is marked with (1).

ここで、第1の期間T1のうち第3の期間T3に含まれない第4の期間T4においては、第1のセンサ群41に含まれる「共通センサ」としてのカメラ1e、マイクロフォン1f、バイタルセンサ7以外のセンサ、即ち、「非共通センサ」としての匂いセンサ1g、圧力センサ1h、加速度センサ1i、角速度センサ1jのうち少なくとも1つで取得された情報も感性指標の導出に反映される。また、非共通センサに上述した全てのセンサが含まれている必要はなく、例えば圧力センサ1hを除外する等適宜選択されてよい。このように、パーソナルアシスタント制御システムS1は、第4の期間T4においては、サーバ5は、第1のセンサ群41のうち共通センサ以外の非共通センサから取得した情報を少なくとも参照してユーザ3の状況を推定する。即ちサーバ5は、第3の期間T3において共通センサから取得した情報を参照する場合と、第4の期間T4において非共通センサから取得した情報を参照する場合とのいずれにおいても、共通の指標としての感性指標を導出する。 Here, in the fourth period T4 of the first period T1 which is not included in the third period T3, the camera 1e, the microphone 1f, and the vital sensor as "common sensors" included in the first sensor group 41. Information acquired by at least one of the sensors other than 7, that is, the odor sensor 1g, the pressure sensor 1h, the acceleration sensor 1i, and the angular velocity sensor 1j as "non-common sensors" is also reflected in the derivation of the sensitivity index. Further, it is not necessary for the non-common sensor to include all the above-mentioned sensors, and for example, the pressure sensor 1h may be excluded as appropriate. As described above, in the personal assistant control system S1, in the fourth period T4, the server 5 refers at least the information acquired from the non-common sensor other than the common sensor in the first sensor group 41 to the user 3. Estimate the situation. That is, as a common index, the server 5 refers to the information acquired from the common sensor in the third period T3 and the information acquired from the non-common sensor in the fourth period T4. Derivation of the sensitivity index of.

さて、第2のPA2が利用される第2の期間T2においては、第2のセンサ群42における共通センサとしてのカメラ1e、マイクロフォン1f、バイタルセンサ7以外にも第1位置情報センサ1t、第2位置情報センサ8で取得した情報も加味して感性指標が導出される。感性指標は、第1の期間T1及び第2の期間T2のいずれにおいても共通して用いられる指標である。従って、第2の期間T2において導出された感性指標に基づいてユーザ3に応答する場合、当該応答には第1の期間T1において学習された応答内容が参照(反映)されることになる。ただし第2のPA2には、第1のPA1には搭載されていなかったディスプレイ1uが搭載されていることから、例えばサーバ制御部5nは、第1のPA1で行った応答がスピーカ1mを介したものであったとしても、これに代えてディスプレイ1uを介して例えばテキスト情報を用いて応答しても構わないし、更にスピーカ1mによる音情報と併せて応答してもよい。そして、どのような出力インタフェース53の組合せを用いた場合にユーザ3がより落ち着くかといった観点でも学習が行われる。 By the way, in the second period T2 in which the second PA2 is used, in addition to the camera 1e, the microphone 1f, and the vital sensor 7 as common sensors in the second sensor group 42, the first position information sensor 1t and the second The sensitivity index is derived by taking into account the information acquired by the position information sensor 8. The sensitivity index is an index commonly used in both the first period T1 and the second period T2. Therefore, when responding to the user 3 based on the sensitivity index derived in the second period T2, the response content learned in the first period T1 is referred to (reflected) in the response. However, since the second PA2 is equipped with a display 1u that was not mounted on the first PA1, for example, in the server control unit 5n, the response performed by the first PA1 is via the speaker 1m. Even if it is, a response may be made using, for example, text information via the display 1u, or may be further responded together with the sound information from the speaker 1 m. Then, learning is performed from the viewpoint of what kind of combination of output interfaces 53 is used to make the user 3 more calm.

また、上述したように、第1の期間T1においては、第三者15の行為と第1のセンサ群41で取得した情報に基づく前記ユーザの状況(感性指標)とは関連付けて学習されており、第2の期間T2においては、第2のセンサ群42で取得された情報に基づいてユーザ3の感性指標が導出される。そして、導出された感性指標に基づいて、第1の期間T1において学習された第三者15の行為(例えば、ユーザ3に対する語りかけ)が再現されることとなる。 Further, as described above, in the first period T1, the actions of the third party 15 and the user's situation (sensitivity index) based on the information acquired by the first sensor group 41 are learned in association with each other. In the second period T2, the sensitivity index of the user 3 is derived based on the information acquired by the second sensor group 42. Then, based on the derived sensitivity index, the actions of the third party 15 learned in the first period T1 (for example, talking to the user 3) are reproduced.

図5は、第1実施形態の第1変形例における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図である。図1においては、第1の期間T1におけるユーザ3として乳児〜幼児前半を、第2の期間T2におけるユーザ3として幼児後半を想定したが、第1変形例においては、第1の期間T1におけるユーザ3として幼児後半を、第2の期間T2におけるユーザ3として成人を想定している。 FIG. 5 is an explanatory diagram showing an outline of the personal assistant control system S1 in the first period T1 and the second period T2 in the first modification of the first embodiment. In FIG. 1, the baby to the first half of the infant is assumed as the user 3 in the first period T1, and the latter half of the infant is assumed as the user 3 in the second period T2. As 3, the latter half of the infant is assumed, and as the user 3 in the second period T2, an adult is assumed.

また、第1実施形態では情報端末6を使用する者として第三者15を想定しているが、第1変形例では、第2の期間T2においては主に成人に達したユーザ3が情報端末6を使用する。また、第2のPA2については、自律的にユーザ3とのインタラクションを図り、成人に達したユーザ3を的確にサポートすることが可能なように移動可能な形態(例えば二足歩行ロボットや移動機構が付加されたロボット)を想定しているが、例えばユーザ3が携帯することを前提とする場合は、移動機構がない態様であっても構わない。 Further, in the first embodiment, a third party 15 is assumed as a person who uses the information terminal 6, but in the first modification, the user 3 who has reached an adult mainly in the second period T2 is the information terminal. 6 is used. The second PA2 is a movable form (for example, a bipedal walking robot or a moving mechanism) that can autonomously interact with the user 3 and accurately support the user 3 who has reached adulthood. However, if it is assumed that the user 3 will carry the robot, for example, the robot may not have a moving mechanism.

図6は、第1実施形態の第1変形例における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図である。以降、図6に図4を併用して、第1変形例における第2の期間T2に利用される第2のPA2の構成と機能、及び第1の期間T1に利用される第1のPA1との関係について説明する。なお第1変形例では、図4で示した第2のPA2は第1の期間T1で利用される観点で、第1のPA1に相当することとなる。 FIG. 6 is a block diagram showing a configuration of the personal assistant control system S1 in the second period T2 in the first modification of the first embodiment. Hereinafter, using FIG. 4 in combination with FIG. 6, the configuration and function of the second PA2 used in the second period T2 in the first modification, and the first PA1 used in the first period T1 The relationship between In the first modification, the second PA2 shown in FIG. 4 corresponds to the first PA1 from the viewpoint of being used in the first period T1.

図示するように、第1変形例では、第2のPA2は第3のセンサ群43(図4における第2のセンサ群42に相当する)を備える。第3のセンサ群43は上述した第2のセンサ群42(図4参照)と比較して、第1生活センサ9が追加されている。ここで第1生活センサ9は、例えばユーザ3の電力使用量、ガス使用量、水道使用量等を計測するセンサであり、いわゆるスマートメータとも称される。通常、ユーザ3は成人になると親から独立して生活を始めることが多い。スマートメータによる計測値はユーザ3の生活パターンを反映したものであるから、ユーザ3の状況を示す指標としての感性指標にも影響を及ぼす。第1生活センサ9が追加されることで、ユーザ状況推定部5gは、例えば土曜、日曜、休日を含め一カ月の生活パターンが殆ど変わらないような状況ではユーザ3が「ふさぎ込みがち」や「気力がない」と推定することが可能となる。 As shown in the figure, in the first modification, the second PA2 includes a third sensor group 43 (corresponding to the second sensor group 42 in FIG. 4). A first life sensor 9 is added to the third sensor group 43 as compared with the second sensor group 42 (see FIG. 4) described above. Here, the first life sensor 9 is a sensor that measures, for example, the amount of electric power used, the amount of gas used, the amount of water used, and the like of the user 3, and is also called a so-called smart meter. Usually, the user 3 often starts living independently of the parent when he / she becomes an adult. Since the value measured by the smart meter reflects the life pattern of the user 3, it also affects the sensitivity index as an index showing the situation of the user 3. With the addition of the first life sensor 9, the user situation estimation unit 5g will allow the user 3 to "tend to be blocked" or "in a situation where the life pattern for one month is almost unchanged, including Saturdays, Sundays, and holidays, for example." It is possible to presume that there is no energy.

また、更に第1変形例においては、ユーザ3が幼児等であれば問題になることが少ない「疲れた」や「だるい」といった身体的な状況及び「気力がない」といった精神的な状況が感性指標に含まれる。即ち、第1変形例では感性指標の拡張が図られる。これらの感性指標の拡張に際しては学習モデルを再トレーニングしてもよいし、異なる学習モデルを並列して用いてもよい。また感性指標を拡張する観点において、第1生活センサ9として、例えば体重計、血圧計といった計測機器が含まれてもよい。また入力部1kを介してユーザ3が日々の食事のメニューや量、カロリー値を入力可能にしてもよい。 Further, in the first modification, the physical situation such as "tired" and "dull" and the mental situation such as "lack of energy", which are less likely to be a problem if the user 3 is an infant or the like, are sensitive. Included in the index. That is, in the first modification, the sensitivity index is expanded. When expanding these Kansei indexes, the learning model may be retrained, or different learning models may be used in parallel. Further, from the viewpoint of expanding the sensitivity index, the first life sensor 9 may include a measuring device such as a weight scale or a sphygmomanometer. Further, the user 3 may be able to input the daily meal menu, amount, and calorie value via the input unit 1k.

さて、ユーザ3が乳児や幼児である場合、入力部1kは母親等の第三者15がユーザ3の状況を主観に基づいて入力する手段であったが、第1変形例においては、入力部1kは、ユーザ3が自己の状況を第2のPA2(即ちサーバ5)に通知する手段として設けられる。上述したように入力部1kの入力に基づいて学習モデルの再トレーニングや追加学習が行われる。第2のPA2の応答がユーザ3の主観的な状況から乖離しているような場合に、ユーザ3は例えば「もっと私のことを理解して欲しい」との思いに基づいて、入力部1kを操作する。そしてサーバ制御部5nは、入力部1kの入力に基づいてユーザ3と第2のPA2とのインタラクションがより好ましくなるように学習モデルを再トレーニングし、あるいは追加学習を実行する。 By the way, when the user 3 is an infant or an infant, the input unit 1k is a means for a third party 15 such as a mother to input the situation of the user 3 based on the subjectivity. The 1k is provided as a means for the user 3 to notify the second PA2 (that is, the server 5) of his / her situation. As described above, the learning model is retrained or additional learning is performed based on the input of the input unit 1k. When the response of the second PA2 deviates from the subjective situation of the user 3, the user 3 presses the input unit 1k based on, for example, "I want you to understand me more". Manipulate. Then, the server control unit 5n retrains the learning model or executes additional learning so that the interaction between the user 3 and the second PA2 becomes more preferable based on the input of the input unit 1k.

図4及び図6に示すように、第1変形例における「共通センサ」は、カメラ1e、マイクロフォン1f、第1位置情報センサ1t、バイタルセンサ7、第2位置情報センサ8である。なお、図4及び図6において、「共通センサ」には▲のマークを付している。 As shown in FIGS. 4 and 6, the "common sensor" in the first modification is a camera 1e, a microphone 1f, a first position information sensor 1t, a vital sensor 7, and a second position information sensor 8. In addition, in FIG. 4 and FIG. 6, the “common sensor” is marked with ▲.

第1変形例においても、第1の期間T1と第2の期間T2とを跨ぐ第3の期間T3では、第1の期間T1と第2の期間T2とにおいて共通する属性(ここでは、画像属性、音属性、生体属性、位置属性)を取得する「共通センサ」としてのカメラ1e、マイクロフォン1f、第1位置情報センサ1t、バイタルセンサ7、第2位置情報センサ8から得た情報に基づいて、ユーザ3の状況が推定される。 Also in the first modification, in the third period T3 that straddles the first period T1 and the second period T2, the attributes common to the first period T1 and the second period T2 (here, the image attribute). , Sound attribute, biological attribute, position attribute) based on the information obtained from the camera 1e, microphone 1f, first position information sensor 1t, vital sensor 7, and second position information sensor 8 as "common sensors". The situation of user 3 is estimated.

図7は、第1実施形態の第2変形例における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図である。第1変形例においては、第1の期間T1におけるユーザ3として幼児後半を、第2の期間T2におけるユーザ3として成人を想定したが、第2変形例においては、第1の期間T1におけるユーザ3として成人を、第2の期間T2におけるユーザ3として高齢者を想定している。 FIG. 7 is an explanatory diagram showing an outline of the personal assistant control system S1 in the first period T1 and the second period T2 in the second modification of the first embodiment. In the first modification, the latter half of the infant is assumed as the user 3 in the first period T1, and the adult is assumed as the user 3 in the second period T2. However, in the second modification, the user 3 in the first period T1 is assumed. Assuming an adult as, and as a user 3 in the second period T2, an elderly person.

図7においては、第2の期間T2におけるユーザ3は高齢者であることから、情報端末6は主にユーザ3を介護する第三者15が使用する(もちろん、ユーザ3自らが使用してもよい)。また、第2のPA2については、第1変形例と同様に移動可能な形態であってもよく、またユーザ3が搭乗して移動する電動車椅子のような形態であってもよい。もちろんユーザ3が携帯することを前提とする場合は、移動機構がない態様であっても構わない。 In FIG. 7, since the user 3 in the second period T2 is an elderly person, the information terminal 6 is mainly used by the third party 15 who cares for the user 3 (of course, even if the user 3 himself uses it). Good). Further, the second PA2 may be in a movable form as in the first modification, or may be in a form such as an electric wheelchair on which the user 3 is boarded and moved. Of course, if it is assumed that the user 3 carries it, the mode may not have a moving mechanism.

図8は、第1実施形態の第2変形例における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図である。以降、図8に図6を併用して、第2変形例において、第2の期間T2に利用される第2のPA2の構成と機能、及び第1の期間T1に利用される第1のPA1との関係について説明する。なお第2変形例では、図6で示した第2のPA2は第1の期間T1で利用される観点で、第1のPA1に相当することとなる。 FIG. 8 is a block diagram showing a configuration of the personal assistant control system S1 in the second period T2 in the second modification of the first embodiment. Hereinafter, in the second modification, the configuration and function of the second PA2 used in the second period T2 and the first PA1 used in the first period T1 will be used in combination with FIG. The relationship with is explained. In the second modification, the second PA2 shown in FIG. 6 corresponds to the first PA1 from the viewpoint of being used in the first period T1.

図示するように、第2のPA2は第4のセンサ群44(図4における第2のセンサ群42に相当する)を備える。第4のセンサ群44は上述した第3のセンサ群43(図6参照)と比較して、匂いセンサ1g及び第2生活センサ10が追加されている。ここで匂いセンサ1gはユーザ3の失禁等に基づく匂いを検出する。第2生活センサ10は、ユーザ3が部屋間を移動している状況を検出するドアセンサや、ベッドに設けられてユーザ3の寝起きの状況を検出するマットセンサが該当する。当該マットセンサは圧力や加速度を検出するセンサで構成される。即ち、第2生活センサ10は高齢者の見守りに重点を当てたセンサである。 As shown, the second PA2 includes a fourth sensor group 44 (corresponding to the second sensor group 42 in FIG. 4). In the fourth sensor group 44, an odor sensor 1 g and a second life sensor 10 are added as compared with the third sensor group 43 (see FIG. 6) described above. Here, the odor sensor 1g detects the odor based on the incontinence of the user 3. The second life sensor 10 corresponds to a door sensor that detects a situation in which the user 3 is moving between rooms, and a mat sensor that is provided on the bed and detects the situation in which the user 3 wakes up. The mat sensor is composed of a sensor that detects pressure and acceleration. That is, the second life sensor 10 is a sensor that focuses on watching over the elderly.

例えばマットセンサによる計測値は高齢者としてのユーザ3の生活パターンを反映したものであるから、ユーザ3の状況を示す指標としての感性指標にも影響を及ぼす。第2生活センサ10が追加されることで、ユーザ状況推定部5gは、例えばドアセンサでユーザ3の移動が極端に少ない状況や、マットセンサでユーザ3がほぼ終日ベッドに横たわっているような状況を検出したような場合、ユーザ3が「ふさぎ込みがち」や「気力がない」と推定することが可能となる。特にバイタルセンサ7から取得した脈波等の情報が異常でないにもかかわらず「気力がない」ような状況は、特に高齢者ではいわゆる「フレイル化」に直結することから、サーバ制御部5nは第2のPA2を介してユーザ3との対話を通じて例えば外出を促すといったインタラクションを図ることが可能となる。 For example, since the value measured by the mat sensor reflects the life pattern of the user 3 as an elderly person, it also affects the sensitivity index as an index showing the situation of the user 3. With the addition of the second life sensor 10, the user situation estimation unit 5g can change the situation where the user 3 moves extremely little with the door sensor or the user 3 lies in the bed almost all day with the mat sensor, for example. In the case of detection, it is possible for the user 3 to presume that he / she tends to be blocked or has no energy. In particular, a situation in which the information such as pulse waves acquired from the vital sensor 7 is not abnormal but "not motivated" is directly linked to so-called "frailing" especially in the elderly, so the server control unit 5n is the first. Through the dialogue with the user 3 via the PA2 of 2, for example, it is possible to achieve an interaction such as encouraging going out.

図6及び図8に示すように、第2変形例における「共通センサ」は、カメラ1e、マイクロフォン1f、第1位置情報センサ1t、バイタルセンサ7、第2位置情報センサ8、第1生活センサ9である。なお、図6と図8において、「共通センサ」には▼のマークを付している。 As shown in FIGS. 6 and 8, the “common sensor” in the second modification is the camera 1e, the microphone 1f, the first position information sensor 1t, the vital sensor 7, the second position information sensor 8, and the first life sensor 9. Is. In addition, in FIG. 6 and FIG. 8, the “common sensor” is marked with ▼.

第2変形例においても、第1の期間T1と第2の期間T2とを跨ぐ第3の期間T3では、第1の期間T1と第2の期間T2とにおいて共通する属性(ここでは、画像属性、音属性、生体属性、位置属性、使用電力量等の生活関連属性)を取得する「共通センサ」としてのカメラ1e、マイクロフォン1f、第1位置情報センサ1t、バイタルセンサ7、第2位置情報センサ8、第1生活センサ9から得た情報に基づいて、ユーザ3の状況が推定される。 Also in the second modification, in the third period T3 that straddles the first period T1 and the second period T2, the attributes common to the first period T1 and the second period T2 (here, the image attribute). , Sound attribute, biological attribute, position attribute, life-related attributes such as power consumption), camera 1e as "common sensor", microphone 1f, first position information sensor 1t, vital sensor 7, second position information sensor 8. The situation of the user 3 is estimated based on the information obtained from the first life sensor 9.

なお、第2のPA2が電動車椅子のようにユーザ3を搬送する機構を備える場合、ユーザ3は第2のPA2に搭乗して外出を行うこともある。このとき第1位置情報センサ1tはGPS等を利用した測位センサとすることが望ましい。そして、ユーザ3が第2のPA2とともに屋外にいる場合、例えばスマートメータ等で構成される第1生活センサ9の出力は感性指標の導出には用いられない。このような場合であっても、学習モデルは多次元空間のクラスタリングによって、感性指標を導出することが可能である。もちろん、屋内と屋外とで学習モデルそのものを入れ替えるようにしてもよい。 When the second PA2 is provided with a mechanism for transporting the user 3 like an electric wheelchair, the user 3 may board the second PA2 and go out. At this time, it is desirable that the first position information sensor 1t is a positioning sensor using GPS or the like. When the user 3 is outdoors together with the second PA 2, the output of the first life sensor 9 composed of, for example, a smart meter or the like is not used for deriving the sensitivity index. Even in such a case, the learning model can derive the Kansei index by clustering in a multidimensional space. Of course, the learning model itself may be exchanged between indoors and outdoors.

以上詳細に説明したように、本発明に係るパーソナルアシスタント制御システムS1では、パーソナルアシスタントが世代を超えてユーザ3に対して継続的にサービスを提供する。この観点でパーソナルアシスタント制御システムS1は、いわゆる基盤としてのパーソナルアシスタントプラットフォームあるいはパーソナルロボットプラットフォームと言い換えてもよい。 As described in detail above, in the personal assistant control system S1 according to the present invention, the personal assistant continuously provides services to the user 3 across generations. From this point of view, the personal assistant control system S1 may be rephrased as a personal assistant platform or a personal robot platform as a so-called base.

(第2実施形態)
以下、本発明の第2実施形態について図面を参照して説明する。図9は、本発明の第2実施形態における第1の期間T1及びプレ期間T0におけるパーソナルアシスタント制御システムS1の概要を示す説明図である。第1実施形態において、ユーザ3は全て出生後を想定しているが、第2実施形態では、ユーザ3は出生前の胎児の時期も含んでいる点で第1実施形態と相違する。なお、以降の説明において、第1実施形態において既に説明した第1のPA1、サーバ5、情報端末6には同一の符号を付し、説明を省略する。
(Second Embodiment)
Hereinafter, the second embodiment of the present invention will be described with reference to the drawings. FIG. 9 is an explanatory diagram showing an outline of the personal assistant control system S1 in the first period T1 and the pre-period T0 in the second embodiment of the present invention. In the first embodiment, all the users 3 are assumed to be after birth, but in the second embodiment, the user 3 is different from the first embodiment in that the prenatal fetal period is also included. In the following description, the first PA1, the server 5, and the information terminal 6 already described in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.

図9に示すように、パーソナルアシスタント制御システムS1には、第1のPA1と、プレ期間用パーソナルアシスタント(以降、簡略化して「プレ期間用PA20」と称することがある。)と、第1のPA1及びプレ期間用PA20が接続されたネットワーク4と、ネットワーク4と接続されたサーバ5と、ネットワーク4に接続された情報端末6とが含まれている。 As shown in FIG. 9, the personal assistant control system S1 includes a first PA1, a pre-period personal assistant (hereinafter, may be abbreviated as “pre-period PA20”), and a first PA1. A network 4 to which the PA 1 and the pre-period PA 20 are connected, a server 5 connected to the network 4, and an information terminal 6 connected to the network 4 are included.

ここで第1のPA1とプレ期間用PA20は例えばロボットが好適に用いられる。なおPAは、少なくともユーザ3との間で何らかの相互作用(インタラクション)が可能に構成されていればよく、アーム等の変位機構や移動機構の有無は問わない。 Here, for the first PA1 and the pre-period PA20, for example, a robot is preferably used. The PA may be configured to enable at least some kind of interaction with the user 3, and may or may not have a displacement mechanism such as an arm or a movement mechanism.

図9において、第1のPA1は第1の期間T1(出生後)においてユーザ3に利用され、またプレ期間用PA20はユーザ3が出生前の期間であるプレ期間T0において利用される。従って、パーソナルアシスタント制御システムS1には、第1のPA1とプレ期間用PA20とが同時に含まれないことがあり得る。なお、プレ期間T0においてプレ期間用PA20を直接的に利用するのは第三者15であるが、プレ期間用PA20及び第1のPA1は出生前から出生後にかけて同一のユーザ3に対するサービスを提供することから、プレ期間T0においてユーザ3は間接的にプレ期間用PA20を利用していることになる。 In FIG. 9, the first PA1 is used by the user 3 in the first period T1 (postnatal), and the pre-period PA20 is used in the pre-period T0, which is the prenatal period for the user 3. Therefore, the personal assistant control system S1 may not include the first PA1 and the pre-period PA20 at the same time. Although it is the third party 15 who directly uses the pre-period PA20 in the pre-period T0, the pre-period PA20 and the first PA1 provide services to the same user 3 from prenatal to postnatal. Therefore, in the pre-period T0, the user 3 indirectly uses the pre-period PA20.

プレ期間T0におけるプレ期間用PA20は、これに直接触れる第三者15に安心・安全といったイメージを想起させるよう、3次元曲面が多用されたデザインとされ、柔軟な素材で構成されている。即ち、プレ期間用PA20は、第三者15が抱きかかえる態様で用いられることを想定している。 The PA20 for the pre-period in the pre-period T0 is designed with a lot of three-dimensional curved surfaces and is made of a flexible material so that the third party 15 who directly touches it reminds the image of safety and security. That is, it is assumed that the pre-period PA 20 is used in a manner held by a third party 15.

プレ期間用PA20は後述する第2のセンサ群42(図11参照)から種々の情報を取得し、少なくともその一部はネットワーク4を介してサーバ5に送信される。サーバ5は受信した第2のセンサ群42の出力に基づいて第三者15の体内に存するユーザ3の状況を推定する。 The pre-period PA 20 acquires various information from the second sensor group 42 (see FIG. 11), which will be described later, and at least a part of the information is transmitted to the server 5 via the network 4. The server 5 estimates the situation of the user 3 existing in the body of the third party 15 based on the output of the second sensor group 42 received.

サーバ5は推定したユーザ3の状況に基づいて、ネットワーク4を介してプレ期間用PA20に対して制御指令を出力する。これを受信したプレ期間用PA20は、例えばユーザ3を穏やかにするような音を出力する。そしてこの音に対するユーザ3の反応や応答が第2のセンサ群42によって取得され、この情報もサーバ5に送信される。サーバ5は、例えばユーザ3の状況に応じて、どのように応答すればユーザ3がより穏やかになるかを学習し、次に同様の状況がユーザ3に生じた場合は、学習結果に基づいて適切に応答するようになる。ユーザ3が生誕して第1の期間T1を迎えた際に、プレ期間T0で得られた学習結果は第1のPA1とユーザ3とのインタラクションにおいて継承して利用される。 The server 5 outputs a control command to the pre-period PA 20 via the network 4 based on the estimated situation of the user 3. Upon receiving this, the pre-period PA 20 outputs a sound that calms the user 3, for example. Then, the reaction or response of the user 3 to this sound is acquired by the second sensor group 42, and this information is also transmitted to the server 5. The server 5 learns how to respond to the user 3 to be more calm, for example, depending on the situation of the user 3, and if a similar situation occurs in the user 3, the server 5 is based on the learning result. You will respond appropriately. When the user 3 is born and reaches the first period T1, the learning result obtained in the pre-period T0 is inherited and used in the interaction between the first PA1 and the user 3.

第2実施形態において、情報端末6は第三者15に所持されている。サーバ5はプレ期間用PA20から得た情報に基づいて推測したユーザ3の状況を情報端末6に送信し、第三者15は体内に存するユーザ3の状況を把握することができる。 In the second embodiment, the information terminal 6 is possessed by a third party 15. The server 5 transmits the status of the user 3 estimated based on the information obtained from the pre-period PA 20 to the information terminal 6, and the third party 15 can grasp the status of the user 3 existing in the body.

また、図9においてバイタルセンサ7は、例えばリストバンド形状とされて第三者15の手首等に装着される。 Further, in FIG. 9, the vital sensor 7 has a wristband shape, for example, and is worn on the wrist or the like of a third party 15.

図10(a),(b)は、本発明の第2実施形態におけるプレ期間T0、第1の期間T1、第2の期間T2、第3の期間T3、第4の期間T4の関係を示す説明図である。 10 (a) and 10 (b) show the relationship between the pre-period T0, the first period T1, the second period T2, the third period T3, and the fourth period T4 in the second embodiment of the present invention. It is explanatory drawing.

図10(a),(b)に示すように、プレ期間T0は、第1の期間T1よりも過去の期間に相当する。プレ期間T0の始期は、通常は受胎後、第三者15が妊娠に気づいた以降の時点であり、終期は出生の時点である。図10(a)に示すようにプレ期間T0の終期後ただちに第1の期間T1が開始されてもよく、同(b)に示すようにプレ期間T0と第1の期間T1との間に間隔が空けられてもよい。なお、図2(a)〜(d)を用いて説明したように、第1の期間T1と第2の期間T2との関係については、様々な態様があり得る。 As shown in FIGS. 10A and 10B, the pre-period T0 corresponds to a period earlier than the first period T1. The beginning of the pre-period T0 is usually after conception, after the third party 15 notices pregnancy, and the end is at birth. The first period T1 may be started immediately after the end of the pre-period T0 as shown in FIG. 10 (a), and the interval between the pre-period T0 and the first period T1 as shown in FIG. 10 (b). May be vacated. As described with reference to FIGS. 2A to 2D, there may be various aspects of the relationship between the first period T1 and the second period T2.

図11は、本発明の第2実施形態におけるプレ期間T0におけるパーソナルアシスタント制御システムS1の構成を示すブロック図である。パーソナルアシスタント制御システムS1は、少なくともプレ期間用PA20と、サーバ5とで構成され、プレ期間用PA20とサーバ5とはネットワーク4を介して接続されている。 FIG. 11 is a block diagram showing a configuration of the personal assistant control system S1 in the pre-period T0 according to the second embodiment of the present invention. The personal assistant control system S1 is composed of at least a pre-period PA 20 and a server 5, and the pre-period PA 20 and the server 5 are connected to each other via a network 4.

以降、プレ期間用PA20について説明する。プレ期間用PA20は、第2のセンサ群42と、出力インタフェース53とを備える。なお、PAネットワークインタフェース1pと、PA演算部1s、PA記憶部1q、PA制御部1v等の構成については既に説明した第1のPA1と同等であることから説明を省略する。またプレ期間用PA20には第1のPA1に搭載されている環境センサ50(図3等を参照)は搭載されていないが、第三者15の感情はユーザ3にも影響を与えることから、第三者15の置かれた環境をモニタリングする目的で環境センサ50を含むよう構成してもよい。 Hereinafter, the PA20 for the pre-period will be described. The pre-period PA 20 includes a second sensor group 42 and an output interface 53. Since the configurations of the PA network interface 1p, the PA calculation unit 1s, the PA storage unit 1q, the PA control unit 1v, and the like are the same as those of the first PA1 already described, the description thereof will be omitted. Further, although the environmental sensor 50 (see FIG. 3 and the like) mounted on the first PA1 is not mounted on the pre-period PA20, the emotions of the third party 15 also affect the user 3. The environment sensor 50 may be included for the purpose of monitoring the environment in which the third party 15 is located.

マイクロフォン1fは、第2実施形態においては胎児としてのユーザ3の心拍音、第三者15の心拍音、及び第三者15が発した音声を取得する。圧力センサ1h、加速度センサ1i、角速度センサ1jは、ユーザ3の心拍及び胎動を検出する。取得された音声、心拍音、心拍、胎動に関する情報はサーバ5に送信され、データベース5kに蓄積される。 In the second embodiment, the microphone 1f acquires the heartbeat sound of the user 3 as a foetation, the heartbeat sound of the third party 15, and the voice emitted by the third party 15. The pressure sensor 1h, the acceleration sensor 1i, and the angular velocity sensor 1j detect the heartbeat and fetal movement of the user 3. The acquired information on voice, heartbeat, heartbeat, and fetal movement is transmitted to the server 5 and stored in the database 5k.

第2実施形態においてバイタルセンサ7は、ユーザ3ではなく第三者15の状況を計測するために用いられる(図9参照)。母親である第三者15が「幸せ」、「いい気持ち」と感じるときに分泌されるドーパミンやβ-エンドルフィンなどのホルモンは血流に乗って胎児であるユーザ3にも供給され、胎児もリラックスすることが知られており、第三者15の状況を把握することは、ユーザ3の状況を間接的に把握することに繋がる。 In the second embodiment, the vital sensor 7 is used to measure the situation of the third party 15 instead of the user 3 (see FIG. 9). Hormones such as dopamine and β-endorphin, which are secreted when the mother, a third party 15, feels “happy” or “good feeling”, are supplied to the user 3 who is a foet in the bloodstream, and the foetation is relaxed. It is known that the situation of the third party 15 is grasped indirectly, which leads to grasping the situation of the user 3.

伝達部1lは、プレ期間用PA20の表面の一部に設けられた例えば柔軟性を備えるポリプロピレン(PP)等で構成される膜状部材で構成される。マイクロフォン1fで取得した音は増幅器(図示せず)で増幅され、スピーカ1mによって出力される音が、第三者15の体に密着させた伝達部1lを介して、第三者15の体内に伝達する。伝達部1lは、第三者15またはそのパートナ(ここでは、例えば父親)等が出生前のユーザ3に語りかけるシーン、第三者15の置かれた環境の音情報(例えば音楽)をユーザ3に伝達するシーン等において利用される。 The transmission unit 1l is composed of a film-like member made of, for example, flexible polypropylene (PP) provided on a part of the surface of the pre-period PA20. The sound acquired by the microphone 1f is amplified by an amplifier (not shown), and the sound output by the speaker 1m enters the body of the third party 15 via the transmission unit 1l which is in close contact with the body of the third party 15. introduce. The transmission unit 1l provides the user 3 with a scene in which the third party 15 or its partner (here, for example, a father) speaks to the user 3 before birth, and sound information (for example, music) of the environment in which the third party 15 is placed. It is used in the scene to be transmitted.

次にサーバ5の機能について説明する。サーバ5の構成は既に第1実施形態で説明したものと同等であるので説明は省略する。第2実施形態においても、ユーザ状況推定部5gは、第2のセンサ群42で取得された情報を学習モデルに入力してユーザ3の状況(感性指標)を導出する。 Next, the function of the server 5 will be described. Since the configuration of the server 5 is the same as that already described in the first embodiment, the description thereof will be omitted. Also in the second embodiment, the user situation estimation unit 5g inputs the information acquired by the second sensor group 42 into the learning model to derive the situation (sensitivity index) of the user 3.

学習モデルに対して入力されるのは、例えば、マイクロフォン1f、圧力センサ1h、加速度センサ1i、角速度センサ1jで取得された、心拍音、心拍、胎動に関する情報である。ユーザ3が落ち着いているとき心拍も緩やかになるから、心拍は感性指標に影響を与え、またほどよい胎動はユーザ3と第三者15とのコミュニケーションが良好である旨を示すとも言われていることから、感性指標に影響を与えると考えられる。 Information about the heartbeat, heartbeat, and fetal movement acquired by, for example, the microphone 1f, the pressure sensor 1h, the acceleration sensor 1i, and the angular velocity sensor 1j is input to the learning model. Since the heartbeat slows down when the user 3 is calm, the heartbeat affects the sensitivity index, and it is said that a moderate fetal movement indicates good communication between the user 3 and the third party 15. Therefore, it is considered that it affects the sensitivity index.

これらの情報には第三者15の心拍等の情報も重畳されているから、サーバ制御部5nは入力された情報の周波数を解析する等して、ユーザ3と第三者15との情報を区別する。ユーザ3と第三者15とは感情面で同期されると考えられるから、第三者15の感情によって影響を受ける第三者15の心拍に関する情報、またはバイタルセンサ7で取得した情報を入力に加えてもよい。ただし、第2実施形態では、ユーザ3が第三者15の体内に存することから、第1実施形態で示したようなユーザ3の表情に現れやすい状況を推定することはできず、「落ち着いている」、「興奮している」といった内面的な状況が推定される。 Since the information such as the heartbeat of the third party 15 is superimposed on this information, the server control unit 5n analyzes the frequency of the input information and obtains the information between the user 3 and the third party 15. Distinguish. Since it is considered that the user 3 and the third party 15 are emotionally synchronized, the information regarding the heartbeat of the third party 15 affected by the emotions of the third party 15 or the information acquired by the vital sensor 7 is input. May be added. However, in the second embodiment, since the user 3 exists in the body of the third party 15, it is not possible to estimate the situation in which the user 3 is likely to appear in the facial expression as shown in the first embodiment. Internal situations such as "are" and "excited" are presumed.

ユーザ状況推定部5gは導出した感性指標をサーバ制御部5nに送信する。感性指標を受信したサーバ制御部5nは、PA指令生成部5iに対して、例えばユーザ3が「興奮している」状況においては、過去にユーザ3が「落ち着いている」ときに聞いていた音楽や音声(例えば母親の言葉)を抽出するよう指示を行い、これを受けてPA指令生成部5iは、適切と推定されるコンテンツデータを選定し、コンテンツデータと音声による再生指示をプレ期間用PA20に対して出力する。第1実施形態と同様にこの応答内容はデータベース5kに蓄積され、感性指標と応答内容との関連が学習される。 The user situation estimation unit 5g transmits the derived sensitivity index to the server control unit 5n. The server control unit 5n that has received the sensitivity index tells the PA command generation unit 5i, for example, in a situation where the user 3 is "excited", the music that the user 3 has heard when the user 3 is "calm" in the past. And voice (for example, mother's words) are instructed, and in response to this, the PA command generation unit 5i selects content data that is presumed to be appropriate, and issues the content data and voice playback instruction to the pre-period PA20. Output to. Similar to the first embodiment, this response content is accumulated in the database 5k, and the relationship between the sensitivity index and the response content is learned.

ここで、ユーザ3が出生後に使用する第1のPA1の第1のセンサ群41(図3参照)が取得する情報の属性と、プレ期間用PA20の第2のセンサ群42が取得する情報の属性とを比較する。 Here, the attributes of the information acquired by the first sensor group 41 (see FIG. 3) of the first PA1 used by the user 3 after birth and the information acquired by the second sensor group 42 of the pre-period PA20. Compare with attributes.

第1の期間T1においては、図3に示す第1のPA1の第1のセンサ群41のうち、少なくともカメラ1e、マイクロフォン1f(第1属性検出センサ51)を用いることで、ユーザ3の表情や声のトーン、語彙情報といった「精神的属性」ともいえる属性(第1の属性)を取得する。他方、プレ期間T0においては、プレ期間用PA20の第2のセンサ群42を構成するマイクロフォン1f、圧力センサ1h、加速度センサ1i、角速度センサ1j(第2属性検出センサ52)を用いることで、ユーザ3の心拍、胎動といった「肉体的属性」ともいえる属性(第2の属性)を取得する。そしてユーザ状況推定部5gは、第1の属性に基づいて第1の期間T1におけるユーザ3の感性指標を導出し、第2の属性に基づいてプレ期間T0におけるユーザ3の感性指標を導出する。なお、第1のPA1にも圧力センサ1h等は含まれるが、ユーザ3が成長していくについて感性指標の導出にあたって圧力センサ1h等の寄与度は低下していき、精神面の状況を推定するのに適した「精神的属性」が感性指標を決定する主要因になっていく。 In the first period T1, among the first sensor group 41 of the first PA1 shown in FIG. 3, at least the camera 1e and the microphone 1f (first attribute detection sensor 51) are used to display the facial expression of the user 3. Acquire attributes (first attribute) that can be said to be "mental attributes" such as voice tone and vocabulary information. On the other hand, in the pre-period T0, the user can use the microphone 1f, the pressure sensor 1h, the acceleration sensor 1i, and the angular velocity sensor 1j (second attribute detection sensor 52) constituting the second sensor group 42 of the pre-period PA20. Acquire attributes (second attribute) that can be said to be "physical attributes" such as heartbeat and fetal movement of 3. Then, the user situation estimation unit 5g derives the sensitivity index of the user 3 in the first period T1 based on the first attribute, and derives the sensitivity index of the user 3 in the pre-period T0 based on the second attribute. Although the pressure sensor 1h and the like are also included in the first PA1, the contribution of the pressure sensor 1h and the like decreases in deriving the sensitivity index as the user 3 grows, and the mental situation is estimated. "Mental attributes" suitable for the above will be the main factor in determining the sensitivity index.

このように第2実施形態のパーソナルアシスタント制御システムS1は、ユーザ3によって第1の期間T1に利用され、複数のセンサを含む第1のセンサ群41から情報を取得する第1のPA1と、ユーザ3によって第1の期間T1よりも過去の期間であるプレ期間T0に利用され、複数のセンサを含む第2のセンサ群42から情報を取得するプレ期間用PA20と、第1のPA1及びプレ期間用PA20とネットワーク4を介して接続され、第1のセンサ群41または第2のセンサ群42から取得した情報に基づいてユーザ3の状況を推定するサーバ5と、を備え、サーバ5は、第1の期間T1において、第1のセンサ群41に含まれるセンサのうち、少なくとも第1の属性を検出する第1属性検出センサ51から取得した情報に基づきユーザ3の状況を推定し、プレ期間T0において、第2のセンサ群42に含まれるセンサのうち、第1の属性とは異なる少なくとも第2の属性を検出する第2属性検出センサ52から取得した情報に基づいてユーザ3の状況を推定する。 As described above, the personal assistant control system S1 of the second embodiment is used by the user 3 for the first period T1, and the first PA1 that acquires information from the first sensor group 41 including a plurality of sensors and the user. The pre-period PA20, which is used by 3 for the pre-period T0, which is a period earlier than the first period T1 and acquires information from the second sensor group 42 including a plurality of sensors, and the first PA1 and the pre-period. The server 5 is connected to the PA 20 for use via the network 4, and includes a server 5 that estimates the status of the user 3 based on the information acquired from the first sensor group 41 or the second sensor group 42. In the period T1, the situation of the user 3 is estimated based on the information acquired from the first attribute detection sensor 51 that detects at least the first attribute among the sensors included in the first sensor group 41, and the pre-period T0 In, the situation of the user 3 is estimated based on the information acquired from the second attribute detection sensor 52 that detects at least the second attribute different from the first attribute among the sensors included in the second sensor group 42. ..

ここで重要なのは、第1の期間T1において情報を取得する第1属性検出センサ51とプレ期間T0において情報を取得する第2属性検出センサ52とは、それぞれ異なる属性を検出するものであるが、ユーザ状況推定部5gは、異なる属性が入力された場合であっても、ユーザ3の状況を共通の指標である感性指標として導出する点である。この共通する感性指標を用いることで、ユーザ3が胎児のときに学習された応答内容を、その後ユーザ3が乳児に成長したときにおいても活用できるようになる。 What is important here is that the first attribute detection sensor 51, which acquires information in the first period T1, and the second attribute detection sensor 52, which acquires information in the pre-period T0, detect different attributes. The user situation estimation unit 5g derives the situation of the user 3 as a sensitivity index, which is a common index, even when different attributes are input. By using this common sensitivity index, the response contents learned when the user 3 is a foetation can be utilized even when the user 3 grows up to be an infant.

また、サーバ制御部5nは、第2のセンサ群42に含まれるマイクロフォン1fによって取得された音声を話者解析部5fで解析した結果に基づいて、例えば第三者15のユーザ3に対する語りかけ等の行為を抽出する。第三者15がユーザ3に語りかけたときの音声(応答内容)は音情報としてデータベース5kに蓄積されるとともに、音声認識部5eで語彙として抽出される。更にこのとき、第三者15が行為を成した際のユーザ3の感性指標が取得される。このインタラクションの状況もデータベース5kに蓄積され、第三者15の行為(ここでは語りかけ)と第2のセンサ群42で取得した情報に基づく前記ユーザ3の状況(感性指標)とが関連付けて学習される。 Further, the server control unit 5n, for example, speaks to the user 3 of the third party 15 based on the result of analyzing the voice acquired by the microphone 1f included in the second sensor group 42 by the speaker analysis unit 5f. Extract actions. The voice (response content) when the third party 15 speaks to the user 3 is stored in the database 5k as sound information, and is extracted as a vocabulary by the voice recognition unit 5e. Further, at this time, the sensitivity index of the user 3 when the third party 15 performs an action is acquired. The status of this interaction is also accumulated in the database 5k, and the actions of the third party 15 (speaking here) and the status of the user 3 (sensitivity index) based on the information acquired by the second sensor group 42 are learned in association with each other. To.

また、サーバ制御部5nは、第三者15による入力部1kの操作(音声認識部5eでの認識結果に基づくコマンドの生成、あるいは情報端末6の操作等も含む)に基づいて、例えばマイクロフォン1fで取得した第三者15の心拍音を収録することが可能とされている。更に、サーバ制御部5nは、第三者15による入力部1kの操作等に基づいて収録した心拍音を再生するようプレ期間用PA20に対して指示を行うことも可能とされている。もちろんこのときも第三者15が行為(ここでは、入力部1kの操作等)を成した際のユーザ3の感性指標が取得される。この状況もデータベース5kに蓄積され、第三者15の行為(ここでは、心拍音の再生)と第2のセンサ群42で取得した情報に基づく前記ユーザ3の状況(感性指標)とが関連付けて学習される。 Further, the server control unit 5n is based on, for example, the operation of the input unit 1k by the third party 15 (including the generation of a command based on the recognition result by the voice recognition unit 5e, the operation of the information terminal 6 and the like), for example, the microphone 1f. It is possible to record the heartbeat sounds of the third party 15 acquired in. Further, the server control unit 5n can also instruct the pre-period PA 20 to reproduce the recorded heartbeat sound based on the operation of the input unit 1k by the third party 15. Of course, at this time as well, the sensitivity index of the user 3 when the third party 15 performs an action (here, an operation of the input unit 1k, etc.) is acquired. This situation is also accumulated in the database 5k, and the action of the third party 15 (here, reproduction of the heartbeat sound) is associated with the situation (sensitivity index) of the user 3 based on the information acquired by the second sensor group 42. Be learned.

この学習によって、例えば母親の「〇〇ちゃん、おりこうね」との語りかけや第三者15の心拍音の聴取により、ユーザ3の感性指標が「興奮している」から「落ち着いている」に変化した場合が多いほど、ユーザ3の感性指標が「興奮している」となった状況においては、データベース5kに蓄積された音情報のうち、母親の「〇〇ちゃん、おりこうね」の発声行為や心拍音が(第三者15の指示を待たずに)再生・再現される確率が高くなる。 Through this learning, for example, the sensitivity index of user 3 changes from "excited" to "calm" by talking to the mother "○○ -chan, let's go" and listening to the heartbeat sound of a third party 15. In a situation where the user 3's sensibility index becomes "excited" as the number of changes increases, the mother's "OO-chan, Orikoune" is uttered from the sound information stored in the database 5k. The probability that the action or heartbeat sound will be reproduced / reproduced (without waiting for the instruction of the third party 15) will increase.

そして、この発声行為や心拍音等の再現は、共通の感性指標を介して、プレ期間T0から第1の期間T1へと継承される。サーバ5は、プレ期間T0において、第2のセンサ群42(第2属性検出センサ52)から取得した情報に基づいて、ユーザ3に対する第三者15の行為を抽出し、第三者15の行為と第2属性検出センサ52で取得した情報に基づくユーザ3の状況とを関連付けて学習し、ユーザ3が出生後の第1の期間T1において、第1属性検出センサ51(図3参照)で取得した情報から推定されたユーザ3の状況に基づいて、プレ期間T0における第三者15の行為の少なくとも一部を再現するよう、第1のPA1に対して指示が行なわれる。即ち、ユーザ3の状況に基づき。例えばプレ期間T0に収録された心拍音等のコンテンツが第1の期間T1においても再生されるようになる。 Then, the reproduction of the vocalization action, the heartbeat sound, and the like is inherited from the pre-period T0 to the first period T1 via a common sensitivity index. In the pre-period T0, the server 5 extracts the actions of the third party 15 with respect to the user 3 based on the information acquired from the second sensor group 42 (second attribute detection sensor 52), and the actions of the third party 15 And the situation of the user 3 based on the information acquired by the second attribute detection sensor 52 are learned, and the user 3 acquires the information by the first attribute detection sensor 51 (see FIG. 3) in the first period T1 after birth. Based on the situation of the user 3 estimated from the information obtained, the first PA1 is instructed to reproduce at least a part of the actions of the third party 15 in the pre-period T0. That is, based on the situation of user 3. For example, the content such as the heartbeat sound recorded in the pre-period T0 will be reproduced in the first period T1 as well.

図12は、本発明の第2実施形態の変形例における第1の期間T1及びプレ期間T0におけるパーソナルアシスタント制御システムS1の概要を示す説明図である。上述した第2実施形態では、第1の期間T1で利用される第1のPA1と、プレ期間T0で利用されるプレ期間用PA20とは、それぞれ異なるロボットであるとしたが、変形例においては、第1の期間T1及びプレ期間T0のいずれにおいても同一(単一)のPA(第1のPA1)が利用される。以降、第2実施形態の変形例について図3を用いて説明する。 FIG. 12 is an explanatory diagram showing an outline of the personal assistant control system S1 in the first period T1 and the pre-period T0 in the modified example of the second embodiment of the present invention. In the second embodiment described above, the first PA1 used in the first period T1 and the pre-period PA20 used in the pre-period T0 are different robots, but in the modified example, they are different robots. , The same (single) PA (first PA1) is used in both the first period T1 and the pre-period T0. Hereinafter, a modified example of the second embodiment will be described with reference to FIG.

図3に示すように第1のPA1は、第1のセンサ群41から情報を取得する。この第1のセンサ群41のうち、カメラ1e、マイクロフォン1fが上述した第1属性検出センサ51に該当し、マイクロフォン1f、圧力センサ1h、加速度センサ1i、角速度センサ1jが第2属性検出センサ52に該当する。即ち、同一のセンサであるマイクロフォン1fを兼用して、プレ期間T0における「肉体的属性」及び第1の期間T1における「精神的属性」を取得する。 As shown in FIG. 3, the first PA1 acquires information from the first sensor group 41. Among the first sensor group 41, the camera 1e and the microphone 1f correspond to the above-mentioned first attribute detection sensor 51, and the microphone 1f, the pressure sensor 1h, the acceleration sensor 1i, and the angular velocity sensor 1j correspond to the second attribute detection sensor 52. Applicable. That is, the microphone 1f, which is the same sensor, is also used to acquire the "physical attribute" in the pre-period T0 and the "mental attribute" in the first period T1.

変形例においても、第2実施形態で説明したように、パーソナルアシスタント制御システムS1は、ユーザ3によって第1の期間T1に利用され、複数のセンサを含む第1のセンサ群41から情報を取得する第1のPA1と、第1のPA1とネットワーク4を介して接続され、第1のセンサ群41から取得した情報に基づいてユーザ3の状況を推定するサーバ5とを備え、サーバ5は、第1の期間T1において、第1のセンサ群41に含まれるセンサのうち、少なくとも第1の属性を検出する第1属性検出センサ51から取得した情報に基づきユーザ3の状況を推定し、第1の期間T1よりも過去の期間であるプレ期間T0において、第1のセンサ群41に含まれるセンサのうち、第1の属性とは異なる少なくとも第2の属性を検出する第2属性検出センサ52から取得した情報に基づいてユーザ3の状況を推定する。変形例においても、第1属性検出センサ51で取得した情報及び第1属性検出センサ51とは異なる属性を検出する第2属性検出センサ52で取得した情報に基づいて、共通の指標である感性指標を導出する。 Also in the modified example, as described in the second embodiment, the personal assistant control system S1 is used by the user 3 for the first period T1 and acquires information from the first sensor group 41 including a plurality of sensors. The first PA1 is connected to the first PA1 via the network 4, and the server 5 includes a server 5 that estimates the situation of the user 3 based on the information acquired from the first sensor group 41. In the period T1, the situation of the user 3 is estimated based on the information acquired from the first attribute detection sensor 51 that detects at least the first attribute among the sensors included in the first sensor group 41, and the first Acquired from the second attribute detection sensor 52 that detects at least the second attribute different from the first attribute among the sensors included in the first sensor group 41 in the pre-period T0, which is a period earlier than the period T1. The situation of the user 3 is estimated based on the information obtained. Also in the modified example, the sensitivity index, which is a common index, is based on the information acquired by the first attribute detection sensor 51 and the information acquired by the second attribute detection sensor 52, which detects an attribute different from that of the first attribute detection sensor 51. Is derived.

更に、サーバ5は、プレ期間T0において、第1のセンサ群41から取得した情報に基づいて、ユーザ3に対する第三者15の行為を抽出し、第三者15の行為と第2属性検出センサ52で取得した情報に基づくユーザ3の状況とを関連付けて学習し、第1の期間T1において、第1属性検出センサ51で取得した情報から推定されたユーザ3の状況に基づいて、プレ期間T0における第三者15の行為の少なくとも一部を再現するよう、第1のPA1に対して指示を行う。 Further, the server 5 extracts the actions of the third party 15 against the user 3 based on the information acquired from the first sensor group 41 in the pre-period T0, and the actions of the third party 15 and the second attribute detection sensor. Learning is performed in association with the situation of the user 3 based on the information acquired in 52, and in the first period T1, the pre-period T0 is based on the situation of the user 3 estimated from the information acquired by the first attribute detection sensor 51. Instruct the first PA1 to reproduce at least a part of the actions of the third party 15 in.

そして、第1のPA1は、マイクロフォン1fと、マイクロフォン1fで取得した音を増幅する図示しない増幅器と、この増幅器で増幅された音声信号を再生するスピーカ1mと、スピーカ1mで再生された音を第三者15の体内に伝達する伝達部1lとを備える。 Then, the first PA1 has a microphone 1f, an amplifier (not shown) that amplifies the sound acquired by the microphone 1f, a speaker 1m that reproduces the audio signal amplified by this amplifier, and a sound reproduced by the speaker 1m. It is provided with a transmission unit 1l that transmits to the body of the three parties 15.

以上、本発明に係るパーソナルアシスタント制御システムS1ついて特定の実施形態に基づいて詳細に説明したが、これらはあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。例えば、第1のセンサ群41や第2のセンサ群42に含まれるセンサについては、適宜選択することが可能であり、本実施形態で説明したセンサに限定されるものではない。また、第1実施形態においては、乳児、幼児、成人、高齢者に対して適用されるパーソナルアシスタントを説明したが、人が成長する過程をより細かい期間に分け、それぞれについて適切なパーソナルアシスタントを適用できることは明らかである。 The personal assistant control system S1 according to the present invention has been described in detail based on specific embodiments, but these are merely examples, and the present invention is not limited to these embodiments. For example, the sensors included in the first sensor group 41 and the second sensor group 42 can be appropriately selected, and are not limited to the sensors described in the present embodiment. Further, in the first embodiment, the personal assistant applied to infants, toddlers, adults, and the elderly has been described, but the process of human growth is divided into smaller periods, and an appropriate personal assistant is applied to each. It's clear that you can.

本発明に係るパーソナルアシスタント制御システムS1は、人の成長とともにロボット等のパーソナルアシスタントが入れ替わったとしても、パーソナルアシスタントとしてのロボットが単なる道具ではなく、胎児の段階も含めて、人の成長に合わせてパートナーとしてユーザ3を適切にサポートすることが可能となることから、例えばパーソナルアシスタント用のプラットフォーム等として好適に応用することができる。 In the personal assistant control system S1 according to the present invention, even if a personal assistant such as a robot is replaced with the growth of a person, the robot as a personal assistant is not a mere tool, but is adjusted to the growth of the person including the fetal stage. Since it becomes possible to appropriately support the user 3 as a partner, it can be suitably applied as, for example, a platform for a personal assistant.

1 第1のPA(第1のパーソナルアシスタント)
1e カメラ
1f マイクロフォン
1u ディスプレイ
2 第2のPA(第2のパーソナルアシスタント)
3 ユーザ
4 ネットワーク
5 サーバ
6 情報端末
7 バイタルセンサ
15 第三者
20 プレ期間用PA(プレ期間用パーソナルアシスタント)
41 第1のセンサ群
42 第2のセンサ群
43 第3のセンサ群
44 第4のセンサ群
50 環境センサ
51 第1属性検出センサ
52 第2属性検出センサ
S1 パーソナルアシスタント制御システム
1 1st PA (1st personal assistant)
1e Camera 1f Microphone 1u Display 2 Second PA (second personal assistant)
3 User 4 Network 5 Server 6 Information terminal 7 Vital sensor 15 Third party 20 Pre-period PA (pre-period personal assistant)
41 First sensor group 42 Second sensor group 43 Third sensor group 44 Fourth sensor group 50 Environmental sensor 51 First attribute detection sensor 52 Second attribute detection sensor S1 Personal assistant control system

Claims (8)

ユーザによって第1の期間に利用され、複数のセンサを含む第1のセンサ群から情報を取得する第1のパーソナルアシスタントと、
前記第1のパーソナルアシスタントとネットワークを介して接続され、前記第1のセンサ群から取得した情報に基づいて前記ユーザの状況を推定するサーバとを備え、
前記サーバは、
前記第1の期間において、前記第1のセンサ群に含まれるセンサのうち、少なくとも第1の属性を検出する第1属性検出センサから取得した情報に基づき前記ユーザの状況を推定し、
前記第1の期間よりも過去の期間であるプレ期間において、前記第1のセンサ群に含まれるセンサのうち、前記第1の属性とは異なる少なくとも第2の属性を検出する第2属性検出センサから取得した情報に基づいて前記ユーザの状況を推定することを特徴とするパーソナルアシスタント制御システム。
A first personal assistant that is used by the user during the first period and acquires information from a first sensor group that includes a plurality of sensors.
It is provided with a server connected to the first personal assistant via a network and estimating the situation of the user based on the information acquired from the first sensor group.
The server
In the first period, the user's situation is estimated based on the information acquired from the first attribute detection sensor that detects at least the first attribute among the sensors included in the first sensor group.
A second attribute detection sensor that detects at least a second attribute different from the first attribute among the sensors included in the first sensor group in a pre-period that is a period earlier than the first period. A personal assistant control system characterized in that the situation of the user is estimated based on the information obtained from.
前記サーバは、
前記プレ期間において、
前記第1のセンサ群から取得した情報に基づいて、前記ユーザに対する第三者の行為を抽出し、
前記第三者の行為と前記第2属性検出センサで取得した情報に基づく前記ユーザの状況とを関連付けて学習し、
前記第1の期間において、
前記第1属性検出センサで取得した情報から推定された前記ユーザの状況に基づいて、前記プレ期間における前記第三者の行為の少なくとも一部を再現するよう、前記第1のパーソナルアシスタントに対して指示を行うことを特徴とする請求項1に記載のパーソナルアシスタント制御システム。
The server
In the pre-period
Based on the information acquired from the first sensor group, the actions of a third party against the user are extracted.
Learn by associating the actions of the third party with the situation of the user based on the information acquired by the second attribute detection sensor.
In the first period
To the first personal assistant to reproduce at least a part of the third party's actions during the pre-period based on the user's situation estimated from the information acquired by the first attribute detection sensor. The personal assistant control system according to claim 1, wherein the instruction is given.
前記第1のパーソナルアシスタントは、
音を取得するセンサとしてのマイクロフォンと、
前記マイクロフォンで取得した音を増幅する増幅器と、
前記増幅器で増幅された音声信号を再生するスピーカと、
前記スピーカで再生された音を前記第三者の体内に伝達する伝達部と、を更に備えることを特徴とする請求項2に記載のパーソナルアシスタント制御システム。
The first personal assistant is
A microphone as a sensor that acquires sound,
An amplifier that amplifies the sound acquired by the microphone, and
A speaker that reproduces the audio signal amplified by the amplifier, and
The personal assistant control system according to claim 2, further comprising a transmission unit that transmits the sound reproduced by the speaker into the body of the third party.
ユーザによって第1の期間に利用され、複数のセンサを含む第1のセンサ群から情報を取得する第1のパーソナルアシスタントと、
前記ユーザによって前記第1の期間よりも過去の期間であるプレ期間に利用され、複数のセンサを含む第2のセンサ群から情報を取得するプレ期間用パーソナルアシスタントと、
前記第1のパーソナルアシスタント及び前記プレ期間用パーソナルアシスタントとネットワークを介して接続され、前記第1のセンサ群または前記第2のセンサ群から取得した情報に基づいて前記ユーザの状況を推定するサーバとを備え、
前記サーバは、
前記第1の期間において、前記第1のセンサ群に含まれるセンサのうち、少なくとも第1の属性を検出する第1属性検出センサから取得した情報に基づき前記ユーザの状況を推定し、
前記プレ期間において、前記第2のセンサ群に含まれるセンサのうち、前記第1の属性とは異なる少なくとも第2の属性を検出する第2属性検出センサから取得した情報に基づいて前記ユーザの状況を推定することを特徴とするパーソナルアシスタント制御システム。
A first personal assistant that is used by the user during the first period and acquires information from a first sensor group that includes a plurality of sensors.
A pre-period personal assistant that is used by the user during a pre-period, which is a period earlier than the first period, and acquires information from a second sensor group including a plurality of sensors.
A server that is connected to the first personal assistant and the pre-period personal assistant via a network and estimates the user's situation based on the information acquired from the first sensor group or the second sensor group. With
The server
In the first period, the user's situation is estimated based on the information acquired from the first attribute detection sensor that detects at least the first attribute among the sensors included in the first sensor group.
The situation of the user based on the information acquired from the second attribute detection sensor that detects at least the second attribute different from the first attribute among the sensors included in the second sensor group during the pre-period. A personal assistant control system characterized by estimating.
前記サーバは、
前記プレ期間において、
前記第2のセンサ群から取得した情報に基づいて、前記ユーザに対する第三者の行為を抽出し、
前記第三者の行為と前記第2属性検出センサで取得した情報に基づく前記ユーザの状況とを関連付けて学習し、
前記第1の期間において、
前記第1属性検出センサで取得した情報から推定された前記ユーザの状況に基づいて、前記プレ期間における前記第三者の行為の少なくとも一部を再現するよう、前記第1のパーソナルアシスタントに対して指示を行うことを特徴とする請求項4に記載のパーソナルアシスタント制御システム。
The server
In the pre-period
Based on the information acquired from the second sensor group, the actions of a third party against the user are extracted.
Learn by associating the actions of the third party with the situation of the user based on the information acquired by the second attribute detection sensor.
In the first period
To the first personal assistant to reproduce at least a part of the actions of the third party during the pre-period based on the user's situation estimated from the information acquired by the first attribute detection sensor. The personal assistant control system according to claim 4, wherein the instruction is given.
前記プレ期間用パーソナルアシスタントは、
音を取得するセンサとしてのマイクロフォンと、
前記マイクロフォンで取得した音を増幅する増幅器と、
前記増幅器で増幅された音声信号を再生するスピーカと、
前記スピーカで再生された音を前記第三者の体内に伝達する伝達部と、を更に備えることを特徴とする請求項5に記載のパーソナルアシスタント制御システム。
The pre-period personal assistant
A microphone as a sensor that acquires sound,
An amplifier that amplifies the sound acquired by the microphone, and
A speaker that reproduces the audio signal amplified by the amplifier, and
The personal assistant control system according to claim 5, further comprising a transmission unit that transmits the sound reproduced by the speaker into the body of the third party.
前記サーバは、前記第1属性検出センサで取得した情報及び前記第1属性検出センサとは異なる属性を検出する前記第2属性検出センサで取得した情報に基づいて、共通の指標を導出することを特徴とする請求項1〜請求項6のいずれか一項に記載のパーソナルアシスタント制御システム。 The server derives a common index based on the information acquired by the first attribute detection sensor and the information acquired by the second attribute detection sensor that detects an attribute different from the first attribute detection sensor. The personal assistant control system according to any one of claims 1 to 6, wherein the personal assistant control system is characterized. 前記プレ期間を前記ユーザが出生前の期間とし、前記第1の期間を前記ユーザが出生後の期間としたことを特徴とする請求項1〜請求項7のいずれか一項に記載のパーソナルアシスタント制御システム。 The personal assistant according to any one of claims 1 to 7, wherein the pre-period is a prenatal period by the user and the first period is a postnatal period by the user. Control system.
JP2020186217A 2019-07-30 2020-11-07 Personal assistant control system Active JP6900089B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020186217A JP6900089B2 (en) 2019-07-30 2020-11-07 Personal assistant control system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019139331A JP6900058B2 (en) 2019-07-30 2019-07-30 Personal assistant control system
JP2020186217A JP6900089B2 (en) 2019-07-30 2020-11-07 Personal assistant control system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019139331A Division JP6900058B2 (en) 2019-07-30 2019-07-30 Personal assistant control system

Publications (2)

Publication Number Publication Date
JP2021049347A JP2021049347A (en) 2021-04-01
JP6900089B2 true JP6900089B2 (en) 2021-07-07

Family

ID=75156630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020186217A Active JP6900089B2 (en) 2019-07-30 2020-11-07 Personal assistant control system

Country Status (1)

Country Link
JP (1) JP6900089B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222518A (en) * 2000-02-09 2001-08-17 Sony Corp Device and method for processing information and data holding device
JP5688574B2 (en) * 2009-11-04 2015-03-25 株式会社国際電気通信基礎技術研究所 Robot with tactile display
US9355368B2 (en) * 2013-03-14 2016-05-31 Toyota Motor Engineering & Manufacturing North America, Inc. Computer-based method and system for providing active and automatic personal assistance using a robotic device/platform
JP2017100221A (en) * 2015-11-30 2017-06-08 パナソニックIpマネジメント株式会社 Communication robot

Also Published As

Publication number Publication date
JP2021049347A (en) 2021-04-01

Similar Documents

Publication Publication Date Title
Do et al. RiSH: A robot-integrated smart home for elderly care
Kon et al. Evolution of smart homes for the elderly
WO2018153359A1 (en) Emotion state prediction method and robot
JP7299245B2 (en) Robotic dialogue for observable signs of health
JP4794846B2 (en) Estimation apparatus and estimation method
JP2019162714A (en) Robot recognizing direction of sound source
CN110291760A (en) For exporting the resolver of user's intention
CN109318236A (en) Old man chaperons intelligence system
JP2009131928A (en) Robot control system, robot, program and information recording medium
US11751813B2 (en) System, method and computer program product for detecting a mobile phone user's risky medical condition
WO2021032556A1 (en) System and method of detecting falls of a subject using a wearable sensor
KR20160072621A (en) Artificial intelligence robot service system
US9968296B2 (en) Wearable socio-biosensor device
JP7350356B2 (en) personal assistant control system
Tsai et al. Design of an intelligent cognition assistant for people with cognitive impairment
JP2019017499A (en) Recuperation support system
JP6900089B2 (en) Personal assistant control system
Myakala et al. A low cost intelligent smart system for real time infant monitoring and cry detection
Tamilselvi et al. Digital companion for elders in tracking health and intelligent recommendation support using deep learning
EP4181151A1 (en) A system and method for assisting the development of an adult-child attachment relationship
KR20230154380A (en) System and method for providing heath-care services fitting to emotion states of users by behavioral and speaking patterns-based emotion recognition results
WO2021085175A1 (en) Autonomous mobile object, information processing method, program, and information processing device
JP7254345B2 (en) Information processing device and program
Naeem et al. An AI based Voice Controlled Humanoid Robot
CN111353401B (en) Visual and emotional system of baby service robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210319

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210319

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210609

R150 Certificate of patent or registration of utility model

Ref document number: 6900089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150