JP2007323233A - Method, device and program for processing reason explanation service using interactive robot - Google Patents

Method, device and program for processing reason explanation service using interactive robot Download PDF

Info

Publication number
JP2007323233A
JP2007323233A JP2006151033A JP2006151033A JP2007323233A JP 2007323233 A JP2007323233 A JP 2007323233A JP 2006151033 A JP2006151033 A JP 2006151033A JP 2006151033 A JP2006151033 A JP 2006151033A JP 2007323233 A JP2007323233 A JP 2007323233A
Authority
JP
Japan
Prior art keywords
service
information
user
reason
execution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006151033A
Other languages
Japanese (ja)
Inventor
Junji Satake
純二 佐竹
Hirotada Ueda
博唯 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2006151033A priority Critical patent/JP2007323233A/en
Publication of JP2007323233A publication Critical patent/JP2007323233A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a reason explanation service for clearly and briefly explaining reasons for executing a plurality of life support services to a user. <P>SOLUTION: When a trigger condition for reason explanation service execution is satisfied (S5) after the execution of life support services, services executed within a predetermined time period before detection are specified as reason explanation targets by reference to a service history database 17 (S6). The situations at the execution of the specified services are acquired (S7). Reason explanations are generated as robot speech information from the acquired information (S8). The generated reason explanations are voice-synthesized and the generated voice data are outputted to a user 3 (S9). Service history information about the executed reason explanation service is saved in the service history database 17 (S10). <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は,ユーザの生活を支援するためにアプライアンスを自律的に制御する生活支援ロボットシステムと協働して,ユーザと音声による対話を行う対話ロボットを用いて,前記生活支援ロボットシステムで実行されるサービス提供の理由を説明する理由説明サービス処理に関する。   The present invention is implemented in the life support robot system using a dialog robot that performs voice conversation with the user in cooperation with a life support robot system that autonomously controls the appliance to support the life of the user. The present invention relates to reason explanation service processing for explaining the reason for providing a service.

さらに詳しくは,前記生活支援ロボットシステムで実行された複数のサービスを対象にした理由説明サービスを行う理由説明サービス処理方法,その装置,および,そのプログラムに関する。   More specifically, the present invention relates to a reason explanation service processing method for performing a reason explanation service for a plurality of services executed by the life support robot system, its apparatus, and its program.

ユビキタスな環境を背景にして,ユーザの居住空間などに設置されて自律的にユーザの生活を支援する生活支援ロボットシステムが実現されている。ユビキタスな環境を前提にした生活支援ロボットシステムは,ユーザが特に意識して操作する必要がないアンコンシャス型のシステムであることが多い。   With the background of ubiquitous environment, a life support robot system that is installed in a user's living space and autonomously supports the user's life has been realized. Life support robot systems based on a ubiquitous environment are often unconscious systems that do not require users to be particularly aware of the operation.

アンコンシャス型の生活支援ロボットシステムは,快適な環境の維持やユーザの活動支援のために,各種のセンサ情報にもとづいて環境やユーザの行動を推論し,ネットワークで接続されたアプライアンス(通信機能を備えた家電機器),情報端末装置などを制御して生活を支援するための種々のサービスを提供するものである。例えば,生活支援ロボットシステムは,センサ情報をもとにユーザの動作・姿勢,部屋の状況を分析してユーザがリラックスした状態であると推論すると,アプライアンスの一つであるオーディオシステムによってユーザの嗜好にあった音楽を流したり,または,エアコンによって室内の温湿度を維持したりして,ユーザがこれらのアプライアンスを意識的に操作することなく快適な生活環境を実現できるようにする(参照,非特許文献1)。
美濃導彦,「ゆかりプロジェクトの目的と概要――UKARIプロジェクト報告No.1」,情報処理学会 第66回全国大会,2004年
In order to maintain a comfortable environment and support user activities, the unconscious lifestyle support robot system infers the environment and user behavior based on various sensor information, and uses an appliance (communication function with a communication function). It provides various services for supporting life by controlling home appliances) and information terminal devices. For example, a life support robot system analyzes the user's movement / posture and room conditions based on sensor information and infers that the user is in a relaxed state. By playing music that is suitable for the environment or by maintaining the indoor temperature and humidity with an air conditioner, users can realize a comfortable living environment without consciously operating these appliances (see, non- Patent Document 1).
Mino Tetsuhiko, “Purpose and Outline of the Yukari Project—UKARI Project Report No. 1”, IPSJ 66th National Convention, 2004

アンコンシャス型の生活支援ロボットシステムは,さまざまな状況にも柔軟に対応できるような普遍的なユーザインタフェースとして,高度な状況対応処理能力を備え,かつユーザに親近感を抱かせるような対話システムが必要である。本発明の発明者は,ユーザの曖昧な要求をより正確に受け取ってシステムの制御に反映させ,また,システムの制御状況をより的確に理解してもらえるように,ユーザにとって生活支援のための有用なサービスや情報を提供できる対話ロボット,および前記対話ロボットを用いた対話システムを実現している(参照,PCT/JP2004/002942)。   The unconscious life support robot system is a universal user interface that can respond flexibly to various situations, and has an interactive system that has a high level of situational processing capability and makes the user feel familiar. is necessary. The inventor of the present invention can receive a user's ambiguous request more accurately and reflect it in the control of the system, and can help the user understand the control status of the system more accurately for life support. An interactive robot that can provide various services and information, and an interactive system using the interactive robot (see PCT / JP2004 / 002942).

前記の生活支援ロボットシステムによって,さまざまな生活支援サービスが提供可能な状況になると,実行されるサービスの全てをユーザが把握しておくことは困難であるから,なぜそのようなサービスが実行されたのかという理由を,ユーザに説明する仕組みが必要である。   When various life support services can be provided by the above life support robot system, it is difficult for the user to grasp all the services to be executed. A mechanism is needed to explain to the user why.

そこで,本発明の発明者は,生活支援ロボットシステムが提供するサービスについて,ユーザがその実行の理由を質問した場合に,対話ロボットを通じて,その実行の理由を説明する理由説明サービス処理方法および処理装置を実現している(参照,特願2005−191520)。   Therefore, the inventor of the present invention provides a reason explanation service processing method and a processing apparatus for explaining the reason for execution of the service provided by the life support robot system through the interactive robot when the user asks the reason for the execution. (See Japanese Patent Application No. 2005-191520).

前記の対話ロボットを用いた理由説明サービス処理方法によれば,生活支援ロボットシステムによってサービスが実行された場合に,ユーザにサービス実行の理由を「どうして?」と質問させ,対話ロボットがサービス実行の理由説明を行い,この理由説明に対するユーザの反応をもとに,実行したサービスに対するユーザの評価をフィードバックすることができる。   According to the reason explanation service processing method using the interactive robot described above, when the service is executed by the life support robot system, the user is asked the reason for executing the service as “why?” The reason is explained, and the user's evaluation of the executed service can be fed back based on the user's reaction to the explanation of the reason.

しかし,この処理方法では,ユーザがサービス実行の理由を質問したときに,対話ロボットは,質問された時刻の直近に実行されていた一つのサービスについて理由説明を行っていた。また,複数のサービスについての理由説明を行うとすれば,ユーザが質問した時までに実行されていたサービス全てについて理由説明を行うしかなかった。   However, in this processing method, when the user asks the reason for executing the service, the interactive robot explained the reason for one service that was executed most recently. In addition, if the reason for a plurality of services is explained, the only reason is to explain the reasons for all the services that have been executed until the user asks a question.

一つのトリガに対して複数のサービスが同時に実行されたような場合,または短時間のうちに複数のサービスが実行されたような場合には,ユーザは,最後に実行されたサービスの実行についてしか理由を知ることができなかった。また,複数のサービスの実行について理由説明が行われるとすれば,実行されたサービスの理由を全て網羅することになり,ユーザは理由説明を長時間延々と聞かされるという状況が生じていた。   When multiple services are executed at the same time for a single trigger, or when multiple services are executed within a short time, the user only needs to execute the service that was executed last. I couldn't know why. Further, if the explanation of the reasons for the execution of a plurality of services is given, all the reasons for the executed services will be covered, and the situation that the user will be told the explanation of the reasons for a long time has occurred.

本発明は,かかる問題点に鑑みてなされたものであり,その目的は,複数のサービスの実行理由を,ユーザにわかりやすく簡潔に説明する理由説明サービスを提供できる処理方法,装置,およびプログラムを提供するものである。   The present invention has been made in view of such problems, and an object of the present invention is to provide a processing method, apparatus, and program capable of providing a reason explanation service that easily and easily explains a plurality of service execution reasons to a user. It is to provide.

本発明は,サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する理由説明サービス処理方法である。   In order to autonomously control a plurality of appliances that execute services, the present invention infers the environment in the space and the user's behavior based on sensor information measured in a predetermined space, and controls the appliance. Life support robot comprising a reasoning system to control, a distributed environment behavior database that accumulates environment information and behavior information as inference results by the reasoning system, and a service history information database that accumulates history information of services provided by the reasoning system In cooperation with the system and the life support robot system, inferring the context of the utterance based on the user utterance information generated by voice recognition processing of the user's voice data, and voice synthesis of the utterance information generated based on the inference A dialogue robot for outputting voice data generated by processing and having a voice dialogue with the user; Interactive system that is why explaining service processing method for describing the execution reason service the life support robot system is provided.

本発明は,1)前記分散環境行動データベースに蓄積された環境情報および行動情報から推論された前記ユーザの状況にもとづいてサービスが実行された場合に,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,2)前記サービスが実行された理由説明のための所定の状況が検出された場合に,前記サービス履歴情報データベースから,前記検出時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,3)前記特定された各サービスについて,前記サービス実行を通知する実行通知を生成する処理過程と,4)前記特定された各サービスの実行時刻をもとに前記実行通知の出力順序を決定する処理過程と,5)前記実行通知を前記出力順序に従って音声合成処理し,生成した音声データを所定の応答待機期間の間隔に応じて前記対話ロボットから出力する処理過程と,6)前記実行通知後の所定の応答待機期間に検出された前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記実行通知に対応するサービスのサービス履歴情報をもとに,当該サービスの実行の理由説明を生成する処理過程と,7)前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える。   The present invention provides: 1) When the service is executed based on the user's situation inferred from the environment information and the action information stored in the distributed environment action database, the execution time of the service and the situation at the time of service execution A process of storing service history information including information on the service history information database in the service history information database, and 2) when a predetermined situation for explaining the reason for execution of the service is detected, from the service history information database, A process of identifying a plurality of services executed within a predetermined period from the time of detection as the object of the reason explanation; and 3) a process of generating an execution notification for notifying the service execution for each of the specified services. 4) Determine the output order of the execution notifications based on the execution times of the specified services. 5) a process for synthesizing the execution notification according to the output order, and outputting the generated voice data from the interactive robot according to a predetermined response waiting period interval; 6) after the execution notification Service history of the service corresponding to the execution notification when it is inferred that the user's utterance is a request to explain the reason for service execution based on the context of the user's utterance information detected during the predetermined response waiting period A process for generating a reason explanation for executing the service based on the information; and 7) a process for synthesizing the reason explanation and outputting the generated voice data from the interactive robot.

本発明は,理由説明サービスを実行するための所定の状況(例えば,ユーザからの「どうして?」などの理由説明の要求,ユーザがソファに座ったという状況)などを検出すると,所定の期間内に実行された複数のサービスを特定すると,サービス履歴情報をもとに生成した各サービスの実行通知(テレビつけたよ。○○番組をつけたよ。など)の音声データを所定の待機時間をとって出力する。ある実行通知の後の待機時間内に検出したユーザの発話が,理由説明要求を示す応答(例えば「どうして?」)であると推論された場合に,ユーザの反応があった実行通知に対応するサービスの実行の理由説明(「ソファに座ったからだよ。」)の音声データを対話ロボットから出力する。   The present invention detects a predetermined situation for executing the reason explanation service (for example, a request for explanation of a reason such as “why?” From the user, a situation where the user is sitting on the sofa) or the like. When multiple services executed are identified, the voice data of the execution notification of each service generated based on the service history information (Television turned on, XX turned on, etc.) is taken for a predetermined waiting time. Output. Corresponds to an execution notification with a user's reaction when it is inferred that the user's utterance detected within the waiting time after a certain execution notification is a response indicating a reason explanation request (for example, “Why?”) The voice data explaining the reason for executing the service (“I'm sitting on the couch”) is output from the interactive robot.

対話ロボットは,実行されたサービスの実行通知を一定の間隔をあけながら発話するので,ユーザにより,理由説明を所望するサービスの実行通知がされると,その後に「どうして?」など発話して,理由説明要求を割り込ませることによって,ユーザが知りたいサービスの実行の理由説明だけを出力することができる。   Since the dialogue robot utters the execution notification of the executed service with a certain interval, when the user is notified of the execution of the service for which the explanation of the reason is desired, it then utters "Why?" By interrupting the reason explanation request, it is possible to output only the explanation of the reason for executing the service that the user wants to know.

また,本発明は,1)前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,2)前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,3)前記特定された各サービスについて,当該サービスの実行の理由説明を生成する処理過程と,4)前記特定された各サービスの実行時刻をもとに前記理由説明の出力順序を決定する処理過程と,5)前記理由説明を前記出力順序に従って音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える。   In addition, the present invention provides: 1) the execution time of the service for a service inferred from the environment information and the action information stored in the distributed environment action database, and selected and executed based on the user condition; And a process of accumulating service history information including information related to service execution status in the service history information database, and 2) a request for explaining the reason for executing the service based on the context of the user's utterance information. A process of identifying a plurality of services executed within a predetermined period from the time of the user's utterance as the object of the reason explanation from the service history information when it is inferred, and 3) the specified For each service, a process for generating a description of the reason for executing the service, and 4) each identified service A process for determining the output order of the reason explanations based on the execution time of the task; and 5) a process for voice-synthesizing the reason explanations according to the output order and outputting the generated speech data from the interactive robot; Is provided.

生活支援ロボットシステムが所定の時間内に実行したサービスが複数ある場合に,ユーザの発話が理由説明の要求であると推定されたときは,ユーザの発話時までの所定の時間内に実行された複数のサービス(テレビ制御,番組推薦,照明制御,空調制御など)について,それぞれのサービス実行の理由説明の音声データを出力する。よって,所定の期間内に実行されたサービスの実行の理由説明をまとめて行うことができる。   When there are multiple services that the life support robot system has executed within the predetermined time, if it is estimated that the user's utterance is a request for explanation of the reason, it was executed within the predetermined time until the user's utterance For a plurality of services (television control, program recommendation, lighting control, air conditioning control, etc.), audio data explaining the reason for executing each service is output. Therefore, it is possible to collectively explain the reasons for executing services executed within a predetermined period.

また,本発明が前記の構成をとる場合に,前記サービス履歴情報を蓄積する処理過程では,前記サービス履歴情報として,実行されたサービス間の依存関係を前記サービス履歴情報データベースに蓄積し,前記出力順序を決定する処理過程では,前記特定されたサービス間に前記依存関係がある場合に,当該依存関係にあるサービスの実行の理由説明の出力順序を,当該サービスの実行時刻の順序をもとに決定する。   When the present invention has the above-described configuration, in the process of storing the service history information, the service history information is stored as dependency information between executed services in the service history information database, and the output is performed. In the process of determining the order, when there is the dependency relationship between the identified services, the output order of the explanation of the reason for executing the service in the dependency relationship is determined based on the execution time order of the service. decide.

実行されたサービス同士が,あるサービスの実行によって別のサービスが実行されるという依存関係を持つ場合に,複数のサービスの実行を,遡って新しいものから理由説明を行うときに,依存関係にあるサービスについては,実行された順序で理由説明を行う。例えば「テレビ制御」サービスと「番組推薦」サービスのように,依存関係があるサービスの実行の理由説明を,実行順序どおりに行うことによって,ユーザに,より分かりやすい理由説明を行うことができる。   When executed services have a dependency relationship that another service is executed by the execution of one service, they are in a dependency relationship when explaining the reason for the execution of multiple services retroactively. For services, explain the reasons in the order in which they were executed. For example, by explaining the reasons for executing dependent services in the order of execution, such as the “TV control” service and the “program recommendation” service, it is possible to explain the reason more easily to the user.

また,本発明は,1)前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,およびサービスが理由説明の対象として選択されたか否かを示す情報を含むサービス履歴情報および前記サービス履歴情報データベースに蓄積する処理過程と,2)前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時に最も近い実行時刻であって,前記理由説明の対象として選択されていない一つのサービスを,前記理由説明の対象として特定する処理過程と,3)前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理過程と,4)前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える。   In addition, the present invention provides: 1) the execution time of the service for a service inferred from the environment information and the action information stored in the distributed environment action database, and selected and executed based on the user condition; , Service history information including information regarding the status at the time of service execution, and information indicating whether or not the service has been selected as the reason for explanation, and a processing process stored in the service history information database, and 2) utterance information of the user If it is inferred that the user's utterance is a service execution reason explanation request based on the context of the service, the execution time closest to the user's utterance is determined from the service history information as the object of the reason explanation. A process of identifying one unselected service as the object of the reason explanation, and 3) before A process of generating a description of the reason for executing the specified service from service history information; and 4) performing a speech synthesis process on the reason for executing the specified service and outputting the generated voice data from the interactive robot. And a processing process.

ユーザが理由説明要求として,「どうして?」と発話するたびに,所定の期間内に実行されたサービスについて一つずつ理由説明を行う。ユーザは,知りたいサービスについての理由説明が済めば「どうして?」という発話をやめるので,理由説明が不要なサービスについて理由説明を行う必要がなくなる。   Each time the user utters “why?” As a reason explanation request, the reason explanation is given one by one for services executed within a predetermined period. When the user has finished explaining the reason for the service he / she wants to know, he / she ceases to say “Why?”, So there is no need to explain the reason for the service for which the reason explanation is unnecessary.

また,本発明は,1)前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,および前記ユーザの理由説明要求のサービス特定のための待ち受け情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,2)前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記発話時に最も近い実行時刻であって,かつ,前記ユーザ発話情報に含まれる情報と前記サービス履歴情報の待ち受け情報とが一致する一つのサービスを,前記理由説明の対象として特定する処理過程と,3)前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理過程と,4)前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える。   In addition, the present invention provides: 1) the execution time of the service for a service inferred from the environment information and the action information stored in the distributed environment action database, and selected and executed based on the user condition; A process of storing service history information in the service history information database, including information on the status of service execution, and standby information for specifying the service of the user's reason explanation request, and 2) the utterance information of the user When it is inferred that the user's utterance is a request to explain the reason for service execution based on the context, the information included in the user utterance information and the service history information are the execution time closest to the utterance Process of identifying one service with the same waiting information as the reason explanation target 3) a process for generating a description of the reason for executing the specified service from the service history information; and 4) a voice synthesis process for the description of the reason for executing the specified service. And a process of outputting from the dialogue robot.

理由説明要求と推論されたユーザの発話に含まれるキーワードを用いて理由説明の対象となるサービスを特定することによって,実行された複数のサービスのうち,ユーザが必要とするサービスの実行の理由説明だけを行うことができる。   Explanation of the reason for executing the service required by the user among the multiple services executed by specifying the service that is the target of the reason explanation using the keyword included in the user's utterance inferred as the reason explanation request. Can only do it.

また,本発明は,1)前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,2)前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,3)前記特定されたサービスが理由説明の対象であるか否かを,前記ユーザに確認する対象確認を生成する処理過程と,4)前記対象確認を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程と,5)前記対象確認に対する前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話が前記対象確認に対する肯定的応答であると推論された場合に,前記サービス履歴情報から,前記肯定的応答された対象確認に対応するサービスの実行の理由説明を生成する処理過程と,6)前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える。   In addition, the present invention provides: 1) the execution time of the service for a service inferred from the environment information and the action information stored in the distributed environment action database, and selected and executed based on the user condition; And a process of accumulating service history information including information related to service execution status in the service history information database, and 2) a request for explaining the reason for executing the service based on the context of the user's utterance information. A process of identifying a plurality of services executed within a predetermined period from the time of the user's utterance as the object of the reason explanation from the service history information when it is inferred, and 3) the specified A process of generating an object confirmation for confirming to the user whether or not the service is the object of reason explanation; 4) A process of synthesizing the object confirmation and outputting the generated speech data from the interactive robot; and 5) the user's utterance is positive for the object confirmation based on the context of the user's utterance information for the object confirmation. A process of generating a reason for executing the service corresponding to the positively acknowledged object confirmation from the service history information when it is inferred that the response is a dynamic response; And a process of outputting the generated voice data from the interactive robot.

ユーザが発話した理由説明要求に対し,理由説明の対象となるサービスを一つずつ確認し,確認したサービスの実行の理由説明だけを行うことによって,ユーザが,理由説明を所望するサービスについて確実に理由説明を行うことができる。   In response to a reason explanation request uttered by the user, by confirming the services to be explained one by one and explaining only the reason for execution of the confirmed service, the user can ensure the service for which the reason explanation is desired. The reason can be explained.

また,本発明は,前記対話ロボットを用いた理由説明サービス処理方法の各処理過程で実現される処理を行う処理装置,および,対話システムに前記処理方法を実行させるためのプログラムである。   Further, the present invention is a processing device for performing processing realized in each processing step of the reason explanation service processing method using the dialog robot, and a program for causing the dialog system to execute the processing method.

本発明の発明者によって発明された対話システムでは,ユーザがサービス実行の理由説明を要求したときに,生活支援ロボットシステムによって直前に実行された一つのサービスの実行だけについて理由説明を行っている。   In the dialogue system invented by the inventor of the present invention, when the user requests explanation of the reason for executing the service, the reason is explained only for the execution of one service executed immediately before by the life support robot system.

本発明によれば,生活支援ロボットシステムによって,1つのトリガによって同時に実行された複数のサービス,短い時間内に実行された複数のサービスがある場合に,理由説明の対象となる複数のサービスを特定し,各サービスの実行の理由説明を簡潔にまとめて,ユーザに分かりやすく提示できる理由説明サービスを提供することができる。   According to the present invention, when there are a plurality of services executed simultaneously by one trigger and a plurality of services executed within a short time by the life support robot system, a plurality of services subject to explanation of reasons are specified. In addition, it is possible to provide a reason explanation service that can concisely explain the reason for executing each service and present it to the user in an easy-to-understand manner.

図1は,本発明が実行される対話システムの構成例を示す図である。本実施例において,対話システムは,複数のユーザ3(3a,3b,3c)で構成される一家族の住宅(居住空間)に適用されたアンコンシャス型の生活支援ロボットシステム1と,ビジブル型の対話ロボット2で構成される。   FIG. 1 is a diagram showing a configuration example of a dialogue system in which the present invention is executed. In this embodiment, the dialogue system includes an unconscious life support robot system 1 applied to a family (residential space) composed of a plurality of users 3 (3a, 3b, 3c), a visible type Consists of a dialogue robot 2.

生活支援ロボットシステム1は,ユビキタス環境を利用して,居住空間全体をモニタリングして,通信機能を持つ家電機器(アプライアンス)4によるサービスを実行して,自律的にユーザ3の生活を支援する。対話ロボット2は,ユーザ3の居住空間内に設置される。対話ロボット2は,自律的に移動できる機能を備えて,ユーザ3の居住空間内を自由に移動できるように構成されてもよい。図1の対話システムでは,アンコンシャス型の生活支援ロボットシステム1とビジブル型の対話ロボット2との分散協働により処理が行われる。   The life support robot system 1 uses the ubiquitous environment, monitors the entire living space, executes a service by the home appliance (appliance) 4 having a communication function, and autonomously supports the life of the user 3. The dialogue robot 2 is installed in the living space of the user 3. The interactive robot 2 may have a function of moving autonomously and may be configured to freely move in the living space of the user 3. In the dialogue system of FIG. 1, processing is performed by distributed cooperation between the unconscious life support robot system 1 and the visible dialogue robot 2.

図2は,生活支援ロボットシステム1および対話ロボット2の構成例を示す図である。生活支援ロボットシステム1は,推論システム11,センサ12,分散環境行動データベース13,イベント検出装置15,サービス履歴データベース17などによって構成されている。   FIG. 2 is a diagram illustrating a configuration example of the life support robot system 1 and the dialogue robot 2. The life support robot system 1 includes an inference system 11, a sensor 12, a distributed environment behavior database 13, an event detection device 15, a service history database 17, and the like.

推論システム11は,推論用の知識データベースを備え,イベント検出装置15がイベントを検出すると,分散環境行動データベース13からコンテキストを取得して,居住空間内の環境,ユーザ3の動作,ユーザ3同士の相互作用(インタラクション),ユーザ3と物との相互作用などを分析し,分析結果からユーザ3の行動を推論し,結論に従って実装された生活支援のサービスのなかから実行するべきサービスを決定して,該当するアプライアンス4を制御する処理システムである。推論システム11における分析結果や推論結果は,分散環境行動データベース13に随時蓄積される。   The inference system 11 includes a knowledge database for inference. When the event detection device 15 detects an event, the inference system 11 acquires a context from the distributed environment behavior database 13 to obtain the environment in the living space, the operation of the user 3, the user 3 Analyzing the interaction (interaction), the interaction between the user 3 and the object, etc., inferring the action of the user 3 from the analysis result, and determining the service to be executed from the life support services implemented according to the conclusion , A processing system for controlling the corresponding appliance 4. Analysis results and inference results in the inference system 11 are accumulated in the distributed environment behavior database 13 as needed.

推論システム11は,様々な生活支援サービスとともに,理由説明サービスが実装される。理由説明サービスは,ユーザ3から質問された場合など,所定の契機の検出にもとづいて,生活支援ロボットシステム1が提供する生活支援サービスの実行を決定した理由を,対話ロボット2を通じてユーザ3に説明するサービスである。   The reasoning system 11 is implemented with a reason explanation service as well as various life support services. The reason explanation service explains to the user 3 through the interactive robot 2 the reason why the life support service provided by the life support robot system 1 is determined based on detection of a predetermined opportunity, such as when the user 3 asks a question. Service.

また,推論システム11は,提供した生活支援サービスに対するユーザ評価のフィードバックを行う。ユーザ評価フィードバックは,理由説明サービスによって示したサービス実行の理由に対するユーザ3の反応から,理由説明の対象となったサービスの必要性,適切性などについてのユーザ3の評価を分析し,分析結果を分散環境行動データベース13のユーザ3に固有の情報に反映させる処理である。   In addition, the inference system 11 performs feedback of user evaluation for the provided life support service. The user evaluation feedback is based on the user 3's reaction to the reason for service execution indicated by the reason explanation service. This is a process of reflecting the information unique to the user 3 in the distributed environment behavior database 13.

センサ12は,通信機能を備えて,ユーザ3の居住空間内の種々のデータを計測・収集し,収集したセンサ情報を分散環境行動データベース13に送信する処理手段である。センサ12は,例えば,TVカメラ,マイク,床センサ,RFIDタグ用モニタ,アプライアンス4の内部センサなどである。センサ情報は,例えば,画像データ,音声データ,圧力遷移データ,IDタグデータなどのデータである。ユーザ3が所有する物や居住空間に存在する物には,非接触型電波方式認識用の識別情報が格納されたIDタグ,例えばRFID(Radio Frequency Identification)タグが付与されているとする。   The sensor 12 is a processing unit that has a communication function, measures and collects various data in the living space of the user 3, and transmits the collected sensor information to the distributed environment behavior database 13. The sensor 12 is, for example, a TV camera, a microphone, a floor sensor, an RFID tag monitor, an internal sensor of the appliance 4, or the like. The sensor information is data such as image data, sound data, pressure transition data, ID tag data, for example. Assume that an ID tag, for example, an RFID (Radio Frequency Identification) tag, in which identification information for non-contact radio wave system recognition is stored, is attached to an object owned by the user 3 or an object existing in the living space.

分散環境行動データベース13は,センサ12から取得したセンサ情報,推論システム11で分析もしくは推論された結果を蓄積し管理するデータベースシステムである。   The distributed environment behavior database 13 is a database system that accumulates and manages sensor information acquired from the sensor 12 and results analyzed or inferred by the inference system 11.

図3に,分散環境行動データベース13の構成例を示す。分散環境行動データベース13は,分散センサ情報データベース131,分散環境情報データベース132,分散動作情報データベース133,分散行動情報データベース134,人−物インタラクションデータベース135,人−人インタラクションデータベース136,固有情報データベース137などのデータベースシステムによって構成される。   FIG. 3 shows a configuration example of the distributed environment behavior database 13. The distributed environment behavior database 13 includes a distributed sensor information database 131, a distributed environment information database 132, a distributed operation information database 133, a distributed behavior information database 134, a person-object interaction database 135, a person-person interaction database 136, a specific information database 137, and the like. Consists of a database system.

分散センサ情報データベース131は,所定の時刻や契機ごとにセンサ12から送信された各種のセンサ情報を蓄積するデータベースである。分散環境情報データベース132は,物の位置,姿勢,居住空間の温湿度,アプライアンス4の内部状態などの環境情報を蓄積するデータベースである。例えば,ユーザ3xが勉強机に向かって本を読んでいる場合に,センサ12で計測されたセンサ情報(時刻,IDデータ,位置,画像データ,圧力データ,サービス実行部の内部センサ情報など)が推論システム11で分析され,以下のような環境情報が生成されて蓄積される。
「時刻,本のIDデータ,位置,状態(手に持たれている状態),
時刻,勉強机の電灯のIDデータ,位置,状態(点灯中),
時刻,勉強机の椅子のIDデータ,位置,状態(使用中),…。」
分散動作情報データベース133は,ユーザ3の位置,姿勢などを示す動作情報を蓄積するデータベースである。例えば,上記の例の場合に,センサ情報が推論システム11で分析され,以下のような動作情報が蓄積される。
「時刻,ユーザ3xのIDデータ,位置,姿勢(座位),…」。
The distributed sensor information database 131 is a database that accumulates various types of sensor information transmitted from the sensor 12 at a predetermined time or opportunity. The distributed environment information database 132 is a database that accumulates environmental information such as the position, posture, temperature and humidity of the living space, and the internal state of the appliance 4. For example, when the user 3x is reading a book toward the study desk, sensor information (time, ID data, position, image data, pressure data, internal sensor information of the service execution unit, etc.) measured by the sensor 12 is stored. It is analyzed by the inference system 11, and the following environmental information is generated and accumulated.
“Time, book ID data, position, status (held by hand),
Time, study desk lamp ID data, position, status (lit),
Time, study desk chair ID data, position, status (in use), ... "
The distributed motion information database 133 is a database that accumulates motion information indicating the position, posture, etc. of the user 3. For example, in the case of the above example, the sensor information is analyzed by the inference system 11 and the following operation information is accumulated.
"Time, user 3x ID data, position, posture (sitting position), ...".

人−物インタラクションデータベース135は,人−物インタラクション情報を蓄積するデータベースである。人−物インタラクション情報は,相互作用が生じているユーザ3と物との組み合わせを示す情報である。例えば,上記の例の場合に,推論システム11で環境情報および動作情報が分析され,以下のような人−物インタラクション情報が蓄積される。
「人−物インタラクション0001:ユーザ3x,本,勉強机,勉強机の椅子,電灯,…。」
人−人インタラクションデータベース136は,人−人インタラクション情報を蓄積するデータベースである。人−人インタラクション情報は,インタラクションが生じているユーザ3同士の組み合わせを示す情報である。例えば,ユーザ3a(父親)とユーザ3b(娘)がソファに座って一緒にテレビを見ているとする。推論システム11で二人の動作情報(位置や姿勢など)から相互作用が分析されて,以下のような人−人インタラクション情報が蓄積される。
「人−人インタラクション0011:ユーザ3a,ユーザ3b」。
The person-object interaction database 135 is a database for accumulating person-object interaction information. The person-object interaction information is information indicating a combination of the user 3 and the object in which the interaction occurs. For example, in the case of the above example, the inference system 11 analyzes the environment information and the operation information, and the following person-object interaction information is accumulated.
“People-things interaction 0001: user 3x, book, study desk, study desk chair, lamp,…”
The person-person interaction database 136 is a database that accumulates person-person interaction information. The person-person interaction information is information indicating a combination of the users 3 in which the interaction occurs. For example, it is assumed that a user 3a (father) and a user 3b (daughter) are sitting on a sofa and watching TV together. The inference system 11 analyzes the interaction from the motion information (position, posture, etc.) of the two people, and the following person-person interaction information is accumulated.
“People-person interaction 0011: user 3a, user 3b”.

分散行動情報データベース134は,ユーザ3の行動を示す行動情報を蓄積するデータベースである。例えば,上記のユーザ3xの例の場合に,推論システム11で環境情報,動作情報,人−物インタラクション情報,人−人インタラクション情報などから行動情報が推論され,以下のような行動情報が蓄積される。
「ユーザ3x:読書中,勉強中,…」。
The distributed behavior information database 134 is a database that accumulates behavior information indicating the behavior of the user 3. For example, in the case of the above-described example of the user 3x, the inference system 11 infers behavior information from environment information, operation information, person-object interaction information, person-person interaction information, etc., and accumulates the following behavior information. The
"User 3x: reading, studying ..."

固有情報データベース137は,ユーザ3ごとの属性を示す固有情報を蓄積するデータベースである。固有情報は,ユーザ3の身体的特徴,性別などの他,推論システム11によって推論された情報(例えば,ユーザ3の嗜好に関する情報,生活支援サービスに対する必要性の有無などの情報)である。   The unique information database 137 is a database that accumulates unique information indicating attributes for each user 3. The unique information is information inferred by the inference system 11 in addition to the physical characteristics and sex of the user 3 (for example, information on the preference of the user 3 and information on the necessity of the life support service).

イベント検出装置15は,分散環境行動データベース13の情報の更新や,対話ロボット2からのサービス実行要求を検出すると,推論システム11にイベント検出を通知する処理装置である。   The event detection device 15 is a processing device that notifies the inference system 11 of event detection when an update of information in the distributed environment behavior database 13 or a service execution request from the interactive robot 2 is detected.

サービス履歴データベース17は,推論システム11によって実行されたサービスごとの履歴情報を蓄積するデータベースシステムである。   The service history database 17 is a database system that accumulates history information for each service executed by the inference system 11.

また,サービス履歴データベース17は,分散環境行動データベース13に蓄積された環境情報および行動情報からユーザ3の状況が推論され,ユーザ3の状況にもとづいて選択・実行された生活支援サービスについて,そのサービスの実行時刻,サービス実行時の状況に関する情報などを含むサービス履歴情報を蓄積する。   In addition, the service history database 17 infers the situation of the user 3 from the environment information and the action information accumulated in the distributed environment action database 13, and about the life support service selected and executed based on the situation of the user 3, the service history database 17 Service history information including information on the execution time of the service, information on the status of service execution, etc. is stored.

推論システム11は,推論処理においてサービス履歴データベース17の情報も参照する。サービス履歴データベース17に蓄積されるサービス履歴情報は,実行したサービス名,サービスの実行時の状況,サービス実行の開始時刻や終了時刻などである。サービスの実行時の状況は,分散環境行動データベース13に蓄積される情報の一部であって,そのサービスの実行の決定に関係する情報,例えば,ユーザ3の位置,動作,行動などの情報である。   The inference system 11 also refers to the information in the service history database 17 in the inference process. The service history information stored in the service history database 17 includes the name of the executed service, the service execution status, the service execution start time and end time, and the like. The service execution status is a part of information stored in the distributed environment behavior database 13 and is information related to the determination of the execution of the service, for example, information such as the position, operation, and behavior of the user 3. is there.

また,理由説明サービスに関連する情報として,理由説明の対象として処理されたか否かを示す情報,サービス開始時にユーザ3へサービスの実行通知を発話するために使用される,サービスを表す発話キーワード情報,ユーザ3の理由説明の要求を契機とする場合に,ユーザ3の発話から生活支援サービスを特定する待ち受けキーワードなどの情報が蓄積される。   Also, as information related to the reason explanation service, information indicating whether or not the reason explanation service has been processed, utterance keyword information representing the service used to utter a service execution notification to the user 3 when the service is started When a request for explaining the reason of the user 3 is triggered, information such as a standby keyword for identifying a life support service from the utterance of the user 3 is accumulated.

生活支援ロボットシステム1の推論システム11,分散環境行動データベース13,イベント検出装置15,サービス履歴データベース17は,既知の処理手段もしくは装置を用いて実施することが可能である。   The reasoning system 11, the distributed environment behavior database 13, the event detection device 15, and the service history database 17 of the life support robot system 1 can be implemented using known processing means or devices.

アプライアンス4は,データ送受信機能を備えて,推論システム11からの制御もしくはユーザ3自身の操作により,所定のサービスを実行する家電機器である。   The appliance 4 is a home appliance that has a data transmission / reception function and executes a predetermined service by the control from the inference system 11 or the operation of the user 3 itself.

対話ロボット2は,音声認識部21,音声合成部22,対話制御部23,対話戦略データベース24,状況情報取得部25,状況記憶部26,知識データベース27,実行要求部29などで構成されている。   The dialogue robot 2 includes a voice recognition unit 21, a voice synthesis unit 22, a dialogue control unit 23, a dialogue strategy database 24, a situation information acquisition unit 25, a situation storage unit 26, a knowledge database 27, an execution request unit 29, and the like. .

音声認識部21は,ユーザ3が発話した音声データを入力し,入力した音声データの内容を認識してユーザ3の発話情報に変換する処理手段である。音声合成部22は,対話制御部23によって生成されたロボット発話情報を音声データに変換して発話する処理手段である。ロボット発話情報は,ユーザ3の会話に対する応答文データ,ユーザ3への問いかけのための発話文などのデータである。   The voice recognition unit 21 is processing means for inputting voice data uttered by the user 3, recognizing the content of the input voice data, and converting it into the utterance information of the user 3. The voice synthesizer 22 is processing means for converting the robot utterance information generated by the dialogue controller 23 into voice data and uttering. The robot utterance information is data such as response sentence data for the conversation of the user 3 and an utterance sentence for asking the user 3.

音声認識部21および音声合成部22によって,後述する理由説明サービス処理部100によって生成された実行通知,対象確認,または理由説明などを,所定の出力順序に従って音声合成処理し,生成した音声データを出力する処理が行われる。   The speech recognition unit 21 and the speech synthesis unit 22 perform speech synthesis processing on an execution notification, target confirmation, or reason explanation generated by the reason explanation service processing unit 100 described later according to a predetermined output order, and the generated speech data is processed. Processing to output is performed.

対話制御部23は,状況記憶部26に格納された情報からユーザ3の周囲の環境やユーザ3の状況を解析し,解析した状況にもとづいてユーザ3に提供するサービスを選択する処理,対話戦略データベース24の連想情報にもとづいてユーザ3の状況と関連する概念を特定し,その概念を示す言語表現を用いてロボット発話データを生成する処理を行う処理手段である。対話制御部23は,理由説明サービス処理部100を備え,サービスを選択する処理として,状況記憶部26に格納された分散環境行動データベース13およびサービス履歴データベース17の情報をもとに理由説明サービスの実行を決定する。   The dialogue control unit 23 analyzes the environment around the user 3 and the situation of the user 3 from the information stored in the situation storage unit 26, selects a service to be provided to the user 3 based on the analyzed situation, and dialogue strategy It is a processing means for performing a process of identifying a concept related to the situation of the user 3 based on the association information in the database 24 and generating robot utterance data using a language expression indicating the concept. The dialogue control unit 23 includes a reason explanation service processing unit 100. As a process for selecting a service, the dialogue control unit 23 performs a reason explanation service based on information in the distributed environment behavior database 13 and the service history database 17 stored in the situation storage unit 26. Decide on execution.

理由説明サービス処理部100は,生活支援ロボットシステム1が提供する生活支援サービスが実行された場合に,生活支援サービスを実行した理由を,ユーザ3に説明するサービス(理由説明サービス)を行う処理手段である。   The reason explanation service processing unit 100 executes a service (reason explanation service) for explaining to the user 3 the reason why the life support service is executed when the life support service provided by the life support robot system 1 is executed. It is.

理由説明サービス処理部100は,サービス特定部101,理由説明生成部103,および出力順序決定部105を備える。   The reason explanation service processing unit 100 includes a service identification unit 101, a reason explanation generation unit 103, and an output order determination unit 105.

サービス特定部101は,理由説明サービス実行の契機となる所定の状況が検出された場合に,サービス履歴データベース17を参照して,前記の状況を検出した時から所定期間内に実行された複数のサービスを理由説明の対象として特定する処理手段である。   The service specifying unit 101 refers to the service history database 17 when a predetermined situation that triggers execution of the reason explanation service is detected, and a plurality of processes executed within a predetermined period from the time when the situation is detected. It is a processing means for specifying a service as an object of reason explanation.

また,サービス特定部101は,ユーザ発話情報の文脈にもとづいてユーザ3の発話がサービス実行の理由説明要求であると推論された場合に,サービス履歴情報から,ユーザ3の発話時に最も近い実行時刻であって,理由説明の対象として選択されていない一つのサービスを,理由説明の対象として特定する。   In addition, when the service specifying unit 101 infers that the utterance of the user 3 is a request for explaining the reason for executing the service based on the context of the user utterance information, the service specifying unit 101 uses the service history information to execute the execution time closest to the utterance of the user 3 However, one service that is not selected as the reason explanation target is specified as the reason explanation target.

また,サービス特定部101は,サービス履歴データベース17に,待ち受けキーワードを含むサービス履歴情報が蓄積されている場合に,ユーザ3の発話時に最も近い実行時刻であって,かつ,このユーザ発話情報に含まれる情報とサービス履歴情報の待ち受け情報とが一致する一つのサービスを,前記理由説明の対象として特定する。   Further, when service history information including a standby keyword is stored in the service history database 17, the service specifying unit 101 has an execution time that is closest to the time when the user 3 speaks and is included in the user utterance information. One service for which the received information matches the standby information of the service history information is identified as the reason explanation target.

理由説明生成部103は,特定された複数の各生活支援サービスについて,サービス履歴データベース17のサービス履歴情報から,各サービスの実行時の状況を取得し,この生活支援サービスの実行の理由説明を生成する処理手段である。また,理由説明生成部103は,理由説明の対象として特定された各サービスについて,サービス実行を通知する実行通知を生成する。または,理由説明の対象として特定されたサービスが,理由説明の対象であるか否かをユーザ3に確認する対象確認を生成する。   The reason explanation generation unit 103 acquires the status at the time of execution of each service from the service history information of the service history database 17 for each of the plurality of identified life support services, and generates a reason explanation for the execution of this life support service. Processing means. In addition, the reason explanation generation unit 103 generates an execution notification for notifying service execution for each service specified as the reason explanation target. Alternatively, an object confirmation for confirming to the user 3 whether or not the service specified as the object of the reason explanation is the object of the reason explanation is generated.

なお,理由説明生成部103は,サービス特定部101によって特定された生活支援サービスの実行通知や対象確認を生成する場合に,理由説明を同時に生成しておいてもよい。   The reason explanation generation unit 103 may generate the reason explanation at the same time when generating the life support service execution notification or target confirmation specified by the service specification unit 101.

出力順序決定部105は,理由説明の対象として特定された生活支援サービスの実行時刻をもとに,生成した理由説明の出力順序を決定する処理手段である。また,出力順序決定部105は,理由説明の対象として特定されたサービス間に依存関係がある場合に,当該依存関係にあるサービスの実行の理由説明の出力順序を,これらのサービスの実行時刻の順序をもとに決定する。   The output order determination unit 105 is a processing unit that determines the output order of the generated reason explanation based on the execution time of the life support service specified as the reason explanation target. In addition, when there is a dependency relationship between the services specified as the reason explanation target, the output order determination unit 105 sets the output order of the reason explanation of the execution of the service having the dependency relationship to the execution time of these services. Decide based on order.

対話戦略データベース24は,対話ロボット2がユーザ3との対話を推論してユーザ3を自己の対話へ引き込みもしくは継続のための応答生成用の情報を蓄積するデータベースである。   The dialogue strategy database 24 is a database in which the dialogue robot 2 infers a dialogue with the user 3 and accumulates information for generating a response for drawing the user 3 into his own dialogue or continuing.

状況情報取得部25は,分散環境行動データベース13の環境情報,動作情報,行動情報,固有情報などの情報の一部やサービス履歴データベース17のサービス履歴情報の一部を取得して状況記憶部26に格納する処理手段である。   The situation information acquisition unit 25 acquires part of information such as environment information, operation information, action information, and unique information in the distributed environment action database 13 and part of service history information in the service history database 17 to obtain a situation storage unit 26. It is a processing means to store in.

知識データベース27は,アプライアンス4またはアプライアンス4で実行されるサービスに関する知識情報,例えば,アプライアンス4がテレビである場合の番組情報,アプライアンス4が電子レンジである場合の操作マニュアル情報などを蓄積するデータベースである。   The knowledge database 27 is a database that accumulates knowledge information about the appliance 4 or a service executed on the appliance 4, for example, program information when the appliance 4 is a television, operation manual information when the appliance 4 is a microwave oven, and the like. is there.

実行要求部29は,対話制御部23が選択したサービス実行要求を生活支援ロボットシステム1へ送信する処理手段である。また,実行要求部29は,アプライアンス4へ直接サービス実行要求を送信してもよい。   The execution request unit 29 is a processing unit that transmits the service execution request selected by the dialogue control unit 23 to the life support robot system 1. Further, the execution request unit 29 may transmit a service execution request directly to the appliance 4.

本例では,対話ロボット2の音声認識部21,音声合成部22,対話制御部23は,既存の擬人化音声対話エージェントツールキット(Galatea Toolkit )により実現する(例えば,http://hil.t.u-tokyo.ac.jp/〜 galatea/galatea-jp.html, Prendinger, Helmut; Ishizuka, Mitsuru (Eds.); "Life-Like Characters Tools, Affective Functions, and Applications Series: Cognitive Technologies"; pp.187-213; 2004; ISBN:3-540-00867-5 参照)。   In this example, the speech recognition unit 21, the speech synthesis unit 22, and the dialogue control unit 23 of the dialogue robot 2 are realized by an existing anthropomorphic spoken dialogue agent tool kit (Galatea Toolkit) (for example, http: //hil.tu -tokyo.ac.jp/~ galatea / galatea-jp.html, Prendinger, Helmut; Ishizuka, Mitsuru (Eds.); "Life-Like Characters Tools, Affective Functions, and Applications Series: Cognitive Technologies"; pp.187- 213; 2004; ISBN: 3-540-00867-5).

さらに,生活支援ロボットシステム1の分散環境行動データベース13,サービス履歴データベース17と,対話ロボット2の状況情報取得部25,状況記憶部26とをまとめて分散環境行動データベース13−1として構成することもできる。   Furthermore, the distributed environment behavior database 13 and the service history database 17 of the life support robot system 1 and the situation information acquisition unit 25 and the situation storage unit 26 of the dialogue robot 2 may be collectively configured as the distributed environment behavior database 13-1. it can.

また,理由説明サービス処理部100を,生活支援ロボットシステム1内に構成することもできる。また,理由説明サービス処理部100の各処理部を,生活支援ロボットシステム1および対話ロボット2に分散して構成し,協働して処理を行うようにしてもよい。   In addition, the reason explanation service processing unit 100 can be configured in the life support robot system 1. In addition, each processing unit of the reason explanation service processing unit 100 may be configured to be distributed in the life support robot system 1 and the dialogue robot 2 and perform the processing in cooperation.

図4は,本発明の処理の概要を説明するための図である。   FIG. 4 is a diagram for explaining the outline of the processing of the present invention.

ステップS1〜ステップS4は種々の生活支援サービス実行の処理の流れ,ステップS5〜ステップS10は理由説明サービス実行の処理の流れ,ステップS11はユーザ評価フィードバックの処理を示す。   Steps S1 to S4 show various life support service execution processes, Steps S5 to S10 show a reason explanation service execution process, and Step S11 shows a user evaluation feedback process.

ここで,以下のような生活支援サービスは,発火条件(推論を可能とする条件)を満たすことによって実行されるとする。
「サービス名=テレビ制御;発火条件=ユーザ3がソファに座った」
「サービス名=番組推薦;発火条件=以前に見た番組に似ている番組が放映中」
「サービス名=照明制御;発火条件=部屋が設定照度より暗い」
「サービス名=空調制御;発火条件=部屋が設定温度より暑い」
理由説明サービスは,例えば「ユーザ3がソファに座っている」「ユーザ3の発話を理由説明の要求であると推論した」などの発火条件を満たすことによって実行されるとする。
Here, it is assumed that the following life support service is executed by satisfying the ignition condition (condition that enables inference).
"Service name = TV control; firing conditions = user 3 sat on sofa"
“Service name = Program recommendation; Firing condition = Program similar to the program I watched before is on air”
"Service name = lighting control; ignition condition = room is darker than the set illuminance"
"Service name = air conditioning control; ignition conditions = room is hotter than set temperature"
It is assumed that the reason explanation service is executed by satisfying firing conditions such as “user 3 is sitting on the couch” and “inferring that user 3's utterance is a request for explanation of reason”.

生活支援ロボットシステム1は,センサ12から収集されるセンサ情報,対話ロボット2で収集されるユーザ3の発話情報によって,生活支援サービス実行の所定の発火条件を取得する(ステップS1)。推論システム11は,分散環境行動データベース13から取得したユーザ3の状況や対話などのコンテキストによって,ユーザ3に提供する生活支援サービス内容を決定する(ステップS2)。該当するアプライアンス4を制御して,決定した生活支援サービスを実行する(ステップS3)。さらに,決定したサービス実行についてのサービス実行履歴情報をサービス履歴データベース17に保存する(ステップS4)。   The life support robot system 1 acquires a predetermined firing condition for executing the life support service based on the sensor information collected from the sensor 12 and the utterance information of the user 3 collected by the dialogue robot 2 (step S1). The inference system 11 determines the contents of the life support service provided to the user 3 according to the context of the user 3 acquired from the distributed environment behavior database 13 and the context such as dialogue (step S2). The corresponding appliance 4 is controlled to execute the determined life support service (step S3). Further, service execution history information on the determined service execution is stored in the service history database 17 (step S4).

生活支援ロボットシステム1で決定された生活支援サービスが自動的に実行されると,その後,理由説明サービス実行の発火条件が満たされる(ステップS5)。例えば,ユーザ3がソファに座っている状態を検出したり,または,ユーザ3の発話「どうして?」を理由説明の要求であると推論することによって,対話ロボット2は,理由説明サービス実行の所定の発火条件を獲得する。   If the life support service determined by the life support robot system 1 is automatically executed, then the firing condition for executing the reason explanation service is satisfied (step S5). For example, by detecting that the user 3 is sitting on the sofa or inferring that the user 3's utterance “why?” Is a request for explaining the reason, the interactive robot 2 performs a predetermined reason execution service execution. Acquire the firing conditions.

生活支援ロボットシステム1の推論システム11は,サービス履歴データベース17のサービス履歴情報を参照して,発火条件の検出時点より前の所定の時間内に実行された生活支援サービスを理由説明の対象として特定する(ステップS6)。対話ロボット2は,特定した生活支援サービスごとに,そのサービス履歴情報の状況などの情報を取得する(ステップS7)。取得したサービス履歴情報から理由説明を生成し,ロボット発話情報とする(ステップS8)。さらに,ロボット発話情報(理由説明文)を音声合成処理して生成した音声データをユーザ3に対して出力する(ステップS9)。   The reasoning system 11 of the life support robot system 1 refers to the service history information in the service history database 17 and identifies the life support service executed within a predetermined time before the detection of the firing condition as the object of reason explanation. (Step S6). The dialogue robot 2 acquires information such as the status of service history information for each identified life support service (step S7). A reason explanation is generated from the acquired service history information and is used as robot utterance information (step S8). Further, voice data generated by performing voice synthesis processing on the robot utterance information (reason explanation) is output to the user 3 (step S9).

その後,生活支援ロボットシステム1は,実行した理由説明サービスのサービス履歴情報をサービス履歴データベース17に保存する(ステップS10)。   Thereafter, the life support robot system 1 stores the service history information of the executed reason explanation service in the service history database 17 (step S10).

ステップS9の処理で理由説明サービスが実行された際に,ユーザ3から理由説明に対する何らかの反応を獲得できた場合に,推論システム11は,ユーザ3の反応に関する情報を発火条件としてユーザ評価のフィードバックを行う(ステップS11)。   When the reason explanation service is executed in the process of step S9, if any response to the reason explanation can be obtained from the user 3, the inference system 11 provides feedback on the user evaluation using the information on the reaction of the user 3 as a firing condition. It performs (step S11).

図5は,対話システムの処理の流れの例を示す図である。   FIG. 5 is a diagram showing an example of the processing flow of the dialogue system.

対話システムの生活支援ロボットシステム1および対話ロボット2は,互いに協働して,生活支援サービス,理由説明サービス,ユーザ評価フィードバックの実行を繰り返し行う。   The life support robot system 1 and the dialog robot 2 of the dialog system cooperate with each other to repeatedly execute the life support service, the reason explanation service, and the user evaluation feedback.

ステップS21:音声データ認識処理
対話ロボット2の音声認識部21は,ユーザ3が発話した音声データを検出して入力し,その音声データに音声認識処理を行って発話情報に変換する。
Step S21: Speech data recognition processing The speech recognition unit 21 of the interactive robot 2 detects and inputs speech data uttered by the user 3, performs speech recognition processing on the speech data, and converts it into speech information.

ステップS22:状況情報取得処理
並行して,生活支援ロボットシステム1の分散環境行動データベース13は,センサ12から取得した音声データ,画像データなどのセンサ情報を分散センサ情報データベース131に格納し,センサ情報をもとに,ユーザ3が生活する環境やユーザ3の状態,動作,行動などの状況情報を取得する。
Step S22: Status Information Acquisition Processing In parallel, the distributed environment behavior database 13 of the life support robot system 1 stores sensor information such as voice data and image data acquired from the sensor 12 in the distributed sensor information database 131, and sensor information Based on the information, the environment information in which the user 3 lives and the status information such as the state, operation, and behavior of the user 3 are acquired.

ステップS23:対話・状況推論/サービス選択処理
対話ロボット2によって収集されたユーザ3の音声データ,センサ12によって収集されたセンサ情報が分散環境行動データベース13に蓄積されると,イベント検出装置15は,分散環境行動データベース13を参照して,所定の情報の追加や変更などのイベントを検出し,推論システム11に通知する。推論システム11は,イベント検出に関連するユーザ3の発話情報,状況情報を発火条件として,ユーザ3の状況を推論し,実行可能なサービスのなかから最適なサービスを選択する。
Step S23: Dialogue / situation inference / service selection processing When the voice data of the user 3 collected by the dialogue robot 2 and the sensor information collected by the sensor 12 are accumulated in the distributed environment behavior database 13, the event detection device 15 By referring to the distributed environment behavior database 13, an event such as addition or change of predetermined information is detected and notified to the inference system 11. The inference system 11 infers the situation of the user 3 using the utterance information and situation information of the user 3 related to the event detection as firing conditions, and selects an optimum service from the executable services.

または,対話ロボット2の対話制御部23は,ユーザ3の発話情報を解析して文脈を推論し,推論した文脈および状況情報をもとにユーザ3の状況を推論し,実行可能なサービスの中から最適なサービスを選択するようにしてもよい。この場合に,実行要求部29は,選択したサービス実行の要求を生活支援ロボットシステム1へ通知する。   Alternatively, the dialogue control unit 23 of the dialogue robot 2 infers the context by analyzing the utterance information of the user 3, and infers the situation of the user 3 based on the inferred context and situation information. The optimum service may be selected from the above. In this case, the execution request unit 29 notifies the life support robot system 1 of the selected service execution request.

ステップS24:サービス内容決定処理
推論システム11は,選択した生活支援サービスの内容を,分散環境行動データベース13の情報を参照して決定する。
Step S24: Service Content Determination Process The inference system 11 determines the content of the selected life support service with reference to the information in the distributed environment behavior database 13.

ステップS25:実行要求処理
推論システム11は,選択されたサービスを実現するためにアプライアンス4の制御情報を生成し,該当するアプライアンス4ヘ送信する。
Step S25: Execution Request Processing The inference system 11 generates control information for the appliance 4 to realize the selected service, and transmits it to the corresponding appliance 4.

ステップS26:音声合成処理
また,実行するサービスの制御情報として,対話ロボット2のロボット発話情報がある場合には,対話ロボット2の音声合成部22は,ロボット発話情報を音声合成処理して音声データを生成し,ユーザ3に対して発話する。
Step S26: Speech synthesis processing When there is the robot utterance information of the interactive robot 2 as the control information of the service to be executed, the speech synthesizer 22 of the interactive robot 2 performs speech synthesis processing on the robot utterance information to obtain voice data. Is uttered to the user 3.

ステップS27:実行内容保存処理
推論システム11は,実行したサービスの内容をサービス履歴情報としてサービス履歴データベース17に保存する。
Step S27: Execution Content Storage Processing The inference system 11 stores the content of the executed service in the service history database 17 as service history information.

ステップS28:音声データ認識処理
その後,生活支援ロボットシステム1で自動的に実行されたサービスに対して,ユーザ3が「どうして?」などの発話を行って,サービス実行の理由を尋ねたとする。対話ロボット2の音声認識部21は,ユーザ3が発話した音声データを検出して入力し,入力した音声データを音声認識処理してユーザ発話情報を取得する。
Step S28: Speech data recognition processing Thereafter, it is assumed that the user 3 utters “why?” To the service automatically executed by the life support robot system 1 and asks the reason for the service execution. The voice recognition unit 21 of the interactive robot 2 detects and inputs voice data uttered by the user 3, and performs voice recognition processing on the input voice data to acquire user utterance information.

ステップS29:対話・状況推論/サービス選択処理
対話制御部23では,ユーザ3の発話情報を解析して文脈を推論する。ここで,ユーザ発話情報に「どうして,なぜ」などの質問表現やサービスの実行に関係する表現が含まれている場合に,発話情報がサービス実行の理由を質問している文,すなわち「理由説明要求」であると推論する。理由説明サービス実行の発火条件として「理由説明要求の取得」が定義されていると,対話制御部23は,理由説明サービスの実行を決定する。実行要求部29は,理由説明サービス実行の要求を生活支援ロボットシステム1へ通知する。
Step S29: Dialogue / situation inference / service selection process The dialogue control unit 23 analyzes the utterance information of the user 3 to infer a context. Here, when the user utterance information includes a question expression such as “why, why” or an expression related to the execution of the service, the utterance information asks the reason for the service execution, that is, the “reason explanation” Inferring that it is a "request". If “acquisition of reason explanation request” is defined as the firing condition for executing the reason explanation service, the dialogue control unit 23 determines the execution of the reason explanation service. The execution request unit 29 notifies the life support robot system 1 of a request for executing the reason explanation service.

ステップS30:サービス特定処理
推論システム11は,サービス履歴データベース17のサービス履歴情報を参照して,発火条件の取得(検出)時から遡った一定期間内に実行された複数の生活支援サービスを,理由説明サービスの対象として特定する。
Step S30: Service identification process The reasoning system 11 refers to the service history information in the service history database 17 and determines the reason for the plurality of life support services executed within a certain period retroactive from the acquisition (detection) of the firing conditions. Identified as the target of the explanation service.

ステップS31:理由説明文生成処理
状況情報取得部25は,特定された生活支援サービスごとに,サービス履歴情報のサービス実行時の状況などの情報を取得する。また,必要であれば,分散環境行動データベース13からユーザ3の固有情報などを取得する。対話制御部23は,サービスの実行時の状況から理由説明のキーとなるような表現を抽出して,理由説明(理由説明文)を生成し,ロボット発話情報とする。
Step S31: Reason Explanation Text Generation Processing The status information acquisition unit 25 acquires information such as the status at the time of service execution of the service history information for each identified life support service. Further, if necessary, the unique information of the user 3 is acquired from the distributed environment behavior database 13. The dialogue control unit 23 extracts an expression that is a key to explain the reason from the service execution status, generates a reason explanation (reason explanation), and uses it as robot utterance information.

ステップS32:音声合成処理
音声合成部22は,理由説明文を音声合成処理し,生成した音声データをユーザ3に対して発話する。
Step S32: Speech Synthesis Processing The speech synthesis unit 22 performs speech synthesis processing on the reason explanation and utters the generated speech data to the user 3.

ステップS33:実行内容保存処理
推論システム11は,理由説明サービス実行の内容をサービス履歴情報としてサービス履歴データベース17に保存する。
Step S33: Execution Content Storage Process The inference system 11 stores the reason execution service execution content in the service history database 17 as service history information.

ステップS34:音声データ認識処理
その後,対話ロボット2が理由説明を発話した際に,ユーザ3が「わかったよ」や「ありがとう」や「いらないよ」などの返事をしたとする。
Step S34: Speech data recognition processing After that, when the dialogue robot 2 utters an explanation of the reason, it is assumed that the user 3 responds such as "I understand", "Thank you", or "I don't need it".

音声認識部21は,ユーザ3の音声データ「わかったよ」を検出して入力し,音声識別処理を行って発話情報に変換する。   The voice recognition unit 21 detects and inputs the voice data “I understand” of the user 3, performs voice identification processing, and converts it into speech information.

ステップS35:対話・状況推論/サービス選択処理
対話制御部23では,ユーザ3の発話情報を解析して文脈を推論する。発話情報に「わかったよ」などの肯定的な表現が含まれている場合に,この発話情報が,肯定的応答文であると推論する。そして,ユーザ評価フィードバックの処理を選択する。実行要求部29は,生活支援ロボットシステム1に,ユーザ評価フィードバック要求を通知する。
Step S35: Dialogue / Situation Reasoning / Service Selection Process The dialogue control unit 23 analyzes the utterance information of the user 3 and infers the context. When the utterance information includes a positive expression such as “I understand”, it is inferred that the utterance information is a positive response sentence. Then, the user evaluation feedback process is selected. The execution request unit 29 notifies the life support robot system 1 of a user evaluation feedback request.

ステップS36:フィードバック処理
推論システム11は,理由説明に対するユーザ3の応答文を,理由説明が求められたサービスに対するユーザ評価情報とみなして,理由説明にかかるサービスに対するユーザ評価を学習する。そして,この学習結果をもとに,分散環境行動データベース13の固有情報データベース137の嗜好情報などの関連する情報を修正したり,サービスの必要性の有無を示す新たな情報を追加したりする。
Step S36: Feedback Process The inference system 11 regards the response sentence of the user 3 to the reason explanation as user evaluation information for the service for which the reason explanation is requested, and learns the user evaluation for the service concerning the reason explanation. Then, based on the learning result, related information such as preference information in the unique information database 137 of the distributed environment behavior database 13 is corrected, or new information indicating the necessity of the service is added.

例えば,「わかったよ」などの肯定的応答文から,理由説明の対象となったサービスが,ユーザ3にとって必要かつ適切なものであったと学習する。一方,「いらないよ」などの否定的応答文から,理由説明の対象となったサービスは,ユーザ3にとって不要または不適切なものであったと学習する。そして,学習結果をもとに,固有情報データベース137のユーザ3の嗜好情報やこのサービスについての評価情報を修正する。   For example, it learns from a positive response sentence such as “I understand” that the service for which the reason was explained was necessary and appropriate for the user 3. On the other hand, from the negative response sentence such as “I don't need it”, it is learned that the service whose reason has been explained is unnecessary or inappropriate for the user 3. Based on the learning result, the preference information of the user 3 in the unique information database 137 and the evaluation information about this service are corrected.

以下に,理由説明サービスの実行処理の具体例を説明する。   A specific example of the reason explanation service execution process will be described below.

〔第1の具体例〕
図6は,第1の具体例におけるサービス履歴データベース17のデータ構成例を示す図である。サービス履歴データベース17には,サービス履歴情報として,サービスが実行された時刻を示す実行時刻,サービスの名称(サービス),サービス実行の発火条件,サービス実行時の状況などの情報(内容)などの情報が蓄積される。
[First Example]
FIG. 6 is a diagram showing a data configuration example of the service history database 17 in the first specific example. The service history database 17 includes information such as the execution time indicating the time when the service was executed, the name of the service (service), the firing condition of the service execution, and the information (content) such as the status at the time of service execution. Is accumulated.

図7は,第1の具体例における理由説明サービスの処理を説明するための図である。本例では,理由説明サービスの発火条件として,「複数の生活支援サービスが,短時間(例えば数分内)に実行中,かつユーザ3がソファに座っている状況の検出」とする。   FIG. 7 is a diagram for explaining the reason explanation service process in the first specific example. In this example, the firing condition of the reason explanation service is “detection of a situation where a plurality of life support services are running in a short time (for example, within a few minutes) and the user 3 is sitting on the sofa”.

理由説明サービスの発火条件が獲得されると,サービス特定部101は,サービス履歴情報の実行時刻から,発火条件の検出時から遡った所定の時間内に実行された複数の生活支援サービスを特定する。   When the firing condition of the reason explanation service is acquired, the service specifying unit 101 specifies a plurality of life support services executed within a predetermined time from the time when the firing condition is detected from the execution time of the service history information. .

さらに,理由説明生成部103は,各サービスについて,サービス履歴情報の内容から,理由説明に用いる情報を抽出し,理由説明のきっかけとして,実行されている生活支援サービスをユーザ3に知らせるための実行通知を生成する。例えば,図6に示すサービス履歴情報から,テレビ制御,番組推薦,照明制御,空調制御の4つの生活支援サービスが特定されたとする。ユーザ3にこれらのサービスの実行を通知するため,それぞれ「テレビをつけたよ。」,「○○番組をつけたよ。」,「照明をつけたよ。」,「エアコンをつけたよ。」の4つの実行通知が生成される。   Further, the reason explanation generation unit 103 extracts information used for explanation of the reason from the contents of the service history information for each service, and executes for notifying the user 3 of the life support service being executed as a reason for explaining the reason. Generate a notification. For example, it is assumed that four life support services of television control, program recommendation, lighting control, and air conditioning control are specified from the service history information shown in FIG. In order to notify the user 3 of the execution of these services, there are four types: “I turned on the TV”, “I turned on the XX program”, “I turned on the lights”, and “I turned on the air conditioner”. An execution notification is generated.

さらに,出力順序決定部105は,図6に示すサービス履歴情報の実行時刻をもとに,実行通知の出力順序を決定する。ここでは,実行時刻順を用いて出力順序を決定する。   Further, the output order determination unit 105 determines the output order of the execution notifications based on the execution time of the service history information shown in FIG. Here, the output order is determined using the execution time order.

音声合成部22では,ユーザ3が実行通知に対して応答できるように,所定の待機時間分の間隔(例えば,5秒〜10数秒)をとって,生成された実行通知の音声データを,出力順序に従って出力する。番組推薦サービスの実行通知「○○番組をつけたよ。」が発話された後の待機時間中に,ユーザ3の発話「どうして?」を検出したとする。この発話から「理由説明の要求」が推論されると,理由説明生成部103は,番組推薦サービスの内容から理由説明「前に見た△△に似ているからだよ。」を生成する。生成された音声データは,音声合成部22を介して出力される。所定の待機時間が経過すると,次のサービスの実行通知が,出力順序(本例では,「照明をつけたよ。」,「エアコンをつけたよ。」の順)に,所定の間隔で出力される。   The voice synthesizer 22 outputs the voice data of the generated execution notification at intervals of a predetermined waiting time (for example, 5 seconds to 10 seconds) so that the user 3 can respond to the execution notification. Output according to order. It is assumed that the user 3's utterance “Why?” Is detected during the standby time after the program recommendation service execution notification “I added a program” has been uttered. When the “request for reason explanation” is inferred from this utterance, the reason explanation generating unit 103 generates the reason explanation “because it is similar to ΔΔ seen before” from the contents of the program recommendation service. The generated voice data is output via the voice synthesizer 22. When the predetermined waiting time elapses, the next service execution notification is output at predetermined intervals in the output order (in this example, "I turned on the lights", "I turned on the air conditioners"). .

図8は,第1の具体例における理由説明サービスの処理の流れを示す図である。センサ12から取得したセンサ情報などによって,理由説明サービスの発火条件が獲得できると(ステップS110),予め設定されているサービス実行のタイミング制御が開始される(ステップS111)。サービス履歴情報をもとに,理由説明の対象となるサービスが特定されると(ステップS112),各サービスについて,実行時の状況などの情報が獲得される(ステップS113)。   FIG. 8 is a diagram showing a flow of processing of the reason explanation service in the first specific example. When the firing condition of the reason explanation service can be acquired from the sensor information acquired from the sensor 12 (step S110), the preset timing control of the service execution is started (step S111). When the service to be explained is identified based on the service history information (step S112), information such as the status at the time of execution is acquired for each service (step S113).

そして,制御されたタイミングで,実行通知(実行通知文)が生成され,音声出力される(ステップS114)。出力された対話ロボット2の発話に対し,ユーザ3の応答があれば(ステップS115のYES),直前に出力した実行通知に対応するサービスの実行の理由説明(理由説明文)が生成され,音声出力される(ステップS116)。出力された対話ロボット2の発話に対し,ユーザ3の応答がなければ(ステップS115のNO),ステップS117の処理へ進む。   Then, at the controlled timing, an execution notification (execution notification sentence) is generated and output as a sound (step S114). If there is a response from the user 3 to the output utterance of the interactive robot 2 (YES in step S115), an explanation (reason explanation) of the execution of the service corresponding to the execution notification output immediately before is generated, and the voice Is output (step S116). If there is no response from the user 3 to the output utterance of the interactive robot 2 (NO in step S115), the process proceeds to step S117.

そして,理由説明の対象のサービスが残っていれば(ステップS117のYES),ステップS114の処理へ戻り,理由説明の対象のサービスが残っていなければ(ステップS117のNO),理由説明サービスの内容を,サービス履歴データベース17に保存する(ステップS118)。   If there is a reason explanation target service remaining (YES in step S117), the process returns to step S114. If there is no reason explanation target service remaining (NO in step S117), the contents of the reason explanation service are returned. Is stored in the service history database 17 (step S118).

〔第2の具体例〕
図9は,第2の具体例におけるサービス履歴データベース17のデータ構成例を示す図である。図9のサービス履歴データベース17は,図6に示すサービス履歴データベース17の構成と同様である。
[Second specific example]
FIG. 9 is a diagram showing a data configuration example of the service history database 17 in the second specific example. The service history database 17 in FIG. 9 has the same configuration as the service history database 17 shown in FIG.

図10は,第2の具体例における理由説明サービスの処理を説明するための図である。本例では,理由説明サービスの発火条件として,ユーザ3の発話の推論によって「理由説明の要求」を獲得した場合とする。   FIG. 10 is a diagram for explaining the reason explanation service process in the second specific example. In this example, it is assumed that “request for reason explanation” is acquired by inference of the utterance of the user 3 as the firing condition of the reason explanation service.

ユーザ3の「どうして?」という発話から「理由説明の要求」を推論して,理由説明サービスの発火条件が獲得されると,サービス特定部101は,サービス履歴情報の実行時刻から,発火条件の検出時から遡った所定の時間内に実行された生活支援サービスを特定する。ここで,第1の具体例と同様の4つの生活支援サービスが理由説明の対象として特定される。   When the reason explanation service firing condition is acquired by inferring “reason request” from the user 3 utterance “why?”, The service specifying unit 101 determines the firing condition from the execution time of the service history information. A life support service executed within a predetermined time traced back from the detection time is specified. Here, four life support services similar to those in the first specific example are specified as the reasons for explanation.

理由説明生成部103は,各サービスについて,サービス履歴情報の内容から,理由説明に用いる情報を抽出し,以下の理由説明を生成する。
「ソファに座ったから,テレビをつけたよ。」「前に見た△△に似ているから,○○番組をつけたよ。」「部屋が暗かったから,照明をつけたよ。」「部屋が暑かったから,エアコンをつけたよ。」
出力順序決定部105は,生活支援サービスの実行時刻の順序を用いて出力順序を決定する。理由説明は,生活支援サービスの実行時刻が古い順(逆順)に続けて出力される。図10(A)に示すように,音声合成部22は,以下の音声データを生成して出力する。
「ソファに座ったから,テレビをつけたよ。前に見た△△に似ているから,○○番組をつけたよ。部屋が暗かったから,照明をつけたよ。部屋が暑かったから,エアコンをつけたよ。」
また,出力順序決定部105は,生活支援サービスの実行時刻の逆順を用いて出力順序を決定する。理由説明は,生活支援サービスの実行時刻が新しい順に続けて出力され,図10(B)に示すように,音声合成部22は,以下の音声データを生成して出力する。
「部屋が暑かったから,エアコンをつけたよ。部屋が暗かったから,照明をつけたよ。前に見た△△に似ているから,○○番組をつけたよ。ソファに座ったから,テレビをつけたよ。」
図11は,第2の具体例におけるサービス履歴データベース17の別のデータ構成例を示す図である。図11のサービス履歴データベース17は,図6に示すサービス履歴データベース17の構成に,依存関係の有無を示す情報(依存関係)が付加されている。生活支援サービスに依存関係がある場合とは,その生活支援サービスの実行が,別の生活支援サービスの実行や内容などの状況を原因として選択された場合である。図11のサービス履歴データベース17では,番組推薦サービスは,その直前に実行されたテレビ制御サービスの内容(テレビをつけた)によって,実行するという選択が行われたことを示す。
The reason explanation generation unit 103 extracts information used for the reason explanation from the contents of the service history information for each service, and generates the following reason explanation.
“I sat on the couch and turned on the TV.” “Similar to the △△ I saw before, I turned on the XX program.” “The room was dark, so the lights were turned on.” “The room was hot. I turned on the air conditioner. "
The output order determination unit 105 determines the output order using the order of execution times of the life support services. The explanation of the reason is output following the oldest (in reverse order) execution time of the life support service. As shown in FIG. 10A, the speech synthesizer 22 generates and outputs the following speech data.
“I sat down on the couch and turned on the TV. It was similar to the △△ I saw before, so I turned on the XX program. The room was dark, so I turned on the lights. The room was hot, so I turned on the air conditioner. "
Further, the output order determination unit 105 determines the output order using the reverse order of the execution times of the life support services. The reason explanation is output in the order of the execution time of the life support service, and as shown in FIG. 10B, the speech synthesizer 22 generates and outputs the following speech data.
"I turned on the air conditioner because the room was hot. I turned on the light because the room was dark. It was similar to the △△ I saw earlier, so I turned on the XX program. I sat on the couch and turned on the TV. "
FIG. 11 is a diagram showing another data configuration example of the service history database 17 in the second specific example. In the service history database 17 of FIG. 11, information (dependency relationship) indicating whether or not there is a dependency relationship is added to the configuration of the service history database 17 shown in FIG. The case where there is a dependency relationship in the life support service is a case where execution of the life support service is selected due to the situation such as execution or contents of another life support service. The service history database 17 of FIG. 11 indicates that the program recommendation service has been selected to be executed according to the contents of the TV control service executed immediately before (the TV is turned on).

出力順序決定部105は,サービス履歴情報の依存関係を調べて,依存関係がない生活支援サービスについてはその実行時刻の逆順に並べ,依存関係を持つ生活支援サービスについては実行時刻の順序にして出力順序とする。図12は,第2の具体例における理由説明サービスの処理を説明するための図ではあるが,この図12に示すように,音声合成部22は,以下の音声データを生成して出力する。
「部屋が暑かったから,エアコンをつけたよ。部屋が暗かったから,照明をつけたよ。ソファに座ったから,テレビをつけたよ。前に見た△△に似ているから,○○番組をつけたよ。」
図13は,第2の具体例における理由説明サービスの処理の流れを示す図である。センサ12から取得したセンサ情報などによって理由説明サービスの発火条件が獲得されると(ステップS120),発火条件となる状況の検出時から遡った所定の期間内に実行されたサービスであって,理由説明サービス以外の生活支援サービスが理由説明の対象として特定される(ステップS121)。特定された各サービスについて,実行時の状況などの情報が取得される(ステップS122)。理由説明(理由説明文)が生成され,所定の出力順序で音声出力される(ステップS123)。理由説明サービスの内容を,サービス履歴データベース17に保存する(ステップS124)。
The output order determining unit 105 checks the dependency relationship of the service history information, arranges life support services having no dependency relationship in reverse order of execution times, and outputs life support services having dependency relationships in the order of execution time. Order. FIG. 12 is a diagram for explaining the processing of the reason explanation service in the second specific example. As shown in FIG. 12, the speech synthesizer 22 generates and outputs the following speech data.
“I turned on the air conditioner because the room was hot. I turned on the light because the room was dark. I sat on the couch and turned on the TV. It was similar to the △△ I saw earlier, so I turned on the XX program. "
FIG. 13 is a diagram showing a flow of processing of the reason explanation service in the second specific example. When the firing condition of the reason explanation service is acquired from the sensor information acquired from the sensor 12 (step S120), the service is executed within a predetermined period retroactive from the detection of the situation that becomes the firing condition. A life support service other than the explanation service is specified as the reason explanation target (step S121). Information such as the status at the time of execution is acquired for each identified service (step S122). A reason explanation (reason explanation) is generated and output as a voice in a predetermined output order (step S123). The contents of the reason explanation service are stored in the service history database 17 (step S124).

〔第3の具体例〕
図14は,第3の具体例におけるサービス履歴データベース17のデータ構成例を示す図である。図14のサービス履歴データベース17には,図6に示すサービス履歴データベース17の構成に,その生活支援サービスが理由説明の対象となったことを示すフラグ情報(実行済フラグ)が付加されている。ここでは,空調制御サービスを理由説明の対象とする理由説明サービスが「実行済み」であることを示している。
[Third example]
FIG. 14 is a diagram showing a data configuration example of the service history database 17 in the third specific example. The service history database 17 in FIG. 14 is added with flag information (executed flag) indicating that the life support service has been the object of the reason explanation in the configuration of the service history database 17 shown in FIG. Here, it is shown that the reason explanation service for which the air conditioning control service is the subject of explanation is “executed”.

図15は,第3の具体例における理由説明サービスの処理を説明するための図である。本例では,理由説明サービスの発火条件は,第2の具体例の場合と同様である。ユーザ3が「どうして?」と発話するたびに,一つの生活支援サービスについて実行の理由説明が行われる。   FIG. 15 is a diagram for explaining the reason explanation service process in the third specific example. In this example, the reasoning service firing conditions are the same as in the second specific example. Each time the user 3 speaks “Why?”, The reason for execution of one life support service is explained.

ユーザ3の発話「どうして?」を検出して,理由説明サービスの発火条件が獲得されると,サービス特定部101は,サービス履歴情報の実行時刻から,発火条件となった状況の検出時に最も近い実行時刻に実行された理由説明サービス以外の生活支援サービスであって,実行済みフラグが設定されていないサービスを,理由説明の対象として特定し,特定したサービスに実行済フラグを設定する。   When the user's 3 utterance “why?” Is detected and the reasoning service firing condition is acquired, the service specifying unit 101 is closest to the time when the condition that caused the firing condition is detected from the execution time of the service history information. A service that is a life support service other than the reason explanation service executed at the execution time and for which the executed flag is not set is identified as the reason explanation target, and the executed flag is set for the identified service.

図14に示すサービス履歴情報で,発火条件となった状況の検出時に直近の実行時刻の生活支援サービスは「空調制御」である。しかし「空調制御」には実行済フラグが設定され,既に理由説明の対象となっている。そこで,その次に近い実行時刻の「照明制御」が理由説明の対象として特定される。   In the service history information shown in FIG. 14, the life support service at the most recent execution time at the time of detecting the situation that has become the firing condition is “air conditioning control”. However, an “executed” flag is set in “air conditioning control”, and the reason has already been explained. Therefore, the “lighting control” at the next execution time is specified as the object of the reason explanation.

理由説明生成部103は,図16に示すように,特定された照明制御サービスについて,サービス履歴情報の内容から,理由説明に用いる情報を抽出して,以下の理由説明を生成する。
「部屋が暗かったから,照明をつけたよ。」
さらに,ユーザ3が,ユーザ3の発話「どうして?」を検出して,理由説明サービスの実行が開始されると,サービス特定部101は,サービス履歴情報から,同様にして「番組推薦」を理由説明対象として特定する。
As shown in FIG. 16, the reason explanation generation unit 103 extracts information used for the reason explanation from the contents of the service history information for the specified lighting control service, and generates the following reason explanation.
“I turned on the lights because the room was dark.”
Further, when the user 3 detects the utterance “why?” Of the user 3 and the execution of the reason explanation service is started, the service specifying unit 101 similarly explains “program recommendation” from the service history information. Identified as an explanation target.

理由説明生成部103は,図16に示すように,特定された「番組推薦」について,サービス履歴情報の内容から,理由説明に用いる情報を抽出して,以下の理由説明を生成する。
「前に見た△△に似ているから,○○番組をつけたよ。」
図16は,第3の具体例における理由説明サービスの処理の流れを示す図である。センサ12から取得したセンサ情報などによって,理由説明サービスの発火条件が獲得されると(ステップS130),発火条件となる状況の検出時において,直近の実行時刻に実行されたサービスを取得し(ステップS131),サービスの種類が判定される(ステップS132)。そのサービスが生活支援サービスであれば(ステップS132のYES),ステップS133の処理に進む。そのサービスが生活支援サービスでなければ(ステップS132のNO),ステップS131の処理へ戻り,次に直近となるサービスが取得される。
As illustrated in FIG. 16, the reason explanation generation unit 103 extracts information used for the reason explanation from the contents of the service history information for the identified “program recommendation”, and generates the following reason explanation.
“Since it looks like the △△ I saw before, I put on a XX program.”
FIG. 16 is a diagram showing a flow of processing of the reason explanation service in the third specific example. When the firing condition of the reason explanation service is acquired from the sensor information obtained from the sensor 12 (step S130), the service executed at the most recent execution time is obtained when the situation that becomes the firing condition is detected (step S130). S131), the type of service is determined (step S132). If the service is a life support service (YES in step S132), the process proceeds to step S133. If the service is not a life support service (NO in step S132), the process returns to step S131, and the next closest service is acquired.

ステップS133では,実行済みフラグが設定されているか否かを調べられ,実行済みフラグが設定されていれば(ステップS133のYES),ステップS131の処理へ戻る。実行済フラグが設定されていなければ(ステップS133のNO),理由説明の対象として特定され,そのサービスに実行済フラグが設定される(ステップS134)。特定された各サービスについて,実行時の状況などの情報が獲得される(ステップS135)。理由説明(理由説明文)が生成され,音声出力される(ステップS136)。理由説明サービスの内容が,サービス履歴データベース17に保存される(ステップS137)。   In step S133, it is checked whether or not the executed flag is set. If the executed flag is set (YES in step S133), the process returns to step S131. If the executed flag is not set (NO in step S133), it is specified as the reason for explanation and the executed flag is set for the service (step S134). Information such as the status at the time of execution is acquired for each identified service (step S135). A reason explanation (reason explanation) is generated and output as a voice (step S136). The contents of the reason explanation service are stored in the service history database 17 (step S137).

〔第4の具体例〕
図17は,第4の具体例におけるサービス履歴データベース17のデータ構成例を示す図である。図17のサービス履歴データベース17には,図6に示すサービス履歴データベース17の構成に,生活支援サービスへの理由説明の要求において使用される可能性がある語,語句などの待ち受けキーワードが付加されている。例えば,テレビ制御サービスに「テレビ」,番組推薦サービスに「番組」,照明制御サービスに「照明,灯り」,空調制御サービスに「エアコン,空調」などの待ち受けキーワードが設定される。
[Fourth example]
FIG. 17 is a diagram illustrating a data configuration example of the service history database 17 in the fourth specific example. In the service history database 17 of FIG. 17, standby keywords such as words and phrases that may be used in the explanation of the reason to the life support service are added to the configuration of the service history database 17 shown in FIG. Yes. For example, standby keywords such as “TV” are set for the television control service, “program” for the program recommendation service, “lighting and lighting” for the lighting control service, and “air conditioner and air conditioning” for the air conditioning control service.

図18は,第4の具体例における理由説明サービスの処理を説明するための図である。本例では,理由説明サービスの発火条件は,第2の具体例と同様である。ユーザ3の「どうして照明がついたの?」という発話によって,理由説明を要求する具体的なサービスを指摘して理由説明を要求すると,指摘された生活支援サービスについて実行の理由が説明される。   FIG. 18 is a diagram for explaining the reason explanation service process in the fourth specific example. In this example, the reasoning service firing conditions are the same as in the second specific example. When the user 3 points out a specific service requesting the reason explanation and requests the reason explanation by the utterance “Why the lighting was turned on”, the reason for executing the indicated life support service is explained.

ここで,センサ情報として,ユーザ3の発話「どうしてこの番組を推薦したの?」を検出し,このユーザ発話情報として得た「どうして,番組,推薦」などの語句から,サービス実行の理由説明の要求であることと,その要求の対象が「番組推薦」についてのサービスであることを推論する。   Here, as the sensor information, the user 3's utterance "Why did you recommend this program?" It is inferred that this is a request and that the target of the request is a service for “program recommendation”.

サービス特定部101は,サービス履歴情報の待ち受けキーワードが,ユーザ発話情報から得られた語句と一致する生活支援サービスを,理由説明の対象として特定する。理由説明生成部103は,図18に示すように,特定された番組推薦サービスについて,サービス履歴情報の内容から,理由説明に用いる情報を抽出して,以下の理由説明を生成する。
「前に見た△△に似ているからだよ。」
図19は,第4の具体例における理由説明サービスの処理の流れを示す図である。センサ12から取得したセンサ情報などによって,理由説明サービスの発火条件が獲得されると(ステップS140),発火条件となったユーザ3の発話(ユーザ発話情報)から,発話内容のキーとなる語,語句が抽出される(ステップS141)。さらに,発火条件となる状況の検出時より前に実行されたサービスの待ち受けキーワードと,ステップS141で抽出された語,語句とのマッチングが行われ,待ち受けキーワードが,抽出された語,語句と一致または類似するサービスが抽出され,理由説明の対象として特定される(ステップS142)。特定された各サービスについて,実行時の状況などの情報が獲得される(ステップS143)。理由説明(理由説明文)が生成され,所定の出力順序で音声出力される(ステップS144)。理由説明サービスの内容を,サービス履歴データベース17に保存する(ステップS145)。
The service specifying unit 101 specifies a life support service in which the standby keyword of the service history information matches the word / phrase obtained from the user utterance information as a target for explaining the reason. As illustrated in FIG. 18, the reason explanation generation unit 103 extracts information used for the reason explanation from the contents of the service history information for the specified program recommendation service, and generates the following reason explanation.
“Because it looks like the △△ I saw before.”
FIG. 19 is a diagram illustrating a flow of processing of the reason explanation service in the fourth specific example. When the firing condition of the reason explanation service is acquired by the sensor information obtained from the sensor 12 (step S140), the word that is the key of the utterance content from the utterance (user utterance information) of the user 3 that has become the firing condition, A word is extracted (step S141). Furthermore, the standby keyword of the service executed before the detection of the situation that is the firing condition is matched with the word or phrase extracted in step S141, and the standby keyword matches the extracted word or phrase. Alternatively, a similar service is extracted and specified as a reason explanation target (step S142). Information such as the status at the time of execution is acquired for each identified service (step S143). A reason explanation (reason explanation) is generated and output in a predetermined output order (step S144). The contents of the reason explanation service are stored in the service history database 17 (step S145).

〔第5の具体例〕
図20は,第5の具体例におけるサービス履歴データベース17のデータ構成例を示す図である。図20のサービス履歴データベース17には,図6に示すサービス履歴データベース17の構成に,対話ロボット2が理由説明の対象をユーザ3に確認するための発話に使用される,生活支援サービスへの内容を示す語,語句などの発話キーワードが付加されている。例えば,テレビ制御サービスに「テレビ」,番組推薦サービスに「番組推薦」,照明制御サービスに「照明」,空調制御サービスに「空調」などの発話キーワードが設定される。
[Fifth Example]
FIG. 20 is a diagram illustrating a data configuration example of the service history database 17 in the fifth specific example. The service history database 17 shown in FIG. 20 includes the contents of the service support database 17 shown in FIG. 6 and the contents of the life support service used by the interactive robot 2 for utterances for confirming the reason for explanation to the user 3. Utterance keywords such as words and phrases are added. For example, an utterance keyword such as “TV” is set for the television control service, “program recommendation” for the program recommendation service, “lighting” for the lighting control service, and “air conditioning” for the air conditioning control service.

図21は,第5の具体例における理由説明サービスの処理を説明するための図である。本例では,理由説明サービスの発火条件は,第2の具体例と同様である。ユーザ3の発話「どうして?」を検出して,理由説明サービスの発火条件が獲得されると,検出時から遡った所定の期間内に実行された複数の生活支援サービスが特定される。そして,特定したサービスが理由説明の対象であるかどうかがユーザ3に順番に確認されて,ユーザ3が確認した生活支援サービスの実行の理由が説明される。   FIG. 21 is a diagram for explaining the reason explanation service process in the fifth specific example. In this example, the reasoning service firing conditions are the same as in the second specific example. When the utterance “why?” Of the user 3 is detected and the firing condition of the reason explanation service is acquired, a plurality of life support services executed within a predetermined period retroactive from the detection time are specified. Then, whether or not the identified service is the target of reason explanation is sequentially confirmed by the user 3, and the reason for the execution of the life support service confirmed by the user 3 is explained.

サービス特定部101は,サービス履歴情報の実行時刻から,発火条件となった状況の検出時に最も近い実行時刻に実行された生活支援サービスを理由説明の対象として特定する。理由説明生成部103は,図21に示すように,特定された生活支援サービスについて,サービス履歴情報の各生活支援サービスの発話キーワードを用いて,理由説明の対象を確認する対象確認(対象確認文)を生成する。
「空調ですか?」「照明ですか?」「番組推薦ですか?」「テレビですか?」
音声合成部22は,出力順序決定部105が決定した出力順序にしたがって,実行時刻が新しい生活支援サービスから一つずつ,対象確認文の音声データを出力する。
The service specifying unit 101 specifies, from the execution time of the service history information, the life support service executed at the execution time closest to the detection of the situation that is the firing condition, as the reason explanation target. As shown in FIG. 21, the reason explanation generation unit 103 uses the utterance keyword of each life support service in the service history information for the specified life support service to perform object confirmation (object confirmation text). ) Is generated.
“Air conditioning?” “Lighting?” “Program recommendation?” “TV?”
The voice synthesizer 22 outputs the voice data of the target confirmation sentence one by one from the life support service with a new execution time according to the output order determined by the output order determiner 105.

理由説明生成部103は,出力された対象確認に対するユーザ3の発話をもとに,ユーザ3の対象確認に対する応答が,例えば「違うよ。」などの否定的応答である場合に,次の対象確認を出力する。一方,ユーザ3の応答が,例えば「そうだよ。」などの肯定的応答である場合に,その肯定的応答を促した対象確認のサービスの実行の理由説明(理由説明文)を生成する。音声合成部22は,生成された理由説明文の音声データを出力する。   Based on the utterance of the user 3 with respect to the output target confirmation, the reason explanation generation unit 103 determines that the response to the target confirmation of the user 3 is a negative response such as “No.” Output confirmation. On the other hand, when the response of the user 3 is an affirmative response such as “Yes,” for example, an explanation (reason explanation) of the execution of the target confirmation service that prompted the affirmative response is generated. The voice synthesizer 22 outputs the voice data of the generated reason explanation text.

図21の例では,対象確認の「空調ですか?」という出力に対して,ユーザ3の発話「違うよ。」は否定的応答であると推論したので,次の対象確認「照明ですか?」が出力される。これに対するユーザ3の発話も否定的応答であると推論すると,同様に,さらに次の対象確認「番組推薦ですか?」が出力される。この対象確認「番組推薦ですか?」に対するユーザ3の発話「そうだよ。」が肯定的応答であると推論されると,番組推薦サービスの実行の理由説明「前に見た△△に似ているからだよ。」が生成されて,出力される。   In the example of FIG. 21, since it is inferred that user 3's utterance “I'm different” is a negative response to the output of the target confirmation “Is air conditioning?”, The next target confirmation “Is lighting? Is output. If it is inferred that the utterance of the user 3 in response to this is also a negative response, the next target confirmation “program recommendation?” Is output in the same manner. If it is inferred that user 3's utterance “Yes” is an affirmative response to the target confirmation “Is program recommendation?” Is generated and output.

なお,図21に図示しないが,さらに,次の対象確認「テレビですか?」を出力して,上記と同様の処理を行うようにしてもよい。   Although not shown in FIG. 21, it is also possible to output the next target confirmation “TV?” And perform the same processing as described above.

図22は,第5の具体例における理由説明サービスの処理の流れを示す図である。センサ12から取得したセンサ情報などによって,理由説明サービスの発火条件が獲得されると(ステップS150),発火条件となる状況の検出時から遡って所定の期間内に実行された理由説明サービス以外の生活支援サービスが,理由説明の対象として特定される(ステップS151)。特定された各サービスについて,サービス履歴情報の発話キーワードが取得される(ステップS152)。各サービスの発話キーワードをもとに,対象確認(対象確認文)が生成され,音声出力される(ステップS153)。出力された対象確認に対するユーザ3の発話が,肯定的応答であるか否かが推論される(ステップS154)。ユーザ3の発話が肯定的応答であれば(ステップS154のYES),その対象確認文にかかるサービスの実行の理由説明(理由説明文)が生成され,音声出力される(ステップS155)。そして,対象確認を行う次のサービスがあれば(ステップS156のYES),ステップS153の処理へ戻り,特定されている次の生活支援サービスの対象確認を行う。対象確認を行う次のサービスがなければ(ステップS156のNO),理由説明サービスの内容を,サービス履歴データベース17に保存する(ステップS157)。また,ユーザ3の発話が肯定的応答でなければ(ステップS154のNO),理由説明サービスの内容を,サービス履歴データベース17に保存する(ステップS157)。   FIG. 22 is a diagram showing the flow of processing of the reason explanation service in the fifth specific example. When the firing condition of the reason explanation service is acquired from the sensor information acquired from the sensor 12 (step S150), the reason explanation service other than the reason explanation service executed within a predetermined period is detected retroactively from the detection of the situation that becomes the firing condition. The life support service is specified as the reason explanation target (step S151). An utterance keyword of service history information is acquired for each identified service (step S152). Based on the utterance keyword of each service, a target confirmation (target confirmation sentence) is generated and output as a voice (step S153). It is inferred whether or not the utterance of the user 3 with respect to the output target confirmation is an affirmative response (step S154). If the utterance of the user 3 is an affirmative response (YES in step S154), a reason explanation (reason explanation) of execution of the service related to the target confirmation sentence is generated and outputted as a voice (step S155). If there is a next service to be checked (YES in step S156), the process returns to step S153 to check the target of the next specified life support service. If there is no next service to be checked (NO in step S156), the contents of the reason explanation service are stored in the service history database 17 (step S157). If the utterance of the user 3 is not a positive response (NO in step S154), the contents of the reason explanation service are stored in the service history database 17 (step S157).

なお,第1〜第5の実施例において,理由説明サービスが実行されている間に,ユーザ3から「いらないよ。」「もういいよ。」などの否定的応答される発話があり,このユーザ発話情報から「理由説明サービスの中止の要求」が推論された場合には,実行中の理由説明サービスが中止される。   In the first to fifth embodiments, while the reason explanation service is being executed, there is an utterance that is negatively answered by the user 3 such as "I don't need it" or "I'm fine". When a “request to cancel the reason explanation service” is inferred from the utterance information, the reason explanation service being executed is canceled.

以上,本発明をその実施の形態により説明したが,本発明はその主旨の範囲において種々の変形が可能であることは当然である。   While the present invention has been described above with reference to the embodiments, it is obvious that the present invention can be variously modified within the scope of the gist thereof.

本実施例において,説明の簡略のために,一人のユーザ3の場合の処理について説明したが,本発明は,複数のユーザの場合にも,各ユーザに対する処理として実施することができる。この場合に,サービス履歴情報に,生活支援サービスがどのユーザに向けて提供されたものであるかを示す情報が蓄積されるようにする。   In the present embodiment, for the sake of simplicity of explanation, the processing for a single user 3 has been described. However, the present invention can be implemented as processing for each user even in the case of a plurality of users. In this case, information indicating to which user the life support service is provided is accumulated in the service history information.

また,本発明は,コンピュータにより読み取られ実行されるプログラムとして実施することができるが,本発明を実現するプログラムは,コンピュータが読み取り可能な,可搬媒体メモリ,半導体メモリ,ハードディスクなどの適当な記録媒体に格納することができ,これらの記録媒体に記録して提供され,または,通信インタフェースを介して種々の通信網を利用した送受信により提供されるものである。   In addition, the present invention can be implemented as a program that is read and executed by a computer. However, a program that realizes the present invention is an appropriate record such as portable medium memory, semiconductor memory, and hard disk that can be read by a computer. It can be stored in a medium, provided by being recorded on these recording media, or provided by transmission / reception using various communication networks via a communication interface.

本発明の対話システムの実施における構成例を示す図である。It is a figure which shows the structural example in implementation of the dialogue system of this invention. 生活支援ロボットシステムおよび対話ロボットの構成例を示す図である。It is a figure which shows the structural example of a life support robot system and a dialogue robot. 分散環境行動データベースの構成例を示す図である。It is a figure which shows the structural example of a distributed environment action database. 本発明の処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the process of this invention. 対話システムの処理の流れの例を示す図である。It is a figure which shows the example of the flow of a process of a dialogue system. 第1の具体例におけるサービス履歴データベースのデータ構成例を示す図である。It is a figure which shows the data structural example of the service history database in a 1st specific example. 第1の具体例における理由説明サービスの処理を説明するための図である。It is a figure for demonstrating the process of the reason explanation service in a 1st specific example. 第1の具体例における理由説明サービスの処理の流れを示す図である。It is a figure which shows the flow of a process of the reason explanation service in a 1st specific example. 第2の具体例におけるサービス履歴データベースのデータ構成例を示す図である。It is a figure which shows the data structural example of the service history database in a 2nd specific example. 第2の具体例における理由説明サービスの処理を説明するための図である。It is a figure for demonstrating the process of the reason explanation service in a 2nd specific example. 第2の具体例におけるサービス履歴データベースの別のデータ構成例を示す図である。It is a figure which shows another data structural example of the service history database in a 2nd specific example. 第2の具体例における理由説明サービスの処理を説明するための図である。It is a figure for demonstrating the process of the reason explanation service in a 2nd specific example. 第2の具体例における理由説明サービスの処理の流れを示す図である。It is a figure which shows the flow of a process of the reason explanation service in a 2nd specific example. 第3の具体例におけるサービス履歴データベースのデータ構成例を示す図である。It is a figure which shows the data structural example of the service history database in a 3rd specific example. 第3の具体例における理由説明サービスの処理を説明するための図である。It is a figure for demonstrating the process of the reason explanation service in a 3rd specific example. 第3の具体例における理由説明サービスの処理の流れを示す図である。It is a figure which shows the flow of a process of the reason explanation service in a 3rd specific example. 第4の具体例におけるサービス履歴データベースのデータ構成例を示す図である。It is a figure which shows the example of a data structure of the service history database in a 4th specific example. 第4の具体例における理由説明サービスの処理を説明するための図である。It is a figure for demonstrating the process of the reason explanation service in a 4th specific example. 第4の具体例における理由説明サービスの処理の流れを示す図である。It is a figure which shows the flow of a process of the reason explanation service in a 4th specific example. 第5の具体例におけるサービス履歴データベースのデータ構成例を示す図である。It is a figure which shows the example of a data structure of the service history database in a 5th specific example. 第5の具体例における理由説明サービスの処理を説明するための図である。It is a figure for demonstrating the process of the reason explanation service in a 5th example. 第5の具体例における理由説明サービスの処理の流れを示す図である。It is a figure which shows the flow of a process of the reason explanation service in a 5th specific example.

符号の説明Explanation of symbols

1 生活支援ロボットシステム
11 推論システム
12 センサ
13 分散環境行動データベース
15 イベント検出装置
17 サービス履歴データベース
2 対話ロボット
100 理由説明サービス処理部
101 サービス特定部
103 理由説明生成部
105 出力順序決定部
21 音声認識部
22 音声合成部
23 対話制御部
24 対話戦略データベース
25 状況情報取得部
26 状況記憶部
27 知識データベース
29 実行要求部
3 ユーザ
4 アプライアンス
DESCRIPTION OF SYMBOLS 1 Life support robot system 11 Reasoning system 12 Sensor 13 Distributed environment action database 15 Event detection apparatus 17 Service history database 2 Dialogue robot 100 Reason explanation service processing part 101 Service specification part 103 Reason explanation generation part 105 Output order determination part 21 Voice recognition part DESCRIPTION OF SYMBOLS 22 Speech synthesis part 23 Dialog control part 24 Dialog strategy database 25 Situation information acquisition part 26 Situation storage part 27 Knowledge database 29 Execution request part 3 User 4 Appliance

Claims (18)

サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが実行する,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する処理方法であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報から推論された前記ユーザの状況にもとづいてサービスが実行された場合に,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,
前記サービスが実行された理由説明のための所定の状況が検出された場合に,前記サービス履歴情報データベースから,前記検出時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,
前記特定された各サービスについて,前記サービス実行を通知する実行通知を生成する処理過程と,
前記特定された各サービスの実行時刻をもとに前記実行通知の出力順序を決定する処理過程と,
前記実行通知を前記出力順序に従って音声合成処理し,生成した音声データを所定の応答待機期間の間隔に応じて前記対話ロボットから出力する処理過程と,
前記実行通知後の所定の応答待機期間に検出された前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記実行通知に対応するサービスのサービス履歴情報をもとに,当該サービスの実行の理由説明を生成する処理過程と,
前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理方法。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu runs, a processing method for describing the execution reason service the life support robot system is provided,
A service history including information on the execution time of the service and the status at the time of service execution when the service is executed based on the status of the user inferred from the environmental information and the behavior information stored in the distributed environment behavior database A process of storing information in the service history information database;
When a predetermined situation for explaining the reason why the service is executed is detected, a plurality of services executed within a predetermined period from the time of detection are selected as the object of the reason explanation from the service history information database. Process to identify,
A process of generating an execution notification for notifying the execution of the service for each identified service;
A process of determining the output order of the execution notifications based on the execution time of each identified service;
A process of synthesizing the execution notification according to the output order and outputting the generated voice data from the interactive robot according to a predetermined response waiting period interval;
Corresponds to the execution notification when it is inferred that the user's utterance is a service execution reason explanation request based on the context of the user's utterance information detected during a predetermined response waiting period after the execution notification. Based on the service history information of the service, a process for generating a description of the reason for executing the service,
A reason explanation service processing method using a dialog robot, comprising: a process of performing voice synthesis processing on the reason explanation and outputting the generated voice data from the dialog robot.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが実行する,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する処理方法であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,
前記特定された各サービスについて,当該サービスの実行の理由説明を生成する処理過程と,
前記特定された各サービスの実行時刻をもとに前記理由説明の出力順序を決定する処理過程と,
前記理由説明を前記出力順序に従って音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理方法。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu runs, a processing method for describing the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status A process of storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. The process of identifying the service of the subject as the subject of the reason explanation,
For each identified service, a process of generating a description of the reason for executing the service;
A process of determining an output order of the explanation of reasons based on an execution time of each identified service;
A reason explanation service processing method using a dialog robot, comprising: a process of performing voice synthesis processing on the reason explanation according to the output order, and outputting the generated voice data from the dialog robot.
前記サービス履歴情報を蓄積する処理過程では,前記サービス履歴情報として,実行されたサービス間の依存関係を前記サービス履歴情報データベースに蓄積し,
前記出力順序を決定する処理過程では,前記特定されたサービス間に前記依存関係がある場合に,当該依存関係にあるサービスの実行の理由説明の出力順序を,当該サービスの実行時刻の順序をもとに決定する
ことを特徴とする請求項2に記載の対話ロボットを用いた理由説明サービス処理方法。
In the process of storing the service history information, as the service history information, dependency relationships between executed services are stored in the service history information database;
In the process of determining the output order, when there is the dependency relationship between the identified services, the output order of the explanation of the reason for executing the service having the dependency relationship is set to the execution time order of the service. The reason explanation service processing method using the dialogue robot according to claim 2, wherein the reason explanation service processing method is used.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが実行する,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する処理方法であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,およびサービスが理由説明の対象として選択されたか否かを示す情報を含むサービス履歴情報および前記サービス履歴情報データベースに蓄積する処理過程と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時に最も近い実行時刻であって,前記理由説明の対象として選択されていない一つのサービスを,前記理由説明の対象として特定する処理過程と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理過程と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理方法。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu runs, a processing method for describing the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status , And service history information including information indicating whether or not the service has been selected as a reason explanation target, and a process of storing in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance is obtained from the service history information, and A process of identifying one service not selected as the reason for explanation as a reason for explanation;
A process of generating a description of the reason for execution of the identified service from the service history information;
A reason explanation service processing method using a dialog robot, comprising: a voice synthesis process for explaining the reason for execution of the specified service and outputting the generated voice data from the dialog robot.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが実行する,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する処理方法であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,および前記ユーザの理由説明要求のサービス特定のための待ち受け情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記ユーザの発話時に最も近い実行時刻であって,かつ,前記ユーザの発話情報に含まれる情報と前記サービス履歴情報の待ち受け情報とが一致する一つのサービスを,前記理由説明の対象として特定する処理過程と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理過程と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理方法。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu runs, a processing method for describing the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status And a process of storing service history information including standby information for specifying the service of the user's reason explanation request in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance and the user's utterance information A process of identifying, as the object of the reason explanation, one service in which the information included in the service information and the standby information of the service history information match,
A process of generating a description of the reason for execution of the identified service from the service history information;
A reason explanation service processing method using a dialog robot, comprising: a voice synthesis process for explaining the reason for execution of the specified service and outputting the generated voice data from the dialog robot.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが実行する,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する処理方法であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,
前記特定されたサービスが理由説明の対象であるか否かを,前記ユーザに確認する対象確認を生成する処理過程と,
前記対象確認を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程と,
前記対象確認に対する前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話が前記対象確認に対する肯定的応答であると推論された場合に,前記サービス履歴情報から,前記肯定的応答された対象確認に対応するサービスの実行の理由説明を生成する処理過程と,
前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理方法。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu runs, a processing method for describing the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status A process of storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. The process of identifying the service of the subject as the subject of the reason explanation,
A process of generating an object confirmation for confirming to the user whether the identified service is an object of reason explanation;
A process of synthesizing the target confirmation and outputting the generated voice data from the interactive robot;
When it is inferred that the user's utterance is an affirmative response to the target confirmation based on the context of the user's utterance information for the target confirmation, the service confirmation information is used for the positively confirmed target confirmation. A process of generating a description of the reason for executing the corresponding service;
A reason explanation service processing method using a dialog robot, comprising: a process of performing voice synthesis processing on the reason explanation and outputting the generated voice data from the dialog robot.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが備える,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する処理装置であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報から推論された前記ユーザの状況にもとづいてサービスが実行された場合に,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理手段と,
前記サービスが実行された理由説明のための所定の状況が検出された場合に,前記サービス履歴情報データベースから,前記検出時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理手段と,
前記特定された各サービスについて,前記サービス実行を通知する実行通知を生成し,前記実行通知後の所定の応答待機期間に検出された前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記実行通知に対応するサービスのサービス履歴情報をもとに,当該サービスの実行の理由説明を生成する処理手段と,
前記特定された各サービスの実行時刻をもとに前記実行通知の出力順序を決定する処理手段と,
前記対話ロボットから,前記実行通知を前記出力順序に従って音声合成処理し,生成した音声データを所定の応答待機期間の間隔に応じて出力し,前記理由説明を音声合成処理し,生成した音声データを出力する処理手段とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理装置。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu comprises, a processing apparatus for explaining the execution reason service the life support robot system is provided,
A service history including information on the execution time of the service and the status at the time of service execution when the service is executed based on the status of the user inferred from the environmental information and the behavior information stored in the distributed environment behavior database Processing means for storing information in the service history information database;
When a predetermined situation for explaining the reason why the service is executed is detected, a plurality of services executed within a predetermined period from the time of detection are selected as the object of the reason explanation from the service history information database. Processing means to identify;
For each identified service, an execution notification for notifying the execution of the service is generated, and the user's utterance is a service based on the context of the user's utterance information detected during a predetermined response waiting period after the execution notification. Processing means for generating a reason for executing the service based on service history information of the service corresponding to the execution notification when it is inferred that the request is an explanation of the reason for execution;
Processing means for determining the output order of the execution notifications based on the execution time of each identified service;
From the interactive robot, the execution notification is subjected to speech synthesis processing according to the output order, the generated speech data is output according to a predetermined response waiting period interval, the reason explanation is speech synthesized, and the generated speech data is A reason explanation service processing apparatus using a dialogue robot, characterized by comprising: a processing means for outputting.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが備える,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する処理装置であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理手段と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理手段と,
前記特定された各サービスについて,当該サービスの実行の理由説明を生成する処理手段と,
前記特定された各サービスの実行時刻をもとに前記理由説明の出力順序を決定する処理手段と,
前記理由説明を前記出力順序に従って音声合成処理し,生成した音声データを前記対話ロボットから出力する処理手段とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理装置。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu comprises, a processing apparatus for explaining the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status Processing means for storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. A processing means for identifying the service as the object of the reason explanation,
Processing means for generating an explanation of the reason for executing the service for each identified service;
Processing means for determining an output order of the explanation of reasons based on execution times of the specified services;
A reason explanation service processing apparatus using a dialogue robot, comprising: processing means for performing voice synthesis processing on the reason explanation according to the output order and outputting the generated voice data from the dialogue robot.
前記サービス履歴情報を蓄積する処理手段は,前記サービス履歴情報として,実行されたサービス間の依存関係を前記サービス履歴情報データベースに蓄積し,
前記出力順序を決定する処理手段は,前記特定されたサービス間に前記依存関係がある場合に,当該依存関係にあるサービスの実行の理由説明の出力順序を,当該サービスの実行時刻の順序をもとに決定する
ことを特徴とする請求項8に記載の対話ロボットを用いた理由説明サービス処理装置。
The processing means for accumulating the service history information accumulates dependencies between executed services in the service history information database as the service history information.
The processing means for determining the output order includes the output order of the explanation of the reason for executing the service having the dependency relation, and the execution time order of the service when the specified service has the dependency relation. The reason explanation service processing apparatus using the dialog robot according to claim 8, wherein the reason explanation service processing apparatus is used.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが備える,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する処理装置であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,およびサービスが理由説明の対象として選択されたか否かを示す情報を含むサービス履歴情報および前記サービス履歴情報データベースに蓄積する処理手段と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時に最も近い実行時刻であって,前記理由説明の対象として選択されていない一つのサービスを,前記理由説明の対象として特定する処理手段と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理手段と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理手段とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理装置。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu comprises, a processing apparatus for explaining the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status , And service history information including information indicating whether or not the service has been selected as a reason explanation target, and processing means for accumulating in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance is obtained from the service history information, and Processing means for identifying one service not selected as the reason explanation target as the reason explanation target;
Processing means for generating a description of the reason for execution of the identified service from the service history information;
A reason explanation service processing apparatus using a dialog robot, comprising: processing means for performing a speech synthesis process on the reason for executing the specified service and outputting the generated voice data from the dialog robot.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが備える,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する処理装置であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,および前記ユーザの理由説明要求のサービス特定のための待ち受け情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理手段と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記ユーザの発話時に最も近い実行時刻であって,かつ,前記ユーザの発話情報に含まれる情報と前記サービス履歴情報の待ち受け情報とが一致する一つのサービスを,前記理由説明の対象として特定する処理手段と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理手段と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理手段とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理装置。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu comprises, a processing apparatus for explaining the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status And processing means for storing in the service history information database service history information including standby information for service identification of the user's reason explanation request,
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance and the user's utterance information Processing means for identifying, as the reason explanation target, one service in which the information included in the service information and the standby information of the service history information match,
Processing means for generating a description of the reason for execution of the identified service from the service history information;
A reason explanation service processing apparatus using a dialog robot, comprising: processing means for performing a speech synthesis process on the reason for executing the specified service and outputting the generated voice data from the dialog robot.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが備える,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する処理装置であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理手段と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理手段と,
前記特定されたサービスが理由説明の対象であるか否かを,前記ユーザに確認する対象確認を生成し,前記対象確認に対する前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話が前記対象確認に対する肯定的応答であると推論された場合に,前記サービス履歴情報から,前記肯定的応答された対象確認に対応するサービスの実行の理由説明を生成する処理手段と,
前記対話ロボットから,前記対象確認を音声合成処理し,生成した音声データを出力し,前記理由説明を音声合成処理し,生成した音声データを出力する処理手段とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理装置。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu comprises, a processing apparatus for explaining the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status Processing means for storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. A processing means for identifying the service as the object of the reason explanation,
A target confirmation is generated to confirm to the user whether or not the identified service is a target of reason explanation, and the user's utterance is determined based on a context of the user's utterance information with respect to the target confirmation. Processing means for generating, from the service history information, a reason for executing the service corresponding to the positively confirmed target confirmation when it is inferred that the response is a positive response to
A dialogue robot comprising: processing means for performing voice synthesis processing on the target confirmation from the dialogue robot, outputting the generated voice data, performing voice synthesis processing on the explanation of the reason, and outputting the generated voice data. Reason explanation service processing device using
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムに,
前記分散環境行動データベースに蓄積された環境情報および行動情報から推論された前記ユーザの状況にもとづいてサービスが実行された場合に,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理と,
前記サービスが実行された理由説明のための所定の状況が検出された場合に,前記サービス履歴情報データベースから,前記検出時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理と,
前記特定された各サービスについて,前記サービス実行を通知する実行通知を生成する処理と,
前記特定された各サービスの実行時刻をもとに前記実行通知の出力順序を決定する処理と,
前記実行通知を前記出力順序に従って音声合成処理し,生成した音声データを所定の応答待機期間の間隔に応じて前記対話ロボットから出力する処理と,
前記実行通知後の所定の応答待機期間に検出された前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記実行通知に対応するサービスのサービス履歴情報をもとに,当該サービスの実行の理由説明を生成する処理と,
前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理とを,
実行させるための
対話ロボットを用いた理由説明サービス処理プログラム。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. In Temu,
A service history including information on the execution time of the service and the status at the time of service execution when the service is executed based on the status of the user inferred from the environmental information and the behavior information stored in the distributed environment behavior database Storing information in the service history information database;
When a predetermined situation for explaining the reason why the service is executed is detected, a plurality of services executed within a predetermined period from the time of detection are selected as the object of the reason explanation from the service history information database. Processing to identify,
Processing for generating an execution notification for notifying the execution of the service for each identified service;
A process for determining the output order of the execution notifications based on the execution time of each identified service;
A process of performing speech synthesis processing on the execution notification according to the output order, and outputting the generated voice data from the interactive robot according to a predetermined response waiting period interval;
Corresponds to the execution notification when it is inferred that the user's utterance is a service execution reason explanation request based on the context of the user's utterance information detected during a predetermined response waiting period after the execution notification. A process for generating a description of the reason for executing the service based on the service history information of the service;
Processing the speech explanation for the reason explanation and outputting the generated speech data from the interactive robot;
Reason explanation service processing program using a dialogue robot for execution.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムに,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理と,
前記特定された各サービスについて,当該サービスの実行の理由説明を生成する処理と,
前記特定された各サービスの実行時刻をもとに前記理由説明の出力順序を決定する処理と,
前記理由説明を前記出力順序に従って音声合成処理し,生成した音声データを前記対話ロボットから出力する処理とを,
実行させるための
対話ロボットを用いた理由説明サービス処理プログラム。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. In Temu,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status Storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. The process of identifying the service of the subject as the object of the reason explanation,
For each identified service, a process for generating a description of the reason for executing the service;
A process for determining the output order of the explanation of reasons based on the execution time of each identified service;
A process of synthesizing the explanation of the reason according to the output order and outputting the generated voice data from the interactive robot;
Reason explanation service processing program using a dialogue robot for execution.
前記サービス履歴情報を蓄積する処理では,前記サービス履歴情報として,実行されたサービス間の依存関係を前記サービス履歴情報データベースに蓄積し,
前記出力順序を決定する処理では,前記特定されたサービス間に前記依存関係がある場合に,当該依存関係にあるサービスの実行の理由説明の出力順序を,当該サービスの実行時刻の順序をもとに決定する処理を,
実行させるための
請求項14に記載の対話ロボットを用いた理由説明サービス処理プログラム。
In the process of storing the service history information, as the service history information, dependency relationships between executed services are stored in the service history information database;
In the process of determining the output order, when there is the dependency relationship between the identified services, the output order of the explanation of the reason for executing the service in the dependency relationship is determined based on the execution time order of the service. The process to determine
A reason explanation service processing program using the dialogue robot according to claim 14 for execution.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムに,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,およびサービスが理由説明の対象として選択されたか否かを示す情報を含むサービス履歴情報および前記サービス履歴情報データベースに蓄積する処理と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時に最も近い実行時刻であって,前記理由説明の対象として選択されていない一つのサービスを,前記理由説明の対象として特定する処理と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理とを,
実行させるための
対話ロボットを用いた理由説明サービス処理プログラム。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. In Temu,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status , And service history information including information indicating whether or not the service has been selected as a reason explanation target, and a process of accumulating in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance is obtained from the service history information, and A process of identifying one service not selected as the reason explanation target as the reason explanation target;
Processing for generating an explanation of the reason for execution of the identified service from the service history information;
A process of performing a speech synthesis process on the reason for executing the identified service and outputting the generated voice data from the interactive robot;
Reason explanation service processing program using a dialogue robot for execution.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムに,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,および前記ユーザの理由説明要求のサービス特定のための待ち受け情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記ユーザの発話時に最も近い実行時刻であって,かつ,前記ユーザの発話情報に含まれる情報と前記サービス履歴情報の待ち受け情報とが一致する一つのサービスを,前記理由説明の対象として特定する処理と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理とを,
実行させるための
対話ロボットを用いた理由説明サービス処理プログラム。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. In Temu,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status , And a process of storing service history information including standby information for service identification of the user reason explanation request in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance and the user's utterance information A process for identifying, as the reason explanation target, one service in which the information included in the service information and the standby information of the service history information match,
Processing for generating an explanation of the reason for execution of the identified service from the service history information;
A process of performing a speech synthesis process on the reason for executing the identified service and outputting the generated voice data from the interactive robot;
Reason explanation service processing program using a dialogue robot for execution.
サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムに,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理と,
前記特定されたサービスが理由説明の対象であるか否かを,前記ユーザに確認する対象確認を生成する処理と,
前記対象確認を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理と,
前記対象確認に対する前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話が前記対象確認に対する肯定的応答であると推論された場合に,前記サービス履歴情報から,前記肯定的応答された対象確認に対応するサービスの実行の理由説明を生成する処理と,
前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理とを,
実行させるための
対話ロボットを用いた理由説明サービス処理プログラム。
An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. In Temu,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status Storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. The process of identifying the service of the subject as the object of the reason explanation,
Processing for generating an object confirmation for confirming to the user whether or not the identified service is an object of reason explanation;
Processing for synthesizing the target confirmation and outputting the generated speech data from the interactive robot;
When it is inferred that the user's utterance is an affirmative response to the target confirmation based on the context of the user's utterance information for the target confirmation, the service confirmation information is used for the positively confirmed target confirmation. Processing to generate a description of the reason for executing the corresponding service;
Processing the speech explanation for the reason explanation and outputting the generated speech data from the interactive robot;
Reason explanation service processing program using a dialogue robot for execution.
JP2006151033A 2006-05-31 2006-05-31 Method, device and program for processing reason explanation service using interactive robot Pending JP2007323233A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006151033A JP2007323233A (en) 2006-05-31 2006-05-31 Method, device and program for processing reason explanation service using interactive robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006151033A JP2007323233A (en) 2006-05-31 2006-05-31 Method, device and program for processing reason explanation service using interactive robot

Publications (1)

Publication Number Publication Date
JP2007323233A true JP2007323233A (en) 2007-12-13

Family

ID=38856004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006151033A Pending JP2007323233A (en) 2006-05-31 2006-05-31 Method, device and program for processing reason explanation service using interactive robot

Country Status (1)

Country Link
JP (1) JP2007323233A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013118493A1 (en) * 2012-02-09 2013-08-15 日本電気株式会社 Recommendation condition correction device, recommendation condition correction method, and recommendation condition correction program
KR20170060480A (en) * 2015-11-24 2017-06-01 삼성전자주식회사 Electronic device and method for controlling thereof
WO2018147405A1 (en) 2017-02-10 2018-08-16 株式会社アナリティックウェア Dialog device, control device, dialog system, dialog method, and control method
JP2019510291A (en) * 2016-01-25 2019-04-11 マスターカード アジア パシフィック ピーティーイー リミテッドMastercard Asia/Pacific Pte.Ltd. A method of supporting transactions using a humanoid robot
JP2019520661A (en) * 2016-04-18 2019-07-18 グーグル エルエルシー Call the appropriate agent's automation assistant
WO2020071409A1 (en) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information provision method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188786A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2004259042A (en) * 2003-02-26 2004-09-16 Nippon Telegr & Teleph Corp <Ntt> Method and device of displaying use history of network content/application, and program for displaying use history of network content/application
WO2005086051A1 (en) * 2004-03-08 2005-09-15 National Institute Of Information And Communications Technology Interactive system, interactive robot, program, and recording medium
JP2007011674A (en) * 2005-06-30 2007-01-18 National Institute Of Information & Communication Technology Method for executing service for explaining reason by using interactive robot, device and program thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188786A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2004259042A (en) * 2003-02-26 2004-09-16 Nippon Telegr & Teleph Corp <Ntt> Method and device of displaying use history of network content/application, and program for displaying use history of network content/application
WO2005086051A1 (en) * 2004-03-08 2005-09-15 National Institute Of Information And Communications Technology Interactive system, interactive robot, program, and recording medium
JP2007011674A (en) * 2005-06-30 2007-01-18 National Institute Of Information & Communication Technology Method for executing service for explaining reason by using interactive robot, device and program thereof

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200501624030; 上田 博唯,近間 正樹,佐竹 純二,佐藤 淳,木戸出 正継: 'ユビキタスホームにおける対話インタフェースロボットの試作' 情報処理学会研究報告 Vol.2005,No.28, 20050318, pp.239-246, 社団法人情報処理学会 *
CSNG200600533012; 佐竹 純二,土屋 誠司,小林 亮博,近間 正樹,上田 博唯: 'ロボットを用いた対話インタフェースにおけるサービス実行理由説明機能' 情報処理学会研究報告 Vol.2006,No.3, 20060113, pp.103-110, 社団法人情報処理学会 *
JPN6012021815; 佐竹 純二,土屋 誠司,小林 亮博,近間 正樹,上田 博唯: 'ロボットを用いた対話インタフェースにおけるサービス実行理由説明機能' 情報処理学会研究報告 Vol.2006,No.3, 20060113, pp.103-110, 社団法人情報処理学会 *
JPN6012021817; 上田 博唯,近間 正樹,佐竹 純二,佐藤 淳,木戸出 正継: 'ユビキタスホームにおける対話インタフェースロボットの試作' 情報処理学会研究報告 Vol.2005,No.28, 20050318, pp.239-246, 社団法人情報処理学会 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013118493A1 (en) * 2012-02-09 2013-08-15 日本電気株式会社 Recommendation condition correction device, recommendation condition correction method, and recommendation condition correction program
JPWO2013118493A1 (en) * 2012-02-09 2015-05-11 日本電気株式会社 Recommendation condition correcting device, recommended condition correcting method, and recommended condition correcting program
KR20170060480A (en) * 2015-11-24 2017-06-01 삼성전자주식회사 Electronic device and method for controlling thereof
KR102584184B1 (en) 2015-11-24 2023-10-04 삼성전자주식회사 Electronic device and method for controlling thereof
JP2019510291A (en) * 2016-01-25 2019-04-11 マスターカード アジア パシフィック ピーティーイー リミテッドMastercard Asia/Pacific Pte.Ltd. A method of supporting transactions using a humanoid robot
JP2019520661A (en) * 2016-04-18 2019-07-18 グーグル エルエルシー Call the appropriate agent's automation assistant
WO2018147405A1 (en) 2017-02-10 2018-08-16 株式会社アナリティックウェア Dialog device, control device, dialog system, dialog method, and control method
WO2020071409A1 (en) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information provision method
CN112789485A (en) * 2018-10-02 2021-05-11 松下电器(美国)知识产权公司 Information providing method
JPWO2020071409A1 (en) * 2018-10-02 2021-09-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information provision method
JP7462567B2 (en) 2018-10-02 2024-04-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ How to provide information

Similar Documents

Publication Publication Date Title
CN106463114B (en) Information processing apparatus, control method, and program storage unit
CN106257355B (en) Equipment control method and controller
KR102373905B1 (en) Shortened voice user interface for assistant applications
CN106297781B (en) Control method and controller
EP3583497B1 (en) Multi-user intelligent assistance
KR102551715B1 (en) Generating iot-based notification(s) and provisioning of command(s) to cause automatic rendering of the iot-based notification(s) by automated assistant client(s) of client device(s)
JP4370410B2 (en) Dialog system, dialog robot, program, and recording medium
JP2007323233A (en) Method, device and program for processing reason explanation service using interactive robot
JP2008233345A (en) Interface device and interface processing method
JP2016076799A (en) Consumer electronics administrative system, consumer electronics, remote-control device, and robot
JP2007011674A (en) Method for executing service for explaining reason by using interactive robot, device and program thereof
JP6973380B2 (en) Information processing device and information processing method
KR102629796B1 (en) An electronic device supporting improved speech recognition
JP2018206385A (en) Method and device for actively providing information suitable for position and space for user
JP2023549015A (en) Enabling natural conversations about automated assistants
US20200143807A1 (en) Electronic device and operation method thereof
US20220122600A1 (en) Information processing device and information processing method
KR102396147B1 (en) Electronic device for performing an operation using voice commands and the method of the same
KR20210015234A (en) Electronic apparatus, and method of controlling to execute function according to voice command thereof
JP7452528B2 (en) Information processing device and information processing method
JP7415952B2 (en) Response processing device and response processing method
US20230031461A1 (en) Providing certain reasoning with respect to fulfillment of an assistant command
US11818820B2 (en) Adapting a lighting control interface based on an analysis of conversational input
KR102612835B1 (en) Electronic device and method for executing function of electronic device
JP7202836B2 (en) communication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120925