JP2007323233A - Method, device and program for processing reason explanation service using interactive robot - Google Patents
Method, device and program for processing reason explanation service using interactive robot Download PDFInfo
- Publication number
- JP2007323233A JP2007323233A JP2006151033A JP2006151033A JP2007323233A JP 2007323233 A JP2007323233 A JP 2007323233A JP 2006151033 A JP2006151033 A JP 2006151033A JP 2006151033 A JP2006151033 A JP 2006151033A JP 2007323233 A JP2007323233 A JP 2007323233A
- Authority
- JP
- Japan
- Prior art keywords
- service
- information
- user
- reason
- execution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は,ユーザの生活を支援するためにアプライアンスを自律的に制御する生活支援ロボットシステムと協働して,ユーザと音声による対話を行う対話ロボットを用いて,前記生活支援ロボットシステムで実行されるサービス提供の理由を説明する理由説明サービス処理に関する。 The present invention is implemented in the life support robot system using a dialog robot that performs voice conversation with the user in cooperation with a life support robot system that autonomously controls the appliance to support the life of the user. The present invention relates to reason explanation service processing for explaining the reason for providing a service.
さらに詳しくは,前記生活支援ロボットシステムで実行された複数のサービスを対象にした理由説明サービスを行う理由説明サービス処理方法,その装置,および,そのプログラムに関する。 More specifically, the present invention relates to a reason explanation service processing method for performing a reason explanation service for a plurality of services executed by the life support robot system, its apparatus, and its program.
ユビキタスな環境を背景にして,ユーザの居住空間などに設置されて自律的にユーザの生活を支援する生活支援ロボットシステムが実現されている。ユビキタスな環境を前提にした生活支援ロボットシステムは,ユーザが特に意識して操作する必要がないアンコンシャス型のシステムであることが多い。 With the background of ubiquitous environment, a life support robot system that is installed in a user's living space and autonomously supports the user's life has been realized. Life support robot systems based on a ubiquitous environment are often unconscious systems that do not require users to be particularly aware of the operation.
アンコンシャス型の生活支援ロボットシステムは,快適な環境の維持やユーザの活動支援のために,各種のセンサ情報にもとづいて環境やユーザの行動を推論し,ネットワークで接続されたアプライアンス(通信機能を備えた家電機器),情報端末装置などを制御して生活を支援するための種々のサービスを提供するものである。例えば,生活支援ロボットシステムは,センサ情報をもとにユーザの動作・姿勢,部屋の状況を分析してユーザがリラックスした状態であると推論すると,アプライアンスの一つであるオーディオシステムによってユーザの嗜好にあった音楽を流したり,または,エアコンによって室内の温湿度を維持したりして,ユーザがこれらのアプライアンスを意識的に操作することなく快適な生活環境を実現できるようにする(参照,非特許文献1)。
アンコンシャス型の生活支援ロボットシステムは,さまざまな状況にも柔軟に対応できるような普遍的なユーザインタフェースとして,高度な状況対応処理能力を備え,かつユーザに親近感を抱かせるような対話システムが必要である。本発明の発明者は,ユーザの曖昧な要求をより正確に受け取ってシステムの制御に反映させ,また,システムの制御状況をより的確に理解してもらえるように,ユーザにとって生活支援のための有用なサービスや情報を提供できる対話ロボット,および前記対話ロボットを用いた対話システムを実現している(参照,PCT/JP2004/002942)。 The unconscious life support robot system is a universal user interface that can respond flexibly to various situations, and has an interactive system that has a high level of situational processing capability and makes the user feel familiar. is necessary. The inventor of the present invention can receive a user's ambiguous request more accurately and reflect it in the control of the system, and can help the user understand the control status of the system more accurately for life support. An interactive robot that can provide various services and information, and an interactive system using the interactive robot (see PCT / JP2004 / 002942).
前記の生活支援ロボットシステムによって,さまざまな生活支援サービスが提供可能な状況になると,実行されるサービスの全てをユーザが把握しておくことは困難であるから,なぜそのようなサービスが実行されたのかという理由を,ユーザに説明する仕組みが必要である。 When various life support services can be provided by the above life support robot system, it is difficult for the user to grasp all the services to be executed. A mechanism is needed to explain to the user why.
そこで,本発明の発明者は,生活支援ロボットシステムが提供するサービスについて,ユーザがその実行の理由を質問した場合に,対話ロボットを通じて,その実行の理由を説明する理由説明サービス処理方法および処理装置を実現している(参照,特願2005−191520)。 Therefore, the inventor of the present invention provides a reason explanation service processing method and a processing apparatus for explaining the reason for execution of the service provided by the life support robot system through the interactive robot when the user asks the reason for the execution. (See Japanese Patent Application No. 2005-191520).
前記の対話ロボットを用いた理由説明サービス処理方法によれば,生活支援ロボットシステムによってサービスが実行された場合に,ユーザにサービス実行の理由を「どうして?」と質問させ,対話ロボットがサービス実行の理由説明を行い,この理由説明に対するユーザの反応をもとに,実行したサービスに対するユーザの評価をフィードバックすることができる。 According to the reason explanation service processing method using the interactive robot described above, when the service is executed by the life support robot system, the user is asked the reason for executing the service as “why?” The reason is explained, and the user's evaluation of the executed service can be fed back based on the user's reaction to the explanation of the reason.
しかし,この処理方法では,ユーザがサービス実行の理由を質問したときに,対話ロボットは,質問された時刻の直近に実行されていた一つのサービスについて理由説明を行っていた。また,複数のサービスについての理由説明を行うとすれば,ユーザが質問した時までに実行されていたサービス全てについて理由説明を行うしかなかった。 However, in this processing method, when the user asks the reason for executing the service, the interactive robot explained the reason for one service that was executed most recently. In addition, if the reason for a plurality of services is explained, the only reason is to explain the reasons for all the services that have been executed until the user asks a question.
一つのトリガに対して複数のサービスが同時に実行されたような場合,または短時間のうちに複数のサービスが実行されたような場合には,ユーザは,最後に実行されたサービスの実行についてしか理由を知ることができなかった。また,複数のサービスの実行について理由説明が行われるとすれば,実行されたサービスの理由を全て網羅することになり,ユーザは理由説明を長時間延々と聞かされるという状況が生じていた。 When multiple services are executed at the same time for a single trigger, or when multiple services are executed within a short time, the user only needs to execute the service that was executed last. I couldn't know why. Further, if the explanation of the reasons for the execution of a plurality of services is given, all the reasons for the executed services will be covered, and the situation that the user will be told the explanation of the reasons for a long time has occurred.
本発明は,かかる問題点に鑑みてなされたものであり,その目的は,複数のサービスの実行理由を,ユーザにわかりやすく簡潔に説明する理由説明サービスを提供できる処理方法,装置,およびプログラムを提供するものである。 The present invention has been made in view of such problems, and an object of the present invention is to provide a processing method, apparatus, and program capable of providing a reason explanation service that easily and easily explains a plurality of service execution reasons to a user. It is to provide.
本発明は,サービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記推論システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースを備える生活支援ロボットシステムと,前記生活支援ロボットシステムと協働し,ユーザの音声データを音声認識処理して生成したユーザ発話情報をもとに発話の文脈を推論し,推論にもとづいて生成した発話情報を音声合成処理して生成した音声データを出力して前記ユーザと音声対話する対話ロボットとを備える対話システムが,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する理由説明サービス処理方法である。 In order to autonomously control a plurality of appliances that execute services, the present invention infers the environment in the space and the user's behavior based on sensor information measured in a predetermined space, and controls the appliance. Life support robot comprising a reasoning system to control, a distributed environment behavior database that accumulates environment information and behavior information as inference results by the reasoning system, and a service history information database that accumulates history information of services provided by the reasoning system In cooperation with the system and the life support robot system, inferring the context of the utterance based on the user utterance information generated by voice recognition processing of the user's voice data, and voice synthesis of the utterance information generated based on the inference A dialogue robot for outputting voice data generated by processing and having a voice dialogue with the user; Interactive system that is why explaining service processing method for describing the execution reason service the life support robot system is provided.
本発明は,1)前記分散環境行動データベースに蓄積された環境情報および行動情報から推論された前記ユーザの状況にもとづいてサービスが実行された場合に,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,2)前記サービスが実行された理由説明のための所定の状況が検出された場合に,前記サービス履歴情報データベースから,前記検出時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,3)前記特定された各サービスについて,前記サービス実行を通知する実行通知を生成する処理過程と,4)前記特定された各サービスの実行時刻をもとに前記実行通知の出力順序を決定する処理過程と,5)前記実行通知を前記出力順序に従って音声合成処理し,生成した音声データを所定の応答待機期間の間隔に応じて前記対話ロボットから出力する処理過程と,6)前記実行通知後の所定の応答待機期間に検出された前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記実行通知に対応するサービスのサービス履歴情報をもとに,当該サービスの実行の理由説明を生成する処理過程と,7)前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える。 The present invention provides: 1) When the service is executed based on the user's situation inferred from the environment information and the action information stored in the distributed environment action database, the execution time of the service and the situation at the time of service execution A process of storing service history information including information on the service history information database in the service history information database, and 2) when a predetermined situation for explaining the reason for execution of the service is detected, from the service history information database, A process of identifying a plurality of services executed within a predetermined period from the time of detection as the object of the reason explanation; and 3) a process of generating an execution notification for notifying the service execution for each of the specified services. 4) Determine the output order of the execution notifications based on the execution times of the specified services. 5) a process for synthesizing the execution notification according to the output order, and outputting the generated voice data from the interactive robot according to a predetermined response waiting period interval; 6) after the execution notification Service history of the service corresponding to the execution notification when it is inferred that the user's utterance is a request to explain the reason for service execution based on the context of the user's utterance information detected during the predetermined response waiting period A process for generating a reason explanation for executing the service based on the information; and 7) a process for synthesizing the reason explanation and outputting the generated voice data from the interactive robot.
本発明は,理由説明サービスを実行するための所定の状況(例えば,ユーザからの「どうして?」などの理由説明の要求,ユーザがソファに座ったという状況)などを検出すると,所定の期間内に実行された複数のサービスを特定すると,サービス履歴情報をもとに生成した各サービスの実行通知(テレビつけたよ。○○番組をつけたよ。など)の音声データを所定の待機時間をとって出力する。ある実行通知の後の待機時間内に検出したユーザの発話が,理由説明要求を示す応答(例えば「どうして?」)であると推論された場合に,ユーザの反応があった実行通知に対応するサービスの実行の理由説明(「ソファに座ったからだよ。」)の音声データを対話ロボットから出力する。 The present invention detects a predetermined situation for executing the reason explanation service (for example, a request for explanation of a reason such as “why?” From the user, a situation where the user is sitting on the sofa) or the like. When multiple services executed are identified, the voice data of the execution notification of each service generated based on the service history information (Television turned on, XX turned on, etc.) is taken for a predetermined waiting time. Output. Corresponds to an execution notification with a user's reaction when it is inferred that the user's utterance detected within the waiting time after a certain execution notification is a response indicating a reason explanation request (for example, “Why?”) The voice data explaining the reason for executing the service (“I'm sitting on the couch”) is output from the interactive robot.
対話ロボットは,実行されたサービスの実行通知を一定の間隔をあけながら発話するので,ユーザにより,理由説明を所望するサービスの実行通知がされると,その後に「どうして?」など発話して,理由説明要求を割り込ませることによって,ユーザが知りたいサービスの実行の理由説明だけを出力することができる。 Since the dialogue robot utters the execution notification of the executed service with a certain interval, when the user is notified of the execution of the service for which the explanation of the reason is desired, it then utters "Why?" By interrupting the reason explanation request, it is possible to output only the explanation of the reason for executing the service that the user wants to know.
また,本発明は,1)前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,2)前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,3)前記特定された各サービスについて,当該サービスの実行の理由説明を生成する処理過程と,4)前記特定された各サービスの実行時刻をもとに前記理由説明の出力順序を決定する処理過程と,5)前記理由説明を前記出力順序に従って音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える。 In addition, the present invention provides: 1) the execution time of the service for a service inferred from the environment information and the action information stored in the distributed environment action database, and selected and executed based on the user condition; And a process of accumulating service history information including information related to service execution status in the service history information database, and 2) a request for explaining the reason for executing the service based on the context of the user's utterance information. A process of identifying a plurality of services executed within a predetermined period from the time of the user's utterance as the object of the reason explanation from the service history information when it is inferred, and 3) the specified For each service, a process for generating a description of the reason for executing the service, and 4) each identified service A process for determining the output order of the reason explanations based on the execution time of the task; and 5) a process for voice-synthesizing the reason explanations according to the output order and outputting the generated speech data from the interactive robot; Is provided.
生活支援ロボットシステムが所定の時間内に実行したサービスが複数ある場合に,ユーザの発話が理由説明の要求であると推定されたときは,ユーザの発話時までの所定の時間内に実行された複数のサービス(テレビ制御,番組推薦,照明制御,空調制御など)について,それぞれのサービス実行の理由説明の音声データを出力する。よって,所定の期間内に実行されたサービスの実行の理由説明をまとめて行うことができる。 When there are multiple services that the life support robot system has executed within the predetermined time, if it is estimated that the user's utterance is a request for explanation of the reason, it was executed within the predetermined time until the user's utterance For a plurality of services (television control, program recommendation, lighting control, air conditioning control, etc.), audio data explaining the reason for executing each service is output. Therefore, it is possible to collectively explain the reasons for executing services executed within a predetermined period.
また,本発明が前記の構成をとる場合に,前記サービス履歴情報を蓄積する処理過程では,前記サービス履歴情報として,実行されたサービス間の依存関係を前記サービス履歴情報データベースに蓄積し,前記出力順序を決定する処理過程では,前記特定されたサービス間に前記依存関係がある場合に,当該依存関係にあるサービスの実行の理由説明の出力順序を,当該サービスの実行時刻の順序をもとに決定する。 When the present invention has the above-described configuration, in the process of storing the service history information, the service history information is stored as dependency information between executed services in the service history information database, and the output is performed. In the process of determining the order, when there is the dependency relationship between the identified services, the output order of the explanation of the reason for executing the service in the dependency relationship is determined based on the execution time order of the service. decide.
実行されたサービス同士が,あるサービスの実行によって別のサービスが実行されるという依存関係を持つ場合に,複数のサービスの実行を,遡って新しいものから理由説明を行うときに,依存関係にあるサービスについては,実行された順序で理由説明を行う。例えば「テレビ制御」サービスと「番組推薦」サービスのように,依存関係があるサービスの実行の理由説明を,実行順序どおりに行うことによって,ユーザに,より分かりやすい理由説明を行うことができる。 When executed services have a dependency relationship that another service is executed by the execution of one service, they are in a dependency relationship when explaining the reason for the execution of multiple services retroactively. For services, explain the reasons in the order in which they were executed. For example, by explaining the reasons for executing dependent services in the order of execution, such as the “TV control” service and the “program recommendation” service, it is possible to explain the reason more easily to the user.
また,本発明は,1)前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,およびサービスが理由説明の対象として選択されたか否かを示す情報を含むサービス履歴情報および前記サービス履歴情報データベースに蓄積する処理過程と,2)前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時に最も近い実行時刻であって,前記理由説明の対象として選択されていない一つのサービスを,前記理由説明の対象として特定する処理過程と,3)前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理過程と,4)前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える。 In addition, the present invention provides: 1) the execution time of the service for a service inferred from the environment information and the action information stored in the distributed environment action database, and selected and executed based on the user condition; , Service history information including information regarding the status at the time of service execution, and information indicating whether or not the service has been selected as the reason for explanation, and a processing process stored in the service history information database, and 2) utterance information of the user If it is inferred that the user's utterance is a service execution reason explanation request based on the context of the service, the execution time closest to the user's utterance is determined from the service history information as the object of the reason explanation. A process of identifying one unselected service as the object of the reason explanation, and 3) before A process of generating a description of the reason for executing the specified service from service history information; and 4) performing a speech synthesis process on the reason for executing the specified service and outputting the generated voice data from the interactive robot. And a processing process.
ユーザが理由説明要求として,「どうして?」と発話するたびに,所定の期間内に実行されたサービスについて一つずつ理由説明を行う。ユーザは,知りたいサービスについての理由説明が済めば「どうして?」という発話をやめるので,理由説明が不要なサービスについて理由説明を行う必要がなくなる。 Each time the user utters “why?” As a reason explanation request, the reason explanation is given one by one for services executed within a predetermined period. When the user has finished explaining the reason for the service he / she wants to know, he / she ceases to say “Why?”, So there is no need to explain the reason for the service for which the reason explanation is unnecessary.
また,本発明は,1)前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,および前記ユーザの理由説明要求のサービス特定のための待ち受け情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,2)前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記発話時に最も近い実行時刻であって,かつ,前記ユーザ発話情報に含まれる情報と前記サービス履歴情報の待ち受け情報とが一致する一つのサービスを,前記理由説明の対象として特定する処理過程と,3)前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理過程と,4)前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える。 In addition, the present invention provides: 1) the execution time of the service for a service inferred from the environment information and the action information stored in the distributed environment action database, and selected and executed based on the user condition; A process of storing service history information in the service history information database, including information on the status of service execution, and standby information for specifying the service of the user's reason explanation request, and 2) the utterance information of the user When it is inferred that the user's utterance is a request to explain the reason for service execution based on the context, the information included in the user utterance information and the service history information are the execution time closest to the utterance Process of identifying one service with the same waiting information as the reason explanation target 3) a process for generating a description of the reason for executing the specified service from the service history information; and 4) a voice synthesis process for the description of the reason for executing the specified service. And a process of outputting from the dialogue robot.
理由説明要求と推論されたユーザの発話に含まれるキーワードを用いて理由説明の対象となるサービスを特定することによって,実行された複数のサービスのうち,ユーザが必要とするサービスの実行の理由説明だけを行うことができる。 Explanation of the reason for executing the service required by the user among the multiple services executed by specifying the service that is the target of the reason explanation using the keyword included in the user's utterance inferred as the reason explanation request. Can only do it.
また,本発明は,1)前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,2)前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,3)前記特定されたサービスが理由説明の対象であるか否かを,前記ユーザに確認する対象確認を生成する処理過程と,4)前記対象確認を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程と,5)前記対象確認に対する前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話が前記対象確認に対する肯定的応答であると推論された場合に,前記サービス履歴情報から,前記肯定的応答された対象確認に対応するサービスの実行の理由説明を生成する処理過程と,6)前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える。 In addition, the present invention provides: 1) the execution time of the service for a service inferred from the environment information and the action information stored in the distributed environment action database, and selected and executed based on the user condition; And a process of accumulating service history information including information related to service execution status in the service history information database, and 2) a request for explaining the reason for executing the service based on the context of the user's utterance information. A process of identifying a plurality of services executed within a predetermined period from the time of the user's utterance as the object of the reason explanation from the service history information when it is inferred, and 3) the specified A process of generating an object confirmation for confirming to the user whether or not the service is the object of reason explanation; 4) A process of synthesizing the object confirmation and outputting the generated speech data from the interactive robot; and 5) the user's utterance is positive for the object confirmation based on the context of the user's utterance information for the object confirmation. A process of generating a reason for executing the service corresponding to the positively acknowledged object confirmation from the service history information when it is inferred that the response is a dynamic response; And a process of outputting the generated voice data from the interactive robot.
ユーザが発話した理由説明要求に対し,理由説明の対象となるサービスを一つずつ確認し,確認したサービスの実行の理由説明だけを行うことによって,ユーザが,理由説明を所望するサービスについて確実に理由説明を行うことができる。 In response to a reason explanation request uttered by the user, by confirming the services to be explained one by one and explaining only the reason for execution of the confirmed service, the user can ensure the service for which the reason explanation is desired. The reason can be explained.
また,本発明は,前記対話ロボットを用いた理由説明サービス処理方法の各処理過程で実現される処理を行う処理装置,および,対話システムに前記処理方法を実行させるためのプログラムである。 Further, the present invention is a processing device for performing processing realized in each processing step of the reason explanation service processing method using the dialog robot, and a program for causing the dialog system to execute the processing method.
本発明の発明者によって発明された対話システムでは,ユーザがサービス実行の理由説明を要求したときに,生活支援ロボットシステムによって直前に実行された一つのサービスの実行だけについて理由説明を行っている。 In the dialogue system invented by the inventor of the present invention, when the user requests explanation of the reason for executing the service, the reason is explained only for the execution of one service executed immediately before by the life support robot system.
本発明によれば,生活支援ロボットシステムによって,1つのトリガによって同時に実行された複数のサービス,短い時間内に実行された複数のサービスがある場合に,理由説明の対象となる複数のサービスを特定し,各サービスの実行の理由説明を簡潔にまとめて,ユーザに分かりやすく提示できる理由説明サービスを提供することができる。 According to the present invention, when there are a plurality of services executed simultaneously by one trigger and a plurality of services executed within a short time by the life support robot system, a plurality of services subject to explanation of reasons are specified. In addition, it is possible to provide a reason explanation service that can concisely explain the reason for executing each service and present it to the user in an easy-to-understand manner.
図1は,本発明が実行される対話システムの構成例を示す図である。本実施例において,対話システムは,複数のユーザ3(3a,3b,3c)で構成される一家族の住宅(居住空間)に適用されたアンコンシャス型の生活支援ロボットシステム1と,ビジブル型の対話ロボット2で構成される。
FIG. 1 is a diagram showing a configuration example of a dialogue system in which the present invention is executed. In this embodiment, the dialogue system includes an unconscious life support robot system 1 applied to a family (residential space) composed of a plurality of users 3 (3a, 3b, 3c), a visible type Consists of a
生活支援ロボットシステム1は,ユビキタス環境を利用して,居住空間全体をモニタリングして,通信機能を持つ家電機器(アプライアンス)4によるサービスを実行して,自律的にユーザ3の生活を支援する。対話ロボット2は,ユーザ3の居住空間内に設置される。対話ロボット2は,自律的に移動できる機能を備えて,ユーザ3の居住空間内を自由に移動できるように構成されてもよい。図1の対話システムでは,アンコンシャス型の生活支援ロボットシステム1とビジブル型の対話ロボット2との分散協働により処理が行われる。
The life support robot system 1 uses the ubiquitous environment, monitors the entire living space, executes a service by the home appliance (appliance) 4 having a communication function, and autonomously supports the life of the
図2は,生活支援ロボットシステム1および対話ロボット2の構成例を示す図である。生活支援ロボットシステム1は,推論システム11,センサ12,分散環境行動データベース13,イベント検出装置15,サービス履歴データベース17などによって構成されている。
FIG. 2 is a diagram illustrating a configuration example of the life support robot system 1 and the
推論システム11は,推論用の知識データベースを備え,イベント検出装置15がイベントを検出すると,分散環境行動データベース13からコンテキストを取得して,居住空間内の環境,ユーザ3の動作,ユーザ3同士の相互作用(インタラクション),ユーザ3と物との相互作用などを分析し,分析結果からユーザ3の行動を推論し,結論に従って実装された生活支援のサービスのなかから実行するべきサービスを決定して,該当するアプライアンス4を制御する処理システムである。推論システム11における分析結果や推論結果は,分散環境行動データベース13に随時蓄積される。
The
推論システム11は,様々な生活支援サービスとともに,理由説明サービスが実装される。理由説明サービスは,ユーザ3から質問された場合など,所定の契機の検出にもとづいて,生活支援ロボットシステム1が提供する生活支援サービスの実行を決定した理由を,対話ロボット2を通じてユーザ3に説明するサービスである。
The
また,推論システム11は,提供した生活支援サービスに対するユーザ評価のフィードバックを行う。ユーザ評価フィードバックは,理由説明サービスによって示したサービス実行の理由に対するユーザ3の反応から,理由説明の対象となったサービスの必要性,適切性などについてのユーザ3の評価を分析し,分析結果を分散環境行動データベース13のユーザ3に固有の情報に反映させる処理である。
In addition, the
センサ12は,通信機能を備えて,ユーザ3の居住空間内の種々のデータを計測・収集し,収集したセンサ情報を分散環境行動データベース13に送信する処理手段である。センサ12は,例えば,TVカメラ,マイク,床センサ,RFIDタグ用モニタ,アプライアンス4の内部センサなどである。センサ情報は,例えば,画像データ,音声データ,圧力遷移データ,IDタグデータなどのデータである。ユーザ3が所有する物や居住空間に存在する物には,非接触型電波方式認識用の識別情報が格納されたIDタグ,例えばRFID(Radio Frequency Identification)タグが付与されているとする。
The
分散環境行動データベース13は,センサ12から取得したセンサ情報,推論システム11で分析もしくは推論された結果を蓄積し管理するデータベースシステムである。
The distributed
図3に,分散環境行動データベース13の構成例を示す。分散環境行動データベース13は,分散センサ情報データベース131,分散環境情報データベース132,分散動作情報データベース133,分散行動情報データベース134,人−物インタラクションデータベース135,人−人インタラクションデータベース136,固有情報データベース137などのデータベースシステムによって構成される。
FIG. 3 shows a configuration example of the distributed
分散センサ情報データベース131は,所定の時刻や契機ごとにセンサ12から送信された各種のセンサ情報を蓄積するデータベースである。分散環境情報データベース132は,物の位置,姿勢,居住空間の温湿度,アプライアンス4の内部状態などの環境情報を蓄積するデータベースである。例えば,ユーザ3xが勉強机に向かって本を読んでいる場合に,センサ12で計測されたセンサ情報(時刻,IDデータ,位置,画像データ,圧力データ,サービス実行部の内部センサ情報など)が推論システム11で分析され,以下のような環境情報が生成されて蓄積される。
「時刻,本のIDデータ,位置,状態(手に持たれている状態),
時刻,勉強机の電灯のIDデータ,位置,状態(点灯中),
時刻,勉強机の椅子のIDデータ,位置,状態(使用中),…。」
分散動作情報データベース133は,ユーザ3の位置,姿勢などを示す動作情報を蓄積するデータベースである。例えば,上記の例の場合に,センサ情報が推論システム11で分析され,以下のような動作情報が蓄積される。
「時刻,ユーザ3xのIDデータ,位置,姿勢(座位),…」。
The distributed
“Time, book ID data, position, status (held by hand),
Time, study desk lamp ID data, position, status (lit),
Time, study desk chair ID data, position, status (in use), ... "
The distributed
"Time, user 3x ID data, position, posture (sitting position), ...".
人−物インタラクションデータベース135は,人−物インタラクション情報を蓄積するデータベースである。人−物インタラクション情報は,相互作用が生じているユーザ3と物との組み合わせを示す情報である。例えば,上記の例の場合に,推論システム11で環境情報および動作情報が分析され,以下のような人−物インタラクション情報が蓄積される。
「人−物インタラクション0001:ユーザ3x,本,勉強机,勉強机の椅子,電灯,…。」
人−人インタラクションデータベース136は,人−人インタラクション情報を蓄積するデータベースである。人−人インタラクション情報は,インタラクションが生じているユーザ3同士の組み合わせを示す情報である。例えば,ユーザ3a(父親)とユーザ3b(娘)がソファに座って一緒にテレビを見ているとする。推論システム11で二人の動作情報(位置や姿勢など)から相互作用が分析されて,以下のような人−人インタラクション情報が蓄積される。
「人−人インタラクション0011:ユーザ3a,ユーザ3b」。
The person-
“People-things interaction 0001: user 3x, book, study desk, study desk chair, lamp,…”
The person-
“People-person interaction 0011: user 3a, user 3b”.
分散行動情報データベース134は,ユーザ3の行動を示す行動情報を蓄積するデータベースである。例えば,上記のユーザ3xの例の場合に,推論システム11で環境情報,動作情報,人−物インタラクション情報,人−人インタラクション情報などから行動情報が推論され,以下のような行動情報が蓄積される。
「ユーザ3x:読書中,勉強中,…」。
The distributed
"User 3x: reading, studying ..."
固有情報データベース137は,ユーザ3ごとの属性を示す固有情報を蓄積するデータベースである。固有情報は,ユーザ3の身体的特徴,性別などの他,推論システム11によって推論された情報(例えば,ユーザ3の嗜好に関する情報,生活支援サービスに対する必要性の有無などの情報)である。
The
イベント検出装置15は,分散環境行動データベース13の情報の更新や,対話ロボット2からのサービス実行要求を検出すると,推論システム11にイベント検出を通知する処理装置である。
The
サービス履歴データベース17は,推論システム11によって実行されたサービスごとの履歴情報を蓄積するデータベースシステムである。
The
また,サービス履歴データベース17は,分散環境行動データベース13に蓄積された環境情報および行動情報からユーザ3の状況が推論され,ユーザ3の状況にもとづいて選択・実行された生活支援サービスについて,そのサービスの実行時刻,サービス実行時の状況に関する情報などを含むサービス履歴情報を蓄積する。
In addition, the
推論システム11は,推論処理においてサービス履歴データベース17の情報も参照する。サービス履歴データベース17に蓄積されるサービス履歴情報は,実行したサービス名,サービスの実行時の状況,サービス実行の開始時刻や終了時刻などである。サービスの実行時の状況は,分散環境行動データベース13に蓄積される情報の一部であって,そのサービスの実行の決定に関係する情報,例えば,ユーザ3の位置,動作,行動などの情報である。
The
また,理由説明サービスに関連する情報として,理由説明の対象として処理されたか否かを示す情報,サービス開始時にユーザ3へサービスの実行通知を発話するために使用される,サービスを表す発話キーワード情報,ユーザ3の理由説明の要求を契機とする場合に,ユーザ3の発話から生活支援サービスを特定する待ち受けキーワードなどの情報が蓄積される。
Also, as information related to the reason explanation service, information indicating whether or not the reason explanation service has been processed, utterance keyword information representing the service used to utter a service execution notification to the
生活支援ロボットシステム1の推論システム11,分散環境行動データベース13,イベント検出装置15,サービス履歴データベース17は,既知の処理手段もしくは装置を用いて実施することが可能である。
The
アプライアンス4は,データ送受信機能を備えて,推論システム11からの制御もしくはユーザ3自身の操作により,所定のサービスを実行する家電機器である。
The appliance 4 is a home appliance that has a data transmission / reception function and executes a predetermined service by the control from the
対話ロボット2は,音声認識部21,音声合成部22,対話制御部23,対話戦略データベース24,状況情報取得部25,状況記憶部26,知識データベース27,実行要求部29などで構成されている。
The
音声認識部21は,ユーザ3が発話した音声データを入力し,入力した音声データの内容を認識してユーザ3の発話情報に変換する処理手段である。音声合成部22は,対話制御部23によって生成されたロボット発話情報を音声データに変換して発話する処理手段である。ロボット発話情報は,ユーザ3の会話に対する応答文データ,ユーザ3への問いかけのための発話文などのデータである。
The
音声認識部21および音声合成部22によって,後述する理由説明サービス処理部100によって生成された実行通知,対象確認,または理由説明などを,所定の出力順序に従って音声合成処理し,生成した音声データを出力する処理が行われる。
The
対話制御部23は,状況記憶部26に格納された情報からユーザ3の周囲の環境やユーザ3の状況を解析し,解析した状況にもとづいてユーザ3に提供するサービスを選択する処理,対話戦略データベース24の連想情報にもとづいてユーザ3の状況と関連する概念を特定し,その概念を示す言語表現を用いてロボット発話データを生成する処理を行う処理手段である。対話制御部23は,理由説明サービス処理部100を備え,サービスを選択する処理として,状況記憶部26に格納された分散環境行動データベース13およびサービス履歴データベース17の情報をもとに理由説明サービスの実行を決定する。
The
理由説明サービス処理部100は,生活支援ロボットシステム1が提供する生活支援サービスが実行された場合に,生活支援サービスを実行した理由を,ユーザ3に説明するサービス(理由説明サービス)を行う処理手段である。
The reason explanation
理由説明サービス処理部100は,サービス特定部101,理由説明生成部103,および出力順序決定部105を備える。
The reason explanation
サービス特定部101は,理由説明サービス実行の契機となる所定の状況が検出された場合に,サービス履歴データベース17を参照して,前記の状況を検出した時から所定期間内に実行された複数のサービスを理由説明の対象として特定する処理手段である。
The service specifying unit 101 refers to the
また,サービス特定部101は,ユーザ発話情報の文脈にもとづいてユーザ3の発話がサービス実行の理由説明要求であると推論された場合に,サービス履歴情報から,ユーザ3の発話時に最も近い実行時刻であって,理由説明の対象として選択されていない一つのサービスを,理由説明の対象として特定する。
In addition, when the service specifying unit 101 infers that the utterance of the
また,サービス特定部101は,サービス履歴データベース17に,待ち受けキーワードを含むサービス履歴情報が蓄積されている場合に,ユーザ3の発話時に最も近い実行時刻であって,かつ,このユーザ発話情報に含まれる情報とサービス履歴情報の待ち受け情報とが一致する一つのサービスを,前記理由説明の対象として特定する。
Further, when service history information including a standby keyword is stored in the
理由説明生成部103は,特定された複数の各生活支援サービスについて,サービス履歴データベース17のサービス履歴情報から,各サービスの実行時の状況を取得し,この生活支援サービスの実行の理由説明を生成する処理手段である。また,理由説明生成部103は,理由説明の対象として特定された各サービスについて,サービス実行を通知する実行通知を生成する。または,理由説明の対象として特定されたサービスが,理由説明の対象であるか否かをユーザ3に確認する対象確認を生成する。
The reason
なお,理由説明生成部103は,サービス特定部101によって特定された生活支援サービスの実行通知や対象確認を生成する場合に,理由説明を同時に生成しておいてもよい。
The reason
出力順序決定部105は,理由説明の対象として特定された生活支援サービスの実行時刻をもとに,生成した理由説明の出力順序を決定する処理手段である。また,出力順序決定部105は,理由説明の対象として特定されたサービス間に依存関係がある場合に,当該依存関係にあるサービスの実行の理由説明の出力順序を,これらのサービスの実行時刻の順序をもとに決定する。
The output
対話戦略データベース24は,対話ロボット2がユーザ3との対話を推論してユーザ3を自己の対話へ引き込みもしくは継続のための応答生成用の情報を蓄積するデータベースである。
The
状況情報取得部25は,分散環境行動データベース13の環境情報,動作情報,行動情報,固有情報などの情報の一部やサービス履歴データベース17のサービス履歴情報の一部を取得して状況記憶部26に格納する処理手段である。
The situation
知識データベース27は,アプライアンス4またはアプライアンス4で実行されるサービスに関する知識情報,例えば,アプライアンス4がテレビである場合の番組情報,アプライアンス4が電子レンジである場合の操作マニュアル情報などを蓄積するデータベースである。
The
実行要求部29は,対話制御部23が選択したサービス実行要求を生活支援ロボットシステム1へ送信する処理手段である。また,実行要求部29は,アプライアンス4へ直接サービス実行要求を送信してもよい。
The
本例では,対話ロボット2の音声認識部21,音声合成部22,対話制御部23は,既存の擬人化音声対話エージェントツールキット(Galatea Toolkit )により実現する(例えば,http://hil.t.u-tokyo.ac.jp/〜 galatea/galatea-jp.html, Prendinger, Helmut; Ishizuka, Mitsuru (Eds.); "Life-Like Characters Tools, Affective Functions, and Applications Series: Cognitive Technologies"; pp.187-213; 2004; ISBN:3-540-00867-5 参照)。
In this example, the
さらに,生活支援ロボットシステム1の分散環境行動データベース13,サービス履歴データベース17と,対話ロボット2の状況情報取得部25,状況記憶部26とをまとめて分散環境行動データベース13−1として構成することもできる。
Furthermore, the distributed
また,理由説明サービス処理部100を,生活支援ロボットシステム1内に構成することもできる。また,理由説明サービス処理部100の各処理部を,生活支援ロボットシステム1および対話ロボット2に分散して構成し,協働して処理を行うようにしてもよい。
In addition, the reason explanation
図4は,本発明の処理の概要を説明するための図である。 FIG. 4 is a diagram for explaining the outline of the processing of the present invention.
ステップS1〜ステップS4は種々の生活支援サービス実行の処理の流れ,ステップS5〜ステップS10は理由説明サービス実行の処理の流れ,ステップS11はユーザ評価フィードバックの処理を示す。 Steps S1 to S4 show various life support service execution processes, Steps S5 to S10 show a reason explanation service execution process, and Step S11 shows a user evaluation feedback process.
ここで,以下のような生活支援サービスは,発火条件(推論を可能とする条件)を満たすことによって実行されるとする。
「サービス名=テレビ制御;発火条件=ユーザ3がソファに座った」
「サービス名=番組推薦;発火条件=以前に見た番組に似ている番組が放映中」
「サービス名=照明制御;発火条件=部屋が設定照度より暗い」
「サービス名=空調制御;発火条件=部屋が設定温度より暑い」
理由説明サービスは,例えば「ユーザ3がソファに座っている」「ユーザ3の発話を理由説明の要求であると推論した」などの発火条件を満たすことによって実行されるとする。
Here, it is assumed that the following life support service is executed by satisfying the ignition condition (condition that enables inference).
"Service name = TV control; firing conditions =
“Service name = Program recommendation; Firing condition = Program similar to the program I watched before is on air”
"Service name = lighting control; ignition condition = room is darker than the set illuminance"
"Service name = air conditioning control; ignition conditions = room is hotter than set temperature"
It is assumed that the reason explanation service is executed by satisfying firing conditions such as “
生活支援ロボットシステム1は,センサ12から収集されるセンサ情報,対話ロボット2で収集されるユーザ3の発話情報によって,生活支援サービス実行の所定の発火条件を取得する(ステップS1)。推論システム11は,分散環境行動データベース13から取得したユーザ3の状況や対話などのコンテキストによって,ユーザ3に提供する生活支援サービス内容を決定する(ステップS2)。該当するアプライアンス4を制御して,決定した生活支援サービスを実行する(ステップS3)。さらに,決定したサービス実行についてのサービス実行履歴情報をサービス履歴データベース17に保存する(ステップS4)。
The life support robot system 1 acquires a predetermined firing condition for executing the life support service based on the sensor information collected from the
生活支援ロボットシステム1で決定された生活支援サービスが自動的に実行されると,その後,理由説明サービス実行の発火条件が満たされる(ステップS5)。例えば,ユーザ3がソファに座っている状態を検出したり,または,ユーザ3の発話「どうして?」を理由説明の要求であると推論することによって,対話ロボット2は,理由説明サービス実行の所定の発火条件を獲得する。
If the life support service determined by the life support robot system 1 is automatically executed, then the firing condition for executing the reason explanation service is satisfied (step S5). For example, by detecting that the
生活支援ロボットシステム1の推論システム11は,サービス履歴データベース17のサービス履歴情報を参照して,発火条件の検出時点より前の所定の時間内に実行された生活支援サービスを理由説明の対象として特定する(ステップS6)。対話ロボット2は,特定した生活支援サービスごとに,そのサービス履歴情報の状況などの情報を取得する(ステップS7)。取得したサービス履歴情報から理由説明を生成し,ロボット発話情報とする(ステップS8)。さらに,ロボット発話情報(理由説明文)を音声合成処理して生成した音声データをユーザ3に対して出力する(ステップS9)。
The
その後,生活支援ロボットシステム1は,実行した理由説明サービスのサービス履歴情報をサービス履歴データベース17に保存する(ステップS10)。 Thereafter, the life support robot system 1 stores the service history information of the executed reason explanation service in the service history database 17 (step S10).
ステップS9の処理で理由説明サービスが実行された際に,ユーザ3から理由説明に対する何らかの反応を獲得できた場合に,推論システム11は,ユーザ3の反応に関する情報を発火条件としてユーザ評価のフィードバックを行う(ステップS11)。
When the reason explanation service is executed in the process of step S9, if any response to the reason explanation can be obtained from the
図5は,対話システムの処理の流れの例を示す図である。 FIG. 5 is a diagram showing an example of the processing flow of the dialogue system.
対話システムの生活支援ロボットシステム1および対話ロボット2は,互いに協働して,生活支援サービス,理由説明サービス,ユーザ評価フィードバックの実行を繰り返し行う。
The life support robot system 1 and the
ステップS21:音声データ認識処理
対話ロボット2の音声認識部21は,ユーザ3が発話した音声データを検出して入力し,その音声データに音声認識処理を行って発話情報に変換する。
Step S21: Speech data recognition processing The
ステップS22:状況情報取得処理
並行して,生活支援ロボットシステム1の分散環境行動データベース13は,センサ12から取得した音声データ,画像データなどのセンサ情報を分散センサ情報データベース131に格納し,センサ情報をもとに,ユーザ3が生活する環境やユーザ3の状態,動作,行動などの状況情報を取得する。
Step S22: Status Information Acquisition Processing In parallel, the distributed
ステップS23:対話・状況推論/サービス選択処理
対話ロボット2によって収集されたユーザ3の音声データ,センサ12によって収集されたセンサ情報が分散環境行動データベース13に蓄積されると,イベント検出装置15は,分散環境行動データベース13を参照して,所定の情報の追加や変更などのイベントを検出し,推論システム11に通知する。推論システム11は,イベント検出に関連するユーザ3の発話情報,状況情報を発火条件として,ユーザ3の状況を推論し,実行可能なサービスのなかから最適なサービスを選択する。
Step S23: Dialogue / situation inference / service selection processing When the voice data of the
または,対話ロボット2の対話制御部23は,ユーザ3の発話情報を解析して文脈を推論し,推論した文脈および状況情報をもとにユーザ3の状況を推論し,実行可能なサービスの中から最適なサービスを選択するようにしてもよい。この場合に,実行要求部29は,選択したサービス実行の要求を生活支援ロボットシステム1へ通知する。
Alternatively, the
ステップS24:サービス内容決定処理
推論システム11は,選択した生活支援サービスの内容を,分散環境行動データベース13の情報を参照して決定する。
Step S24: Service Content Determination Process The
ステップS25:実行要求処理
推論システム11は,選択されたサービスを実現するためにアプライアンス4の制御情報を生成し,該当するアプライアンス4ヘ送信する。
Step S25: Execution Request Processing The
ステップS26:音声合成処理
また,実行するサービスの制御情報として,対話ロボット2のロボット発話情報がある場合には,対話ロボット2の音声合成部22は,ロボット発話情報を音声合成処理して音声データを生成し,ユーザ3に対して発話する。
Step S26: Speech synthesis processing When there is the robot utterance information of the
ステップS27:実行内容保存処理
推論システム11は,実行したサービスの内容をサービス履歴情報としてサービス履歴データベース17に保存する。
Step S27: Execution Content Storage Processing The
ステップS28:音声データ認識処理
その後,生活支援ロボットシステム1で自動的に実行されたサービスに対して,ユーザ3が「どうして?」などの発話を行って,サービス実行の理由を尋ねたとする。対話ロボット2の音声認識部21は,ユーザ3が発話した音声データを検出して入力し,入力した音声データを音声認識処理してユーザ発話情報を取得する。
Step S28: Speech data recognition processing Thereafter, it is assumed that the
ステップS29:対話・状況推論/サービス選択処理
対話制御部23では,ユーザ3の発話情報を解析して文脈を推論する。ここで,ユーザ発話情報に「どうして,なぜ」などの質問表現やサービスの実行に関係する表現が含まれている場合に,発話情報がサービス実行の理由を質問している文,すなわち「理由説明要求」であると推論する。理由説明サービス実行の発火条件として「理由説明要求の取得」が定義されていると,対話制御部23は,理由説明サービスの実行を決定する。実行要求部29は,理由説明サービス実行の要求を生活支援ロボットシステム1へ通知する。
Step S29: Dialogue / situation inference / service selection process The
ステップS30:サービス特定処理
推論システム11は,サービス履歴データベース17のサービス履歴情報を参照して,発火条件の取得(検出)時から遡った一定期間内に実行された複数の生活支援サービスを,理由説明サービスの対象として特定する。
Step S30: Service identification process The
ステップS31:理由説明文生成処理
状況情報取得部25は,特定された生活支援サービスごとに,サービス履歴情報のサービス実行時の状況などの情報を取得する。また,必要であれば,分散環境行動データベース13からユーザ3の固有情報などを取得する。対話制御部23は,サービスの実行時の状況から理由説明のキーとなるような表現を抽出して,理由説明(理由説明文)を生成し,ロボット発話情報とする。
Step S31: Reason Explanation Text Generation Processing The status
ステップS32:音声合成処理
音声合成部22は,理由説明文を音声合成処理し,生成した音声データをユーザ3に対して発話する。
Step S32: Speech Synthesis Processing The
ステップS33:実行内容保存処理
推論システム11は,理由説明サービス実行の内容をサービス履歴情報としてサービス履歴データベース17に保存する。
Step S33: Execution Content Storage Process The
ステップS34:音声データ認識処理
その後,対話ロボット2が理由説明を発話した際に,ユーザ3が「わかったよ」や「ありがとう」や「いらないよ」などの返事をしたとする。
Step S34: Speech data recognition processing After that, when the
音声認識部21は,ユーザ3の音声データ「わかったよ」を検出して入力し,音声識別処理を行って発話情報に変換する。
The
ステップS35:対話・状況推論/サービス選択処理
対話制御部23では,ユーザ3の発話情報を解析して文脈を推論する。発話情報に「わかったよ」などの肯定的な表現が含まれている場合に,この発話情報が,肯定的応答文であると推論する。そして,ユーザ評価フィードバックの処理を選択する。実行要求部29は,生活支援ロボットシステム1に,ユーザ評価フィードバック要求を通知する。
Step S35: Dialogue / Situation Reasoning / Service Selection Process The
ステップS36:フィードバック処理
推論システム11は,理由説明に対するユーザ3の応答文を,理由説明が求められたサービスに対するユーザ評価情報とみなして,理由説明にかかるサービスに対するユーザ評価を学習する。そして,この学習結果をもとに,分散環境行動データベース13の固有情報データベース137の嗜好情報などの関連する情報を修正したり,サービスの必要性の有無を示す新たな情報を追加したりする。
Step S36: Feedback Process The
例えば,「わかったよ」などの肯定的応答文から,理由説明の対象となったサービスが,ユーザ3にとって必要かつ適切なものであったと学習する。一方,「いらないよ」などの否定的応答文から,理由説明の対象となったサービスは,ユーザ3にとって不要または不適切なものであったと学習する。そして,学習結果をもとに,固有情報データベース137のユーザ3の嗜好情報やこのサービスについての評価情報を修正する。
For example, it learns from a positive response sentence such as “I understand” that the service for which the reason was explained was necessary and appropriate for the
以下に,理由説明サービスの実行処理の具体例を説明する。 A specific example of the reason explanation service execution process will be described below.
〔第1の具体例〕
図6は,第1の具体例におけるサービス履歴データベース17のデータ構成例を示す図である。サービス履歴データベース17には,サービス履歴情報として,サービスが実行された時刻を示す実行時刻,サービスの名称(サービス),サービス実行の発火条件,サービス実行時の状況などの情報(内容)などの情報が蓄積される。
[First Example]
FIG. 6 is a diagram showing a data configuration example of the
図7は,第1の具体例における理由説明サービスの処理を説明するための図である。本例では,理由説明サービスの発火条件として,「複数の生活支援サービスが,短時間(例えば数分内)に実行中,かつユーザ3がソファに座っている状況の検出」とする。
FIG. 7 is a diagram for explaining the reason explanation service process in the first specific example. In this example, the firing condition of the reason explanation service is “detection of a situation where a plurality of life support services are running in a short time (for example, within a few minutes) and the
理由説明サービスの発火条件が獲得されると,サービス特定部101は,サービス履歴情報の実行時刻から,発火条件の検出時から遡った所定の時間内に実行された複数の生活支援サービスを特定する。 When the firing condition of the reason explanation service is acquired, the service specifying unit 101 specifies a plurality of life support services executed within a predetermined time from the time when the firing condition is detected from the execution time of the service history information. .
さらに,理由説明生成部103は,各サービスについて,サービス履歴情報の内容から,理由説明に用いる情報を抽出し,理由説明のきっかけとして,実行されている生活支援サービスをユーザ3に知らせるための実行通知を生成する。例えば,図6に示すサービス履歴情報から,テレビ制御,番組推薦,照明制御,空調制御の4つの生活支援サービスが特定されたとする。ユーザ3にこれらのサービスの実行を通知するため,それぞれ「テレビをつけたよ。」,「○○番組をつけたよ。」,「照明をつけたよ。」,「エアコンをつけたよ。」の4つの実行通知が生成される。
Further, the reason
さらに,出力順序決定部105は,図6に示すサービス履歴情報の実行時刻をもとに,実行通知の出力順序を決定する。ここでは,実行時刻順を用いて出力順序を決定する。
Further, the output
音声合成部22では,ユーザ3が実行通知に対して応答できるように,所定の待機時間分の間隔(例えば,5秒〜10数秒)をとって,生成された実行通知の音声データを,出力順序に従って出力する。番組推薦サービスの実行通知「○○番組をつけたよ。」が発話された後の待機時間中に,ユーザ3の発話「どうして?」を検出したとする。この発話から「理由説明の要求」が推論されると,理由説明生成部103は,番組推薦サービスの内容から理由説明「前に見た△△に似ているからだよ。」を生成する。生成された音声データは,音声合成部22を介して出力される。所定の待機時間が経過すると,次のサービスの実行通知が,出力順序(本例では,「照明をつけたよ。」,「エアコンをつけたよ。」の順)に,所定の間隔で出力される。
The
図8は,第1の具体例における理由説明サービスの処理の流れを示す図である。センサ12から取得したセンサ情報などによって,理由説明サービスの発火条件が獲得できると(ステップS110),予め設定されているサービス実行のタイミング制御が開始される(ステップS111)。サービス履歴情報をもとに,理由説明の対象となるサービスが特定されると(ステップS112),各サービスについて,実行時の状況などの情報が獲得される(ステップS113)。 FIG. 8 is a diagram showing a flow of processing of the reason explanation service in the first specific example. When the firing condition of the reason explanation service can be acquired from the sensor information acquired from the sensor 12 (step S110), the preset timing control of the service execution is started (step S111). When the service to be explained is identified based on the service history information (step S112), information such as the status at the time of execution is acquired for each service (step S113).
そして,制御されたタイミングで,実行通知(実行通知文)が生成され,音声出力される(ステップS114)。出力された対話ロボット2の発話に対し,ユーザ3の応答があれば(ステップS115のYES),直前に出力した実行通知に対応するサービスの実行の理由説明(理由説明文)が生成され,音声出力される(ステップS116)。出力された対話ロボット2の発話に対し,ユーザ3の応答がなければ(ステップS115のNO),ステップS117の処理へ進む。
Then, at the controlled timing, an execution notification (execution notification sentence) is generated and output as a sound (step S114). If there is a response from the
そして,理由説明の対象のサービスが残っていれば(ステップS117のYES),ステップS114の処理へ戻り,理由説明の対象のサービスが残っていなければ(ステップS117のNO),理由説明サービスの内容を,サービス履歴データベース17に保存する(ステップS118)。 If there is a reason explanation target service remaining (YES in step S117), the process returns to step S114. If there is no reason explanation target service remaining (NO in step S117), the contents of the reason explanation service are returned. Is stored in the service history database 17 (step S118).
〔第2の具体例〕
図9は,第2の具体例におけるサービス履歴データベース17のデータ構成例を示す図である。図9のサービス履歴データベース17は,図6に示すサービス履歴データベース17の構成と同様である。
[Second specific example]
FIG. 9 is a diagram showing a data configuration example of the
図10は,第2の具体例における理由説明サービスの処理を説明するための図である。本例では,理由説明サービスの発火条件として,ユーザ3の発話の推論によって「理由説明の要求」を獲得した場合とする。
FIG. 10 is a diagram for explaining the reason explanation service process in the second specific example. In this example, it is assumed that “request for reason explanation” is acquired by inference of the utterance of the
ユーザ3の「どうして?」という発話から「理由説明の要求」を推論して,理由説明サービスの発火条件が獲得されると,サービス特定部101は,サービス履歴情報の実行時刻から,発火条件の検出時から遡った所定の時間内に実行された生活支援サービスを特定する。ここで,第1の具体例と同様の4つの生活支援サービスが理由説明の対象として特定される。
When the reason explanation service firing condition is acquired by inferring “reason request” from the
理由説明生成部103は,各サービスについて,サービス履歴情報の内容から,理由説明に用いる情報を抽出し,以下の理由説明を生成する。
「ソファに座ったから,テレビをつけたよ。」「前に見た△△に似ているから,○○番組をつけたよ。」「部屋が暗かったから,照明をつけたよ。」「部屋が暑かったから,エアコンをつけたよ。」
出力順序決定部105は,生活支援サービスの実行時刻の順序を用いて出力順序を決定する。理由説明は,生活支援サービスの実行時刻が古い順(逆順)に続けて出力される。図10(A)に示すように,音声合成部22は,以下の音声データを生成して出力する。
「ソファに座ったから,テレビをつけたよ。前に見た△△に似ているから,○○番組をつけたよ。部屋が暗かったから,照明をつけたよ。部屋が暑かったから,エアコンをつけたよ。」
また,出力順序決定部105は,生活支援サービスの実行時刻の逆順を用いて出力順序を決定する。理由説明は,生活支援サービスの実行時刻が新しい順に続けて出力され,図10(B)に示すように,音声合成部22は,以下の音声データを生成して出力する。
「部屋が暑かったから,エアコンをつけたよ。部屋が暗かったから,照明をつけたよ。前に見た△△に似ているから,○○番組をつけたよ。ソファに座ったから,テレビをつけたよ。」
図11は,第2の具体例におけるサービス履歴データベース17の別のデータ構成例を示す図である。図11のサービス履歴データベース17は,図6に示すサービス履歴データベース17の構成に,依存関係の有無を示す情報(依存関係)が付加されている。生活支援サービスに依存関係がある場合とは,その生活支援サービスの実行が,別の生活支援サービスの実行や内容などの状況を原因として選択された場合である。図11のサービス履歴データベース17では,番組推薦サービスは,その直前に実行されたテレビ制御サービスの内容(テレビをつけた)によって,実行するという選択が行われたことを示す。
The reason
“I sat on the couch and turned on the TV.” “Similar to the △△ I saw before, I turned on the XX program.” “The room was dark, so the lights were turned on.” “The room was hot. I turned on the air conditioner. "
The output
“I sat down on the couch and turned on the TV. It was similar to the △△ I saw before, so I turned on the XX program. The room was dark, so I turned on the lights. The room was hot, so I turned on the air conditioner. "
Further, the output
"I turned on the air conditioner because the room was hot. I turned on the light because the room was dark. It was similar to the △△ I saw earlier, so I turned on the XX program. I sat on the couch and turned on the TV. "
FIG. 11 is a diagram showing another data configuration example of the
出力順序決定部105は,サービス履歴情報の依存関係を調べて,依存関係がない生活支援サービスについてはその実行時刻の逆順に並べ,依存関係を持つ生活支援サービスについては実行時刻の順序にして出力順序とする。図12は,第2の具体例における理由説明サービスの処理を説明するための図ではあるが,この図12に示すように,音声合成部22は,以下の音声データを生成して出力する。
「部屋が暑かったから,エアコンをつけたよ。部屋が暗かったから,照明をつけたよ。ソファに座ったから,テレビをつけたよ。前に見た△△に似ているから,○○番組をつけたよ。」
図13は,第2の具体例における理由説明サービスの処理の流れを示す図である。センサ12から取得したセンサ情報などによって理由説明サービスの発火条件が獲得されると(ステップS120),発火条件となる状況の検出時から遡った所定の期間内に実行されたサービスであって,理由説明サービス以外の生活支援サービスが理由説明の対象として特定される(ステップS121)。特定された各サービスについて,実行時の状況などの情報が取得される(ステップS122)。理由説明(理由説明文)が生成され,所定の出力順序で音声出力される(ステップS123)。理由説明サービスの内容を,サービス履歴データベース17に保存する(ステップS124)。
The output
“I turned on the air conditioner because the room was hot. I turned on the light because the room was dark. I sat on the couch and turned on the TV. It was similar to the △△ I saw earlier, so I turned on the XX program. "
FIG. 13 is a diagram showing a flow of processing of the reason explanation service in the second specific example. When the firing condition of the reason explanation service is acquired from the sensor information acquired from the sensor 12 (step S120), the service is executed within a predetermined period retroactive from the detection of the situation that becomes the firing condition. A life support service other than the explanation service is specified as the reason explanation target (step S121). Information such as the status at the time of execution is acquired for each identified service (step S122). A reason explanation (reason explanation) is generated and output as a voice in a predetermined output order (step S123). The contents of the reason explanation service are stored in the service history database 17 (step S124).
〔第3の具体例〕
図14は,第3の具体例におけるサービス履歴データベース17のデータ構成例を示す図である。図14のサービス履歴データベース17には,図6に示すサービス履歴データベース17の構成に,その生活支援サービスが理由説明の対象となったことを示すフラグ情報(実行済フラグ)が付加されている。ここでは,空調制御サービスを理由説明の対象とする理由説明サービスが「実行済み」であることを示している。
[Third example]
FIG. 14 is a diagram showing a data configuration example of the
図15は,第3の具体例における理由説明サービスの処理を説明するための図である。本例では,理由説明サービスの発火条件は,第2の具体例の場合と同様である。ユーザ3が「どうして?」と発話するたびに,一つの生活支援サービスについて実行の理由説明が行われる。
FIG. 15 is a diagram for explaining the reason explanation service process in the third specific example. In this example, the reasoning service firing conditions are the same as in the second specific example. Each time the
ユーザ3の発話「どうして?」を検出して,理由説明サービスの発火条件が獲得されると,サービス特定部101は,サービス履歴情報の実行時刻から,発火条件となった状況の検出時に最も近い実行時刻に実行された理由説明サービス以外の生活支援サービスであって,実行済みフラグが設定されていないサービスを,理由説明の対象として特定し,特定したサービスに実行済フラグを設定する。 When the user's 3 utterance “why?” Is detected and the reasoning service firing condition is acquired, the service specifying unit 101 is closest to the time when the condition that caused the firing condition is detected from the execution time of the service history information. A service that is a life support service other than the reason explanation service executed at the execution time and for which the executed flag is not set is identified as the reason explanation target, and the executed flag is set for the identified service.
図14に示すサービス履歴情報で,発火条件となった状況の検出時に直近の実行時刻の生活支援サービスは「空調制御」である。しかし「空調制御」には実行済フラグが設定され,既に理由説明の対象となっている。そこで,その次に近い実行時刻の「照明制御」が理由説明の対象として特定される。 In the service history information shown in FIG. 14, the life support service at the most recent execution time at the time of detecting the situation that has become the firing condition is “air conditioning control”. However, an “executed” flag is set in “air conditioning control”, and the reason has already been explained. Therefore, the “lighting control” at the next execution time is specified as the object of the reason explanation.
理由説明生成部103は,図16に示すように,特定された照明制御サービスについて,サービス履歴情報の内容から,理由説明に用いる情報を抽出して,以下の理由説明を生成する。
「部屋が暗かったから,照明をつけたよ。」
さらに,ユーザ3が,ユーザ3の発話「どうして?」を検出して,理由説明サービスの実行が開始されると,サービス特定部101は,サービス履歴情報から,同様にして「番組推薦」を理由説明対象として特定する。
As shown in FIG. 16, the reason
“I turned on the lights because the room was dark.”
Further, when the
理由説明生成部103は,図16に示すように,特定された「番組推薦」について,サービス履歴情報の内容から,理由説明に用いる情報を抽出して,以下の理由説明を生成する。
「前に見た△△に似ているから,○○番組をつけたよ。」
図16は,第3の具体例における理由説明サービスの処理の流れを示す図である。センサ12から取得したセンサ情報などによって,理由説明サービスの発火条件が獲得されると(ステップS130),発火条件となる状況の検出時において,直近の実行時刻に実行されたサービスを取得し(ステップS131),サービスの種類が判定される(ステップS132)。そのサービスが生活支援サービスであれば(ステップS132のYES),ステップS133の処理に進む。そのサービスが生活支援サービスでなければ(ステップS132のNO),ステップS131の処理へ戻り,次に直近となるサービスが取得される。
As illustrated in FIG. 16, the reason
“Since it looks like the △△ I saw before, I put on a XX program.”
FIG. 16 is a diagram showing a flow of processing of the reason explanation service in the third specific example. When the firing condition of the reason explanation service is acquired from the sensor information obtained from the sensor 12 (step S130), the service executed at the most recent execution time is obtained when the situation that becomes the firing condition is detected (step S130). S131), the type of service is determined (step S132). If the service is a life support service (YES in step S132), the process proceeds to step S133. If the service is not a life support service (NO in step S132), the process returns to step S131, and the next closest service is acquired.
ステップS133では,実行済みフラグが設定されているか否かを調べられ,実行済みフラグが設定されていれば(ステップS133のYES),ステップS131の処理へ戻る。実行済フラグが設定されていなければ(ステップS133のNO),理由説明の対象として特定され,そのサービスに実行済フラグが設定される(ステップS134)。特定された各サービスについて,実行時の状況などの情報が獲得される(ステップS135)。理由説明(理由説明文)が生成され,音声出力される(ステップS136)。理由説明サービスの内容が,サービス履歴データベース17に保存される(ステップS137)。 In step S133, it is checked whether or not the executed flag is set. If the executed flag is set (YES in step S133), the process returns to step S131. If the executed flag is not set (NO in step S133), it is specified as the reason for explanation and the executed flag is set for the service (step S134). Information such as the status at the time of execution is acquired for each identified service (step S135). A reason explanation (reason explanation) is generated and output as a voice (step S136). The contents of the reason explanation service are stored in the service history database 17 (step S137).
〔第4の具体例〕
図17は,第4の具体例におけるサービス履歴データベース17のデータ構成例を示す図である。図17のサービス履歴データベース17には,図6に示すサービス履歴データベース17の構成に,生活支援サービスへの理由説明の要求において使用される可能性がある語,語句などの待ち受けキーワードが付加されている。例えば,テレビ制御サービスに「テレビ」,番組推薦サービスに「番組」,照明制御サービスに「照明,灯り」,空調制御サービスに「エアコン,空調」などの待ち受けキーワードが設定される。
[Fourth example]
FIG. 17 is a diagram illustrating a data configuration example of the
図18は,第4の具体例における理由説明サービスの処理を説明するための図である。本例では,理由説明サービスの発火条件は,第2の具体例と同様である。ユーザ3の「どうして照明がついたの?」という発話によって,理由説明を要求する具体的なサービスを指摘して理由説明を要求すると,指摘された生活支援サービスについて実行の理由が説明される。
FIG. 18 is a diagram for explaining the reason explanation service process in the fourth specific example. In this example, the reasoning service firing conditions are the same as in the second specific example. When the
ここで,センサ情報として,ユーザ3の発話「どうしてこの番組を推薦したの?」を検出し,このユーザ発話情報として得た「どうして,番組,推薦」などの語句から,サービス実行の理由説明の要求であることと,その要求の対象が「番組推薦」についてのサービスであることを推論する。
Here, as the sensor information, the
サービス特定部101は,サービス履歴情報の待ち受けキーワードが,ユーザ発話情報から得られた語句と一致する生活支援サービスを,理由説明の対象として特定する。理由説明生成部103は,図18に示すように,特定された番組推薦サービスについて,サービス履歴情報の内容から,理由説明に用いる情報を抽出して,以下の理由説明を生成する。
「前に見た△△に似ているからだよ。」
図19は,第4の具体例における理由説明サービスの処理の流れを示す図である。センサ12から取得したセンサ情報などによって,理由説明サービスの発火条件が獲得されると(ステップS140),発火条件となったユーザ3の発話(ユーザ発話情報)から,発話内容のキーとなる語,語句が抽出される(ステップS141)。さらに,発火条件となる状況の検出時より前に実行されたサービスの待ち受けキーワードと,ステップS141で抽出された語,語句とのマッチングが行われ,待ち受けキーワードが,抽出された語,語句と一致または類似するサービスが抽出され,理由説明の対象として特定される(ステップS142)。特定された各サービスについて,実行時の状況などの情報が獲得される(ステップS143)。理由説明(理由説明文)が生成され,所定の出力順序で音声出力される(ステップS144)。理由説明サービスの内容を,サービス履歴データベース17に保存する(ステップS145)。
The service specifying unit 101 specifies a life support service in which the standby keyword of the service history information matches the word / phrase obtained from the user utterance information as a target for explaining the reason. As illustrated in FIG. 18, the reason
“Because it looks like the △△ I saw before.”
FIG. 19 is a diagram illustrating a flow of processing of the reason explanation service in the fourth specific example. When the firing condition of the reason explanation service is acquired by the sensor information obtained from the sensor 12 (step S140), the word that is the key of the utterance content from the utterance (user utterance information) of the
〔第5の具体例〕
図20は,第5の具体例におけるサービス履歴データベース17のデータ構成例を示す図である。図20のサービス履歴データベース17には,図6に示すサービス履歴データベース17の構成に,対話ロボット2が理由説明の対象をユーザ3に確認するための発話に使用される,生活支援サービスへの内容を示す語,語句などの発話キーワードが付加されている。例えば,テレビ制御サービスに「テレビ」,番組推薦サービスに「番組推薦」,照明制御サービスに「照明」,空調制御サービスに「空調」などの発話キーワードが設定される。
[Fifth Example]
FIG. 20 is a diagram illustrating a data configuration example of the
図21は,第5の具体例における理由説明サービスの処理を説明するための図である。本例では,理由説明サービスの発火条件は,第2の具体例と同様である。ユーザ3の発話「どうして?」を検出して,理由説明サービスの発火条件が獲得されると,検出時から遡った所定の期間内に実行された複数の生活支援サービスが特定される。そして,特定したサービスが理由説明の対象であるかどうかがユーザ3に順番に確認されて,ユーザ3が確認した生活支援サービスの実行の理由が説明される。
FIG. 21 is a diagram for explaining the reason explanation service process in the fifth specific example. In this example, the reasoning service firing conditions are the same as in the second specific example. When the utterance “why?” Of the
サービス特定部101は,サービス履歴情報の実行時刻から,発火条件となった状況の検出時に最も近い実行時刻に実行された生活支援サービスを理由説明の対象として特定する。理由説明生成部103は,図21に示すように,特定された生活支援サービスについて,サービス履歴情報の各生活支援サービスの発話キーワードを用いて,理由説明の対象を確認する対象確認(対象確認文)を生成する。
「空調ですか?」「照明ですか?」「番組推薦ですか?」「テレビですか?」
音声合成部22は,出力順序決定部105が決定した出力順序にしたがって,実行時刻が新しい生活支援サービスから一つずつ,対象確認文の音声データを出力する。
The service specifying unit 101 specifies, from the execution time of the service history information, the life support service executed at the execution time closest to the detection of the situation that is the firing condition, as the reason explanation target. As shown in FIG. 21, the reason
“Air conditioning?” “Lighting?” “Program recommendation?” “TV?”
The
理由説明生成部103は,出力された対象確認に対するユーザ3の発話をもとに,ユーザ3の対象確認に対する応答が,例えば「違うよ。」などの否定的応答である場合に,次の対象確認を出力する。一方,ユーザ3の応答が,例えば「そうだよ。」などの肯定的応答である場合に,その肯定的応答を促した対象確認のサービスの実行の理由説明(理由説明文)を生成する。音声合成部22は,生成された理由説明文の音声データを出力する。
Based on the utterance of the
図21の例では,対象確認の「空調ですか?」という出力に対して,ユーザ3の発話「違うよ。」は否定的応答であると推論したので,次の対象確認「照明ですか?」が出力される。これに対するユーザ3の発話も否定的応答であると推論すると,同様に,さらに次の対象確認「番組推薦ですか?」が出力される。この対象確認「番組推薦ですか?」に対するユーザ3の発話「そうだよ。」が肯定的応答であると推論されると,番組推薦サービスの実行の理由説明「前に見た△△に似ているからだよ。」が生成されて,出力される。
In the example of FIG. 21, since it is inferred that
なお,図21に図示しないが,さらに,次の対象確認「テレビですか?」を出力して,上記と同様の処理を行うようにしてもよい。 Although not shown in FIG. 21, it is also possible to output the next target confirmation “TV?” And perform the same processing as described above.
図22は,第5の具体例における理由説明サービスの処理の流れを示す図である。センサ12から取得したセンサ情報などによって,理由説明サービスの発火条件が獲得されると(ステップS150),発火条件となる状況の検出時から遡って所定の期間内に実行された理由説明サービス以外の生活支援サービスが,理由説明の対象として特定される(ステップS151)。特定された各サービスについて,サービス履歴情報の発話キーワードが取得される(ステップS152)。各サービスの発話キーワードをもとに,対象確認(対象確認文)が生成され,音声出力される(ステップS153)。出力された対象確認に対するユーザ3の発話が,肯定的応答であるか否かが推論される(ステップS154)。ユーザ3の発話が肯定的応答であれば(ステップS154のYES),その対象確認文にかかるサービスの実行の理由説明(理由説明文)が生成され,音声出力される(ステップS155)。そして,対象確認を行う次のサービスがあれば(ステップS156のYES),ステップS153の処理へ戻り,特定されている次の生活支援サービスの対象確認を行う。対象確認を行う次のサービスがなければ(ステップS156のNO),理由説明サービスの内容を,サービス履歴データベース17に保存する(ステップS157)。また,ユーザ3の発話が肯定的応答でなければ(ステップS154のNO),理由説明サービスの内容を,サービス履歴データベース17に保存する(ステップS157)。
FIG. 22 is a diagram showing the flow of processing of the reason explanation service in the fifth specific example. When the firing condition of the reason explanation service is acquired from the sensor information acquired from the sensor 12 (step S150), the reason explanation service other than the reason explanation service executed within a predetermined period is detected retroactively from the detection of the situation that becomes the firing condition. The life support service is specified as the reason explanation target (step S151). An utterance keyword of service history information is acquired for each identified service (step S152). Based on the utterance keyword of each service, a target confirmation (target confirmation sentence) is generated and output as a voice (step S153). It is inferred whether or not the utterance of the
なお,第1〜第5の実施例において,理由説明サービスが実行されている間に,ユーザ3から「いらないよ。」「もういいよ。」などの否定的応答される発話があり,このユーザ発話情報から「理由説明サービスの中止の要求」が推論された場合には,実行中の理由説明サービスが中止される。
In the first to fifth embodiments, while the reason explanation service is being executed, there is an utterance that is negatively answered by the
以上,本発明をその実施の形態により説明したが,本発明はその主旨の範囲において種々の変形が可能であることは当然である。 While the present invention has been described above with reference to the embodiments, it is obvious that the present invention can be variously modified within the scope of the gist thereof.
本実施例において,説明の簡略のために,一人のユーザ3の場合の処理について説明したが,本発明は,複数のユーザの場合にも,各ユーザに対する処理として実施することができる。この場合に,サービス履歴情報に,生活支援サービスがどのユーザに向けて提供されたものであるかを示す情報が蓄積されるようにする。
In the present embodiment, for the sake of simplicity of explanation, the processing for a
また,本発明は,コンピュータにより読み取られ実行されるプログラムとして実施することができるが,本発明を実現するプログラムは,コンピュータが読み取り可能な,可搬媒体メモリ,半導体メモリ,ハードディスクなどの適当な記録媒体に格納することができ,これらの記録媒体に記録して提供され,または,通信インタフェースを介して種々の通信網を利用した送受信により提供されるものである。 In addition, the present invention can be implemented as a program that is read and executed by a computer. However, a program that realizes the present invention is an appropriate record such as portable medium memory, semiconductor memory, and hard disk that can be read by a computer. It can be stored in a medium, provided by being recorded on these recording media, or provided by transmission / reception using various communication networks via a communication interface.
1 生活支援ロボットシステム
11 推論システム
12 センサ
13 分散環境行動データベース
15 イベント検出装置
17 サービス履歴データベース
2 対話ロボット
100 理由説明サービス処理部
101 サービス特定部
103 理由説明生成部
105 出力順序決定部
21 音声認識部
22 音声合成部
23 対話制御部
24 対話戦略データベース
25 状況情報取得部
26 状況記憶部
27 知識データベース
29 実行要求部
3 ユーザ
4 アプライアンス
DESCRIPTION OF SYMBOLS 1 Life
Claims (18)
前記分散環境行動データベースに蓄積された環境情報および行動情報から推論された前記ユーザの状況にもとづいてサービスが実行された場合に,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,
前記サービスが実行された理由説明のための所定の状況が検出された場合に,前記サービス履歴情報データベースから,前記検出時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,
前記特定された各サービスについて,前記サービス実行を通知する実行通知を生成する処理過程と,
前記特定された各サービスの実行時刻をもとに前記実行通知の出力順序を決定する処理過程と,
前記実行通知を前記出力順序に従って音声合成処理し,生成した音声データを所定の応答待機期間の間隔に応じて前記対話ロボットから出力する処理過程と,
前記実行通知後の所定の応答待機期間に検出された前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記実行通知に対応するサービスのサービス履歴情報をもとに,当該サービスの実行の理由説明を生成する処理過程と,
前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理方法。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu runs, a processing method for describing the execution reason service the life support robot system is provided,
A service history including information on the execution time of the service and the status at the time of service execution when the service is executed based on the status of the user inferred from the environmental information and the behavior information stored in the distributed environment behavior database A process of storing information in the service history information database;
When a predetermined situation for explaining the reason why the service is executed is detected, a plurality of services executed within a predetermined period from the time of detection are selected as the object of the reason explanation from the service history information database. Process to identify,
A process of generating an execution notification for notifying the execution of the service for each identified service;
A process of determining the output order of the execution notifications based on the execution time of each identified service;
A process of synthesizing the execution notification according to the output order and outputting the generated voice data from the interactive robot according to a predetermined response waiting period interval;
Corresponds to the execution notification when it is inferred that the user's utterance is a service execution reason explanation request based on the context of the user's utterance information detected during a predetermined response waiting period after the execution notification. Based on the service history information of the service, a process for generating a description of the reason for executing the service,
A reason explanation service processing method using a dialog robot, comprising: a process of performing voice synthesis processing on the reason explanation and outputting the generated voice data from the dialog robot.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,
前記特定された各サービスについて,当該サービスの実行の理由説明を生成する処理過程と,
前記特定された各サービスの実行時刻をもとに前記理由説明の出力順序を決定する処理過程と,
前記理由説明を前記出力順序に従って音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理方法。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu runs, a processing method for describing the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status A process of storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. The process of identifying the service of the subject as the subject of the reason explanation,
For each identified service, a process of generating a description of the reason for executing the service;
A process of determining an output order of the explanation of reasons based on an execution time of each identified service;
A reason explanation service processing method using a dialog robot, comprising: a process of performing voice synthesis processing on the reason explanation according to the output order, and outputting the generated voice data from the dialog robot.
前記出力順序を決定する処理過程では,前記特定されたサービス間に前記依存関係がある場合に,当該依存関係にあるサービスの実行の理由説明の出力順序を,当該サービスの実行時刻の順序をもとに決定する
ことを特徴とする請求項2に記載の対話ロボットを用いた理由説明サービス処理方法。 In the process of storing the service history information, as the service history information, dependency relationships between executed services are stored in the service history information database;
In the process of determining the output order, when there is the dependency relationship between the identified services, the output order of the explanation of the reason for executing the service having the dependency relationship is set to the execution time order of the service. The reason explanation service processing method using the dialogue robot according to claim 2, wherein the reason explanation service processing method is used.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,およびサービスが理由説明の対象として選択されたか否かを示す情報を含むサービス履歴情報および前記サービス履歴情報データベースに蓄積する処理過程と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時に最も近い実行時刻であって,前記理由説明の対象として選択されていない一つのサービスを,前記理由説明の対象として特定する処理過程と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理過程と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理方法。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu runs, a processing method for describing the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status , And service history information including information indicating whether or not the service has been selected as a reason explanation target, and a process of storing in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance is obtained from the service history information, and A process of identifying one service not selected as the reason for explanation as a reason for explanation;
A process of generating a description of the reason for execution of the identified service from the service history information;
A reason explanation service processing method using a dialog robot, comprising: a voice synthesis process for explaining the reason for execution of the specified service and outputting the generated voice data from the dialog robot.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,および前記ユーザの理由説明要求のサービス特定のための待ち受け情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記ユーザの発話時に最も近い実行時刻であって,かつ,前記ユーザの発話情報に含まれる情報と前記サービス履歴情報の待ち受け情報とが一致する一つのサービスを,前記理由説明の対象として特定する処理過程と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理過程と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理方法。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu runs, a processing method for describing the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status And a process of storing service history information including standby information for specifying the service of the user's reason explanation request in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance and the user's utterance information A process of identifying, as the object of the reason explanation, one service in which the information included in the service information and the standby information of the service history information match,
A process of generating a description of the reason for execution of the identified service from the service history information;
A reason explanation service processing method using a dialog robot, comprising: a voice synthesis process for explaining the reason for execution of the specified service and outputting the generated voice data from the dialog robot.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理過程と,
前記特定されたサービスが理由説明の対象であるか否かを,前記ユーザに確認する対象確認を生成する処理過程と,
前記対象確認を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程と,
前記対象確認に対する前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話が前記対象確認に対する肯定的応答であると推論された場合に,前記サービス履歴情報から,前記肯定的応答された対象確認に対応するサービスの実行の理由説明を生成する処理過程と,
前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理過程とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理方法。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu runs, a processing method for describing the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status A process of storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. The process of identifying the service of the subject as the subject of the reason explanation,
A process of generating an object confirmation for confirming to the user whether the identified service is an object of reason explanation;
A process of synthesizing the target confirmation and outputting the generated voice data from the interactive robot;
When it is inferred that the user's utterance is an affirmative response to the target confirmation based on the context of the user's utterance information for the target confirmation, the service confirmation information is used for the positively confirmed target confirmation. A process of generating a description of the reason for executing the corresponding service;
A reason explanation service processing method using a dialog robot, comprising: a process of performing voice synthesis processing on the reason explanation and outputting the generated voice data from the dialog robot.
前記分散環境行動データベースに蓄積された環境情報および行動情報から推論された前記ユーザの状況にもとづいてサービスが実行された場合に,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理手段と,
前記サービスが実行された理由説明のための所定の状況が検出された場合に,前記サービス履歴情報データベースから,前記検出時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理手段と,
前記特定された各サービスについて,前記サービス実行を通知する実行通知を生成し,前記実行通知後の所定の応答待機期間に検出された前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記実行通知に対応するサービスのサービス履歴情報をもとに,当該サービスの実行の理由説明を生成する処理手段と,
前記特定された各サービスの実行時刻をもとに前記実行通知の出力順序を決定する処理手段と,
前記対話ロボットから,前記実行通知を前記出力順序に従って音声合成処理し,生成した音声データを所定の応答待機期間の間隔に応じて出力し,前記理由説明を音声合成処理し,生成した音声データを出力する処理手段とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理装置。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu comprises, a processing apparatus for explaining the execution reason service the life support robot system is provided,
A service history including information on the execution time of the service and the status at the time of service execution when the service is executed based on the status of the user inferred from the environmental information and the behavior information stored in the distributed environment behavior database Processing means for storing information in the service history information database;
When a predetermined situation for explaining the reason why the service is executed is detected, a plurality of services executed within a predetermined period from the time of detection are selected as the object of the reason explanation from the service history information database. Processing means to identify;
For each identified service, an execution notification for notifying the execution of the service is generated, and the user's utterance is a service based on the context of the user's utterance information detected during a predetermined response waiting period after the execution notification. Processing means for generating a reason for executing the service based on service history information of the service corresponding to the execution notification when it is inferred that the request is an explanation of the reason for execution;
Processing means for determining the output order of the execution notifications based on the execution time of each identified service;
From the interactive robot, the execution notification is subjected to speech synthesis processing according to the output order, the generated speech data is output according to a predetermined response waiting period interval, the reason explanation is speech synthesized, and the generated speech data is A reason explanation service processing apparatus using a dialogue robot, characterized by comprising: a processing means for outputting.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理手段と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理手段と,
前記特定された各サービスについて,当該サービスの実行の理由説明を生成する処理手段と,
前記特定された各サービスの実行時刻をもとに前記理由説明の出力順序を決定する処理手段と,
前記理由説明を前記出力順序に従って音声合成処理し,生成した音声データを前記対話ロボットから出力する処理手段とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理装置。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu comprises, a processing apparatus for explaining the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status Processing means for storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. A processing means for identifying the service as the object of the reason explanation,
Processing means for generating an explanation of the reason for executing the service for each identified service;
Processing means for determining an output order of the explanation of reasons based on execution times of the specified services;
A reason explanation service processing apparatus using a dialogue robot, comprising: processing means for performing voice synthesis processing on the reason explanation according to the output order and outputting the generated voice data from the dialogue robot.
前記出力順序を決定する処理手段は,前記特定されたサービス間に前記依存関係がある場合に,当該依存関係にあるサービスの実行の理由説明の出力順序を,当該サービスの実行時刻の順序をもとに決定する
ことを特徴とする請求項8に記載の対話ロボットを用いた理由説明サービス処理装置。 The processing means for accumulating the service history information accumulates dependencies between executed services in the service history information database as the service history information.
The processing means for determining the output order includes the output order of the explanation of the reason for executing the service having the dependency relation, and the execution time order of the service when the specified service has the dependency relation. The reason explanation service processing apparatus using the dialog robot according to claim 8, wherein the reason explanation service processing apparatus is used.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,およびサービスが理由説明の対象として選択されたか否かを示す情報を含むサービス履歴情報および前記サービス履歴情報データベースに蓄積する処理手段と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時に最も近い実行時刻であって,前記理由説明の対象として選択されていない一つのサービスを,前記理由説明の対象として特定する処理手段と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理手段と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理手段とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理装置。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu comprises, a processing apparatus for explaining the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status , And service history information including information indicating whether or not the service has been selected as a reason explanation target, and processing means for accumulating in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance is obtained from the service history information, and Processing means for identifying one service not selected as the reason explanation target as the reason explanation target;
Processing means for generating a description of the reason for execution of the identified service from the service history information;
A reason explanation service processing apparatus using a dialog robot, comprising: processing means for performing a speech synthesis process on the reason for executing the specified service and outputting the generated voice data from the dialog robot.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,および前記ユーザの理由説明要求のサービス特定のための待ち受け情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理手段と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記ユーザの発話時に最も近い実行時刻であって,かつ,前記ユーザの発話情報に含まれる情報と前記サービス履歴情報の待ち受け情報とが一致する一つのサービスを,前記理由説明の対象として特定する処理手段と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理手段と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理手段とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理装置。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu comprises, a processing apparatus for explaining the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status And processing means for storing in the service history information database service history information including standby information for service identification of the user's reason explanation request,
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance and the user's utterance information Processing means for identifying, as the reason explanation target, one service in which the information included in the service information and the standby information of the service history information match,
Processing means for generating a description of the reason for execution of the identified service from the service history information;
A reason explanation service processing apparatus using a dialog robot, comprising: processing means for performing a speech synthesis process on the reason for executing the specified service and outputting the generated voice data from the dialog robot.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理手段と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理手段と,
前記特定されたサービスが理由説明の対象であるか否かを,前記ユーザに確認する対象確認を生成し,前記対象確認に対する前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話が前記対象確認に対する肯定的応答であると推論された場合に,前記サービス履歴情報から,前記肯定的応答された対象確認に対応するサービスの実行の理由説明を生成する処理手段と,
前記対話ロボットから,前記対象確認を音声合成処理し,生成した音声データを出力し,前記理由説明を音声合成処理し,生成した音声データを出力する処理手段とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理装置。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. Temu comprises, a processing apparatus for explaining the execution reason service the life support robot system is provided,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status Processing means for storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. A processing means for identifying the service as the object of the reason explanation,
A target confirmation is generated to confirm to the user whether or not the identified service is a target of reason explanation, and the user's utterance is determined based on a context of the user's utterance information with respect to the target confirmation. Processing means for generating, from the service history information, a reason for executing the service corresponding to the positively confirmed target confirmation when it is inferred that the response is a positive response to
A dialogue robot comprising: processing means for performing voice synthesis processing on the target confirmation from the dialogue robot, outputting the generated voice data, performing voice synthesis processing on the explanation of the reason, and outputting the generated voice data. Reason explanation service processing device using
前記分散環境行動データベースに蓄積された環境情報および行動情報から推論された前記ユーザの状況にもとづいてサービスが実行された場合に,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理と,
前記サービスが実行された理由説明のための所定の状況が検出された場合に,前記サービス履歴情報データベースから,前記検出時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理と,
前記特定された各サービスについて,前記サービス実行を通知する実行通知を生成する処理と,
前記特定された各サービスの実行時刻をもとに前記実行通知の出力順序を決定する処理と,
前記実行通知を前記出力順序に従って音声合成処理し,生成した音声データを所定の応答待機期間の間隔に応じて前記対話ロボットから出力する処理と,
前記実行通知後の所定の応答待機期間に検出された前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記実行通知に対応するサービスのサービス履歴情報をもとに,当該サービスの実行の理由説明を生成する処理と,
前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理とを,
実行させるための
対話ロボットを用いた理由説明サービス処理プログラム。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. In Temu,
A service history including information on the execution time of the service and the status at the time of service execution when the service is executed based on the status of the user inferred from the environmental information and the behavior information stored in the distributed environment behavior database Storing information in the service history information database;
When a predetermined situation for explaining the reason why the service is executed is detected, a plurality of services executed within a predetermined period from the time of detection are selected as the object of the reason explanation from the service history information database. Processing to identify,
Processing for generating an execution notification for notifying the execution of the service for each identified service;
A process for determining the output order of the execution notifications based on the execution time of each identified service;
A process of performing speech synthesis processing on the execution notification according to the output order, and outputting the generated voice data from the interactive robot according to a predetermined response waiting period interval;
Corresponds to the execution notification when it is inferred that the user's utterance is a service execution reason explanation request based on the context of the user's utterance information detected during a predetermined response waiting period after the execution notification. A process for generating a description of the reason for executing the service based on the service history information of the service;
Processing the speech explanation for the reason explanation and outputting the generated speech data from the interactive robot;
Reason explanation service processing program using a dialogue robot for execution.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理と,
前記特定された各サービスについて,当該サービスの実行の理由説明を生成する処理と,
前記特定された各サービスの実行時刻をもとに前記理由説明の出力順序を決定する処理と,
前記理由説明を前記出力順序に従って音声合成処理し,生成した音声データを前記対話ロボットから出力する処理とを,
実行させるための
対話ロボットを用いた理由説明サービス処理プログラム。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. In Temu,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status Storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. The process of identifying the service of the subject as the object of the reason explanation,
For each identified service, a process for generating a description of the reason for executing the service;
A process for determining the output order of the explanation of reasons based on the execution time of each identified service;
A process of synthesizing the explanation of the reason according to the output order and outputting the generated voice data from the interactive robot;
Reason explanation service processing program using a dialogue robot for execution.
前記出力順序を決定する処理では,前記特定されたサービス間に前記依存関係がある場合に,当該依存関係にあるサービスの実行の理由説明の出力順序を,当該サービスの実行時刻の順序をもとに決定する処理を,
実行させるための
請求項14に記載の対話ロボットを用いた理由説明サービス処理プログラム。 In the process of storing the service history information, as the service history information, dependency relationships between executed services are stored in the service history information database;
In the process of determining the output order, when there is the dependency relationship between the identified services, the output order of the explanation of the reason for executing the service in the dependency relationship is determined based on the execution time order of the service. The process to determine
A reason explanation service processing program using the dialogue robot according to claim 14 for execution.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,およびサービスが理由説明の対象として選択されたか否かを示す情報を含むサービス履歴情報および前記サービス履歴情報データベースに蓄積する処理と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時に最も近い実行時刻であって,前記理由説明の対象として選択されていない一つのサービスを,前記理由説明の対象として特定する処理と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理とを,
実行させるための
対話ロボットを用いた理由説明サービス処理プログラム。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. In Temu,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status , And service history information including information indicating whether or not the service has been selected as a reason explanation target, and a process of accumulating in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance is obtained from the service history information, and A process of identifying one service not selected as the reason explanation target as the reason explanation target;
Processing for generating an explanation of the reason for execution of the identified service from the service history information;
A process of performing a speech synthesis process on the reason for executing the identified service and outputting the generated voice data from the interactive robot;
Reason explanation service processing program using a dialogue robot for execution.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻,サービス実行時の状況に関する情報,および前記ユーザの理由説明要求のサービス特定のための待ち受け情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記ユーザの発話時に最も近い実行時刻であって,かつ,前記ユーザの発話情報に含まれる情報と前記サービス履歴情報の待ち受け情報とが一致する一つのサービスを,前記理由説明の対象として特定する処理と,
前記サービス履歴情報から,前記特定されたサービスの実行の理由説明を生成する処理と,
前記特定されたサービスの実行の理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理とを,
実行させるための
対話ロボットを用いた理由説明サービス処理プログラム。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. In Temu,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and the behavior information stored in the distributed environment behavior database and selected and executed based on the user status , And a process of storing service history information including standby information for service identification of the user reason explanation request in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, the execution time closest to the user's utterance and the user's utterance information A process for identifying, as the reason explanation target, one service in which the information included in the service information and the standby information of the service history information match,
Processing for generating an explanation of the reason for execution of the identified service from the service history information;
A process of performing a speech synthesis process on the reason for executing the identified service and outputting the generated voice data from the interactive robot;
Reason explanation service processing program using a dialogue robot for execution.
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況が推論され,前記ユーザの状況にもとづいて選択・実行されたサービスについて,前記サービスの実行時刻およびサービス実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理と,
前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話がサービス実行の理由説明要求であると推論された場合に,前記サービス履歴情報から,前記ユーザの発話時から所定期間内に実行された複数のサービスを,前記理由説明の対象として特定する処理と,
前記特定されたサービスが理由説明の対象であるか否かを,前記ユーザに確認する対象確認を生成する処理と,
前記対象確認を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理と,
前記対象確認に対する前記ユーザの発話情報の文脈にもとづいて前記ユーザの発話が前記対象確認に対する肯定的応答であると推論された場合に,前記サービス履歴情報から,前記肯定的応答された対象確認に対応するサービスの実行の理由説明を生成する処理と,
前記理由説明を音声合成処理し,生成した音声データを前記対話ロボットから出力する処理とを,
実行させるための
対話ロボットを用いた理由説明サービス処理プログラム。 An inference system that controls the appliance by inferring the environment in the space and the user's behavior based on sensor information measured in a predetermined space in order to autonomously control a plurality of appliances that execute services A life support robot system comprising a distributed environmental behavior database for accumulating environmental information and behavior information as inference results by the inference system, and a service history information database for accumulating history information of services provided by the inference system; Collaborate with the life support robot system, infer the utterance context based on the user utterance information generated by voice recognition processing of the user's voice data, and synthesize the utterance information generated based on the inference A dialogue robot comprising a dialogue robot for outputting the voice data and having a voice dialogue with the user. In Temu,
Information about the execution time of the service and the status at the time of service execution for the service inferred from the environment information and behavior information accumulated in the distributed environment behavior database and selected and executed based on the user status Storing service history information including the service history information in the service history information database;
When it is inferred that the user's utterance is a request for explaining the reason for service execution based on the context of the user's utterance information, a plurality of items executed within a predetermined period from the time of the user's utterance are determined from the service history information. The process of identifying the service of the subject as the object of the reason explanation,
Processing for generating an object confirmation for confirming to the user whether or not the identified service is an object of reason explanation;
Processing for synthesizing the target confirmation and outputting the generated speech data from the interactive robot;
When it is inferred that the user's utterance is an affirmative response to the target confirmation based on the context of the user's utterance information for the target confirmation, the service confirmation information is used for the positively confirmed target confirmation. Processing to generate a description of the reason for executing the corresponding service;
Processing the speech explanation for the reason explanation and outputting the generated speech data from the interactive robot;
Reason explanation service processing program using a dialogue robot for execution.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006151033A JP2007323233A (en) | 2006-05-31 | 2006-05-31 | Method, device and program for processing reason explanation service using interactive robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006151033A JP2007323233A (en) | 2006-05-31 | 2006-05-31 | Method, device and program for processing reason explanation service using interactive robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007323233A true JP2007323233A (en) | 2007-12-13 |
Family
ID=38856004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006151033A Pending JP2007323233A (en) | 2006-05-31 | 2006-05-31 | Method, device and program for processing reason explanation service using interactive robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007323233A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013118493A1 (en) * | 2012-02-09 | 2013-08-15 | 日本電気株式会社 | Recommendation condition correction device, recommendation condition correction method, and recommendation condition correction program |
KR20170060480A (en) * | 2015-11-24 | 2017-06-01 | 삼성전자주식회사 | Electronic device and method for controlling thereof |
WO2018147405A1 (en) | 2017-02-10 | 2018-08-16 | 株式会社アナリティックウェア | Dialog device, control device, dialog system, dialog method, and control method |
JP2019510291A (en) * | 2016-01-25 | 2019-04-11 | マスターカード アジア パシフィック ピーティーイー リミテッドMastercard Asia/Pacific Pte.Ltd. | A method of supporting transactions using a humanoid robot |
JP2019520661A (en) * | 2016-04-18 | 2019-07-18 | グーグル エルエルシー | Call the appropriate agent's automation assistant |
WO2020071409A1 (en) * | 2018-10-02 | 2020-04-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information provision method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188786A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing conversation and recording medium |
JP2004259042A (en) * | 2003-02-26 | 2004-09-16 | Nippon Telegr & Teleph Corp <Ntt> | Method and device of displaying use history of network content/application, and program for displaying use history of network content/application |
WO2005086051A1 (en) * | 2004-03-08 | 2005-09-15 | National Institute Of Information And Communications Technology | Interactive system, interactive robot, program, and recording medium |
JP2007011674A (en) * | 2005-06-30 | 2007-01-18 | National Institute Of Information & Communication Technology | Method for executing service for explaining reason by using interactive robot, device and program thereof |
-
2006
- 2006-05-31 JP JP2006151033A patent/JP2007323233A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188786A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing conversation and recording medium |
JP2004259042A (en) * | 2003-02-26 | 2004-09-16 | Nippon Telegr & Teleph Corp <Ntt> | Method and device of displaying use history of network content/application, and program for displaying use history of network content/application |
WO2005086051A1 (en) * | 2004-03-08 | 2005-09-15 | National Institute Of Information And Communications Technology | Interactive system, interactive robot, program, and recording medium |
JP2007011674A (en) * | 2005-06-30 | 2007-01-18 | National Institute Of Information & Communication Technology | Method for executing service for explaining reason by using interactive robot, device and program thereof |
Non-Patent Citations (4)
Title |
---|
CSNG200501624030; 上田 博唯,近間 正樹,佐竹 純二,佐藤 淳,木戸出 正継: 'ユビキタスホームにおける対話インタフェースロボットの試作' 情報処理学会研究報告 Vol.2005,No.28, 20050318, pp.239-246, 社団法人情報処理学会 * |
CSNG200600533012; 佐竹 純二,土屋 誠司,小林 亮博,近間 正樹,上田 博唯: 'ロボットを用いた対話インタフェースにおけるサービス実行理由説明機能' 情報処理学会研究報告 Vol.2006,No.3, 20060113, pp.103-110, 社団法人情報処理学会 * |
JPN6012021815; 佐竹 純二,土屋 誠司,小林 亮博,近間 正樹,上田 博唯: 'ロボットを用いた対話インタフェースにおけるサービス実行理由説明機能' 情報処理学会研究報告 Vol.2006,No.3, 20060113, pp.103-110, 社団法人情報処理学会 * |
JPN6012021817; 上田 博唯,近間 正樹,佐竹 純二,佐藤 淳,木戸出 正継: 'ユビキタスホームにおける対話インタフェースロボットの試作' 情報処理学会研究報告 Vol.2005,No.28, 20050318, pp.239-246, 社団法人情報処理学会 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013118493A1 (en) * | 2012-02-09 | 2013-08-15 | 日本電気株式会社 | Recommendation condition correction device, recommendation condition correction method, and recommendation condition correction program |
JPWO2013118493A1 (en) * | 2012-02-09 | 2015-05-11 | 日本電気株式会社 | Recommendation condition correcting device, recommended condition correcting method, and recommended condition correcting program |
KR20170060480A (en) * | 2015-11-24 | 2017-06-01 | 삼성전자주식회사 | Electronic device and method for controlling thereof |
KR102584184B1 (en) | 2015-11-24 | 2023-10-04 | 삼성전자주식회사 | Electronic device and method for controlling thereof |
JP2019510291A (en) * | 2016-01-25 | 2019-04-11 | マスターカード アジア パシフィック ピーティーイー リミテッドMastercard Asia/Pacific Pte.Ltd. | A method of supporting transactions using a humanoid robot |
JP2019520661A (en) * | 2016-04-18 | 2019-07-18 | グーグル エルエルシー | Call the appropriate agent's automation assistant |
WO2018147405A1 (en) | 2017-02-10 | 2018-08-16 | 株式会社アナリティックウェア | Dialog device, control device, dialog system, dialog method, and control method |
WO2020071409A1 (en) * | 2018-10-02 | 2020-04-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information provision method |
CN112789485A (en) * | 2018-10-02 | 2021-05-11 | 松下电器(美国)知识产权公司 | Information providing method |
JPWO2020071409A1 (en) * | 2018-10-02 | 2021-09-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information provision method |
JP7462567B2 (en) | 2018-10-02 | 2024-04-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | How to provide information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106463114B (en) | Information processing apparatus, control method, and program storage unit | |
CN106257355B (en) | Equipment control method and controller | |
KR102373905B1 (en) | Shortened voice user interface for assistant applications | |
CN106297781B (en) | Control method and controller | |
EP3583497B1 (en) | Multi-user intelligent assistance | |
KR102551715B1 (en) | Generating iot-based notification(s) and provisioning of command(s) to cause automatic rendering of the iot-based notification(s) by automated assistant client(s) of client device(s) | |
JP4370410B2 (en) | Dialog system, dialog robot, program, and recording medium | |
JP2007323233A (en) | Method, device and program for processing reason explanation service using interactive robot | |
JP2008233345A (en) | Interface device and interface processing method | |
JP2016076799A (en) | Consumer electronics administrative system, consumer electronics, remote-control device, and robot | |
JP2007011674A (en) | Method for executing service for explaining reason by using interactive robot, device and program thereof | |
JP6973380B2 (en) | Information processing device and information processing method | |
KR102629796B1 (en) | An electronic device supporting improved speech recognition | |
JP2018206385A (en) | Method and device for actively providing information suitable for position and space for user | |
JP2023549015A (en) | Enabling natural conversations about automated assistants | |
US20200143807A1 (en) | Electronic device and operation method thereof | |
US20220122600A1 (en) | Information processing device and information processing method | |
KR102396147B1 (en) | Electronic device for performing an operation using voice commands and the method of the same | |
KR20210015234A (en) | Electronic apparatus, and method of controlling to execute function according to voice command thereof | |
JP7452528B2 (en) | Information processing device and information processing method | |
JP7415952B2 (en) | Response processing device and response processing method | |
US20230031461A1 (en) | Providing certain reasoning with respect to fulfillment of an assistant command | |
US11818820B2 (en) | Adapting a lighting control interface based on an analysis of conversational input | |
KR102612835B1 (en) | Electronic device and method for executing function of electronic device | |
JP7202836B2 (en) | communication system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120508 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120925 |