JP6787957B2 - Utterance control device, utterance control method, and utterance control program - Google Patents

Utterance control device, utterance control method, and utterance control program Download PDF

Info

Publication number
JP6787957B2
JP6787957B2 JP2018159400A JP2018159400A JP6787957B2 JP 6787957 B2 JP6787957 B2 JP 6787957B2 JP 2018159400 A JP2018159400 A JP 2018159400A JP 2018159400 A JP2018159400 A JP 2018159400A JP 6787957 B2 JP6787957 B2 JP 6787957B2
Authority
JP
Japan
Prior art keywords
user
utterance
information
output
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018159400A
Other languages
Japanese (ja)
Other versions
JP2019164321A (en
Inventor
孝太 坪内
孝太 坪内
山本 学
学 山本
中村 浩樹
浩樹 中村
太士 岩▲瀬▼張
太士 岩▲瀬▼張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018159400A priority Critical patent/JP6787957B2/en
Publication of JP2019164321A publication Critical patent/JP2019164321A/en
Application granted granted Critical
Publication of JP6787957B2 publication Critical patent/JP6787957B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、発話制御装置、発話制御方法、および発話制御プログラムに関する。 The present invention relates to an utterance control device, an utterance control method, and an utterance control program.

従来、機器からの発話を制御する発話制御装置が知られている。例えば、特許文献1には、機器の稼働状況を示す稼働ログを分析して、機器を使用するユーザの繁忙度を判定し、判定した繁忙度に応じて、機器からの発話タイミングを制御する発話制御装置が開示されている。 Conventionally, an utterance control device for controlling an utterance from an apparatus is known. For example, in Patent Document 1, an operation log showing an operation status of a device is analyzed to determine the busyness of a user who uses the device, and an utterance that controls the utterance timing from the device according to the determined busyness. The control device is disclosed.

特開2017−151718号公報JP-A-2017-151718

しかしながら、上記特許文献1に記載の発話制御装置は、機器の稼働状況から予め設定された条件で発話タイミングを制御するものであり、機器のユーザによっては適切な発話タイミングとならないおそれがあり、更なる改善の余地があった。 However, the utterance control device described in Patent Document 1 controls the utterance timing under preset conditions based on the operating status of the device, and may not be an appropriate utterance timing depending on the user of the device. There was room for improvement.

本願は、上記に鑑みてなされたものであって、発話タイミングをより適切に決定することができる発話制御装置、発話制御方法、および発話制御プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide an utterance control device, an utterance control method, and an utterance control program capable of more appropriately determining the utterance timing.

本願に係る発話制御装置は、ユーザに関するコンテキスト情報を取得するコンテキスト取得部と、前記コンテキスト取得部によって取得された前記コンテキスト情報に基づいて、音声出力器からの発話に対する過去のユーザの反応を考慮した前記発話のタイミングを決定するタイミング決定部とを備える。 The utterance control device according to the present application considers the reaction of the past user to the utterance from the voice output device based on the context acquisition unit that acquires the context information about the user and the context information acquired by the context acquisition unit. It is provided with a timing determination unit that determines the timing of the utterance.

実施形態の一態様によれば、発話タイミングをより適切に決定することができる発話制御装置、発話制御方法、および発話制御プログラムを提供することができる。 According to one aspect of the embodiment, it is possible to provide an utterance control device, an utterance control method, and an utterance control program capable of more appropriately determining the utterance timing.

図1は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 1 is a diagram showing a configuration example of an information processing system according to an embodiment. 図2は、実施形態に係る発話制御処理の説明図である。FIG. 2 is an explanatory diagram of the utterance control process according to the embodiment. 図3は、実施形態に係るスマートスピーカの構成例を示す図である。FIG. 3 is a diagram showing a configuration example of the smart speaker according to the embodiment. 図4は、実施形態に係る発話テーブルの一例を示す図である。FIG. 4 is a diagram showing an example of an utterance table according to the embodiment. 図5は、実施形態に係る情報提供装置の構成例を示す図である。FIG. 5 is a diagram showing a configuration example of the information providing device according to the embodiment. 図6は、実施形態に係る発話テーブル記憶部に記憶される発話テーブルの一例を示す図である。FIG. 6 is a diagram showing an example of an utterance table stored in the utterance table storage unit according to the embodiment. 図7は、実施形態に係るコンテンツ記憶部に記憶されるコンテンツテーブルの一例を示す図である。FIG. 7 is a diagram showing an example of a content table stored in the content storage unit according to the embodiment. 図8は、実施形態に係る音声広告記憶部に記憶される音声広告テーブルの一例を示す図である。FIG. 8 is a diagram showing an example of a voice advertisement table stored in the voice advertisement storage unit according to the embodiment. 図9は、実施形態に係るユーザ情報記憶部に記憶されるユーザ情報テーブルの一例を示す図である。FIG. 9 is a diagram showing an example of a user information table stored in the user information storage unit according to the embodiment. 図10は、実施形態に係る情報処理システムによる発話制御処理の一例を示すフローチャート(その1)である。FIG. 10 is a flowchart (No. 1) showing an example of the utterance control process by the information processing system according to the embodiment. 図11は、実施形態に係る情報処理システムによる発話制御処理の一例を示すフローチャート(その2)である。FIG. 11 is a flowchart (No. 2) showing an example of the utterance control process by the information processing system according to the embodiment. 図12は、実施形態に係る情報処理システムによる出力制御処理の一例を示すフローチャートである。FIG. 12 is a flowchart showing an example of output control processing by the information processing system according to the embodiment. 図13は、実施形態に係る情報処理システムによる音声情報効果判定処理の一例を示すフローチャートである。FIG. 13 is a flowchart showing an example of voice information effect determination processing by the information processing system according to the embodiment. 図14は、プログラムを実行するコンピュータのハードウェア構成の一例を示す図である。FIG. 14 is a diagram showing an example of the hardware configuration of the computer that executes the program.

以下に、本願に係る発話制御装置、発話制御方法、および発話制御プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る発話制御装置、発話制御方法、および発話制御プログラムが限定されるものではない。 Hereinafter, the utterance control device, the utterance control method, and the embodiment for implementing the utterance control program (hereinafter referred to as “the embodiment”) according to the present application will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the utterance control device, the utterance control method, and the utterance control program according to the present application.

〔1.情報提供システム〕
図1は、実施形態に係る情報処理システムの構成例を示す図である。図1に示すように、実施形態に係る情報処理システム100は、スマートスピーカ1と、情報提供装置2と、端末装置3と、複数の機器4〜4(nは2以上の整数)と、複数のセンサ装置5〜5(mは2以上の整数)とを備える。以下、機器4〜4の各々を区別せずに示す場合、機器4と記載し、センサ装置5〜5の各々を区別せずに示す場合、センサ装置5と記載する。
[1. Information provision system]
FIG. 1 is a diagram showing a configuration example of an information processing system according to an embodiment. As shown in FIG. 1, the information processing system 100 according to the embodiment includes a smart speaker 1, an information providing device 2, a terminal device 3, and a plurality of devices 4 1 to 4 n (n is an integer of 2 or more). , A plurality of sensor devices 5 1 to 5 m (m is an integer of 2 or more). Hereinafter, when each of the devices 4 1 to 4 n is shown without distinction, it is described as the device 4, and when each of the sensor devices 5 1 to 5 m is shown without distinction, it is described as the sensor device 5.

スマートスピーカ1、情報提供装置2、端末装置3、機器4、およびセンサ装置5は、ネットワーク6を介して無線または有線で互いに通信可能に接続される。ネットワーク6は、例えば、LAN(Local Area Network)や、インターネットなどのWAN(Wide Area Network)であり、1以上のネットワークで構成される。 The smart speaker 1, the information providing device 2, the terminal device 3, the device 4, and the sensor device 5 are connected to each other so as to be able to communicate with each other wirelessly or by wire via the network 6. The network 6 is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet, and is composed of one or more networks.

スマートスピーカ1、端末装置3、機器4、およびセンサ装置5は、ユーザUの周囲の領域ARに配置されている。領域ARは、例えばユーザUの部屋または家である。また、図示していないがユーザU〜U(kは2以上の整数)の領域AR〜ARの各々にも、領域ARと同様に、スマートスピーカ1、端末装置3、機器4、およびセンサ装置5が配置されている。以下、ユーザU〜Uの各々を区別せずに示す場合、ユーザUと記載する。 Smart speaker 1, the terminal device 3, device 4, and the sensor device 5 is arranged in the area AR 1 surrounding the user U 1. Region AR 1 is, for example, the room or home of user U 1 . Furthermore, also each of the regions AR 2 to Ar k of the illustrated non Although the user U 2 ~U k (k is an integer of 2 or more), as in the area AR 1, the smart speaker 1, the terminal device 3, device 4 , And the sensor device 5 is arranged. Hereinafter, when each of users U 1 to U k is shown without distinction, it is described as user U.

スマートスピーカ1は、対話型の音声操作に対応するAI(人工知能:Artificial Intelligence)アシスタント機能を利用可能なスピーカであり、ユーザUは、スマートスピーカ1と対話することで様々な情報を取得することができる。例えば、スマートスピーカ1は、ユーザUからの指示を示す入力情報を情報提供装置2へ送信し、入力情報応じた情報提供装置2からネットワーク6を介して提供されるコンテンツ(例えば、音楽、ニュース、交通情報、天候などの各種情報)を取得し、内蔵している音声出力器から取得したコンテンツを出力することができる。 The smart speaker 1 is a speaker that can use the AI (Artificial Intelligence) assistant function corresponding to the interactive voice operation, and the user U acquires various information by interacting with the smart speaker 1. Can be done. For example, the smart speaker 1 transmits input information indicating an instruction from the user U to the information providing device 2, and the content (for example, music, news, etc.) provided from the information providing device 2 according to the input information via the network 6. It is possible to acquire various information such as traffic information and weather, and output the content acquired from the built-in audio output device.

また、スマートスピーカ1は、ユーザUからの指示に従って機器4を制御することができる。例えば、機器4が照明機器である場合、スマートスピーカ1は、ユーザUからの指示に従って照明機器である機器4のオンとオフを制御することができる。 Further, the smart speaker 1 can control the device 4 according to an instruction from the user U. For example, when the device 4 is a lighting device, the smart speaker 1 can control the on / off of the device 4 which is a lighting device according to an instruction from the user U.

情報提供装置2は、スマートスピーカ1から出力される情報に基づいて、ユーザUからの指示に応じたコンテンツをスマートスピーカ1へネットワーク6を介して提供することができる。例えば、情報提供装置2は、スマートスピーカ1から送信されるユーザUの発話情報に基づき、ユーザUの指示を判定し、判定した指示に応じたコンテンツをスマートスピーカ1へ提供することができる。 The information providing device 2 can provide the content according to the instruction from the user U to the smart speaker 1 via the network 6 based on the information output from the smart speaker 1. For example, the information providing device 2 can determine the instruction of the user U based on the utterance information of the user U transmitted from the smart speaker 1, and provide the content according to the determined instruction to the smart speaker 1.

端末装置3は、例えば、スマートフォン、デスクトップ型PC(Personal Computer)、ノート型PC、タブレット型端末、携帯電話機、PDA(Personal Digital Assistant)等により実現される。かかる端末装置3は、例えば、情報通知アプリケーションを含む複数のアプリケーションを有しており、情報提供装置2から通知されるコンテンツを取得して表示したりする。端末装置3は、端末装置3の動作状態を示す情報やユーザUによる端末装置3の操作履歴を示す情報をスマートスピーカ1や情報提供装置2へ通知することができる。 The terminal device 3 is realized by, for example, a smartphone, a desktop PC (Personal Computer), a notebook PC, a tablet terminal, a mobile phone, a PDA (Personal Digital Assistant), or the like. Such a terminal device 3 has, for example, a plurality of applications including an information notification application, and acquires and displays the content notified from the information providing device 2. The terminal device 3 can notify the smart speaker 1 and the information providing device 2 of information indicating the operating state of the terminal device 3 and information indicating the operation history of the terminal device 3 by the user U.

機器4は、ユーザUの周囲に存在する機器である。例えば、機器4には、冷蔵庫、照明機器、洗濯機、エアーコンディショナー、テレビジョン受像機、食器洗浄機、食器乾燥機、電磁調理器、電子レンジといった種々の機器が含まれる。機器4は、機器4の動作状態を示す情報やユーザUによる機器4の操作履歴を示す情報をスマートスピーカ1や情報提供装置2へ通知することができる。 The device 4 is a device existing around the user U. For example, the device 4 includes various devices such as a refrigerator, a lighting device, a washing machine, an air conditioner, a television receiver, a dishwasher, a dish dryer, an electromagnetic cooker, and a microwave oven. The device 4 can notify the smart speaker 1 and the information providing device 2 of information indicating the operating state of the device 4 and information indicating the operation history of the device 4 by the user U.

センサ装置5は、ユーザUの周囲に存在するセンサである。センサ装置5は、例えば、温度センサ、湿度センサ、照度センサ、気圧センサ、ドアの開閉を検出する開閉センサといったセンサを含む。また、センサ装置5は、ユーザUを撮像する撮像部を含む。センサ装置5は、温度の計測値、湿度の計測値、照度の計測値、気圧の計測値、ドアの開閉情報、撮像画像の情報といったセンサ情報をスマートスピーカ1や情報提供装置2へ通知することができる。なお、センサ装置5は、スマートスピーカ1や機器4に内蔵されていてもよい。 The sensor device 5 is a sensor existing around the user U. The sensor device 5 includes, for example, sensors such as a temperature sensor, a humidity sensor, an illuminance sensor, a pressure sensor, and an open / close sensor that detects opening / closing of a door. Further, the sensor device 5 includes an imaging unit that images the user U. The sensor device 5 notifies the smart speaker 1 and the information providing device 2 of sensor information such as temperature measurement value, humidity measurement value, illuminance measurement value, atmospheric pressure measurement value, door opening / closing information, and captured image information. Can be done. The sensor device 5 may be built in the smart speaker 1 or the device 4.

実施形態に係る情報処理システム100は、スマートスピーカ1の音声出力器からの自発的な発話を制御する発話制御処理を実行することができる。以下、発話制御処理について説明する。図2は、実施形態に係る発話制御処理の説明図であり、図2に示す例では、発話制御装置の一例であるスマートスピーカ1によって発話制御処理が実行される。 The information processing system 100 according to the embodiment can execute an utterance control process for controlling spontaneous utterances from the voice output device of the smart speaker 1. The utterance control process will be described below. FIG. 2 is an explanatory diagram of the utterance control process according to the embodiment. In the example shown in FIG. 2, the utterance control process is executed by the smart speaker 1 which is an example of the utterance control device.

スマートスピーカ1は、ユーザUに関するコンテキスト情報を取得するコンテキスト取得処理を実行する(ステップS1)。ユーザUに関するコンテキスト情報は、ユーザUに関するコンテキストを示す情報である。例えば、ユーザUに関するコンテキスト(以下、単にコンテキストと記載する場合がある)は、ユーザUに関する状況である。例えば、コンテキストには、ユーザUの状況、ユーザUによる機器(例えば、端末装置3や機器4)の使用状況、およびユーザUの周囲の状況といったユーザUに関する状況が含まれる。 The smart speaker 1 executes a context acquisition process for acquiring context information regarding the user U (step S1). The context information regarding the user U is information indicating the context regarding the user U. For example, a context relating to user U (hereinafter, may be simply referred to as a context) is a situation relating to user U. For example, the context includes a situation relating to the user U, such as the situation of the user U, the usage of the device (eg, terminal device 3 or device 4) by the user U, and the situation around the user U.

ユーザUの状況には、例えば、ユーザUの会話状態、ユーザUの発話内容、ユーザUの運動状態、ユーザUの現在位置、ユーザUの属性状態、およびユーザUの感情状態などが含まれる。ユーザUによる機器の使用状況には、例えば、ユーザUによる機器の操作履歴および使用時間などが含まれる。 The situation of the user U includes, for example, the conversation state of the user U, the utterance content of the user U, the motion state of the user U, the current position of the user U, the attribute state of the user U, the emotional state of the user U, and the like. The usage status of the device by the user U includes, for example, the operation history and usage time of the device by the user U.

ユーザUの周囲の状況には、例えば、ユーザUの周囲の他人の存在や他人の状態、ユーザUが置かれた物理環境、およびユーザUが置かれた社会環境などが含まれる。ユーザUが置かれた物理環境には、ユーザUの周囲の明るさ、気温、湿度、および天候などが含まれる。ユーザUが置かれた社会環境には、ユーザUの周囲の交通機関の運行状態、ユーザUの周囲のイベントの開催状態、曜日(例えば、休日と平日の区別を含む)などが含まれる。 The situation around the user U includes, for example, the existence and state of another person around the user U, the physical environment in which the user U is placed, the social environment in which the user U is placed, and the like. The physical environment in which the user U is placed includes the brightness, temperature, humidity, weather, and the like around the user U. The social environment in which the user U is placed includes the operating state of transportation around the user U, the holding state of events around the user U, the day of the week (including the distinction between holidays and weekdays, for example), and the like.

スマートスピーカ1は、例えば、端末装置3や機器4から、ユーザUによる端末装置3や機器4の使用状況を示す情報をコンテキスト情報として取得することができる。また、スマートスピーカ1は、ユーザUの周囲に配置されたセンサ装置5からユーザUが置かれた物理環境を示す情報をコンテキスト情報として取得することができる。また、スマートスピーカ1は、ユーザUの発話を不図示の音声入力器から取得し、取得したユーザUの発話からユーザUの会話状態を示す情報を得ることができる。また、スマートスピーカ1は、ユーザUの発話以外の音を不図示の音声入力器から取得し、取得したユーザUの発話以外の音から周囲の音の状態を示す情報を得ることができる。 For example, the smart speaker 1 can acquire information indicating the usage status of the terminal device 3 and the device 4 by the user U as context information from the terminal device 3 and the device 4. Further, the smart speaker 1 can acquire information indicating the physical environment in which the user U is placed as context information from the sensor device 5 arranged around the user U. Further, the smart speaker 1 can acquire the utterance of the user U from a voice input device (not shown), and can obtain information indicating the conversation state of the user U from the acquired utterance of the user U. Further, the smart speaker 1 can acquire sounds other than the user U's utterance from a voice input device (not shown), and can obtain information indicating the state of the surrounding sound from the acquired sounds other than the user U's utterance.

また、スマートスピーカ1は、情報提供装置2からネットワーク6を介してユーザUが置かれた社会環境を示す情報(例えば、交通機関の運行状態)やユーザUが置かれた物理環境(例えば、天候)を示す情報などを取得することができる。また、端末装置3や機器4が情報提供装置2へユーザUによる端末装置3や機器4の使用状況を示す情報を送信する場合、スマートスピーカ1は、情報提供装置2からネットワーク6を介してユーザUによる端末装置3や機器4の使用状況を示す情報を取得することもできる。 Further, the smart speaker 1 is provided with information indicating the social environment in which the user U is placed from the information providing device 2 via the network 6 (for example, the operating state of transportation) and the physical environment in which the user U is placed (for example, the weather). ) Can be obtained. Further, when the terminal device 3 or the device 4 transmits information indicating the usage status of the terminal device 3 or the device 4 by the user U to the information providing device 2, the smart speaker 1 is the user from the information providing device 2 via the network 6. It is also possible to acquire information indicating the usage status of the terminal device 3 and the device 4 by U.

スマートスピーカ1は、上述したコンテキスト取得処理を繰り返し実行する。スマートスピーカ1は、繰り返し実行されるコンテキスト取得処理によって取得されたコンテキスト情報に基づいて、音声出力器11からの発話に対する過去のユーザUの反応を考慮した発話タイミングを決定するタイミング決定処理を実行する(ステップS2)。発話タイミングは、ユーザUの指示によることなくスマートスピーカ1から自発的に発話するタイミングである。 The smart speaker 1 repeatedly executes the above-mentioned context acquisition process. The smart speaker 1 executes a timing determination process for determining the utterance timing in consideration of the past reaction of the user U to the utterance from the voice output device 11 based on the context information acquired by the context acquisition process that is repeatedly executed. (Step S2). The utterance timing is the timing at which the smart speaker 1 spontaneously utters without being instructed by the user U.

スマートスピーカ1は、音声出力器11からの過去の発話に対するユーザUの反応を示す反応情報とコンテキスト情報に基づいて、現在のコンテキストが発話に適しているコンテキストであるか否かを判定することができる。 The smart speaker 1 can determine whether or not the current context is a context suitable for the utterance based on the reaction information and the context information indicating the reaction of the user U to the past utterance from the voice output device 11. it can.

例えば、スマートスピーカ1は、反応情報を教師データとしコンテキスト情報を特徴量とした機械学習によって生成されたモデル(以下、タイミング判定モデルと記載する場合がある)を有している。スマートスピーカ1は、コンテキスト取得処理で取得されたコンテキスト情報をタイミング判定モデルに入力することで、現在のコンテキストが発話に適しているコンテキストであるか否かを判定することができる。 For example, the smart speaker 1 has a model (hereinafter, may be referred to as a timing determination model) generated by machine learning using reaction information as teacher data and context information as a feature amount. The smart speaker 1 can determine whether or not the current context is a context suitable for utterance by inputting the context information acquired in the context acquisition process into the timing determination model.

スマートスピーカ1は、ユーザUに関する現在のコンテキストが発話に適しているコンテキストである場合、発話のタイミングになったと判定し、音声出力器11から自発的な発話を出力する出力制御処理を行う(ステップS3)。これにより、音声出力器11から自発的な発話が出力される(ステップS4)。 When the current context regarding the user U is a context suitable for utterance, the smart speaker 1 determines that it is time to utter, and performs an output control process for outputting a spontaneous utterance from the voice output device 11 (step). S3). As a result, the voice output device 11 outputs a spontaneous utterance (step S4).

このように、スマートスピーカ1は、音声出力器11からの発話に対する過去のユーザUの反応を考慮してスマートスピーカ1から自発的に発話するタイミングを決定することから、予め設定された条件で発話タイミングを制御する場合に比べ、より適切なタイミングでスマートスピーカ1からの発話を行うことができる。 In this way, since the smart speaker 1 determines the timing of spontaneously speaking from the smart speaker 1 in consideration of the past reaction of the user U to the speech from the voice output device 11, the smart speaker 1 speaks under preset conditions. The utterance from the smart speaker 1 can be performed at a more appropriate timing as compared with the case of controlling the timing.

なお、スマートスピーカ1は、タイミング決定処理において、音声出力器11から出力することができるコンテンツ毎に発話のタイミングを決定することができる。これにより、スマートスピーカ1は、コンテンツ毎に適したタイミングで発話を行うことができる。 In the timing determination process, the smart speaker 1 can determine the timing of utterance for each content that can be output from the voice output device 11. As a result, the smart speaker 1 can speak at a timing suitable for each content.

〔2.スマートスピーカ1の構成〕
次に、実施形態に係るスマートスピーカ1の構成について具体的に説明する。図3は、実施形態に係るスマートスピーカ1の構成例を示す図である。図3に示すように、スマートスピーカ1は、通信部10と、音声出力器11と、音声入力器12と、撮像部13と、記憶部14と、制御部15とを備える。
[2. Configuration of smart speaker 1]
Next, the configuration of the smart speaker 1 according to the embodiment will be specifically described. FIG. 3 is a diagram showing a configuration example of the smart speaker 1 according to the embodiment. As shown in FIG. 3, the smart speaker 1 includes a communication unit 10, a voice output device 11, a voice input device 12, an imaging unit 13, a storage unit 14, and a control unit 15.

通信部10は、ネットワーク6を介して情報提供装置2、端末装置3、機器4、およびセンサ装置5などの装置と通信可能な通信インターフェイスである。制御部15は通信部10を介して情報提供装置2、端末装置3、機器4、およびセンサ装置5と情報の送受信を行うことができる。なお、スマートスピーカ1は、通信部10以外の通信部によって端末装置3、機器4、およびセンサ装置5と通信する構成であってもよい。 The communication unit 10 is a communication interface capable of communicating with devices such as an information providing device 2, a terminal device 3, a device 4, and a sensor device 5 via a network 6. The control unit 15 can send and receive information to and from the information providing device 2, the terminal device 3, the device 4, and the sensor device 5 via the communication unit 10. The smart speaker 1 may be configured to communicate with the terminal device 3, the device 4, and the sensor device 5 by a communication unit other than the communication unit 10.

例えば、ネットワーク6がLANとWANで構成され、且つ通信部10がLANに接続される場合、制御部15は、LANを介して端末装置3、機器4、およびセンサ装置5と情報の送受信を行い、LANおよびWANを介して情報提供装置2と情報の送受信を行う。 For example, when the network 6 is composed of a LAN and a WAN and the communication unit 10 is connected to the LAN, the control unit 15 transmits and receives information to and from the terminal device 3, the device 4, and the sensor device 5 via the LAN. , Sends and receives information to and from the information providing device 2 via LAN and WAN.

音声出力器11は、制御部15から出力される電気信号に応じた振動を行うことで、電気信号に応じた音波をスマートスピーカ1の外部へ出力する。音声出力器11は、例えば、振動板と、電気信号に応じて振動板を振動させる駆動機構とを備える。なお、図3に示す例では、一つの音声出力器11のみ図示しているが、スマートスピーカ1には、音声出力器11が複数設けられてもよい。 The voice output device 11 vibrates according to the electric signal output from the control unit 15 to output a sound wave corresponding to the electric signal to the outside of the smart speaker 1. The audio output device 11 includes, for example, a diaphragm and a drive mechanism that vibrates the diaphragm in response to an electric signal. In the example shown in FIG. 3, only one audio output device 11 is shown, but the smart speaker 1 may be provided with a plurality of audio output devices 11.

音声入力器12は、マイクロフォンであり、外部から入力される音波を電気信号に変換し、変換した電気信号を制御部15へ出力する。なお、図3に示す例では、一つの音声入力器12のみ図示しているが、スマートスピーカ1には、音声入力器12が複数設けられてもよい。 The voice input device 12 is a microphone, converts sound waves input from the outside into an electric signal, and outputs the converted electric signal to the control unit 15. In the example shown in FIG. 3, only one voice input device 12 is shown, but the smart speaker 1 may be provided with a plurality of voice input devices 12.

撮像部13は、例えば、COMS(Complementary Metal Oxide Semiconductor)イメージセンサを有しており、スマートスピーカ1の周囲を撮像する。撮像部13は、撮像結果である撮像情報を制御部15へ出力する。撮像情報には、スマートスピーカ1の周囲の撮像画像の情報が含まれる。 The imaging unit 13 has, for example, a COMS (Complementary Metal Oxide Semiconductor) image sensor, and images the surroundings of the smart speaker 1. The imaging unit 13 outputs the imaging information, which is the imaging result, to the control unit 15. The captured information includes information on a captured image around the smart speaker 1.

記憶部14は、スマートスピーカ1へのユーザUの操作履歴20、および自発的な発話を行うための発話テーブル21を記憶する。 The storage unit 14 stores the operation history 20 of the user U to the smart speaker 1 and the utterance table 21 for spontaneously speaking.

操作履歴20は、スマートスピーカ1への操作内容と操作時刻とがユーザUの操作毎に関連付けられた情報である。操作内容は、例えば、各種のコンテンツ(例えば、スケジュール、メール、ニュース、音楽、交通情報など)の音声出力器11からの出力を開始する音声操作、各種のコンテンツの音声出力器11からの出力を停止する音声操作などの種々の操作が含まれる。 The operation history 20 is information in which the operation content and the operation time for the smart speaker 1 are associated with each operation of the user U. The operation contents include, for example, a voice operation that starts output of various contents (for example, schedule, mail, news, music, traffic information, etc.) from the voice output device 11, and output of various contents from the voice output device 11. Various operations such as voice operation to stop are included.

図4は、実施形態に係る発話テーブル21の一例を示す図である。図4に示す発話テーブル21は、「コンテンツID」と、「発話内容」と、「モデル」とが互いに関連付けられた情報を含む。「コンテンツID」は、コンテンツに固有の識別情報である。 FIG. 4 is a diagram showing an example of the utterance table 21 according to the embodiment. The utterance table 21 shown in FIG. 4 includes information in which the “content ID”, the “utterance content”, and the “model” are associated with each other. The "content ID" is identification information unique to the content.

「発話内容」は、例えば、コンテンツの利用の可否の問い合わせを行うための発話情報である。例えば、「発話内容」は、コンテンツがニュースである場合、「今日のニュースはいかがですか?」、「ニュースが“X”件あります」などである。また、「発話内容」は、コンテンツがメールである場合、「メールが“X”通届いています」などであり、コンテンツがスケジュールである場合、「本日は、“X”件の予定があります」などである。なお、“X”の情報は、情報提供装置2から制御部15が取得して発話内容に追加することができる。 The "utterance content" is, for example, utterance information for making an inquiry as to whether or not the content can be used. For example, when the content is news, the "utterance content" is "How about today's news?", "There are" X "news", and so on. In addition, the "utterance content" is, for example, "the mail has been sent by" X "" when the content is an email, and when the content is a schedule, "there are plans for" X "today." And so on. The information of "X" can be acquired by the control unit 15 from the information providing device 2 and added to the utterance content.

また、「発話内容」は、コンテンツそのものであってもよい。この場合、発話テーブル21には発話内容は設定されず、制御部15がコンテンツIDに基づいて情報提供装置2からコンテンツを取得する。 Further, the "utterance content" may be the content itself. In this case, the utterance content is not set in the utterance table 21, and the control unit 15 acquires the content from the information providing device 2 based on the content ID.

「モデル」は、発話に対する過去のユーザUの反応と発話時の過去のユーザUに関するコンテキスト情報とに基づいて生成されるタイミング判定モデルであり、コンテンツ毎に異なる。例えば、タイミング判定モデルは、発話に対する過去のユーザUの反応を目的変数とし、ユーザUに関するコンテキストを説明変数とする回帰モデルである。目的変数は、教師データとも呼ばれ、説明変数は、素性または特徴量とも呼ばれる。タイミング判定モデルにおいて説明変数の数は多いほど精度が良くなるが、説明変数の数は一つであってもよい。 The "model" is a timing determination model generated based on the reaction of the past user U to the utterance and the context information about the past user U at the time of the utterance, and is different for each content. For example, the timing determination model is a regression model in which the past reaction of the user U to the utterance is used as the objective variable and the context related to the user U is used as the explanatory variable. The objective variable is also called teacher data, and the explanatory variable is also called feature or feature quantity. In the timing determination model, the larger the number of explanatory variables, the better the accuracy, but the number of explanatory variables may be one.

図3に示す制御部15は、入力処理部31と、情報出力部32と、情報取得部33と、出力処理部34と、コンテキスト取得部35と、タイミング決定部36とを備える。入力処理部31は、音声入力器12から出力される電気信号からユーザUの音声を認識する。 The control unit 15 shown in FIG. 3 includes an input processing unit 31, an information output unit 32, an information acquisition unit 33, an output processing unit 34, a context acquisition unit 35, and a timing determination unit 36. The input processing unit 31 recognizes the voice of the user U from the electric signal output from the voice input device 12.

また、入力処理部31は、撮像部13から出力される撮像情報からユーザUのジェスチャーを判定する。なお、入力処理部31は、撮像部を含むセンサ装置5から撮像情報を取得し、取得した撮像情報に基づいて、ユーザUのジェスチャーを判定することができる。 Further, the input processing unit 31 determines the gesture of the user U from the imaging information output from the imaging unit 13. The input processing unit 31 can acquire imaging information from the sensor device 5 including the imaging unit, and can determine the gesture of the user U based on the acquired imaging information.

また、入力処理部31は、撮像部13から出力される撮像情報からユーザUの口の動きを検出し、検出した口の動きからユーザUの口パク(無音発声)の内容を判定することができる。すなわち、入力処理部31は、撮像部13から出力される撮像情報から読唇を行うことができる。入力処理部31は、読唇の結果をユーザUの発話情報とする。なお、入力処理部31は、ユーザUの音声が識別できる場合、読唇を行わない。 Further, the input processing unit 31 can detect the movement of the mouth of the user U from the imaging information output from the imaging unit 13, and determine the content of the lip-synching (silent vocalization) of the user U from the detected movement of the mouth. it can. That is, the input processing unit 31 can read the lips from the image pickup information output from the image pickup unit 13. The input processing unit 31 uses the result of lip reading as the utterance information of the user U. If the voice of the user U can be identified, the input processing unit 31 does not read the lip.

情報出力部32は、ユーザUがウェークアップワードを発話したと入力処理部31によって認識された場合、ウェークアップワードに続くユーザUの発話情報を情報提供装置2へ出力する。発話情報は、ユーザUの音声情報そのものであっても、テキスト情報であってもよい。また、情報出力部32は、入力処理部31によって判定されたジェスチャーの情報であるジェスチャー情報を情報提供装置2へ出力する。なお、ウェークアップワードは、スマートスピーカ1に予め設定されたワードであるが、情報出力部32は、ウェークアップワードの発話にかかわらずユーザUの発話情報およびジェスチャー情報を情報提供装置2へ出力することもできる。 When the input processing unit 31 recognizes that the user U has spoken the wake-up word, the information output unit 32 outputs the utterance information of the user U following the wake-up word to the information providing device 2. The utterance information may be the voice information of the user U itself or text information. Further, the information output unit 32 outputs the gesture information, which is the gesture information determined by the input processing unit 31, to the information providing device 2. The wake-up word is a word preset in the smart speaker 1, but the information output unit 32 may output the utterance information and the gesture information of the user U to the information providing device 2 regardless of the utterance of the wake-up word. it can.

また、情報出力部32は、例えば、情報提供装置2からコンテキスト情報を取得しない場合などにおいて、コンテキスト取得部35で取得したコンテキスト情報を継続して繰り返し情報提供装置2へ出力することもできる。 Further, the information output unit 32 can continuously and repeatedly output the context information acquired by the context acquisition unit 35 to the information providing device 2 when, for example, the context information is not acquired from the information providing device 2.

また、情報出力部32は、音声出力器11からの音声広告の出力が開始されたときから予め設定された期間(以下、広告出力期間と記載する場合がある)において、音声入力器12へ入力される音を含む音情報および撮像部13から出力される撮像情報を含む撮像情報を情報提供装置2へ出力する。なお、予め設定された期間は、例えば、音声出力器11からの音声広告の出力が開始されたときから開始し、音声広告の出力が停止または終了されたときに終了する期間、または、音声出力器11からの音声広告の出力が開始されたときから開始し、音声広告の出力が停止または終了されてから一定期間後に終了する期間である。なお、情報出力部32は、広告出力期間において、端末装置3の音声入力器またはセンサ装置5へ入力される音を含む音情報を端末装置3またはセンサ装置5から取得して情報提供装置2へ出力することもできる。 Further, the information output unit 32 inputs to the voice input device 12 during a preset period (hereinafter, may be referred to as an advertisement output period) from the time when the sound advertisement output from the voice output device 11 is started. The sound information including the sound to be produced and the imaging information including the imaging information output from the imaging unit 13 are output to the information providing device 2. The preset period is, for example, a period that starts when the output of the voice advertisement from the voice output device 11 is started and ends when the output of the voice advertisement is stopped or ended, or a voice output. It is a period that starts when the output of the voice advertisement from the device 11 is started and ends after a certain period of time after the output of the voice advertisement is stopped or ended. The information output unit 32 acquires sound information including the sound input to the voice input device or the sensor device 5 of the terminal device 3 from the terminal device 3 or the sensor device 5 during the advertisement output period, and sends the information providing device 2 to the information providing device 2. It can also be output.

情報取得部33は、情報提供装置2からコンテンツ毎のタイミング判定モデルを含むモデル情報を取得し、取得したタイミング判定モデル情報を発話テーブル21に設定することができる。また、情報取得部33は、情報提供装置2からコンテンツを取得する。出力処理部34は、情報取得部33によって取得されたコンテンツを電気信号へ変換して音声出力器11へ出力する。これにより、スマートスピーカ1からコンテンツが音として出力される。 The information acquisition unit 33 can acquire model information including the timing determination model for each content from the information providing device 2, and set the acquired timing determination model information in the utterance table 21. In addition, the information acquisition unit 33 acquires the content from the information providing device 2. The output processing unit 34 converts the content acquired by the information acquisition unit 33 into an electric signal and outputs the content to the audio output device 11. As a result, the content is output as sound from the smart speaker 1.

なお、出力処理部34は、コンテンツを情報提供装置2から文字情報として取得した場合、文字情報を音声合成処理によって音声信号(電気信号)へ変換して音声出力器11へ出力する。また、出力処理部34は、コンテンツを情報提供装置2から音声情報として取得した場合、音声情報をデジタルアナログ変換によって音声信号(電気信号)へ変換して音声出力器11へ出力する。 When the content is acquired as character information from the information providing device 2, the output processing unit 34 converts the character information into a voice signal (electric signal) by voice synthesis processing and outputs the content to the voice output device 11. Further, when the content is acquired as audio information from the information providing device 2, the output processing unit 34 converts the audio information into an audio signal (electric signal) by digital-to-analog conversion and outputs the content to the audio output device 11.

コンテキスト取得部35は、ユーザUに関するコンテキスト情報を取得するコンテンツ取得処理を実行する。コンテキスト取得部35は、端末装置3、機器4、およびセンサ装置5から直接または情報提供装置2を介してコンテキスト情報を取得することができる。 The context acquisition unit 35 executes a content acquisition process for acquiring context information regarding the user U. The context acquisition unit 35 can acquire context information directly from the terminal device 3, the device 4, and the sensor device 5 or via the information providing device 2.

具体的には、コンテキスト取得部35は、ユーザUの周囲の状況を示す周囲情報をコンテキスト情報の少なくとも一部として取得することができる。例えば、コンテキスト取得部35は、ユーザUの周囲に存在する1以上のセンサ装置5から出力されるセンサ情報から周囲情報を取得することができる。 Specifically, the context acquisition unit 35 can acquire surrounding information indicating the surrounding situation of the user U as at least a part of the context information. For example, the context acquisition unit 35 can acquire surrounding information from sensor information output from one or more sensor devices 5 existing around the user U.

センサ情報は、例えば、ユーザUの周囲の明るさを示す照度情報、ユーザUの周囲の気温を示す気温情報、およびユーザUの周囲の湿度を示す湿度情報の少なくとも一つが含まれている。コンテキスト取得部35は、照度情報、気温情報、および湿度情報を周囲情報として取得することができる。 The sensor information includes, for example, at least one of illuminance information indicating the brightness around the user U, temperature information indicating the air temperature around the user U, and humidity information indicating the humidity around the user U. The context acquisition unit 35 can acquire illuminance information, temperature information, and humidity information as ambient information.

また、コンテキスト取得部35は、ユーザUの周囲に存在する1以上の機器の状態を示す機器情報から周囲情報を取得することができる。ここで、1以上の機器とは、スマートスピーカ1、端末装置3、および機器4のうち1以上の機器である。機器情報は、例えば、機器のオン/オフといった機器の稼動状態を示す情報や、動作状態を示す情報である。 Further, the context acquisition unit 35 can acquire surrounding information from device information indicating the state of one or more devices existing around the user U. Here, the one or more devices are one or more devices among the smart speaker 1, the terminal device 3, and the device 4. The device information is, for example, information indicating the operating state of the device such as turning on / off the device, or information indicating the operating state.

例えば、端末装置3の場合、動作状態を示す情報には、端末装置3で表示中のアプリケーションの種別や表示中のコンテンツの内容などが含まれる。また、機器がエアコンである場合、動作状態を示す情報には、エアコンの設定風量や設定温度などの情報が含まれる。 For example, in the case of the terminal device 3, the information indicating the operating state includes the type of the application displayed on the terminal device 3 and the content of the displayed content. When the device is an air conditioner, the information indicating the operating state includes information such as the set air volume and the set temperature of the air conditioner.

また、コンテキスト取得部35は、ユーザUの周囲に存在する1以上の機器への操作履歴を示す操作履歴情報から周囲情報を取得することができる。1以上の機器とは、スマートスピーカ1、端末装置3、および機器4のうち1以上の機器である。操作履歴情報には、例えば、機器への操作内容と操作時刻とが関連付けられた情報がユーザUの操作毎に含まれる。コンテキスト取得部35は、スマートスピーカ1の操作履歴情報を記憶部14から取得することができる。 Further, the context acquisition unit 35 can acquire surrounding information from the operation history information indicating the operation history of one or more devices existing around the user U. The one or more devices are one or more devices among the smart speaker 1, the terminal device 3, and the device 4. The operation history information includes, for example, information associated with the operation content of the device and the operation time for each operation of the user U. The context acquisition unit 35 can acquire the operation history information of the smart speaker 1 from the storage unit 14.

また、コンテキスト取得部35は、例えば、ユーザUの撮像情報を示す撮像情報を撮像部13、端末装置3、機器4、またはセンサ装置5から取得することができる。コンテキスト取得部35は、取得した撮像情報からユーザUの状況を示す情報といったコンテキスト情報を取得することができる。 Further, the context acquisition unit 35 can acquire, for example, imaging information indicating the imaging information of the user U from the imaging unit 13, the terminal device 3, the device 4, or the sensor device 5. The context acquisition unit 35 can acquire context information such as information indicating the status of the user U from the acquired imaging information.

また、コンテキスト取得部35は、例えば、音声入力器12へ入力される音を含む音情報から、ユーザUの会話の状態、ユーザUの発話状態、ユーザUの周囲の音(機器4の音を含む)などのコンテキスト情報を取得することができる。 Further, the context acquisition unit 35 obtains, for example, the conversation state of the user U, the utterance state of the user U, and the sound around the user U (the sound of the device 4) from the sound information including the sound input to the voice input device 12. Context information such as) can be acquired.

タイミング決定部36は、コンテキスト取得部35によって取得されたコンテキスト情報に基づいて、音声出力器11からの発話に対する過去のユーザUの反応を考慮した発話のタイミングである発話タイミングを決定する。 The timing determination unit 36 determines the utterance timing, which is the timing of the utterance in consideration of the past reaction of the user U to the utterance from the voice output device 11, based on the context information acquired by the context acquisition unit 35.

例えば、タイミング決定部36は、記憶部14に記憶された発話テーブルに含まれるコンテンツ毎のタイミング判定モデルにコンテキスト取得部35で取得されたコンテキスト情報を入力情報として入力してモデルを用いた演算を行う。タイミング決定部36は、タイミング判定モデルの演算結果であるスコアが予め設定された閾値であるか否かを判定する。 For example, the timing determination unit 36 inputs the context information acquired by the context acquisition unit 35 as input information into the timing determination model for each content included in the utterance table stored in the storage unit 14, and performs an operation using the model. Do. The timing determination unit 36 determines whether or not the score, which is the calculation result of the timing determination model, is a preset threshold value.

タイミング決定部36は、タイミング判定モデルの演算結果であるスコアが閾値以上であると判定した場合、発話テーブル21において、スコアが閾値以上であるタイミング判定モデルに関連付けられた発話内容を出力するタイミングになったと判定する。また、タイミング決定部36は、スコアが閾値以上であるタイミング判定モデルが同時に2以上ある場合、スコアが閾値以上であるタイミング判定モデルのうち最も高いスコアのタイミング判定モデルに関連付けられた発話内容を出力するタイミングになったと判定する。 When the timing determination unit 36 determines that the score, which is the calculation result of the timing determination model, is equal to or greater than the threshold value, the timing determination unit 36 outputs the utterance content associated with the timing determination model whose score is equal to or greater than the threshold value in the utterance table 21. Judge that it has become. Further, when there are two or more timing determination models having a score equal to or higher than the threshold value, the timing determination unit 36 outputs the utterance content associated with the timing determination model having the highest score among the timing determination models having the score equal to or higher than the threshold value. Judge that it is time to do.

なお、タイミング決定部36は、タイミング判定モデルの演算結果であるスコアが閾値以上であると判定した場合でも、発話内容を出力するタイミングになったとは判定しないことができる。例えば、タイミング決定部36は、スコアが閾値以上であるタイミング判定モデルに関連付けられた発話内容を前回出力してから予め設定した期間(以下、出力禁止期間と記載する)を経過していない場合、発話タイミングになったとは判定しないことができる。 Even if the timing determination unit 36 determines that the score, which is the calculation result of the timing determination model, is equal to or greater than the threshold value, it cannot determine that it is time to output the utterance content. For example, when the timing determination unit 36 does not elapse a preset period (hereinafter referred to as an output prohibition period) since the last output of the utterance content associated with the timing determination model whose score is equal to or higher than the threshold value. It cannot be determined that the utterance timing has come.

また、タイミング決定部36は、スコアが閾値以上であるタイミング判定モデルに関連付けられた発話内容を現時刻から予め設定された期間(以下、設定期間と記載する)前までの間に予め設定された回数(以下、出力上限回数と記載する)を超えた場合、発話タイミングになったとは判定しないことができる。 Further, the timing determination unit 36 presets the utterance content associated with the timing determination model whose score is equal to or higher than the threshold value from the current time to a period before a preset period (hereinafter, referred to as a set period). When the number of times (hereinafter referred to as the output upper limit number of times) is exceeded, it can not be determined that the utterance timing has come.

また、タイミング決定部36は、タイミング判定モデルの演算結果であるスコアが閾値以上であると判定した場合でも、ユーザUがスマートスピーカ1を操作中の場合や音声出力器11からコンテンツや発話が出力中であれば、発話タイミングになったとは判定しない。この場合、タイミング決定部36は、ユーザUによるスマートスピーカ1の操作が終了した時点で、継続してスコアが閾値以上であるタイミング判定モデルがあれば、ユーザUによるスマートスピーカ1の操作が終了してから一定期間後に、発話内容を出力するタイミングになったと判定することができる。 Further, even when the timing determination unit 36 determines that the score, which is the calculation result of the timing determination model, is equal to or higher than the threshold value, the content or utterance is output from the user U while the smart speaker 1 is being operated or from the voice output device 11. If it is medium, it is not determined that the speech timing has come. In this case, the timing determination unit 36 ends the operation of the smart speaker 1 by the user U if there is a timing determination model in which the score is continuously equal to or higher than the threshold value when the operation of the smart speaker 1 by the user U is completed. After a certain period of time, it can be determined that it is time to output the utterance content.

また、タイミング決定部36は、ユーザUによる音声操作に基づいて、上述した出力禁止期間、および出力上限回数をコンテンツ毎に発話テーブル21に設定することができる。なお、コンテンツ毎に設定可能な情報は、出力禁止期間、および出力上限回数に限定されない。また、出力禁止期間、および出力上限回数といった情報はユーザUの設定によらず予め発話テーブル21に設定されていてもよい。 Further, the timing determination unit 36 can set the above-mentioned output prohibition period and output upper limit number of times in the utterance table 21 for each content based on the voice operation by the user U. The information that can be set for each content is not limited to the output prohibition period and the maximum number of output times. Further, information such as the output prohibition period and the maximum number of times of output may be set in advance in the utterance table 21 regardless of the setting of the user U.

このように、タイミング決定部36は、コンテキスト情報に基づいて、発話タイミングと、かかる発話タイミングで出力すると判定した発話内容(以下、出力対象発話内容と記載する場合がある)とを決定することができる。タイミング決定部36は、発話タイミングと出力対象発話内容とを音声出力器11からの発話に対する過去のユーザUの反応を考慮して、発話タイミングと出力対象発話内容とを決定することから、発話タイミングをより適切に決定することができる。 In this way, the timing determination unit 36 can determine the utterance timing and the utterance content determined to be output at the utterance timing (hereinafter, may be described as the output target utterance content) based on the context information. it can. The timing determination unit 36 determines the utterance timing and the output target utterance content in consideration of the past reaction of the user U to the utterance from the voice output device 11, and thus determines the utterance timing and the output target utterance content. Can be determined more appropriately.

例えば、ユーザUが暗い場所に位置し、ユーザUの周囲に収集車(例えば、ゴミ収集車)がいる状況で何度発話しても、発話に対するユーザUの反応がないとする。この場合、タイミング判定モデルは、ユーザUが暗い場所に位置し、かつ、ユーザUの周囲に収集車がいることを示す場合に出力するスコアが閾値よりも小さくなるように生成される。そのため、タイミング決定部36は、ユーザUが暗い場所に位置し、かつ、ユーザUの周囲に収集車がいることをコンテキスト情報が示す場合、発話タイミングでないと判定する。 For example, suppose that the user U is located in a dark place and there is a collection vehicle (for example, a garbage truck) around the user U, and no matter how many times the user U speaks, there is no reaction of the user U to the utterance. In this case, the timing determination model is generated so that the score output when the user U is located in a dark place and indicates that there is a collection vehicle around the user U is smaller than the threshold value. Therefore, when the context information indicates that the user U is located in a dark place and there is a collecting vehicle around the user U, the timing determination unit 36 determines that the utterance timing is not reached.

また、食器洗浄機と電子レンジとが共に使用されている状態では、発話に対するユーザUの反応がないとする。この場合、タイミング判定モデルは、食器洗浄機と電子レンジとが共に使用されている状態である場合に出力するスコアが閾値よりも小さくなるように生成される。そのため、タイミング決定部36は、食器洗浄機と電子レンジとが共に使用されていることをコンテキスト情報が示す場合、発話タイミングでないと判定する。 Further, it is assumed that the user U does not respond to the utterance when both the dishwasher and the microwave oven are used. In this case, the timing determination model is generated so that the score output when both the dishwasher and the microwave oven are used is smaller than the threshold value. Therefore, when the context information indicates that the dishwasher and the microwave oven are used together, the timing determination unit 36 determines that it is not the utterance timing.

また、ユーザUが端末装置3を操作中(例えば、端末装置3でウェブページを閲覧中、または端末装置3で音楽を再生中)である場合に、発話に対するユーザUの反応がないとする。この場合、タイミング判定モデルは、ユーザUが端末装置3を操作中である場合に出力するスコアが閾値よりも小さくなるように生成される。そのため、タイミング決定部36は、ユーザUが端末装置3を操作中であることをコンテキスト情報が示す場合、発話タイミングでないと判定する。 Further, when the user U is operating the terminal device 3 (for example, the terminal device 3 is browsing a web page or the terminal device 3 is playing music), it is assumed that the user U does not respond to the utterance. In this case, the timing determination model is generated so that the score output when the user U is operating the terminal device 3 is smaller than the threshold value. Therefore, when the context information indicates that the user U is operating the terminal device 3, the timing determination unit 36 determines that it is not the utterance timing.

また、例えば、発話が開始された後において、ユーザUの会話が続く場合やユーザUが「やめて」と発話した場合を不正解データとして、且つ発話時のコンテキスト情報を特徴量としてタイミング判定モデルが生成される。この場合、タイミング決定部36は、ユーザUがユーザUの会話を続けるようなコンテキストやユーザUが「やめて」と発話するようなコンテキストでは、発話タイミングでないと判定することができる。 Further, for example, when the conversation of the user U continues after the utterance is started or when the user U utters "stop", the timing determination model uses the context information at the time of the utterance as the feature amount as incorrect answer data. Will be generated. In this case, the timing determination unit 36 can determine that it is not the utterance timing in the context in which the user U continues the conversation of the user U or in the context in which the user U speaks "stop".

このように、タイミング決定部36は、現在のユーザUに関するコンテキストが発話に適したコンテキストである場合に、発話タイミングであると決定することができる。また、タイミング判定モデルはコンテンツ毎に生成されているため、コンテンツ毎の適切な発話タイミングが決定される。例えば、朝の時間帯であれば、交通機関の運行状態に関するコンテンツやニュースのコンテンツにユーザUが反応することが多い。そのため、交通機関の運行状態に関するコンテンツやニュースのコンテンツには、朝の時間帯が発話タイミングになりやすいタイミング判定モデルが生成される。 In this way, the timing determination unit 36 can determine the utterance timing when the current context regarding the user U is a context suitable for utterance. Further, since the timing determination model is generated for each content, an appropriate utterance timing for each content is determined. For example, in the morning hours, the user U often reacts to content related to the operating status of transportation or news content. Therefore, a timing determination model is generated in which the morning time zone is likely to be the utterance timing for the content related to the operation state of the transportation system and the content of the news.

出力処理部34は、タイミング決定部36によって決定された発話タイミングで、タイミング決定部36によって決定された出力対象発話内容を音声出力器11から出力する。例えば、発話テーブル21が図4に示す状態で、出力対象発話内容が「発話内容XA」である場合、出力処理部34は、発話内容XAに基づく電信信号を音声出力器11へ出力することで、発話内容XAが音声出力器11から音声で出力される。 The output processing unit 34 outputs the output target utterance content determined by the timing determination unit 36 from the voice output device 11 at the utterance timing determined by the timing determination unit 36. For example, when the utterance table 21 is shown in FIG. 4 and the utterance content to be output is "utterance content XA", the output processing unit 34 outputs a telegraph signal based on the utterance content XA to the voice output device 11. , The utterance content XA is output by voice from the voice output device 11.

〔3.情報提供装置2の構成〕
次に、実施形態に係る情報提供装置2の構成について具体的に説明する。図5は、実施形態に係る情報提供装置2の構成例を示す図である。図5に示すように、情報提供装置2は、通信部41と、記憶部42と、制御部43とを備える。
[3. Configuration of information providing device 2]
Next, the configuration of the information providing device 2 according to the embodiment will be specifically described. FIG. 5 is a diagram showing a configuration example of the information providing device 2 according to the embodiment. As shown in FIG. 5, the information providing device 2 includes a communication unit 41, a storage unit 42, and a control unit 43.

通信部41は、ネットワーク6を介してスマートスピーカ1、端末装置3、機器4、およびセンサ装置5などの装置と通信可能な通信インターフェイスである。制御部43は通信部41を介して情報提供装置2、スマートスピーカ1、端末装置3、機器4、およびセンサ装置5と情報の送受信を行うことができる。 The communication unit 41 is a communication interface capable of communicating with devices such as the smart speaker 1, the terminal device 3, the device 4, and the sensor device 5 via the network 6. The control unit 43 can send and receive information to and from the information providing device 2, the smart speaker 1, the terminal device 3, the device 4, and the sensor device 5 via the communication unit 41.

記憶部42は、発話テーブル記憶部51と、コンテンツ記憶部52と、音声広告記憶部53と、ユーザ情報記憶部54と、コンテキスト記憶部55と、出力態様判定情報記憶部56とを有する。 The storage unit 42 includes an utterance table storage unit 51, a content storage unit 52, a voice advertisement storage unit 53, a user information storage unit 54, a context storage unit 55, and an output mode determination information storage unit 56.

発話テーブル記憶部51は、スマートスピーカ1毎の発話テーブル21の情報を記憶する。図6は、実施形態に係る発話テーブル記憶部51に記憶される発話テーブルの一例を示す図である。図6に示す発話テーブル71は、「コンテンツID」と、「発話内容」と、「モデル」とが互いに関連付けられた情報を「機器ID」毎に含む。 The utterance table storage unit 51 stores the information of the utterance table 21 for each smart speaker 1. FIG. 6 is a diagram showing an example of an utterance table stored in the utterance table storage unit 51 according to the embodiment. The utterance table 71 shown in FIG. 6 includes information in which the “content ID”, the “utterance content”, and the “model” are associated with each other for each “device ID”.

発話テーブル71における「コンテンツID」、「発話内容」、および「モデル」は、発話テーブル21における「コンテンツID」、「発話内容」、および「モデル」と同様の情報である。「機器ID」は、スマートスピーカ1毎に固有の識別情報である。 The "content ID", "utterance content", and "model" in the utterance table 71 are the same information as the "content ID", "utterance content", and "model" in the utterance table 21. The "device ID" is identification information unique to each smart speaker 1.

図5に示すコンテンツ記憶部52は、スマートスピーカ1へ提供する各種のコンテンツを記憶する。図7は、実施形態に係るコンテンツ記憶部52に記憶されるコンテンツテーブルの一例を示す図である。図7に示すコンテンツテーブル72は、「コンテンツID」と、「コンテンツ」とが互いに関連付けられた情報である。 The content storage unit 52 shown in FIG. 5 stores various contents to be provided to the smart speaker 1. FIG. 7 is a diagram showing an example of a content table stored in the content storage unit 52 according to the embodiment. The content table 72 shown in FIG. 7 is information in which the “content ID” and the “content” are associated with each other.

「コンテンツ」には、聴覚的出力用コンテンツと、視覚的出力用コンテンツとが含まれる。聴覚的出力用コンテンツは、音声で出力されるコンテンツであり、視覚的出力用コンテンツは文字、画像などといった音声以外の態様で出力されるコンテンツである。 The "content" includes a content for auditory output and a content for visual output. The auditory output content is content that is output by voice, and the visual output content is content that is output in a mode other than voice, such as characters and images.

図5に示す音声広告記憶部53は、音声広告の情報などを記憶する。図8は、実施形態に係る音声広告記憶部53に記憶される音声広告テーブルの一例を示す図である。図8に示す音声広告テーブル73は、「広告ID」と、「音声広告」と、「出力回数」と、「受容回数」と、「受容率」とが互いに関連付けられた情報である。「広告ID」は、音声広告毎に固有の識別情報である。 The voice advertisement storage unit 53 shown in FIG. 5 stores voice advertisement information and the like. FIG. 8 is a diagram showing an example of a voice advertisement table stored in the voice advertisement storage unit 53 according to the embodiment. The voice advertisement table 73 shown in FIG. 8 is information in which the “advertisement ID”, the “voice advertisement”, the “output count”, the “acceptance count”, and the “acceptance rate” are associated with each other. The "advertisement ID" is identification information unique to each voice advertisement.

「音声広告」は、音声広告のコンテンツであり、例えば、スマートスピーカ1の音声出力器11または端末装置3の音声出力器から出力される。なお、音声広告テーブル73の「音声広告」は、音声広告のコンテンツそのものであるが、音声広告のコンテンツの格納場所を示す情報であってもよい。 The “voice advertisement” is the content of the voice advertisement, and is output from, for example, the voice output device 11 of the smart speaker 1 or the voice output device of the terminal device 3. The "voice advertisement" in the voice advertisement table 73 is the content of the voice advertisement itself, but may be information indicating a storage location of the content of the voice advertisement.

「出力回数」は、音声広告がユーザUに提供された回数を示す情報であり、例えば、音声広告がスマートスピーカ1や端末装置3へ出力される度に制御部43によってインクリメントされる。「受容回数」は、音声広告がユーザUに受容された回数であり、例えば、音声広告がユーザUに受容される度に制御部43によってインクリメントされる。「受容率」は、出力回数に対する受容回数の割合であり、例えば、制御部43によって演算される。 The “number of outputs” is information indicating the number of times the voice advertisement is provided to the user U, and is incremented by the control unit 43 each time the voice advertisement is output to the smart speaker 1 or the terminal device 3, for example. The “number of acceptances” is the number of times the voice advertisement is received by the user U, and is incremented by the control unit 43 each time the voice advertisement is received by the user U, for example. The "acceptance rate" is the ratio of the number of acceptances to the number of outputs, and is calculated by, for example, the control unit 43.

例えば、図8に示す音声広告テーブル73において、広告ID「A101」の音声広告は、出力回数が29817回で、受容回数が827回で、受容率が0.0278であることを示している。また、広告ID「A102」の音声広告は、出力回数が8372回で、受容回数が352回で、受容率が0.0420であることを示している。 For example, in the voice advertisement table 73 shown in FIG. 8, the voice advertisement of the advertisement ID “A101” shows that the number of outputs is 29817, the number of acceptances is 827, and the acceptance rate is 0.0278. Further, the voice advertisement of the advertisement ID "A102" shows that the number of outputs is 8372, the number of acceptances is 352, and the acceptance rate is 0.0420.

図5に示すユーザ情報記憶部54は、ユーザUの情報を記憶する。図9は、実施形態に係るユーザ情報記憶部54に記憶されるユーザ情報テーブルの一例を示す図である。図9に示すユーザ情報テーブル74は、「ユーザID」と、「ユーザ属性」と、「機器ID」と、「機器アドレス」とが互いに関連付けられた情報である。 The user information storage unit 54 shown in FIG. 5 stores the information of the user U. FIG. 9 is a diagram showing an example of a user information table stored in the user information storage unit 54 according to the embodiment. The user information table 74 shown in FIG. 9 is information in which a "user ID", a "user attribute", a "device ID", and a "device address" are associated with each other.

「ユーザID」は、ユーザU毎に固有の識別情報である。「ユーザ属性」は、ユーザUの属性を示す情報である。ユーザUの属性は、例えば、性別、および年齢の他、住所、職業などのデモグラフィック属性であるが、ユーザUの嗜好などを示すサイコグラフィック属性を含んでもよい。「機器ID」は、ユーザUが所有するスマートスピーカ1に固有の識別情報、およびユーザUが所有する端末装置3に固有の識別情報を含む。「機器アドレス」は、ユーザUが所有するスマートスピーカ1または端末装置3のネットワーク6上のアドレスである。 The "user ID" is identification information unique to each user U. The "user attribute" is information indicating the attribute of the user U. The attributes of the user U are, for example, demographic attributes such as address and occupation in addition to gender and age, but may include psychographic attributes indicating the preferences of the user U and the like. The "device ID" includes identification information unique to the smart speaker 1 owned by the user U and identification information unique to the terminal device 3 owned by the user U. The “device address” is an address on the network 6 of the smart speaker 1 or the terminal device 3 owned by the user U.

出力態様判定情報記憶部56は、スマートスピーカ1からコンテンツの出力要求があった場合に、出力要求の対象となるコンテンツの出力態様を決定するための出力態様判定情報を含む。出力態様には、上述したように、コンテンツの出力種別、およびコンテンツの出力先の少なくとも一つが含まれる。 The output mode determination information storage unit 56 includes output mode determination information for determining the output mode of the content subject to the output request when the smart speaker 1 requests the output of the content. As described above, the output mode includes at least one of the content output type and the content output destination.

出力態様判定情報は、例えば、ユーザUに関するコンテキストと各出力態様との関係を規定する情報であり、モデルまたはテーブルを含む。出力態様判定情報に含まれるテーブルは、ユーザUに関するコンテキストと各出力態様との関係を規定するテーブルである。また、出力態様判定情報に含まれるモデルは、学習部64による学習によって生成されるモデルである。 The output mode determination information is, for example, information that defines the relationship between the context regarding the user U and each output mode, and includes a model or a table. The table included in the output mode determination information is a table that defines the relationship between the context regarding the user U and each output mode. Further, the model included in the output mode determination information is a model generated by learning by the learning unit 64.

図5に示す制御部43は、情報取得部61と、情報出力部62と、コンテキスト取得部63と、学習部64と、出力態様決定部65と、検出部66と、判定部67と、広告効果更新部68とを備える。 The control unit 43 shown in FIG. 5 includes an information acquisition unit 61, an information output unit 62, a context acquisition unit 63, a learning unit 64, an output mode determination unit 65, a detection unit 66, a determination unit 67, and an advertisement. It is provided with an effect updating unit 68.

情報取得部61は、スマートスピーカ1から送信される情報を取得する。例えば、情報取得部61は、スマートスピーカ1からユーザUの指示を示す入力情報(例えば、発話情報、ジェスチャーによる操作内容を示す情報)を取得することができる。また、情報取得部61は、例えば、ユーザUの撮像画像を示す撮像情報をスマートスピーカ1、端末装置3、機器4、またはセンサ装置5から取得することができる。 The information acquisition unit 61 acquires the information transmitted from the smart speaker 1. For example, the information acquisition unit 61 can acquire input information (for example, utterance information, information indicating the operation content by gesture) indicating the instruction of the user U from the smart speaker 1. Further, the information acquisition unit 61 can acquire, for example, imaging information indicating the captured image of the user U from the smart speaker 1, the terminal device 3, the device 4, or the sensor device 5.

また、情報取得部61は、ユーザUの周囲に存在する1以上の機器(例えば、スマートスピーカ1、端末装置3、機器4など)への操作履歴を示す操作履歴情報をスマートスピーカ1、端末装置3、または機器4から取得することができる。 Further, the information acquisition unit 61 provides operation history information indicating the operation history to one or more devices (for example, smart speaker 1, terminal device 3, device 4, etc.) existing around the user U to the smart speaker 1, terminal device. It can be obtained from 3 or the device 4.

情報出力部62は、出力態様決定部65によって決定される出力態様に基づいて、ユーザUの入力情報に応じたコンテンツ(聴覚的出力用コンテンツ)をコンテンツ記憶部52から取得する。例えば、情報出力部62は、出力態様決定部65によって決定される出力種別が聴覚的出力である場合、ユーザUの入力情報に応じたコンテンツであって音声のコンテンツをコンテンツ記憶部52から取得する。 The information output unit 62 acquires the content (auditory output content) corresponding to the input information of the user U from the content storage unit 52 based on the output mode determined by the output mode determination unit 65. For example, when the output type determined by the output mode determination unit 65 is auditory output, the information output unit 62 acquires audio content from the content storage unit 52, which is content corresponding to the input information of the user U. ..

また、情報出力部62は、出力態様決定部65によって決定される出力種別が視覚的出力である場合、ユーザUの入力情報に応じたコンテンツであって文字または画像のコンテンツ(視覚的出力用コンテンツ)をコンテンツ記憶部52のコンテンツテーブル72から取得する。また、情報出力部62は、出力態様決定部65によって決定される出力種別が聴覚的出力および視覚的出力である場合、ユーザUの入力情報に応じたコンテンツであって音声および文字(または画像)を含むコンテンツをコンテンツ記憶部52のコンテンツテーブル72から取得する。 Further, when the output type determined by the output mode determination unit 65 is visual output, the information output unit 62 is content corresponding to the input information of the user U and is character or image content (visual output content). ) Is acquired from the content table 72 of the content storage unit 52. Further, when the output types determined by the output mode determination unit 65 are the auditory output and the visual output, the information output unit 62 is the content corresponding to the input information of the user U, and is voice and characters (or images). The content including the above is acquired from the content table 72 of the content storage unit 52.

情報出力部62は、出力態様決定部65によって決定される出力態様に基づいて、記憶部42から取得したコンテンツをスマートスピーカ1および端末装置3の少なくとも一つに出力する。情報出力部62は、出力態様決定部65によって決定される出力先の機器アドレスを記憶部42のユーザ情報テーブル74から取得し、取得した機器アドレス宛にコンテンツを送信する。 The information output unit 62 outputs the content acquired from the storage unit 42 to at least one of the smart speaker 1 and the terminal device 3 based on the output mode determined by the output mode determination unit 65. The information output unit 62 acquires the device address of the output destination determined by the output mode determination unit 65 from the user information table 74 of the storage unit 42, and transmits the content to the acquired device address.

例えば、情報出力部62は、出力態様決定部65によって決定される出力先がスマートスピーカ1である場合、記憶部42から取得したコンテンツをスマートスピーカ1の機器アドレス宛へ送信する。また、情報出力部62は、出力態様決定部65によって決定される出力先が端末装置3である場合、記憶部42から取得したコンテンツを端末装置3の機器アドレス宛へ送信する。 For example, when the output destination determined by the output mode determination unit 65 is the smart speaker 1, the information output unit 62 transmits the content acquired from the storage unit 42 to the device address of the smart speaker 1. Further, when the output destination determined by the output mode determination unit 65 is the terminal device 3, the information output unit 62 transmits the content acquired from the storage unit 42 to the device address of the terminal device 3.

コンテキスト取得部63は、ユーザUに関するコンテキスト情報を取得するコンテンツ取得処理を実行する。コンテキスト取得部63は、情報取得部61で取得した情報からコンテキスト情報を取得することができる。コンテキスト取得部63によって取得されるコンテキスト情報は、コンテキスト取得部35によって取得されるコンテキスト情報と同じであるが、コンテキスト取得部35によって取得されるコンテキスト情報と一部または全部が異なる情報であってもよい。 The context acquisition unit 63 executes a content acquisition process for acquiring context information regarding the user U. The context acquisition unit 63 can acquire context information from the information acquired by the information acquisition unit 61. The context information acquired by the context acquisition unit 63 is the same as the context information acquired by the context acquisition unit 35, but even if the information is partially or completely different from the context information acquired by the context acquisition unit 35. Good.

なお、コンテキスト取得部63が取得するコンテキスト情報には、ユーザUの指示の種別を示す入力種別情報が含まれる。入力種別情報は、例えば、ユーザUの指示が音声、ジェスチャー、および口の動きのいずれであるかを示す情報である。なお、コンテキスト取得部63は、スマートスピーカ1、端末装置3、機器4、またはセンサ装置5からユーザUの撮像画像が情報提供装置2へ送信される場合、ユーザUの撮像画像からユーザUのジェスチャーや口の動きを判定することで、入力種別情報を取得することもできる。 The context information acquired by the context acquisition unit 63 includes input type information indicating the type of instruction of the user U. The input type information is, for example, information indicating whether the instruction of the user U is a voice, a gesture, or a movement of the mouth. When the captured image of the user U is transmitted from the smart speaker 1, the terminal device 3, the device 4, or the sensor device 5 to the information providing device 2, the context acquisition unit 63 makes a gesture of the user U from the captured image of the user U. It is also possible to acquire input type information by determining the movement of the or mouth.

学習部64は、コンテキスト取得部63によって取得されるユーザU毎のコンテキスト情報に基づいて、発話テーブル71のタイミング判定モデルをユーザU毎且つコンテンツ毎に生成することができる。かかるタイミング判定モデルは、上述したように、発話に対する過去のユーザUの反応と発話時の過去のユーザUに関するコンテキスト情報とに基づいて生成されるモデルである。 The learning unit 64 can generate a timing determination model for the utterance table 71 for each user U and each content based on the context information for each user U acquired by the context acquisition unit 63. As described above, such a timing determination model is a model generated based on the reaction of the past user U to the utterance and the context information regarding the past user U at the time of the utterance.

学習部64は、スマートスピーカ1からの自発的な発話を開始してから予め設定された期間においてコンテキスト情報に含まれるユーザUの動作またはユーザUの発話がスマートスピーカ1からの自発的な発話に対して肯定的な反応であるか否かを教師データとする。 In the learning unit 64, the operation of the user U or the utterance of the user U included in the context information becomes a spontaneous utterance from the smart speaker 1 within a preset period after the spontaneous utterance from the smart speaker 1 is started. Whether or not the reaction is positive is used as the teacher data.

例えば、学習部64は、スマートスピーカ1の自発的発話に対するユーザUの発話が肯定的である場合、スマートスピーカ1の自発的発話に対して肯定的な反応であると判定する。例えば、学習部64は、「今日のニュースはいかがですか?」などの自発的発話に対して、ユーザUの発話が例えば「よろしく」、「うん」などである場合、肯定的な反応であると判定することができる。 For example, when the user U's utterance is positive with respect to the spontaneous utterance of the smart speaker 1, the learning unit 64 determines that the reaction is positive with respect to the spontaneous utterance of the smart speaker 1. For example, the learning unit 64 responds positively to a spontaneous utterance such as "How about today's news?" When the utterance of the user U is, for example, "Thank you" or "Yeah". Can be determined.

また、学習部64は、スマートスピーカ1の自発的発話に対するユーザUの発話がない場合、またはスマートスピーカ1の自発的発話に対するユーザUの発話が否定的である場合、スマートスピーカ1の自発的発話に対して肯定的な反応ではないと判定する。例えば、学習部64は、「今日のニュースはいかがですか?」などの自発的発話に対して、ユーザUの発話がない場合、またはユーザUの発話が例えば「いらない」、「やめて」などである場合、肯定的な反応ではないと判定することができる。 Further, when the user U does not speak to the spontaneous utterance of the smart speaker 1 or the user U's utterance to the spontaneous utterance of the smart speaker 1 is negative, the learning unit 64 causes the smart speaker 1 to speak spontaneously. It is judged that the reaction is not positive. For example, the learning unit 64 responds to a spontaneous utterance such as "How about today's news?" When there is no utterance of the user U, or when the utterance of the user U is, for example, "don't need" or "stop". In some cases, it can be determined that the reaction is not positive.

なお、自発的発話に対するユーザUの反応が肯定的であるか否かは、上述した例に限定されない。例えば、学習部64は、ユーザUが頷いた場合に、自発的発話に対して肯定的な反応であると判定することができる。また、学習部64は、ユーザUがスマートスピーカ1から遠ざかった場合に、自発的発話に対して肯定的な反応ではないと判定することができる。 Whether or not User U's reaction to spontaneous utterance is positive is not limited to the above-mentioned example. For example, the learning unit 64 can determine that the user U has a positive reaction to the spontaneous utterance when the user U nods. Further, the learning unit 64 can determine that the user U does not have a positive reaction to the spontaneous utterance when the user U moves away from the smart speaker 1.

学習部64は、上述のように自発的発話に対して肯定的な反応であるか否かを教師データとし、自発的発話を開始してから予め設定された期間においてコンテキスト情報に含まれる1以上の情報を特徴量として機械学習を行ってタイミング判定モデルを生成および更新する。 As described above, the learning unit 64 uses the teacher data as to whether or not it is a positive reaction to the spontaneous utterance, and one or more included in the context information in a preset period after the start of the spontaneous utterance. Machine learning is performed using the information in the above as a feature quantity to generate and update a timing judgment model.

なお、タイミング判定モデルは、上述した例に限定されるものではなく、例えば、SVM(Support Vector Machine)やその他の機械学習法を用いて生成されるモデルであってもよい。また、タイミング判定モデルの生成は、深層学習(ディープラーニング)の技術を用いて行われてもよい。例えば、タイミング判定モデルの生成は、DNN(Deep Neural Network)やRNN(Recurrent Neural Network)やCNN(Convolutional Neural Network)等の種々のディープラーニングの技術を適宜用いて行われてもよい。 The timing determination model is not limited to the above-mentioned example, and may be, for example, a model generated by using SVM (Support Vector Machine) or another machine learning method. Further, the timing determination model may be generated by using a technique of deep learning. For example, the timing determination model may be generated by appropriately using various deep learning techniques such as DNN (Deep Neural Network), RNN (Recurrent Neural Network), and CNN (Convolutional Neural Network).

学習部64は、生成したタイミング判定モデルを発話テーブル71に設定する。また、学習部64は、発話テーブル71に設定されたタイミング判定モデルを、新たに取得される発話に対するユーザUの反応とコンテキスト情報とに基づいてタイミング判定モデルを更新することができる。例えば、学習部64は、情報提供装置2の処理負荷が少ない時間帯(例えば、深夜)などにタイミング判定モデルを更新することができる。 The learning unit 64 sets the generated timing determination model in the utterance table 71. Further, the learning unit 64 can update the timing determination model set in the utterance table 71 based on the reaction of the user U to the newly acquired utterance and the context information. For example, the learning unit 64 can update the timing determination model in a time zone (for example, midnight) when the processing load of the information providing device 2 is small.

また、学習部64は、複数のユーザUに共通のタイミング判定モデル(以下、共通判定モデルと記載する場合がある)をコンテンツ毎または特定のコンテンツについて生成することができる。この場合、学習部64は、発話に対する過去の複数のユーザUの反応と発話時の過去の複数のユーザUに関するコンテキスト情報とに基づいて、共通判定モデルを生成することができる。 Further, the learning unit 64 can generate a timing determination model common to a plurality of users U (hereinafter, may be referred to as a common determination model) for each content or for a specific content. In this case, the learning unit 64 can generate a common determination model based on the reactions of the plurality of past users U to the utterance and the context information regarding the past plurality of users U at the time of the utterance.

また、学習部64は、共通判定モデルをコンテンツ毎に生成した後、かかる共通判定モデルをベースにして新たに取得される発話に対する各ユーザUの反応とコンテキスト情報とに基づいて、各ユーザUに固有のタイミング判定モデルを生成することもできる。 Further, the learning unit 64 generates a common judgment model for each content, and then gives each user U a reaction and context information to a newly acquired utterance based on the common judgment model. It is also possible to generate a unique timing determination model.

また、学習部64は、複数のコンテンツに共通かつ複数のユーザUに共通のタイミング判定モデルを生成することもできる。この場合、学習部64は、任意の発話に対する過去の複数のユーザUの反応と任意の発話時の過去の複数のユーザUに関するコンテキスト情報とに基づいて、複数のユーザUに共通のタイミング判定モデルを生成することができる。 Further, the learning unit 64 can also generate a timing determination model that is common to a plurality of contents and common to a plurality of users U. In this case, the learning unit 64 has a timing determination model common to the plurality of users U based on the reactions of the past plurality of users U to an arbitrary utterance and the context information regarding the past plurality of users U at the time of an arbitrary utterance. Can be generated.

また、学習部64は、コンテンツに対する過去のユーザUの反応と過去のユーザUに関するコンテキスト情報とに基づいて出力態様毎に出力態様判定モデルを生成することができる。例えば、ユーザUの反応が否定的な反応であるか否かまたは肯定的な反応であるか否かを教師データとし、ユーザUの反応時のコンテキスト情報を特徴量として機械学習を行うことができる。 Further, the learning unit 64 can generate an output mode determination model for each output mode based on the reaction of the past user U to the content and the context information regarding the past user U. For example, machine learning can be performed using the teacher data as to whether or not the reaction of the user U is a negative reaction or a positive reaction, and the context information at the time of the reaction of the user U as a feature amount. ..

否定的な反応は、例えば、スマートスピーカ1からコンテンツが音声として出力された場合におけるユーザUの否定的な発話(例えば、「いらない」や「やめて」など)である。また、否定的な反応は、例えば、端末装置3からコンテンツが文字または画像として出力された場合におけるユーザUの端末装置3に対する非操作である。 The negative reaction is, for example, a negative utterance of the user U (for example, "don't need" or "stop") when the content is output as voice from the smart speaker 1. Further, the negative reaction is, for example, a non-operation of the user U with respect to the terminal device 3 when the content is output as a character or an image from the terminal device 3.

また、肯定的な反応は、例えば、スマートスピーカ1からコンテンツが音声として出力された場合におけるユーザUの否定的な発話がない状態である。肯定的な反応は、例えば、端末装置3からコンテンツが文字または画像として出力された場合における端末装置3に対する操作である。 Further, the positive reaction is, for example, a state in which there is no negative utterance of the user U when the content is output as voice from the smart speaker 1. The positive reaction is, for example, an operation on the terminal device 3 when the content is output as a character or an image from the terminal device 3.

出力態様決定部65は、コンテンツの出力要求があった場合、コンテキスト取得部63によって取得されたコンテキスト情報に基づいて、ユーザUに提供されるコンテンツの出力態様を決定する。出力態様には出力種別および出力先が含まれるが、出力態様決定部65は、出力種別および出力先の一方のみを決定することもできる。出力態様決定部65による出力態様の決定は、出力態様判定情報記憶部56に記憶された上述の出力態様判定情報を用いて行われる。 When there is a content output request, the output mode determination unit 65 determines the output mode of the content provided to the user U based on the context information acquired by the context acquisition unit 63. The output mode includes an output type and an output destination, but the output mode determining unit 65 can also determine only one of the output type and the output destination. The output mode determination unit 65 determines the output mode using the above-mentioned output mode determination information stored in the output mode determination information storage unit 56.

出力態様決定部65は、コンテキスト情報に含まれるユーザUの状況を示す状況情報に基づいて、出力態様を決定することができる。例えば、出力態様決定部65は、ユーザUが移動中である場合、出力種別を聴覚的出力とし且つ出力先をスマートスピーカ1とする態様を、コンテンツの出力態様として決定することができる。これにより、ユーザUは移動しながら端末装置3の画面を見ることなくコンテンツを把握することができる。 The output mode determination unit 65 can determine the output mode based on the status information indicating the status of the user U included in the context information. For example, when the user U is moving, the output mode determination unit 65 can determine a mode in which the output type is auditory output and the output destination is the smart speaker 1 as the content output mode. As a result, the user U can grasp the content without looking at the screen of the terminal device 3 while moving.

また、出力態様決定部65は、スマートスピーカ1および端末装置3のうちユーザUの現在位置に近い機器を出力先とすることができ、これにより、ユーザUによるコンテンツの把握を容易にすることができる。 Further, the output mode determination unit 65 can set the device of the smart speaker 1 and the terminal device 3 that is close to the current position of the user U as the output destination, which makes it easy for the user U to grasp the content. it can.

また、出力態様決定部65は、ユーザUが会話中である場合、出力種別を視覚的出力とし且つ出力先を端末装置3とする態様を、コンテンツの出力態様として決定することができる。これにより、ユーザUが会話を中断することなくコンテンツを把握することができる。 Further, when the user U is in a conversation, the output mode determining unit 65 can determine a mode in which the output type is visual output and the output destination is the terminal device 3 as the content output mode. As a result, the user U can grasp the content without interrupting the conversation.

また、出力態様決定部65は、コンテキスト情報に含まれるユーザUの周囲の状況を示す周囲情報に基づいて、出力態様を決定することができる。例えば、出力態様決定部65は、ユーザUの周囲に他人が存在する場合に、出力種別を視覚的出力とし且つ出力先を端末装置3とする態様を、コンテンツの出力態様として決定することができる。これにより、例えば、コンテンツがユーザUのスケジュールやユーザUへのメールである場合に、スマートスピーカ1からコンテンツで音声出力されないため、ユーザUのスケジュールやメールを他人に知られることを防止することができる。 Further, the output mode determining unit 65 can determine the output mode based on the surrounding information indicating the surrounding situation of the user U included in the context information. For example, the output mode determination unit 65 can determine a mode in which the output type is visual output and the output destination is the terminal device 3 as the content output mode when there is another person around the user U. .. As a result, for example, when the content is the schedule of the user U or the mail to the user U, the smart speaker 1 does not output the voice as the content, so that it is possible to prevent the schedule or mail of the user U from being known to others. it can.

出力態様決定部65は、ユーザUの周囲に存在する他人が寝ている場合に、出力種別を視覚的出力とし且つ出力先を端末装置3とする態様を、コンテンツの出力態様として決定することができる。これにより、例えば、ユーザUの周囲で寝ている他人をコンテンツの出力によって起こしてしまうといった事態を回避することができる。 The output mode determining unit 65 may determine as a content output mode a mode in which the output type is visual output and the output destination is the terminal device 3 when another person existing around the user U is sleeping. it can. As a result, for example, it is possible to avoid a situation in which another person sleeping around the user U is awakened by the output of the content.

また、出力態様決定部65は、ユーザUの周囲の音が大きい場合に、出力種別を視覚的出力とし且つ出力先を端末装置3とする態様を、コンテンツの出力態様として決定することができる。これにより、ユーザUの周囲の騒音や機器4の発する音でコンテンツが把握できなくなるといった事態を回避することができる。 Further, the output mode determination unit 65 can determine a mode in which the output type is visual output and the output destination is the terminal device 3 as the content output mode when the sound around the user U is loud. As a result, it is possible to avoid a situation in which the content cannot be grasped due to the noise around the user U or the sound emitted by the device 4.

また、出力態様決定部65は、ユーザUの周囲に他人が存在しない場合や、ユーザUの周囲の音が小さい場合、出力種別を聴覚的出力とし且つ出力先をスマートスピーカ1とする態様を、コンテンツの出力態様として決定することができる。これにより、ユーザUは端末装置3の画面を見ることなく、コンテンツを把握することができる。 Further, the output mode determining unit 65 sets the output type to auditory output and the output destination to the smart speaker 1 when there is no other person around the user U or when the sound around the user U is small. It can be determined as the output mode of the content. As a result, the user U can grasp the content without looking at the screen of the terminal device 3.

また、出力態様決定部65は、スマートスピーカ1への入力種別がジェスチャーまたは口の動きである場合、出力種別を視覚的出力とし且つ出力先を端末装置3とする態様を、コンテンツの出力態様として決定することができる。また、出力態様決定部65は、スマートスピーカ1への発話(有音発話)である場合、出力種別を聴覚的出力とし且つ出力先をスマートスピーカ1とする態様を、コンテンツの出力態様として決定することができる。 Further, when the input type to the smart speaker 1 is gesture or mouth movement, the output mode determining unit 65 sets the output type to visual output and the output destination to the terminal device 3, as the content output mode. Can be decided. Further, in the case of utterance to the smart speaker 1 (sound utterance), the output mode determining unit 65 determines as the content output mode the mode in which the output type is auditory output and the output destination is the smart speaker 1. be able to.

これにより、ユーザUは、所望の出力態様に応じた入力種別でスマートスピーカ1へ入力することができ、ユーザUは、スマートスピーカ1または端末装置3から所望の出力態様でコンテンツを確認することができる。出力態様決定部65が出力態様判定モデルに基づいて入力種別に応じた出力態様を決定する場合、出力態様判定モデルは、例えば、入力種別を特徴量としての重みを大きくしたり、特徴量を入力種別のみとしたりすることで、出力態様決定部65は、入力種別に応じた出力態様を決定することができる。なお、出力態様決定部65は、入力種別と出力態様とが入力種別毎に対応付けられた出力態様判定テーブルに基づいて、入力種別に応じた出力態様を決定することもできる。 As a result, the user U can input to the smart speaker 1 with an input type according to the desired output mode, and the user U can confirm the content from the smart speaker 1 or the terminal device 3 in the desired output mode. it can. When the output mode determination unit 65 determines the output mode according to the input type based on the output mode determination model, the output mode determination model may, for example, increase the weight with the input type as the feature amount or input the feature amount. The output mode determination unit 65 can determine the output mode according to the input type by setting only the type. The output mode determination unit 65 can also determine the output mode according to the input type based on the output mode determination table in which the input type and the output mode are associated with each input type.

また、出力態様決定部65は、出力態様判定情報として出力態様毎の出力態様判定モデルを含む場合、出力態様毎の出力態様判定モデルにコンテキスト情報を入力する。出力態様決定部65は、出力態様毎の出力態様判定モデルの出力に基づいて、コンテンツの出力態様を決定する。 Further, when the output mode determination unit 65 includes the output mode determination model for each output mode as the output mode determination information, the output mode determination unit 65 inputs the context information to the output mode determination model for each output mode. The output mode determination unit 65 determines the output mode of the content based on the output of the output mode determination model for each output mode.

例えば、ユーザUの反応が否定的な反応であるか否かを教師データとして出力態様判定モデルが生成される場合、出力態様決定部65は、出力するスコアが最も低い出力態様判定モデルに対応する出力態様を、コンテンツの出力態様として決定することができる。また、ユーザUの反応が肯定的な反応であるか否かを教師データとして出力態様判定モデルが生成される場合、出力態様決定部65は、出力するスコアが最も高い出力態様判定モデルに対応する出力態様を、コンテンツの出力態様として決定することができる。 For example, when the output mode determination model is generated using whether or not the reaction of the user U is a negative reaction as teacher data, the output mode determination unit 65 corresponds to the output mode determination model having the lowest output score. The output mode can be determined as the output mode of the content. Further, when the output mode determination model is generated using whether or not the reaction of the user U is a positive reaction as teacher data, the output mode determination unit 65 corresponds to the output mode determination model having the highest output score. The output mode can be determined as the output mode of the content.

このように、出力態様決定部65は、ユーザUの状況やユーザUの周囲の状況に応じてコンテンツの出力態様を決定することができるため、ユーザUへのコンテンツの提供を適切に行うことができる。 In this way, the output mode determination unit 65 can determine the output mode of the content according to the situation of the user U and the situation around the user U, so that the content can be appropriately provided to the user U. it can.

検出部66は、スマートスピーカ1の音声出力器11または端末装置3の音声出力器(図示せず)から音声広告が出力された場合のユーザUの振る舞いを検出する。検出部66は、情報取得部61によって取得される撮像情報を画像解析することで、音声広告が出力された場合のユーザUの振る舞いを検出することができる。 The detection unit 66 detects the behavior of the user U when a voice advertisement is output from the voice output device 11 of the smart speaker 1 or the voice output device (not shown) of the terminal device 3. The detection unit 66 can detect the behavior of the user U when the voice advertisement is output by performing image analysis of the image pickup information acquired by the information acquisition unit 61.

例えば、検出部66は、情報取得部61によって取得される撮像情報に基づいて、ユーザUの目線の動き、ユーザUの頭部の動き、ユーザUの口の動き、ユーザUの手の動き、およびユーザUの足の動きのうち少なくとも一つの身体的振る舞いをユーザUの振る舞いとして検出することができる。 For example, the detection unit 66 moves the line of sight of the user U, the movement of the head of the user U, the movement of the mouth of the user U, the movement of the hand of the user U, based on the imaging information acquired by the information acquisition unit 61. And at least one physical behavior of the user U's foot movement can be detected as the user U's behavior.

また、検出部66は、情報取得部61によって取得される撮像情報に基づいて、ユーザUが行っている作業の状態を検出することができる。例えば、検出部66は、ユーザUが食器洗い、ミシンでの縫製、および料理といった作業を中断したか否かを検出することができる。 Further, the detection unit 66 can detect the state of the work performed by the user U based on the imaging information acquired by the information acquisition unit 61. For example, the detection unit 66 can detect whether or not the user U has interrupted operations such as washing dishes, sewing with a sewing machine, and cooking.

また、検出部66は、情報取得部61によって取得される音情報を音響解析することで、音声広告が出力された場合のユーザUの振る舞いを検出することができる。例えば、検出部66は、音情報に基づいて、ユーザUの会話における振る舞い、ユーザUによるスマートスピーカ1への発話による問いかけ、ユーザUが行っていた作業における振る舞い、およびユーザUの機器4への振る舞いなどを検出することができる。 Further, the detection unit 66 can detect the behavior of the user U when the voice advertisement is output by acoustically analyzing the sound information acquired by the information acquisition unit 61. For example, the detection unit 66 asks the user U's behavior in conversation, the user U's utterance to the smart speaker 1, the behavior in the work performed by the user U, and the user U's device 4 based on the sound information. Behavior etc. can be detected.

具体的には、検出部66は、音情報に基づいて、会話中のユーザUが発話を止める、および会話中のユーザUが発話の音量を下げるといった振る舞いを検出することができる。また、検出部66は、ユーザUが情報を検索するための発話、およびユーザUが情報を確認するための発話といった振る舞いを検出することができる。 Specifically, the detection unit 66 can detect behaviors such as the user U in conversation stopping the utterance and the user U in the conversation lowering the volume of the utterance based on the sound information. In addition, the detection unit 66 can detect behaviors such as an utterance for the user U to search for information and an utterance for the user U to confirm the information.

また、検出部66は、音情報に基づいて、食器洗いや料理といった作業をユーザUが中断したか否かを検出することができる。例えば、検出部66は、水道の蛇口から水が吐出する音が消えた場合や食器を洗う音が消えた場合、食器洗いを中断したと判定することができる。 Further, the detection unit 66 can detect whether or not the user U has interrupted the work such as washing dishes and cooking based on the sound information. For example, the detection unit 66 can determine that the dishwashing is interrupted when the sound of water discharged from the faucet disappears or the sound of washing the dishes disappears.

また、ユーザUが機器4をオフすることで機器4から出力される音である機器音が停止するため、検出部66は、音情報に基づいて、ユーザUが機器4をオフする振る舞いを行ったことを検出することができる。検出部66が音情報に基づいてオフを検出する機器4は、例えば、電子レンジ、洗濯機、食器洗浄機、ミシン、テレビジョン受像機、ラジオ受信器などの比較的大きな音を発する機器である。 Further, when the user U turns off the device 4, the device sound, which is the sound output from the device 4, is stopped. Therefore, the detection unit 66 behaves as the user U turns off the device 4 based on the sound information. It can be detected. The device 4 in which the detection unit 66 detects off based on sound information is, for example, a device that emits a relatively loud sound, such as a microwave oven, a washing machine, a dishwasher, a sewing machine, a television receiver, and a radio receiver. ..

また、検出部66は、情報取得部61によって取得された操作履歴情報に基づいて、スマートスピーカ1、端末装置3、または機器4へのユーザUの振る舞いを検出することができる。例えば、検出部66は、操作履歴情報に基づいて、ユーザUが機器をオフしたりオンしたりする振る舞いおよびユーザUが情報を検索する振る舞いなどを検出することができる。 Further, the detection unit 66 can detect the behavior of the user U to the smart speaker 1, the terminal device 3, or the device 4 based on the operation history information acquired by the information acquisition unit 61. For example, the detection unit 66 can detect the behavior of the user U turning the device off and on, the behavior of the user U searching for information, and the like based on the operation history information.

判定部67は、検出部66によって検出されたユーザUの振る舞いに基づいて音声広告がユーザUに受容されたか否かを判定する。例えば、判定部67は、検出部66によって検出されたユーザUの身体的な振る舞いが特定の振る舞いである場合に、音声広告がユーザUに受容されたと判定する。 The determination unit 67 determines whether or not the voice advertisement is accepted by the user U based on the behavior of the user U detected by the detection unit 66. For example, the determination unit 67 determines that the voice advertisement has been accepted by the user U when the physical behavior of the user U detected by the detection unit 66 is a specific behavior.

特定の振る舞いは、例えば、広告出力期間においてユーザUが一定時間以上視線をスマートスピーカ1に向ける、音声広告の出力開始時に移動中のユーザUが広告出力期間において一定時間以上移動を停止する、および広告出力期間においてユーザUが頷くなどといった振る舞いである。また、特定の振る舞いは、音声広告の出力開始前に継続的に手が動いていたユーザUが広告出力期間において一定時間以上手を止める、およびユーザUが特定のジェスチャーをしたなどといった振る舞いである。 Specific behaviors include, for example, the user U directs the line of sight to the smart speaker 1 for a certain period of time or longer during the advertisement output period, the moving user U stops moving for a certain period of time or longer during the advertisement output period at the start of the output of the voice advertisement, and the like. This is a behavior such as the user U nodding during the advertisement output period. Further, the specific behavior is such that the user U who has been continuously moving before the start of the output of the voice advertisement stops his / her hand for a certain period of time or more during the advertisement output period, and the user U makes a specific gesture. ..

また、判定部67は、検出部66が音情報に基づいて検出したユーザUの振る舞いが特定の振る舞いである場合に、音声広告がユーザUに受容されたと判定する。特定の振る舞いは、例えば、会話中のユーザUが発話を止める、会話中のユーザUが発話の音量を下げる、ユーザUが音声広告に関する発話をする、ユーザUが作業を中断する、およびユーザUが機器をオフするなどといった振る舞いである。なお、ユーザUによる音声広告に関する発話は、例えば、「それで?」、「続きは?」などである。 Further, the determination unit 67 determines that the voice advertisement has been accepted by the user U when the behavior of the user U detected by the detection unit 66 based on the sound information is a specific behavior. Specific behaviors include, for example, user U in conversation stops speaking, user U in conversation reduces the volume of utterance, user U speaks about a voice advertisement, user U interrupts work, and user U. Is the behavior such as turning off the device. The utterances related to the voice advertisement by the user U are, for example, "So?" And "Continued?".

また、判定部67は、検出部66が操作履歴情報に基づいて検出したユーザUの振る舞いが特定の振る舞いである場合に、音声広告がユーザUに受容されたと判定する。特定の振る舞いは、例えば、ユーザUが音声広告の広告対象の商品またはサービスに関する検索をする、およびユーザUが機器をオフするなどといった振る舞いである。 Further, the determination unit 67 determines that the voice advertisement has been accepted by the user U when the behavior of the user U detected by the detection unit 66 based on the operation history information is a specific behavior. The specific behavior is, for example, a behavior in which the user U searches for a product or service to be advertised in a voice advertisement, and the user U turns off the device.

判定部67は、ユーザUの振る舞いが否定的な振る舞いである場合に、音声広告がユーザUに受容されていないと判定することができる。否定的な振る舞いは、例えば、ユーザUが否定的な発話をする、およびユーザUが否定的な身体的振る舞いをするなどといった振る舞いである。 The determination unit 67 can determine that the voice advertisement is not accepted by the user U when the behavior of the user U is a negative behavior. Negative behavior is, for example, behavior such that the user U makes a negative utterance and the user U makes a negative physical behavior.

例えば、判定部67は、ユーザUが「やめて」、「聞きたくない」、および「嫌い」といった否定的な発話をした場合に、ユーザUが否定的な振る舞いをしたと判定することができる。また、例えば、判定部67は、ユーザUが耳を手で塞いだ場合に、ユーザUが否定的な振る舞いをしたと判定することができる。 For example, the determination unit 67 can determine that the user U has behaved negatively when the user U makes negative utterances such as "stop", "do not want to hear", and "dislike". Further, for example, the determination unit 67 can determine that the user U has behaved negatively when the user U closes his / her ear with his / her hand.

なお、判定部67は、ユーザUの振る舞いが特定の振る舞いでないと判定した場合、音声広告がユーザUに受容されていないと判定することもできる。これにより、判定部67はユーザUが否定的な振る舞いをしたか否かを判定しなくてもよく、処理負荷が軽減される。 If the determination unit 67 determines that the behavior of the user U is not a specific behavior, it can also determine that the voice advertisement is not accepted by the user U. As a result, the determination unit 67 does not have to determine whether or not the user U has behaved negatively, and the processing load is reduced.

また、判定部67は、ユーザUの振る舞いが特定の振る舞いでも否定的な振る舞いでもないと判定した場合、ユーザUによる音声広告の非受容度が低いと判定し、ユーザUの振る舞いが否定的な振る舞いである場合、ユーザUによる音声広告の非受容度が高いと判定することもできる。 Further, when the determination unit 67 determines that the behavior of the user U is neither a specific behavior nor a negative behavior, the determination unit 67 determines that the non-acceptance of the voice advertisement by the user U is low, and the behavior of the user U is negative. In the case of behavior, it can be determined that the non-acceptance of the voice advertisement by the user U is high.

また、判定部67は、ユーザUの振る舞いが特定の振る舞いである場合に、音声広告がユーザUに受容されたと判定する処理を行わないこともできる。例えば、判定部67は、ユーザUの振る舞いが否定的な振る舞いである場合に、音声広告がユーザUに受容されていないと判定し、ユーザUの振る舞いが否定的な振る舞いではない場合に、音声広告がユーザUに受容されていると判定することができる。 Further, the determination unit 67 may not perform the process of determining that the voice advertisement has been accepted by the user U when the behavior of the user U is a specific behavior. For example, the determination unit 67 determines that the voice advertisement is not accepted by the user U when the behavior of the user U is a negative behavior, and when the behavior of the user U is not a negative behavior, the voice It can be determined that the advertisement is accepted by the user U.

上述した特定の振る舞いおよび否定的な振る舞いは、ユーザUの属性に応じて設定される。ユーザUの属性は、例えば、性別、年齢、住所、および職業の少なくとも一つを含む。例えば、判定部67は、ユーザUが子供である場合、ユーザUが飛び跳ねる、およびユーザUが踊り出すといった振る舞いをした場合、音声広告がユーザUに受容されたと判定する。 The specific behaviors and negative behaviors described above are set according to the attributes of the user U. User U's attributes include, for example, at least one of gender, age, address, and occupation. For example, the determination unit 67 determines that the voice advertisement has been accepted by the user U when the user U is a child, the user U jumps, and the user U begins to dance.

なお、判定部67は、ユーザUに受容されたと判定する基準とする特定の振る舞いを音声広告の時間的長さや種類に応じて変更することもできる。また、判定部67は、一つの音声広告を出力している期間(例えば、30秒)における所定期間(例えば、5秒)毎に、音声広告がユーザUに受容されているか否かを判定することもできる。 The determination unit 67 can also change a specific behavior as a criterion for determining acceptance by the user U according to the time length and type of the voice advertisement. Further, the determination unit 67 determines whether or not the voice advertisement is accepted by the user U every predetermined period (for example, 5 seconds) in the period (for example, 30 seconds) during which one voice advertisement is output. You can also do it.

広告効果更新部68は、音声広告がユーザUに受容されたと判定すると、音声広告テーブル73において音声広告の受容回数を更新する。これにより、テキスト広告またはバナー広告のクリックに相当する広告効果を音声広告に対して得ることができる。そして、広告効果更新部68は、音声広告の出力回数に対する音声広告の受容回数の割合である受容率を演算し、演算した受容率を音声広告効果として音声広告テーブル73に設定することができる。これにより、音声広告においてCTRに相当する広告効果指標を得ることができる。 When the advertisement effect updating unit 68 determines that the voice advertisement has been accepted by the user U, the advertisement effect updating unit 68 updates the number of times the voice advertisement is received in the voice advertisement table 73. As a result, it is possible to obtain an advertising effect equivalent to a click of a text advertisement or a banner advertisement for a voice advertisement. Then, the advertisement effect updating unit 68 can calculate the acceptance rate, which is the ratio of the number of times the voice advertisement is received to the number of times the voice advertisement is output, and set the calculated acceptance rate in the voice advertisement table 73 as the voice advertisement effect. As a result, it is possible to obtain an advertising effectiveness index corresponding to CTR in voice advertising.

また、広告効果更新部68は、音声広告のコンバージョン回数を外部装置から取得することができる。音声広告のコンバージョン回数とは、商品やサービスの購入、サンプルの申し込み、およびパンフレットの申し込みといった音声広告の目的を達成した回数である。広告効果更新部68は、音声広告の受容回数に対する音声広告のコンバージョン回数の割合であるコンバージョン率を演算し、演算したコンバージョン率を音声広告効果とすることができる。これにより、音声広告においてCVR(Conversion Rate)に相当する広告効果指標を得ることができる。 In addition, the advertisement effect updating unit 68 can acquire the number of conversions of the voice advertisement from the external device. The number of conversions of an audio advertisement is the number of times that the purpose of an audio advertisement such as purchase of goods or services, application for samples, and application for pamphlets is achieved. The advertisement effect updating unit 68 can calculate the conversion rate, which is the ratio of the number of conversions of the voice advertisement to the number of times the voice advertisement is received, and can use the calculated conversion rate as the voice advertisement effect. As a result, it is possible to obtain an advertising effectiveness index corresponding to CVR (Conversion Rate) in voice advertising.

また、判定部67によって非受容度が判定された場合、広告効果更新部68は、音声広告の出力回数に対する音声広告の非受容度毎の非受容回数の割合を演算することができる。この場合、広告効果更新部68は、例えば、非受容度が2の非受容回数を音声広告の受容回数から減算し、減算結果を音声広告の受容回数とすることもできる。 When the non-acceptance degree is determined by the determination unit 67, the advertisement effect updating unit 68 can calculate the ratio of the non-acceptance number for each non-acceptance degree of the voice advertisement to the output number of voice advertisements. In this case, the advertisement effect updating unit 68 may, for example, subtract the number of non-acceptances with a non-acceptance degree of 2 from the number of acceptances of the voice advertisement, and use the subtraction result as the number of acceptances of the voice advertisement.

〔4.情報処理システム100の処理フロー〕
次に、実施形態に係る情報処理システム100による発話制御処理の手順について説明する。図10および図11は、実施形態に係る情報処理システム100による発話制御処理の一例を示すフローチャートである。
[4. Processing flow of information processing system 100]
Next, the procedure of the utterance control process by the information processing system 100 according to the embodiment will be described. 10 and 11 are flowcharts showing an example of the utterance control process by the information processing system 100 according to the embodiment.

まず、スマートスピーカ1の発話制御処理について説明する。図10に示すように、スマートスピーカ1の制御部15は、コンテンツ出力処理中か否かを判定する(ステップS10)。制御部15は、ステップS10の処理において、例えば、制御部15がユーザUからコンテンツの出力要求を受け付けてから出力要求に対応するコンテンツの出力が完了するまでの間をコンテンツ出力処理中として扱う。 First, the utterance control process of the smart speaker 1 will be described. As shown in FIG. 10, the control unit 15 of the smart speaker 1 determines whether or not the content output processing is in progress (step S10). In the process of step S10, the control unit 15 treats, for example, the period from when the control unit 15 receives the content output request from the user U until the output of the content corresponding to the output request is completed as the content output process.

制御部15は、コンテンツ出力中ではないと判定した場合(ステップS10:No)、発話処理中か否かを判定する(ステップS11)。制御部15は、ステップS11の処理において、例えば、音声入力器12からの発話の出力を開始してから発話に対するユーザUの要求を受け可能な期間が終了するまでの期間を発話処理中として扱う。 When the control unit 15 determines that the content is not being output (step S10: No), the control unit 15 determines whether or not the utterance process is in progress (step S11). In the process of step S11, the control unit 15 treats, for example, the period from the start of the output of the utterance from the voice input device 12 to the end of the period during which the user U's request for the utterance can be received as the utterance process. ..

制御部15は、発話処理中ではないと判定した場合(ステップS11:No)、ユーザUに関するコンテキスト情報を取得し(ステップS12)、取得したコンテキスト情報を発話テーブル21に含まれる各タイミング判定モデルに入力する(ステップS13)。 When the control unit 15 determines that the utterance process is not in progress (step S11: No), the control unit 15 acquires the context information regarding the user U (step S12), and applies the acquired context information to each timing determination model included in the utterance table 21. Input (step S13).

つづいて、制御部15は、予め設定された閾値以上のスコアを出力するタイミング判定モデルがあるか否かを判定する(ステップS14)。制御部15は、閾値以上のスコアを出力するタイミング判定モデルがあると判定した場合(ステップS14:Yes)、閾値以上のスコアを出力するタイミング判定モデルが複数であるか否かを判定する(ステップS15)。 Subsequently, the control unit 15 determines whether or not there is a timing determination model that outputs a score equal to or greater than a preset threshold value (step S14). When the control unit 15 determines that there is a timing determination model that outputs a score equal to or higher than the threshold value (step S14: Yes), the control unit 15 determines whether or not there are a plurality of timing determination models that output a score equal to or higher than the threshold value (step). S15).

制御部15は、タイミング判定モデルが複数であると判定した場合(ステップS15:Yes)、最もスコアが高いタイミング判定モデルを選択する(ステップS16)。また、制御部15は、タイミング判定モデルが複数ではないと判定した場合(ステップS15:No)、閾値以上のスコアを出力するタイミング判定モデルを選択する(ステップS17)。制御部15は、選択したタイミング判定モデルに関連付けられた発話内容を発話テーブル21から取得し、取得した発話内容を音声入力器12から出力する(ステップS18)。 When the control unit 15 determines that there are a plurality of timing determination models (step S15: Yes), the control unit 15 selects the timing determination model having the highest score (step S16). Further, when the control unit 15 determines that the number of timing determination models is not plural (step S15: No), the control unit 15 selects a timing determination model that outputs a score equal to or greater than the threshold value (step S17). The control unit 15 acquires the utterance content associated with the selected timing determination model from the utterance table 21, and outputs the acquired utterance content from the voice input device 12 (step S18).

制御部15は、ステップS18の処理が終了した場合、コンテンツ出力中であると判定した場合(ステップS10:Yes)、発話処理中であると判定した場合(ステップS11:Yes)、または閾値上のスコアを出力するタイミング判定モデルがないと判定した場合(ステップS14:No)、図10に示す処理を終了する。 When the process of step S18 is completed, the control unit 15 determines that the content is being output (step S10: Yes), the control unit 15 determines that the utterance process is in progress (step S11: Yes), or is on the threshold value. When it is determined that there is no timing determination model for outputting the score (step S14: No), the process shown in FIG. 10 is terminated.

次に、情報提供装置2の処理を説明する。図11に示すように、情報提供装置2の制御部43は、スマートスピーカ1が自発的に発話をする時のユーザUの反応を示す反応情報を取得する(ステップS20)。また、制御部43は、スマートスピーカ1が自発的に発話をする時のユーザUに関するコンテキスト情報を取得する(ステップS21)。制御部43は、ステップS20で取得した反応情報とステップS21で取得したコンテキスト情報を記憶部42に記憶する(ステップS22)。 Next, the processing of the information providing device 2 will be described. As shown in FIG. 11, the control unit 43 of the information providing device 2 acquires reaction information indicating the reaction of the user U when the smart speaker 1 spontaneously speaks (step S20). Further, the control unit 43 acquires context information regarding the user U when the smart speaker 1 spontaneously speaks (step S21). The control unit 43 stores the reaction information acquired in step S20 and the context information acquired in step S21 in the storage unit 42 (step S22).

つづいて、制御部43は、記憶部42に記憶した反応情報およびコンテキスト情報に基づいて、コンテンツ毎のタイミング判定モデルを生成または更新し(ステップS23)、図11に示す処理を終了する。例えば、制御部43は、発話テーブル71にタイミング判定モデルが生成されていないコンテンツのタイミング判定モデルを生成した場合、発話テーブル71にタイミング判定モデルを追加する。また、制御部43は、発話テーブル71のタイミング判定モデルを更新した場合、更新したタイミング判定モデルを発話テーブル71に上書きする。 Subsequently, the control unit 43 generates or updates the timing determination model for each content based on the reaction information and the context information stored in the storage unit 42 (step S23), and ends the process shown in FIG. For example, when the control unit 43 generates the timing determination model of the content for which the timing determination model is not generated in the utterance table 71, the control unit 43 adds the timing determination model to the utterance table 71. Further, when the timing determination model of the utterance table 71 is updated, the control unit 43 overwrites the updated timing determination model on the utterance table 71.

次に、情報処理システム100による出力制御処理について説明する。図12は、実施形態に係る情報処理システム100による出力制御処理の一例を示すフローチャートである。 Next, the output control process by the information processing system 100 will be described. FIG. 12 is a flowchart showing an example of output control processing by the information processing system 100 according to the embodiment.

図12に示すように、制御部43は、スマートスピーカ1からコンテンツの出力要求があるか否かを判定する(ステップS30)。制御部43は、コンテンツの出力要求があると判定した場合(ステップS30:Yes)、出力要求を行ったスマートスピーカ1のユーザUに関するコンテキスト情報を取得する(ステップS31)。 As shown in FIG. 12, the control unit 43 determines whether or not there is a content output request from the smart speaker 1 (step S30). When the control unit 43 determines that there is a content output request (step S30: Yes), the control unit 43 acquires context information regarding the user U of the smart speaker 1 that has made the output request (step S31).

そして、制御部43は、取得したコンテキスト情報に基づいて、出力要求されたコンテンツの出力態様を決定する(ステップS32)。制御部43は、ステップS32で決定した出力態様でコンテンツを出力する(ステップS33)。制御部43は、ステップS33の処理が終了した場合、または出力要求がないと判定した場合(ステップS30:No)、図12に示す処理を終了する。 Then, the control unit 43 determines the output mode of the content requested to be output based on the acquired context information (step S32). The control unit 43 outputs the content in the output mode determined in step S32 (step S33). When the process of step S33 is completed or when it is determined that there is no output request (step S30: No), the control unit 43 ends the process shown in FIG.

次に、情報処理システム100による音声情報効果判定処理について説明する。図13は、実施形態に係る情報処理システム100による音声情報効果判定処理の一例を示すフローチャートである。 Next, the voice information effect determination process by the information processing system 100 will be described. FIG. 13 is a flowchart showing an example of the voice information effect determination process by the information processing system 100 according to the embodiment.

図13に示すように、情報提供装置2の制御部43は、音声広告の出力タイミングであるか否かを判定する(ステップS40)。制御部43は、音声広告の出力タイミングであると判定した場合(ステップS40:Yes)、音声広告をスマートスピーカ1へ出力する(ステップS41)。 As shown in FIG. 13, the control unit 43 of the information providing device 2 determines whether or not it is the output timing of the voice advertisement (step S40). When the control unit 43 determines that it is the output timing of the voice advertisement (step S40: Yes), the control unit 43 outputs the voice advertisement to the smart speaker 1 (step S41).

つづいて、制御部43は、音声広告テーブル73において、ステップS41で出力した音声広告の出力回数をインクリメントする(ステップS42)。また、制御部43は、音声出力期間における撮像情報、音情報および機器操作情報をスマートスピーカ1、端末装置3、機器4、およびセンサ装置5の少なくとも一つから取得する(ステップS43)。 Subsequently, the control unit 43 increments the number of times the voice advertisement output in step S41 is output in the voice advertisement table 73 (step S42). Further, the control unit 43 acquires the imaging information, the sound information, and the device operation information during the audio output period from at least one of the smart speaker 1, the terminal device 3, the device 4, and the sensor device 5 (step S43).

制御部43は、ステップS43で取得した情報に基づいて、ユーザUの振る舞いを検出し(ステップS44)、検出した振る舞いが特定の振る舞いであるか否かを判定する(ステップS45)。制御部43は、ステップS44で検出した振る舞いが特定の振る舞いであると判定した場合(ステップS45:Yes)、音声広告がユーザUに受容されたと判定し(ステップS46)、音声広告テーブル73において、ステップS41で出力した音声広告の受容回数をインクリメントする(ステップS47)。 The control unit 43 detects the behavior of the user U based on the information acquired in step S43 (step S44), and determines whether or not the detected behavior is a specific behavior (step S45). When the control unit 43 determines that the behavior detected in step S44 is a specific behavior (step S45: Yes), the control unit 43 determines that the voice advertisement has been accepted by the user U (step S46), and in the voice advertisement table 73, The number of times the voice advertisement received in step S41 is received is incremented (step S47).

一方、制御部43は、ステップS44で検出した振る舞いが特定の振る舞いではないと判定した場合(ステップS45:No)、音声広告がユーザUに受容されていないと判定する(ステップS48)。制御部43は、ステップS47またはステップS48の処理が終了した場合、または、音声広告の出力タイミングではないと判定した場合(ステップS40:No)、図13に示す処理を終了する。 On the other hand, when the control unit 43 determines that the behavior detected in step S44 is not a specific behavior (step S45: No), the control unit 43 determines that the voice advertisement is not accepted by the user U (step S48). When the process of step S47 or step S48 is completed, or when it is determined that it is not the output timing of the voice advertisement (step S40: No), the control unit 43 ends the process shown in FIG.

〔5.変形例〕
上述した例では、情報提供装置2において、タイミング判定モデルを生成する学習部64が設けられるが、スマートスピーカ1に学習部64が設けられてもよい。また、上述した例では、スマートスピーカ1において、コンテキスト取得部35およびタイミング決定部36が設けられるが、情報提供装置2において、コンテキスト取得部35およびタイミング決定部36が設けられてもよい。
[5. Modification example]
In the above example, the information providing device 2 is provided with the learning unit 64 for generating the timing determination model, but the smart speaker 1 may be provided with the learning unit 64. Further, in the above-described example, the smart speaker 1 is provided with the context acquisition unit 35 and the timing determination unit 36, but the information providing device 2 may be provided with the context acquisition unit 35 and the timing determination unit 36.

また、上述した例では、タイミング判定モデルを用いて発話タイミングを決定したが、過去の発話に対するユーザUの反応を考慮して発話タイミングを決定することができればよく、上述した例に限定されない。例えば、スマートスピーカ1は、タイミング判定モデルに代えて、過去の発話に対する反応情報とコンテキスト情報とに基づいて生成される判定条件情報によって、現在のコンテキストが発話に適しているコンテキストであるか否かを判定することもできる。なお、上記判定条件情報には、発話タイミングであると判定するコンテキストの条件が含まれる。 Further, in the above-mentioned example, the utterance timing is determined by using the timing determination model, but the utterance timing is not limited to the above-mentioned example as long as the utterance timing can be determined in consideration of the reaction of the user U to the past utterance. For example, in the smart speaker 1, instead of the timing determination model, whether or not the current context is a context suitable for the utterance is based on the determination condition information generated based on the reaction information and the context information for the past utterance. Can also be determined. The determination condition information includes the condition of the context for determining the utterance timing.

また、上述した例では、ユーザUのジェスチャーや口の動きをスマートスピーカ1で検出したが、ユーザUのジェスチャーや口の動きを情報提供装置2で検出する構成であってもよい。 Further, in the above-described example, the gesture of the user U and the movement of the mouth are detected by the smart speaker 1, but the gesture of the user U and the movement of the mouth may be detected by the information providing device 2.

また、上述した例では、スマートスピーカ1から出力される音声情報の一例として音声広告を挙げて説明したが、スマートスピーカ1から出力される音声情報は、音声広告に限定されない。例えば、情報提供装置2の制御部43は、「今日は晴れですね」、「今日は仕事お休みですね」といったプッシュ発話型の音声情報などをスマートスピーカ1から出力した場合のユーザUの振る舞いに基づいて、音声情報がユーザUに受容されたか否かを判定することができる。そして、情報提供装置の制御部43は、音声情報の出力回数に対する音声情報の受容回数の割合を演算し、演算した割合を音声情報効果とすることができる。これにより、音声情報においてCTRに相当する効果指標を得ることができる。 Further, in the above-described example, the voice advertisement has been described as an example of the voice information output from the smart speaker 1, but the voice information output from the smart speaker 1 is not limited to the voice advertisement. For example, the control unit 43 of the information providing device 2 outputs the push-speech type voice information such as "Today is sunny" and "Today is a holiday" from the smart speaker 1, and the behavior of the user U. Based on the above, it can be determined whether or not the voice information has been accepted by the user U. Then, the control unit 43 of the information providing device can calculate the ratio of the number of times the voice information is received to the number of times the voice information is output, and use the calculated ratio as the voice information effect. As a result, an effect index corresponding to CTR can be obtained in voice information.

なお、効果の判定対象となる音声情報は、情報提供装置2からスマートスピーカ1へ出力する音声情報に限定されず、スマートスピーカ1に記憶された音声情報であってもよい。 The voice information to be determined for the effect is not limited to the voice information output from the information providing device 2 to the smart speaker 1, and may be the voice information stored in the smart speaker 1.

また、上述した例では、情報処理システム100は、ユーザUの肯定的な反応でない場合であっても、ユーザUが受容したと判定する場合があるが、ユーザUが肯定的な反応である場合のみ、ユーザUが受容したと判定することもできる。すなわち、情報処理システム100は、音声情報効果判定処理において、発話制御処理および出力制御処理におけるユーザUの肯定的な反応があったと判定されるユーザUの状態を、ユーザUの受容し、それ以外をユーザの非受容とすることができる。また、情報処理システム100は、発話制御処理および出力制御処理において、音声情報効果判定処理におけるユーザUが受容したと判定されるユーザUの状態を、ユーザUの肯定的な反応とし、それ以外をユーザの肯定的でない反応とすることができる。 Further, in the above-described example, the information processing system 100 may determine that the user U has accepted even if the reaction is not positive for the user U, but the user U has a positive reaction. Only, it can be determined that the user U has accepted. That is, the information processing system 100 accepts the state of the user U, which is determined to have had a positive reaction of the user U in the utterance control process and the output control process in the voice information effect determination process, and other than that. Can be non-acceptable to the user. Further, in the information processing system 100, in the utterance control process and the output control process, the state of the user U determined to be accepted by the user U in the voice information effect determination process is regarded as a positive reaction of the user U, and the other states are set as a positive reaction. It can be a non-positive reaction of the user.

〔6.プログラム〕
上述した実施形態におけるスマートスピーカ1および情報提供装置2の各々は、例えば図14に示すような構成のコンピュータ200がプログラムを実行することによって実現される。図14は、プログラムを実行するコンピュータのハードウェア構成の一例を示す図である。コンピュータ200は、CPU(Central Processing Unit)201、RAM(Random Access Memory)202、ROM(Read Only Memory)203、HDD(Hard Disk Drive)204、通信インターフェイス(I/F)205、入出力インターフェイス(I/F)206、およびメディアインターフェイス(I/F)207を備える。
[6. program〕
Each of the smart speaker 1 and the information providing device 2 in the above-described embodiment is realized by executing a program by a computer 200 having a configuration as shown in FIG. 14, for example. FIG. 14 is a diagram showing an example of the hardware configuration of the computer that executes the program. The computer 200 includes a CPU (Central Processing Unit) 201, a RAM (Random Access Memory) 202, a ROM (Read Only Memory) 203, an HDD (Hard Disk Drive) 204, a communication interface (I / F) 205, and an input / output interface (I). It includes a / F) 206 and a media interface (I / F) 207.

CPU201は、ROM203またはHDD204に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM203は、コンピュータ200の起動時にCPU201によって実行されるブートプログラムや、コンピュータ200のハードウェアに依存するプログラム等を格納する。 HDD204は、CPU201によって実行されるプログラムによって使用されるデータ等を格納する。通信インターフェイス205は、ネットワーク6を介して他の機器からデータを受信してCPU201へ送り、CPU201が生成したデータを、ネットワーク6を介して他の機器へ送信する。 The CPU 201 operates based on the program stored in the ROM 203 or the HDD 204, and controls each part. The ROM 203 stores a boot program executed by the CPU 201 when the computer 200 is started, a program that depends on the hardware of the computer 200, and the like. HDD 204 stores data and the like used by a program executed by CPU 201. The communication interface 205 receives data from another device via the network 6 and sends it to the CPU 201, and transmits the data generated by the CPU 201 to the other device via the network 6.

CPU201は、入出力インターフェイス206を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU201は、入出力インターフェイス206を介して、入力装置からデータを取得する。また、CPU201は、生成したデータを、入出力インターフェイス206を介して出力装置へ出力する。 The CPU 201 controls an output device such as a display or a printer, and an input device such as a keyboard or a mouse via the input / output interface 206. The CPU 201 acquires data from the input device via the input / output interface 206. Further, the CPU 201 outputs the generated data to the output device via the input / output interface 206.

メディアインターフェイス207は、記録媒体208に格納されたプログラムまたはデータを読み取り、RAM202を介してCPU201に提供する。CPU201は、当該プログラムを、メディアインターフェイス207を介して記録媒体208からRAM202上にロードし、ロードしたプログラムを実行する。記録媒体208は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 207 reads the program or data stored in the recording medium 208 and provides it to the CPU 201 via the RAM 202. The CPU 201 loads the program from the recording medium 208 onto the RAM 202 via the media interface 207, and executes the loaded program. The recording medium 208 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

コンピュータ200が上述した実施形態に係るスマートスピーカ1として機能する場合、コンピュータ200のCPU201は、RAM202上にロードされたプログラムを実行することにより、図3に示す入力処理部31、情報出力部32、情報取得部33、出力処理部34、コンテキスト取得部35、およびタイミング決定部36の各機能を実現する。また、例えば、HDD204は、図3に示す記憶部14と同様の情報を記憶する。 When the computer 200 functions as the smart speaker 1 according to the above-described embodiment, the CPU 201 of the computer 200 executes the program loaded on the RAM 202 to execute the input processing unit 31 and the information output unit 32 shown in FIG. Each function of the information acquisition unit 33, the output processing unit 34, the context acquisition unit 35, and the timing determination unit 36 is realized. Further, for example, the HDD 204 stores the same information as the storage unit 14 shown in FIG.

また、コンピュータ200が上述した実施形態に係る情報提供装置2として機能する場合、コンピュータ200のCPU201は、RAM202上にロードされたプログラムを実行することにより、図5に示す情報取得部61、情報出力部62、コンテキスト取得部63、学習部64、出力態様決定部65、検出部66、判定部67、および広告効果更新部68の各機能を実現する。また、例えば、HDD204は、図5に示す記憶部42と同様の情報を記憶する。 Further, when the computer 200 functions as the information providing device 2 according to the above-described embodiment, the CPU 201 of the computer 200 executes the program loaded on the RAM 202 to output the information acquisition unit 61 shown in FIG. Each function of the unit 62, the context acquisition unit 63, the learning unit 64, the output mode determination unit 65, the detection unit 66, the determination unit 67, and the advertisement effect updating unit 68 is realized. Further, for example, the HDD 204 stores the same information as the storage unit 42 shown in FIG.

コンピュータ200のCPU201は、プログラムを、記録媒体208から読み取って実行するが、他の例として、他の装置から、ネットワーク6を介してこれらのプログラムを取得してもよい。 The CPU 201 of the computer 200 reads and executes the programs from the recording medium 208, but as another example, these programs may be acquired from another device via the network 6.

〔7.効果〕
上述したように、実施形態に係る情報処理システム100(発話制御装置の一例)は、ユーザUに関するコンテキスト情報を取得するコンテキスト取得部35と、コンテキスト取得部35によって取得されたコンテキスト情報に基づいて、音声出力器11からの発話に対する過去のユーザUの反応を考慮した発話のタイミングを決定するタイミング決定部36とを備える。これにより、予め設定された条件で発話タイミングを制御する場合に比べ、発話タイミングをより適切に決定することができる。
[7. effect〕
As described above, the information processing system 100 (an example of the utterance control device) according to the embodiment is based on the context acquisition unit 35 that acquires the context information regarding the user U and the context information acquired by the context acquisition unit 35. The timing determination unit 36 for determining the timing of the utterance in consideration of the past reaction of the user U to the utterance from the voice output device 11 is provided. As a result, the utterance timing can be determined more appropriately than in the case where the utterance timing is controlled under preset conditions.

また、タイミング決定部36は、コンテキスト取得部35によって取得されたコンテキスト情報に基づいて、音声出力器11からのコンテンツ毎の発話に対する過去のユーザUの反応を考慮したコンテンツ毎の発話のタイミングを決定する。これにより、コンテンツに応じた適切な発話タイミングを決定することができる。 Further, the timing determination unit 36 determines the timing of the utterance for each content in consideration of the past reaction of the user U to the utterance for each content from the voice output device 11 based on the context information acquired by the context acquisition unit 35. To do. As a result, it is possible to determine an appropriate utterance timing according to the content.

また、タイミング決定部36は、発話に対する過去のユーザUの反応と発話時の過去のユーザUに関するコンテキスト情報とに基づいて生成されるタイミング判定モデルにコンテキスト取得部35で取得されたコンテキスト情報を入力して、発話のタイミングを決定する。これにより、ユーザUの過去の反応に基づいて発話タイミングを容易に決定することができる。 Further, the timing determination unit 36 inputs the context information acquired by the context acquisition unit 35 into the timing determination model generated based on the reaction of the past user U to the utterance and the context information regarding the past user U at the time of the utterance. Then, the timing of the utterance is decided. As a result, the utterance timing can be easily determined based on the past reaction of the user U.

また、コンテキスト取得部35は、ユーザUの周囲の状況を示す周囲情報をコンテキスト情報の少なくとも一部として取得する。これにより、例えば、ユーザUの反応に影響を与える周囲の状況から、コンテンツに応じたより適切な発話タイミングを決定することができる。 Further, the context acquisition unit 35 acquires surrounding information indicating the surrounding situation of the user U as at least a part of the context information. Thereby, for example, it is possible to determine a more appropriate utterance timing according to the content from the surrounding situation that affects the reaction of the user U.

また、コンテキスト取得部35は、ユーザUの周囲に存在する1以上のセンサ装置5から出力されるセンサ情報から周囲情報を取得する。これにより、例えば、ユーザUの周囲の明るさ、温度、湿度などのコンテキストを用いることができ、コンテンツに応じたより適切な発話タイミングを決定することができる。 Further, the context acquisition unit 35 acquires the surrounding information from the sensor information output from one or more sensor devices 5 existing around the user U. Thereby, for example, contexts such as brightness, temperature, and humidity around the user U can be used, and a more appropriate utterance timing can be determined according to the content.

また、コンテキスト取得部35は、ユーザUの周囲に存在する1以上の機器(例えば、スマートスピーカ1、端末装置3、または機器4)の状態を示す機器情報から周囲情報を取得する。これにより、ユーザUによる機器の操作状態などのコンテキストを用いることができ、コンテンツに応じたより適切な発話タイミングを決定することができる。 Further, the context acquisition unit 35 acquires surrounding information from device information indicating the state of one or more devices (for example, smart speaker 1, terminal device 3, or device 4) existing around the user U. As a result, it is possible to use a context such as the operation state of the device by the user U, and it is possible to determine a more appropriate utterance timing according to the content.

また、コンテキスト取得部35は、ユーザUの周囲に存在する1以上の機器(例えば、スマートスピーカ1、端末装置3、または機器4)への操作履歴を示す操作履歴情報から周囲情報を取得する。これにより、ユーザUによる機器の操作ログなどのコンテキストを用いることができ、コンテンツに応じたより適切な発話タイミングを決定することができる。 Further, the context acquisition unit 35 acquires the surrounding information from the operation history information indicating the operation history of one or more devices (for example, the smart speaker 1, the terminal device 3, or the device 4) existing around the user U. As a result, it is possible to use a context such as a device operation log by the user U, and it is possible to determine a more appropriate utterance timing according to the content.

また、タイミング判定モデルは、複数のユーザUに共通に生成されるモデルである。これにより、ユーザU毎にタイミング判定モデルを生成する場合に比べ、タイミング判定モデルを生成するための処理負荷を軽減することができる。 Further, the timing determination model is a model commonly generated by a plurality of users U. As a result, the processing load for generating the timing determination model can be reduced as compared with the case where the timing determination model is generated for each user U.

また、タイミング判定モデルは、少なくとも一部がユーザUに固有のモデルである。これにより、ユーザUの特性に沿ったより適切な発話タイミングを決定することができる。 Further, the timing determination model is a model unique to the user U at least in part. As a result, it is possible to determine a more appropriate utterance timing according to the characteristics of the user U.

また、情報処理システム100は、音声出力器11からの発話に対する過去のユーザUの反応とコンテキスト情報とに基づいて、タイミング判定モデルを更新する学習部64を備える。これにより、ユーザUやユーザUの周囲に特性変化があった場合であっても、より適切な発話タイミングを決定することができる。 Further, the information processing system 100 includes a learning unit 64 that updates the timing determination model based on the past reaction of the user U to the utterance from the voice output device 11 and the context information. As a result, even when there is a characteristic change in the user U or around the user U, a more appropriate utterance timing can be determined.

また、タイミング判定モデルに用いられるユーザUの反応は、音声出力器11からの発話に対するユーザの発話が肯定的か否かを含む。これにより、より適切な発話タイミングを決定することができる。 Further, the reaction of the user U used in the timing determination model includes whether or not the user's utterance to the utterance from the voice output device 11 is positive. This makes it possible to determine a more appropriate utterance timing.

また、タイミング判定モデルに用いられるユーザUの反応は、ユーザUが会話中である場合、音声出力器11から発話の出力が開始された後のユーザUの会話の状態で判定される。例えば、ユーザUの反応は、ユーザUが会話を中断する、ユーザUが会話の話題を変える、などである。 Further, the reaction of the user U used in the timing determination model is determined in the state of the conversation of the user U after the output of the utterance is started from the voice output device 11 when the user U is in a conversation. For example, the reaction of the user U is that the user U interrupts the conversation, the user U changes the topic of the conversation, and so on.

また、音声出力器11からの発話は、コンテンツの出力の可否に関する発話である。これにより、仮に発話タイミングが適切でないタイミングになった場合であっても、コンテンツを自発的に出力する場合に比べ、ユーザUに与える発話に対するわずらわしさを抑えることができる。 Further, the utterance from the voice output device 11 is an utterance relating to whether or not the content can be output. As a result, even if the utterance timing is not appropriate, it is possible to reduce the annoyance of the utterance given to the user U as compared with the case where the content is spontaneously output.

〔8.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。
[8. Others]
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed. It is also possible to automatically perform all or part of the processed processing by a known method.

この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. It can be integrated and configured.

例えば、情報処理システム100は、入力処理部31、コンテキスト取得部35およびタイミング決定部36の少なくとも一つをスマートスピーカ1とは異なる情報提供装置2または別の装置に設ける構成であってもよい。また、スマートスピーカ1は、上述した情報提供装置2の処理の一部または全部を行うことができる構成であってもよい。なお、情報提供装置2は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。 For example, the information processing system 100 may have a configuration in which at least one of an input processing unit 31, a context acquisition unit 35, and a timing determination unit 36 is provided in an information providing device 2 different from the smart speaker 1 or another device. Further, the smart speaker 1 may have a configuration capable of performing a part or all of the processing of the information providing device 2 described above. The information providing device 2 may be realized by a plurality of server computers, and depending on the function, the information providing device 2 may be realized by calling an external platform or the like by API (Application Programming Interface) or network computing, and the configuration is flexible. Can be changed to.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、入力処理部31は、入力処理手段や入力処理回路に読み替えることができる。 In addition, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other. Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the input processing unit 31 can be read as an input processing means or an input processing circuit.

1 スマートスピーカ
2 情報提供装置
3 端末装置
4,4〜4 機器
5,5〜5 センサ装置
6 ネットワーク
10,41 通信部
11 音声出力器
12 音声入力器
13 撮像部
14,42 記憶部
15,43 制御部
20 操作履歴
21 発話テーブル
31 入力処理部
32,62 情報出力部
33,61 情報取得部
34 出力処理部
35,63 コンテキスト取得部
36 タイミング決定部
51 発話テーブル記憶部
52 コンテンツ記憶部
53 音声広告記憶部
54 ユーザ情報記憶部
55 コンテキスト記憶部
56 出力態様判定情報記憶部
64 学習部
65 出力態様決定部
66 検出部
67 判定部
68 広告効果更新部
71 発話テーブル
72 コンテンツテーブル
73 音声広告テーブル
74 ユーザ情報テーブル
100 情報処理システム
1 Smart speaker 2 Information providing device 3 Terminal device 4, 4 1 to 4 n device 5, 5 1 to 5 m Sensor device 6 Network 10, 41 Communication unit 11 Audio output device 12 Audio input device 13 Imaging unit 14, 42 Storage unit 15,43 Control unit 20 Operation history 21 Speech table 31 Input processing unit 32,62 Information output unit 33,61 Information acquisition unit 34 Output processing unit 35,63 Context acquisition unit 36 Timing determination unit 51 Speech table storage unit 52 Content storage unit 53 Voice advertisement storage unit 54 User information storage unit 55 Context storage unit 56 Output mode judgment information storage unit 64 Learning unit 65 Output mode determination unit 66 Detection unit 67 Judgment unit 68 Advertising effect update unit 71 Speech table 72 Content table 73 Voice advertisement table 74 User information table 100 Information processing system

Claims (15)

音声出力器からの発話に対する過去のユーザの反応が肯定的であるか否かを教師データとし、前記ユーザに関する過去のコンテキスト情報を用いて機械学習によって生成され、発話のタイミングの決定に用いられるモデルを記憶する記憶部と、
前記ユーザに関するコンテキスト情報を取得するコンテキスト取得部と、
前記コンテキスト取得部によって取得された前記コンテキスト情報を前記記憶部に記憶された前記モデルに入力して、前記発話のタイミングを決定するタイミング決定部と、を備える
ことを特徴とする発話制御装置。
A model that uses the teacher data as to whether or not the past user's reaction to the utterance from the voice output device is positive, is generated by machine learning using the past context information about the user, and is used to determine the timing of the utterance. A memory unit that memorizes
And context acquisition unit for acquiring context information for the user,
An utterance control device including a timing determination unit that inputs the context information acquired by the context acquisition unit into the model stored in the storage unit and determines the timing of the utterance.
前記記憶部は、
前記モデルをコンテンツ毎に記憶し、
前記タイミング決定部は、
前記コンテキスト取得部によって取得された前記コンテキスト情報を前記コンテンツ毎の前記モデルに入力して、前記コンテンツ毎の発話のタイミングを決定する
ことを特徴とする請求項1に記載の発話制御装置。
The storage unit
The model is memorized for each content,
The timing determination unit
The utterance control device according to claim 1, wherein the context information acquired by the context acquisition unit is input to the model for each content to determine the timing of utterance for each content.
前記コンテキスト取得部は、
前記ユーザの周囲の状況を示す周囲情報を前記コンテキスト情報の少なくとも一部として取得する
ことを特徴とする請求項1または2に記載の発話制御装置。
The context acquisition unit
The utterance control device according to claim 1 or 2 , wherein the surrounding information indicating the surrounding situation of the user is acquired as at least a part of the context information.
前記コンテキスト取得部は、
前記ユーザの周囲に存在する1以上のセンサ装置から出力されるセンサ情報から前記周囲情報を取得する
ことを特徴とする請求項に記載の発話制御装置。
The context acquisition unit
The utterance control device according to claim 3 , wherein the surrounding information is acquired from sensor information output from one or more sensor devices existing around the user.
前記コンテキスト取得部は、
前記ユーザの周囲に存在する1以上の機器の状態を示す機器情報から前記周囲情報を取得する
ことを特徴とする請求項またはに記載の発話制御装置。
The context acquisition unit
The utterance control device according to claim 3 or 4 , wherein the surrounding information is acquired from device information indicating the state of one or more devices existing around the user.
前記コンテキスト取得部は、
前記ユーザの周囲に存在する1以上の機器への操作履歴を示す操作履歴情報から前記周囲情報を取得する
ことを特徴とする請求項のいずれか一つに記載の発話制御装置。
The context acquisition unit
The utterance control device according to any one of claims 3 to 5 , wherein the surrounding information is acquired from the operation history information indicating the operation history of one or more devices existing around the user.
前記モデルは、
複数のユーザに共通に生成されるモデルである
ことを特徴とする請求項のいずれか一つに記載の発話制御装置。
The model is
The utterance control device according to any one of claims 1 to 6 , wherein the model is generated in common by a plurality of users.
前記モデルは、
少なくとも一部が前記ユーザに固有のモデルである
ことを特徴とする請求項のいずれか一つに記載の発話制御装置。
The model is
The utterance control device according to any one of claims 1 to 6 , wherein at least a part of the model is unique to the user.
前記音声出力器からの発話に対する過去のユーザの反応と前記コンテキスト情報とに基づいて、前記モデルを更新する学習部と、を備える
ことを特徴とする請求項のいずれか一つに記載の発話制御装置。
The invention according to any one of claims 1 to 8 , further comprising a learning unit that updates the model based on the past user's reaction to the utterance from the voice output device and the context information. Speech control device.
前記ユーザの反応は、前記音声出力器からの発話に対する前記ユーザの発話が肯定的か否かを含む
ことを特徴とする請求項のいずれか一つに記載の発話制御装置。
The utterance control device according to any one of claims 1 to 8 , wherein the reaction of the user includes whether or not the utterance of the user is positive with respect to the utterance from the voice output device.
前記ユーザの反応は、前記ユーザが会話中である場合、前記音声出力器から発話の出力が開始された後の前記会話の状態で判定される
ことを特徴とする請求項のいずれか一つに記載の発話制御装置。
Any of claims 1 to 8 , wherein the reaction of the user is determined in the state of the conversation after the output of the utterance is started from the voice output device when the user is in a conversation. The speech control device described in one.
前記音声出力器からの発話は、コンテンツの出力の可否に関する発話である
ことを特徴とする請求項1〜11のいずれか一つに記載の発話制御装置。
The utterance control device according to any one of claims 1 to 11 , wherein the utterance from the voice output device is an utterance relating to whether or not the content can be output.
前記音声出力器は、スマートスピーカに含まれる音声出力器である
ことを特徴とする請求項1〜12のいずれか一つに記載の発話制御装置。
The utterance control device according to any one of claims 1 to 12 , wherein the voice output device is a voice output device included in a smart speaker.
コンピュータが実行する発話制御方法であって、
ユーザに関するコンテキスト情報を取得するコンテキスト取得工程と、
音声出力器からの発話に対する前記ユーザの過去の反応が肯定的であるか否かを教師データとし、前記ユーザに関する過去のコンテキスト情報を用いて機械学習によって生成され、発話のタイミングの決定に用いられるモデルを記憶する記憶部の前記モデルに、前記コンテキスト取得工程によって取得された前記コンテキスト情報を入力して、前記発話のタイミングを決定するタイミング決定工程と、を含む
ことを特徴とする発話制御方法。
It is a speech control method executed by a computer.
The context acquisition process to acquire context information about the user,
Whether or not the user's past reaction to the utterance from the voice output device is positive is used as the teacher data, and is generated by machine learning using the past context information about the user and used to determine the timing of the utterance. An utterance control method comprising: a timing determination step of inputting the context information acquired by the context acquisition step into the model of a storage unit for storing the model to determine the timing of the utterance.
ユーザに関するコンテキスト情報を取得するコンテキスト取得手順と、
音声出力器からの発話に対する前記ユーザの過去の反応が肯定的であるか否かを教師データとし、前記ユーザに関する過去のコンテキスト情報を用いて機械学習によって生成され、発話のタイミングの決定に用いられるモデルを記憶する記憶部の前記モデルに、前記コンテキスト取得手順によって取得された前記コンテキスト情報を入力して、前記発話のタイミングを決定するタイミング決定手順と、
をコンピュータに実行させることを特徴とする発話制御プログラム。
The context acquisition procedure to acquire context information about the user, and
Whether or not the user's past reaction to the utterance from the voice output device is positive is used as the teacher data, and is generated by machine learning using the past context information about the user and used to determine the timing of the utterance. A timing determination procedure for inputting the context information acquired by the context acquisition procedure into the model of the storage unit for storing the model to determine the timing of the utterance, and
An utterance control program characterized by having a computer execute.
JP2018159400A 2018-08-28 2018-08-28 Utterance control device, utterance control method, and utterance control program Active JP6787957B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018159400A JP6787957B2 (en) 2018-08-28 2018-08-28 Utterance control device, utterance control method, and utterance control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018159400A JP6787957B2 (en) 2018-08-28 2018-08-28 Utterance control device, utterance control method, and utterance control program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018053250A Division JP6400871B1 (en) 2018-03-20 2018-03-20 Utterance control device, utterance control method, and utterance control program

Publications (2)

Publication Number Publication Date
JP2019164321A JP2019164321A (en) 2019-09-26
JP6787957B2 true JP6787957B2 (en) 2020-11-18

Family

ID=68064834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018159400A Active JP6787957B2 (en) 2018-08-28 2018-08-28 Utterance control device, utterance control method, and utterance control program

Country Status (1)

Country Link
JP (1) JP6787957B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3322140B2 (en) * 1996-10-03 2002-09-09 トヨタ自動車株式会社 Voice guidance device for vehicles
JP2007072331A (en) * 2005-09-09 2007-03-22 Matsushita Electric Ind Co Ltd Voice interactive method and voice interaction system
JP5051882B2 (en) * 2007-06-20 2012-10-17 学校法人早稲田大学 Voice dialogue apparatus, voice dialogue method, and robot apparatus
JP6558180B2 (en) * 2015-09-28 2019-08-14 株式会社デンソー Information providing apparatus and information providing control program
JP6725933B2 (en) * 2016-05-14 2020-07-22 株式会社ユピテル System and program
CN107888653A (en) * 2016-09-30 2018-04-06 本田技研工业株式会社 Give orders or instructions device, communicating device and moving body

Also Published As

Publication number Publication date
JP2019164321A (en) 2019-09-26

Similar Documents

Publication Publication Date Title
JP6400871B1 (en) Utterance control device, utterance control method, and utterance control program
US11810562B2 (en) Reducing the need for manual start/end-pointing and trigger phrases
US10672387B2 (en) Systems and methods for recognizing user speech
KR102543693B1 (en) Electronic device and operating method thereof
US20190311718A1 (en) Context-aware control for smart devices
JP2021167950A (en) Method, system, and media for correcting ambient background noise based on mood and/or behavior information
CN108885485A (en) Digital assistants experience based on Detection of Existence
JP2018190413A (en) Method and system for processing user command to adjust and provide operation of device and content provision range by grasping presentation method of user speech
JP6557376B1 (en) Output control device, output control method, and output control program
US20210125610A1 (en) Ai-driven personal assistant with adaptive response generation
JP2017144521A (en) Information processing device, information processing method and program
CN113132193B (en) Control method and device of intelligent device, electronic device and storage medium
WO2020202862A1 (en) Response generation device and response generation method
JP2022544066A (en) Attentiveness Representation of Multimodal Smart Audio Device Systems
JP6787957B2 (en) Utterance control device, utterance control method, and utterance control program
JP6499343B1 (en) Information processing apparatus, information processing method, and information processing program
US20220272055A1 (en) Inferring assistant action(s) based on ambient sensing by assistant device(s)
WO2020054361A1 (en) Information processing system, information processing method, and recording medium
JP7018850B2 (en) Terminal device, decision method, decision program and decision device
WO2020149031A1 (en) Response processing device and response processing method
CN113555021A (en) Device, method, and computer program for performing actions on IoT devices
WO2005062295A1 (en) Device control device, speech recognition device, agent device, and device control method
JP6855528B2 (en) Control devices, input / output devices, control methods, and control programs
JP2019035897A (en) Determination device, determination method, and determination program
JP7218312B2 (en) Information processing device, method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190319

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201029

R150 Certificate of patent or registration of utility model

Ref document number: 6787957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350