JP6817056B2 - Servers, information processing methods, network systems, and terminals - Google Patents

Servers, information processing methods, network systems, and terminals Download PDF

Info

Publication number
JP6817056B2
JP6817056B2 JP2016248983A JP2016248983A JP6817056B2 JP 6817056 B2 JP6817056 B2 JP 6817056B2 JP 2016248983 A JP2016248983 A JP 2016248983A JP 2016248983 A JP2016248983 A JP 2016248983A JP 6817056 B2 JP6817056 B2 JP 6817056B2
Authority
JP
Japan
Prior art keywords
message
user
cpu
terminal
predetermined time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016248983A
Other languages
Japanese (ja)
Other versions
JP2018106224A (en
Inventor
孝之 永松
孝之 永松
実雄 阪本
実雄 阪本
竹内 正樹
正樹 竹内
正樹 橋浦
正樹 橋浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2016248983A priority Critical patent/JP6817056B2/en
Publication of JP2018106224A publication Critical patent/JP2018106224A/en
Application granted granted Critical
Publication of JP6817056B2 publication Critical patent/JP6817056B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、メッセージなどの音声を出力するためのサーバ、情報処理方法、ネットワークシステム、および端末の技術に関する。 The present invention relates to technologies for servers, information processing methods, network systems, and terminals for outputting voice such as messages.

従来から、ユーザに適したメッセージを出力するための技術が知られている。たとえば、特開2016−24636号公報(特許文献1)には、制御装置、制御方法および制御プログラムが開示されている。特許文献1によると、制御装置は、対話エージェントシステムとユーザとの会話における音の特徴に基づいて、応答メッセージとして出力する広告に関する情報である広告情報を検索する検索部と、検索部によって検索された広告情報に関する広告を応答メッセージとして出力するよう制御する出力制御部と、を備えたことを特徴とする。このため、制御装置は、ユーザに適したメッセージを出力することができる。 Conventionally, a technique for outputting a message suitable for a user has been known. For example, Japanese Patent Application Laid-Open No. 2016-24636 (Patent Document 1) discloses a control device, a control method, and a control program. According to Patent Document 1, the control device is searched by a search unit that searches for advertisement information, which is information about an advertisement to be output as a response message, based on the characteristics of sound in a conversation between the dialogue agent system and the user. It is characterized by including an output control unit that controls to output an advertisement related to the advertisement information as a response message. Therefore, the control device can output a message suitable for the user.

特開2016−24636号公報Japanese Unexamined Patent Publication No. 2016-24636

本発明の目的は、より好適なユーザとの対話を実現するための技術を提供することにある。 An object of the present invention is to provide a technique for realizing a more suitable dialogue with a user.

この発明のある態様に従うと、スピーカとマイクとを有する端末と通信するための通信インターフェイスと、複数種類のメッセージ情報を記憶するメモリと、通信インターフェイスを介して、端末にユーザとのメッセージのやり取りを実行させ、メッセージのやり取りが終了すると判断されると、端末に別の種類のメッセージの出力を開始させるためのプロセッサと、を備えるサーバが提供される。 According to an aspect of the present invention, a communication interface for communicating with a terminal having a speaker and a microphone, a memory for storing a plurality of types of message information, and a communication interface for exchanging a message with a user to the terminal. A server is provided with a processor for causing the terminal to start outputting another type of message when it is determined to execute and the exchange of messages is completed.

この発明の別の局面に従うと、スピーカとマイクとを有する端末と通信するための通信インターフェイスと、複数種類のメッセージ情報を記憶するメモリと、通信インターフェイスを介して、端末にユーザとのメッセージのやり取りを実行させ、メッセージのやり取りが所定時間以上停止すると、端末に別の種類のメッセージの出力を開始させるためのプロセッサと、を備えるサーバが提供される。 According to another aspect of the present invention, a communication interface for communicating with a terminal having a speaker and a microphone, a memory for storing a plurality of types of message information, and a message exchange with a user to the terminal via the communication interface. Is executed, and when the exchange of messages is stopped for a predetermined time or longer, a server including a processor for causing the terminal to start outputting another type of message is provided.

好ましくは、プロセッサは、ユーザとのメッセージのやり取りに関する所定の条件が満たされると、通信インターフェイスを介して端末に広告情報を出力させる。 Preferably, the processor causes the terminal to output advertising information via the communication interface when certain conditions for exchanging messages with the user are met.

好ましくは、プロセッサは、ユーザ毎の第1の時間帯に基づいて広告情報を出力する。 Preferably, the processor outputs the advertising information based on the first time zone for each user.

好ましくは、プロセッサは、ユーザ毎の第1の時間帯とそれ以外の時間帯とで、端末に別の種類のメッセージの出力を開始させるための条件を異ならせる。 Preferably, the processor makes the conditions for causing the terminal to start outputting another type of message differ between the first time zone and the other time zone for each user.

好ましくは、プロセッサは、過去のユーザとのメッセージのやり取りに基づいて、出力される別の種類のメッセージを変化させる。 Preferably, the processor changes another type of message that is output based on past message exchanges with the user.

この発明の別の局面に従うと、通信インターフェイスと、メモリと、プロセッサとを含むサーバにおける情報処理方法が提供される。情報処理方法は、プロセッサが、通信インターフェイスを介して、端末にユーザとのメッセージのやり取りを実行させるステップと、プロセッサが、メッセージのやり取りが終了すると判断された際またはメッセージのやり取りが所定時間以上停止した際に、端末に別の種類のメッセージの出力を開始させるステップと、を備える。 According to another aspect of the invention, there is provided a method of information processing in a server that includes a communication interface, memory, and a processor. The information processing method includes a step in which the processor causes the terminal to exchange a message with the user via the communication interface, and when the processor determines that the message exchange is completed or the message exchange is stopped for a predetermined time or longer. When this happens, it includes a step of causing the terminal to start outputting another type of message.

この発明の別の局面に従うと、メッセージを出力するためのスピーカとユーザからのメッセージを取得するマイクとを有する端末と、端末にユーザとのメッセージのやり取りを実行させ、メッセージのやり取りが終了すると判断された際またはメッセージのやり取りが所定時間以上停止した際に、端末に別の種類のメッセージの出力を開始させるサーバと、を備えるネットワークシステムが提供される。 According to another aspect of the present invention, it is determined that a terminal having a speaker for outputting a message and a microphone for acquiring a message from the user and the terminal execute a message exchange with the user, and the message exchange is completed. A network system is provided that includes a server that causes the terminal to start outputting another type of message when the message is exchanged or when the exchange of messages is stopped for a predetermined time or longer.

この発明の別の局面に従うと、スピーカと、マイクと、スピーカにメッセージを出力させ、マイクを介して取得した音声に基づいてメッセージのやり取りが終了すると判断された際またはメッセージのやり取りが所定時間以上停止した際に、スピーカに別の種類のメッセージの出力を開始させるためのプロセッサと、を備える端末が提供される。 According to another aspect of the present invention, when the speaker, the microphone, and the speaker output a message, and it is determined that the message exchange is completed based on the voice acquired through the microphone, or the message exchange is performed for a predetermined time or longer. A terminal is provided with a processor for causing the speaker to start outputting another type of message when stopped.

以上のように、この発明によれば、より好適なユーザとの対話が可能になる。 As described above, according to the present invention, it is possible to have a more suitable dialogue with a user.

第1の実施の形態にかかるネットワークシステム1の全体構成を示す図である。It is a figure which shows the whole structure of the network system 1 which concerns on 1st Embodiment. 第1の実施の形態にかかるネットワークシステム1の第1の動作概要を示す図である。It is a figure which shows the 1st operation outline of the network system 1 which concerns on 1st Embodiment. 第1の実施の形態にかかるネットワークシステム1の第2の動作概要を示す図である。It is a figure which shows the 2nd operation outline of the network system 1 which concerns on 1st Embodiment. 第1の実施の形態にかかるネットワークシステム1の第3の動作概要を示す図である。It is a figure which shows the 3rd operation outline of the network system 1 which concerns on 1st Embodiment. 第1の実施の形態にかかる音声サービスサーバ100の構成を示すブロック図である。It is a block diagram which shows the structure of the voice service server 100 which concerns on 1st Embodiment. 第1の実施の形態にかかるテーマテーブル121を示すイメージ図である。It is an image diagram which shows the theme table 121 which concerns on 1st Embodiment. 第1の実施の形態にかかる対話シナリオデータベース122を示すイメージ図である。It is an image diagram which shows the dialogue scenario database 122 which concerns on 1st Embodiment. 第1の実施の形態における音声サービスサーバ100の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the voice service server 100 in 1st Embodiment. 第1の実施の形態にかかる音声サービスサーバ100における情報処理を示すフローチャートである。It is a flowchart which shows information processing in voice service server 100 which concerns on 1st Embodiment. 第1の実施の形態にかかる電気機器300の構成を示すブロック図である。It is a block diagram which shows the structure of the electric apparatus 300 which concerns on 1st Embodiment. 第2の実施の形態にかかる音声サービスサーバ100における第1の情報処理を示すフローチャートである。It is a flowchart which shows the 1st information processing in the voice service server 100 which concerns on 2nd Embodiment. 第2の実施の形態にかかる音声サービスサーバ100における第2の情報処理を示すフローチャートである。It is a flowchart which shows the 2nd information processing in the voice service server 100 which concerns on 2nd Embodiment. 第3の実施の形態のゴールデンタイムを示す図である。It is a figure which shows the golden time of the 3rd Embodiment. 第3の実施の形態にかかる音声サービスサーバ100における第1の情報処理を示すフローチャートである。It is a flowchart which shows the 1st information processing in the voice service server 100 which concerns on 3rd Embodiment. 第3の実施の形態にかかる音声サービスサーバ100における第2の情報処理を示すフローチャートである。It is a flowchart which shows the 2nd information processing in the voice service server 100 which concerns on 3rd Embodiment. 第3の実施の形態にかかる音声サービスサーバ100における第3の情報処理を示すフローチャートである。It is a flowchart which shows the 3rd information processing in the voice service server 100 which concerns on 3rd Embodiment. 第4の実施の形態にかかる反応テーブル123を示すイメージ図である。It is an image diagram which shows the reaction table 123 which concerns on 4th Embodiment. 第4の実施の形態にかかる音声サービスサーバ100における情報処理を示すフローチャートである。It is a flowchart which shows the information processing in the voice service server 100 which concerns on 4th Embodiment. 第5の実施の形態にかかる音声サービスサーバ100における情報処理を示すフローチャートである。It is a flowchart which shows the information processing in the voice service server 100 which concerns on 5th Embodiment. 第6の実施の形態にかかる対話シナリオデータベース122Bを示すイメージ図である。It is an image diagram which shows the dialogue scenario database 122B which concerns on 6th Embodiment. 第6の実施の形態にかかる音声サービスサーバ100における情報処理を示すフローチャートである。6 is a flowchart showing information processing in the voice service server 100 according to the sixth embodiment. 第7の実施の形態にかかる電気機器300の動作概要を示す図である。It is a figure which shows the operation outline of the electric apparatus 300 which concerns on 7th Embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
<ネットワークシステム1の全体構成>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are designated by the same reference numerals. Their names and functions are the same. Therefore, the detailed description of them will not be repeated.
<First Embodiment>
<Overall configuration of network system 1>

まず、図1を参照して本実施の形態にかかるネットワークシステム1の全体構成について説明する。本実施の形態にかかるネットワークシステム1は、主に、音声サービスサーバ100と、他の情報提供サーバ100B,100Cと、ロボット300Aや冷蔵庫やエアコンなどの電気機器(通信端末)と、を含む。本実施の形態にかかる電気機器は、ユーザからのメッセージに応じて、音声サービスサーバ100からのデータに基づいてメッセージを音声出力するものである。 First, the overall configuration of the network system 1 according to the present embodiment will be described with reference to FIG. The network system 1 according to the present embodiment mainly includes a voice service server 100, other information providing servers 100B and 100C, and an electric device (communication terminal) such as a robot 300A, a refrigerator, and an air conditioner. The electric device according to the present embodiment voice-outputs a message based on data from the voice service server 100 in response to a message from the user.

なお、電気機器(通信端末)は、ロボット300Aに限らず、冷蔵庫、電子レンジ、エアコン、洗濯機、掃除機、空気清浄器、加湿器、除湿器、炊飯器、照明などの家電、携帯電話、スマートフォン、テレビ、ハードディスクレコーダ、プロジェクタ、音楽プレーヤ、ゲーム機、パーソナルコンピュータなどのAV(オーディオ・ビジュアル)機器、組み込み照明、太陽光発電機、インターホン、給湯器、温水洗浄便座コントローラなどの住宅設備、などであってもよい。以下では、これらの電気機器(通信端末)を総称して、電気機器300ともいう。
<ネットワークシステム1の動作概要>
The electrical equipment (communication terminal) is not limited to the robot 300A, but also includes refrigerators, microwave ovens, air conditioners, washing machines, vacuum cleaners, air purifiers, humidifiers, dehumidifiers, rice cookers, home appliances such as lighting, and mobile phones. AV (audio / visual) equipment such as smartphones, TVs, hard disk recorders, projectors, music players, game machines, personal computers, built-in lighting, solar generators, interphones, water heaters, housing equipment such as hot water washing toilet seat controllers, etc. It may be. Hereinafter, these electric devices (communication terminals) are collectively referred to as an electric device 300.
<Outline of operation of network system 1>

次に、図2〜図4を参照して本実施の形態にかかるネットワークシステム1の動作概要について説明する。本実施の形態にかかるネットワークシステム1に関しては、ユーザがロボット300Aなどの電気機器300に話しかけたり、電気機器300がユーザに話しかけたりすることによって、対話すなわち音声メッセージのやり取りが行われる。より詳細には、本実施の形態においては、音声サービスサーバ100が、電気機器300に音声メッセージを出力させたり、電気機器300を介してユーザからの音声メッセージを取得したりする。 Next, an outline of the operation of the network system 1 according to the present embodiment will be described with reference to FIGS. 2 to 4. Regarding the network system 1 according to the present embodiment, a dialogue, that is, a voice message is exchanged by a user talking to an electric device 300 such as a robot 300A or the electric device 300 talking to the user. More specifically, in the present embodiment, the voice service server 100 causes the electric device 300 to output a voice message, or obtains a voice message from the user via the electric device 300.

そして、図2に示すように、音声サービスサーバ100は、ユーザの反応に応じて、先に出力した音声メッセージをユーザが聞いたか否かを判断したり、先に出力した音声メッセージや当該メッセージに関する話題にユーザが興味を持っているか否かを判断したりする。 Then, as shown in FIG. 2, the voice service server 100 determines whether or not the user has heard the previously output voice message according to the reaction of the user, and relates to the previously output voice message or the message. Determine if the user is interested in the topic.

そして特に本実施の形態においては、図3に示すように、音声サービスサーバ100は、予め準備されている複数種類のテーマやシナリオのメッセージのデータに基づいて、あるテーマに関してのユーザとの対話中に、これ以上対話を続けることが困難であると判断された場合に、別の話題のシナリオデータに基づいて、別の話題の対話を開始する。 In particular, in the present embodiment, as shown in FIG. 3, the voice service server 100 is in a dialogue with a user regarding a certain theme based on the data of messages of a plurality of types of themes and scenarios prepared in advance. In addition, when it is determined that it is difficult to continue the dialogue, the dialogue of another topic is started based on the scenario data of another topic.

また、図4に示すように、音声サービスサーバ100は、予め準備されている複数種類のテーマやシナリオのメッセージのデータに基づいて、あるテーマに関するユーザとの対話が終了したまま所定の時間が経過してしまったときに、別の話題のシナリオデータに基づいて、別の話題の対話を開始する。 Further, as shown in FIG. 4, the voice service server 100 elapses a predetermined time while the dialogue with the user regarding a certain theme is completed based on the data of the messages of a plurality of types of themes and scenarios prepared in advance. When that happens, start a dialogue on another topic based on the scenario data of another topic.

このように、本実施の形態にかかる音声サービスサーバ100は、電気機器300によるユーザとの対話をスムーズにすることができる。すなわち、ユーザと電気機器300との間(ま)を持たせることができ、ユーザの居心地を良い状態にしたり良い状態のまま維持したりしやすくなる。以下、このような機能を実現するためのネットワークシステム1の具体的な構成について詳述する。
<音声サービスサーバ100のハードウェア構成>
As described above, the voice service server 100 according to the present embodiment can facilitate the dialogue with the user by the electric device 300. That is, it is possible to provide a space between the user and the electric device 300, and it becomes easy to make the user comfortable or maintain a good state. Hereinafter, a specific configuration of the network system 1 for realizing such a function will be described in detail.
<Hardware configuration of voice service server 100>

まず、本実施の形態にかかるネットワークシステム1を構成する音声サービスサーバ100のハードウェア構成の一態様について説明する。他の情報提供サーバ100B、100Cも音声サービスサーバ100と同様の構成を有しているため、ここでは説明を繰り返さない。 First, one aspect of the hardware configuration of the voice service server 100 constituting the network system 1 according to the present embodiment will be described. Since the other information providing servers 100B and 100C also have the same configuration as the voice service server 100, the description will not be repeated here.

図5を参照して、音声サービスサーバ100は、主たる構成要素として、CPU(Central Processing Unit)110と、メモリ120と、操作部140と、通信インターフェイス160とを含む。 With reference to FIG. 5, the voice service server 100 includes a CPU (Central Processing Unit) 110, a memory 120, an operation unit 140, and a communication interface 160 as main components.

CPU110は、メモリ120に記憶されているプログラムを実行することによって、音声サービスサーバ100の各部を制御する。たとえば、CPU110は、メモリ120に格納されているプログラムを実行し、各種のデータを参照することによって、後述する各種の処理を実行する。 The CPU 110 controls each part of the voice service server 100 by executing a program stored in the memory 120. For example, the CPU 110 executes a program stored in the memory 120 and executes various processes described later by referring to various data.

メモリ120は、各種のRAM(Random Access Memory)、各種のROM(Read-Only Memory)などによって実現される。メモリ120は、CPU110によって実行されるプログラムや、CPU110によるプログラムの実行により生成されたデータ、入力されたデータ、その他、テーマテーブル121や対話シナリオデータベース122や、ユーザがメッセージに興味を持っていることを示す第1のレベルの複数種類のキーワードや、ユーザが単にメッセージを聞いたことを示す第2のレベルの複数種類のキーワードのデータなどの音声サービスに利用されるデータベースなどを記憶する。なお当然に、これらのデータは、音声サービスサーバ100自体が格納していなくても、音声サービスサーバ100がアクセス可能な他の装置に格納されていてもよい。 The memory 120 is realized by various RAMs (Random Access Memory), various ROMs (Read-Only Memory), and the like. The memory 120 includes a program executed by the CPU 110, data generated by executing the program by the CPU 110, input data, the theme table 121, the dialogue scenario database 122, and the user being interested in the message. A database used for voice services such as data of a plurality of types of keywords of the first level indicating that the user has simply heard a message and data of a plurality of types of keywords of the second level indicating that the user has simply heard a message is stored. As a matter of course, these data may not be stored in the voice service server 100 itself, but may be stored in another device accessible to the voice service server 100.

ここで、図6を参照して、テーマテーブル121は、テーマ毎に、テーマIDとテーマ名との対応関係を格納する。また、図7を参照して、対話シナリオデータベース122は、シナリオ毎またはメッセージ毎に、対話シナリオIDと、テーマIDと、テキストデータまたは音声データとの対応関係を格納する。なお、以下では、ユーザと対話するための一連のメッセージをシナリオともいう。 Here, referring to FIG. 6, the theme table 121 stores the correspondence between the theme ID and the theme name for each theme. Further, referring to FIG. 7, the dialogue scenario database 122 stores the correspondence between the dialogue scenario ID, the theme ID, and the text data or the voice data for each scenario or each message. In the following, a series of messages for interacting with the user is also referred to as a scenario.

このように構成されているため、本実施の形態においては、CPU110は、メモリ120のプログラムを実行することによって、図8に示すように、対話シナリオ選択部110Aと対話シナリオ実行処理部110Bと、連想シナリオ検索部110Cなどを実現する。 Therefore, in the present embodiment, the CPU 110 executes the program of the memory 120 to execute the dialogue scenario selection unit 110A, the dialogue scenario execution processing unit 110B, and the dialogue scenario execution processing unit 110B, as shown in FIG. The associative scenario search unit 110C and the like are realized.

より詳細には、対話シナリオ選択部110Aは、ユーザとメッセージのやり取りを開始する前に、対話シナリオデータベース122からテーマおよびシナリオを選択する。対話シナリオ実行処理部110Bは、通信インターフェイス160を介してシナリオに含まれるメッセージを電気機器300に送信することによって、電気機器300にユーザとの対話を実行させる。 More specifically, the dialogue scenario selection unit 110A selects a theme and a scenario from the dialogue scenario database 122 before starting the exchange of messages with the user. The dialogue scenario execution processing unit 110B causes the electrical device 300 to execute a dialogue with the user by transmitting a message included in the scenario to the electrical device 300 via the communication interface 160.

そして、シナリオの対話が終了すると、または対話が終了して所定時間沈黙が続くと、または現在のシナリオに続きのメッセージが用意されていないと、連想シナリオ検索部110Cが、先に選択されたテーマやシナリオやメッセージに関連するシナリオを検索して、対話シナリオデータベース122から新たなメッセージを抽出する。これによって、対話シナリオ実行処理部110Bは、再度、ユーザからのメッセージに応じて、通信インターフェイス160を介してシナリオに含まれるメッセージを電気機器300に送信することによって、電気機器300にユーザとの対話を実行させる。 Then, when the dialogue of the scenario ends, or when the dialogue ends and the silence continues for a predetermined time, or when the message following the current scenario is not prepared, the associative scenario search unit 110C selects the theme first. Search for scenarios related to or scenarios and messages, and extract new messages from the dialogue scenario database 122. As a result, the dialogue scenario execution processing unit 110B again transmits the message included in the scenario to the electric device 300 via the communication interface 160 in response to the message from the user, thereby causing the electric device 300 to interact with the user. To execute.

図5に戻って、操作部140は、サービスの管理者などの命令を受け付けて、当該命令をCPU110に入力する。 Returning to FIG. 5, the operation unit 140 receives an instruction from the service administrator or the like and inputs the instruction to the CPU 110.

通信インターフェイス160は、CPU110からのデータを、インターネット、キャリア網、ルータなどを介して電気機器300などの他の装置に送信する。逆に、通信インターフェイス160は、インターネット、キャリア網、ルータなどを介して他の装置からのデータを受信して、CPU110に受け渡す。 The communication interface 160 transmits data from the CPU 110 to another device such as an electric device 300 via the Internet, a carrier network, a router, or the like. On the contrary, the communication interface 160 receives data from another device via the Internet, a carrier network, a router, or the like, and passes the data to the CPU 110.

他の情報提供サーバ100B,100Cの構成は、メモリ120のデータやCPU110の処理が異なるが、ハードウェア構成は概ね音声サービスサーバ100のそれと同様であるため、ここでは説明を繰り返さない。
<音声サービスサーバ100における情報処理>
The configurations of the other information providing servers 100B and 100C differ in the processing of the data in the memory 120 and the CPU 110, but the hardware configuration is almost the same as that of the voice service server 100, so the description is not repeated here.
<Information processing in the voice service server 100>

次に、図9を参照しながら、本実施の形態にかかる音声サービスサーバ100における情報処理について説明する。 Next, information processing in the voice service server 100 according to the present embodiment will be described with reference to FIG.

音声サービスサーバ100のCPU110は、ユーザ毎または電気機器300毎に、定期的に、電気機器300毎に以下の処理を実行する。まず、CPU110は、現在、対話中であるか否かを判断する(ステップS102)。対話中においては(ステップS102にてYESである場合)、CPU110は、電気機器300からの音声データからユーザのメッセージを抽出して、当該メッセージを解析する(ステップS104)。 The CPU 110 of the voice service server 100 periodically executes the following processing for each user or each electric device 300, and for each electric device 300. First, the CPU 110 determines whether or not the conversation is currently in progress (step S102). During the dialogue (when YES in step S102), the CPU 110 extracts the user's message from the voice data from the electric device 300 and analyzes the message (step S104).

CPU110は、メモリ120のデータを参照して、ユーザが電気機器300が出力したメッセージやそのテーマなどに興味を示したか否かを判断する(ステップS112)。たとえば、CPU110は、抽出したメッセージに第1のレベルのキーワード、たとえば「大好き!!」や「いいよね。」やユーザからの質問などが含まれている場合に、ユーザが一連のメッセージに興味を示しと判断し、メッセージに第1のレベルのキーワードが含まれていない場合に、ユーザが一連のメッセージに興味を示さなかったと判断する。あるいは、CPU110は、電気機器300を介してユーザにクイズを出して、ユーザの回答があったときに、ユーザが一連のメッセージに興味を示したと判断し、当該クイズに対して回答がなかった場合に、ユーザが一連のメッセージに興味を示さなかったと判断してもよい。あるいは、ユーザに「興味がありますか?」と質問したのちのユーザの「はい。」や「うん。」などの回答があったとき時に、ユーザが一連のメッセージに興味を示したと判断し、当該質問に対して「いいえ。」や「ううん。」の回答があった場合や回答がなかった場合に、ユーザがメッセージに興味を示さなかったと判断する。 The CPU 110 refers to the data in the memory 120 and determines whether or not the user is interested in the message output by the electric device 300 or the theme thereof (step S112). For example, the CPU 110 is interested in a series of messages when the extracted message contains first-level keywords such as "I love you !!", "Like", and a question from the user. If the message does not contain the first level keyword, it is determined that the user is not interested in the series of messages. Alternatively, when the CPU 110 gives a quiz to the user via the electric device 300, determines that the user is interested in a series of messages when the user answers, and does not answer the quiz. It may be determined that the user was not interested in the series of messages. Alternatively, when the user answers "Yes" or "Yeah" after asking the user "Are you interested?", It is determined that the user is interested in the series of messages, and the relevant message is applicable. If the question is answered with "No." or "Yeah." Or if there is no answer, it is determined that the user is not interested in the message.

ユーザがメッセージに興味を示したと判断した場合(ステップS112にてYESである場合)、CPU110は、ユーザの特定情報と、電気機器300が出力したメッセージの特定情報やそのテーマの特定情報や時間帯と、に対応付けて、ユーザが興味を持っていることを示すデータをメモリ120に格納する(ステップS114)。CPU110は、ステップS132からの処理を実行する。 When it is determined that the user is interested in the message (YES in step S112), the CPU 110 determines the user's specific information, the specific information of the message output by the electric device 300, the specific information of the theme, and the time zone. And, in association with, data indicating that the user is interested is stored in the memory 120 (step S114). The CPU 110 executes the process from step S132.

ユーザがメッセージに興味を示さなかったと判断した場合(ステップS112にてNOである場合)、CPU110は、メモリ120のデータを参照して、ユーザが電気機器300からのメッセージを聞いたか否かを判断する(ステップS122)。たとえば、CPU110は、抽出したユーザのメッセージに第2のレベルのキーワード、たとえば「うん。」や「へえ。」などが含まれている場合に、ユーザがメッセージを聞いたと判断し、メッセージに第2のレベルのキーワードが含まれていない場合に、ユーザがメッセージを聞かなかったと判断する。あるいは、ユーザに「ねえ、聞いていますか?」と質問したのちのユーザの「はい。」や「うん。」などの回答があったとき時に、ユーザがメッセージを聞いたと判断し、当該質問に対して「いいえ。」や「ううん。」などの回答があった場合や回答がなかった場合に、ユーザがメッセージを聞かなかったと判断する。 When it is determined that the user is not interested in the message (NO in step S112), the CPU 110 refers to the data in the memory 120 and determines whether or not the user has heard the message from the electric device 300. (Step S122). For example, if the extracted user's message contains a second-level keyword, such as "Yeah." Or "Hey.", The CPU 110 determines that the user has heard the message and puts the second level in the message. If the keyword at the level of is not included, it is determined that the user did not hear the message. Alternatively, when the user is asked "Hey, are you listening?" And then the user answers "Yes." Or "Yeah.", It is determined that the user has heard the message, and the question is answered. On the other hand, if there is an answer such as "No." Or "Yeah." Or if there is no answer, it is determined that the user did not hear the message.

ユーザがメッセージを聞いたと判断した場合(ステップS122にてYESである場合)、CPU110は、ユーザの特定情報と、電気機器300が出力したメッセージの特定情報やそのテーマの特定情報や時間帯と、に対応付けて、ユーザがメッセージを聞いたことを示すデータをメモリ120に格納する(ステップS124)。CPU110は、ステップS132からの処理を実行する。 When it is determined that the user has heard the message (YES in step S122), the CPU 110 determines the user's specific information, the specific information of the message output by the electric device 300, the specific information of the theme, and the time zone. The data indicating that the user has heard the message is stored in the memory 120 in association with (step S124). The CPU 110 executes the process from step S132.

ユーザがメッセージを聞かなかったと判断した場合(ステップS122にてNOである場合)、CPU110は、ステップS132からの処理を実行する。 If it is determined that the user has not heard the message (NO in step S122), the CPU 110 executes the process from step S132.

好ましくは、CPU110は、「ユーザ毎の、または年齢・住所・性別などのユーザ層毎の、またはユーザ全体の」、「メッセージ毎の、またはテーマ毎の、または時間帯毎の」、「メッセージを聞いた割合、またはメッセージに興味を示した割合」などを計算してメモリ120に格納したり、通信インターフェイス160を介して他のサーバに当該情報を提供したりする。 Preferably, the CPU 110 performs "per user, per user group such as age, address, gender, or whole user", "per message, or per theme, or per time zone", "message The ratio of listening or the ratio of showing interest in a message is calculated and stored in the memory 120, or the information is provided to another server via the communication interface 160.

ステップS132では、CPU110は、対話シナリオデータベース122を参照して、電気機器300が出力したメッセージの続きのメッセージが準備されているか否かを判断する。続きのメッセージが準備されている場合(ステップS132にてYESである場合)、CPU110は、電気機器300にそのままユーザとの対話を続行させる。すなわち、CPU110は、通信インターフェイス160を介して、次のメッセージを電気機器300に送信したり、電気機器300からの次のメッセージを待ちうけたりする。あるいは電気機器300毎に、第1の所定時間たとえば1秒経過毎にステップS102を繰り返す。 In step S132, the CPU 110 refers to the dialogue scenario database 122 and determines whether or not a message following the message output by the electric device 300 is prepared. When the continuation message is prepared (YES in step S132), the CPU 110 causes the electric device 300 to continue the dialogue with the user as it is. That is, the CPU 110 transmits the next message to the electric device 300 or waits for the next message from the electric device 300 via the communication interface 160. Alternatively, step S102 is repeated for each electric device 300 every first predetermined time, for example, every second.

続きのメッセージが準備されていない場合(ステップS132にてNOである場合)、CPU110は、テーマテーブル121を参照して、次のテーマを特定する(ステップS144)。なお、CPU110は、テーマテーブル121のテーマIDの順に次のテーマを決定してもよいし、人気のニュースに基づいて次のテーマを決定してもよいし、ユーザ設定や後述するようなユーザの過去の履歴などに基づいて次のテーマを決定してもよい。 When the subsequent message is not prepared (NO in step S132), the CPU 110 refers to the theme table 121 and specifies the next theme (step S144). The CPU 110 may determine the next theme in the order of the theme ID of the theme table 121, may determine the next theme based on popular news, or may use user settings or a user as described later. The next theme may be decided based on the past history or the like.

CPU110は、対話シナリオデータベース122を参照して、特定されたテーマに対応するメッセージを読み出して、通信インターフェイス160を介して電気機器300にメッセージのデータを送信する(ステップS146)。これによって、電気機器300のCPU310は、音声サービスサーバ100からのデータに基づいて新たなテーマに関する対話をスタートすることができる。音声サービスサーバ100のCPU110は、通信インターフェイス160を介して電気機器300からの次のメッセージを待ちうける。あるいは電気機器300毎に、第1の所定時間の経過後にステップS102を繰り返す。 The CPU 110 refers to the dialogue scenario database 122, reads the message corresponding to the specified theme, and transmits the message data to the electric device 300 via the communication interface 160 (step S146). As a result, the CPU 310 of the electric device 300 can start a dialogue on a new theme based on the data from the voice service server 100. The CPU 110 of the voice service server 100 waits for the next message from the electric device 300 via the communication interface 160. Alternatively, for each electrical device 300, step S102 is repeated after the lapse of the first predetermined time.

一方、対話中でないときは(ステップS102にてYESである場合)、CPU110は、対話が止まってから第2の所定時間たとえば20秒が経過したか否かを判断する(ステップS142)。CPU110は、第2の所定時間経過した場合(ステップS142にてYESである場合)、ステップS144からの処理を実行する。 On the other hand, when the dialogue is not in progress (YES in step S102), the CPU 110 determines whether or not a second predetermined time, for example, 20 seconds has elapsed since the dialogue was stopped (step S142). When the second predetermined time has elapsed (YES in step S142), the CPU 110 executes the process from step S144.

第2の所定時間経過していない場合(ステップS142にてNOである場合)、CPU110は、通信インターフェイス160を介して電気機器300からの次のメッセージを待ちうける。あるいは電気機器300毎に、第1の所定時間の経過後にステップS102を繰り返す。
<電気機器300のハードウェア構成>
If the second predetermined time has not elapsed (NO in step S142), the CPU 110 waits for the next message from the electric device 300 via the communication interface 160. Alternatively, for each electrical device 300, step S102 is repeated after the lapse of the first predetermined time.
<Hardware configuration of electrical equipment 300>

次に、図10を参照して、ネットワークシステム1を構成する電気機器300の構成の一態様について説明する。電気機器300は、主たる構成要素として、CPU310と、メモリ320と、ディスプレイ330と、操作部340と、カメラ350、通信インターフェイス360と、スピーカ370と、マイク380と、機器駆動部390とを含む。 Next, with reference to FIG. 10, one aspect of the configuration of the electric device 300 constituting the network system 1 will be described. The electric device 300 includes a CPU 310, a memory 320, a display 330, an operation unit 340, a camera 350, a communication interface 360, a speaker 370, a microphone 380, and a device drive unit 390 as main components.

CPU310は、メモリ320あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、電気機器300の各部を制御する。 The CPU 310 controls each part of the electric device 300 by executing a program stored in the memory 320 or an external storage medium.

メモリ320は、各種のRAMや、各種のROMなどによって実現される。メモリ320は、CPU310によって実行される機器駆動プログラムや会話プログラムやその他のプログラムや、CPU310によるプログラムの実行により生成されたデータ、音声サービスサーバ100や他のサーバから受信したデータ、操作部340を介して入力されたデータなどを記憶する。 The memory 320 is realized by various RAMs, various ROMs, and the like. The memory 320 is provided via a device drive program, a conversation program, or other program executed by the CPU 310, data generated by executing the program by the CPU 310, data received from the voice service server 100 or another server, and an operation unit 340. And memorize the input data.

ディスプレイ330は、CPU310からの信号に基づいて、文字や画像などを出力する。ディスプレイ330は、図1に示すように、単にライト330A,330Bであってもよい。 The display 330 outputs characters, images, and the like based on the signal from the CPU 310. As shown in FIG. 1, the display 330 may be simply the lights 330A and 330B.

操作部340は、ボタン、タッチパネルなどによって実現され、ユーザからの命令を受け付けて、当該命令をCPU310に入力する。なお、ディスプレイ330と操作部340とは、タッチパネルを構成してもよい。 The operation unit 340 is realized by a button, a touch panel, or the like, receives a command from the user, and inputs the command to the CPU 310. The display 330 and the operation unit 340 may form a touch panel.

また、操作部340は、近接センサや温度センサなどであってもよい。この場合は、CPU310は、操作部340としての近接センサや温度センサを介して、ユーザが電気機器300に手をかざしたことを検知して、各種の動作を開始する。たとえば、電気機器300がロボットであって、近接センサが額の近辺に配置されることによって、ユーザが電気機器300をなでたり・たたいたりすることを電気機器300が検知してもよい。 Further, the operation unit 340 may be a proximity sensor, a temperature sensor, or the like. In this case, the CPU 310 detects that the user holds his / her hand over the electric device 300 via the proximity sensor or the temperature sensor as the operation unit 340, and starts various operations. For example, the electric device 300 may detect that the user is stroking or hitting the electric device 300 by arranging the proximity sensor near the forehead when the electric device 300 is a robot.

カメラ350は、画像を撮影して、画像データをCPU310に受け渡す。CPU310は、画像データからユーザの動きを特定してもよいし、画像データをサーバ100に提供してサーバ100がユーザの動きを特定してもよい。 The camera 350 takes an image and passes the image data to the CPU 310. The CPU 310 may specify the user's movement from the image data, or may provide the image data to the server 100 so that the server 100 can specify the user's movement.

通信インターフェイス360は、無線LAN通信あるいは有線LANなどの通信モジュールによって実現される。通信インターフェイス360は、有線通信あるいは無線通信によって音声サービスサーバ100などの他の装置との間でデータをやり取りする。 The communication interface 360 is realized by a communication module such as wireless LAN communication or wired LAN. The communication interface 360 exchanges data with another device such as the voice service server 100 by wired communication or wireless communication.

スピーカ370は、CPU310からの信号に基づいて、音声を出力する。より詳細には、本実施の形態においては、CPU310は、通信インターフェイス360を介してサーバ100から受信した音声データに基づいてスピーカ370に音声メッセージを出力させる。あるいは、CPU310は、通信インターフェイス360を介してサーバ100から受信したテキストデータに基づいて音声信号を作成し、スピーカ370に音声メッセージを出力させる。あるいは、CPU310は、通信インターフェイス360を介してサーバ100から受信したメッセージIDに基づいて、メモリ320からメッセージの音声データを読み出して、スピーカ370に音声メッセージを出力させる。 The speaker 370 outputs sound based on the signal from the CPU 310. More specifically, in the present embodiment, the CPU 310 causes the speaker 370 to output a voice message based on the voice data received from the server 100 via the communication interface 360. Alternatively, the CPU 310 creates a voice signal based on the text data received from the server 100 via the communication interface 360, and causes the speaker 370 to output a voice message. Alternatively, the CPU 310 reads the voice data of the message from the memory 320 based on the message ID received from the server 100 via the communication interface 360, and causes the speaker 370 to output the voice message.

マイク380は、外部からの音声に基づいて音声信号を作成し、CPU310に入力する。 The microphone 380 creates a voice signal based on the voice from the outside and inputs it to the CPU 310.

機器駆動部390は、CPU310からの信号に基づいて、電気機器300の各部(モータやヒータなど)を制御する。 The device drive unit 390 controls each part (motor, heater, etc.) of the electric device 300 based on the signal from the CPU 310.

このように、本実施の形態にかかる音声サービスにおいては、続きの対話用のメッセージデータが準備されていない場合に別の話題をスタートさせたり、対話がストップして所定時間が経過した際に別の話題をスタートさせたりするため、電気機器300のユーザが退屈しにくくなり、居心地良く感じやすくなる。さらに、本実施の形態に係る音声サービスにおいては、たとえば当該音声サービスに会話情報や広告情報の提供者に、「ユーザ毎の、または年齢・住所・性別などのユーザ層毎の、またはユーザ全体の」、「メッセージ毎の、または話題毎の、またはテーマ毎の、または時間帯毎の」、「メッセージを聞いた割合、またはメッセージに興味を示した割合」などを伝えることができる。そして、このような情報は、広告の提供者から徴収する料金の算定や、他の情報の提供者へ支払う料金の算定や、各種のマーケティングなどに利用することができる。
<第2の実施の形態>
As described above, in the voice service according to the present embodiment, another topic is started when the message data for the subsequent dialogue is not prepared, or another topic is started when the dialogue is stopped and a predetermined time elapses. Since the topic of the above is started, the user of the electric device 300 is less likely to get bored and feel comfortable and comfortable. Further, in the voice service according to the present embodiment, for example, the voice service is provided with the provider of conversation information or advertisement information, "for each user, for each user group such as age, address, gender, or for the entire user. , "By message, by topic, by theme, or by time of day", "Percentage of listening to the message, or Percentage of interest in the message" and so on. Then, such information can be used for calculation of charges collected from advertisement providers, calculation of charges paid to other information providers, various marketing, and the like.
<Second Embodiment>

音声サービスサーバ100は、さらに、ユーザが興味を示したり肯定的なメッセージを話したり対話が盛り上がったりした場合に、企業や商品やサービスの広告を電気機器300から出力させ(図2などを参照。)、ユーザが興味を示さなかったり否定的なメッセージを話したり対話が盛り上がらなかった場合に、企業や商品やサービスの広告を電気機器300から出力させないという機能を有してもよい。 The voice service server 100 further outputs an advertisement for a company, a product, or a service from the electric device 300 when the user shows interest, speaks a positive message, or has a lively dialogue (see FIG. 2 and the like). ), It may have a function of not outputting an advertisement of a company, a product, or a service from the electric device 300 when the user does not show interest, speaks a negative message, or does not have a lively dialogue.

より詳細には、図11を参照して、ユーザがメッセージに興味を示したと判断した場合(ステップS112にてYESである場合)、CPU110は、ステップS114に加えて、通信インターフェイス160を介して電気機器300に広告用のデータを送信する(ステップS118)。これによって、図2に示すように、電気機器300は音声サービスサーバ100からのデータに基づいて広告を出力する。 More specifically, referring to FIG. 11, if it is determined that the user is interested in the message (yes in step S112), the CPU 110 will be charged via the communication interface 160 in addition to step S114. Data for advertising is transmitted to the device 300 (step S118). As a result, as shown in FIG. 2, the electric device 300 outputs an advertisement based on the data from the voice service server 100.

一方、ユーザがメッセージに興味を示さなかったと判断した場合(ステップS112にてNOである場合)、CPU110は、ユーザが電気機器300のメッセージを聞いたか否かの判断を行うが(ステップS122)、この場合は電気機器300に広告を出力させない。 On the other hand, when it is determined that the user is not interested in the message (NO in step S112), the CPU 110 determines whether or not the user has heard the message of the electric device 300 (step S122). In this case, the electric device 300 does not output the advertisement.

あるいは、図12を参照して、ユーザがメッセージに興味を示したと判断した場合(ステップS112にてYESである場合)、CPU110は、ステップS114に加えて、ユーザが第1の所定回数以上、電気機器300が出力するメッセージに反応しているか否か、たとえば第1の所定回数以上ユーザが電気機器300にメッセージを入力したか否かを判断する(ステップS116)。第1の所定回数以上ユーザが電気機器300にメッセージを入力している場合(ステップS116にてYESである場合)、CPU110は、通信インターフェイス160を介して電気機器300に広告用のデータを送信する(ステップS118)。これによって、図2に示すように、電気機器300は音声サービスサーバ100からのデータに基づいて、広告を出力する。 Alternatively, when it is determined that the user is interested in the message with reference to FIG. 12 (YES in step S112), the CPU 110, in addition to step S114, causes the user to perform electricity for the first predetermined number of times or more. It is determined whether or not the device 300 is responding to the message output, for example, whether or not the user has input the message to the electric device 300 more than the first predetermined number of times (step S116). When the user has input a message to the electric device 300 more than the first predetermined number of times (YES in step S116), the CPU 110 transmits the advertising data to the electric device 300 via the communication interface 160. (Step S118). As a result, as shown in FIG. 2, the electric device 300 outputs an advertisement based on the data from the voice service server 100.

一方、未だ第1の所定回数以上ユーザが電気機器300にメッセージを入力していない場合(ステップS116にてNOである場合)、あるいはユーザがメッセージに興味を示さなかったと判断した場合(ステップS112にてNOである場合)、CPU110は電気機器300に広告を出力させない。 On the other hand, when the user has not yet input the message to the electric device 300 more than the first predetermined number of times (NO in step S116), or when it is determined that the user is not interested in the message (in step S112). If NO), the CPU 110 does not cause the electric device 300 to output an advertisement.

なお、予め肯定的な第1のメッセージが設定されており、音声サービスサーバ100のCPU110が、ユーザのメッセージが当該第1のメッセージを含む場合にユーザが肯定的であると判断し、ユーザのメッセージが当該第1のメッセージを含まない場合にユーザが否定的であると判断してもよい。 A positive first message is set in advance, and the CPU 110 of the voice service server 100 determines that the user is positive when the user's message includes the first message, and the user's message. May determine that the user is negative if does not include the first message.

あるいは、予め否定的な第2のメッセージが設定されており、音声サービスサーバ100のCPU110が、ユーザのメッセージが当該第2のメッセージを含む場合にユーザが否定的であると判断し、ユーザのメッセージが当該第2のメッセージを含まない場合にユーザが肯定的であると判断してもよい。 Alternatively, a negative second message is set in advance, and the CPU 110 of the voice service server 100 determines that the user is negative when the user's message includes the second message, and the user's message. May determine that the user is positive if does not include the second message.

なお、予め肯定的な第1のメッセージと否定的な第2のメッセージが設定されており、音声サービスサーバ100のCPU110が、ユーザのメッセージが当該第1のメッセージを含む場合にユーザが肯定的であると判断し、ユーザのメッセージが当該第2のメッセージを含む場合にユーザが否定的であると判断し、ユーザのメッセージがいずれのメッセージも含まない場合は次のメッセージまで判断を保留してもよい。 A positive first message and a negative second message are set in advance, and the CPU 110 of the voice service server 100 is positive when the user's message includes the first message. If the user's message contains the second message, the user is judged to be negative, and if the user's message does not contain any of the messages, the judgment is suspended until the next message. Good.

あるいはメッセージ毎に、肯定的である度合を示す肯定ポイントが付与されている。なお、肯定的なメッセージ、たとえば「大好き。」「最高。」には“正”の大きなポイントが付与されており、否定的なメッセージ、たとえば「大嫌い。」「いや。」には“負”の大きなポイントが付与される。そして、CPU110が、ユーザのメッセージのポイントまたは累積ポイントが所定値以上である場合に肯定的であると判断し、所定値未満である場合に肯定的ではないと判断してもよい。 Alternatively, affirmative points indicating the degree of affirmation are given to each message. Positive messages such as "I love you" and "Highest" are given a large "positive" point, and negative messages such as "I hate you" and "No" are given "negative". Large points will be awarded. Then, the CPU 110 may determine that the points or accumulated points of the user's message are affirmative when they are equal to or more than a predetermined value, and may determine that they are not affirmative when they are less than a predetermined value.

また、上記の実施の形態においては、肯定的なユーザのメッセージに応じて広告情報を出力させ、否定的なユーザのメッセージに応じて広告情報を出力しないものとしているがこのような形態には限られない。 Further, in the above embodiment, the advertisement information is output in response to the message of the positive user, and the advertisement information is not output in response to the message of the negative user, but the present embodiment is limited to such a form. I can't.

たとえば、音声サービスサーバ100のCPU110は、肯定的なユーザのメッセージに応じて第1の広告情報を出力させ、否定的なユーザのメッセージに応じて第2の広告情報を出力する形態にしてもよい。なお、第1の広告情報は、第2の広告情報よりも詳しい内容を含む。あるいは、第1の広告情報には企業名と商品とを含み、第2の広告情報には企業名と商品のいずれかを含む。 For example, the CPU 110 of the voice service server 100 may output the first advertisement information in response to a positive user's message and output the second advertisement information in response to a negative user's message. .. The first advertisement information includes more detailed contents than the second advertisement information. Alternatively, the first advertising information includes the company name and the product, and the second advertising information includes either the company name and the product.

なお、広告情報に限らず、音声サービスサーバ100のCPU110は、肯定的なユーザのメッセージに応じてニュースなどの情報を出力させ、否定的なユーザのメッセージに応じてニュースなどの情報を出力しない形態にしてもよい。あるいは、肯定的なユーザのメッセージに応じて詳細情報を出力させ、否定的なユーザのメッセージに応じて簡易情報を出力する形態にしてもよい。 Not limited to the advertisement information, the CPU 110 of the voice service server 100 outputs information such as news in response to a message from a positive user, and does not output information such as news in response to a message from a negative user. It may be. Alternatively, detailed information may be output in response to a positive user's message, and simple information may be output in response to a negative user's message.

さらにはそれらを組み合わせて、音声サービスサーバ100のCPU110は、ユーザのメッセージのポイントまたは累積ポイントが第1の所定値以上である場合、あるいはユーザのメッセージに第1の肯定メッセージが含まれている場合、第1の肯定状態であると判断し、詳細情報と広告情報とを電気機器300に出力させる。CPU110は、ユーザのメッセージのポイントまたは累積ポイントが第1の所定値未満かつ第1の所定値よりも小さな第2の所定値以上である場合、あるいはユーザのメッセージに第2の肯定メッセージが含まれている場合、第2の肯定状態であると判断し、簡易情報と広告情報とを電気機器300に出力させる。CPU110は、ユーザのメッセージのポイントまたは累積ポイントが第2の所定値未満である場合、あるいはユーザのメッセージに第1および第2の肯定メッセージが含まれていない場合、否定的な状態であると判断し、簡易情報のみを電気機器300に出力させてもよい。
<第3の実施の形態>
Further, by combining them, the CPU 110 of the voice service server 100 determines that the points or cumulative points of the user's message are equal to or more than the first predetermined value, or the user's message contains the first affirmative message. , It is determined that it is the first affirmative state, and detailed information and advertisement information are output to the electric device 300. The CPU 110 indicates that the points or cumulative points of the user's message are less than the first predetermined value and greater than or equal to the second predetermined value smaller than the first predetermined value, or the user's message includes a second affirmative message. If so, it is determined that the second affirmative state is obtained, and the electric device 300 is made to output the simple information and the advertisement information. The CPU 110 determines that the user's message is in a negative state if the points or cumulative points of the user's message are less than the second predetermined value, or if the user's message does not include the first and second affirmative messages. However, only simple information may be output to the electric device 300.
<Third embodiment>

音声サービスサーバ100は、さらに、時間帯や曜日などに応じて、対話のテーマの切り替え方や、各種の判断方法などを変更してもよい。 The voice service server 100 may further change the method of switching the theme of the dialogue, various determination methods, and the like according to the time zone, the day of the week, and the like.

以下では、図13に示すように、ユーザ毎の電気機器300のメッセージに集中することができる可能性が高い時間帯、換言すればユーザ毎の忙しくない時間帯を、ゴールデンタイムという。たとえば、音声サービスサーバ100のCPU110は、ユーザ毎または電気機器300毎の、メッセージに対する「興味あり」との判断結果の割合に基づいて、「興味あり」との判断結果の割合が多い、たとえば30%以上などの、時間帯をユーザ毎のゴールデンタイムとして設定する。あるいは、CPU110は、ユーザ毎または電気機器300毎の、メッセージに対する「興味あり」の判断結果の割合と「聞いた」の判断結果の割合とに基づいて、両者の割合の合計が多い、たとえば40%以上などの、時間帯をユーザ毎のゴールデンタイムとして設定する。あるいは、CPU110は、ユーザ毎または電気機器300毎の、ユーザとの対話のキャッチボールの回数が多い時間帯をゴールデンタイムとしてもよい。 In the following, as shown in FIG. 13, a time zone in which there is a high possibility that the message of the electric device 300 for each user can be concentrated, in other words, a time zone in which each user is not busy is referred to as a golden time. For example, the CPU 110 of the voice service server 100 has a large proportion of the determination results of "interested" based on the proportion of the determination results of "interested" for the message for each user or each electric device 300, for example, 30. Set the time zone such as% or more as the golden time for each user. Alternatively, the CPU 110 has a large sum of both ratios, for example, 40, based on the ratio of the "interested" judgment result and the "heard" judgment result ratio for the message for each user or each electric device 300. Set the time zone such as% or more as the golden time for each user. Alternatively, the CPU 110 may set a time zone in which the number of catch balls for dialogue with the user is large for each user or each electric device 300 as the golden time.

ただし、ゴールデンタイムはユーザ毎に設定される必要はなく、全ユーザに共通であってもよいし、年齢・性別・住所などの属性毎に設定されるものであってもよい。 However, the golden time does not have to be set for each user, and may be common to all users, or may be set for each attribute such as age, gender, and address.

図14を参照して、ユーザがメッセージに興味を示したと判断した場合(ステップS112にてYESである場合)、CPU110は、ステップS114に加えて、対象となる電気機器300またはユーザにとって、現在がゴールデンタイムであるか否かを判断する(ステップS116)。 When it is determined that the user is interested in the message with reference to FIG. 14 (YES in step S112), the CPU 110, in addition to step S114, is currently present to the target electrical device 300 or the user. It is determined whether or not it is the golden time (step S116).

現在がゴールデンタイムである場合(ステップS116にてYESである場合)、CPU110は、通信インターフェイス160を介して、広告用のデータを送信する(ステップS118)。そして、図2に示すように、電気機器300は音声サービスサーバ100からのデータに基づいて、広告を出力する。CPU110は、ユーザが電気機器300のメッセージに興味を持った時間を記憶して、ゴールデンタイムの判断のための反応頻度を高める補正をする(ステップS119)。CPU110は、ステップS132からの処理を実行する。 When the present is the golden time (YES in step S116), the CPU 110 transmits data for advertisement via the communication interface 160 (step S118). Then, as shown in FIG. 2, the electric device 300 outputs an advertisement based on the data from the voice service server 100. The CPU 110 stores the time when the user is interested in the message of the electric device 300, and makes a correction to increase the reaction frequency for determining the golden time (step S119). The CPU 110 executes the process from step S132.

一方、ユーザがメッセージに興味を示さなかったと判断した場合(ステップS112にてNOである場合)、CPU110は、メモリ120のデータを参照して、ユーザがメッセージを聞いたか否かを判断する(ステップS122)。ユーザがメッセージを聞いたと判断した場合(ステップS122にてYESである場合)、CPU110は、ステップS124に加えて、ユーザが電気機器300のメッセージを聞いた時間を記憶して、ゴールデンタイムの判断のための反応頻度を維持する(ステップS126)。CPU110は、ステップS132からの処理を実行する。 On the other hand, when it is determined that the user is not interested in the message (NO in step S112), the CPU 110 refers to the data in the memory 120 and determines whether or not the user has heard the message (step). S122). When it is determined that the user has heard the message (YES in step S122), the CPU 110 stores the time when the user heard the message of the electric device 300 in addition to step S124, and determines the golden time. Maintain the reaction frequency for (step S126). The CPU 110 executes the process from step S132.

ユーザがメッセージを聞かなかったと判断した場合(ステップS122にてNOである場合)、CPU110は、ユーザが電気機器300のメッセージを聞かなかった時間を記憶して、ゴールデンタイムの頻度を低減する補正をする(ステップS128)。CPU110は、ステップS132からの処理を実行する。 When it is determined that the user has not heard the message (NO in step S122), the CPU 110 stores the time when the user did not hear the message of the electric device 300, and makes a correction to reduce the frequency of the golden time. (Step S128). The CPU 110 executes the process from step S132.

あるいは、図15を参照して、CPU110は、対話シナリオデータベース122を参照して、電気機器300が出力するメッセージの続きのメッセージが準備されていない場合(ステップS132にてNOである場合)や、対話が止まってから第2の所定時間たとえば20秒が経過した場合(ステップS142にてYESである場合)、CPU110は、対象となる電気機器300またはユーザにとって、現在がゴールデンタイムであるか否かを判断する(ステップS143)。 Alternatively, referring to FIG. 15, the CPU 110 refers to the dialogue scenario database 122, and when a message following the message output by the electric device 300 is not prepared (NO in step S132), When a second predetermined time, for example, 20 seconds has elapsed since the dialogue stopped (YES in step S142), the CPU 110 determines whether or not the current golden time is for the target electric device 300 or the user. Is determined (step S143).

現在がゴールデンタイムである場合(ステップS143にてYESである場合)、CPU110は、ステップS144からの処理を実行する。一方、現在がゴールデンタイムでない場合(ステップS143にてNOである場合)、CPU110は、通信インターフェイス160を介して電気機器300からの次のメッセージを待ちうける。あるいは電気機器300毎に、第1の所定時間の経過後にステップS102を繰り返す。 When the current time is the golden time (YES in step S143), the CPU 110 executes the process from step S144. On the other hand, when the current time is not the golden time (NO in step S143), the CPU 110 waits for the next message from the electric device 300 via the communication interface 160. Alternatively, for each electrical device 300, step S102 is repeated after the lapse of the first predetermined time.

あるいは、図16を参照して、ステップS102において対話中でない場合について説明する。CPU110は、まず、対象となる電気機器300またはユーザにとって、現在がゴールデンタイムであるか否かを判断する(ステップS152)。現在がゴールデンタイムである場合(ステップS152にてYESである場合)、CPU110は、対話が止まってから第1の所定時間たとえば10秒が経過したか否かを判断する(ステップS154)。CPU110は、第1の所定時間経過した場合(ステップS154にてYESである場合)、ステップS144からの処理を実行する。 Alternatively, a case where the dialogue is not in progress in step S102 will be described with reference to FIG. First, the CPU 110 determines whether or not the current time is the golden time for the target electric device 300 or the user (step S152). When the present is the golden time (YES in step S152), the CPU 110 determines whether or not the first predetermined time, for example, 10 seconds has elapsed since the dialogue stopped (step S154). When the first predetermined time has elapsed (YES in step S154), the CPU 110 executes the process from step S144.

一方、現在がゴールデンタイムでない場合(ステップS152にてNOである場合)、CPU110は、対話が止まってから第1の所定時間よりも長い第2の所定時間たとえば30秒が経過したか否かを判断する(ステップS156)。CPU110は、第2の所定時間経過した場合(ステップS156にてYESである場合)、ステップS144からの処理を実行する。 On the other hand, when the current time is not the golden time (NO in step S152), the CPU 110 determines whether or not a second predetermined time, for example, 30 seconds, which is longer than the first predetermined time, has elapsed since the dialogue was stopped. Determine (step S156). When the second predetermined time has elapsed (YES in step S156), the CPU 110 executes the process from step S144.

逆に、CPU110は、第1の所定時間経過していない場合(ステップS154にてNOである場合)や、第2の所定時間経過していない場合(ステップS156にてNOである場合)、ステップS102からの処理を繰り返す。 On the contrary, when the first predetermined time has not elapsed (NO in step S154) or the second predetermined time has not elapsed (NO in step S156), the CPU 110 is in step. The process from S102 is repeated.

これによって、本実施の形態にかかる音声サービスは、ユーザが電気機器300との対話に意識を回す余裕がある可能性が高い場合、すなわちゴールデンタイムには、話が途切れるとすぐに新たな話題のメッセージをユーザに提供し、ユーザが電気機器300との対話に意識を回す余裕がない可能性が高い場合、すなわちゴールデンタイムでないときは、話が途切れても次の話題をユーザに提供するまでに若干の間待機する。その結果、よりユーザにとって、居心地が良い状況を作り出すことが可能になる。
<第4の実施の形態>
As a result, the voice service according to the present embodiment is likely to have a new topic as soon as the talk is interrupted when the user can afford to focus on the dialogue with the electric device 300, that is, during the golden time. When it is highly likely that the message is provided to the user and the user cannot afford to be aware of the dialogue with the electrical device 300, that is, when it is not the golden time, even if the talk is interrupted, the next topic is provided to the user. Wait for a while. As a result, it is possible to create a more comfortable situation for the user.
<Fourth Embodiment>

音声サービスサーバ100は、単にテーマテーブル121のテーマID順にテーマを選択してシナリオを抽出したり、ランダムに選ばれたテーマを選択してシナリオを抽出したりする形態には限られない。たとえば、ユーザ毎または電気機器300毎の、過去の興味を持った履歴や過去の聞いた履歴に基づいて、音声サービスサーバ100のCPU110が、ユーザが興味を持ちやすいテーマや話題や、ユーザが聞いてくれる可能性が高いテーマや話題を優先して選択することが好ましい。 The voice service server 100 is not limited to a form in which the themes are simply selected in the order of the theme IDs of the theme table 121 and the scenarios are extracted, or the themes randomly selected and the scenarios are extracted. For example, the CPU 110 of the voice service server 100 listens to themes and topics that the user is likely to be interested in, based on the history of past interests and the history of listening in the past for each user or each electric device 300. It is preferable to prioritize and select themes and topics that are likely to be available.

たとえば、音声サービスサーバ100のメモリ120は、ユーザ毎または電気機器300毎に、図17に示すようなユーザ反応テーブル123を記憶する。ユーザ反応テーブル123は、テーマ毎に、テーマIDと、対話スタート回数と、実際の対話におけるメッセージの往復の回数と、1つの対話すなわち1つのシナリオに対するメッセージの往復の回数の平均などの対応関係を含む。なお、対話スタート回数は、新たなシナリオの対話を開始した回数である。そして、ユーザ反応テーブル123は、次のテーマを選択する際に利用されるものであるが、広告の提供者などが各種のマーケティングなどに利用することも可能である。 For example, the memory 120 of the voice service server 100 stores a user reaction table 123 as shown in FIG. 17 for each user or each electric device 300. The user reaction table 123 has a correspondence relationship such as a theme ID, the number of dialogue starts, the number of round trips of a message in an actual dialogue, and the average number of round trips of a message for one dialogue, that is, one scenario, for each theme. Including. The number of dialogue starts is the number of times the dialogue of a new scenario is started. The user reaction table 123 is used when selecting the next theme, but it can also be used by an advertisement provider or the like for various marketing or the like.

そして、図18に示すように、ユーザがメッセージに興味を示したと判断した場合(ステップS112にてYESである場合)、CPU110は、ステップS114に加えて、今回の対話に関するメッセージの往復の回数を反応テーブル123に追加したり平均を更新したりする(ステップS119B)。CPU110は、ステップS132からの処理を実行する。 Then, as shown in FIG. 18, when it is determined that the user is interested in the message (YES in step S112), the CPU 110, in addition to step S114, counts the number of round trips of the message related to this dialogue. It is added to the reaction table 123 and the average is updated (step S119B). The CPU 110 executes the process from step S132.

また、ユーザがメッセージを聞いたと判断した場合(ステップS122にてYESである場合)にも、CPU110は、ステップS124に加えて、今回の対話に関するメッセージの往復の回数を反応テーブル123に追加したり平均を更新したりする(ステップS126B)。CPU110は、ステップS132からの処理を実行する。 Also, when it is determined that the user has heard the message (YES in step S122), the CPU 110 adds the number of round trips of the message related to this dialogue to the reaction table 123 in addition to step S124. The average is updated (step S126B). The CPU 110 executes the process from step S132.

そして、ステップS144において、CPU110は、反応テーブル123とテーマテーブル121とを参照して次のテーマを特定する(ステップS144)。たとえば、CPU110は、平均回数に基づいて重みづけをしてから全てのテーマの中から次のテーマを選択する。CPU110は、対話シナリオデータベース122を参照して、特定されたテーマに対応する一連のメッセージを読み出して、通信インターフェイス160を介して電気機器300にメッセージのデータを送信する(ステップS146)。このとき、CPU110は、反応テーブル123の、今回新たに特定されたテーマの対話スタート回数を+1する。 Then, in step S144, the CPU 110 specifies the next theme with reference to the reaction table 123 and the theme table 121 (step S144). For example, the CPU 110 weights based on the average number of times and then selects the next theme from all the themes. The CPU 110 refers to the dialogue scenario database 122, reads a series of messages corresponding to the specified theme, and transmits the message data to the electric device 300 via the communication interface 160 (step S146). At this time, the CPU 110 increments the number of dialogue starts of the theme newly specified this time in the reaction table 123.

なお、テーマテーブル121や対話シナリオデータベース122や反応テーブル123は、大分類のテーマだけでなく、さらに小さな分類の話題やキーワードなども設定されることが好ましい。これによって、音声サービスサーバ100のCPU110は、さらにユーザに適したシナリオを選択することができる。 In the theme table 121, the dialogue scenario database 122, and the reaction table 123, it is preferable that not only the themes of the major classification but also the topics and keywords of the smaller classification are set. As a result, the CPU 110 of the voice service server 100 can further select a scenario suitable for the user.

このように、ユーザとの対話が滞りそうになった場合に、音声サービスサーバ100は先のテーマとは別のテーマを選択する場合もあるし、同じテーマの別のシナリオを連続して選択する場合もある。そして、本実施の形態にかかる音声サービスサーバ100のCPU110は、ユーザ反応テーブル123に基づいて次のテーマを決めるため、興味があるテーマたとえばメッセージのキャッチボールの平均回数が多いテーマが選ばれる可能性が高く、同じテーマの別のシナリオが選択される可能性が高い。
<第5の実施の形態>
In this way, when the dialogue with the user is about to be delayed, the voice service server 100 may select a theme different from the previous theme, or continuously select another scenario of the same theme. In some cases. Then, since the CPU 110 of the voice service server 100 according to the present embodiment determines the next theme based on the user reaction table 123, there is a possibility that a theme of interest, for example, a theme having a large average number of catch balls of a message is selected. Is likely to be selected and another scenario with the same theme is likely to be selected.
<Fifth Embodiment>

音声サービスサーバ100のCPU110は、図3または図4に示すように、新たなテーマや話題の対話を開始する際には、「そうそう」や「ところで」という呼びかけのための言葉を挟んでから、新たなテーマのメッセージを電気機器300から出力させることが好ましい。 As shown in FIG. 3 or 4, when starting a dialogue on a new theme or topic, the CPU 110 of the voice service server 100 inserts words for calling "yes" or "by the way", and then inserts words for calling. It is preferable to output a message of a new theme from the electric device 300.

より詳細には、図19に示すように、CPU110は、反応テーブル123とテーマテーブル121とを参照して次のテーマを特定する(ステップS144)。そして、CPU110は、特定されたテーマに対応するメッセージを読み出して、当該メッセージの前に「そうそう」や「ところで」という呼びかけのための言葉を追加する(ステップS145)。CPU110は、通信インターフェイス160を介して、メッセージデータを電気機器300に送信する(ステップS146)。これによって、電気機器300のCPU310は、音声サービスサーバ100からのデータに基づいて、スピーカ370から「そうそう」や「ところで」という呼びかけのための言葉を発してから、メッセージの出力を開始する。 More specifically, as shown in FIG. 19, the CPU 110 identifies the next theme with reference to the reaction table 123 and the theme table 121 (step S144). Then, the CPU 110 reads a message corresponding to the specified theme, and adds words for calling "so-so" or "by the way" before the message (step S145). The CPU 110 transmits message data to the electric device 300 via the communication interface 160 (step S146). As a result, the CPU 310 of the electric device 300 starts to output the message after issuing the words "so-so" and "by the way" from the speaker 370 based on the data from the voice service server 100.

ただし、音声サービスサーバ100のメモリ120が、図20に示すようなシナリオデータベース122Bを記憶してもよい。すなわち、予めシナリオの最初のメッセージに、「そうそう」や「ところで」という呼びかけのための言葉が含まれたものがシナリオデータベース122Bに格納されていてもよい。この場合は、ステップS145の処理を実行せずに、CPU110は、ステップS146を実行すればよい。
<第6の実施の形態>
However, the memory 120 of the voice service server 100 may store the scenario database 122B as shown in FIG. That is, the first message of the scenario may include words for calling "yes" or "by the way" in the scenario database 122B in advance. In this case, the CPU 110 may execute step S146 without executing the process of step S145.
<Sixth Embodiment>

なお、第1〜第5の実施の形態においては、音声サービスサーバ100のCPU110は、ユーザからのメッセージに基づいて各種の判断を行っていたが、このような構成には限られない。たとえば、音声サービスサーバ100のCPU110は、音声ではなく電気機器300からの画像に基づいて、各種の判断をおこなってもよい。 In the first to fifth embodiments, the CPU 110 of the voice service server 100 makes various determinations based on a message from the user, but the configuration is not limited to this. For example, the CPU 110 of the voice service server 100 may make various determinations based on the image from the electric device 300 instead of the voice.

具体的には、電気機器300のCPU310が、カメラ350の撮影画像を音声サービスサーバ100に送信してもよい。そして、図21に示すように、音声サービスサーバ100のCPU110は、電気機器300からの画像データを解析してもよい(ステップS604)。 Specifically, the CPU 310 of the electric device 300 may transmit the captured image of the camera 350 to the voice service server 100. Then, as shown in FIG. 21, the CPU 110 of the voice service server 100 may analyze the image data from the electric device 300 (step S604).

たとえば、CPU110は、ユーザが大きくうなずいた場合(ステップS612にてYESである場合)、CPU110は、ユーザとメッセージまたはテーマなどの特定情報に対応付けて、興味を持っていることを示すデータをメモリ120に格納する(ステップS114)。また、CPU110は、ユーザが小さくうなずいた場合あるいは首を振った場合(ステップS622にてYESである場合)、CPU110は、ユーザとメッセージまたはテーマなどの特定情報に対応付けて、ユーザがメッセージを聞いたことを示すデータをメモリ120に格納する(ステップS124)。 For example, when the user makes a big nod (YES in step S612), the CPU 110 associates the user with specific information such as a message or theme and stores data indicating that he / she is interested. It is stored in 120 (step S114). Further, when the user makes a small nod or shakes his / her head (YES in step S622), the CPU 110 associates the user with specific information such as a message or theme, and the user listens to the message. Data indicating that this is stored in the memory 120 (step S124).

あるいは、CPU110は、ユーザが笑顔のときにユーザがメッセージに興味を持っている判断したり広告を出力したりして、ユーザが笑顔ではないがうなずいた際にユーザが単にメッセージを聞いたと判断したり広告を出力しないようにしたりしてもよい。 Alternatively, the CPU 110 determines that the user is interested in the message or outputs an advertisement when the user is smiling, and determines that the user simply heard the message when the user nods but is not smiling. Or you may not output advertisements.

あるいは、電気機器300の操作部340としての近接センサや温度センサからのデータに基づいて、ユーザが電気機器300に手をかざしたり、電気機器300の頭をなでたり・たたいたりしたことを検知して、その旨を音声サービスサーバ100に送信してもよい。音声サービスサーバ100のCPU110は、電気機器300からのそのようなデータに基づいて、ユーザがメッセージに興味をもったと判断したり、ユーザがメッセージを聞いたと判断したりしてもよい。逆に、ユーザが電気機器300に触れなければ、CPU110は、ユーザがメッセージに興味がないと判断する。 Alternatively, based on the data from the proximity sensor or the temperature sensor as the operation unit 340 of the electric device 300, the user holds his / her hand over the electric device 300 or strokes / hits the head of the electric device 300. It may be detected and sent to the voice service server 100 to that effect. The CPU 110 of the voice service server 100 may determine that the user is interested in the message or that the user has heard the message, based on such data from the electrical device 300. Conversely, if the user does not touch the electrical device 300, the CPU 110 determines that the user is not interested in the message.

あるいは、電気機器300の操作部340としてのボタンをユーザが押した場合に、その旨を音声サービスサーバ100に送信してもよい。音声サービスサーバ100のCPU110は、電気機器300からのそのようなデータに基づいて、ユーザがメッセージに興味をもったと判断したり、ユーザがメッセージを聞いたと判断したりしてもよい。逆に、ユーザが電気機器300に触れなければ、CPU110は、ユーザがメッセージに興味がないと判断する。
<第7の実施の形態>
Alternatively, when the user presses a button as the operation unit 340 of the electric device 300, that fact may be transmitted to the voice service server 100. The CPU 110 of the voice service server 100 may determine that the user is interested in the message or that the user has heard the message, based on such data from the electrical device 300. Conversely, if the user does not touch the electrical device 300, the CPU 110 determines that the user is not interested in the message.
<7th Embodiment>

なお、第1〜第6の実施の形態のような、サーバ100や電気機器300の構造・機能・動作に限られず、たとえば各装置の役割が、他のサーバやデータベースなどの複数の装置に分担されてもよい。逆に、複数の装置の役割の一部または全部が1つの装置に集約されてもよい。 The structure, function, and operation of the server 100 and the electric device 300 as in the first to sixth embodiments are not limited, and for example, the role of each device is shared by a plurality of devices such as other servers and databases. May be done. Conversely, some or all of the roles of the plurality of devices may be integrated into one device.

たとえば、図22に示すように、第1から第6の実施の形態にかかる音声サービスサーバ100の役割の全部を、スタンドアローン型の電気機器300Aが有してもよい。あるいは電気機器300は、対話サービスの一部の更新データだけを音声サービスサーバ100から取得してもよいし、他のサーバ100B,100Cの情報を利用してもよい。また、第1から第7の実施の形態にかかる音声サービスサーバ100の一部だけを電気機器300が有するものであってもよい。
<その他の応用例>
For example, as shown in FIG. 22, the stand-alone electric device 300A may have all the roles of the voice service server 100 according to the first to sixth embodiments. Alternatively, the electric device 300 may acquire only a part of the update data of the dialogue service from the voice service server 100, or may use the information of the other servers 100B and 100C. Further, the electric device 300 may have only a part of the voice service server 100 according to the first to seventh embodiments.
<Other application examples>

本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体(あるいはメモリ)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。 It goes without saying that the present invention can also be applied when it is achieved by supplying a program to a system or device. Then, a storage medium (or memory) storing a program represented by software for achieving the present invention is supplied to the system or device, and the computer (or CPU or MPU) of the system or device stores the storage medium in the storage medium. The effect of the present invention can also be enjoyed by reading and executing the program code.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiment are realized, but also the OS (operating system) running on the computer based on the instruction of the program code, etc. Needless to say, there is a case where a part or all of the actual processing is performed, and the processing realizes the function of the above-described embodiment.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。 Further, the program code read from the storage medium is written to another storage medium provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, and then based on the instruction of the program code. Needless to say, there are cases where the function expansion board, the CPU provided in the function expansion unit, or the like performs a part or all of the actual processing, and the processing realizes the functions of the above-described embodiment.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are exemplary in all respects and not restrictive. The scope of the present invention is shown by the scope of claims, not the above description, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

1 :ネットワークシステム
100 :音声サービスサーバ
100B :情報提供サーバ
100C :情報提供サーバ
110 :CPU
110A :対話シナリオ選択部
110B :対話シナリオ実行処理部
110C :連想シナリオ検索部
120 :メモリ
121 :テーマテーブル
122 :対話シナリオデータベース
122B :対話シナリオデータベース
123 :ユーザ反応テーブル
140 :操作部
160 :通信インターフェイス
300 :電気機器
300A :ロボット
310 :CPU
320 :メモリ
330 :ディスプレイ
330A :ライト
330B :ライト
340 :操作部
350 :カメラ
360 :通信インターフェイス
370 :スピーカ
380 :マイク
390 :機器駆動部
1: Network system 100: Voice service server 100B: Information providing server 100C: Information providing server 110: CPU
110A: Dialogue scenario selection unit 110B: Dialogue scenario execution processing unit 110C: Associative scenario search unit 120: Memory 121: Theme table 122: Dialogue scenario database 122B: Dialogue scenario database 123: User reaction table 140: Operation unit 160: Communication interface 300 : Electrical equipment 300A: Robot 310: CPU
320: Memory 330: Display 330A: Light 330B: Light 340: Operation unit 350: Camera 360: Communication interface 370: Speaker 380: Microphone 390: Equipment drive unit

Claims (7)

スピーカとマイクとを有する端末と通信するための通信インターフェイスと、
複数種類のメッセージ情報と第1の時間帯の情報と制御プログラムとを記憶するメモリと、
前記制御プログラムに従って、前記通信インターフェイスを介して、前記端末にユーザとのメッセージのやり取りを実行させ、第1の時間帯においては前記メッセージのやり取りが第1の所定時間以上停止すると、前記端末に別の種類のメッセージの出力を開始させ、前記第1の時間帯でないときは前記メッセージのやり取りが前記第1の所定時間よりも長い第2の所定時間以上停止すると、前記端末に別の種類のメッセージの出力を開始させるためのプロセッサと、を備えるサーバ。
A communication interface for communicating with a terminal having a speaker and a microphone,
A memory that stores multiple types of message information, information in the first time zone, and a control program,
According to the control program, the terminal is made to exchange a message with a user via the communication interface, and when the exchange of the message is stopped for a first predetermined time or more in the first time zone, the terminal is separated. When the output of a message of the above type is started and the exchange of the message is stopped for a second predetermined time longer than the first predetermined time when it is not in the first time zone, another type of message is sent to the terminal. A server with a processor to initiate the output of.
前記プロセッサは、ユーザとのメッセージのやり取りに関する所定の条件が満たされると、前記通信インターフェイスを介して前記端末に広告情報を出力させる、請求項1に記載のサーバ。 The server according to claim 1, wherein the processor outputs advertisement information to the terminal via the communication interface when a predetermined condition for exchanging a message with a user is satisfied. 前記プロセッサは、ユーザ毎に設定される前記第1の時間帯に基づいて前記広告情報を出力する、請求項2に記載のサーバ。 The server according to claim 2, wherein the processor outputs the advertisement information based on the first time zone set for each user. 前記プロセッサは、過去の前記ユーザとのメッセージのやり取りに基づいて、出力されるべき前記別の種類のメッセージを変化させる、請求項1から3のいずれか1項に記載のサーバ。 The server according to any one of claims 1 to 3, wherein the processor changes the message of the other type to be output based on the past exchange of messages with the user. 通信インターフェイスと、メモリと、プロセッサとを含むサーバにおける情報処理方法であって、
前記プロセッサが、前記通信インターフェイスを介して、端末にユーザとのメッセージのやり取りを実行させるステップと、
第1の時間帯において、前記プロセッサが、前記メッセージのやり取りが第1の所定時間以上停止した際に、前記端末に別の種類のメッセージの出力を開始させるステップと、
第1の時間帯でないときにおいて、前記プロセッサが、前記メッセージのやり取りが前記第1の所定時間よりも長い第2の所定時間以上停止した際に、前記端末に別の種類のメッセージの出力を開始させるステップと、を備える情報処理方法。
An information processing method in a server including a communication interface, a memory, and a processor.
A step in which the processor causes a terminal to exchange messages with a user via the communication interface.
In the first time zone, when the processor stops exchanging the message for the first predetermined time or more, the step of causing the terminal to start outputting another type of message.
When the processor is not in the first time zone and the exchange of the message is stopped for a second predetermined time longer than the first predetermined time, the processor starts outputting another type of message to the terminal. An information processing method that includes steps to make it.
メッセージを出力するためのスピーカとユーザからのメッセージを取得するマイクとを有する端末と、
前記端末にユーザとのメッセージのやり取りを実行させ、第1の時間帯においては前記メッセージのやり取りが第1の所定時間以上停止した際に、前記端末に別の種類のメッセージの出力を開始させ、前記第1の時間帯でないときは前記メッセージのやり取りが前記第1の所定時間よりも長い第2の所定時間以上停止した際に、前記端末に別の種類のメッセージの出力を開始させるサーバと、を備えるネットワークシステム。
A terminal having a speaker for outputting a message and a microphone for acquiring a message from the user,
The terminal is made to exchange messages with the user, and in the first time zone, when the exchange of the message is stopped for the first predetermined time or more, the terminal is started to output another type of message. A server that causes the terminal to start outputting another type of message when the exchange of the message is stopped for a second predetermined time or longer longer than the first predetermined time when it is not in the first time zone. Network system with.
スピーカと、
マイクと、
複数種類のメッセージ情報と第1の時間帯の情報と制御プログラムとを記憶するメモリと、
前記制御プログラムに従って、前記スピーカにメッセージを出力させ、第1の時間帯においては前記メッセージのやり取りが第1の所定時間以上停止した際に、前記スピーカに別の種類のメッセージの出力を開始させ、前記第1の時間帯でないときは前記メッセージのやり取りが前記第1の所定時間よりも長い第2の所定時間以上停止した際に、別の種類のメッセージの出力を開始させるためのプロセッサと、を備える端末。
With speakers
With Mike
A memory that stores multiple types of message information, information in the first time zone, and a control program,
According to the control program, the speaker is made to output a message, and in the first time zone, when the exchange of the message is stopped for a first predetermined time or more, the speaker is made to start outputting another type of message. When the exchange of the message is stopped for a second predetermined time longer than the first predetermined time when it is not in the first time zone, a processor for starting the output of another type of message. A terminal to be equipped.
JP2016248983A 2016-12-22 2016-12-22 Servers, information processing methods, network systems, and terminals Active JP6817056B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016248983A JP6817056B2 (en) 2016-12-22 2016-12-22 Servers, information processing methods, network systems, and terminals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016248983A JP6817056B2 (en) 2016-12-22 2016-12-22 Servers, information processing methods, network systems, and terminals

Publications (2)

Publication Number Publication Date
JP2018106224A JP2018106224A (en) 2018-07-05
JP6817056B2 true JP6817056B2 (en) 2021-01-20

Family

ID=62784634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016248983A Active JP6817056B2 (en) 2016-12-22 2016-12-22 Servers, information processing methods, network systems, and terminals

Country Status (1)

Country Link
JP (1) JP6817056B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297626A (en) * 2001-03-30 2002-10-11 Just Syst Corp Device, program, and method for presenting information
JP2003196462A (en) * 2001-12-28 2003-07-11 Toshiba Corp Interactive data collection system
JP6111802B2 (en) * 2013-03-29 2017-04-12 富士通株式会社 Spoken dialogue apparatus and dialogue control method
JP6257368B2 (en) * 2014-02-18 2018-01-10 シャープ株式会社 Information processing device
JP2015219583A (en) * 2014-05-14 2015-12-07 日本電信電話株式会社 Topic determination device, utterance device, method, and program
JP6114773B2 (en) * 2015-03-19 2017-04-12 ヤフー株式会社 Information processing apparatus and method
JP6486760B2 (en) * 2015-04-30 2019-03-20 Kddi株式会社 Dialog pattern automatic generation apparatus, method and program

Also Published As

Publication number Publication date
JP2018106224A (en) 2018-07-05

Similar Documents

Publication Publication Date Title
US11270343B2 (en) Method and apparatus for generating targeted label, and storage medium
JP6503557B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
US10326964B2 (en) Interactive broadcast television
CN103914781B (en) Information processing equipment, information processing method and terminal device
US8725117B2 (en) Optimizing operation of a radio program
US10726087B2 (en) Machine learning system and method to identify and connect like-minded users
JP6117021B2 (en) Conversation processing apparatus, control method, control program, and recording medium
EP3437215A1 (en) Communications utilizing multiple virtual assistant services
CN105023575B (en) Audio recognition method, device and system
JP2011511346A (en) Method, mobile electronic device, system and computer program for automatically creating a social networking service (SNS)
CN115134653A (en) Predictive media routing
US20240161208A1 (en) System and Method for Providing Pairings for Live Digital Interactions
EP3673388A1 (en) Network-based learning models for natural language processing
JP2017215639A (en) Network system, voice output method, server, and electric apparatus
CN109903755B (en) Voice interaction method and device, storage medium and air conditioner
JP6883451B2 (en) Servers, information processing methods, network systems, and terminals
JP6817056B2 (en) Servers, information processing methods, network systems, and terminals
JP6894228B2 (en) Servers, information processing methods, network systems, and terminals
CN111741116B (en) Emotion interaction method and device, storage medium and electronic device
TW202219880A (en) Method and system for recommending content using chatbot
JP3898185B2 (en) Voice providing system, server, client machine, and voice providing method
CN107484015A (en) Program processing method and device, terminal
JP6698428B2 (en) Network system, information processing method, and server
JP2015144398A (en) Speech control apparatus, speech apparatus, speech control system, speech control method, speech apparatus control method, and control program
US12001754B2 (en) Context based media selection based on preferences setting for active consumer(s)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201224

R150 Certificate of patent or registration of utility model

Ref document number: 6817056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150