JP2018106224A - Server, information processing method, network system, and terminal - Google Patents

Server, information processing method, network system, and terminal Download PDF

Info

Publication number
JP2018106224A
JP2018106224A JP2016248983A JP2016248983A JP2018106224A JP 2018106224 A JP2018106224 A JP 2018106224A JP 2016248983 A JP2016248983 A JP 2016248983A JP 2016248983 A JP2016248983 A JP 2016248983A JP 2018106224 A JP2018106224 A JP 2018106224A
Authority
JP
Japan
Prior art keywords
message
user
terminal
cpu
exchange
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016248983A
Other languages
Japanese (ja)
Other versions
JP6817056B2 (en
Inventor
孝之 永松
Takayuki Nagamatsu
孝之 永松
実雄 阪本
Jitsuo Sakamoto
実雄 阪本
竹内 正樹
Masaki Takeuchi
正樹 竹内
正樹 橋浦
Masaki Hashiura
正樹 橋浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2016248983A priority Critical patent/JP6817056B2/en
Publication of JP2018106224A publication Critical patent/JP2018106224A/en
Application granted granted Critical
Publication of JP6817056B2 publication Critical patent/JP6817056B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for realizing a more suitable dialogue with a user.SOLUTION: A server 100 comprises a communication interface 160 for communicating with a terminal 300 having a speaker 370 and a microphone 380, a memory 120 for storing a plurality of types of message information, and a processor 110 for causing the terminal 300 to exchange messages with the user via the communication interface 160 and for initiating the output of another type of message to the terminal 300 when it is determined that message exchange terminates.SELECTED DRAWING: Figure 3

Description

本発明は、メッセージなどの音声を出力するためのサーバ、情報処理方法、ネットワークシステム、および端末の技術に関する。   The present invention relates to a technology for a server, an information processing method, a network system, and a terminal for outputting voice such as a message.

従来から、ユーザに適したメッセージを出力するための技術が知られている。たとえば、特開2016−24636号公報(特許文献1)には、制御装置、制御方法および制御プログラムが開示されている。特許文献1によると、制御装置は、対話エージェントシステムとユーザとの会話における音の特徴に基づいて、応答メッセージとして出力する広告に関する情報である広告情報を検索する検索部と、検索部によって検索された広告情報に関する広告を応答メッセージとして出力するよう制御する出力制御部と、を備えたことを特徴とする。このため、制御装置は、ユーザに適したメッセージを出力することができる。   Conventionally, a technique for outputting a message suitable for a user is known. For example, Japanese Patent Laying-Open No. 2016-24636 (Patent Document 1) discloses a control device, a control method, and a control program. According to Patent Literature 1, the control device is searched by a search unit that searches for advertisement information that is information related to an advertisement that is output as a response message, based on the characteristics of sound in a conversation between the dialog agent system and the user, and the search unit. And an output control unit that controls to output an advertisement related to the advertisement information as a response message. For this reason, the control apparatus can output a message suitable for the user.

特開2016−24636号公報JP 2016-24636 A

本発明の目的は、より好適なユーザとの対話を実現するための技術を提供することにある。   The objective of this invention is providing the technique for implement | achieving the interaction with a more suitable user.

この発明のある態様に従うと、スピーカとマイクとを有する端末と通信するための通信インターフェイスと、複数種類のメッセージ情報を記憶するメモリと、通信インターフェイスを介して、端末にユーザとのメッセージのやり取りを実行させ、メッセージのやり取りが終了すると判断されると、端末に別の種類のメッセージの出力を開始させるためのプロセッサと、を備えるサーバが提供される。   According to an aspect of the present invention, a communication interface for communicating with a terminal having a speaker and a microphone, a memory for storing a plurality of types of message information, and a message exchange with a user via the communication interface. A server is provided that includes a processor for causing the terminal to start outputting another type of message when it is determined that the message exchange is completed.

この発明の別の局面に従うと、スピーカとマイクとを有する端末と通信するための通信インターフェイスと、複数種類のメッセージ情報を記憶するメモリと、通信インターフェイスを介して、端末にユーザとのメッセージのやり取りを実行させ、メッセージのやり取りが所定時間以上停止すると、端末に別の種類のメッセージの出力を開始させるためのプロセッサと、を備えるサーバが提供される。   According to another aspect of the present invention, a communication interface for communicating with a terminal having a speaker and a microphone, a memory for storing a plurality of types of message information, and a message exchange with a user via the communication interface And a processor for causing a terminal to start outputting another type of message when message exchange stops for a predetermined time or longer.

好ましくは、プロセッサは、ユーザとのメッセージのやり取りに関する所定の条件が満たされると、通信インターフェイスを介して端末に広告情報を出力させる。   Preferably, the processor causes the terminal to output advertisement information via the communication interface when a predetermined condition regarding message exchange with the user is satisfied.

好ましくは、プロセッサは、ユーザ毎の第1の時間帯に基づいて広告情報を出力する。   Preferably, the processor outputs advertisement information based on a first time zone for each user.

好ましくは、プロセッサは、ユーザ毎の第1の時間帯とそれ以外の時間帯とで、端末に別の種類のメッセージの出力を開始させるための条件を異ならせる。   Preferably, the processor changes a condition for causing the terminal to start outputting another type of message in the first time zone and the other time zone for each user.

好ましくは、プロセッサは、過去のユーザとのメッセージのやり取りに基づいて、出力される別の種類のメッセージを変化させる。   Preferably, the processor changes another type of message to be output based on a message exchange with a past user.

この発明の別の局面に従うと、通信インターフェイスと、メモリと、プロセッサとを含むサーバにおける情報処理方法が提供される。情報処理方法は、プロセッサが、通信インターフェイスを介して、端末にユーザとのメッセージのやり取りを実行させるステップと、プロセッサが、メッセージのやり取りが終了すると判断された際またはメッセージのやり取りが所定時間以上停止した際に、端末に別の種類のメッセージの出力を開始させるステップと、を備える。   When another situation of this invention is followed, the information processing method in the server containing a communication interface, memory, and a processor is provided. An information processing method includes a step in which a processor causes a terminal to exchange messages with a user via a communication interface, and when the processor determines that the exchange of messages is finished or the exchange of messages is stopped for a predetermined time or more. And a step of causing the terminal to start outputting another type of message.

この発明の別の局面に従うと、メッセージを出力するためのスピーカとユーザからのメッセージを取得するマイクとを有する端末と、端末にユーザとのメッセージのやり取りを実行させ、メッセージのやり取りが終了すると判断された際またはメッセージのやり取りが所定時間以上停止した際に、端末に別の種類のメッセージの出力を開始させるサーバと、を備えるネットワークシステムが提供される。   According to another aspect of the present invention, a terminal having a speaker for outputting a message and a microphone for obtaining a message from the user, and causing the terminal to perform message exchange with the user are determined to complete message exchange. And a server that causes a terminal to start outputting another type of message when message exchange is stopped for a predetermined time or longer.

この発明の別の局面に従うと、スピーカと、マイクと、スピーカにメッセージを出力させ、マイクを介して取得した音声に基づいてメッセージのやり取りが終了すると判断された際またはメッセージのやり取りが所定時間以上停止した際に、スピーカに別の種類のメッセージの出力を開始させるためのプロセッサと、を備える端末が提供される。   According to another aspect of the present invention, a speaker, a microphone, a message is output to the speaker, and when it is determined that the message exchange is completed based on the sound acquired through the microphone, or the message exchange is a predetermined time or more. A terminal is provided that includes a processor for causing a speaker to start outputting another type of message when stopped.

以上のように、この発明によれば、より好適なユーザとの対話が可能になる。   As described above, according to the present invention, a more suitable dialogue with the user is possible.

第1の実施の形態にかかるネットワークシステム1の全体構成を示す図である。1 is a diagram illustrating an overall configuration of a network system 1 according to a first embodiment. 第1の実施の形態にかかるネットワークシステム1の第1の動作概要を示す図である。It is a figure which shows the 1st operation | movement outline | summary of the network system 1 concerning 1st Embodiment. 第1の実施の形態にかかるネットワークシステム1の第2の動作概要を示す図である。It is a figure which shows the 2nd operation | movement outline | summary of the network system 1 concerning 1st Embodiment. 第1の実施の形態にかかるネットワークシステム1の第3の動作概要を示す図である。It is a figure which shows the 3rd operation | movement outline | summary of the network system 1 concerning 1st Embodiment. 第1の実施の形態にかかる音声サービスサーバ100の構成を示すブロック図である。It is a block diagram which shows the structure of the voice service server 100 concerning 1st Embodiment. 第1の実施の形態にかかるテーマテーブル121を示すイメージ図である。It is an image figure which shows the theme table 121 concerning 1st Embodiment. 第1の実施の形態にかかる対話シナリオデータベース122を示すイメージ図である。It is an image figure which shows the dialogue scenario database 122 concerning 1st Embodiment. 第1の実施の形態における音声サービスサーバ100の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the voice service server 100 in 1st Embodiment. 第1の実施の形態にかかる音声サービスサーバ100における情報処理を示すフローチャートである。It is a flowchart which shows the information processing in the voice service server 100 concerning 1st Embodiment. 第1の実施の形態にかかる電気機器300の構成を示すブロック図である。It is a block diagram which shows the structure of the electric equipment 300 concerning 1st Embodiment. 第2の実施の形態にかかる音声サービスサーバ100における第1の情報処理を示すフローチャートである。It is a flowchart which shows the 1st information processing in the voice service server 100 concerning 2nd Embodiment. 第2の実施の形態にかかる音声サービスサーバ100における第2の情報処理を示すフローチャートである。It is a flowchart which shows the 2nd information processing in the voice service server 100 concerning 2nd Embodiment. 第3の実施の形態のゴールデンタイムを示す図である。It is a figure which shows the golden time of 3rd Embodiment. 第3の実施の形態にかかる音声サービスサーバ100における第1の情報処理を示すフローチャートである。It is a flowchart which shows the 1st information processing in the voice service server 100 concerning 3rd Embodiment. 第3の実施の形態にかかる音声サービスサーバ100における第2の情報処理を示すフローチャートである。It is a flowchart which shows the 2nd information processing in the voice service server 100 concerning 3rd Embodiment. 第3の実施の形態にかかる音声サービスサーバ100における第3の情報処理を示すフローチャートである。It is a flowchart which shows the 3rd information processing in the voice service server 100 concerning 3rd Embodiment. 第4の実施の形態にかかる反応テーブル123を示すイメージ図である。It is an image figure which shows the reaction table 123 concerning 4th Embodiment. 第4の実施の形態にかかる音声サービスサーバ100における情報処理を示すフローチャートである。It is a flowchart which shows the information processing in the voice service server 100 concerning 4th Embodiment. 第5の実施の形態にかかる音声サービスサーバ100における情報処理を示すフローチャートである。It is a flowchart which shows the information processing in the voice service server 100 concerning 5th Embodiment. 第6の実施の形態にかかる対話シナリオデータベース122Bを示すイメージ図である。It is an image figure which shows the dialogue scenario database 122B concerning 6th Embodiment. 第6の実施の形態にかかる音声サービスサーバ100における情報処理を示すフローチャートである。It is a flowchart which shows the information processing in the voice service server 100 concerning 6th Embodiment. 第7の実施の形態にかかる電気機器300の動作概要を示す図である。It is a figure which shows the operation | movement outline | summary of the electric equipment 300 concerning 7th Embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
<ネットワークシステム1の全体構成>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<First Embodiment>
<Overall configuration of network system 1>

まず、図1を参照して本実施の形態にかかるネットワークシステム1の全体構成について説明する。本実施の形態にかかるネットワークシステム1は、主に、音声サービスサーバ100と、他の情報提供サーバ100B,100Cと、ロボット300Aや冷蔵庫やエアコンなどの電気機器(通信端末)と、を含む。本実施の形態にかかる電気機器は、ユーザからのメッセージに応じて、音声サービスサーバ100からのデータに基づいてメッセージを音声出力するものである。   First, the overall configuration of the network system 1 according to the present embodiment will be described with reference to FIG. The network system 1 according to the present embodiment mainly includes a voice service server 100, other information providing servers 100B and 100C, and electric devices (communication terminals) such as a robot 300A, a refrigerator, and an air conditioner. The electrical device according to the present embodiment outputs a message by voice based on data from the voice service server 100 in response to a message from a user.

なお、電気機器(通信端末)は、ロボット300Aに限らず、冷蔵庫、電子レンジ、エアコン、洗濯機、掃除機、空気清浄器、加湿器、除湿器、炊飯器、照明などの家電、携帯電話、スマートフォン、テレビ、ハードディスクレコーダ、プロジェクタ、音楽プレーヤ、ゲーム機、パーソナルコンピュータなどのAV(オーディオ・ビジュアル)機器、組み込み照明、太陽光発電機、インターホン、給湯器、温水洗浄便座コントローラなどの住宅設備、などであってもよい。以下では、これらの電気機器(通信端末)を総称して、電気機器300ともいう。
<ネットワークシステム1の動作概要>
Note that the electric device (communication terminal) is not limited to the robot 300A, but includes a refrigerator, a microwave oven, an air conditioner, a washing machine, a vacuum cleaner, an air purifier, a humidifier, a dehumidifier, a rice cooker, a lighting appliance, a mobile phone, AV (audio / visual) equipment such as smartphones, televisions, hard disk recorders, projectors, music players, game consoles, personal computers, built-in lighting, solar power generators, intercoms, water heaters, and hot water washing toilet seat controllers, etc. It may be. Hereinafter, these electric devices (communication terminals) are also collectively referred to as an electric device 300.
<Operation overview of network system 1>

次に、図2〜図4を参照して本実施の形態にかかるネットワークシステム1の動作概要について説明する。本実施の形態にかかるネットワークシステム1に関しては、ユーザがロボット300Aなどの電気機器300に話しかけたり、電気機器300がユーザに話しかけたりすることによって、対話すなわち音声メッセージのやり取りが行われる。より詳細には、本実施の形態においては、音声サービスサーバ100が、電気機器300に音声メッセージを出力させたり、電気機器300を介してユーザからの音声メッセージを取得したりする。   Next, an outline of the operation of the network system 1 according to the present embodiment will be described with reference to FIGS. Regarding the network system 1 according to the present embodiment, a dialogue is performed, that is, a voice message is exchanged when the user talks to the electric device 300 such as the robot 300A or the electric device 300 talks to the user. More specifically, in the present embodiment, the voice service server 100 causes the electric device 300 to output a voice message or obtains a voice message from the user via the electric device 300.

そして、図2に示すように、音声サービスサーバ100は、ユーザの反応に応じて、先に出力した音声メッセージをユーザが聞いたか否かを判断したり、先に出力した音声メッセージや当該メッセージに関する話題にユーザが興味を持っているか否かを判断したりする。   Then, as shown in FIG. 2, the voice service server 100 determines whether or not the user has heard the voice message that has been output in advance according to the user's reaction, or relates to the voice message or message that has been output earlier. It is determined whether the user is interested in a topic.

そして特に本実施の形態においては、図3に示すように、音声サービスサーバ100は、予め準備されている複数種類のテーマやシナリオのメッセージのデータに基づいて、あるテーマに関してのユーザとの対話中に、これ以上対話を続けることが困難であると判断された場合に、別の話題のシナリオデータに基づいて、別の話題の対話を開始する。   In particular, in the present embodiment, as shown in FIG. 3, the voice service server 100 is interacting with the user regarding a certain theme based on data of messages of a plurality of types of themes and scenarios prepared in advance. On the other hand, when it is determined that it is difficult to continue the conversation, the conversation of another topic is started based on the scenario data of another topic.

また、図4に示すように、音声サービスサーバ100は、予め準備されている複数種類のテーマやシナリオのメッセージのデータに基づいて、あるテーマに関するユーザとの対話が終了したまま所定の時間が経過してしまったときに、別の話題のシナリオデータに基づいて、別の話題の対話を開始する。   In addition, as shown in FIG. 4, the voice service server 100, based on a plurality of types of themes and scenario message data prepared in advance, has passed a predetermined time while the conversation with the user regarding a certain theme has ended. When this happens, another topic conversation is started based on the scenario data of another topic.

このように、本実施の形態にかかる音声サービスサーバ100は、電気機器300によるユーザとの対話をスムーズにすることができる。すなわち、ユーザと電気機器300との間(ま)を持たせることができ、ユーザの居心地を良い状態にしたり良い状態のまま維持したりしやすくなる。以下、このような機能を実現するためのネットワークシステム1の具体的な構成について詳述する。
<音声サービスサーバ100のハードウェア構成>
As described above, the voice service server 100 according to the present embodiment can smooth the dialog with the user by the electric device 300. That is, it is possible to provide a space between the user and the electric device 300, and it is easy to make the user comfortable or keep it in a good state. Hereinafter, a specific configuration of the network system 1 for realizing such a function will be described in detail.
<Hardware Configuration of Voice Service Server 100>

まず、本実施の形態にかかるネットワークシステム1を構成する音声サービスサーバ100のハードウェア構成の一態様について説明する。他の情報提供サーバ100B、100Cも音声サービスサーバ100と同様の構成を有しているため、ここでは説明を繰り返さない。   First, an aspect of the hardware configuration of the voice service server 100 configuring the network system 1 according to the present embodiment will be described. Since the other information providing servers 100B and 100C have the same configuration as the voice service server 100, description thereof will not be repeated here.

図5を参照して、音声サービスサーバ100は、主たる構成要素として、CPU(Central Processing Unit)110と、メモリ120と、操作部140と、通信インターフェイス160とを含む。   Referring to FIG. 5, voice service server 100 includes a CPU (Central Processing Unit) 110, a memory 120, an operation unit 140, and a communication interface 160 as main components.

CPU110は、メモリ120に記憶されているプログラムを実行することによって、音声サービスサーバ100の各部を制御する。たとえば、CPU110は、メモリ120に格納されているプログラムを実行し、各種のデータを参照することによって、後述する各種の処理を実行する。   The CPU 110 controls each unit of the voice service server 100 by executing a program stored in the memory 120. For example, the CPU 110 executes programs stored in the memory 120 and executes various processes described later by referring to various data.

メモリ120は、各種のRAM(Random Access Memory)、各種のROM(Read-Only Memory)などによって実現される。メモリ120は、CPU110によって実行されるプログラムや、CPU110によるプログラムの実行により生成されたデータ、入力されたデータ、その他、テーマテーブル121や対話シナリオデータベース122や、ユーザがメッセージに興味を持っていることを示す第1のレベルの複数種類のキーワードや、ユーザが単にメッセージを聞いたことを示す第2のレベルの複数種類のキーワードのデータなどの音声サービスに利用されるデータベースなどを記憶する。なお当然に、これらのデータは、音声サービスサーバ100自体が格納していなくても、音声サービスサーバ100がアクセス可能な他の装置に格納されていてもよい。   The memory 120 is realized by various RAMs (Random Access Memory), various ROMs (Read-Only Memory), and the like. The memory 120 is a program executed by the CPU 110, data generated by the execution of the program by the CPU 110, input data, the theme table 121, the interactive scenario database 122, and the user being interested in the message. A database used for a voice service such as a plurality of types of keywords indicating the first level indicating that the user has simply heard a message, and the like are stored. Of course, these data may not be stored in the voice service server 100 itself, but may be stored in another device accessible by the voice service server 100.

ここで、図6を参照して、テーマテーブル121は、テーマ毎に、テーマIDとテーマ名との対応関係を格納する。また、図7を参照して、対話シナリオデータベース122は、シナリオ毎またはメッセージ毎に、対話シナリオIDと、テーマIDと、テキストデータまたは音声データとの対応関係を格納する。なお、以下では、ユーザと対話するための一連のメッセージをシナリオともいう。   Here, with reference to FIG. 6, the theme table 121 stores the correspondence between theme IDs and theme names for each theme. Referring to FIG. 7, dialogue scenario database 122 stores a correspondence relationship between a dialogue scenario ID, a theme ID, and text data or voice data for each scenario or message. Hereinafter, a series of messages for interacting with the user is also referred to as a scenario.

このように構成されているため、本実施の形態においては、CPU110は、メモリ120のプログラムを実行することによって、図8に示すように、対話シナリオ選択部110Aと対話シナリオ実行処理部110Bと、連想シナリオ検索部110Cなどを実現する。   With this configuration, in the present embodiment, the CPU 110 executes the program in the memory 120, and as shown in FIG. 8, the dialogue scenario selection unit 110A, the dialogue scenario execution processing unit 110B, The associative scenario search unit 110C and the like are realized.

より詳細には、対話シナリオ選択部110Aは、ユーザとメッセージのやり取りを開始する前に、対話シナリオデータベース122からテーマおよびシナリオを選択する。対話シナリオ実行処理部110Bは、通信インターフェイス160を介してシナリオに含まれるメッセージを電気機器300に送信することによって、電気機器300にユーザとの対話を実行させる。   More specifically, the dialogue scenario selection unit 110A selects a theme and a scenario from the dialogue scenario database 122 before starting a message exchange with the user. The dialogue scenario execution processing unit 110B transmits a message included in the scenario to the electric device 300 via the communication interface 160, thereby causing the electric device 300 to execute a dialogue with the user.

そして、シナリオの対話が終了すると、または対話が終了して所定時間沈黙が続くと、または現在のシナリオに続きのメッセージが用意されていないと、連想シナリオ検索部110Cが、先に選択されたテーマやシナリオやメッセージに関連するシナリオを検索して、対話シナリオデータベース122から新たなメッセージを抽出する。これによって、対話シナリオ実行処理部110Bは、再度、ユーザからのメッセージに応じて、通信インターフェイス160を介してシナリオに含まれるメッセージを電気機器300に送信することによって、電気機器300にユーザとの対話を実行させる。   Then, when the dialogue of the scenario ends, when the dialogue ends and silence continues for a predetermined time, or when a message following the current scenario is not prepared, the associative scenario search unit 110C selects the theme selected previously. A scenario related to a scenario or message is searched, and a new message is extracted from the dialogue scenario database 122. Accordingly, the dialogue scenario execution processing unit 110B again transmits a message included in the scenario to the electric device 300 via the communication interface 160 in response to a message from the user, thereby allowing the electric device 300 to interact with the user. Is executed.

図5に戻って、操作部140は、サービスの管理者などの命令を受け付けて、当該命令をCPU110に入力する。   Returning to FIG. 5, the operation unit 140 receives a command from a service manager or the like and inputs the command to the CPU 110.

通信インターフェイス160は、CPU110からのデータを、インターネット、キャリア網、ルータなどを介して電気機器300などの他の装置に送信する。逆に、通信インターフェイス160は、インターネット、キャリア網、ルータなどを介して他の装置からのデータを受信して、CPU110に受け渡す。   The communication interface 160 transmits data from the CPU 110 to another device such as the electric device 300 via the Internet, a carrier network, a router, or the like. Conversely, the communication interface 160 receives data from another device via the Internet, a carrier network, a router, etc., and passes it to the CPU 110.

他の情報提供サーバ100B,100Cの構成は、メモリ120のデータやCPU110の処理が異なるが、ハードウェア構成は概ね音声サービスサーバ100のそれと同様であるため、ここでは説明を繰り返さない。
<音声サービスサーバ100における情報処理>
The configuration of the other information providing servers 100B and 100C differs in the data of the memory 120 and the processing of the CPU 110, but the hardware configuration is generally the same as that of the voice service server 100, and therefore the description thereof will not be repeated here.
<Information Processing in Voice Service Server 100>

次に、図9を参照しながら、本実施の形態にかかる音声サービスサーバ100における情報処理について説明する。   Next, information processing in the voice service server 100 according to the present embodiment will be described with reference to FIG.

音声サービスサーバ100のCPU110は、ユーザ毎または電気機器300毎に、定期的に、電気機器300毎に以下の処理を実行する。まず、CPU110は、現在、対話中であるか否かを判断する(ステップS102)。対話中においては(ステップS102にてYESである場合)、CPU110は、電気機器300からの音声データからユーザのメッセージを抽出して、当該メッセージを解析する(ステップS104)。   The CPU 110 of the voice service server 100 executes the following processing for each electrical device 300 periodically for each user or each electrical device 300. First, the CPU 110 determines whether or not a conversation is currently in progress (step S102). During the dialogue (YES in step S102), CPU 110 extracts the user's message from the audio data from electric device 300, and analyzes the message (step S104).

CPU110は、メモリ120のデータを参照して、ユーザが電気機器300が出力したメッセージやそのテーマなどに興味を示したか否かを判断する(ステップS112)。たとえば、CPU110は、抽出したメッセージに第1のレベルのキーワード、たとえば「大好き!!」や「いいよね。」やユーザからの質問などが含まれている場合に、ユーザが一連のメッセージに興味を示しと判断し、メッセージに第1のレベルのキーワードが含まれていない場合に、ユーザが一連のメッセージに興味を示さなかったと判断する。あるいは、CPU110は、電気機器300を介してユーザにクイズを出して、ユーザの回答があったときに、ユーザが一連のメッセージに興味を示したと判断し、当該クイズに対して回答がなかった場合に、ユーザが一連のメッセージに興味を示さなかったと判断してもよい。あるいは、ユーザに「興味がありますか?」と質問したのちのユーザの「はい。」や「うん。」などの回答があったとき時に、ユーザが一連のメッセージに興味を示したと判断し、当該質問に対して「いいえ。」や「ううん。」の回答があった場合や回答がなかった場合に、ユーザがメッセージに興味を示さなかったと判断する。   CPU 110 refers to the data in memory 120 to determine whether the user is interested in the message output by electric device 300, the theme thereof, or the like (step S112). For example, when the extracted message includes a first level keyword such as “I love you!” Or “I like you” or a question from the user, the user is interested in a series of messages. If the message does not contain the first level keyword, it is determined that the user did not show interest in the series of messages. Alternatively, the CPU 110 issues a quiz to the user via the electrical device 300, and when there is a response from the user, the CPU 110 determines that the user is interested in a series of messages, and there is no response to the quiz. In addition, it may be determined that the user did not show interest in the series of messages. Or, when the user answers “Yes” or “Yes” after asking the user “Is interested?”, It is determined that the user is interested in a series of messages. If there is an answer “No” or “No” to the question, or if there is no answer, it is determined that the user did not show interest in the message.

ユーザがメッセージに興味を示したと判断した場合(ステップS112にてYESである場合)、CPU110は、ユーザの特定情報と、電気機器300が出力したメッセージの特定情報やそのテーマの特定情報や時間帯と、に対応付けて、ユーザが興味を持っていることを示すデータをメモリ120に格納する(ステップS114)。CPU110は、ステップS132からの処理を実行する。   If it is determined that the user is interested in the message (YES in step S112), CPU 110 identifies the user specific information, the specific information of the message output by electric device 300, the specific information of the theme, and the time zone. , Data indicating that the user is interested is stored in the memory 120 (step S114). CPU110 performs the process from step S132.

ユーザがメッセージに興味を示さなかったと判断した場合(ステップS112にてNOである場合)、CPU110は、メモリ120のデータを参照して、ユーザが電気機器300からのメッセージを聞いたか否かを判断する(ステップS122)。たとえば、CPU110は、抽出したユーザのメッセージに第2のレベルのキーワード、たとえば「うん。」や「へえ。」などが含まれている場合に、ユーザがメッセージを聞いたと判断し、メッセージに第2のレベルのキーワードが含まれていない場合に、ユーザがメッセージを聞かなかったと判断する。あるいは、ユーザに「ねえ、聞いていますか?」と質問したのちのユーザの「はい。」や「うん。」などの回答があったとき時に、ユーザがメッセージを聞いたと判断し、当該質問に対して「いいえ。」や「ううん。」などの回答があった場合や回答がなかった場合に、ユーザがメッセージを聞かなかったと判断する。   If it is determined that the user has not shown interest in the message (NO in step S112), CPU 110 refers to the data in memory 120 to determine whether the user has heard the message from electrical device 300 or not. (Step S122). For example, the CPU 110 determines that the user has heard the message when the extracted user message includes a second level keyword such as “Yes” or “Hey.”, And the second message is included in the message. If the keyword of the level is not included, it is determined that the user did not listen to the message. Alternatively, when the user answers “Yes,” or “Yes.” After asking the question “Hey, are you listening?”, The user is judged to have heard the message, and the question is answered. On the other hand, if there is an answer such as “No” or “No” or no answer, it is determined that the user did not listen to the message.

ユーザがメッセージを聞いたと判断した場合(ステップS122にてYESである場合)、CPU110は、ユーザの特定情報と、電気機器300が出力したメッセージの特定情報やそのテーマの特定情報や時間帯と、に対応付けて、ユーザがメッセージを聞いたことを示すデータをメモリ120に格納する(ステップS124)。CPU110は、ステップS132からの処理を実行する。   If it is determined that the user has heard the message (YES in step S122), CPU 110 determines the specific information of the user, the specific information of the message output by electric device 300, the specific information of the theme, and the time zone. The data indicating that the user has heard the message is stored in the memory 120 in association with (step S124). CPU110 performs the process from step S132.

ユーザがメッセージを聞かなかったと判断した場合(ステップS122にてNOである場合)、CPU110は、ステップS132からの処理を実行する。   If it is determined that the user has not heard the message (NO in step S122), CPU 110 executes the processing from step S132.

好ましくは、CPU110は、「ユーザ毎の、または年齢・住所・性別などのユーザ層毎の、またはユーザ全体の」、「メッセージ毎の、またはテーマ毎の、または時間帯毎の」、「メッセージを聞いた割合、またはメッセージに興味を示した割合」などを計算してメモリ120に格納したり、通信インターフェイス160を介して他のサーバに当該情報を提供したりする。   Preferably, the CPU 110 "per user, per user group such as age / address / gender or the entire user", "per message, per theme, or per time zone", The rate of listening or the rate of interest in the message is calculated and stored in the memory 120, or the information is provided to another server via the communication interface 160.

ステップS132では、CPU110は、対話シナリオデータベース122を参照して、電気機器300が出力したメッセージの続きのメッセージが準備されているか否かを判断する。続きのメッセージが準備されている場合(ステップS132にてYESである場合)、CPU110は、電気機器300にそのままユーザとの対話を続行させる。すなわち、CPU110は、通信インターフェイス160を介して、次のメッセージを電気機器300に送信したり、電気機器300からの次のメッセージを待ちうけたりする。あるいは電気機器300毎に、第1の所定時間たとえば1秒経過毎にステップS102を繰り返す。   In step S132, CPU 110 refers to dialog scenario database 122 and determines whether a message subsequent to the message output by electrical device 300 is prepared. If a subsequent message is prepared (YES in step S132), CPU 110 causes electric device 300 to continue the dialog with the user as it is. That is, the CPU 110 transmits the next message to the electric device 300 or waits for the next message from the electric device 300 via the communication interface 160. Alternatively, step S102 is repeated for each electrical device 300 every first predetermined time, for example, every second.

続きのメッセージが準備されていない場合(ステップS132にてNOである場合)、CPU110は、テーマテーブル121を参照して、次のテーマを特定する(ステップS144)。なお、CPU110は、テーマテーブル121のテーマIDの順に次のテーマを決定してもよいし、人気のニュースに基づいて次のテーマを決定してもよいし、ユーザ設定や後述するようなユーザの過去の履歴などに基づいて次のテーマを決定してもよい。   If a subsequent message is not prepared (NO in step S132), CPU 110 refers to theme table 121 and identifies the next theme (step S144). Note that the CPU 110 may determine the next theme in the order of the theme IDs in the theme table 121, may determine the next theme based on popular news, or user settings or user's settings as described later. The next theme may be determined based on the past history or the like.

CPU110は、対話シナリオデータベース122を参照して、特定されたテーマに対応するメッセージを読み出して、通信インターフェイス160を介して電気機器300にメッセージのデータを送信する(ステップS146)。これによって、電気機器300のCPU310は、音声サービスサーバ100からのデータに基づいて新たなテーマに関する対話をスタートすることができる。音声サービスサーバ100のCPU110は、通信インターフェイス160を介して電気機器300からの次のメッセージを待ちうける。あるいは電気機器300毎に、第1の所定時間の経過後にステップS102を繰り返す。   CPU 110 refers to dialog scenario database 122, reads a message corresponding to the identified theme, and transmits message data to electrical device 300 via communication interface 160 (step S146). As a result, the CPU 310 of the electrical device 300 can start a dialogue on a new theme based on the data from the voice service server 100. The CPU 110 of the voice service server 100 waits for the next message from the electric device 300 via the communication interface 160. Alternatively, Step S102 is repeated for each electrical device 300 after the first predetermined time has elapsed.

一方、対話中でないときは(ステップS102にてYESである場合)、CPU110は、対話が止まってから第2の所定時間たとえば20秒が経過したか否かを判断する(ステップS142)。CPU110は、第2の所定時間経過した場合(ステップS142にてYESである場合)、ステップS144からの処理を実行する。   On the other hand, when the conversation is not in progress (YES in step S102), CPU 110 determines whether or not a second predetermined time, for example, 20 seconds has elapsed since the conversation stopped (step S142). CPU110 performs the process from step S144, when 2nd predetermined time passes (when it is YES in step S142).

第2の所定時間経過していない場合(ステップS142にてNOである場合)、CPU110は、通信インターフェイス160を介して電気機器300からの次のメッセージを待ちうける。あるいは電気機器300毎に、第1の所定時間の経過後にステップS102を繰り返す。
<電気機器300のハードウェア構成>
If the second predetermined time has not elapsed (NO in step S142), CPU 110 waits for the next message from electric device 300 via communication interface 160. Alternatively, Step S102 is repeated for each electrical device 300 after the first predetermined time has elapsed.
<Hardware Configuration of Electric Device 300>

次に、図10を参照して、ネットワークシステム1を構成する電気機器300の構成の一態様について説明する。電気機器300は、主たる構成要素として、CPU310と、メモリ320と、ディスプレイ330と、操作部340と、カメラ350、通信インターフェイス360と、スピーカ370と、マイク380と、機器駆動部390とを含む。   Next, with reference to FIG. 10, one aspect of the configuration of the electric device 300 configuring the network system 1 will be described. The electric device 300 includes a CPU 310, a memory 320, a display 330, an operation unit 340, a camera 350, a communication interface 360, a speaker 370, a microphone 380, and a device driving unit 390 as main components.

CPU310は、メモリ320あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、電気機器300の各部を制御する。   The CPU 310 controls each unit of the electric device 300 by executing a program stored in the memory 320 or an external storage medium.

メモリ320は、各種のRAMや、各種のROMなどによって実現される。メモリ320は、CPU310によって実行される機器駆動プログラムや会話プログラムやその他のプログラムや、CPU310によるプログラムの実行により生成されたデータ、音声サービスサーバ100や他のサーバから受信したデータ、操作部340を介して入力されたデータなどを記憶する。   The memory 320 is realized by various RAMs, various ROMs, and the like. The memory 320 is connected to the device driving program, conversation program, and other programs executed by the CPU 310, data generated by execution of the program by the CPU 310, data received from the voice service server 100 and other servers, and the operation unit 340. The input data is stored.

ディスプレイ330は、CPU310からの信号に基づいて、文字や画像などを出力する。ディスプレイ330は、図1に示すように、単にライト330A,330Bであってもよい。   The display 330 outputs characters and images based on signals from the CPU 310. The display 330 may simply be lights 330A and 330B as shown in FIG.

操作部340は、ボタン、タッチパネルなどによって実現され、ユーザからの命令を受け付けて、当該命令をCPU310に入力する。なお、ディスプレイ330と操作部340とは、タッチパネルを構成してもよい。   The operation unit 340 is realized by a button, a touch panel, and the like, receives a command from the user, and inputs the command to the CPU 310. The display 330 and the operation unit 340 may constitute a touch panel.

また、操作部340は、近接センサや温度センサなどであってもよい。この場合は、CPU310は、操作部340としての近接センサや温度センサを介して、ユーザが電気機器300に手をかざしたことを検知して、各種の動作を開始する。たとえば、電気機器300がロボットであって、近接センサが額の近辺に配置されることによって、ユーザが電気機器300をなでたり・たたいたりすることを電気機器300が検知してもよい。   The operation unit 340 may be a proximity sensor, a temperature sensor, or the like. In this case, the CPU 310 detects that the user has held his / her hand over the electric device 300 via a proximity sensor or a temperature sensor as the operation unit 340 and starts various operations. For example, the electric device 300 may be a robot, and the electric device 300 may detect that the user strokes or strikes the electric device 300 by arranging the proximity sensor in the vicinity of the forehead.

カメラ350は、画像を撮影して、画像データをCPU310に受け渡す。CPU310は、画像データからユーザの動きを特定してもよいし、画像データをサーバ100に提供してサーバ100がユーザの動きを特定してもよい。   The camera 350 takes an image and transfers the image data to the CPU 310. The CPU 310 may specify the user's movement from the image data, or may provide the image data to the server 100 and the server 100 may specify the user's movement.

通信インターフェイス360は、無線LAN通信あるいは有線LANなどの通信モジュールによって実現される。通信インターフェイス360は、有線通信あるいは無線通信によって音声サービスサーバ100などの他の装置との間でデータをやり取りする。   The communication interface 360 is realized by a communication module such as wireless LAN communication or wired LAN. The communication interface 360 exchanges data with other devices such as the voice service server 100 by wired communication or wireless communication.

スピーカ370は、CPU310からの信号に基づいて、音声を出力する。より詳細には、本実施の形態においては、CPU310は、通信インターフェイス360を介してサーバ100から受信した音声データに基づいてスピーカ370に音声メッセージを出力させる。あるいは、CPU310は、通信インターフェイス360を介してサーバ100から受信したテキストデータに基づいて音声信号を作成し、スピーカ370に音声メッセージを出力させる。あるいは、CPU310は、通信インターフェイス360を介してサーバ100から受信したメッセージIDに基づいて、メモリ320からメッセージの音声データを読み出して、スピーカ370に音声メッセージを出力させる。   The speaker 370 outputs sound based on the signal from the CPU 310. More specifically, in the present embodiment, CPU 310 causes speaker 370 to output a voice message based on voice data received from server 100 via communication interface 360. Alternatively, CPU 310 creates an audio signal based on text data received from server 100 via communication interface 360 and causes speaker 370 to output an audio message. Alternatively, CPU 310 reads out voice data of the message from memory 320 based on the message ID received from server 100 via communication interface 360 and causes speaker 370 to output the voice message.

マイク380は、外部からの音声に基づいて音声信号を作成し、CPU310に入力する。   The microphone 380 creates an audio signal based on external audio and inputs it to the CPU 310.

機器駆動部390は、CPU310からの信号に基づいて、電気機器300の各部(モータやヒータなど)を制御する。   The device driving unit 390 controls each unit (such as a motor and a heater) of the electric device 300 based on a signal from the CPU 310.

このように、本実施の形態にかかる音声サービスにおいては、続きの対話用のメッセージデータが準備されていない場合に別の話題をスタートさせたり、対話がストップして所定時間が経過した際に別の話題をスタートさせたりするため、電気機器300のユーザが退屈しにくくなり、居心地良く感じやすくなる。さらに、本実施の形態に係る音声サービスにおいては、たとえば当該音声サービスに会話情報や広告情報の提供者に、「ユーザ毎の、または年齢・住所・性別などのユーザ層毎の、またはユーザ全体の」、「メッセージ毎の、または話題毎の、またはテーマ毎の、または時間帯毎の」、「メッセージを聞いた割合、またはメッセージに興味を示した割合」などを伝えることができる。そして、このような情報は、広告の提供者から徴収する料金の算定や、他の情報の提供者へ支払う料金の算定や、各種のマーケティングなどに利用することができる。
<第2の実施の形態>
As described above, in the voice service according to the present embodiment, another topic is started when message data for subsequent conversation is not prepared, or when a predetermined time elapses after the conversation is stopped. Therefore, it becomes difficult for the user of the electric device 300 to be bored and to feel comfortable. Furthermore, in the voice service according to the present embodiment, for example, the voice service is provided with a provider of conversation information and advertisement information, “for each user, for each user layer such as age, address, and sex, or for the entire user. ”,“ Per message, per topic, per theme, or per time period ”,“ percentage of listening to a message or interest in a message ”, etc. Such information can be used for calculation of fees collected from advertisement providers, calculation of fees paid to other information providers, various marketing, and the like.
<Second Embodiment>

音声サービスサーバ100は、さらに、ユーザが興味を示したり肯定的なメッセージを話したり対話が盛り上がったりした場合に、企業や商品やサービスの広告を電気機器300から出力させ(図2などを参照。)、ユーザが興味を示さなかったり否定的なメッセージを話したり対話が盛り上がらなかった場合に、企業や商品やサービスの広告を電気機器300から出力させないという機能を有してもよい。   The voice service server 100 further outputs an advertisement of a company, a product, or a service from the electric device 300 when the user shows an interest, speaks a positive message, or a conversation is excited (see FIG. 2 and the like). ), When the user does not show interest, speaks a negative message, or does not excite the dialogue, it may have a function of preventing the electronic device 300 from outputting advertisements of companies, products, and services.

より詳細には、図11を参照して、ユーザがメッセージに興味を示したと判断した場合(ステップS112にてYESである場合)、CPU110は、ステップS114に加えて、通信インターフェイス160を介して電気機器300に広告用のデータを送信する(ステップS118)。これによって、図2に示すように、電気機器300は音声サービスサーバ100からのデータに基づいて広告を出力する。   More specifically, referring to FIG. 11, when CPU 110 determines that the user has shown interest in the message (YES in step S112), CPU 110 performs an electrical connection via communication interface 160 in addition to step S114. Data for advertisement is transmitted to the device 300 (step S118). Thereby, as shown in FIG. 2, the electric device 300 outputs an advertisement based on the data from the voice service server 100.

一方、ユーザがメッセージに興味を示さなかったと判断した場合(ステップS112にてNOである場合)、CPU110は、ユーザが電気機器300のメッセージを聞いたか否かの判断を行うが(ステップS122)、この場合は電気機器300に広告を出力させない。   On the other hand, if it is determined that the user has not shown interest in the message (NO in step S112), CPU 110 determines whether the user has heard the message from electrical device 300 (step S122). In this case, the advertisement is not output to the electric device 300.

あるいは、図12を参照して、ユーザがメッセージに興味を示したと判断した場合(ステップS112にてYESである場合)、CPU110は、ステップS114に加えて、ユーザが第1の所定回数以上、電気機器300が出力するメッセージに反応しているか否か、たとえば第1の所定回数以上ユーザが電気機器300にメッセージを入力したか否かを判断する(ステップS116)。第1の所定回数以上ユーザが電気機器300にメッセージを入力している場合(ステップS116にてYESである場合)、CPU110は、通信インターフェイス160を介して電気機器300に広告用のデータを送信する(ステップS118)。これによって、図2に示すように、電気機器300は音声サービスサーバ100からのデータに基づいて、広告を出力する。   Alternatively, referring to FIG. 12, if CPU 110 determines that the user has shown an interest in the message (YES in step S112), CPU 110 adds the electric power to the first predetermined number of times or more in addition to step S114. It is determined whether or not the device 300 is responding to a message output, for example, whether or not the user has input a message to the electric device 300 for a first predetermined number of times (step S116). When the user has input a message to electrical device 300 for the first predetermined number of times or more (YES in step S116), CPU 110 transmits advertising data to electrical device 300 via communication interface 160. (Step S118). As a result, as shown in FIG. 2, the electric device 300 outputs an advertisement based on the data from the voice service server 100.

一方、未だ第1の所定回数以上ユーザが電気機器300にメッセージを入力していない場合(ステップS116にてNOである場合)、あるいはユーザがメッセージに興味を示さなかったと判断した場合(ステップS112にてNOである場合)、CPU110は電気機器300に広告を出力させない。   On the other hand, if the user has not yet input a message to electrical device 300 for the first predetermined number of times (NO in step S116), or if it is determined that the user has not shown interest in the message (in step S112) CPU 110 does not cause electric device 300 to output an advertisement.

なお、予め肯定的な第1のメッセージが設定されており、音声サービスサーバ100のCPU110が、ユーザのメッセージが当該第1のメッセージを含む場合にユーザが肯定的であると判断し、ユーザのメッセージが当該第1のメッセージを含まない場合にユーザが否定的であると判断してもよい。   Note that a positive first message is set in advance, and the CPU 110 of the voice service server 100 determines that the user is positive when the user's message includes the first message, and the user's message May not determine that the user is negative if it does not include the first message.

あるいは、予め否定的な第2のメッセージが設定されており、音声サービスサーバ100のCPU110が、ユーザのメッセージが当該第2のメッセージを含む場合にユーザが否定的であると判断し、ユーザのメッセージが当該第2のメッセージを含まない場合にユーザが肯定的であると判断してもよい。   Alternatively, a negative second message is set in advance, and the CPU 110 of the voice service server 100 determines that the user is negative when the user message includes the second message, and the user message May determine that the user is affirmative if does not include the second message.

なお、予め肯定的な第1のメッセージと否定的な第2のメッセージが設定されており、音声サービスサーバ100のCPU110が、ユーザのメッセージが当該第1のメッセージを含む場合にユーザが肯定的であると判断し、ユーザのメッセージが当該第2のメッセージを含む場合にユーザが否定的であると判断し、ユーザのメッセージがいずれのメッセージも含まない場合は次のメッセージまで判断を保留してもよい。   Note that a positive first message and a negative second message are set in advance, and the CPU 110 of the voice service server 100 determines that the user is positive when the user's message includes the first message. If the user's message includes the second message, it is determined that the user is negative. If the user's message does not include any message, the determination is suspended until the next message. Good.

あるいはメッセージ毎に、肯定的である度合を示す肯定ポイントが付与されている。なお、肯定的なメッセージ、たとえば「大好き。」「最高。」には“正”の大きなポイントが付与されており、否定的なメッセージ、たとえば「大嫌い。」「いや。」には“負”の大きなポイントが付与される。そして、CPU110が、ユーザのメッセージのポイントまたは累積ポイントが所定値以上である場合に肯定的であると判断し、所定値未満である場合に肯定的ではないと判断してもよい。   Alternatively, an affirmation point indicating the degree of affirmation is given for each message. Positive messages such as “I love you” and “Highest” are given a large “positive” point, and negative messages such as “I hate” and “No.” are “negative”. Big points are awarded. Then, CPU 110 may determine that the user's message point or accumulated point is positive when it is greater than or equal to a predetermined value, and may determine that the user's message point or cumulative point is not positive when it is less than the predetermined value.

また、上記の実施の形態においては、肯定的なユーザのメッセージに応じて広告情報を出力させ、否定的なユーザのメッセージに応じて広告情報を出力しないものとしているがこのような形態には限られない。   In the above embodiment, the advertisement information is output in response to a positive user message, and the advertisement information is not output in response to a negative user message. I can't.

たとえば、音声サービスサーバ100のCPU110は、肯定的なユーザのメッセージに応じて第1の広告情報を出力させ、否定的なユーザのメッセージに応じて第2の広告情報を出力する形態にしてもよい。なお、第1の広告情報は、第2の広告情報よりも詳しい内容を含む。あるいは、第1の広告情報には企業名と商品とを含み、第2の広告情報には企業名と商品のいずれかを含む。   For example, the CPU 110 of the voice service server 100 may output the first advertisement information in response to a positive user message and output the second advertisement information in response to a negative user message. . Note that the first advertisement information includes more detailed content than the second advertisement information. Alternatively, the first advertisement information includes a company name and a product, and the second advertisement information includes either the company name or the product.

なお、広告情報に限らず、音声サービスサーバ100のCPU110は、肯定的なユーザのメッセージに応じてニュースなどの情報を出力させ、否定的なユーザのメッセージに応じてニュースなどの情報を出力しない形態にしてもよい。あるいは、肯定的なユーザのメッセージに応じて詳細情報を出力させ、否定的なユーザのメッセージに応じて簡易情報を出力する形態にしてもよい。   In addition to the advertisement information, the CPU 110 of the voice service server 100 outputs information such as news in response to a positive user message and does not output information such as news in response to a negative user message. It may be. Alternatively, detailed information may be output according to a positive user message, and simple information may be output according to a negative user message.

さらにはそれらを組み合わせて、音声サービスサーバ100のCPU110は、ユーザのメッセージのポイントまたは累積ポイントが第1の所定値以上である場合、あるいはユーザのメッセージに第1の肯定メッセージが含まれている場合、第1の肯定状態であると判断し、詳細情報と広告情報とを電気機器300に出力させる。CPU110は、ユーザのメッセージのポイントまたは累積ポイントが第1の所定値未満かつ第1の所定値よりも小さな第2の所定値以上である場合、あるいはユーザのメッセージに第2の肯定メッセージが含まれている場合、第2の肯定状態であると判断し、簡易情報と広告情報とを電気機器300に出力させる。CPU110は、ユーザのメッセージのポイントまたは累積ポイントが第2の所定値未満である場合、あるいはユーザのメッセージに第1および第2の肯定メッセージが含まれていない場合、否定的な状態であると判断し、簡易情報のみを電気機器300に出力させてもよい。
<第3の実施の形態>
Further, by combining them, the CPU 110 of the voice service server 100 determines that the user message points or accumulated points are greater than or equal to the first predetermined value, or the user message includes the first positive message. Then, it is determined that the state is the first affirmative state, and the detailed information and the advertisement information are output to the electric device 300. CPU 110 determines that the point or cumulative point of the user's message is equal to or greater than a second predetermined value that is less than the first predetermined value and smaller than the first predetermined value, or the user message includes a second positive message. If so, it is determined to be in the second affirmative state, and simple information and advertisement information are output to the electric device 300. CPU 110 determines that the state is negative when the user's message points or accumulated points are less than the second predetermined value, or when the user's message does not include the first and second positive messages. Then, only the simple information may be output to the electric device 300.
<Third Embodiment>

音声サービスサーバ100は、さらに、時間帯や曜日などに応じて、対話のテーマの切り替え方や、各種の判断方法などを変更してもよい。   The voice service server 100 may further change the conversation theme switching method, various determination methods, and the like according to the time zone, day of the week, and the like.

以下では、図13に示すように、ユーザ毎の電気機器300のメッセージに集中することができる可能性が高い時間帯、換言すればユーザ毎の忙しくない時間帯を、ゴールデンタイムという。たとえば、音声サービスサーバ100のCPU110は、ユーザ毎または電気機器300毎の、メッセージに対する「興味あり」との判断結果の割合に基づいて、「興味あり」との判断結果の割合が多い、たとえば30%以上などの、時間帯をユーザ毎のゴールデンタイムとして設定する。あるいは、CPU110は、ユーザ毎または電気機器300毎の、メッセージに対する「興味あり」の判断結果の割合と「聞いた」の判断結果の割合とに基づいて、両者の割合の合計が多い、たとえば40%以上などの、時間帯をユーザ毎のゴールデンタイムとして設定する。あるいは、CPU110は、ユーザ毎または電気機器300毎の、ユーザとの対話のキャッチボールの回数が多い時間帯をゴールデンタイムとしてもよい。   In the following, as shown in FIG. 13, a time zone in which there is a high possibility of being able to concentrate on messages of the electric device 300 for each user, in other words, a time zone that is not busy for each user is referred to as a golden time. For example, the CPU 110 of the voice service server 100 has a high ratio of determination results of “interesting” based on the ratio of determination results of “interesting” to a message for each user or each electrical device 300, for example, 30 Set a time zone such as% or more as the golden time for each user. Alternatively, the CPU 110 has a large sum of both ratios based on the ratio of the determination result of “interested” and the ratio of the determination result of “listening” for each message for each user or each electric device 300, for example, 40 Set a time zone such as% or more as the golden time for each user. Or CPU110 is good also considering the time zone with many frequency | counts of the catch ball of the dialog with a user for every user or every electric equipment 300 as a golden time.

ただし、ゴールデンタイムはユーザ毎に設定される必要はなく、全ユーザに共通であってもよいし、年齢・性別・住所などの属性毎に設定されるものであってもよい。   However, the golden time does not need to be set for each user and may be common to all users, or may be set for each attribute such as age, sex, and address.

図14を参照して、ユーザがメッセージに興味を示したと判断した場合(ステップS112にてYESである場合)、CPU110は、ステップS114に加えて、対象となる電気機器300またはユーザにとって、現在がゴールデンタイムであるか否かを判断する(ステップS116)。   Referring to FIG. 14, when it is determined that the user is interested in the message (YES in step S112), CPU 110 adds the current state to target electric device 300 or the user in addition to step S114. It is determined whether it is a golden time (step S116).

現在がゴールデンタイムである場合(ステップS116にてYESである場合)、CPU110は、通信インターフェイス160を介して、広告用のデータを送信する(ステップS118)。そして、図2に示すように、電気機器300は音声サービスサーバ100からのデータに基づいて、広告を出力する。CPU110は、ユーザが電気機器300のメッセージに興味を持った時間を記憶して、ゴールデンタイムの判断のための反応頻度を高める補正をする(ステップS119)。CPU110は、ステップS132からの処理を実行する。   When the current time is the golden time (YES in step S116), CPU 110 transmits data for advertisement via communication interface 160 (step S118). Then, as shown in FIG. 2, the electric device 300 outputs an advertisement based on the data from the voice service server 100. CPU110 memorize | stores the time when the user was interested in the message of the electric equipment 300, and correct | amends which raises the reaction frequency for judgment of golden time (step S119). CPU110 performs the process from step S132.

一方、ユーザがメッセージに興味を示さなかったと判断した場合(ステップS112にてNOである場合)、CPU110は、メモリ120のデータを参照して、ユーザがメッセージを聞いたか否かを判断する(ステップS122)。ユーザがメッセージを聞いたと判断した場合(ステップS122にてYESである場合)、CPU110は、ステップS124に加えて、ユーザが電気機器300のメッセージを聞いた時間を記憶して、ゴールデンタイムの判断のための反応頻度を維持する(ステップS126)。CPU110は、ステップS132からの処理を実行する。   On the other hand, if it is determined that the user has not shown interest in the message (NO in step S112), CPU 110 refers to the data in memory 120 to determine whether the user has heard the message (step). S122). If it is determined that the user has heard the message (YES in step S122), CPU 110 stores the time when the user listened to the message from electric device 300 in addition to step S124, and determines the golden time. The reaction frequency is maintained (step S126). CPU110 performs the process from step S132.

ユーザがメッセージを聞かなかったと判断した場合(ステップS122にてNOである場合)、CPU110は、ユーザが電気機器300のメッセージを聞かなかった時間を記憶して、ゴールデンタイムの頻度を低減する補正をする(ステップS128)。CPU110は、ステップS132からの処理を実行する。   If it is determined that the user has not heard the message (NO in step S122), CPU 110 stores the time when the user did not hear the message from electric device 300, and corrects to reduce the frequency of the golden time. (Step S128). CPU110 performs the process from step S132.

あるいは、図15を参照して、CPU110は、対話シナリオデータベース122を参照して、電気機器300が出力するメッセージの続きのメッセージが準備されていない場合(ステップS132にてNOである場合)や、対話が止まってから第2の所定時間たとえば20秒が経過した場合(ステップS142にてYESである場合)、CPU110は、対象となる電気機器300またはユーザにとって、現在がゴールデンタイムであるか否かを判断する(ステップS143)。   Alternatively, referring to FIG. 15, CPU 110 refers to dialog scenario database 122, and if a message subsequent to the message output by electric device 300 is not prepared (NO in step S <b> 132), If the second predetermined time, for example, 20 seconds has elapsed since the conversation stopped (YES in step S142), CPU 110 determines whether the current time is the golden time for the target electrical device 300 or the user. Is determined (step S143).

現在がゴールデンタイムである場合(ステップS143にてYESである場合)、CPU110は、ステップS144からの処理を実行する。一方、現在がゴールデンタイムでない場合(ステップS143にてNOである場合)、CPU110は、通信インターフェイス160を介して電気機器300からの次のメッセージを待ちうける。あるいは電気機器300毎に、第1の所定時間の経過後にステップS102を繰り返す。   If the current time is the golden time (YES in step S143), CPU 110 executes the processing from step S144. On the other hand, if the current time is not the golden time (NO in step S143), CPU 110 waits for the next message from electrical device 300 via communication interface 160. Alternatively, Step S102 is repeated for each electrical device 300 after the first predetermined time has elapsed.

あるいは、図16を参照して、ステップS102において対話中でない場合について説明する。CPU110は、まず、対象となる電気機器300またはユーザにとって、現在がゴールデンタイムであるか否かを判断する(ステップS152)。現在がゴールデンタイムである場合(ステップS152にてYESである場合)、CPU110は、対話が止まってから第1の所定時間たとえば10秒が経過したか否かを判断する(ステップS154)。CPU110は、第1の所定時間経過した場合(ステップS154にてYESである場合)、ステップS144からの処理を実行する。   Or with reference to FIG. 16, the case where it is not in dialog in step S102 is demonstrated. First, the CPU 110 determines whether or not the current time is the golden time for the target electric device 300 or the user (step S152). If the current time is the golden time (YES in step S152), CPU 110 determines whether or not a first predetermined time, for example, 10 seconds has elapsed since the conversation stopped (step S154). CPU110 performs the process from step S144, when 1st predetermined time passes (when it is YES in step S154).

一方、現在がゴールデンタイムでない場合(ステップS152にてNOである場合)、CPU110は、対話が止まってから第1の所定時間よりも長い第2の所定時間たとえば30秒が経過したか否かを判断する(ステップS156)。CPU110は、第2の所定時間経過した場合(ステップS156にてYESである場合)、ステップS144からの処理を実行する。   On the other hand, if the current time is not the golden time (NO in step S152), CPU 110 determines whether or not a second predetermined time, for example, 30 seconds, which is longer than the first predetermined time, has elapsed since the conversation stopped. Judgment is made (step S156). CPU110 performs the process from step S144, when 2nd predetermined time passes (when it is YES in step S156).

逆に、CPU110は、第1の所定時間経過していない場合(ステップS154にてNOである場合)や、第2の所定時間経過していない場合(ステップS156にてNOである場合)、ステップS102からの処理を繰り返す。   Conversely, if the first predetermined time has not elapsed (NO in step S154), or the second predetermined time has not elapsed (NO in step S156), CPU 110 performs step. The processing from S102 is repeated.

これによって、本実施の形態にかかる音声サービスは、ユーザが電気機器300との対話に意識を回す余裕がある可能性が高い場合、すなわちゴールデンタイムには、話が途切れるとすぐに新たな話題のメッセージをユーザに提供し、ユーザが電気機器300との対話に意識を回す余裕がない可能性が高い場合、すなわちゴールデンタイムでないときは、話が途切れても次の話題をユーザに提供するまでに若干の間待機する。その結果、よりユーザにとって、居心地が良い状況を作り出すことが可能になる。
<第4の実施の形態>
As a result, the voice service according to the present embodiment has a high possibility that the user can afford to pay attention to the dialogue with the electric device 300, that is, during the golden time, a new topic is immediately created when the talk is interrupted. When a message is provided to the user and there is a high possibility that the user cannot afford to pay attention to the dialogue with the electric device 300, that is, when it is not the golden time, the next topic is provided to the user even if the talk is interrupted Wait for a while. As a result, it is possible to create a more comfortable situation for the user.
<Fourth embodiment>

音声サービスサーバ100は、単にテーマテーブル121のテーマID順にテーマを選択してシナリオを抽出したり、ランダムに選ばれたテーマを選択してシナリオを抽出したりする形態には限られない。たとえば、ユーザ毎または電気機器300毎の、過去の興味を持った履歴や過去の聞いた履歴に基づいて、音声サービスサーバ100のCPU110が、ユーザが興味を持ちやすいテーマや話題や、ユーザが聞いてくれる可能性が高いテーマや話題を優先して選択することが好ましい。   The voice service server 100 is not limited to simply extracting a scenario by selecting a theme in the order of theme IDs in the theme table 121, or extracting a scenario by selecting a randomly selected theme. For example, the CPU 110 of the voice service server 100 listens to a theme or topic that the user is likely to be interested in, or a user's question based on a history of past interest or a history of past hearing for each user or each electric device 300. It is preferable to prioritize themes and topics that are likely to be received.

たとえば、音声サービスサーバ100のメモリ120は、ユーザ毎または電気機器300毎に、図17に示すようなユーザ反応テーブル123を記憶する。ユーザ反応テーブル123は、テーマ毎に、テーマIDと、対話スタート回数と、実際の対話におけるメッセージの往復の回数と、1つの対話すなわち1つのシナリオに対するメッセージの往復の回数の平均などの対応関係を含む。なお、対話スタート回数は、新たなシナリオの対話を開始した回数である。そして、ユーザ反応テーブル123は、次のテーマを選択する際に利用されるものであるが、広告の提供者などが各種のマーケティングなどに利用することも可能である。   For example, the memory 120 of the voice service server 100 stores a user reaction table 123 as shown in FIG. 17 for each user or each electric device 300. The user reaction table 123 shows a correspondence relationship such as the theme ID, the number of conversation starts, the number of round trips of messages in an actual dialogue, and the average number of round trips of messages for one dialogue, that is, one scenario. Including. Note that the number of dialogue start times is the number of times a new scenario dialogue is started. The user reaction table 123 is used when selecting the next theme, but can also be used for various types of marketing by an advertisement provider.

そして、図18に示すように、ユーザがメッセージに興味を示したと判断した場合(ステップS112にてYESである場合)、CPU110は、ステップS114に加えて、今回の対話に関するメッセージの往復の回数を反応テーブル123に追加したり平均を更新したりする(ステップS119B)。CPU110は、ステップS132からの処理を実行する。   Then, as shown in FIG. 18, when it is determined that the user has shown interest in the message (YES in step S112), CPU 110 determines the number of round-trip messages related to the current conversation in addition to step S114. Add to the reaction table 123 or update the average (step S119B). CPU110 performs the process from step S132.

また、ユーザがメッセージを聞いたと判断した場合(ステップS122にてYESである場合)にも、CPU110は、ステップS124に加えて、今回の対話に関するメッセージの往復の回数を反応テーブル123に追加したり平均を更新したりする(ステップS126B)。CPU110は、ステップS132からの処理を実行する。   Also, when it is determined that the user has heard the message (YES in step S122), the CPU 110 adds the number of round trips of the message related to the current dialogue to the reaction table 123 in addition to step S124. The average is updated (step S126B). CPU110 performs the process from step S132.

そして、ステップS144において、CPU110は、反応テーブル123とテーマテーブル121とを参照して次のテーマを特定する(ステップS144)。たとえば、CPU110は、平均回数に基づいて重みづけをしてから全てのテーマの中から次のテーマを選択する。CPU110は、対話シナリオデータベース122を参照して、特定されたテーマに対応する一連のメッセージを読み出して、通信インターフェイス160を介して電気機器300にメッセージのデータを送信する(ステップS146)。このとき、CPU110は、反応テーブル123の、今回新たに特定されたテーマの対話スタート回数を+1する。   In step S144, the CPU 110 specifies the next theme with reference to the reaction table 123 and the theme table 121 (step S144). For example, the CPU 110 performs weighting based on the average number of times, and then selects the next theme from all the themes. The CPU 110 refers to the dialogue scenario database 122, reads a series of messages corresponding to the identified theme, and transmits message data to the electrical device 300 via the communication interface 160 (step S146). At this time, the CPU 110 increments the number of dialog start times of the theme newly specified this time in the reaction table 123 by one.

なお、テーマテーブル121や対話シナリオデータベース122や反応テーブル123は、大分類のテーマだけでなく、さらに小さな分類の話題やキーワードなども設定されることが好ましい。これによって、音声サービスサーバ100のCPU110は、さらにユーザに適したシナリオを選択することができる。   In addition, it is preferable that the theme table 121, the dialogue scenario database 122, and the reaction table 123 are set not only with the major classification theme but also with a smaller classification topic or keyword. Thereby, the CPU 110 of the voice service server 100 can further select a scenario suitable for the user.

このように、ユーザとの対話が滞りそうになった場合に、音声サービスサーバ100は先のテーマとは別のテーマを選択する場合もあるし、同じテーマの別のシナリオを連続して選択する場合もある。そして、本実施の形態にかかる音声サービスサーバ100のCPU110は、ユーザ反応テーブル123に基づいて次のテーマを決めるため、興味があるテーマたとえばメッセージのキャッチボールの平均回数が多いテーマが選ばれる可能性が高く、同じテーマの別のシナリオが選択される可能性が高い。
<第5の実施の形態>
As described above, when the dialogue with the user is likely to be delayed, the voice service server 100 may select a theme different from the previous theme or continuously select different scenarios of the same theme. In some cases. Then, since CPU 110 of voice service server 100 according to the present embodiment determines the next theme based on user reaction table 123, a theme of interest, for example, a theme with a high average number of catch balls of messages may be selected. And another scenario with the same theme is likely to be selected.
<Fifth embodiment>

音声サービスサーバ100のCPU110は、図3または図4に示すように、新たなテーマや話題の対話を開始する際には、「そうそう」や「ところで」という呼びかけのための言葉を挟んでから、新たなテーマのメッセージを電気機器300から出力させることが好ましい。   As shown in FIG. 3 or FIG. 4, the CPU 110 of the voice service server 100 puts a word for calling “Yes” or “By the way” when starting a conversation about a new theme or topic, It is preferable to output a new theme message from the electric device 300.

より詳細には、図19に示すように、CPU110は、反応テーブル123とテーマテーブル121とを参照して次のテーマを特定する(ステップS144)。そして、CPU110は、特定されたテーマに対応するメッセージを読み出して、当該メッセージの前に「そうそう」や「ところで」という呼びかけのための言葉を追加する(ステップS145)。CPU110は、通信インターフェイス160を介して、メッセージデータを電気機器300に送信する(ステップS146)。これによって、電気機器300のCPU310は、音声サービスサーバ100からのデータに基づいて、スピーカ370から「そうそう」や「ところで」という呼びかけのための言葉を発してから、メッセージの出力を開始する。   More specifically, as shown in FIG. 19, the CPU 110 refers to the reaction table 123 and the theme table 121 to identify the next theme (step S144). Then, the CPU 110 reads a message corresponding to the identified theme, and adds a word for calling “yes” or “by the way” before the message (step S145). CPU 110 transmits message data to electrical device 300 via communication interface 160 (step S146). As a result, the CPU 310 of the electrical device 300 starts outputting a message after issuing a word for calling “Look” or “By the way” from the speaker 370 based on the data from the voice service server 100.

ただし、音声サービスサーバ100のメモリ120が、図20に示すようなシナリオデータベース122Bを記憶してもよい。すなわち、予めシナリオの最初のメッセージに、「そうそう」や「ところで」という呼びかけのための言葉が含まれたものがシナリオデータベース122Bに格納されていてもよい。この場合は、ステップS145の処理を実行せずに、CPU110は、ステップS146を実行すればよい。
<第6の実施の形態>
However, the memory 120 of the voice service server 100 may store a scenario database 122B as shown in FIG. That is, a scenario database 122B may include a scenario message 122B in which a word for calling “yes” or “by the way” is included in advance in the first message of the scenario. In this case, the CPU 110 may execute step S146 without executing the process of step S145.
<Sixth Embodiment>

なお、第1〜第5の実施の形態においては、音声サービスサーバ100のCPU110は、ユーザからのメッセージに基づいて各種の判断を行っていたが、このような構成には限られない。たとえば、音声サービスサーバ100のCPU110は、音声ではなく電気機器300からの画像に基づいて、各種の判断をおこなってもよい。   In the first to fifth embodiments, the CPU 110 of the voice service server 100 makes various determinations based on messages from the user, but is not limited to such a configuration. For example, the CPU 110 of the voice service server 100 may make various determinations based on images from the electrical device 300 instead of voice.

具体的には、電気機器300のCPU310が、カメラ350の撮影画像を音声サービスサーバ100に送信してもよい。そして、図21に示すように、音声サービスサーバ100のCPU110は、電気機器300からの画像データを解析してもよい(ステップS604)。   Specifically, the CPU 310 of the electric device 300 may transmit the captured image of the camera 350 to the voice service server 100. And as shown in FIG. 21, CPU110 of the audio | voice service server 100 may analyze the image data from the electric equipment 300 (step S604).

たとえば、CPU110は、ユーザが大きくうなずいた場合(ステップS612にてYESである場合)、CPU110は、ユーザとメッセージまたはテーマなどの特定情報に対応付けて、興味を持っていることを示すデータをメモリ120に格納する(ステップS114)。また、CPU110は、ユーザが小さくうなずいた場合あるいは首を振った場合(ステップS622にてYESである場合)、CPU110は、ユーザとメッセージまたはテーマなどの特定情報に対応付けて、ユーザがメッセージを聞いたことを示すデータをメモリ120に格納する(ステップS124)。   For example, when CPU 110 nods greatly (when YES at step S612), CPU 110 stores data indicating that the user is interested in association with the user and specific information such as a message or theme. 120 (step S114). When CPU 110 nods or swings his head (YES in step S622), CPU 110 correlates the user with specific information such as a message or a theme and listens to the user's message. Data indicating this is stored in the memory 120 (step S124).

あるいは、CPU110は、ユーザが笑顔のときにユーザがメッセージに興味を持っている判断したり広告を出力したりして、ユーザが笑顔ではないがうなずいた際にユーザが単にメッセージを聞いたと判断したり広告を出力しないようにしたりしてもよい。   Alternatively, the CPU 110 determines that the user is interested in the message or outputs an advertisement when the user is smiling, and determines that the user has just heard the message when the user nods but is not smiling. Or may not output an advertisement.

あるいは、電気機器300の操作部340としての近接センサや温度センサからのデータに基づいて、ユーザが電気機器300に手をかざしたり、電気機器300の頭をなでたり・たたいたりしたことを検知して、その旨を音声サービスサーバ100に送信してもよい。音声サービスサーバ100のCPU110は、電気機器300からのそのようなデータに基づいて、ユーザがメッセージに興味をもったと判断したり、ユーザがメッセージを聞いたと判断したりしてもよい。逆に、ユーザが電気機器300に触れなければ、CPU110は、ユーザがメッセージに興味がないと判断する。   Alternatively, based on data from a proximity sensor or a temperature sensor serving as the operation unit 340 of the electric device 300, the user holds the hand over the electric device 300 or strokes or strikes the head of the electric device 300. It may be detected and transmitted to the voice service server 100 to that effect. The CPU 110 of the voice service server 100 may determine that the user is interested in the message based on such data from the electrical device 300 or may determine that the user has heard the message. Conversely, if the user does not touch the electrical device 300, the CPU 110 determines that the user is not interested in the message.

あるいは、電気機器300の操作部340としてのボタンをユーザが押した場合に、その旨を音声サービスサーバ100に送信してもよい。音声サービスサーバ100のCPU110は、電気機器300からのそのようなデータに基づいて、ユーザがメッセージに興味をもったと判断したり、ユーザがメッセージを聞いたと判断したりしてもよい。逆に、ユーザが電気機器300に触れなければ、CPU110は、ユーザがメッセージに興味がないと判断する。
<第7の実施の形態>
Alternatively, when the user presses a button as the operation unit 340 of the electric device 300, the fact may be transmitted to the voice service server 100. The CPU 110 of the voice service server 100 may determine that the user is interested in the message based on such data from the electrical device 300 or may determine that the user has heard the message. Conversely, if the user does not touch the electrical device 300, the CPU 110 determines that the user is not interested in the message.
<Seventh embodiment>

なお、第1〜第6の実施の形態のような、サーバ100や電気機器300の構造・機能・動作に限られず、たとえば各装置の役割が、他のサーバやデータベースなどの複数の装置に分担されてもよい。逆に、複数の装置の役割の一部または全部が1つの装置に集約されてもよい。   In addition, it is not restricted to the structure, function, and operation | movement of the server 100 or the electric equipment 300 like the 1st-6th embodiment, For example, the role of each apparatus is shared with several apparatuses, such as another server and a database. May be. Conversely, some or all of the roles of a plurality of devices may be integrated into one device.

たとえば、図22に示すように、第1から第6の実施の形態にかかる音声サービスサーバ100の役割の全部を、スタンドアローン型の電気機器300Aが有してもよい。あるいは電気機器300は、対話サービスの一部の更新データだけを音声サービスサーバ100から取得してもよいし、他のサーバ100B,100Cの情報を利用してもよい。また、第1から第7の実施の形態にかかる音声サービスサーバ100の一部だけを電気機器300が有するものであってもよい。
<その他の応用例>
For example, as shown in FIG. 22, the stand-alone electric device 300A may have all the roles of the voice service server 100 according to the first to sixth embodiments. Alternatively, the electric device 300 may acquire only a part of update data of the interactive service from the voice service server 100, or may use information of the other servers 100B and 100C. Moreover, the electric device 300 may have only a part of the voice service server 100 according to the first to seventh embodiments.
<Other application examples>

本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体(あるいはメモリ)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。   It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium (or memory) storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores it in the storage medium. The effect of the present invention can also be enjoyed by reading and executing the program code.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written to another storage medium provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU of the function expansion board or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 :ネットワークシステム
100 :音声サービスサーバ
100B :情報提供サーバ
100C :情報提供サーバ
110 :CPU
110A :対話シナリオ選択部
110B :対話シナリオ実行処理部
110C :連想シナリオ検索部
120 :メモリ
121 :テーマテーブル
122 :対話シナリオデータベース
122B :対話シナリオデータベース
123 :ユーザ反応テーブル
140 :操作部
160 :通信インターフェイス
300 :電気機器
300A :ロボット
310 :CPU
320 :メモリ
330 :ディスプレイ
330A :ライト
330B :ライト
340 :操作部
350 :カメラ
360 :通信インターフェイス
370 :スピーカ
380 :マイク
390 :機器駆動部
1: Network system 100: Voice service server 100B: Information providing server 100C: Information providing server 110: CPU
110A: Dialog scenario selection unit 110B: Dialog scenario execution processing unit 110C: Association scenario search unit 120: Memory 121: Theme table 122: Dialog scenario database 122B: Dialog scenario database 123: User reaction table 140: Operation unit 160: Communication interface 300 : Electric equipment 300A: Robot 310: CPU
320: Memory 330: Display 330A: Light 330B: Light 340: Operation unit 350: Camera 360: Communication interface 370: Speaker 380: Microphone 390: Device driving unit

Claims (9)

スピーカとマイクとを有する端末と通信するための通信インターフェイスと、
複数種類のメッセージ情報を記憶するメモリと、
前記通信インターフェイスを介して、前記端末にユーザとのメッセージのやり取りを実行させ、前記メッセージのやり取りが終了すると判断されると、前記端末に別の種類のメッセージの出力を開始させるためのプロセッサと、を備えるサーバ。
A communication interface for communicating with a terminal having a speaker and a microphone;
A memory for storing multiple types of message information;
A processor for causing the terminal to perform message exchange with a user via the communication interface and causing the terminal to start outputting another type of message when it is determined that the message exchange is completed; A server comprising
スピーカとマイクとを有する端末と通信するための通信インターフェイスと、
複数種類のメッセージ情報を記憶するメモリと、
前記通信インターフェイスを介して、前記端末にユーザとのメッセージのやり取りを実行させ、前記メッセージのやり取りが所定時間以上停止すると、前記端末に別の種類のメッセージの出力を開始させるためのプロセッサと、を備えるサーバ。
A communication interface for communicating with a terminal having a speaker and a microphone;
A memory for storing multiple types of message information;
A processor for causing the terminal to exchange messages with a user via the communication interface, and causing the terminal to start outputting another type of message when the message exchange is stopped for a predetermined time or more; Server to provide.
前記プロセッサは、ユーザとのメッセージのやり取りに関する所定の条件が満たされると、前記通信インターフェイスを介して前記端末に広告情報を出力させる、請求項1または2に記載のサーバ。   The server according to claim 1 or 2, wherein the processor causes the terminal to output advertisement information via the communication interface when a predetermined condition regarding message exchange with a user is satisfied. 前記プロセッサは、ユーザ毎の第1の時間帯に基づいて前記広告情報を出力する、請求項3に記載のサーバ。   The server according to claim 3, wherein the processor outputs the advertisement information based on a first time zone for each user. 前記プロセッサは、ユーザ毎の第1の時間帯とそれ以外の時間帯とで、前記端末に別の種類のメッセージの出力を開始させるための条件を異ならせる、請求項1から4のいずれか1項に記載のサーバ。   5. The processor according to claim 1, wherein the processor changes a condition for causing the terminal to start outputting another type of message in a first time zone and a time zone other than that for each user. Server as described in the section. 前記プロセッサは、過去の前記ユーザとのメッセージのやり取りに基づいて、出力されるべき前記別の種類のメッセージを変化させる、請求項1から5のいずれか1項に記載のサーバ。   The server according to claim 1, wherein the processor changes the another type of message to be output based on a message exchange with the user in the past. 通信インターフェイスと、メモリと、プロセッサとを含むサーバにおける情報処理方法であって、
前記プロセッサが、前記通信インターフェイスを介して、前記端末にユーザとのメッセージのやり取りを実行させるステップと、
前記プロセッサが、前記メッセージのやり取りが終了すると判断された際または前記メッセージのやり取りが所定時間以上停止した際に、前記端末に別の種類のメッセージの出力を開始させるステップと、を備える情報処理方法。
An information processing method in a server including a communication interface, a memory, and a processor,
The processor causing the terminal to exchange messages with a user via the communication interface;
An information processing method comprising: causing the terminal to start outputting another type of message when the processor determines that the message exchange ends or when the message exchange stops for a predetermined time or longer. .
メッセージを出力するためのスピーカとユーザからのメッセージを取得するマイクとを有する端末と、
前記端末にユーザとのメッセージのやり取りを実行させ、前記メッセージのやり取りが終了すると判断された際または前記メッセージのやり取りが所定時間以上停止した際に、前記端末に別の種類のメッセージの出力を開始させるサーバと、を備えるネットワークシステム。
A terminal having a speaker for outputting a message and a microphone for obtaining a message from the user;
Allow the terminal to exchange messages with the user and start outputting another type of message to the terminal when it is determined that the exchange of messages has ended or when the exchange of messages has stopped for a predetermined time or longer A network system.
スピーカと、
マイクと、
前記スピーカにメッセージを出力させ、前記マイクを介して取得した音声に基づいて前記メッセージのやり取りが終了すると判断された際または前記メッセージのやり取りが所定時間以上停止した際に、前記スピーカに別の種類のメッセージの出力を開始させるためのプロセッサと、を備える端末。
Speakers,
With a microphone,
When the message is output to the speaker and the message exchange is determined to end based on the voice acquired through the microphone, or when the message exchange is stopped for a predetermined time or longer, another type of message is sent to the speaker. And a processor for starting output of the message.
JP2016248983A 2016-12-22 2016-12-22 Servers, information processing methods, network systems, and terminals Active JP6817056B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016248983A JP6817056B2 (en) 2016-12-22 2016-12-22 Servers, information processing methods, network systems, and terminals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016248983A JP6817056B2 (en) 2016-12-22 2016-12-22 Servers, information processing methods, network systems, and terminals

Publications (2)

Publication Number Publication Date
JP2018106224A true JP2018106224A (en) 2018-07-05
JP6817056B2 JP6817056B2 (en) 2021-01-20

Family

ID=62784634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016248983A Active JP6817056B2 (en) 2016-12-22 2016-12-22 Servers, information processing methods, network systems, and terminals

Country Status (1)

Country Link
JP (1) JP6817056B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297626A (en) * 2001-03-30 2002-10-11 Just Syst Corp Device, program, and method for presenting information
JP2003196462A (en) * 2001-12-28 2003-07-11 Toshiba Corp Interactive data collection system
JP2014199323A (en) * 2013-03-29 2014-10-23 富士通株式会社 Voice interactive device and interaction control method
JP2015152868A (en) * 2014-02-18 2015-08-24 シャープ株式会社 information processing apparatus
JP2015219583A (en) * 2014-05-14 2015-12-07 日本電信電話株式会社 Topic determination device, utterance device, method, and program
JP2016177443A (en) * 2015-03-19 2016-10-06 ヤフー株式会社 Information processing device and method
JP2016212499A (en) * 2015-04-30 2016-12-15 Kddi株式会社 Dialogue pattern automatic creation device, method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297626A (en) * 2001-03-30 2002-10-11 Just Syst Corp Device, program, and method for presenting information
JP2003196462A (en) * 2001-12-28 2003-07-11 Toshiba Corp Interactive data collection system
JP2014199323A (en) * 2013-03-29 2014-10-23 富士通株式会社 Voice interactive device and interaction control method
JP2015152868A (en) * 2014-02-18 2015-08-24 シャープ株式会社 information processing apparatus
JP2015219583A (en) * 2014-05-14 2015-12-07 日本電信電話株式会社 Topic determination device, utterance device, method, and program
JP2016177443A (en) * 2015-03-19 2016-10-06 ヤフー株式会社 Information processing device and method
JP2016212499A (en) * 2015-04-30 2016-12-15 Kddi株式会社 Dialogue pattern automatic creation device, method and program

Also Published As

Publication number Publication date
JP6817056B2 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
US11373196B2 (en) Method and system for viral marketing within a virtual world
WO2017068817A1 (en) Information processing system and information processing method
WO2019165877A1 (en) Message pushing method, apparatus and device and storage medium
CN108132805A (en) Voice interactive method, device and computer readable storage medium
US8725117B2 (en) Optimizing operation of a radio program
WO2012055315A1 (en) System and method for providing and managing interactive services
JP6117021B2 (en) Conversation processing apparatus, control method, control program, and recording medium
JP2011511346A (en) Method, mobile electronic device, system and computer program for automatically creating a social networking service (SNS)
CN112732340B (en) Man-machine conversation processing method and device
CN109364477A (en) Play Mah-Jong the method and device of game based on voice control
WO2019040197A1 (en) Network-based learning models for natural language processing
CN109903755B (en) Voice interaction method and device, storage medium and air conditioner
JP2017215639A (en) Network system, voice output method, server, and electric apparatus
WO2018168007A1 (en) Server, information processing method, network system, and terminal
WO2019165683A1 (en) Summoning method and summoning system
CN105897854A (en) Mobile terminal alarm clock response method, device and system
CN115409585B (en) Information recommendation method based on voice interaction system and related device
JP6817056B2 (en) Servers, information processing methods, network systems, and terminals
CN111161734A (en) Voice interaction method and device based on designated scene
WO2018116531A1 (en) Server, information processing method, network system, and terminal
CN114449301B (en) Item sending method, item sending device, electronic equipment and computer-readable storage medium
CN111312244B (en) Voice interaction system and method for sand table
JP7053693B2 (en) How to end voice skills, devices, devices and storage media
JP6351987B2 (en) Speech control device, speech device, speech control system, speech control method, speech device control method, and control program
JP6070584B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201224

R150 Certificate of patent or registration of utility model

Ref document number: 6817056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150