JP2016045758A - Network system, voice output device, server, voice output method, and voice output program - Google Patents

Network system, voice output device, server, voice output method, and voice output program Download PDF

Info

Publication number
JP2016045758A
JP2016045758A JP2014170291A JP2014170291A JP2016045758A JP 2016045758 A JP2016045758 A JP 2016045758A JP 2014170291 A JP2014170291 A JP 2014170291A JP 2014170291 A JP2014170291 A JP 2014170291A JP 2016045758 A JP2016045758 A JP 2016045758A
Authority
JP
Japan
Prior art keywords
output device
audio output
server
audio
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014170291A
Other languages
Japanese (ja)
Inventor
善久 脇
Yoshihisa Waki
善久 脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014170291A priority Critical patent/JP2016045758A/en
Publication of JP2016045758A publication Critical patent/JP2016045758A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a network system, voice output device, server, voice output method, and voice output program that can let the voice output device output messages more freely than before.SOLUTION: A network system 1 comprises a voice output device 200, and a server 100 capable of communicating with the voice output device 200 via the Internet. The server 100 transmits voice data corresponding to a TV program to the voice output device 200.SELECTED DRAWING: Figure 6

Description

本発明は、スピーカを有する音声出力装置に音声を出力させるための技術に関し、特にテレビジョン放送の内容に合わせて音声出力装置に音声を出力させるための技術に関する。   The present invention relates to a technique for outputting sound to a sound output apparatus having a speaker, and more particularly to a technique for causing a sound output apparatus to output sound in accordance with the contents of a television broadcast.

従来から、スピーカを有する音声出力装置に音声を出力させるための技術が知られている。   2. Description of the Related Art Conventionally, a technique for outputting audio to an audio output device having a speaker is known.

たとえば、特開2002−77073号公報(特許文献1)には、放送システム、受信設備及び外部装置が開示されている。特開2002−77073号公報(特許文献1)によると、放送システムは、放送番組データと、番組の内容に関連したプログラムデータを、放送送出機器を用いて局から衛星経由で、各需要家に配信する。放送番組データは、需要家のチューナから表示用端末に転送され、本放送部に放送番組が表示される。プログラムデータは、チューナから表示用端末と外部装置に転送され、データ放送部にデータ放送が表示され、外部装置は番組の内容に関連したプログラムを格納する。   For example, Japanese Unexamined Patent Application Publication No. 2002-77073 (Patent Document 1) discloses a broadcasting system, a reception facility, and an external device. According to Japanese Patent Laid-Open No. 2002-77073 (Patent Document 1), a broadcast system sends broadcast program data and program data related to the contents of the program to each customer via a satellite from a station using a broadcast transmission device. To deliver. The broadcast program data is transferred from the customer's tuner to the display terminal, and the broadcast program is displayed on the main broadcast unit. The program data is transferred from the tuner to the display terminal and the external device, the data broadcast is displayed on the data broadcasting unit, and the external device stores a program related to the contents of the program.

また、特開2002−118828号公報(特許文献2)には、動作端末およびその制御方法が開示されている。特開2002−118828号公報(特許文献2)によると、視聴者は、データ放送用データおよびテレビ信号を放送センターから受信し、テレビ受像機によってテレビ番組画像を見る。視聴者がSTBを操作してSTB内の入力手段に情報を入力した場合には、STB内の制御手段は、この入力情報を動作端末の制御データとして取り込む。制御手段は、放送センターから受信した動作端末制御データおよび入力手段から入力した動作端末制御データに基づき、動作端末の動作を制御する。この制御により、動作端末は、受信したデジタルテレビ放送のデータに加え、視聴者から入力した情報を基に、放送番組の内容に連動する動作をする。   Japanese Unexamined Patent Application Publication No. 2002-118828 (Patent Document 2) discloses an operation terminal and a control method thereof. According to Japanese Patent Laid-Open No. 2002-118828 (Patent Document 2), a viewer receives data broadcasting data and a television signal from a broadcasting center, and views a television program image with a television receiver. When the viewer operates the STB and inputs information to the input means in the STB, the control means in the STB captures this input information as control data for the operating terminal. The control means controls the operation of the operation terminal based on the operation terminal control data received from the broadcasting center and the operation terminal control data input from the input means. By this control, the operation terminal operates in conjunction with the content of the broadcast program based on the information input from the viewer in addition to the received digital television broadcast data.

また、特開2003−88686号公報(特許文献3)には、相槌ロボットが開示されている。特開2003−88686号公報(特許文献3)によると、第1入力部と、受話部と、音声認識部と、記憶部と制御部とを備え、前記第1入力部が操作され、利用者の音声が前記受話部に入力されると、前記音声認識部は前記音声を音声認識し、前記制御部は前記記憶部に対し、音声認識された登録データを記憶させる。また、頭部を駆動する駆動部を設け、相槌音声が出力されると共に、前記制御部は前記駆動部を駆動させ、前記頭部をして、相槌動作をさせる。   Japanese Patent Laid-Open No. 2003-88686 (Patent Document 3) discloses a compatible robot. According to Japanese Patent Laying-Open No. 2003-88686 (Patent Document 3), a first input unit, a receiving unit, a voice recognition unit, a storage unit, and a control unit are provided, the first input unit is operated, and a user When the voice is input to the receiver, the voice recognition unit recognizes the voice, and the control unit stores the voice-recognized registration data in the storage unit. In addition, a driving unit for driving the head is provided, and a companion sound is output, and the control unit drives the driving unit to cause the head to perform a reciprocal operation.

特開2002−77073号公報JP 2002-77073 A 特開2002−118828号公報JP 2002-118828 A 特開2003−88686号公報JP 2003-88686 A

しかしながら、従来は放送局以外が自由に音声出力装置にメッセージを出力させることができなかった。そこで、本発明の目的は、従来よりも自由に音声出力装置にメッセージを出力させることができるネットワークシステム、音声出力装置、サーバ、音声出力方法、および音声出力プログラムを提供することにある。   However, conventionally, a message other than the broadcasting station cannot freely output a message to the audio output device. Accordingly, an object of the present invention is to provide a network system, an audio output device, a server, an audio output method, and an audio output program that can output a message to an audio output device more freely than before.

この発明のある態様に従うと、音声出力装置と、インターネットを介して音声出力装置と通信可能なサーバとを備えるネットワークシステムが提供される。サーバは、TV番組に対応する音声データを音声出力装置に送信する。   According to an aspect of the present invention, a network system is provided that includes an audio output device and a server that can communicate with the audio output device via the Internet. The server transmits audio data corresponding to the TV program to the audio output device.

好ましくは、音声出力装置は、テレビのチャンネルを検知して、当該チャンネルをサーバに送信する。サーバは、チャンネルに基づいてTV番組に対応する音声データを音声出力装置に送信する。   Preferably, the audio output device detects a television channel and transmits the channel to the server. The server transmits audio data corresponding to the TV program to the audio output device based on the channel.

好ましくは、音声出力装置は、動物の形状を有する。音声出力装置がユーザから受け付けた扱い方に関するデータをサーバに送信する。サーバは、データに基づいて、音声データを音声出力装置に送信する。   Preferably, the audio output device has an animal shape. The voice output device transmits data regarding the handling method received from the user to the server. The server transmits audio data to the audio output device based on the data.

好ましくは、サーバは、TV番組に対応する動作データも音声出力装置に送信する。   Preferably, the server also transmits operation data corresponding to the TV program to the audio output device.

好ましくは、サーバは、他の端末からテキストを受信して、TV番組に対応する音声データとしてテキストに対応する音声データを音声出力装置に送信する。   Preferably, the server receives text from another terminal and transmits audio data corresponding to the text to the audio output device as audio data corresponding to the TV program.

好ましくは、サーバは、手話のための動作データを音声出力装置に送信する。   Preferably, the server transmits operation data for sign language to the voice output device.

好ましくは、サーバは、テキストの入力を受け付けて、テキストに対応する手話のための動作データを音声出力装置に送信する。   Preferably, the server receives input of text and transmits operation data for sign language corresponding to the text to the voice output device.

この発明の別の態様に従うと、音声出力装置と、ネットワークを介して音声出力装置と通信可能なサーバと、を含むネットワークシステムにおける音声出力方法が提供される。音声出力方法は、サーバが、TV番組に対応する音声データを音声出力装置に送信するステップと、音声出力装置が、音声データに基づいて音声を出力するステップとを備える。   According to another aspect of the present invention, an audio output method in a network system including an audio output device and a server capable of communicating with the audio output device via a network is provided. The audio output method includes a step in which a server transmits audio data corresponding to a TV program to an audio output device, and an audio output device outputs audio based on the audio data.

この発明の別の態様に従うと、ネットワークを介して音声出力装置と通信するための通信インターフェイスと、プロセッサとを備えるサーバが提供される。プロセッサは、通信インターフェイスを介してTV番組に対応する音声データを音声出力装置に送信する。   According to another aspect of the present invention, a server is provided that includes a communication interface for communicating with an audio output device via a network, and a processor. The processor transmits audio data corresponding to the TV program to the audio output device via the communication interface.

好ましくは、プロセッサは、通信インターフェイスを介して、他の端末からテキストを受信し、通信インターフェイスを介して、音声出力装置にテキストに対応する音声データを送信する。   Preferably, the processor receives text from another terminal via the communication interface, and transmits voice data corresponding to the text to the voice output device via the communication interface.

この発明の別の態様に従うと、ネットワークを介してサーバと通信するための通信インターフェイスと、スピーカと、プロセッサとを備える音声出力装置が提供される。プロセッサは、通信インターフェイスを利用することによって、インターネットを介して、TV番組に対応する音声データをサーバから受信し、当該音声データに基づいてスピーカに音声を出力させる。   According to another aspect of the present invention, an audio output device including a communication interface for communicating with a server via a network, a speaker, and a processor is provided. The processor receives the audio data corresponding to the TV program from the server via the Internet by using the communication interface, and causes the speaker to output the audio based on the audio data.

好ましくは、音声出力装置は、IR受信部をさらに備える。プロセッサは、IR受信部を介してチャンネル命令を受け付け、通信インターフェイスを利用することによってチャンネル命令をサーバに送信する。   Preferably, the audio output device further includes an IR receiver. The processor receives the channel command via the IR receiver and transmits the channel command to the server by using the communication interface.

好ましくは、音声出力装置は、部位駆動部をさらに備える。プロセッサは、通信インターフェイスを利用することによって、インターネットを介して、TV番組に対応する動作データをサーバから受信し、当該動作データに基づいて部位駆動部を制御する。   Preferably, the audio output device further includes a part driving unit. The processor receives operation data corresponding to the TV program from the server via the Internet by using the communication interface, and controls the part driving unit based on the operation data.

この発明の別の態様に従うと、ネットワークを介してサーバと通信するための通信インターフェイスと、スピーカと、プロセッサとを含む音声出力装置における音声出力方法が提供される。音声出力方法は、プロセッサが、通信インターフェイスを利用することによって、インターネットを介して、サーバからTV番組に対応する音声データを受信するステップと、プロセッサが、音声データに基づいてスピーカに音声を出力させるステップとを備える。   According to another aspect of the present invention, an audio output method in an audio output device including a communication interface for communicating with a server via a network, a speaker, and a processor is provided. In the sound output method, the processor receives the sound data corresponding to the TV program from the server via the Internet by using the communication interface, and the processor outputs the sound to the speaker based on the sound data. Steps.

この発明の別の態様に従うと、ネットワークを介してサーバと通信するための通信インターフェイスと、スピーカと、プロセッサとを含む音声出力装置のための音声出力プログラムが提供される。音声出力プログラムは、通信インターフェイスを利用することによって、インターネットを介して、サーバからTV番組に対応する音声データを受信するステップと、音声データに基づいてスピーカに音声を出力させるステップとをプロセッサに実行させる。   According to another aspect of the present invention, an audio output program for an audio output device is provided that includes a communication interface for communicating with a server via a network, a speaker, and a processor. The audio output program executes a step of receiving audio data corresponding to a TV program from a server via the Internet by using a communication interface, and causing a speaker to output audio based on the audio data. Let

以上のように、この発明によれば、従来よりも自由に音声出力装置にメッセージを出力させることができるネットワークシステム、音声出力装置、サーバ、音声出力方法、および音声出力プログラムが提供される。   As described above, according to the present invention, there are provided a network system, an audio output device, a server, an audio output method, and an audio output program that can output a message to an audio output device more freely than before.

第1の実施の形態にかかるネットワークシステム1の全体構成と動作概要を示すイメージ図である。It is an image figure which shows the whole structure and operation | movement outline | summary of the network system 1 concerning 1st Embodiment. 第1の実施の形態にかかるサーバ100のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the server 100 concerning 1st Embodiment. 第1の実施の形態にかかるメッセージデータベース121のデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the message database 121 concerning 1st Embodiment. 第1の実施の形態にかかる音声出力装置200のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the audio | voice output apparatus 200 concerning 1st Embodiment. 第1の実施の形態にかかるテレビ300のハードウェア構成を表わすブロック図である。FIG. 2 is a block diagram illustrating a hardware configuration of a television 300 according to the first embodiment. 第1の実施の形態にかかるネットワークシステム1の音声出力処理を示すフローチャートである。It is a flowchart which shows the audio | voice output process of the network system 1 concerning 1st Embodiment. 第2の実施の形態にかかるネットワークシステム1の全体構成と動作概要を示すイメージ図である。It is an image figure which shows the whole structure and operation | movement outline | summary of the network system 1 concerning 2nd Embodiment. 第2の実施の形態にかかるスマートフォン700のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the smart phone 700 concerning 2nd Embodiment. 第2の実施の形態にかかるネットワークシステム1の音声出力処理を示すフローチャートである。It is a flowchart which shows the audio | voice output process of the network system 1 concerning 2nd Embodiment. 第3の実施の形態にかかるネットワークシステム1の全体構成と動作概要を示すイメージ図である。It is an image figure which shows the whole structure and the operation | movement outline | summary of the network system 1 concerning 3rd Embodiment. 第3の実施の形態にかかる音声出力装置200Bのハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the audio | voice output apparatus 200B concerning 3rd Embodiment. 第3の実施の形態にかかるネットワークシステム1の音声出力処理を示すフローチャートである。It is a flowchart which shows the audio | voice output process of the network system 1 concerning 3rd Embodiment. 第4の実施の形態にかかるネットワークシステム1の全体構成と動作概要を示すイメージ図である。It is an image figure which shows the whole structure and operation | movement outline | summary of the network system 1 concerning 4th Embodiment. 第4の実施の形態にかかるネットワークシステム1の音声出力処理を示すフローチャートである。It is a flowchart which shows the audio | voice output process of the network system 1 concerning 4th Embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
<ネットワークシステムの全体構成>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<First Embodiment>
<Overall configuration of network system>

まず、図1を参照して、本実施の形態にかかるネットワークシステム1の全体構成について説明する。なお、図1は、本実施の形態にかかるネットワークシステム1の全体構成と動作概要を示すイメージ図である。   First, the overall configuration of the network system 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is an image diagram showing an overall configuration and an outline of operation of the network system 1 according to the present embodiment.

ネットワークシステム1は、主な構成として、サーバ100と、音声出力装置200と、テレビ300とを含む。なお、ネットワークシステム1は、音声出力装置200をインターネットへ接続するためのルータ500を含んでもよい。また、本実施の形態においては、ネットワークシステム1は、テレビ300のチャンネルや音量を変更するためのリモートコントローラ400を含む。   The network system 1 includes a server 100, an audio output device 200, and a television 300 as main components. The network system 1 may include a router 500 for connecting the audio output device 200 to the Internet. In the present embodiment, network system 1 includes remote controller 400 for changing the channel and volume of television 300.

なお、以下では、音声出力装置200として、スピーカを有する熊のぬいぐるみについて説明する。ただし、音声出力装置200は、スピーカを有する他の動物の形状を有するものであってもよい。さらに、音声出力装置200は、ぬいぐるみに限らず、たとえば、エアコン、冷蔵庫、空気清浄器、加湿器、除湿器、自走式掃除機、照明、時計などの家電、テレビ、ゲーム機、音楽プレーヤー、ハードディスクレコーダ、パーソナルコンピュータなどのAV(オーディオ・ビジュアル)機器、太陽光発電機、インターホン、給湯器などの住宅設備、などのスピーカを有する通信装置であってもよい。
<ネットワークシステムの動作概要>
In the following, a bear stuffed animal having a speaker will be described as the audio output device 200. However, the audio output device 200 may have a shape of another animal having a speaker. Furthermore, the audio output device 200 is not limited to a stuffed animal, but includes, for example, air conditioners, refrigerators, air purifiers, humidifiers, dehumidifiers, self-propelled cleaners, lighting, clocks, and other home appliances, televisions, game machines, music players, It may be a communication device having a speaker, such as a hard disk recorder, AV (audio / visual) equipment such as a personal computer, a solar power generator, an interphone, a housing facility such as a water heater.
<Overview of network system operation>

次に、図1を参照して、本実施の形態にかかるネットワークシステム1の動作概要について説明する。まず、ユーザが、リモートコントローラ400を使ってテレビ300をONする。このとき、音声出力装置200は、リモコンからのON信号を検知して、テレビ300がONされたことを検知する。本実施の形態においては、音声出力装置200は、リモコンのON信号を検知すると、インターネットを介してサーバ100に「あいづちサービス利用開始」を示すデータを送信する。   Next, an outline of the operation of the network system 1 according to the present embodiment will be described with reference to FIG. First, the user turns on the television 300 using the remote controller 400. At this time, the audio output device 200 detects an ON signal from the remote controller and detects that the television 300 is turned on. In the present embodiment, when the audio output device 200 detects an ON signal from the remote controller, the audio output device 200 transmits data indicating “start of service use” to the server 100 via the Internet.

次に、ユーザが、リモートコントローラ400を使ってテレビ300のチャンネルを変更する。このとき、音声出力装置200は、リモコン信号を検知して、テレビ300のチャンネルを取得する。音声出力装置200は、ルータ500とインターネットとを介して、テレビ300のチャンネルをサーバ100に送信する。   Next, the user changes the channel of the television 300 using the remote controller 400. At this time, the audio output device 200 detects the remote control signal and acquires the channel of the television 300. The audio output device 200 transmits the channel of the television 300 to the server 100 via the router 500 and the Internet.

なお、本実施の形態においては、音声出力装置200は、マイクを搭載する。音声出力装置200は、番組のザッピング状況を把握しており、たとえば、所定時間チャンネルの変更がない場合に、当該チャンネルを示すデータをサーバ100に送信する。   In this embodiment, audio output device 200 is equipped with a microphone. The audio output device 200 knows the zapping status of the program. For example, when there is no channel change for a predetermined time, the audio output device 200 transmits data indicating the channel to the server 100.

その後、サーバ100は、管理者からチャンネルの番組で表示される映像、音声、出演者の言動などに合わせたテキストの入力を受け付ける。あるいは、サーバ100には、予めチャンネルの番組で表示される映像、音声、出演者の言動などに合わせたテキストが格納されている。   Thereafter, the server 100 accepts input of texts in accordance with the video, audio, and performers' behaviors displayed in the channel program from the administrator. Alternatively, the server 100 stores in advance text that is displayed in a channel program, audio, texts of performers, and the like.

サーバ100は、入力されたテキストから音声データを作成する。同時に、サーバ100は、入力されたテキストから、当該テキストに対応する音声出力装置200の動作も作成する。サーバ100は、音声データと動作命令とを音声出力装置200に送信する。   The server 100 creates voice data from the input text. At the same time, the server 100 also creates an operation of the audio output device 200 corresponding to the text from the input text. The server 100 transmits the audio data and the operation command to the audio output device 200.

音声出力装置200は、チャンネルの番組で表示される映像、音声、出演者の言動などに合わせたメッセージをスピーカから出力し、当該メッセージにふさわしい動作を実行する。   The audio output device 200 outputs a message in accordance with the video, audio, and performer's behavior displayed in the channel program from the speaker, and executes an operation suitable for the message.

より詳細には、本実施の形態においては、音声出力装置200は、ユーザから撫でられたり話しかけられたりしたときは、機嫌が良いモードになる。逆に、ユーザから叩かれたり無視されたりしたときは、機嫌が悪いモードになる。音声出力装置200は、自分の機嫌に関するモードをサーバ100に送信する。   More specifically, in the present embodiment, the voice output device 200 is in a good mood mode when it is stroked or spoken by the user. On the other hand, when the user is hit or ignored, the mode becomes bad. The audio output device 200 transmits a mode related to its own mood to the server 100.

サーバ100は、入力されたテキストのうち、音声出力装置200から受信した機嫌のモードに対応するテキストの音声データを作成する。同時に、サーバ100は、音声出力装置200から受信した機嫌のモードに対応するテキストに対応する音声出力装置200の動作も作成する。サーバ100は、音声データと動作命令とを音声出力装置200に送信する。   The server 100 creates audio data of text corresponding to the mood mode received from the audio output device 200 among the input text. At the same time, the server 100 also creates an operation of the voice output device 200 corresponding to the text corresponding to the mood mode received from the voice output device 200. The server 100 transmits the audio data and the operation command to the audio output device 200.

これによって、音声出力装置200は、テレビ300で表示される映像、音声、出演者の言動などと、音声出力装置200の機嫌と、に合わせたメッセージをスピーカから出力し、当該メッセージにふさわしい動作を実行する。   As a result, the audio output device 200 outputs a message that matches the video, audio, and performer's behavior displayed on the television 300 and the mood of the audio output device 200 from the speaker, and performs an operation suitable for the message. Run.

最後に、ユーザが、リモートコントローラ400を使ってテレビ300をOFFする。このとき、音声出力装置200は、リモコンからのOFF信号を検知して、テレビ300がOFFされたことを検知する。本実施の形態においては、音声出力装置200は、リモコンのOFF信号を検知すると、インターネットを介してサーバ100に「あいづちサービス利用終了」を示すデータを送信する。   Finally, the user turns off the television 300 using the remote controller 400. At this time, the audio output device 200 detects an OFF signal from the remote controller and detects that the television 300 is turned off. In the present embodiment, when detecting the remote control OFF signal, the audio output device 200 transmits data indicating “end of service use” to the server 100 via the Internet.

このように、本実施の形態にかかるネットワークシステム1は、インターネットを介して音声出力装置200にメッセージや動作命令を入力することができる。すなわち、本実施の形態にかかるネットワークシステム1は、従来よりも自由に音声出力装置にメッセージを出力させることができる。   As described above, the network system 1 according to the present embodiment can input a message and an operation command to the audio output device 200 via the Internet. That is, the network system 1 according to the present embodiment can output a message to the audio output device more freely than in the past.

以下では、このような機能を実現するためのネットワークシステム1について詳細に説明する。
<サーバ100のハードウェア構成>
Hereinafter, the network system 1 for realizing such a function will be described in detail.
<Hardware Configuration of Server 100>

まず、ネットワークシステム1を構成するサーバ100のハードウェア構成の一態様について説明する。なお、図2は、本実施の形態にかかるサーバ100のハードウェア構成を表わすブロック図である。   First, an aspect of the hardware configuration of the server 100 configuring the network system 1 will be described. FIG. 2 is a block diagram showing a hardware configuration of server 100 according to the present embodiment.

図2を参照して、サーバ100は、主たる構成要素として、プロセッサ110と、メモリ120と、各種ライト130と、各種スイッチ140と、通信インターフェイス160とを含む。   Referring to FIG. 2, server 100 includes a processor 110, a memory 120, various lights 130, various switches 140, and a communication interface 160 as main components.

プロセッサ110は、メモリ120あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、サーバ100の各部を制御する。すなわち、プロセッサ110は、メモリ120に格納されているプログラムを実行することによって、後述する各種の処理を実行する。   The processor 110 controls each unit of the server 100 by executing a program stored in the memory 120 or an external storage medium. That is, the processor 110 executes various processes described later by executing a program stored in the memory 120.

メモリ120は、各種のRAM(Random Access Memory)、各種のROM(Read-Only Memory)、フラッシュメモリーなどによって実現される。なお、メモリ120は、インターフェイスを介して利用される、USB(Universal Serial Bus)(登録商標)メモリ、CD(Compact Disc)、DVD(Digital Versatile Disk)、メモリカード、ハードディスク、IC(Integrated Circuit)カード、光カード、マスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの記憶媒体などによっても実現される。   The memory 120 is realized by various types of RAM (Random Access Memory), various types of ROM (Read-Only Memory), flash memory, and the like. The memory 120 is a USB (Universal Serial Bus) (registered trademark) memory, a CD (Compact Disc), a DVD (Digital Versatile Disk), a memory card, a hard disk, an IC (Integrated Circuit) card, which is used via an interface. It is also realized by a storage medium such as an optical card, mask ROM, EPROM (Erasable Programmable Read Only Memory), or EEPROM (Electronically Erasable Programmable Read Only Memory).

メモリ120は、プロセッサ110によって実行される音声出力プログラムや他のプログラムや、プロセッサ110によるプログラムの実行により生成されたデータ、入力されたデータ、音声出力装置200から受信したデータを記憶する。特に、本実施の形態においては、メモリ120は、メッセージデータベース121を格納する。   The memory 120 stores an audio output program executed by the processor 110, other programs, data generated by the execution of the program by the processor 110, input data, and data received from the audio output device 200. In particular, in the present embodiment, the memory 120 stores a message database 121.

ここで、メッセージデータベース121について説明する。図3は、本実施の形態にかかるメッセージデータベース121のデータ構造を示すイメージ図である。   Here, the message database 121 will be described. FIG. 3 is an image diagram showing a data structure of the message database 121 according to the present embodiment.

図3を参照して、メッセージデータベース121は、チャンネルと、番組名と、音声出力装置200のモードと、入力された時刻または出力すべき時刻と、音声メッセージの内容と、部位動作命令との対応関係を格納する。これにより、プロセッサ110は、メッセージデータベース121を参照することによって、テレビ300のチャンネルおよび番組に対応する、音声出力装置200が出力すべきメッセージや、音声出力装置200の動作内容を取得することができる。プロセッサ110は、通信インターフェイス160を介して、音声出力装置200にメッセージや動作命令を送信することができる。   Referring to FIG. 3, message database 121 corresponds to channels, program names, modes of audio output device 200, input times or times to be output, contents of audio messages, and part action commands. Store relationships. Thereby, the processor 110 can obtain the message to be output by the audio output device 200 and the operation content of the audio output device 200 corresponding to the channel and program of the television 300 by referring to the message database 121. . The processor 110 can transmit a message and an operation command to the audio output device 200 via the communication interface 160.

ただし、サーバ100とは別の装置が、メッセージデータベース121を格納してもよい。この場合は、サーバ100のプロセッサ110が、通信インターフェイス160を介して、メッセージデータベース121を参照可能に構成されている。   However, a device different from the server 100 may store the message database 121. In this case, the processor 110 of the server 100 is configured to be able to refer to the message database 121 via the communication interface 160.

図2に戻って、ライト130は、プロセッサ110からの信号によって点灯・点滅・消灯することによって、サーバ100の各種の状態を外部に伝える。   Returning to FIG. 2, the light 130 transmits various states of the server 100 to the outside by being turned on, blinking, and turned off by a signal from the processor 110.

スイッチ140は、管理者からの命令を受け付けて、当該命令をプロセッサ110に入力する。   The switch 140 receives an instruction from the administrator and inputs the instruction to the processor 110.

通信インターフェイス160は、プロセッサ110からのデータを、インターネット、キャリア網、ルータなどを介して音声出力装置200に送信する。通信インターフェイス160は、インターネット、キャリア網、ルータなどを介して音声出力装置200からのデータを受信して、プロセッサ110に受け渡す。
<音声出力装置200のハードウェア構成>
The communication interface 160 transmits data from the processor 110 to the audio output device 200 via the Internet, a carrier network, a router, or the like. The communication interface 160 receives data from the audio output device 200 via the Internet, a carrier network, a router, etc., and passes it to the processor 110.
<Hardware Configuration of Audio Output Device 200>

まず、本実施の形態にかかる音声出力装置200のハードウェア構成の一態様について説明する。なお、図4は、本実施の形態にかかる音声出力装置200のハードウェア構成を表わすブロック図である。   First, an aspect of the hardware configuration of the audio output device 200 according to the present embodiment will be described. FIG. 4 is a block diagram showing a hardware configuration of the audio output device 200 according to the present embodiment.

図4を参照して、音声出力装置200は、主たる構成要素として、プロセッサ210と、メモリ220と、接触センサ230と、音声認識部245、首駆動部272、腕駆動部274、脚駆動部276、ネットワーク通信部260、IR受信部265とを含む。   Referring to FIG. 4, the audio output device 200 includes a processor 210, a memory 220, a contact sensor 230, a voice recognition unit 245, a neck driving unit 272, an arm driving unit 274, and a leg driving unit 276 as main components. A network communication unit 260 and an IR receiving unit 265.

プロセッサ210は、メモリ220あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、音声出力装置200の各部を制御する。すなわち、プロセッサ210は、メモリ220に格納されているプログラムを実行することによって、後述する各種の処理を実行する。   The processor 210 controls each unit of the audio output device 200 by executing a program stored in the memory 220 or an external storage medium. That is, the processor 210 executes various processes to be described later by executing a program stored in the memory 220.

メモリ220の具体例は、サーバ100のメモリ120と同様であるため、ここでは説明を繰り返さない。   A specific example of the memory 220 is the same as the memory 120 of the server 100, and thus description thereof will not be repeated here.

メモリ220は、プロセッサ210によって実行される音声出力プログラムや他のプログラム、プロセッサ210によるプログラムの実行により生成されたデータ、入力されたデータ、サーバ100から受信したデータなどを記憶する。   The memory 220 stores an audio output program and other programs executed by the processor 210, data generated by executing the program by the processor 210, input data, data received from the server 100, and the like.

接触センサ230は、音声出力装置200の外面、たとえば頭部、背中、腹、腕、脚などに配置される。接触センサ230は、ユーザの手が音声出力装置200に触れた場合に、ON信号をプロセッサ210に入力する。これによって、プロセッサ210は、ユーザが動物型の音声出力装置200を撫でたことや叩いたことや触れていないことなどを検知することができる。本実施の形態においては、プロセッサ110は、検知結果に基づいて、たとえば音声出力装置200の機嫌のモードを切り替える。たとえば、プロセッサ110は、ユーザがたくさん音声出力装置200に触れている場合には、機嫌の良いモードに設定し、ユーザがあまり音声出力装置200に触れていない場合には、機嫌の悪いモードに設定する。   The contact sensor 230 is disposed on the outer surface of the audio output device 200, for example, the head, back, abdomen, arms, legs. The contact sensor 230 inputs an ON signal to the processor 210 when the user's hand touches the audio output device 200. Thus, the processor 210 can detect that the user has stroked, struck, or not touched the animal-type audio output device 200. In the present embodiment, processor 110 switches, for example, the mood mode of audio output device 200 based on the detection result. For example, when the user touches the sound output device 200 many times, the processor 110 sets the pleasant mode, and when the user does not touch the sound output device 200, the processor 110 sets the bad mode. To do.

音声認識部245は、マイク270を介してプロセッサ210に入力された音声データに基づいて、ユーザからのメッセージを取得する。   The voice recognition unit 245 acquires a message from the user based on voice data input to the processor 210 via the microphone 270.

首駆動部272は、動物型の音声出力装置200の頭部と胴体の間に配置される。首駆動部272は、プロセッサ210からの信号によって首を動かす。すなわち、胴体に対して、頭部の傾きを変更したり、頭部を回転させたりする。   The neck drive unit 272 is disposed between the head and the torso of the animal-type audio output device 200. The neck driving unit 272 moves the neck according to a signal from the processor 210. That is, the inclination of the head is changed with respect to the trunk, or the head is rotated.

腕駆動部274は2つあり、動物型の音声出力装置200の右腕と胴体の間、動物型の音声出力装置200の左腕と胴体の間に配置される。腕駆動部274は、プロセッサ210からの信号によって右腕と左腕とを動かす。すなわち、胴体に対して、右腕と左腕の傾きを変更したり、右腕と左腕を回転させたりする。   There are two arm driving units 274, which are arranged between the right arm and the trunk of the animal-type audio output device 200 and between the left arm and the trunk of the animal-type audio output device 200. The arm driving unit 274 moves the right arm and the left arm according to a signal from the processor 210. That is, the inclination of the right arm and the left arm is changed with respect to the trunk, and the right arm and the left arm are rotated.

脚駆動部276は2つあり、動物型の音声出力装置200の右脚と胴体部の間、動物型の音声出力装置200の左脚と胴体部の間に配置される。脚駆動部276は、プロセッサ210からの信号によって右脚と左脚とを動かす。すなわち、胴体部に対して、右脚と左脚の傾きを変更したり、右脚と左脚を回転させたりする。   There are two leg driving units 276, which are arranged between the right leg and the trunk of the animal-type audio output device 200 and between the left leg and the trunk of the animal-type audio output device 200. The leg driving unit 276 moves the right leg and the left leg in accordance with a signal from the processor 210. That is, the inclination of the right leg and the left leg is changed with respect to the body part, or the right leg and the left leg are rotated.

ネットワーク通信部260は、プロセッサ210からのデータ、たとえば、音声出力装置200の状態および音声出力装置200がユーザから受け付けた命令など、をアダプタ、ルータ、インターネットなどを介してサーバ100に送信する。たとえば、プロセッサ210は、ネットワーク通信部260を介して、あいづちサービス利用開始を示すデータ、テレビ300の現在のチャンネルを示すデータ、機嫌/不機嫌のモードを示すデータ、あいづちサービス利用終了を示すデータ、などをサーバ100に送信する。   The network communication unit 260 transmits data from the processor 210, for example, the state of the audio output device 200 and the command received by the audio output device 200 from the user to the server 100 via an adapter, a router, the Internet, and the like. For example, the processor 210, via the network communication unit 260, data indicating the start of use of the Aichi service, data indicating the current channel of the television 300, data indicating the mood / moody mode, data indicating the end of use of the Aichi service. , Etc. are transmitted to the server 100.

逆に、ネットワーク通信部260は、インターネット、ルータ、アダプタなどを介してサーバ100からのデータなどを受信してプロセッサ210に受け渡す。たとえば、プロセッサ210は、スピーカ280から出力すべき音声データと、首駆動部272と腕駆動部274と脚駆動部276とを動作させるための動作命令など、をサーバ100から受信する。   Conversely, the network communication unit 260 receives data from the server 100 via the Internet, a router, an adapter, etc., and passes it to the processor 210. For example, the processor 210 receives audio data to be output from the speaker 280, an operation command for operating the neck drive unit 272, the arm drive unit 274, and the leg drive unit 276 from the server 100.

IR受信部265は、リモートコントローラ400からのテレビ300へのリモコン信号を受信して、当該信号をプロセッサ210に受け渡す。たとえば、IR受信部265は、電源ON/OFFの信号、音量UP/DOWNの信号、チャンネル指定の信号を受け付けて、プロセッサ210に受け渡す。   The IR receiver 265 receives a remote control signal from the remote controller 400 to the television 300 and passes the signal to the processor 210. For example, the IR receiver 265 receives a power ON / OFF signal, a volume UP / DOWN signal, and a channel designation signal, and passes them to the processor 210.

マイク270は、ユーザからのメッセージ、すなわち音声の入力を受け付ける。マイク270は、音声信号をプロセッサ210に入力する。   The microphone 270 receives a message from the user, that is, an audio input. The microphone 270 inputs an audio signal to the processor 210.

スピーカ280は、プロセッサ210からの音声信号に基づいて、ユーザへのメッセージ、通話音声、音楽、動画などの様々な音声を出力する。
<テレビ300のハードウェア構成>
The speaker 280 outputs various sounds such as a message to the user, a call sound, music, and a moving image based on the sound signal from the processor 210.
<Hardware configuration of TV 300>

次に、本実施の形態にかかるテレビ300のハードウェア構成の一態様について説明する。なお、図5は、本実施の形態にかかるテレビ300のハードウェア構成を表わすブロック図である。   Next, an aspect of the hardware configuration of the television 300 according to this embodiment will be described. FIG. 5 is a block diagram showing a hardware configuration of television 300 according to the present embodiment.

図5を参照して、テレビ300は、主たる構成要素として、プロセッサ310と、メモリ320と、ディスプレイ330と、スイッチと340と、IR受信部365と、スピーカ380と、アンテナ用チューナ390とを含む。   Referring to FIG. 5, television 300 includes a processor 310, a memory 320, a display 330, a switch, 340, an IR receiver 365, a speaker 380, and an antenna tuner 390 as main components. .

プロセッサ310は、メモリ320あるいは外部の記憶媒体に記憶されているプログラムやその他のプログラムを実行することによって、テレビ300の各部を制御する。すなわち、プロセッサ310は、メモリ320に格納されているプログラムを実行することによって、各種の処理を実行する。   The processor 310 controls each unit of the television 300 by executing a program stored in the memory 320 or an external storage medium and other programs. That is, the processor 310 executes various processes by executing a program stored in the memory 320.

メモリ320の具体例は、サーバ100のメモリ120と同様であるため、ここでは説明を繰り返さない。   A specific example of the memory 320 is the same as that of the memory 120 of the server 100, and thus description thereof is not repeated here.

メモリ320は、プロセッサ310によって実行されるプログラムや他のプログラム、プロセッサ310によるプログラムの実行により生成されたデータ、スイッチ340やIR受信部365から入力されたデータなどを記憶する。   The memory 320 stores programs executed by the processor 310, other programs, data generated by execution of the programs by the processor 310, data input from the switch 340 and the IR receiver 365, and the like.

ディスプレイ330は、プロセッサ310からの信号に基づいて、文字や画像を出力する。   The display 330 outputs characters and images based on signals from the processor 310.

スイッチ340は、ユーザからの命令を受け付けて、当該命令をプロセッサ310に入力する。   The switch 340 receives a command from the user and inputs the command to the processor 310.

IR受信部365は、リモートコントローラ400からの信号を受信して、当該信号をプロセッサ310に受け渡す。   The IR receiver 365 receives a signal from the remote controller 400 and passes the signal to the processor 310.

スピーカ380は、プロセッサ210からの音声信号に基づいて、様々な音声を出力する。   The speaker 380 outputs various sounds based on the sound signal from the processor 210.

アンテナ用チューナ390は、放送局からのテレビ放送波を受信して、プロセッサ310に入力する。
<ネットワークシステム1における音声出力処理>
The antenna tuner 390 receives a television broadcast wave from a broadcast station and inputs it to the processor 310.
<Audio output processing in the network system 1>

次に、図6を参照しながら、本実施の形態にかかるネットワークシステム1の音声出力処理について説明する。なお、図6は、本実施の形態にかかるネットワークシステム1の音声出力処理を示すフローチャートである。   Next, an audio output process of the network system 1 according to the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing the audio output process of the network system 1 according to the present embodiment.

まず、テレビ300の電源がONされる。   First, the TV 300 is turned on.

そして、たとえば、ユーザが、音声出力装置200の頭をなでる(ステップS101)。これによって、音声出力装置200が、機嫌の良いモードに設定される。逆に、ユーザは、音声出力装置200を叩いたり、放っておいたりする(ステップS101)。これによって、音声出力装置200が、機嫌の悪いモードに設定される。   For example, the user strokes the head of the audio output device 200 (step S101). As a result, the sound output device 200 is set to a pleasant mode. Conversely, the user taps or leaves the audio output device 200 (step S101). As a result, the audio output device 200 is set to the unpleasant mode.

次に、ユーザがリモートコントローラ400を利用して、テレビ300のチャンネルを変更する(ステップS102)。テレビ300は、リモートコントローラ400からの命令に従って、チャンネルを変更する(ステップS104)。このとき、音声出力装置200のプロセッサ210も、IR受信部265を介してリモートコントローラ400からの信号を受信して、テレビ300のチャンネルを取得する(ステップS106)。   Next, the user uses the remote controller 400 to change the channel of the television 300 (step S102). The television 300 changes the channel according to the command from the remote controller 400 (step S104). At this time, the processor 210 of the audio output device 200 also receives a signal from the remote controller 400 via the IR receiver 265 and acquires the channel of the television 300 (step S106).

音声出力装置200のプロセッサ210は、ネットワーク通信部260を介して、現在の機嫌の良いまたは悪いモードを示すデータと、検知したチャンネルとをサーバ100に送信する(ステップS112)。   The processor 210 of the audio output device 200 transmits data indicating the current good or bad mode and the detected channel to the server 100 via the network communication unit 260 (step S112).

サーバ100のプロセッサ110は、通信インターフェイス160を介して音声出力装置200からのモードとチャンネルとを受信する(ステップS114)。   The processor 110 of the server 100 receives the mode and channel from the audio output device 200 via the communication interface 160 (step S114).

テレビ300がコンテンツを出力すると(ステップS122)、サーバ100の管理者は、当該コンテンツに関するメッセージをサーバ100に入力する(ステップS132)。プロセッサ110は、入力されたメッセージを、チャンネルおよび入力された時刻または出力すべき時刻に対応付けてメモリ120のメッセージデータベース121に格納する(ステップS134)。   When the television 300 outputs content (step S122), the administrator of the server 100 inputs a message regarding the content to the server 100 (step S132). The processor 110 stores the input message in the message database 121 of the memory 120 in association with the channel and the input time or the time to be output (step S134).

なお、ネットワークシステム1は、チャンネル毎に管理者を含むことが好ましい。さらに、ネットワークシステム1は、チャンネル毎、かつ音声出力装置200のモード毎、に管理者を含むことが好ましい。たとえば、チャンネルが5つあり、モードが3種類ある場合には、5×3=15人の管理者がメッセージを入力するために待機していることが好ましい。ただし、チャンネルごとにモードの種類の数が異なってもよい。   The network system 1 preferably includes an administrator for each channel. Furthermore, the network system 1 preferably includes an administrator for each channel and for each mode of the audio output device 200. For example, if there are five channels and there are three modes, it is preferable that 5 × 3 = 15 administrators are waiting to input a message. However, the number of types of modes may be different for each channel.

サーバ100のプロセッサ110は、チャンネルと現在の時刻と音声出力装置200の機嫌のモードに対応する、出力すべきメッセージおよび音声出力装置200の動作命令をメモリ120から読み出す(ステップS136)。プロセッサ110は、通信インターフェイス160を介して、読み出したメッセージと動作命令とを音声出力装置200に送信する(ステップS138)。   The processor 110 of the server 100 reads a message to be output and an operation command of the audio output device 200 corresponding to the channel, the current time, and the mood mode of the audio output device 200 from the memory 120 (step S136). The processor 110 transmits the read message and the operation command to the audio output device 200 via the communication interface 160 (step S138).

音声出力装置200のプロセッサ210は、ネットワーク通信部260を介して、サーバ100からメッセージと動作命令とを受信する(ステップS140)。プロセッサ210は、スピーカ280を介して、受信したメッセージを音声出力する(ステップS142)。また、プロセッサ110は、首駆動部272と腕駆動部274と脚駆動部276とを介して、首と腕と脚とを動かす(ステップS142)。   The processor 210 of the audio output device 200 receives a message and an operation command from the server 100 via the network communication unit 260 (step S140). The processor 210 outputs the received message as voice via the speaker 280 (step S142). Further, the processor 110 moves the neck, the arm, and the leg via the neck driving unit 272, the arm driving unit 274, and the leg driving unit 276 (step S142).

ただし、ステップS132とステップS134に関しては、予め番組の制作時などに、出力すべきメッセージがチャンネルおよび出力すべき時刻に対応付けてメッセージデータベース121に格納されていてもよい。なお、この場合は、ステップS138とステップS140に関しても、予めサーバ100が、出力すべきメッセージを、チャンネルおよび出力すべき時刻に対応付けて、音声出力装置200に送信してもよい。そして、ステップS142に関しては、音声出力装置200が、出力すべき時刻に、出力すべきメッセージを音声出力してもよい。   However, regarding steps S132 and S134, the message to be output may be stored in advance in the message database 121 in association with the channel and the time to be output at the time of production of the program. In this case, also regarding steps S138 and S140, the server 100 may transmit a message to be output in advance to the audio output device 200 in association with the channel and the time to be output. And regarding step S142, the voice output device 200 may output the message to be output by voice at the time to be output.

より詳細には、放送局や番組制作者などが、TV放送前に予めメッセージを準備している場合には、メッセージデータベース121に、モード毎に、出力時間と音声メッセージと部位動作命令とが格納されることが好ましい。しかしながら、サーバ100の管理者などがTV番組を見てメッセージを入力する場合には、部位動作命令を入力しなくてもよい。   More specifically, when a broadcast station or a program producer prepares a message in advance before TV broadcasting, the message database 121 stores an output time, a voice message, and a part operation command for each mode. It is preferred that However, when the administrator of the server 100 inputs a message while watching a TV program, the part operation command need not be input.

このように、本実施の形態においては、従来よりも自由に音声出力装置200にメッセージを出力させることができる。
<第2の実施の形態>
Thus, in the present embodiment, it is possible to cause the voice output device 200 to output a message more freely than in the past.
<Second Embodiment>

第1の実施の形態においては、音声出力装置200で出力すべきメッセージが予めサーバ100に登録されていたり、音声出力装置200で出力すべきメッセージをサーバ100の管理者がサーバ100に登録したりするものであった。しかしながら、本実施の形態においては、音声出力装置200で出力すべきメッセージを他のユーザが端末からサーバ100に登録するものである。
<ネットワークシステムの全体構成>
In the first embodiment, a message to be output by the audio output device 200 is registered in the server 100 in advance, or an administrator of the server 100 registers a message to be output by the audio output device 200 in the server 100. It was something to do. However, in the present embodiment, a message to be output by the audio output device 200 is registered by the other user in the server 100 from the terminal.
<Overall configuration of network system>

まず、図7を参照して、本実施の形態にかかるネットワークシステム1Bの全体構成について説明する。なお、図7は、本実施の形態にかかるネットワークシステム1Bの全体構成と動作概要を示すイメージ図である。   First, the overall configuration of the network system 1B according to the present embodiment will be described with reference to FIG. FIG. 7 is an image diagram showing an overall configuration and an outline of operation of the network system 1B according to the present embodiment.

ネットワークシステム1Bは、主な構成として、サーバ100と、音声出力装置200と、テレビ300と、スマートフォン700とを含む。ネットワークシステム1Bは、音声出力装置200をインターネットへ接続するためのルータ500を含んでもよい。   The network system 1B includes a server 100, an audio output device 200, a television 300, and a smartphone 700 as main components. The network system 1B may include a router 500 for connecting the audio output device 200 to the Internet.

なお、本実施の形態においても、音声出力装置200として、スピーカを有する熊のぬいぐるみについて説明する。ただし、音声出力装置200は、スピーカを有する他の動物の形状を有するものであってもよい。さらに、音声出力装置200は、ぬいぐるみに限らず、たとえば、エアコン、冷蔵庫、空気清浄器、加湿器、除湿器、自走式掃除機、照明、時計などの家電、テレビ、ゲーム機、音楽プレーヤー、ハードディスクレコーダ、パーソナルコンピュータなどのAV(オーディオ・ビジュアル)機器、太陽光発電機、インターホン、給湯器などの住宅設備、などのスピーカを有する通信装置であってもよい。   Also in this embodiment, a bear stuffed animal having a speaker will be described as the audio output device 200. However, the audio output device 200 may have a shape of another animal having a speaker. Furthermore, the audio output device 200 is not limited to a stuffed animal, for example, an air conditioner, a refrigerator, an air cleaner, a humidifier, a dehumidifier, a self-propelled cleaner, a lighting, a clock, and other home appliances, a television, a game machine, a music player, It may be a communication device having a speaker, such as a hard disk recorder, AV (audio / visual) equipment such as a personal computer, a solar power generator, an interphone, a housing facility such as a water heater.

また、本実施の形態においては、ユーザがサーバ100に音声メッセージを登録するために、スマートフォン700を利用しているが、パーソナルコンピュータやゲーム機などの他の通信端末を用いてもよい。
<ネットワークシステムの動作概要>
In the present embodiment, the user uses the smartphone 700 in order to register a voice message in the server 100, but another communication terminal such as a personal computer or a game machine may be used.
<Overview of network system operation>

次に、図7を参照して、本実施の形態にかかるネットワークシステム1Bの動作概要について説明する。まず、ユーザが、リモートコントローラ400を使ってテレビ300をONする。このとき、音声出力装置200は、リモコン信号を検知して、テレビ300がONされたことを検知する。   Next, with reference to FIG. 7, an outline of the operation of the network system 1B according to the present embodiment will be described. First, the user turns on the television 300 using the remote controller 400. At this time, the audio output device 200 detects a remote control signal and detects that the television 300 is turned on.

次に、ユーザが、リモートコントローラ400を使ってテレビ300のチャンネルを変更する。このとき、音声出力装置200は、リモコン信号を検知して、テレビ300のチャンネルを取得する。音声出力装置200は、ルータ500とインターネットとを介して、テレビ300のチャンネルをサーバ100に送信する。   Next, the user changes the channel of the television 300 using the remote controller 400. At this time, the audio output device 200 detects the remote control signal and acquires the channel of the television 300. The audio output device 200 transmits the channel of the television 300 to the server 100 via the router 500 and the Internet.

その後、サーバ100は、スマートフォン700などを介して、他のユーザから、チャンネルの番組で表示される映像、音声、出演者の言動などに合わせたテキストの入力を受け付ける。サーバ100は、入力されたテキストから音声データを作成する。同時に、サーバ100は、入力されたテキストから、当該テキストに対応する音声出力装置200の動作命令も作成する。サーバ100は、音声データと動作命令とを音声出力装置200に送信する。   After that, the server 100 accepts input of texts in accordance with video, audio, and performers' behaviors displayed on the channel program from other users via the smartphone 700 or the like. The server 100 creates voice data from the input text. At the same time, the server 100 also creates an operation command for the voice output device 200 corresponding to the text from the input text. The server 100 transmits the audio data and the operation command to the audio output device 200.

音声出力装置200は、チャンネルの番組で表示される映像、音声、出演者の言動などに合わせたメッセージをスピーカから出力し、当該メッセージにふさわしい動作を実行する。   The audio output device 200 outputs a message in accordance with the video, audio, and performer's behavior displayed in the channel program from the speaker, and executes an operation suitable for the message.

より詳細には、本実施の形態においても、音声出力装置200は、ユーザから撫でられたり話しかけられたりしたときは、機嫌が良いモードになる。逆に、ユーザから叩かれたり無視されたりしたときは、機嫌が悪いモードになる。音声出力装置200は、自分の機嫌に関するモードをサーバ100に送信する。   More specifically, also in the present embodiment, the audio output device 200 is in a good mood mode when it is stroked or spoken by the user. On the other hand, when the user is hit or ignored, the mode becomes bad. The audio output device 200 transmits a mode related to its own mood to the server 100.

サーバ100は、入力されたテキストのうち、音声出力装置200から受信した機嫌のモードに対応するテキストの音声データを作成する。同時に、サーバ100は、音声出力装置200から受信した機嫌のモードに対応するテキストに対応する音声出力装置200の動作も作成する。サーバ100は、音声データと動作命令とを音声出力装置200に送信する。   The server 100 creates audio data of text corresponding to the mood mode received from the audio output device 200 among the input text. At the same time, the server 100 also creates an operation of the voice output device 200 corresponding to the text corresponding to the mood mode received from the voice output device 200. The server 100 transmits the audio data and the operation command to the audio output device 200.

これによって、音声出力装置200は、テレビ300で表示される映像、音声、出演者の言動などと、音声出力装置200の機嫌と、に合わせたメッセージをスピーカから出力し、当該メッセージにふさわしい動作を実行する。   As a result, the audio output device 200 outputs a message that matches the video, audio, and performer's behavior displayed on the television 300 and the mood of the audio output device 200 from the speaker, and performs an operation suitable for the message. Run.

このように、本実施の形態にかかるネットワークシステム1は、インターネットを介して音声出力装置200にメッセージや動作命令を入力することができる。すなわち、本実施の形態にかかるネットワークシステム1は、従来よりも自由に音声出力装置にメッセージを出力させることができる。   As described above, the network system 1 according to the present embodiment can input a message and an operation command to the audio output device 200 via the Internet. That is, the network system 1 according to the present embodiment can output a message to the audio output device more freely than in the past.

以下では、このような機能を実現するためのネットワークシステム1について詳細に説明する。ただし、本実施の形態にかかるネットワークシステム1を構成するサーバ100のハードウェア構成、メッセージデータベース121のデータ構造、音声出力装置200のハードウェア構成、テレビ300のハードウェア構成、などについては、第1の実施の形態とそれらと同様であるため、ここでは説明を繰り返さない。
<スマートフォン700のハードウェア構成>
Hereinafter, the network system 1 for realizing such a function will be described in detail. However, the hardware configuration of the server 100 configuring the network system 1 according to the present embodiment, the data structure of the message database 121, the hardware configuration of the audio output device 200, the hardware configuration of the television 300, etc. Since these are the same as those of the embodiment, description thereof will not be repeated here.
<Hardware configuration of smartphone 700>

次に、本実施の形態にかかる他の端末としてのスマートフォン700のハードウェア構成の一態様について説明する。なお、図8は、本実施の形態にかかるスマートフォン700のハードウェア構成を表わすブロック図である。   Next, an aspect of the hardware configuration of the smartphone 700 as another terminal according to the present embodiment will be described. FIG. 8 is a block diagram showing a hardware configuration of smartphone 700 according to the present embodiment.

図8を参照して、スマートフォン700は、主たる構成要素として、プロセッサ710と、メモリ720と、タッチパネル750(ディスプレイ730とポインティングデバイス740)と、通信インターフェイス760とを含む。   Referring to FIG. 8, smartphone 700 includes a processor 710, a memory 720, a touch panel 750 (display 730 and pointing device 740), and a communication interface 760 as main components.

プロセッサ710は、メモリ720あるいは外部の記憶媒体に記憶されているプログラムやその他のプログラムを実行することによって、スマートフォン700の各部を制御する。すなわち、プロセッサ710は、メモリ720に格納されているプログラムを実行することによって、後述する各種の処理を実行する。   The processor 710 controls each unit of the smartphone 700 by executing a program stored in the memory 720 or an external storage medium and other programs. That is, the processor 710 executes various processes described later by executing a program stored in the memory 720.

メモリ720は、各種のRAM、各種のROM、フラッシュメモリーなどによって実現される。なお、メモリ720は、様々なインターフェイスを介して利用される、SDカードやマイクロSDカードのようなメモリカード、USB(登録商標)メモリ、CD、DVD、ハードディスク、ICカード、光カード、マスクROM、EPROM、EEPROMなどの記憶媒体などによっても実現される。   The memory 720 is realized by various RAMs, various ROMs, flash memories, and the like. The memory 720 is used via various interfaces, such as a memory card such as an SD card or a micro SD card, a USB (registered trademark) memory, a CD, a DVD, a hard disk, an IC card, an optical card, a mask ROM, It is also realized by a storage medium such as EPROM or EEPROM.

メモリ720は、プロセッサ710によって実行される表示プログラムや他のプログラム、プロセッサ710によるプログラムの実行により生成されたデータ、ポインティングデバイス740を介して入力されたデータ、サーバ100から受信したデータなどを記憶する。プロセッサ710は、メモリ720のプログラムに従って、各種の処理を実行する。   The memory 720 stores a display program executed by the processor 710 and other programs, data generated by executing the program by the processor 710, data input via the pointing device 740, data received from the server 100, and the like. . The processor 710 executes various processes according to the program in the memory 720.

ディスプレイ730は、プロセッサ710からの信号に基づいて、文字や画像を出力する。   The display 730 outputs characters and images based on signals from the processor 710.

ポインティングデバイス740は、ユーザからの命令を受け付けて、当該命令をプロセッサ710に入力する。なお、本実施の形態においては、スマートフォン700は、ディスプレイ730とポインティングデバイス740とが組み合わされたタッチパネル750を有する。   The pointing device 740 receives a command from the user and inputs the command to the processor 710. Note that in this embodiment, the smartphone 700 includes a touch panel 750 in which a display 730 and a pointing device 740 are combined.

通信インターフェイス760は、アンテナやコネクタによって実現される。通信インターフェイス760は、有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。プロセッサ710は、通信インターフェイス760を介して、テキストデータ、画像データなどを、サーバ100などの他の装置に送信する。
<ネットワークシステム1における音声出力処理>
The communication interface 760 is realized by an antenna or a connector. The communication interface 760 exchanges data with other devices by wired communication or wireless communication. The processor 710 transmits text data, image data, and the like to another device such as the server 100 via the communication interface 760.
<Audio output processing in the network system 1>

次に、図9を参照しながら、本実施の形態にかかるネットワークシステム1の音声出力処理について説明する。なお、図9は、本実施の形態にかかるネットワークシステム1の音声出力処理を示すフローチャートである。   Next, an audio output process of the network system 1 according to the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing the audio output process of the network system 1 according to the present embodiment.

まず、テレビ300の電源がONされてから、ステップS222までの処理は、第1の実施の形態のそれと同様であるため、ここでは説明を繰り返さない。   First, since the processing from turning on the power of the television 300 to step S222 is the same as that of the first embodiment, description thereof will not be repeated here.

テレビ300がコンテンツを出力すると(ステップS222)、スマートフォン700のユーザは、当該コンテンツに関するメッセージをスマートフォン700に入力する(ステップS224)。スマートフォン700のプロセッサ710は、通信インターフェイス760を介して、当該メッセージをチャンネルに対応付けてサーバ100に登録する(ステップS226)。   When the television 300 outputs content (step S222), the user of the smartphone 700 inputs a message regarding the content to the smartphone 700 (step S224). The processor 710 of the smartphone 700 registers the message in the server 100 in association with the channel via the communication interface 760 (step S226).

サーバ100のプロセッサ110は、通信インターフェイス160を介して、スマートフォン700からメッセージとチャンネルとを受信する(ステップS232)。プロセッサ110は、受信したメッセージとチャンネルとを、入力された時刻または出力すべき時刻に対応付けてメモリ120に格納する(ステップS234)。   The processor 110 of the server 100 receives a message and a channel from the smartphone 700 via the communication interface 160 (step S232). The processor 110 stores the received message and channel in the memory 120 in association with the input time or the time to be output (step S234).

なお、本実施の形態においても、ネットワークシステム1は、チャンネル毎に管理者を含むことが好ましい。さらに、ネットワークシステム1は、チャンネル毎、かつ音声出力装置200のモード毎、に管理者を含むことが好ましい。   Also in the present embodiment, network system 1 preferably includes an administrator for each channel. Furthermore, the network system 1 preferably includes an administrator for each channel and for each mode of the audio output device 200.

サーバ100のプロセッサ110は、チャンネルと現在の時刻と音声出力装置200の機嫌のモードに対応する、出力すべきメッセージおよび音声出力装置200の動作命令をメモリ120から読み出す(ステップS236)。プロセッサ110は、通信インターフェイス160を介して、読み出したメッセージと動作命令とを音声出力装置200に送信する(ステップS238)。   The processor 110 of the server 100 reads the message to be output and the operation command of the audio output device 200 corresponding to the channel, the current time, and the mood mode of the audio output device 200 from the memory 120 (step S236). The processor 110 transmits the read message and operation command to the audio output device 200 via the communication interface 160 (step S238).

音声出力装置200のプロセッサ210は、ネットワーク通信部260を介して、サーバ100からメッセージと動作命令とを受信する(ステップS240)。プロセッサ210は、スピーカ280を介して、受信したメッセージを音声出力する(ステップS242)。また、プロセッサ110は、首駆動部272と腕駆動部274と脚駆動部276とを介して、首と腕と脚とを動かす(ステップS242)。   The processor 210 of the audio output device 200 receives a message and an operation command from the server 100 via the network communication unit 260 (step S240). The processor 210 outputs the received message as voice via the speaker 280 (step S242). Further, the processor 110 moves the neck, the arm, and the leg via the neck driving unit 272, the arm driving unit 274, and the leg driving unit 276 (step S242).

より詳細には、放送局や番組制作者などが、TV放送前に予めメッセージを準備している場合には、メッセージデータベース121に、モード毎に、出力時間と音声メッセージと部位動作命令とが格納されることが好ましい。しかしながら、サーバ100の管理者やスマートフォン700のユーザがTV番組を見てメッセージを入力する場合には、部位動作命令を入力しなくてもよい。   More specifically, when a broadcast station or a program producer prepares a message in advance before TV broadcasting, the message database 121 stores an output time, a voice message, and a part operation command for each mode. It is preferred that However, when the administrator of the server 100 or the user of the smartphone 700 inputs a message while watching a TV program, it is not necessary to input a part operation command.

このように、本実施の形態においても、従来よりも自由に音声出力装置200にメッセージを出力させることができる。
<第3の実施の形態>
Thus, also in the present embodiment, it is possible to cause the voice output device 200 to output a message more freely than in the past.
<Third Embodiment>

第1および第2の実施の形態においては、動物の形状を有する音声出力装置200がメッセージを出力するともに、腕や脚を動かすものであった。しかしながら、本実施の形態においては、音声出力装置200が、人間と同じように2本の腕を有し、各々の腕に5本の指を有し、番組の内容に対応する手話を行うものである。
<ネットワークシステムの全体構成>
In the first and second embodiments, the voice output device 200 having the shape of an animal outputs a message and moves the arms and legs. However, in the present embodiment, the audio output device 200 has two arms like a human, each of which has five fingers, and performs sign language corresponding to the content of the program. It is.
<Overall configuration of network system>

まず、図10を参照して、本実施の形態にかかるネットワークシステム1Cの全体構成について説明する。なお、図10は、本実施の形態にかかるネットワークシステム1Cの全体構成と動作概要を示すイメージ図である。   First, the overall configuration of the network system 1C according to the present embodiment will be described with reference to FIG. FIG. 10 is an image diagram showing an overall configuration and an outline of operation of the network system 1C according to the present embodiment.

ネットワークシステム1Cは、主な構成として、サーバ100と、音声出力装置200と、テレビ300とを含む。ネットワークシステム1Cは、音声出力装置200をインターネットへ接続するためのルータ500を含んでもよい。本実施の形態にかかる音声出力装置200は、人間の上半身の形状を有する。ただし、音声出力装置200は、2本の腕と、その指とを有していればよく、顔などの他の部分は必ずしも必要ではない。
<ネットワークシステムの動作概要>
The network system 1C includes a server 100, an audio output device 200, and a television 300 as main components. The network system 1C may include a router 500 for connecting the audio output device 200 to the Internet. The audio output device 200 according to the present embodiment has the shape of a human upper body. However, the audio output device 200 only needs to have two arms and fingers, and other parts such as a face are not necessarily required.
<Overview of network system operation>

次に、図10を参照して、本実施の形態にかかるネットワークシステム1Cの動作概要について説明する。まず、ユーザが、リモートコントローラ400を使ってテレビ300をONする。このとき、音声出力装置200は、リモコン信号を検知して、テレビ300がONされたことを検知する。   Next, an operation outline of the network system 1C according to the present embodiment will be described with reference to FIG. First, the user turns on the television 300 using the remote controller 400. At this time, the audio output device 200 detects a remote control signal and detects that the television 300 is turned on.

次に、ユーザが、リモートコントローラ400を使ってテレビ300のチャンネルを変更する。このとき、音声出力装置200は、リモコン信号を検知して、テレビ300のチャンネルを取得する。音声出力装置200は、ルータ500とインターネットとを介して、テレビ300のチャンネルをサーバ100に送信する。   Next, the user changes the channel of the television 300 using the remote controller 400. At this time, the audio output device 200 detects the remote control signal and acquires the channel of the television 300. The audio output device 200 transmits the channel of the television 300 to the server 100 via the router 500 and the Internet.

その後、サーバ100は、管理者からチャンネルの番組で表示される映像、音声、出演者の言動などに合わせたテキストの入力を受け付ける。なお、当該テキストは、番組で出力される人間の話そのものであってもよい。サーバ100は、入力されたテキストから音声データを作成する。同時に、サーバ100は、入力されたテキストから、当該テキストに対応する音声出力装置200の手話の動作命令も作成する。サーバ100は、音声データと手話の動作命令とを音声出力装置200に送信する。   Thereafter, the server 100 accepts input of texts in accordance with the video, audio, and performers' behaviors displayed in the channel program from the administrator. The text may be a human story itself output in a program. The server 100 creates voice data from the input text. At the same time, the server 100 also creates a sign language operation command of the voice output device 200 corresponding to the text from the input text. The server 100 transmits the voice data and the sign language operation command to the voice output device 200.

音声出力装置200は、チャンネルの番組で表示される映像、音声、出演者の言動などに合わせたメッセージをスピーカから出力し、当該メッセージにふさわしい手話を実行する。   The audio output device 200 outputs a message in accordance with the video, audio, and performer's behavior displayed in the channel program from the speaker, and executes sign language suitable for the message.

本実施の形態においても、音声出力装置200は、ユーザから撫でられたり話しかけられたりしたときは、機嫌が良いモードになってもよい。逆に、ユーザから叩かれたり無視されたりしたときは、機嫌が悪いモードになってもよい。この場合は、音声出力装置200は、自分の機嫌に関するモードをサーバ100に送信する。   Also in the present embodiment, the voice output device 200 may be in a good mood mode when it is stroked or spoken by the user. Conversely, when the user is hit or ignored, the mode may be in a bad mood. In this case, the audio output device 200 transmits a mode related to its own mood to the server 100.

サーバ100は、入力されたテキストのうち、音声出力装置200から受信した機嫌のモードに対応するテキストの音声データを作成する。同時に、サーバ100は、音声出力装置200から受信した機嫌のモードに対応するテキストに対応する音声出力装置200の動作も作成する。サーバ100は、音声データと動作命令とを音声出力装置200に送信する。   The server 100 creates audio data of text corresponding to the mood mode received from the audio output device 200 among the input text. At the same time, the server 100 also creates an operation of the voice output device 200 corresponding to the text corresponding to the mood mode received from the voice output device 200. The server 100 transmits the audio data and the operation command to the audio output device 200.

これによって、音声出力装置200は、テレビ300で表示される映像、音声、出演者の言動などと、音声出力装置200の機嫌と、に合わせたメッセージをスピーカから出力し、当該メッセージにふさわしい動作を実行する。ただし、音声出力装置200が、番組で出力される人間の話そのものの手話をする場合には、機嫌に関するモードの切り替えは必要ない。   As a result, the audio output device 200 outputs a message that matches the video, audio, and performer's behavior displayed on the television 300 and the mood of the audio output device 200 from the speaker, and performs an operation suitable for the message. Run. However, when the audio output device 200 performs sign language of the human story itself output in the program, it is not necessary to switch modes related to mood.

このように、本実施の形態にかかるネットワークシステム1は、インターネットを介して音声出力装置200にメッセージや動作命令を入力することができる。すなわち、本実施の形態にかかるネットワークシステム1は、従来よりも自由に音声出力装置にメッセージを出力させることができる。   As described above, the network system 1 according to the present embodiment can input a message and an operation command to the audio output device 200 via the Internet. That is, the network system 1 according to the present embodiment can output a message to the audio output device more freely than in the past.

以下では、このような機能を実現するためのネットワークシステム1について詳細に説明する。ただし、本実施の形態にかかるネットワークシステム1を構成するサーバ100のハードウェア構成、メッセージデータベース121のデータ構造、テレビ300のハードウェア構成、などについては、第1の実施の形態とそれらと同様であるため、ここでは説明を繰り返さない。
<音声出力装置200Bのハードウェア構成>
Hereinafter, the network system 1 for realizing such a function will be described in detail. However, the hardware configuration of the server 100 configuring the network system 1 according to the present embodiment, the data structure of the message database 121, the hardware configuration of the television 300, and the like are the same as those in the first embodiment. Therefore, the description will not be repeated here.
<Hardware Configuration of Audio Output Device 200B>

以下では、本実施の形態にかかる人の上半身の形状を有する音声出力装置200Bのハードウェア構成の一態様について説明する。なお、図11は、本実施の形態にかかる音声出力装置200Bのハードウェア構成を表わすブロック図である。   Below, the one aspect | mode of the hardware constitutions of the audio | voice output apparatus 200B which has the shape of the upper body of the person concerning this Embodiment is demonstrated. FIG. 11 is a block diagram showing a hardware configuration of the audio output device 200B according to the present embodiment.

図11を参照して、音声出力装置200は、主たる構成要素として、プロセッサ210と、メモリ220と、接触センサ230と、音声認識部245、首駆動部272、腕駆動部274、指駆動部274−3、ネットワーク通信部260、IR受信部265とを含む。   Referring to FIG. 11, the voice output device 200 includes a processor 210, a memory 220, a contact sensor 230, a voice recognition unit 245, a neck driving unit 272, an arm driving unit 274, and a finger driving unit 274 as main components. -3, a network communication unit 260, and an IR receiving unit 265.

なお、本実施の形態にかかるプロセッサ210と、メモリ220と、接触センサ230と、音声認識部245、首駆動部272、腕駆動部274、ネットワーク通信部260、IR受信部265とは、第1の実施の形態のそれらと同様であるため、ここでは説明を繰り返さない。   The processor 210, the memory 220, the contact sensor 230, the voice recognition unit 245, the neck driving unit 272, the arm driving unit 274, the network communication unit 260, and the IR receiving unit 265 according to the present embodiment are the first one. Since these are the same as those in the embodiment, the description will not be repeated here.

指駆動部274−3は、2つの腕の各々の5本の指の各々に搭載される。指駆動部274−3は、プロセッサ210からの信号によって、10本の指の関節を動かす。
<ネットワークシステム1における音声出力処理>
The finger driving unit 274-3 is mounted on each of the five fingers of each of the two arms. The finger driving unit 274-3 moves the joints of the ten fingers in response to a signal from the processor 210.
<Audio output processing in the network system 1>

次に、図12を参照しながら、本実施の形態にかかるネットワークシステム1の音声出力処理について説明する。なお、図12は、本実施の形態にかかるネットワークシステム1の音声出力処理を示すフローチャートである。   Next, an audio output process of the network system 1 according to the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart showing audio output processing of the network system 1 according to the present embodiment.

まず、テレビ300の電源がONされてから、ステップS322までの処理は、第1の実施の形態のそれと同様であるため、ここでは説明を繰り返さない。   First, the processing from when the power of the television 300 is turned on to step S322 is the same as that of the first embodiment, and therefore description thereof will not be repeated here.

テレビ300がコンテンツを出力すると(ステップS322)、サーバ100の管理者は、当該コンテンツに対応するメッセージをサーバ100に入力する(ステップS332)。当該メッセージは、番組で話される言葉そのものであってもよい。プロセッサ110は、入力されたメッセージを、チャンネルおよび入力された時刻または出力すべき時刻に対応付けてメモリ120に格納する(ステップS334)。   When the television 300 outputs content (step S322), the administrator of the server 100 inputs a message corresponding to the content to the server 100 (step S332). The message may be a word itself spoken in the program. The processor 110 stores the input message in the memory 120 in association with the channel and the input time or the time to be output (step S334).

なお、本実施の形態においても、ネットワークシステム1は、チャンネル毎に管理者を含むことが好ましい。さらに、ネットワークシステム1は、チャンネル毎、かつ音声出力装置200のモード毎、に管理者を含むことが好ましい。   Also in the present embodiment, network system 1 preferably includes an administrator for each channel. Furthermore, the network system 1 preferably includes an administrator for each channel and for each mode of the audio output device 200.

サーバ100のプロセッサ110は、チャンネルと現在の時刻と音声出力装置200の機嫌のモードに対応する、出力すべきメッセージをメモリ120から読み出す(ステップS336)。   The processor 110 of the server 100 reads a message to be output corresponding to the channel, the current time, and the mood mode of the audio output device 200 from the memory 120 (step S336).

プロセッサ110は、当該メッセージに対応する手話の動作命令を作成する(ステップS337)。ただし、手話の動作命令は、ステップS334においてメッセージの格納と同時に、メモリ120に格納されるものであってもよい。   The processor 110 creates a sign language operation command corresponding to the message (step S337). However, the sign language operation command may be stored in the memory 120 simultaneously with the storage of the message in step S334.

プロセッサ110は、通信インターフェイス160を介して、読み出したメッセージと手話の動作命令とを音声出力装置200に送信する(ステップS338)。   The processor 110 transmits the read message and the sign language operation command to the voice output device 200 via the communication interface 160 (step S338).

音声出力装置200のプロセッサ210は、ネットワーク通信部260を介して、サーバ100からメッセージと手話の動作命令とを受信する(ステップS340)。プロセッサ210は、スピーカ280を介して、受信したメッセージを音声出力する(ステップS342)。また、プロセッサ110は、腕駆動部274と指駆動部274−3とを介して、腕と指とを動かす(ステップS342)。   The processor 210 of the audio output device 200 receives a message and a sign language operation command from the server 100 via the network communication unit 260 (step S340). The processor 210 outputs the received message as voice via the speaker 280 (step S342). In addition, the processor 110 moves the arm and the finger via the arm driving unit 274 and the finger driving unit 274-3 (step S342).

ただし、ステップS332とステップS334に関しては、予め番組の制作時などに、出力すべきメッセージがチャンネルおよび出力すべき時刻に対応付けてメッセージデータベース121に格納されていてもよい。なお、この場合は、ステップS338とステップS340に関しても、予めサーバ100が、出力すべきメッセージを、チャンネルおよび出力すべき時刻に対応付けて、音声出力装置200に送信してもよい。そして、ステップS342に関しては、音声出力装置200が、出力すべき時刻に、出力すべきメッセージを音声出力してもよい。   However, with regard to step S332 and step S334, the message to be output may be stored in the message database 121 in advance in association with the channel and the time to be output at the time of production of the program. In this case, also regarding steps S338 and S340, the server 100 may transmit a message to be output in advance to the audio output device 200 in association with the channel and the time to be output. Then, with regard to step S342, the voice output device 200 may voice output a message to be output at the time to be output.

より詳細には、放送局や番組制作者などが、TV放送前に予めメッセージを準備している場合には、メッセージデータベース121に、モード毎に、出力時間と音声メッセージと部位動作命令とが格納されることが好ましい。しかしながら、サーバ100の管理者などがTV番組を見てメッセージを入力する場合には、部位動作命令を入力しなくてもよい。   More specifically, when a broadcast station or a program producer prepares a message in advance before TV broadcasting, the message database 121 stores an output time, a voice message, and a part operation command for each mode. It is preferred that However, when the administrator of the server 100 inputs a message while watching a TV program, the part operation command need not be input.

このように、本実施の形態においては、従来よりも自由に音声出力装置200にメッセージを出力させることができる。   Thus, in the present embodiment, it is possible to cause the voice output device 200 to output a message more freely than in the past.

なお、第3の実施の形態においては、音声出力装置200が、メッセージを音声出力しながら、手話の動作を実行するものであった。しかしながら、音声出力装置200は、手話装置であってもよい。すなわち、手話装置は、メッセージを音声出力せずに、番組の内容に対応する手話の動作、あるいは番組で話されるセリフそのものを示す手話の動作を実行するものであってもよい。   In the third embodiment, the voice output device 200 executes a sign language operation while outputting a message as a voice. However, the audio output device 200 may be a sign language device. That is, the sign language device may execute a sign language operation corresponding to the contents of the program or a sign language operation indicating a speech itself spoken in the program without outputting the message as a voice.

すなわち、本実施の形態においては、図12のステップS342において、プロセッサ110は、腕駆動部274と指駆動部274−3とを介して、腕と指とを動かす。そして、サーバ100は、手話の動作命令を取得できればよいため、メッセージの入力を受け付けて当該メッセージから手話の動作命令を作成してもよいし、メッセージの入力を受け付けずに手話の動作命令だけを受け付けてもよい。   That is, in this embodiment, in step S342 in FIG. 12, the processor 110 moves the arm and the finger via the arm driving unit 274 and the finger driving unit 274-3. Since the server 100 only needs to be able to acquire a sign language operation command, the server 100 may receive a message input and create a sign language operation command from the message, or may receive only a sign language operation command without receiving a message input. It may be accepted.

<第4の実施の形態>   <Fourth embodiment>

第3の実施の形態においては、音声出力装置200で出力すべきメッセージが予めサーバ100に登録されていたり、音声出力装置200で出力すべきメッセージをサーバ100の管理者がサーバ100に登録したりするものであった。しかしながら、本実施の形態においては、音声出力装置200で出力すべきメッセージを他のユーザがサーバ100に登録するものである。
<ネットワークシステムの全体構成>
In the third embodiment, a message to be output by the audio output device 200 is registered in the server 100 in advance, or an administrator of the server 100 registers a message to be output by the audio output device 200 in the server 100. It was something to do. However, in the present embodiment, a message to be output by the audio output device 200 is registered by the other user in the server 100.
<Overall configuration of network system>

まず、図13を参照して、本実施の形態にかかるネットワークシステム1Dの全体構成について説明する。なお、図13は、本実施の形態にかかるネットワークシステム1Dの全体構成と動作概要を示すイメージ図である。   First, the overall configuration of the network system 1D according to the present embodiment will be described with reference to FIG. FIG. 13 is an image diagram showing an overall configuration and an operation outline of the network system 1D according to the present embodiment.

ネットワークシステム1Dは、主な構成として、サーバ100と、音声出力装置200と、テレビ300と、スマートフォン700を含む。ネットワークシステム1Dは、音声出力装置200をインターネットへ接続するためのルータ500を含んでもよい。本実施の形態にかかる音声出力装置200は、人間の上半身の形状を有する。ただし、音声出力装置200は、2本の腕と、その指とを有していればよく、顔などの他の部分は必ずしも必要ではない。   The network system 1D includes a server 100, an audio output device 200, a television 300, and a smartphone 700 as main components. The network system 1D may include a router 500 for connecting the audio output device 200 to the Internet. The audio output device 200 according to the present embodiment has the shape of a human upper body. However, the audio output device 200 only needs to have two arms and fingers, and other parts such as a face are not necessarily required.

また、本実施の形態においては、ユーザがサーバ100に音声メッセージを登録するために、スマートフォン700を利用しているが、パーソナルコンピュータやゲーム機などの他の通信端末を用いてもよい。
<ネットワークシステムの動作概要>
In the present embodiment, the user uses the smartphone 700 in order to register a voice message in the server 100, but another communication terminal such as a personal computer or a game machine may be used.
<Overview of network system operation>

次に、図13を参照して、本実施の形態にかかるネットワークシステム1Dの動作概要について説明する。まず、ユーザが、リモートコントローラ400を使ってテレビ300をONする。このとき、音声出力装置200は、リモコン信号を検知して、テレビ300がONされたことを検知する。   Next, an operation outline of the network system 1D according to the present embodiment will be described with reference to FIG. First, the user turns on the television 300 using the remote controller 400. At this time, the audio output device 200 detects a remote control signal and detects that the television 300 is turned on.

次に、ユーザが、リモートコントローラ400を使ってテレビ300のチャンネルを変更する。このとき、音声出力装置200は、リモコン信号を検知して、テレビ300のチャンネルを取得する。音声出力装置200は、ルータ500とインターネットとを介して、テレビ300のチャンネルをサーバ100に送信する。   Next, the user changes the channel of the television 300 using the remote controller 400. At this time, the audio output device 200 detects the remote control signal and acquires the channel of the television 300. The audio output device 200 transmits the channel of the television 300 to the server 100 via the router 500 and the Internet.

その後、サーバ100は、スマートフォン700などを介して、他のユーザから、チャンネルの番組で表示される映像、音声、出演者の言動などに合わせたテキストの入力を受け付ける。入力されたテキストから音声データを作成する。同時に、サーバ100は、入力されたテキストから、当該テキストに対応する音声出力装置200の手話の動作命令も作成する。サーバ100は、音声データと手話の動作命令とを音声出力装置200に送信する。   After that, the server 100 accepts input of texts in accordance with video, audio, and performers' behaviors displayed on the channel program from other users via the smartphone 700 or the like. Create voice data from the entered text. At the same time, the server 100 also creates a sign language operation command of the voice output device 200 corresponding to the text from the input text. The server 100 transmits the voice data and the sign language operation command to the voice output device 200.

音声出力装置200は、チャンネルの番組で表示される映像、音声、出演者の言動などに合わせたメッセージをスピーカから出力し、当該メッセージにふさわしい手話を実行する。   The audio output device 200 outputs a message in accordance with the video, audio, and performer's behavior displayed in the channel program from the speaker, and executes sign language suitable for the message.

本実施の形態においても、音声出力装置200は、ユーザから撫でられたり話しかけられたりしたときは、機嫌が良いモードになってもよい。逆に、ユーザから叩かれたり無視されたりしたときは、機嫌が悪いモードになってもよい。この場合は、音声出力装置200は、自分の機嫌に関するモードをサーバ100に送信する。   Also in the present embodiment, the voice output device 200 may be in a good mood mode when it is stroked or spoken by the user. Conversely, when the user is hit or ignored, the mode may be in a bad mood. In this case, the audio output device 200 transmits a mode related to its own mood to the server 100.

サーバ100は、入力されたテキストのうち、音声出力装置200から受信した機嫌のモードに対応するテキストの音声データを作成する。同時に、サーバ100は、音声出力装置200から受信した機嫌のモードに対応するテキストに対応する音声出力装置200の動作も作成する。サーバ100は、音声データと動作命令とを音声出力装置200に送信する。   The server 100 creates audio data of text corresponding to the mood mode received from the audio output device 200 among the input text. At the same time, the server 100 also creates an operation of the voice output device 200 corresponding to the text corresponding to the mood mode received from the voice output device 200. The server 100 transmits the audio data and the operation command to the audio output device 200.

これによって、音声出力装置200は、テレビ300で表示される映像、音声、出演者の言動などと、音声出力装置200の機嫌と、に合わせたメッセージをスピーカから出力し、当該メッセージにふさわしい動作を実行する。ただし、音声出力装置200が、番組で出力される人間の話そのものの手話をする場合には、機嫌に関するモードの切り替えは必要ない。   As a result, the audio output device 200 outputs a message that matches the video, audio, and performer's behavior displayed on the television 300 and the mood of the audio output device 200 from the speaker, and performs an operation suitable for the message. Run. However, when the audio output device 200 performs sign language of the human story itself output in the program, it is not necessary to switch modes related to mood.

このように、本実施の形態にかかるネットワークシステム1は、インターネットを介して音声出力装置200にメッセージや動作命令を入力することができる。すなわち、本実施の形態にかかるネットワークシステム1は、従来よりも自由に音声出力装置にメッセージを出力させることができる。   As described above, the network system 1 according to the present embodiment can input a message and an operation command to the audio output device 200 via the Internet. That is, the network system 1 according to the present embodiment can output a message to the audio output device more freely than in the past.

以下では、このような機能を実現するためのネットワークシステム1について詳細に説明する。ただし、本実施の形態にかかるネットワークシステム1を構成するサーバ100のハードウェア構成、メッセージデータベース121のデータ構造、音声出力装置200Bのハードウェア構成、テレビ300のハードウェア構成、などについては、第3の実施の形態とそれらと同様であるため、ここでは説明を繰り返さない。
<ネットワークシステム1における音声出力処理>
Hereinafter, the network system 1 for realizing such a function will be described in detail. However, the hardware configuration of the server 100 configuring the network system 1 according to the present embodiment, the data structure of the message database 121, the hardware configuration of the audio output device 200B, the hardware configuration of the television 300, etc. Since these are the same as those of the embodiment, description thereof will not be repeated here.
<Audio output processing in the network system 1>

次に、図14を参照しながら、本実施の形態にかかるネットワークシステム1の音声出力処理について説明する。なお、図14は、本実施の形態にかかるネットワークシステム1の音声出力処理を示すフローチャートである。   Next, the audio output process of the network system 1 according to the present embodiment will be described with reference to FIG. FIG. 14 is a flowchart showing audio output processing of the network system 1 according to the present embodiment.

まず、テレビ300の電源がONされてから、ステップS422までの処理は、第3の実施の形態のそれと同様であるため、ここでは説明を繰り返さない。   First, since the process from turning on the power of the television 300 to step S422 is the same as that of the third embodiment, the description thereof will not be repeated here.

テレビ300がコンテンツを出力すると(ステップS422)、スマートフォン700のユーザは、当該コンテンツに関するメッセージをスマートフォン700に入力する(ステップS424)。スマートフォン700のプロセッサ710は、通信インターフェイス760を介して、当該メッセージをチャンネルに対応付けてサーバ100に登録する(ステップS426)。   When the television 300 outputs content (step S422), the user of the smartphone 700 inputs a message regarding the content to the smartphone 700 (step S424). The processor 710 of the smartphone 700 registers the message in the server 100 in association with the channel via the communication interface 760 (step S426).

サーバ100のプロセッサ110は、通信インターフェイス160を介して、スマートフォン700からメッセージとチャンネルとを受信する(ステップS432)。プロセッサ110は、受信したメッセージとチャンネルとを、入力された時刻または出力すべき時刻に対応付けてメモリ120に格納する(ステップS434)。   The processor 110 of the server 100 receives a message and a channel from the smartphone 700 via the communication interface 160 (step S432). The processor 110 stores the received message and channel in the memory 120 in association with the input time or the time to be output (step S434).

なお、本実施の形態においても、ネットワークシステム1は、チャンネル毎に管理者を含むことが好ましい。さらに、ネットワークシステム1は、チャンネル毎、かつ音声出力装置200のモード毎、に管理者を含むことが好ましい。   Also in the present embodiment, network system 1 preferably includes an administrator for each channel. Furthermore, the network system 1 preferably includes an administrator for each channel and for each mode of the audio output device 200.

サーバ100のプロセッサ110は、チャンネルと現在の時刻と音声出力装置200の機嫌のモードに対応する、出力すべきメッセージをメモリ120から読み出す(ステップS436)。   The processor 110 of the server 100 reads from the memory 120 a message to be output corresponding to the channel, the current time, and the mood mode of the audio output device 200 (step S436).

プロセッサ110は、当該メッセージに対応する手話の動作命令を作成する(ステップS437)。ただし、手話の動作命令は、ステップS434においてメッセージの格納と同時に、メモリ120に格納されるものであってもよい。   The processor 110 creates a sign language operation command corresponding to the message (step S437). However, the sign language operation command may be stored in the memory 120 simultaneously with the storage of the message in step S434.

プロセッサ110は、通信インターフェイス160を介して、読み出したメッセージと手話の動作命令とを音声出力装置200に送信する(ステップS438)。   The processor 110 transmits the read message and the sign language operation command to the voice output device 200 via the communication interface 160 (step S438).

音声出力装置200のプロセッサ210は、ネットワーク通信部260を介して、サーバ100からメッセージと手話の動作命令とを受信する(ステップS440)。プロセッサ210は、スピーカ280を介して、受信したメッセージを音声出力する(ステップS442)。また、プロセッサ110は、腕駆動部274と指駆動部274−3とを介して、腕と指とを動かす(ステップS442)。   The processor 210 of the audio output device 200 receives a message and a sign language operation command from the server 100 via the network communication unit 260 (step S440). The processor 210 outputs the received message as voice via the speaker 280 (step S442). In addition, the processor 110 moves the arm and the finger via the arm driving unit 274 and the finger driving unit 274-3 (step S442).

より詳細には、放送局や番組制作者などが、TV放送前に予めメッセージを準備している場合には、メッセージデータベース121に、モード毎に、出力時間と音声メッセージと部位動作命令とが格納されることが好ましい。しかしながら、サーバ100の管理者やスマートフォン700のユーザがTV番組を見てメッセージを入力する場合には、部位動作命令を入力しなくてもよい。   More specifically, when a broadcast station or a program producer prepares a message in advance before TV broadcasting, the message database 121 stores an output time, a voice message, and a part operation command for each mode. It is preferred that However, when the administrator of the server 100 or the user of the smartphone 700 inputs a message while watching a TV program, it is not necessary to input a part operation command.

このように、本実施の形態においては、従来よりも自由に音声出力装置200にメッセージを出力させることができる。   Thus, in the present embodiment, it is possible to cause the voice output device 200 to output a message more freely than in the past.

なお、第4の実施の形態においては、音声出力装置200が、メッセージを音声出力しながら、手話の動作を実行するものであった。しかしながら、音声出力装置200は、手話装置であってもよい。すなわち、手話装置は、メッセージを音声出力せずに、番組の内容に対応する手話の動作、あるいは番組で話されるセリフそのものを示す手話の動作を実行するものであってもよい。   In the fourth embodiment, the voice output device 200 executes a sign language operation while outputting a message as a voice. However, the audio output device 200 may be a sign language device. That is, the sign language device may execute a sign language operation corresponding to the contents of the program or a sign language operation indicating a speech itself spoken in the program without outputting the message as a voice.

すなわち、本実施の形態においては、図14のステップS442において、プロセッサ110は、腕駆動部274と指駆動部274−3とを介して、腕と指とを動かす。そして、サーバ100は、手話の動作命令を取得できればよいため、メッセージの入力を受け付けて当該メッセージから手話の動作命令を作成してもよいし、メッセージの入力を受け付けずにスマートフォン700から手話の動作命令だけを受け付けてもよい。
<その他の応用例>
That is, in this embodiment, in step S442 in FIG. 14, the processor 110 moves the arm and the finger via the arm driving unit 274 and the finger driving unit 274-3. Since the server 100 only needs to be able to acquire a sign language operation command, the server 100 may receive a message input and create a sign language operation command from the message. Alternatively, the server 100 may operate the sign language operation from the smartphone 700 without receiving a message input. Only instructions may be accepted.
<Other application examples>

本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体(あるいはメモリ)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。   It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium (or memory) storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores it in the storage medium. The effect of the present invention can also be enjoyed by reading and executing the program code.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written to another storage medium provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU of the function expansion board or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

そして、上記の複数の実施の形態に記載の構成は、互いに組み合わせたり、一部のみを採用したり、一部のみを省いたりすることができる。
<上記の複数の実施の形態のまとめ>
The configurations described in the plurality of embodiments can be combined with each other, only a part thereof can be adopted, or only a part can be omitted.
<Summary of the above embodiments>

上記の第1から第4の実施の形態においては、音声出力装置200と、インターネットを介して音声出力装置200と通信可能なサーバ100とを備えるネットワークシステム1が提供される。サーバ100は、TV番組に対応する音声データを音声出力装置200に送信する。これによって、従来よりも自由に音声出力装置にメッセージを出力させることができるようになる。   In the first to fourth embodiments, the network system 1 including the audio output device 200 and the server 100 that can communicate with the audio output device 200 via the Internet is provided. The server 100 transmits audio data corresponding to the TV program to the audio output device 200. As a result, a message can be output to the audio output device more freely than in the past.

また、上記の第1から第4の実施の形態においては、音声出力装置200は、テレビのチャンネルを検知して、当該チャンネルをサーバ100に送信する。サーバ100は、チャンネルに基づいてTV番組に対応する音声データを音声出力装置200に送信する。   In the first to fourth embodiments, the audio output device 200 detects a television channel and transmits the channel to the server 100. The server 100 transmits audio data corresponding to the TV program to the audio output device 200 based on the channel.

また、上記の第1から第4の実施の形態においては、音声出力装置200は、動物の形状を有する。音声出力装置200がユーザから受け付けた扱い方に関するデータをサーバ100に送信する。サーバ100は、データに基づいて、音声データを音声出力装置200に送信する。   In the first to fourth embodiments, the audio output device 200 has an animal shape. The audio output device 200 transmits data relating to the handling accepted from the user to the server 100. The server 100 transmits audio data to the audio output device 200 based on the data.

また、上記の第1から第4の実施の形態においては、サーバ100は、TV番組に対応する動作データも音声出力装置200に送信する。   In the first to fourth embodiments, the server 100 also transmits operation data corresponding to the TV program to the audio output device 200.

また、上記の第2および第4の実施の形態においては、サーバ100は、他の端末700からテキストを受信して、TV番組に対応する音声データとしてテキストに対応する音声データを音声出力装置200に送信する。   In the second and fourth embodiments described above, the server 100 receives text from the other terminal 700 and converts the audio data corresponding to the text as the audio data corresponding to the TV program to the audio output device 200. Send to.

また、上記の第3および第4の実施の形態においては、サーバ100は、手話のための動作データを音声出力装置200に送信する。   In the third and fourth embodiments, server 100 transmits operation data for sign language to voice output device 200.

また、上記の第3および第4の実施の形態においては、サーバ100は、テキストの入力を受け付けて、テキストに対応する手話のための動作データを音声出力装置200に送信する。   In the third and fourth embodiments described above, the server 100 receives input of text and transmits operation data for sign language corresponding to the text to the voice output device 200.

また、上記の第1から第4の実施の形態においては、音声出力装置200と、ネットワークを介して音声出力装置と通信可能なサーバ100と、を含むネットワークシステム1における音声出力方法が提供される。音声出力方法は、サーバ100が、TV番組に対応する音声データを音声出力装置200に送信するステップと、音声出力装置200が、音声データに基づいて音声を出力するステップとを備える。   In the first to fourth embodiments described above, there is provided an audio output method in the network system 1 including the audio output device 200 and the server 100 that can communicate with the audio output device via the network. . The audio output method includes a step in which the server 100 transmits audio data corresponding to a TV program to the audio output device 200 and a step in which the audio output device 200 outputs audio based on the audio data.

また、上記の第1から第4の実施の形態においては、ネットワークを介して音声出力装置と通信するための通信インターフェイス160と、プロセッサ110とを備えるサーバ100が提供される。プロセッサ110は、通信インターフェイス160を介してTV番組に対応する音声データを音声出力装置200に送信する。   In the first to fourth embodiments, a server 100 including a communication interface 160 for communicating with an audio output device via a network and a processor 110 is provided. The processor 110 transmits audio data corresponding to the TV program to the audio output device 200 via the communication interface 160.

また、上記の第2および第4の実施の形態においては、プロセッサ110は、通信インターフェイス160を介して、他の端末700からテキストを受信し、通信インターフェイス160を介して、音声出力装置200にテキストに対応する音声データを送信する。   In the second and fourth embodiments described above, the processor 110 receives text from the other terminal 700 via the communication interface 160 and sends the text to the voice output device 200 via the communication interface 160. Audio data corresponding to is sent.

また、上記の第1から第4の実施の形態においては、ネットワークを介してサーバ100と通信するための通信インターフェイス260と、スピーカ280と、プロセッサ210とを備える音声出力装置200が提供される。プロセッサ210は、通信インターフェイス260を利用することによって、インターネットを介して、TV番組に対応する音声データをサーバ100から受信し、当該音声データに基づいてスピーカ280に音声を出力させる。   In the first to fourth embodiments, the audio output device 200 including the communication interface 260 for communicating with the server 100 via the network, the speaker 280, and the processor 210 is provided. The processor 210 uses the communication interface 260 to receive audio data corresponding to the TV program from the server 100 via the Internet, and causes the speaker 280 to output audio based on the audio data.

また、上記の第1から第4の実施の形態においては、音声出力装置200は、IR受信部265をさらに備える。プロセッサ210は、IR受信部265を介してチャンネル命令を受け付け、通信インターフェイス260を利用することによってチャンネル命令をサーバ100に送信する。   In the first to fourth embodiments, the audio output device 200 further includes an IR receiver 265. The processor 210 receives a channel command via the IR receiver 265 and transmits the channel command to the server 100 by using the communication interface 260.

好ましくは、音声出力装置200は、部位駆動部272,274,274−3,276をさらに備える。プロセッサ210は、通信インターフェイス260を利用することによって、インターネットを介して、TV番組に対応する動作データをサーバ100から受信し、当該動作データに基づいて部位駆動部を制御する。   Preferably, the audio output device 200 further includes site drive units 272, 274, 274-3, 276. The processor 210 uses the communication interface 260 to receive operation data corresponding to the TV program from the server 100 via the Internet, and controls the part driving unit based on the operation data.

また、上記の第1から第4の実施の形態においては、ネットワークを介してサーバ100と通信するための通信インターフェイス260と、スピーカ280と、プロセッサ210とを含む音声出力装置200における音声出力方法が提供される。音声出力方法は、プロセッサ210が、通信インターフェイス260を利用することによって、インターネットを介して、サーバ100からTV番組に対応する音声データを受信するステップと、プロセッサ210が、音声データに基づいてスピーカ280に音声を出力させるステップとを備える。   In the first to fourth embodiments described above, there is an audio output method in the audio output device 200 including the communication interface 260 for communicating with the server 100 via the network, the speaker 280, and the processor 210. Provided. In the audio output method, the processor 210 uses the communication interface 260 to receive audio data corresponding to the TV program from the server 100 via the Internet, and the processor 210 uses the speaker 280 based on the audio data. And outputting a sound.

また、上記の第1から第4の実施の形態においては、ネットワークを介してサーバ100と通信するための通信インターフェイス260と、スピーカ280と、プロセッサ210とを含む音声出力装置200のための音声出力プログラムが提供される。音声出力プログラムは、通信インターフェイス260を利用することによって、インターネットを介して、サーバ100からTV番組に対応する音声データを受信するステップと、音声データに基づいてスピーカ280に音声を出力させるステップとをプロセッサ210に実行させる。   In the first to fourth embodiments, the audio output for the audio output device 200 including the communication interface 260 for communicating with the server 100 via the network, the speaker 280, and the processor 210 is provided. A program is provided. The audio output program uses the communication interface 260 to receive audio data corresponding to the TV program from the server 100 via the Internet, and to output audio to the speaker 280 based on the audio data. Cause the processor 210 to execute.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 :ネットワークシステム
1B :ネットワークシステム
1C :ネットワークシステム
1D :ネットワークシステム
100 :サーバ
110 :プロセッサ
120 :メモリ
121 :メッセージデータベース
130 :ライト
140 :スイッチ
160 :通信インターフェイス
200 :音声出力装置
200B :音声出力装置
210 :プロセッサ
220 :メモリ
230 :接触センサ
245 :音声認識部
260 :通信インターフェイス(ネットワーク通信部)
265 :IR受信部
270 :マイク
272 :首駆動部
274 :腕駆動部
274−3 :指駆動部
276 :脚駆動部
280 :スピーカ
300 :テレビ
310 :プロセッサ
320 :メモリ
330 :ディスプレイ
340 :スイッチ
365 :IR受信部
380 :スピーカ
390 :アンテナ用チューナ
400 :リモートコントローラ
500 :ルータ
700 :端末(スマートフォン)
710 :プロセッサ
720 :メモリ
730 :ディスプレイ
740 :ポインティングデバイス
750 :タッチパネル
760 :通信インターフェイス
1: Network system 1B: Network system 1C: Network system 1D: Network system 100: Server 110: Processor 120: Memory 121: Message database 130: Light 140: Switch 160: Communication interface 200: Audio output device 200B: Audio output device 210 : Processor 220: Memory 230: Contact sensor 245: Voice recognition unit 260: Communication interface (network communication unit)
265: IR receiver 270: Microphone 272: Neck driver 274: Arm driver 274-3: Finger driver 276: Leg driver 280: Speaker 300: Television 310: Processor 320: Memory 330: Display 340: Switch 365: IR receiver 380: speaker 390: antenna tuner 400: remote controller 500: router 700: terminal (smart phone)
710: Processor 720: Memory 730: Display 740: Pointing device 750: Touch panel 760: Communication interface

Claims (15)

音声出力装置と、
インターネットを介して前記音声出力装置と通信可能なサーバとを備え、
前記サーバは、TV番組に対応する音声データを前記音声出力装置に送信する、ネットワークシステム。
An audio output device;
A server capable of communicating with the audio output device via the Internet,
The network system, wherein the server transmits audio data corresponding to a TV program to the audio output device.
前記音声出力装置は、テレビのチャンネルを検知して、当該チャンネルを前記サーバに送信し、
前記サーバは、前記チャンネルに基づいて前記TV番組に対応する前記音声データを前記音声出力装置に送信する、請求項1に記載のネットワークシステム。
The audio output device detects a television channel and transmits the channel to the server.
The network system according to claim 1, wherein the server transmits the audio data corresponding to the TV program to the audio output device based on the channel.
前記音声出力装置は、動物の形状を有し、
前記音声出力装置は、ユーザから受け付けた扱い方に関するデータを前記サーバに送信し、
前記サーバは、前記データに基づいて、前記音声データを前記音声出力装置に送信する、請求項1または2に記載のネットワークシステム。
The audio output device has an animal shape,
The audio output device transmits data on the handling method received from the user to the server,
The network system according to claim 1, wherein the server transmits the audio data to the audio output device based on the data.
前記サーバは、前記TV番組に対応する動作データも前記音声出力装置に送信する、請求項1から3のいずれか1項に記載のネットワークシステム。   4. The network system according to claim 1, wherein the server also transmits operation data corresponding to the TV program to the audio output device. 5. 前記サーバは、他の端末からテキストを受信して、前記TV番組に対応する音声データとして前記テキストに対応する音声データを前記音声出力装置に送信する、請求項1から3のいずれか1項に記載のネットワークシステム。   4. The server according to claim 1, wherein the server receives text from another terminal, and transmits audio data corresponding to the text to the audio output device as audio data corresponding to the TV program. 5. The network system described. 前記サーバは、手話のための動作データを前記音声出力装置に送信する、請求項1から3のいずれか1項に記載のネットワークシステム。   4. The network system according to claim 1, wherein the server transmits operation data for sign language to the audio output device. 5. 前記サーバは、テキストの入力を受け付けて、前記テキストに対応する手話のための動作データを前記音声出力装置に送信する、請求項1から3のいずれか1項に記載のネットワークシステム。   4. The network system according to claim 1, wherein the server receives an input of text and transmits operation data for sign language corresponding to the text to the voice output device. 5. 音声出力装置と、ネットワークを介して前記音声出力装置と通信可能なサーバと、を含むネットワークシステムにおける音声出力方法であって、
前記サーバが、TV番組に対応する音声データを前記音声出力装置に送信するステップと、
前記音声出力装置が、前記音声データに基づいて音声を出力するステップとを備える、音声出力方法。
An audio output method in a network system including an audio output device and a server capable of communicating with the audio output device via a network,
The server transmitting audio data corresponding to a TV program to the audio output device;
A step of outputting a voice based on the voice data.
ネットワークを介して音声出力装置と通信するための通信インターフェイスと、
プロセッサとを備え、
前記プロセッサは、前記通信インターフェイスを介してTV番組に対応する音声データを音声出力装置に送信する、サーバ。
A communication interface for communicating with the audio output device via the network;
With a processor,
The server, wherein the processor transmits audio data corresponding to a TV program to the audio output device via the communication interface.
前記プロセッサは、
前記通信インターフェイスを介して、他の端末からテキストを受信し、
前記通信インターフェイスを介して、前記音声出力装置に前記テキストに対応する音声データを送信する、請求項9に記載のサーバ。
The processor is
Receive text from other terminals via the communication interface,
The server according to claim 9, wherein voice data corresponding to the text is transmitted to the voice output device via the communication interface.
ネットワークを介してサーバと通信するための通信インターフェイスと、
スピーカと、
プロセッサとを備え、
前記プロセッサは、前記通信インターフェイスを利用することによって、インターネットを介して、TV番組に対応する音声データを前記サーバから受信し、当該音声データに基づいて前記スピーカに音声を出力させる、音声出力装置。
A communication interface for communicating with the server via the network;
Speakers,
With a processor,
The processor outputs audio data corresponding to a TV program from the server via the Internet by using the communication interface, and causes the speaker to output audio based on the audio data.
IR受信部をさらに備え、
前記プロセッサは、前記IR受信部を介してチャンネル命令を受け付け、前記通信インターフェイスを利用することによって前記チャンネル命令を前記サーバに送信する、請求項11に記載の音声出力装置。
An IR receiver,
The audio output device according to claim 11, wherein the processor receives a channel command via the IR receiver, and transmits the channel command to the server by using the communication interface.
部位駆動部をさらに備え、
前記プロセッサは、前記通信インターフェイスを利用することによって、インターネットを介して、TV番組に対応する動作データを前記サーバから受信し、当該動作データに基づいて前記部位駆動部を制御する、請求項11または12に記載の音声出力装置。
It further includes a part drive unit,
The processor receives operation data corresponding to a TV program from the server via the Internet by using the communication interface, and controls the part driving unit based on the operation data. 12. The audio output device according to 12.
ネットワークを介してサーバと通信するための通信インターフェイスと、スピーカと、プロセッサとを含む音声出力装置における音声出力方法であって、
前記プロセッサが、前記通信インターフェイスを利用することによって、インターネットを介して、前記サーバからTV番組に対応する音声データを受信するステップと、
前記プロセッサが、前記音声データに基づいて前記スピーカに音声を出力させるステップとを備える、音声出力方法。
An audio output method in an audio output device including a communication interface for communicating with a server via a network, a speaker, and a processor,
Receiving the audio data corresponding to the TV program from the server via the Internet by using the communication interface;
And a step of causing the processor to output a sound based on the sound data.
ネットワークを介してサーバと通信するための通信インターフェイスと、スピーカと、プロセッサとを含む音声出力装置のための音声出力プログラムであって、
前記通信インターフェイスを利用することによって、インターネットを介して、前記サーバからTV番組に対応する音声データを受信するステップと、
前記音声データに基づいて前記スピーカに音声を出力させるステップとを前記プロセッサに実行させる、音声出力プログラム。
An audio output program for an audio output device including a communication interface for communicating with a server via a network, a speaker, and a processor,
Receiving audio data corresponding to a TV program from the server via the Internet by using the communication interface;
An audio output program that causes the processor to execute a step of causing the speaker to output audio based on the audio data.
JP2014170291A 2014-08-25 2014-08-25 Network system, voice output device, server, voice output method, and voice output program Pending JP2016045758A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014170291A JP2016045758A (en) 2014-08-25 2014-08-25 Network system, voice output device, server, voice output method, and voice output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014170291A JP2016045758A (en) 2014-08-25 2014-08-25 Network system, voice output device, server, voice output method, and voice output program

Publications (1)

Publication Number Publication Date
JP2016045758A true JP2016045758A (en) 2016-04-04

Family

ID=55636254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014170291A Pending JP2016045758A (en) 2014-08-25 2014-08-25 Network system, voice output device, server, voice output method, and voice output program

Country Status (1)

Country Link
JP (1) JP2016045758A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0460578A (en) * 1990-06-29 1992-02-26 Nec Home Electron Ltd Home lesson system
JP2002063505A (en) * 2000-08-16 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> Information distributing method, information distribution center device, information distributing terminal device, and character figure
JP2009207634A (en) * 2008-03-03 2009-09-17 Namco Bandai Games Inc Program, information memory medium and game machine
JP2010032733A (en) * 2008-07-28 2010-02-12 Asutemu:Kk Finger language image generating system, server, terminal device, information processing method, and program
JP2011228848A (en) * 2010-04-16 2011-11-10 Ntt Communications Corp Program evaluation information providing apparatus, program evaluation information providing method, and program
JP2013146291A (en) * 2012-01-17 2013-08-01 Sharp Corp Robot apparatus, control program, and computer-readable recording medium having control program recorded therein

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0460578A (en) * 1990-06-29 1992-02-26 Nec Home Electron Ltd Home lesson system
JP2002063505A (en) * 2000-08-16 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> Information distributing method, information distribution center device, information distributing terminal device, and character figure
JP2009207634A (en) * 2008-03-03 2009-09-17 Namco Bandai Games Inc Program, information memory medium and game machine
JP2010032733A (en) * 2008-07-28 2010-02-12 Asutemu:Kk Finger language image generating system, server, terminal device, information processing method, and program
JP2011228848A (en) * 2010-04-16 2011-11-10 Ntt Communications Corp Program evaluation information providing apparatus, program evaluation information providing method, and program
JP2013146291A (en) * 2012-01-17 2013-08-01 Sharp Corp Robot apparatus, control program, and computer-readable recording medium having control program recorded therein

Similar Documents

Publication Publication Date Title
JP5785218B2 (en) Network system, server, home appliance, program, and home appliance linkage method
JP6752870B2 (en) Methods and systems for controlling artificial intelligence devices using multiple wake words
CN107370649B (en) Household appliance control method, system, control terminal and storage medium
EP2613313B1 (en) Image display apparatus and method of controlling the same
EP2610862B1 (en) Electronic apparatus and method of controlling electronic apparatus
JP2005311864A (en) Household appliances, adapter instrument, and household appliance system
JP7293365B2 (en) VIDEO DISPLAY DEVICE AND OPERATION METHOD THEREOF
EP2915567A1 (en) Method and device for controlling doll with app and operating the interactive doll
TW201408052A (en) Television device and method for displaying virtual on-screen interactive moderator of the television device
US20130114826A1 (en) Light bulb holder module with built-in speaker
JP6461713B2 (en) Equipment linkage system and equipment
TW202101190A (en) Virtual assistant device
US11907616B2 (en) Electronic apparatus, display apparatus and method of controlling the same
WO2016027561A1 (en) Network system, sound output method, server, communication terminal, and electrical device
JP2005086768A (en) Controller, control method, and program
TWI699059B (en) Wiring device system, wiring device program and voice control system of wiring device
US11169774B2 (en) Electronic apparatus and control method thereof
JP2016045758A (en) Network system, voice output device, server, voice output method, and voice output program
WO2018168006A1 (en) Network system, information processing method, server, and terminal
JP2014043961A (en) Air conditioner
WO2018079063A1 (en) Network system, server, information processing method, air conditioner and program
WO2018168007A1 (en) Server, information processing method, network system, and terminal
JP4281542B2 (en) Communication system and communication apparatus
EP4184309A1 (en) Display device
CN212485705U (en) Voice-controlled air conditioner companion intelligent socket

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180612