JP2016063415A - Network system, audio output method, server, device and audio output program - Google Patents
Network system, audio output method, server, device and audio output program Download PDFInfo
- Publication number
- JP2016063415A JP2016063415A JP2014190259A JP2014190259A JP2016063415A JP 2016063415 A JP2016063415 A JP 2016063415A JP 2014190259 A JP2014190259 A JP 2014190259A JP 2014190259 A JP2014190259 A JP 2014190259A JP 2016063415 A JP2016063415 A JP 2016063415A
- Authority
- JP
- Japan
- Prior art keywords
- information
- server
- output
- processor
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000004891 communication Methods 0.000 claims description 117
- 230000015654 memory Effects 0.000 description 62
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 230000009471 action Effects 0.000 description 8
- 230000010365 information processing Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Selective Calling Equipment (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、家電から出力される音をサーバから制御するための技術に関する。 The present invention relates to a technique for controlling sound output from a home appliance from a server.
従来から、冷蔵庫やエアコンなどの家電に音声を出力させるための技術が提案されている。たとえば、特開2005−103679号公報(特許文献1)には、ロボット装置が開示されている。特開2005−103679号公報(特許文献1)によると、ロボット装置のシステムコントローラは、スケジュール管理情報記憶部に記憶されたスケジュール管理情報に従って、ユーザ毎にその行動をサポートするためのスケジュール管理処理を実行する。スケジュール管理情報記憶部には、ユーザ識別情報と、当該ユーザ識別情報で指定されるユーザが実行すべき行動と、当該行動の開始条件とが対応付けて記憶されている。システムコントローラは、開始条件で指定される条件が成立した場合、その成立した開始条件に対応するユーザ識別情報で指定されるユーザに対して、そのユーザの行動をサポートするためのサポート処理を実行する。 Conventionally, techniques for outputting sound to home appliances such as a refrigerator and an air conditioner have been proposed. For example, Japanese Patent Laying-Open No. 2005-103679 (Patent Document 1) discloses a robot apparatus. According to Japanese Patent Laying-Open No. 2005-103679 (Patent Document 1), the system controller of the robot apparatus performs a schedule management process for supporting the behavior for each user according to the schedule management information stored in the schedule management information storage unit. Run. The schedule management information storage unit stores user identification information, an action to be executed by the user specified by the user identification information, and a start condition for the action in association with each other. When the condition specified by the start condition is satisfied, the system controller executes a support process for supporting the user's action for the user specified by the user identification information corresponding to the satisfied start condition. .
しかしながら、従来のネットワークシステムでは、ユーザを識別するために家電などに精度が高いカメラやマイクなどを搭載する必要があった。また、顔画像や音声のマッチング処理も煩雑なものであった。そこで、本発明の目的は、精度の高いカメラやマイクを有さずとも、あるいは顔画像や音声のマッチングをせずとも、ユーザまたは状況などに適した音声を出力することができるネットワークシステム、音声出力方法、サーバ、機器、およびプログラムを提供することにある。 However, in the conventional network system, it is necessary to mount a highly accurate camera, microphone, or the like on the home appliance in order to identify the user. Also, the face image and voice matching processing is complicated. Therefore, an object of the present invention is to provide a network system and an audio that can output audio suitable for a user or a situation without having a highly accurate camera and microphone, or without matching face images and audio. To provide an output method, a server, a device, and a program.
この発明のある態様に従うと、第1の機器と、第2の機器と、第1の機器が取得する第1の情報と第2の機器が取得する第2の情報とメッセージと出力用機器との対応関係を参照可能なサーバとを備えるネットワークシステムが提供される。サーバは、対応関係を参照することによって、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させる。なお、出力用機器は、第1の機器と第2の機器と他の機器のいずれかである。 According to an aspect of the present invention, the first device, the second device, the first information acquired by the first device, the second information acquired by the second device, the message, and the output device A network system is provided that includes a server capable of referencing the corresponding relationship. By referring to the correspondence relationship, the server causes the corresponding output device to output a voice message corresponding to the first information and the second information. Note that the output device is one of the first device, the second device, and another device.
好ましくは、対応関係は、時間帯を指定するための情報を含む。サーバは、第1の情報および第2の情報の少なくともいずれかが時間帯内に取得された場合に、メッセージを出力用機器に音声出力させる。 Preferably, the correspondence relationship includes information for designating a time zone. When at least one of the first information and the second information is acquired within the time period, the server causes the output device to output a message.
好ましくは、対応関係は、時間間隔を指定するための情報を含む。サーバは、第1の情報の取得と第2の情報の取得との間隔が時間間隔内である場合に、メッセージを出力用機器に音声出力させる。 Preferably, the correspondence relationship includes information for designating a time interval. The server causes the output device to output a voice message when the interval between the acquisition of the first information and the acquisition of the second information is within the time interval.
好ましくは、対応関係は、メッセージが出力されたか否かを示す情報を含む。 Preferably, the correspondence relationship includes information indicating whether or not a message has been output.
好ましくは、第1の情報は、第1の機器に対する操作を示す情報である。第2の情報は、第2の機器に対する操作を示す情報である。 Preferably, the first information is information indicating an operation on the first device. The second information is information indicating an operation on the second device.
好ましくは、第1の情報は、第1の機器がセンサを利用して取得した情報である。第2の情報は、第2の機器がセンサを利用して取得した情報である。 Preferably, the first information is information acquired by the first device using a sensor. The second information is information acquired by the second device using a sensor.
この発明の別の態様に従うと、第1の機器と第2の機器とサーバとを含むネットワークシステムにおける音声出力方法が提供される。音声出力方法は、第1の機器が第1の情報をサーバに送信するステップと、第2の機器が第2の情報をサーバに送信するステップと、サーバが、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとを備える。なお、出力用機器は、第1の機器と第2の機器と他の機器のいずれかである。 According to another aspect of the present invention, an audio output method in a network system including a first device, a second device, and a server is provided. The audio output method includes a step in which the first device transmits the first information to the server, a step in which the second device transmits the second information to the server, and the server includes the first information and the second information. And outputting a message corresponding to the information to the corresponding output device by voice. Note that the output device is one of the first device, the second device, and another device.
この発明の別の態様に従うと、第1の機器と第2の機器と通信するための通信インターフェイスと、第1の機器が取得する第1の情報と第2の機器が取得する第2の情報とメッセージと出力用機器との対応関係を参照可能なプロセッサとを備えるサーバが提供される。プロセッサは、対応関係を参照することによって、通信インターフェイスを介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させる。なお、出力用機器は、第1の機器と第2の機器と他の機器のいずれかである。 According to another aspect of the present invention, a communication interface for communicating with the first device and the second device, first information acquired by the first device, and second information acquired by the second device And a processor that can refer to the correspondence between the message and the output device. The processor causes the corresponding output device to output the message corresponding to the first information and the second information via the communication interface by referring to the correspondence relationship. Note that the output device is one of the first device, the second device, and another device.
この発明の別の態様に従うと、第1の機器と第2の機器と通信するための通信インターフェイスとプロセッサとを含むサーバにおける音声出力方法が提供される。音声出力方法は、プロセッサが、通信インターフェイスを介して、第1の機器から第1の情報を受け付けるステップと、プロセッサが、通信インターフェイスを介して、第2の機器から第2の情報を受け付けるステップと、プロセッサが、通信インターフェイスを介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとを備える。なお、出力用機器は、第1の機器と第2の機器と他の機器のいずれかである。 According to another aspect of the present invention, there is provided an audio output method in a server including a communication interface and a processor for communicating with a first device and a second device. The audio output method includes a step in which a processor receives first information from a first device via a communication interface, and a step in which the processor receives second information from a second device via a communication interface; The processor includes outputting a message corresponding to the first information and the second information to the corresponding output device via the communication interface. Note that the output device is one of the first device, the second device, and another device.
この発明の別の態様に従うと、第1の機器と第2の機器と通信するための通信インターフェイスとプロセッサとを含むサーバのための音声出力プログラムが提供される。音声出力プログラムは、通信インターフェイスを介して、第1の機器から第1の情報を受け付けるステップと、通信インターフェイスを介して、第2の機器から第2の情報を受け付けるステップと、通信インターフェイスを介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとをプロセッサに実行させる。なお、出力用機器は、第1の機器と第2の機器と他の機器のいずれかである。 According to another aspect of the present invention, an audio output program for a server is provided that includes a communication interface and a processor for communicating with a first device and a second device. The audio output program receives the first information from the first device via the communication interface, accepts the second information from the second device via the communication interface, and via the communication interface. , Causing the processor to execute a step of outputting a message corresponding to the first information and the second information to the corresponding output device. Note that the output device is one of the first device, the second device, and another device.
この発明の別の態様に従うと、サーバと通信するための通信インターフェイスと、ユーザからの操作を受け付けるための入力部と、スピーカと、プロセッサとを備える機器が提供される。プロセッサは、入力部を介してユーザの操作を受け付け、通信インターフェイスを介いて当該操作をサーバに送信し、サーバから当該操作に対応するメッセージを受信し、当該メッセージをスピーカに音声出力させる。 According to another aspect of the present invention, an apparatus is provided that includes a communication interface for communicating with a server, an input unit for receiving an operation from a user, a speaker, and a processor. The processor receives a user operation via the input unit, transmits the operation to the server via the communication interface, receives a message corresponding to the operation from the server, and causes the speaker to output the message as a voice.
以上のように、この発明によれば、精度の高いカメラやマイクを有さずとも、あるいは顔画像や音声のマッチングをせずとも、ユーザまたは状況などに適した音声を出力することができるネットワークシステム、音声出力方法、サーバ、機器、およびプログラムが提供される。 As described above, according to the present invention, it is possible to output a sound suitable for a user or a situation without having a highly accurate camera or microphone, or without matching a face image and sound. A system, an audio output method, a server, a device, and a program are provided.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
<ネットワークシステムの全体構成>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<First Embodiment>
<Overall configuration of network system>
まず、図1および図2を参照して、本実施の形態にかかるネットワークシステム1の全体構成について説明する。なお、図1は、本実施の形態にかかるネットワークシステム1の全体構成と第1の動作概要とを示すイメージ図である。図2は、本実施の形態にかかるネットワークシステム1の全体構成と第2の動作概要とを示すイメージ図である。
First, the overall configuration of the
本実施の形態にかかるネットワークシステム1は、主に、照明200A、冷蔵庫200B、エアコン200C、テレビ200D、扉センサ200E、ウォシュレット(登録商標)コントローラ200Fなどの機器と、機器の音声出力を制御するための音声出力サーバ100と、通信端末としてのアダプタ300A,300B,300C,300D,300E,300Fと、アダプタ300A,300B,300C,300D,300E,300Fをインターネットに接続するためのルータ400と、ニュースや天予報などの各種の情報を提供するデータベース701と、データベース701のデータに基づいて音声データを作成して音声出力サーバ100に渡す音声作成サーバ700と、通信端末としてのスマートフォン600A,600B,600Cと、パーソナルコンピュータ600Dと、当該通信端末とデータを送受信するためのアプリケーションサーバ500と、アプリケーションサーバ500で利用される情報を格納するデータベース501と、を含む。
The
なお、音声出力サーバ100または音声作成サーバ700が、データベース701の情報の一部または全部を記憶してもよいし、アプリケーションサーバ500が、データベース501の情報の一部または全部を記憶してもよい。
Note that the
音声出力サーバ100は、インターネットやルータ400を介してアダプタ300A,300B,300C,300D、300E,300Fおよび音声作成サーバ700に接続される。たとえば、音声出力サーバ100は、管理者から発話命令を受け付けたり、音声作成サーバ700からの発話命令を受け付けたりする。音声出力サーバ100は、発話命令に基づいて、アダプタ300A,300B,300C,300D,300E,300Fを介して、照明200A、冷蔵庫200B,エアコン200C,テレビ200D,扉センサ200E,ウォシュレットコントローラ200Fに音声を出力させる。
The
照明200A,冷蔵庫200B,エアコン200C,テレビ200D,扉センサ200E,ウォシュレットコントローラ200Fなどの機器は、ユーザから受け付けた操作命令やセンサで取得したデータなどをアダプタ300A,300B,300C,300D,300E,300F、ルータ400およびインターネットなどを介して音声出力サーバ100および音声作成サーバ700に送信する。逆に、照明200A,冷蔵庫200B,エアコン200C,テレビ200D,扉センサ200E,ウォシュレットコントローラ200Fなどの機器は、音声出力サーバ100および音声作成サーバ700からの音声データ取得指示、音声データ、発話指示および制御命令に基づいて各種の動作を実行する。
Devices such as the
なお、機器は、照明200A,冷蔵庫200B,エアコン200C,テレビ200D,扉センサ200E,ウォシュレットコントローラ200Fに限らず、加湿器、除湿器、自走式掃除機、洗濯機などの家電、ハードディスクレコーダ、音楽プレーヤーなどのAV(オーディオ・ビジュアル)機器、太陽光発電機、インターホン、給湯器などの住宅設備、などであってもよい。なお、以下では、これらの装置を総称して、機器200ともいう。
The devices are not limited to
本実施の形態にかかる機器200の各々は、UART(Universal Asynchronous Receiver Transmitter)などの通信インターフェイスを介して、通信用のアダプタ300A,300B,300C,300D,300E,300Fとデータの送受信を行う。
Each of the
通信用のアダプタ300A,300B,300C,300D,300E,300Fは、UARTなどの通信インターフェイスを介して、機器200と通信を行う。本実施の形態においては、通信用のアダプタ300A,300B,300C,300D,300E,300Fは、WiFi(登録商標)などの無線LAN用の通信インターフェイスを介してルータ400と通信を行う。ただし、通信用のアダプタ300A,300B,300C,300D,300E,300Fは、有線LAN用の通信インターフェイスを介してルータ400と通信を行ってもよい。通信用のアダプタ300A、300B,300C,300D,300E,300Fは、機器200からのデータを、ルータ400やインターネットを介して音声出力サーバ100に送信する。逆に、通信用のアダプタ300A、300B,300C,300D,300E,300Fは、音声出力サーバ100からのデータを機器200に送信する。なお、以下では、通信用のアダプタ300A,300B,300C,300D,300E,300Fを総称して、アダプタ300ともいう。
The
ルータ400は、アダプタ300とインターネットとを中継する。
The
スマートフォン600A,600B,600C、ノートパソコン600Dなどは、機器制御アプリケーションを利用することによって、アプリケーションサーバ500を介して、機器200から情報を入手したり、機器200を制御したりすることができる。なお、以下では、スマートフォン600A,600B,600C、ノートパソコン600Dなどを総称して、通信端末600ともいう。
<ネットワークシステムの動作概要>
The
<Overview of network system operation>
次に、図1および図2を参照して、本実施の形態にかかるネットワークシステム1の動作概要について説明する。
Next, an outline of the operation of the
本実施の形態においては、機器200は、ユーザから直接的に、あるいはユーザからリモコンやスマートフォン600Aなどの通信端末600を介して、様々な操作情報を受け付ける。機器200は、受け付けた操作情報を、アダプタ300を介して、音声出力サーバ100に送信する。また、機器200は、画像センサ、音声センサ、温度センサ、通信インターフェイスなどを介して取得したデータを、アダプタ300を介して、音声出力サーバ100に送信する。そして、音声出力サーバ100は、家族が所有する複数の機器200のそれぞれに入力される複数の操作情報、または家族が所有する複数の機器200のそれぞれが取得した画像データ、音声データ、その他のデータに応じて、当該複数の操作情報または取得した他のデータに対応するメッセージをいずれかの機器200に音声出力させる。
In the present embodiment,
たとえば、図1に示すように、男の子供が住宅の玄関の扉を開けて住宅内に入ってくると、扉センサ200Eが玄関の扉が開いたことを検知する。あるいは、扉センサ200Eは、玄関を誰かが通過したことを検知する。音声出力サーバ100は、玄関の扉が開いた旨の情報を扉センサ200Eから受信する。次に、男の子が、冷蔵庫200Bの扉を開けると、音声出力サーバ100は、冷蔵庫200Bから扉が開けられた旨の操作情報を受信する。
For example, as shown in FIG. 1, when the boys open the entrance door of the house and enter the house, the
なお、本実施の形態においては、ネットワークシステム1が、玄関の扉が開いたことを検知するための扉センサ200Eを含んでいるが、たとえば、ドアの本体の動きまたは位置ではなく、ドアノブの動きまたは位置や、ドアの鍵の動きまたは位置を検知するセンサを利用してもよい。当該センサが、玄関扉を誰かが通過したことを検知して、検知結果を音声出力サーバ100に送信するものであってもよい。
In the present embodiment, the
音声出力サーバ100は、扉センサ200Eと冷蔵庫200Bからのデータに基づいて、当該2つの機器を操作したのが長男であることを特定する。本実施の形態においては、予め家族に属する人間が取りやすい行動がデータベースに格納されているため、音声出力サーバ100は当該データベースを参照することによって、複数の家電が取得した情報からユーザを特定することができる。
The
その結果、音声出力サーバ100は、機器が取得したデータおよび/または特定されたユーザに適したメッセージを機器200に音声出力させることができる。なお、サーバ100は、機器を操作したのが誰であるかを特定する必要はない。複数の機器と複数の情報とに対応するメッセージを機器に送信すればよい。
As a result, the
あるいは、図2に示すように、母が朝起きて、リビングの照明200AをONすると、音声出力サーバ100は、照明200AがON命令を受け付けた旨の情報を照明200Aから受信する。次に、母が、冷蔵庫200Bの扉を開けると、音声出力サーバ100は、冷蔵庫200Bから扉が開けられた旨の操作情報を受信する。
Alternatively, as illustrated in FIG. 2, when the mother wakes up in the morning and turns on the
音声出力サーバ100は、照明200Aと冷蔵庫200Bからのデータに基づいて、当該2つの機器を操作したのが母であることを特定する。具体的には、音声出力サーバ100は、データベースを参照することによって、2つの家電に対する操作情報から母を特定することができる。
The
その結果、音声出力サーバ100は、機器が取得したデータおよび/またはユーザに適したメッセージを機器200に音声出力させることができる。なお、サーバ100は、機器を操作したのが誰であるかを特定する必要はない。複数の機器と複数の情報とに対応するメッセージを機器に送信すればよい。
As a result, the
このように、本実施の形態にかかるネットワークシステム1では、精度の高いカメラやマイクを有さずとも、あるいは顔画像や音声のマッチングをせずとも、複数の機器で取得される情報に基づいて、ユーザを特定したり、対応するメッセージを音声出力させたりすることができる。
As described above, the
なお、本実施の形態においては、音声出力サーバ100は、音声データを取得させるための指示と、機器200に音声を発話させるための指示と、を別々のタイミングでアダプタ300に送信する。これによって、音声出力サーバ100は、毎回音声データを送信することなく、発話指示によって自由な組み合わせ音声を機器200から出力させることが可能になる。すなわち、従来よりも柔軟に音声出力サーバ100が機器200の音声出力を制御することができる。
In the present embodiment, the
また、データ送受信のトラフィック量が比較的少ないときに音声データをダウンロードさせることもできるため、ネットワークのトラフィック量の最大値の増大を抑制することができる。 Also, since the voice data can be downloaded when the traffic volume of data transmission / reception is relatively small, an increase in the maximum value of the network traffic volume can be suppressed.
また、発話指示は、音声データを含む必要がなくなるので、データ量が小さい。そのため、WebSocketなどを利用した常時接続によって送信しても、他のデータ送信の妨げになりにくい。つまり、サービスの管理者またはユーザが望むタイミングで、即座に発話指示をアダプタ300に受信させることができる。その結果、サービスの管理者またはユーザが望むタイミングで、即座に機器200に音声を出力させることができる。
Further, since the utterance instruction does not need to include voice data, the data amount is small. For this reason, even if data is transmitted by always-on connection using WebSocket or the like, it is difficult to prevent other data transmission. That is, it is possible to cause the
ただし、音声出力サーバ100は、機器200にメッセージを音声出力させるたびに、メッセージの音声データを送るものであってもよい。
However, the
以下では、このような機能を実現するためのネットワークシステム1について詳細に説明する。
<音声出力サーバ100のハードウェア構成>
Hereinafter, the
<Hardware Configuration of
まず、ネットワークシステム1を構成する音声出力サーバ100のハードウェア構成の一態様について説明する。なお、図3は、本実施の形態にかかる音声出力サーバ100のハードウェア構成を表わすブロック図である。
First, an aspect of the hardware configuration of the
図3を参照して、音声出力サーバ100は、主たる構成要素として、プロセッサ110と、メモリ120と、各種ライト130と、各種スイッチ140と、通信インターフェイス160とを含む。
Referring to FIG. 3,
プロセッサ110は、メモリ120あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、音声出力サーバ100の各部を制御する。すなわち、プロセッサ110は、メモリ120に格納されているプログラムを実行することによって、後述する各種の処理を実行する。
The
メモリ120は、各種のRAM(Random Access Memory)、各種のROM(Read-Only Memory)、フラッシュメモリーなどによって実現される。なお、メモリ120は、インターフェイスを介して利用される、USB(Universal Serial Bus)(登録商標)メモリ、CD(Compact Disc)、DVD(Digital Versatile Disk)、メモリカード、ハードディスク、IC(Integrated Circuit)カード、光カード、マスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの記憶媒体などによっても実現される。
The
メモリ120は、プロセッサ110によって実行されるプログラムや、プロセッサ110によるプログラムの実行により生成されたデータ、スイッチ140から入力されたデータ、機器200、アダプタ300、音声作成サーバ700、アプリケーションサーバ500、通信端末600から受信したデータを記憶する。なお、メモリ120は、音声データベース1211および機器データベース1212を記憶する。ただし、音声データベース1211および機器データベース1212の一部または両方は、音声作成サーバ700またはデータベース701に格納されるものであってもよい。あるいは、音声データベース1211および機器データベース1212の一部または両方は、音声出力サーバ100および音声作成サーバ700から参照可能に、その他の装置に格納されるものであってもよい。
The
ここで、図4は、本実施の形態にかかる音声データベース1211のデータ構造を示すイメージ図である。図4を参照して、音声データベース1211は、第1の機器を特定するための情報と、第1の機器に対する操作または第1の機器が取得する情報と、第2の機器を特定するための情報と、第2の機器に対する操作または第2の機器が取得する情報と、対象ユーザと、メッセージ、出力用機器、出力フラグとの対応関係を格納する。なお、対象ユーザが音声データベース1211に含まれていなくてもよい。
Here, FIG. 4 is an image diagram showing a data structure of the
なお、メッセージは、メッセージを特定するための音声IDであってもよいし、メッセージの音声データそのものであってもよいし、メッセージのテキストデータであってもよい。 Note that the message may be a voice ID for identifying the message, the voice data of the message itself, or the text data of the message.
また、音声データベース1211のレコード毎のメッセージは、固定であってもよい。あるいは、音声出力サーバ100の管理者または当該サービスの提供者が変更するものであってもよい。あるいは、天気予報や花粉に関する情報やPM2.5に関する情報や店舗の安売り情報など、他のWebサーバなどから取得する情報に基づいて、音声出力サーバ100のプロセッサ110や音声作成サーバ700のプロセッサ710が、毎朝または毎時などの定期的に、あるいは新たな情報を入手する度などに、作成するものであってもよい。また、メッセージは、固定メッセージと、定期的に変更するメッセージの組み合わせであってもよい。
Further, the message for each record in the
これによって、プロセッサ110は、音声データベース1211を参照することによって、第1の機器に対する操作または第1の機器が取得した画像データ・音声データなどと、第2の機器に対する操作または第2の機器が取得した画像データ・音声データなどと、に基づいてユーザおよび/または当該ユーザの動作に適したメッセージを特定することができる。
As a result, the
ここで、図5は、本実施の形態にかかる機器データベース1212のデータ構造を示すイメージ図である。図5を参照して、機器データベース1212は、機器を特定するための機器IDと、機器のアドレスと、機器を所有する家族またはグループを特定するための家族IDと、第1の機器としてのデータを既に受信しているか否かを示すフラグとの対応関係を格納する。
Here, FIG. 5 is an image diagram showing a data structure of the
これによって、プロセッサ110は、機器データベース1212を参照することによって、機器を所有している家族またはグループを特定することができる。また、プロセッサ110は、機器データベース1212を参照することによって、機器と同じ家族に属する他の機器を特定することができる。
Thus, the
図3に戻って、ライト130は、プロセッサ110からの信号によって点灯・点滅・消灯することによって、音声出力サーバ100の各種の状態を外部に伝える。
Returning to FIG. 3, the light 130 transmits various states of the
スイッチ140は、管理者からの命令を受け付けて、当該命令をプロセッサ110に入力する。
The
通信インターフェイス160は、プロセッサ110からのデータを、インターネット、キャリア網、ルータなどを介してアダプタ300、音声作成サーバ700に送信する。通信インターフェイス160は、インターネット、キャリア網、ルータなどを介してアダプタ300、音声作成サーバ700からのデータを受信して、プロセッサ110に受け渡す。
<機器200のハードウェア構成>
The
<Hardware Configuration of
次に、機器200のハードウェア構成の一態様について説明する。図6は、本実施の形態にかかる機器200のハードウェア構成を表わすブロック図である。
Next, an aspect of the hardware configuration of the
図6を参照して、機器200は、主たる構成要素として、プロセッサ210と、メモリ220と、各種ライト230と、各種スイッチ240と、通信インターフェイス260と、スピーカ270と、機器駆動部290とを含む。
Referring to FIG. 6,
プロセッサ210は、メモリ220あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、機器200の各部を制御する。すなわち、プロセッサ210は、メモリ220に格納されているプログラムを実行することによって、後述する各種の処理を実行する。
The
メモリ220は、各種のRAM、各種のROM、フラッシュメモリーなどによって実現される。メモリ220は、プロセッサ210によって実行されるプログラムや、プロセッサ210によるプログラムの実行により生成されたデータ、入力されたデータ、音声出力サーバ100から受信したデータなどを記憶する。
The
ライト230は、プロセッサ210からの信号によって点灯・点滅・消灯することによって、機器200の各種の状態を外部に伝える。
The light 230 transmits various states of the
スイッチ240は、ユーザからの命令を受け付けて、当該命令をプロセッサ210に入力する。
The
通信インターフェイス260は、プロセッサ210からのデータ、たとえば、機器が検知した各種の状態および機器がユーザからリモコンを介して受け付けた命令など、をアダプタ300に送信する。換言すれば、通信インターフェイス160は、上記データをアダプタ300、ルータ400、インターネットなどを介して音声出力サーバ100および音声作成サーバ700に送信する。通信インターフェイス260は、インターネット、ルータ400、アダプタ300などを介して音声出力サーバ100からのデータ、音声作成サーバ700からのデータ、他の端末からの制御命令、音声データ、発話命令および閲覧命令を受信してプロセッサ210に受け渡す。
The
スピーカ270は、プロセッサ210からの音声信号に基づいて音声、音楽などの様々な音声を出力する。
The
リモコン受光部280は、リモコンからの赤外線信号やその他の電波信号を受光して、当該信号をプロセッサ110に入力する。
The remote control
機器駆動部290は、プロセッサ210からの制御命令に基づいて、モータ、アクチュエータ、センサなどを制御することによって、機器200の主要な役割を果たす。
The
機器200は、その他にも、カメラなどの画像センサ、マイクなどの音声センサ、温度センサ、人感センサなどを搭載してもよい。そして、プロセッサ210は、当該センサを介して取得した各種の情報を、通信インターフェイス260を介して、サーバ100に送信する。
<アダプタ300のハードウェア構成>
In addition, the
<Hardware configuration of
次に、アダプタ300のハードウェア構成の一態様について説明する。図7は、本実施の形態にかかるアダプタ300のハードウェア構成を表わすブロック図である。
Next, an aspect of the hardware configuration of the
図7を参照して、アダプタ300は、主たる構成要素として、プロセッサ310と、メモリ320と、各種ライト330と、各種スイッチ340と、第1の通信インターフェイス361と、第2の通信インターフェイス362とを含む。
Referring to FIG. 7, the
プロセッサ310は、メモリ320あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、アダプタ300の各部を制御する。すなわち、プロセッサ310は、メモリ320に格納されているプログラムを実行することによって、後述する各種の処理を実行する。
The
メモリ320は、各種のRAM、各種のROM、フラッシュメモリーなどによって実現される。メモリ320は、プロセッサ310によって実行されるプログラムや、プロセッサ310によるプログラムの実行により生成されたデータ、入力されたデータ、音声出力サーバ100、音声作成サーバ700、アプリケーションサーバ500、通信端末600から受信したデータなどを記憶する。本実施の形態においては、図8に示すように、メモリ320は、予め音声出力サーバ100または音声作成サーバ700から受信した音声データベース321を記憶する。
The
ここで、図8は、本実施の形態にかかる音声データベース321のデータ構造を示すイメージ図である。図8を参照して、音声データベース321は、音声データ毎に、音声IDと音声データとの対応関係を格納する。ただし、音声データベース321は、音声データそのものの代わりに、音声データの格納先を示す音声データのアドレスを格納してもよい。
Here, FIG. 8 is an image diagram showing a data structure of the
なお、音声データベース321と、音声データそのものとは、機器200に格納されてもよい。この場合は、機器200のプロセッサ210が、アダプタ300を介して、音声出力サーバ100からの指示に基づいて、それらのデータを上書きしたり、削除したりしてもよい。
Note that the
本実施の形態においては、音声IDを音声データに付与する際のルールとして、たとえば、音声IDの前の3ケタが対象となる機器の種類を特定し、音声IDの次の3ケタが機器の設置場所や地域を特定し、音声IDの後ろからの2ケタ目が音声データの種類を特定する。たとえば、下2ケタ目が「5」は天気に関するメッセージである。下2ケタ目が「7」の場合は、食べ物に関するメッセージである。下2ケタ目が「9」の場合はエラーを示すメッセージである。 In the present embodiment, as a rule for assigning a voice ID to voice data, for example, the type of device for which three digits before the voice ID are targeted is specified, and the next three digits after the voice ID is the device. The installation location and area are specified, and the second digit from the back of the audio ID specifies the type of audio data. For example, the lower second digit “5” is a message about the weather. If the second digit is “7”, it is a message about food. When the lower second digit is “9”, it is a message indicating an error.
音声出力サーバ100は、第1の機器への操作および第2の機器への操作に基づいて、出力用機器としての機器200のアダプタ300に、メッセージを特定するための音声IDを送信する。出力用機器としての機器200のアダプタ300のプロセッサ310は、メモリ320から音声データを取得して、機器200に音声を出力させる。
The
ただし、音声出力サーバ100は、第1の機器への操作および第2の機器への操作に基づいて、メッセージを特定するためのテキストデータや、メッセージの音声データそのものを、出力用機器としてのアダプタ300に送信したり、アダプタ300を介して出力用機器としての機器200に送信したりしてもよい。この場合は、アダプタ300が、図8の音声データベース321を格納する必要はない。
However, the
図7に戻って、ライト330は、プロセッサ310からの信号によって点灯・点滅・消灯することによって、アダプタ300の各種の状態を外部に伝える。
Returning to FIG. 7, the light 330 transmits the various states of the
スイッチ340は、ユーザからの命令を受け付けて、当該命令をプロセッサ310に入力する。
The
第1の通信インターフェイス361は、UARTなどによって実現されて、プロセッサ310からのデータを機器200に送信したり、機器200からのデータをプロセッサ310に受け渡したりする。たとえば、プロセッサ310は、発話指示に基づいて、第1の通信インターフェイス361を介して、音声データを機器200に送信することによって、機器200に音声を出力させる。
The
ただし、音声データベース321が機器200に記憶されていてもよい。この場合は、プロセッサ310は、音声IDを含む発話指示を機器200に送信するだけであってもよい。この場合は、機器200のプロセッサ210が、発話指示に基づいて、メモリ220に格納されている音声データをスピーカ270に出力する。
However, the
第2の通信インターフェイス362は、WiFi(登録商標)アンテナなどによって実現されて、プロセッサ310からのデータをルータ400およびインターネットを介して音声出力サーバ100または音声作成サーバ700に送信したり、音声出力サーバ100または音声作成サーバ700からのデータのプロセッサ110に受け渡したりする。たとえば、プロセッサ310は、第2の通信インターフェイス362を介して、音声出力サーバ100から音声データ取得指示や発話指示や音声データ自体を受信する。プロセッサ310は、第2の通信インターフェイス362を介して、音声出力サーバ100に音声データの取得が完了した旨の通知や発話が完了した旨の通知を送信する。
<音声作成サーバ700のハードウェア構成>
The
<Hardware Configuration of
次に、ネットワークシステム1を構成する音声作成サーバ700のハードウェア構成の一態様について説明する。なお、図9は、本実施の形態にかかる音声作成サーバ700のハードウェア構成を表わすブロック図である。
Next, an aspect of the hardware configuration of the
図9を参照して、音声作成サーバ700は、主たる構成要素として、プロセッサ710と、メモリ720と、各種ライト730と、各種スイッチ740と、通信インターフェイス760とを含む。
Referring to FIG. 9, the
プロセッサ710は、メモリ720あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、音声作成サーバ700の各部を制御する。すなわち、プロセッサ710は、メモリ720に格納されているプログラムを実行することによって各種の処理を実行する。
The
メモリ720の具体例は、音声出力サーバ100と同様であるため、ここでは説明を繰り返さない。メモリ720は、プロセッサ710によって実行されるプログラムや、プロセッサ710によるプログラムの実行により生成されたデータ、入力されたデータ、機器200、アダプタ300、音声出力サーバ100から受信したデータを記憶する。なお、メモリ720は、図1に示すデータベース701を記憶してもよい。
A specific example of the
ライト730は、プロセッサ710からの信号によって点灯・点滅・消灯することによって、音声作成サーバ700の各種の状態を外部に伝える。
The light 730 is turned on / flashing / turned off in response to a signal from the
スイッチ740は、管理者からの命令を受け付けて、当該命令をプロセッサ510に入力する。
The
通信インターフェイス760は、プロセッサ710からのデータを、インターネット、キャリア網、ルータ400などを介してアダプタ300、音声出力サーバ100に送信する。通信インターフェイス760は、インターネット、キャリア網、ルータ400などを介してアダプタ300、音声出力サーバ100からのデータを受信して、プロセッサ710に受け渡す。
<アプリケーションサーバ500のハードウェア構成>
The
<Hardware Configuration of
次に、ネットワークシステム1を構成するアプリケーションサーバ500のハードウェア構成の一態様について説明する。なお、図10は、本実施の形態にかかるアプリケーションサーバ500のハードウェア構成を表わすブロック図である。
Next, an aspect of the hardware configuration of the
図10を参照して、アプリケーションサーバ500は、主たる構成要素として、プロセッサ510と、メモリ520と、各種ライト530と、各種スイッチ540と、通信インターフェイス560とを含む。
Referring to FIG. 10,
プロセッサ510は、メモリ520あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、アプリケーションサーバ500の各部を制御する。すなわち、プロセッサ510は、メモリ520に格納されているプログラムを実行することによって、後述する各種の処理を実行する。
The
メモリ520の具体例は、音声出力サーバ100と同様であるため、ここでは説明を繰り返さない。メモリ520は、プロセッサ510によって実行されるプログラムや、プロセッサ510によるプログラムの実行により生成されたデータ、入力されたデータ、機器200、アダプタ300、音声出力サーバ100、通信端末600から受信したデータを記憶する。なお、メモリ520は、図1に示すデータベース501を記憶してもよい。
A specific example of the
ライト530は、プロセッサ510からの信号によって点灯・点滅・消灯することによって、アプリケーションサーバ500の各種の状態を外部に伝える。
The light 530 is lit, flashed, or turned off by a signal from the
スイッチ540は、管理者からの命令を受け付けて、当該命令をプロセッサ510に入力する。
The
通信インターフェイス560は、プロセッサ510からのデータを、インターネット、キャリア網、ルータ400などを介してアダプタ300、音声出力サーバ100、通信端末600に送信する。通信インターフェイス560は、インターネット、キャリア網、ルータ400などを介してアダプタ300、音声出力サーバ100、通信端末600からのデータを受信して、プロセッサ510に受け渡す。
<通信端末600のハードウェア構成>
The
<Hardware configuration of
次に、通信端末600のハードウェア構成の一態様について説明する。なお、図11は、本実施の形態にかかる通信端末600のハードウェア構成を表わすブロック図である。
Next, an aspect of the hardware configuration of the
図11を参照して、通信端末600は、主たる構成要素として、プロセッサ610と、メモリ620と、タッチパネル650(ディスプレイ630とポインティングデバイス640)と、通信インターフェイス660と、スピーカ680とを含む。
Referring to FIG. 11,
プロセッサ610は、メモリ620あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、通信端末600の各部を制御する。すなわち、プロセッサ610は、メモリ620に格納されているプログラムを実行することによって、後述する各種の処理を実行する。
The processor 610 controls each unit of the
メモリ620は、各種のRAM、各種のROM、フラッシュメモリーなどによって実現される。なお、メモリ620は、様々なインターフェイスを介して利用される、SDカードやマイクロSDカードのようなメモリカード、USB(登録商標)メモリ、CD、DVD、ハードディスク、ICカード、光カード、マスクROM、EPROM、EEPROMなどの記憶媒体などによっても実現される。 The memory 620 is realized by various RAMs, various ROMs, flash memories, and the like. The memory 620 is used via various interfaces, such as a memory card such as an SD card or a micro SD card, a USB (registered trademark) memory, a CD, a DVD, a hard disk, an IC card, an optical card, a mask ROM, It is also realized by a storage medium such as EPROM or EEPROM.
メモリ620は、プロセッサ610によって実行されるプログラムや、プロセッサ610によるプログラムの実行により生成されたデータ、ポインティングデバイス640を介して入力されたデータ、音声出力サーバ100およびアプリケーションサーバ500から受信したデータなどを記憶する。特に、本実施の形態においては、メモリ620は、機器制御アプリケーションを記憶している。プロセッサ610は、メモリ620の機器制御アプリケーションに従って、機器200の制御命令をアプリケーションサーバ500に送信したり、機器200に音声を出力させるための発話命令を音声出力サーバ100に送信したり、機器200からの情報を受信したりする。
The memory 620 stores a program executed by the processor 610, data generated by execution of the program by the processor 610, data input via the pointing device 640, data received from the
ディスプレイ630は、プロセッサ610からの信号に基づいて、文字や画像を出力する。ポインティングデバイス640は、ユーザからの命令を受け付けて、当該命令をプロセッサ610に入力する。なお、本実施の形態においては、通信端末600は、ディスプレイ630とポインティングデバイス640とが組み合わされたタッチパネル650を有する。プロセッサ610は、ディスプレイ630に、機器200を制御するための画面やSNSの家族のページなどを表示させる。
Display 630 outputs characters and images based on signals from processor 610. The pointing device 640 receives a command from the user and inputs the command to the processor 610. In the present embodiment,
通信インターフェイス660は、アンテナやコネクタによって実現される。通信インターフェイス660は、有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。プロセッサ610は、通信インターフェイス660を介して、テキストデータ、画像データなどを、音声出力サーバ100およびアプリケーションサーバ500などの他の装置に送信する。たとえば、プロセッサ610は、機器200に対する制御命令を音声出力サーバ100およびアプリケーションサーバ500に送信する。また、プロセッサ610は、通信インターフェイス660を介して、プログラム、制御命令、画像データ、テキストデータなどを、音声出力サーバ100およびアプリケーションサーバ500などの他の装置から受信する。
The communication interface 660 is realized by an antenna or a connector. The communication interface 660 exchanges data with other devices by wired communication or wireless communication. The processor 610 transmits text data, image data, and the like to other devices such as the
スピーカ680は、プロセッサ610からの音声信号に基づいて通話音声、音楽、動画などの様々な音声を出力する。
<音声出力サーバ100における情報処理>
The speaker 680 outputs various sounds such as a call sound, music, and a moving image based on the sound signal from the processor 610.
<Information Processing in
次に、図12を参照しながら、本実施の形態にかかる音声出力サーバ100の情報処理について説明する。なお、図12は、本実施の形態にかかる音声出力サーバ100の情報処理を示すフローチャートである。
Next, information processing of the
まず、はじめに、音声出力サーバ100のプロセッサ110が、通信インターフェイス160を介して機器200からデータを受信すると、以下の処理を実行する。プロセッサ110は、受信したデータから、機器IDと、機器に対する操作の情報または機器が取得した情報と、を取り出してそれらをメモリ120に格納する(ステップS102)。プロセッサ110は、機器データベース1212と音声データベース1211とを参照し、これまでにメモリ120に格納している機器IDと機器からの情報との組み合わせの中に、今回受信した機器IDと機器からの情報との組み合わせに対応するものがあるか検索する(ステップS104)。
First, when the
たとえば、プロセッサ110は、今回受信した機器IDと機器からの情報との組み合わせが第2の機器と第2の情報とに該当し、今回よりも前に受信した機器IDと機器からの情報との組み合わせが第1の機器と第1の情報とに該当するレコードがあるか否かを判断する。なお、プロセッサ110は、今回受信した機器IDと機器からの情報との組み合わせが第1の機器と第1の情報とに該当し、今回よりも前に受信した機器IDと機器からの情報との組み合わせが第2の機器と第2の情報とに該当するレコードがあるか否かを判断してもよい。
For example, the
これまでにメモリ120に格納している機器IDと機器からの情報との組み合わせの中に、今回受信した機器IDと機器からの情報との組み合わせに対応するものがない場合(ステップS106にてNOの場合)、プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。
If no combination of the device ID and the information from the device stored in the
これまでにメモリ120に格納している機器IDと機器からの情報との組み合わせの中に、今回受信した機器IDと機器からの情報との組み合わせに対応するものがあった場合(ステップS106にてYESの場合)、プロセッサ110は、当該レコードのフラグがOFFであるか否かを判断する(ステップS108)。当該レコードのフラグがONである場合(ステップS108にてNOの場合)、プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。
The combination of the device ID and the information from the device stored in the
当該レコードのフラグがOFFである場合(ステップS108にてYESの場合)、通信インターフェイス160を介して、対応するメッセージの音声データまたは発話指示を出力用機器に送信する(ステップS110)。プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。
If the flag of the record is OFF (YES in step S108), the corresponding message voice data or speech instruction is transmitted to the output device via the communication interface 160 (step S110). The
なお、プロセッサ110は、ステップS110を実行した際は、メモリ120に、記憶されていた今回受信した機器IDと機器からの情報との組み合わせのデータと、それに対応する以前から記憶されていた機器IDと機器からの情報との組み合わせのデータとを削除する。
When the
また、プロセッサ110は、ステップS110を実行した際は、音声データベース1211において、音声出力されたメッセージに対応するフラグをONにする。これによって、同じユーザに同じメッセージを出力する可能性を低減することができる。
In addition, when executing step S110, the
これによって出力用機器としての機器200では、プロセッサ210が、通信インターフェイス260を介して、音声出力サーバ100から発話指示データまたはメッセージの音声データを受信する。プロセッサ210は、当該データに基づいてスピーカ270にメッセージを音声出力させる。
Accordingly, in the
このように、本実施の形態にかかるネットワークシステム1は、ユーザを画像認識するためにカメラを使用したりマッチング処理をしなくても、また、ユーザを音声認識するためにマイクを使用したりマッチング処理をしなくても、ユーザが取りやすい行動を利用して、複数の機器に対する操作や複数の機器が取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりすることができる。
<第2の実施の形態>
As described above, the
<Second Embodiment>
第1の実施の形態においては、複数の機器に対する操作や複数の機器が取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりするものであった。本実施の形態においては、複数の機器に対する操作や複数の機器が取得したデータだけでなく、当該操作が行われた時刻や曜日なども参考にして、ユーザを認識したり、メッセージを特定したりするものである。
<ネットワークシステムの全体構成>
In the first embodiment, a user is recognized or a message is specified based on operations on a plurality of devices and data acquired by the plurality of devices. In the present embodiment, not only operations for a plurality of devices and data acquired by a plurality of devices, but also the time and day of the week when the operations are performed are used as a reference to identify a user or specify a message. To do.
<Overall configuration of network system>
本実施の形態にかかるネットワークシステム1の全体構成は、第1の実施の形態のそれと同様であるため、ここでは説明を繰り返さない。
<ネットワークシステムの動作概要>
Since the overall configuration of
<Overview of network system operation>
次に、図1および図2を参照して、本実施の形態にかかるネットワークシステム1の動作概要について説明する。
Next, an outline of the operation of the
本実施の形態においては、機器200は、ユーザから直接的に、あるいはユーザからリモコンやスマートフォン600Aなどの通信端末600を介して、様々な操作情報を受け付ける。機器200は、受け付けた操作情報を、アダプタ300を介して、音声出力サーバ100に送信する。また、機器200は、画像センサ、音声センサ、温度センサなどを介して取得したデータを、アダプタ300を介して、音声出力サーバ100に送信する。そして、音声出力サーバ100は、家族が所有する複数の機器200のそれぞれに入力される複数の操作情報、または家族が所有する複数の機器200のそれぞれが取得した画像データ、音声データ、その他のデータと、それらの情報およびデータが取得された時刻と曜日とに基づいて、当該複数の操作情報またはデータに対応するメッセージをいずれかの機器200に音声出力させる。
In the present embodiment,
たとえば、図1に示すように、夕方の16時に、男の子供が住宅の玄関の扉を開けて住宅内に入ってくると、音声出力サーバ100は、玄関の扉センサ200Eが人を検知した旨の情報を当該扉センサ200Eから受信する。次に、男の子が、16時3分に、冷蔵庫200Bの扉を開けると、音声出力サーバ100は、冷蔵庫200Bから扉が開けられた旨の操作情報を受信する。
For example, as shown in FIG. 1, when the boys open the entrance door of the house and enter the house at 16:00 in the evening, the
なお、本実施の形態においては、ネットワークシステム1が、玄関の扉センサ200Eを含んでいるが、たとえば、ドアの本体の動きまたは位置や、ドアノブの動きまたは位置や、ドアの鍵の動きまたは位置を検知するセンサを利用してもよい。当該センサが、玄関扉を誰かが通過したことを検知して、検知結果を音声出力サーバ100に送信するものであってもよい。
In the present embodiment, the
音声出力サーバ100は、扉センサ200Eと冷蔵庫200Bからのデータと当該データが取得された時刻とに基づいて、当該2つの機器を操作したのが長男であることを特定する。本実施の形態においては、予め家族に属する人間が取りやすい行動がデータベースに格納されているため、音声出力サーバ100は当該データベースを参照することによって、複数の家電が取得した情報と時刻とからユーザを特定することができる。
The
その結果、音声出力サーバ100は、機器が取得したデータおよび/または特定されたユーザに適したメッセージを機器200に音声出力させることができる。なお、サーバ100は、機器を操作したのが誰であるかを特定する必要はない。複数の機器と複数の情報とに対応するメッセージを機器に送信すればよい。
As a result, the
あるいは、図2に示すように、朝6時に、母が起きて、リビングの照明200AをONすると、音声出力サーバ100は、照明200AがON命令を受け付けた旨の情報を照明200Aから受信する。次に、6時5分に、母が、冷蔵庫200Bの扉を開けると、音声出力サーバ100は、冷蔵庫200Bから扉が開けられた旨の操作情報を受信する。
Alternatively, as illustrated in FIG. 2, when the mother wakes up at 6 am and turns on the living room lighting 200 </ b> A, the
音声出力サーバ100は、照明200Aと冷蔵庫200Bからのデータと当該データが取得された時刻とに基づいて、当該2つの機器を操作したのが母であることを特定する。具体的には、音声出力サーバ100は、データベースを参照することによって、2つの家電に対する操作情報と時刻とから母を特定することができる。
The
その結果、音声出力サーバ100は、機器が取得したデータおよび/またはユーザに適したメッセージを機器200に音声出力させることができる。なお、サーバ100は、機器を操作したのが誰であるかを特定する必要はない。複数の機器と複数の情報とに対応するメッセージを機器に送信すればよい。
As a result, the
このように、本実施の形態にかかるネットワークシステム1では、精度の高いカメラやマイクを有さずとも、あるいは顔画像や音声のマッチングをせずとも、ユーザまたは状況などに適した音声を出力することができる。
As described above, the
なお、本実施の形態においては、音声出力サーバ100は、音声データを取得させるための指示と、機器200に音声を発話させるための指示と、を別々のタイミングでアダプタ300に送信する。これによって、音声出力サーバ100は、毎回音声データを送信することなく、発話指示によって自由な組み合わせ音声を機器200から出力させることが可能になる。すなわち、従来よりも柔軟に音声出力サーバ100が機器200の音声出力を制御することができる。
In the present embodiment, the
ただし、音声出力サーバ100は、機器200にメッセージを音声出力させるたびに、メッセージの音声データを送るものであってもよい。
However, the
以下では、このような機能を実現するためのネットワークシステム1について説明する。ただし、音声出力サーバ100の音声データベース122について説明するものとし、音声出力サーバ100、機器200、アダプタ300、音声作成サーバ700、アプリケーションサーバ500、通信端末600のハードウェア構成の一態様については、第1の実施の形態のそれと同様であるため、ここでは説明を繰り返さない。
Below, the
ここで、図13は、本実施の形態にかかる音声データベース122のデータ構造を示すイメージ図である。図13を参照して、音声データベース122は、第1の機器を特定するための情報と、第1の機器に対する操作または第1の機器が取得する情報と、第2の機器を特定するための情報と、第2の機器に対する操作または第2の機器が取得する情報と、それらの情報を取得すべき時間帯と曜日と、対象ユーザと、メッセージ、出力用機器、出力フラグとの対応関係を格納する。
Here, FIG. 13 is an image diagram showing a data structure of the
これによって、プロセッサ110は、音声データベース1211を参照することによって、第1の機器に対する操作または第1の機器が取得した画像データ・音声データなどと、第2の機器に対する操作または第2の機器が取得した画像データ・音声データなどと、それらのデータを取得した時刻とに基づいてユーザおよび当該ユーザの動作に適したメッセージを特定することができる。
<音声出力サーバ100における情報処理>
As a result, the
<Information Processing in
次に、図12を参照しながら、本実施の形態にかかる音声出力サーバ100の情報処理について説明する。なお、図12は、本実施の形態にかかる音声出力サーバ100の情報処理を示すフローチャートである。
Next, information processing of the
まず、はじめに、音声出力サーバ100のプロセッサ110が、通信インターフェイス160を介して機器200からデータを受信すると、以下の処理を実行する。プロセッサ110は、受信したデータから、機器IDと、機器からの情報と、当該情報が取得された時刻とを取り出してそれらをメモリ120に格納する(ステップS102)。プロセッサ110は、機器データベース1212と音声データベース1211とを参照し、これまでにメモリ120に格納している機器IDと機器からの情報と時刻組み合わせの中に、今回受信した機器IDと機器からの情報と時刻の組み合わせに対応するものがあるか検索する(ステップS104)。
First, when the
たとえば、プロセッサ110は、今回受信した機器IDと機器からの情報と時刻との組み合わせが第2の機器と第2の情報とに該当し、今回よりも前に受信した機器IDと機器からの情報と時刻との組み合わせが第1の機器と第1の情報とに該当するレコードがあるか否かを判断する。なお、プロセッサ110は、今回受信した機器IDと機器からの情報と時刻との組み合わせが第1の機器と第1の情報と時刻とに該当し、今回よりも前に受信した機器IDと機器からの情報と時刻との組み合わせが第2の機器と第2の情報と時刻とに該当するレコードがあるか否かを判断してもよい。
For example, the
これまでにメモリ120に格納している機器IDと機器からの情報と時刻との組み合わせの中に、今回受信した機器IDと機器からの情報と時刻との組み合わせに対応するものがない場合(ステップS106にてNOの場合)、プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。
The combination of the device ID, the information from the device, and the time stored in the
これまでにメモリ120に格納している機器IDと機器からの情報と時刻との組み合わせの中に、今回受信した機器IDと機器からの情報と時刻との組み合わせに対応するものがあった場合(ステップS106にてYESの場合)、プロセッサ110は、当該レコードのフラグがOFFであるか否かを判断する(ステップS108)。当該レコードのフラグがONである場合(ステップS108にてNOの場合)、プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。
The combination of the device ID, the information from the device, and the time stored in the
当該レコードのフラグがOFFである場合(ステップS108にてYESの場合)、通信インターフェイス160を介して、対応するメッセージの音声データまたは発話指示を出力用機器に送信する(ステップS110)。プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。
If the flag of the record is OFF (YES in step S108), the corresponding message voice data or speech instruction is transmitted to the output device via the communication interface 160 (step S110). The
なお、プロセッサ110は、ステップS110を実行した際は、メモリ120に、記憶されていた今回受信した機器IDと機器からの情報と時刻との組み合わせのデータと、それに対応する以前から記憶されていた機器IDと機器からの情報と時刻との組み合わせのデータとを削除する。
When the
また、プロセッサ110は、ステップS110を実行した際は、音声データベース1211において、音声出力されたメッセージに対応するフラグをONにする。これによって、同じユーザに同じメッセージを出力する可能性を低減することができる。
In addition, when executing step S110, the
これによって出力用機器としての機器200では、プロセッサ210は、通信インターフェイス260を介して、音声出力サーバ100から受信したメッセージの音声データあるいは発話指示に基づいて、スピーカ270からメッセージを音声出力する。
As a result, in the
このように、本実施の形態にかかるネットワークシステム1は、ユーザを画像認識するためにカメラを使用したりマッチング処理をしなくても、また、ユーザを音声認識するためにマイクを使用したりマッチング処理をしなくても、ユーザが取りやすい行動を利用して、複数の機器に対する操作や複数の機器が取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりすることができる。
<第3の実施の形態>
As described above, the
<Third Embodiment>
第2の実施の形態においては、第1の機器および第1の情報の組み合わせと、第2の機器および第2の情報の組み合わせとに、同じ時間帯が対応付けられている。しかしながら、本実施の形態においては、第1の機器および第1の情報の組み合わせと、第2の機器および第2の情報の組み合わせとに、別々の時間帯を対応付けることができる。ただし、同じ時間帯が対応付けられることが禁止されているわけではない。 In the second embodiment, the same time zone is associated with the combination of the first device and the first information and the combination of the second device and the second information. However, in the present embodiment, different time zones can be associated with the combination of the first device and the first information and the combination of the second device and the second information. However, it is not prohibited to associate the same time zone.
すなわち、図14を参照して、本実施の形態にかかる音声データベース123は、第1の機器を特定するための情報と、第1の機器に対する操作または第1の機器が取得する情報と、当該情報を取得すべき時間帯と、第2の機器を特定するための情報と、第2の機器に対する操作または第2の機器が取得する情報と、当該情報を取得すべき時間帯と曜日と、対象ユーザと、メッセージ、出力用機器、出力フラグとの対応関係を格納する。
That is, with reference to FIG. 14, the
これによって、プロセッサ110は、音声データベース1211を参照することによって、第1の機器に対する操作または第1の機器が取得した画像データ・音声データなどと、当該データを取得した時刻と、第2の機器に対する操作または第2の機器が取得した画像データ・音声データなどと、当該データを取得した時刻とに基づいてユーザおよび当該ユーザの動作に適したメッセージを特定することができる。
<第4の実施の形態>
Accordingly, the
<Fourth embodiment>
第1の実施の形態においては、複数の機器に対する操作や複数の機器が取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりするものであった。本実施の形態においては、複数の機器に対する操作や複数の機器が取得したデータだけでなく、当該複数の機器に対する操作が行われた間隔なども参考にして、ユーザを認識したり、メッセージを特定したりするものである。 In the first embodiment, a user is recognized or a message is specified based on operations on a plurality of devices and data acquired by the plurality of devices. In this embodiment, the user is identified and the message is identified by referring not only to the operations for a plurality of devices and the data acquired by the plurality of devices, but also to the intervals at which the operations for the devices are performed. It is something to do.
すなわち、図15を参照して、本実施の形態にかかる音声データベース124は、第1の機器を特定するための情報と、第1の機器に対する操作または第1の機器が取得する情報と、第2の機器を特定するための情報と、第2の機器に対する操作または第2の機器が取得する情報と、当該2つの情報を取得した間隔に関する条件と、当該2つの情報を取得した曜日と、対象ユーザと、メッセージ、出力用機器、出力フラグとの対応関係を格納する。なお、間隔だけでなく、第2および第3の実施の形態のように、音声データベース124は、時間帯を示す情報も格納してもよい。
That is, referring to FIG. 15, the
これによって、プロセッサ110は、音声データベース1211を参照することによって、第1の機器に対する操作または第1の機器が取得した画像データ・音声データなどと、当該データを取得した時刻と、第2の機器に対する操作または第2の機器が取得した画像データ・音声データなどと、当該データを取得した時刻と、それらから計算される間隔とに基づいてユーザおよび当該ユーザの動作に適したメッセージを特定することができる。
<第5の実施の形態>
Accordingly, the
<Fifth embodiment>
第1の実施の形態においては、第1および第2の機器に対する操作やそれらが取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりするものであった。しかしながら、複数の機器は2つの機器に限られない。本実施の形態においては、第1〜第3の機器に対する操作やそれらが取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりするものである。
<ネットワークシステムの全体構成>
In the first embodiment, the user is recognized and the message is specified based on the operations on the first and second devices and the data acquired by them. However, the plurality of devices is not limited to two devices. In the present embodiment, the user is recognized or the message is specified based on the operations on the first to third devices and the data acquired by them.
<Overall configuration of network system>
本実施の形態にかかるネットワークシステム1の全体構成は、第1の実施の形態のそれと同様であるため、ここでは説明を繰り返さない。
<ネットワークシステムの動作概要>
Since the overall configuration of
<Overview of network system operation>
次に、図16を参照して、本実施の形態にかかるネットワークシステム1の動作概要について説明する。なお、図16は、本実施の形態にかかるネットワークシステム1の全体構成と動作概要とを示すイメージ図である。
Next, with reference to FIG. 16, an outline of the operation of the
本実施の形態においては、機器200は、ユーザから直接的に、あるいはユーザからリモコンやスマートフォン600Aなどの通信端末600を介して、様々な操作情報を受け付ける。機器200は、受け付けた操作情報を、アダプタ300を介して、音声出力サーバ100に送信する。また、機器200は、画像センサ、音声センサ、温度センサなどを介して取得したデータを、アダプタ300を介して、音声出力サーバ100に送信する。そして、音声出力サーバ100は、同じ家族が所有する複数の機器200のそれぞれに入力される複数の操作情報、または同じ家族が所有する複数の機器200のそれぞれが取得した画像データ、音声データ、その他のデータと、それらの情報およびデータが取得された時刻と曜日とに基づいて、当該複数の操作情報またはデータに対応するメッセージをいずれかの機器200に音声出力させる。
In the present embodiment,
たとえば、図2に示すように、朝6時に、母が起きて、リビングの照明200AをONすると、音声出力サーバ100は、照明200AがON命令を受け付けた旨の情報を照明200Aから受信する。次に、6時1分に、母がテレビ200DのスイッチをONすると、音声出力サーバ100は、テレビ200DからスイッチがONされた旨の操作情報を受信する。次に、6時5分に、母が、冷蔵庫200Bの扉を開けると、音声出力サーバ100は、冷蔵庫200Bから扉が開けられた旨の操作情報を受信する。
For example, as shown in FIG. 2, when the mother wakes up at 6 am and turns on the
音声出力サーバ100は、照明200Aとテレビ200Dと冷蔵庫200Bからのデータと当該データが取得された時刻とに基づいて、当該3つの機器を操作したのが母であることを特定する。具体的には、音声出力サーバ100は、データベースを参照することによって、3つの家電に対する操作情報と時刻とから母を特定することができる。
The
その結果、音声出力サーバ100は、機器が取得したデータおよび/またはユーザに適したメッセージを機器200に音声出力させることができる。
As a result, the
このように、本実施の形態にかかるネットワークシステム1では、精度の高いカメラやマイクを有さずとも、あるいは顔画像や音声のマッチングをせずとも、ユーザまたは状況などに適した音声を出力することができる。
As described above, the
なお、本実施の形態においては、音声出力サーバ100は、音声データを取得させるための指示と、機器200に音声を発話させるための指示と、を別々のタイミングでアダプタ300に送信する。これによって、音声出力サーバ100は、毎回音声データを送信することなく、発話指示によって自由な組み合わせ音声を機器200から出力させることが可能になる。すなわち、従来よりも柔軟に音声出力サーバ100が機器200の音声出力を制御することができる。
In the present embodiment, the
ただし、音声出力サーバ100は、機器200にメッセージを音声出力させるたびに、メッセージの音声データを送るものであってもよい。
However, the
以下では、このような機能を実現するためのネットワークシステム1について説明する。ただし、音声出力サーバ100の音声データベース125について説明するものとし、音声出力サーバ100、機器200、アダプタ300、音声作成サーバ700、アプリケーションサーバ500、通信端末600のハードウェア構成の一態様と、音声出力サーバ100の情報処理については、第1の実施の形態のそれと同様であるため、ここでは説明を繰り返さない。
Below, the
ここで、図17は、本実施の形態にかかる音声データベース125のデータ構造を示すイメージ図である。図17を参照して、音声データベース125は、第1の機器を特定するための情報と、第1の機器に対する操作または第1の機器が取得する情報と、第2の機器を特定するための情報と、第2の機器に対する操作または第2の機器が取得する情報と、第3の機器を特定するための情報と、第3の機器に対する操作または第3の機器が取得する情報と、それらの情報を取得すべき曜日と、対象ユーザと、メッセージ、出力用機器、出力フラグとの対応関係を格納する。
Here, FIG. 17 is an image diagram showing a data structure of the
これによって、プロセッサ110は、音声データベース1211を参照することによって、第1の機器に対する操作または第1の機器が取得した画像データ・音声データなどと、第2の機器に対する操作または第2の機器が取得した画像データ・音声データなどと、第3の機器に対する操作または第3の機器が取得した画像データ・音声データなどと、に基づいてユーザおよび当該ユーザの動作に適したメッセージを特定することができる。
As a result, the
このように、本実施の形態にかかるネットワークシステム1も、ユーザを画像認識するためにカメラを使用したりマッチング処理をしなくても、また、ユーザを音声認識するためにマイクを使用したりマッチング処理をしなくても、ユーザが取りやすい行動を利用して、複数の機器に対する操作や複数の機器が取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりすることができる。
<第6の実施の形態>
As described above, the
<Sixth Embodiment>
第1から第5の実施の形態においては、機器200は、アダプタ300を介して、ルータ、インターネット、音声出力サーバ100などと通信するものであった。しかしながら、図18に示すように、機器200が、直接的に、WiFi(登録商標)通信やBluetooth(登録商標)によって、ルータ400を介して、インターネット、音声出力サーバ100と通信するものであってもよい。
<第7の実施の形態>
In the first to fifth embodiments, the
<Seventh embodiment>
第1から第5の実施の形態においては、機器200は、アダプタ300を介して、ルータ、インターネット、音声出力サーバ100などと通信するものであった。しかしながら、図19に示すように、機器200が、アダプタ300を介して、直接的に、すなわちルータ400を介さずに、3G回線、4G回線、LTE(登録商標)回線などのモバイル無線通信網などを介して、インターネット、音声出力サーバ100と通信するものであってもよい。
<第8の実施の形態>
In the first to fifth embodiments, the
<Eighth Embodiment>
さらには、図20に示すように、機器200が、直接的に、すなわちアダプタ300もルータも介さずに、3G回線、4G回線、LTE(登録商標)回線などのモバイル無線通信網などを介して、インターネット、音声出力サーバ100と通信するものであってもよい。
<その他の応用例>
Furthermore, as shown in FIG. 20, the
<Other application examples>
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体(あるいはメモリ)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。 It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium (or memory) storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores it in the storage medium. The effect of the present invention can also be enjoyed by reading and executing the program code.
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
<上記の複数の実施の形態のまとめ>
Furthermore, after the program code read from the storage medium is written to another storage medium provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU of the function expansion board or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
<Summary of the above embodiments>
上記の第1から第8の実施の形態においては、第1の機器200と、第2の機器200と、第1の機器が取得する第1の情報と第2の機器が取得する第2の情報とメッセージと出力用機器200との対応関係を参照可能なサーバ100とを備えるネットワークシステム1が提供される。サーバ100は、対応関係1211,122,123,124,125を参照することによって、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器200に音声出力させる。
In the first to eighth embodiments, the
また、上記の第2および第3の実施の形態においては、対応関係122,123は、時間帯を指定するための情報を含む。サーバ100は、第1の情報および第2の情報の少なくともいずれかが時間帯内に取得された場合に、メッセージを出力用機器200に音声出力させる。
In the second and third embodiments, the
また、上記の第4の実施の形態においては、対応関係124は、時間間隔を指定するための情報を含む。サーバ100は、第1の情報の取得と第2の情報の取得との間隔が時間間隔内である場合に、メッセージを出力用機器に音声出力させる。
In the fourth embodiment, the
また、上記の第1および第8の実施の形態においては、対応関係1211,122,123,124,125は、メッセージが出力されたか否かを示す情報を含む。
In the first and eighth embodiments, the
また、上記の第1および第8の実施の形態においては、第1の情報は、第1の機器に対する操作を示す情報である。第2の情報は、第2の機器に対する操作を示す情報である。 In the first and eighth embodiments, the first information is information indicating an operation on the first device. The second information is information indicating an operation on the second device.
また、上記の第1および第8の実施の形態においては、第1の情報は、第1の機器がセンサを利用して取得した情報である。第2の情報は、第2の機器がセンサを利用して取得した情報である。 In the first and eighth embodiments, the first information is information acquired by the first device using the sensor. The second information is information acquired by the second device using a sensor.
また、上記の第1および第8の実施の形態においては、第1の機器200と第2の機器200とサーバ100とを含むネットワークシステム1における音声出力方法が提供される。音声出力方法は、第1の機器200が第1の情報をサーバ100に送信するステップと、第2の機器200が第2の情報をサーバ100に送信するステップと、サーバ100が、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器200に音声出力させるステップとを備える。
In the first and eighth embodiments described above, an audio output method in the
また、上記の第1および第8の実施の形態においては、第1の機器200と第2の機器200と通信するための通信インターフェイス160と、第1の機器200が取得する第1の情報と第2の機器200が取得する第2の情報とメッセージと出力用機器200との対応関係1211,122,123,124,125を参照可能なプロセッサ110とを備えるサーバ100が提供される。プロセッサ110は、対応関係1211,122,123,124,125を参照することによって、通信インターフェイス160を介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器200に音声出力させる。
In the first and eighth embodiments described above, the
また、上記の第1および第8の実施の形態においては、第1の機器200と第2の機器200と通信するための通信インターフェイス160とプロセッサ110とを含むサーバ100における音声出力方法が提供される。音声出力方法は、プロセッサ110が、通信インターフェイス160を介して、第1の機器200から第1の情報を受け付けるステップと、プロセッサ110が、通信インターフェイス160を介して、第2の機器200から第2の情報を受け付けるステップと、プロセッサ110が、通信インターフェイス160を介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器200に音声出力させるステップとを備える。
In the first and eighth embodiments described above, an audio output method in the
また、上記の第1および第8の実施の形態においては、第1の機器200と第2の機器200と通信するための通信インターフェイス160とプロセッサ110とを含むサーバ100のための音声出力プログラムが提供される。音声出力プログラムは、通信インターフェイス160を介して、第1の機器200から第1の情報を受け付けるステップと、通信インターフェイス160を介して、第2の機器200から第2の情報を受け付けるステップと、通信インターフェイス160を介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器200に音声出力させるステップとをプロセッサに実行させる。
In the first and eighth embodiments described above, an audio output program for the
この発明の別の態様に従うと、サーバ100と通信するための通信インターフェイス260と、ユーザからの操作を受け付けるための入力部240,280と、スピーカ270と、プロセッサ210とを備える機器200が提供される。プロセッサ210は、入力部240,280を介してユーザの操作を受け付け、通信インターフェイス260を介いて当該操作をサーバ100に送信し、サーバ100から当該操作に対応するメッセージを受信し、当該メッセージをスピーカ270に音声出力させる。
According to another aspect of the present invention, there is provided a
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 :ネットワークシステム
100 :音声出力サーバ
110 :プロセッサ
120 :メモリ
1211 :対応関係(音声データベース)
1212 :機器データベース
122 :対応関係(音声データベース)
123 :対応関係(音声データベース)
124 :対応関係(音声データベース)
125 :対応関係(音声データベース)
130 :ライト
140 :スイッチ
160 :通信インターフェイス
200 :機器
200A :照明
200B :冷蔵庫
200C :エアコン
200D :テレビ
200E :扉センサ
200F :ウォシュレットコントローラ
210 :プロセッサ
220 :メモリ
230 :ライト
240 :スイッチ
260 :通信インターフェイス
270 :スピーカ
280 :リモコン受光部
290 :機器駆動部
300 :アダプタ
310 :プロセッサ
320 :メモリ
321 :音声データベース
330 :ライト
340 :スイッチ
361 :第1の通信インターフェイス
362 :第2の通信インターフェイス
400 :ルータ
500 :アプリケーションサーバ
600 :通信端末
700 :音声作成サーバ
1: Network system 100: Voice output server 110: Processor 120: Memory 1211: Correspondence (voice database)
1212: Device database 122: Correspondence relationship (voice database)
123: Correspondence (voice database)
124: correspondence (voice database)
125: Correspondence (voice database)
130: Light 140: Switch 160: Communication interface 200:
Claims (11)
第2の機器と、
前記第1の機器が取得する第1の情報と前記第2の機器が取得する第2の情報とメッセージと出力用機器との対応関係を参照可能なサーバとを備え、
前記サーバは、前記対応関係を参照することによって、前記第1の情報と前記第2の情報とに対応する前記メッセージを、対応する出力用機器に音声出力させる、ネットワークシステム。 A first device;
A second device;
A server capable of referring to the correspondence between the first information acquired by the first device, the second information acquired by the second device, the message, and the output device;
The network system in which the server causes the corresponding output device to output the voice corresponding to the first information and the second information by referring to the correspondence relationship.
前記サーバは、前記第1の情報および前記第2の情報の少なくともいずれかが前記時間帯内に取得された場合に、前記メッセージを出力用機器に音声出力させる、請求項1に記載のネットワークシステム。 The correspondence relationship includes information for designating a time zone,
2. The network system according to claim 1, wherein when at least one of the first information and the second information is acquired within the time period, the server causes the message to be output to the output device. 3. .
前記サーバは、前記第1の情報の取得と前記第2の情報の取得との間隔が前記時間間隔内である場合に、前記メッセージを出力用機器に音声出力させる、請求項1または2に記載のネットワークシステム。 The correspondence includes information for specifying a time interval;
3. The server according to claim 1, wherein when the interval between the acquisition of the first information and the acquisition of the second information is within the time interval, the server causes the output device to output the message by voice. Network system.
前記第2の情報は、前記第2の機器に対する操作を示す情報である、請求項1から4のいずれか1項に記載のネットワークシステム。 The first information is information indicating an operation on the first device,
5. The network system according to claim 1, wherein the second information is information indicating an operation on the second device. 6.
前記第2の情報は、前記第2の機器がセンサを利用して取得した情報である、請求項1から4のいずれか1項に記載のネットワークシステム。 The first information is information acquired by the first device using a sensor,
5. The network system according to claim 1, wherein the second information is information acquired by the second device using a sensor. 6.
前記第1の機器が第1の情報を前記サーバに送信するステップと、
前記第2の機器が第2の情報を前記サーバに送信するステップと、
前記サーバが、前記第1の情報と前記第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとを備える、音声出力方法。 An audio output method in a network system including a first device, a second device, and a server,
The first device transmitting first information to the server;
The second device transmitting second information to the server;
A voice output method, comprising: a step of causing the corresponding output device to output the message corresponding to the first information and the second information by the server.
前記第1の機器が取得する第1の情報と前記第2の機器が取得する第2の情報とメッセージと出力用機器との対応関係を参照可能なプロセッサとを備え、
前記プロセッサは、前記対応関係を参照することによって、前記通信インターフェイスを介して、前記第1の情報と前記第2の情報とに対応する前記メッセージを、対応する出力用機器に音声出力させる、サーバ。 A communication interface for communicating with the first device and the second device;
A first information acquired by the first device, a second information acquired by the second device, a processor capable of referring to a correspondence relationship between the message and the output device;
The processor, by referring to the correspondence relationship, causes the corresponding output device to output the message corresponding to the first information and the second information via the communication interface. .
前記プロセッサが、前記通信インターフェイスを介して、前記第1の機器から第1の情報を受け付けるステップと、
前記プロセッサが、前記通信インターフェイスを介して、前記第2の機器から第2の情報を受け付けるステップと、
前記プロセッサが、前記通信インターフェイスを介して、前記第1の情報と前記第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとを備える、音声出力方法。 An audio output method in a server including a communication interface and a processor for communicating with a first device and a second device,
The processor accepting first information from the first device via the communication interface;
The processor accepting second information from the second device via the communication interface;
A voice output method, comprising: a step of causing the corresponding output device to output a message corresponding to the first information and the second information via the communication interface;
前記通信インターフェイスを介して、前記第1の機器から第1の情報を受け付けるステップと、
前記通信インターフェイスを介して、前記第2の機器から第2の情報を受け付けるステップと、
前記通信インターフェイスを介して、前記第1の情報と前記第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとを前記プロセッサに実行させる、音声出力プログラム。 An audio output program for a server including a communication interface and a processor for communicating with a first device and a second device,
Receiving first information from the first device via the communication interface;
Receiving second information from the second device via the communication interface;
A voice output program that causes the processor to execute a step of outputting a message corresponding to the first information and the second information to a corresponding output device via the communication interface.
ユーザからの操作を受け付けるための入力部と、
スピーカと、
プロセッサとを備え、
前記プロセッサは、前記入力部を介してユーザの操作を受け付け、前記通信インターフェイスを介いて当該操作を前記サーバに送信し、前記サーバから当該操作に対応するメッセージを受信し、当該メッセージを前記スピーカに音声出力させる、機器。 A communication interface for communicating with the server;
An input unit for accepting operations from the user;
Speakers,
With a processor,
The processor receives a user operation via the input unit, transmits the operation to the server via the communication interface, receives a message corresponding to the operation from the server, and sends the message to the speaker. Equipment that outputs sound.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014190259A JP2016063415A (en) | 2014-09-18 | 2014-09-18 | Network system, audio output method, server, device and audio output program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014190259A JP2016063415A (en) | 2014-09-18 | 2014-09-18 | Network system, audio output method, server, device and audio output program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016063415A true JP2016063415A (en) | 2016-04-25 |
Family
ID=55798354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014190259A Pending JP2016063415A (en) | 2014-09-18 | 2014-09-18 | Network system, audio output method, server, device and audio output program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016063415A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104654704A (en) * | 2015-03-13 | 2015-05-27 | 合肥华凌股份有限公司 | Refrigerator |
WO2018150612A1 (en) * | 2017-02-17 | 2018-08-23 | シャープ株式会社 | Network system, sever, information processing method, and refrigerator |
JP2018198348A (en) * | 2017-05-23 | 2018-12-13 | 株式会社ノーリツ | Control device |
JP2019046132A (en) * | 2017-09-01 | 2019-03-22 | シャープ株式会社 | Network system, information processing method, server, and device |
JP2020122589A (en) * | 2019-01-29 | 2020-08-13 | シャープ株式会社 | Air conditioner |
US11355106B2 (en) | 2018-03-30 | 2022-06-07 | Ricoh Company, Ltd. | Information processing apparatus, method of processing information and storage medium comprising dot per inch resolution for scan or copy |
-
2014
- 2014-09-18 JP JP2014190259A patent/JP2016063415A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104654704A (en) * | 2015-03-13 | 2015-05-27 | 合肥华凌股份有限公司 | Refrigerator |
WO2018150612A1 (en) * | 2017-02-17 | 2018-08-23 | シャープ株式会社 | Network system, sever, information processing method, and refrigerator |
JP2018132285A (en) * | 2017-02-17 | 2018-08-23 | シャープ株式会社 | Network system, server, information processing method, and refrigerator |
CN110268212A (en) * | 2017-02-17 | 2019-09-20 | 夏普株式会社 | Network system, server, information processing method and refrigerator |
CN110268212B (en) * | 2017-02-17 | 2021-06-22 | 夏普株式会社 | Network system, server, information processing method and refrigerator |
JP2018198348A (en) * | 2017-05-23 | 2018-12-13 | 株式会社ノーリツ | Control device |
JP2019046132A (en) * | 2017-09-01 | 2019-03-22 | シャープ株式会社 | Network system, information processing method, server, and device |
JP7097161B2 (en) | 2017-09-01 | 2022-07-07 | シャープ株式会社 | Network systems, information processing methods, servers, and equipment |
US11355106B2 (en) | 2018-03-30 | 2022-06-07 | Ricoh Company, Ltd. | Information processing apparatus, method of processing information and storage medium comprising dot per inch resolution for scan or copy |
JP2020122589A (en) * | 2019-01-29 | 2020-08-13 | シャープ株式会社 | Air conditioner |
JP7311272B2 (en) | 2019-01-29 | 2023-07-19 | シャープ株式会社 | air conditioner |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11019130B2 (en) | Method and apparatus for remotely controlling home device in home network system | |
JP2016063415A (en) | Network system, audio output method, server, device and audio output program | |
JP6371889B2 (en) | Network system, server, and information processing method | |
JP6715283B2 (en) | Network system and information processing method | |
JP2019509645A (en) | Home automation system and its products | |
WO2015129372A1 (en) | Audio system | |
CN113273151A (en) | Intelligent device management method, mobile terminal and system | |
CN104852843A (en) | Remote home control system based on WeChat public platform | |
CN111913402A (en) | Smart home batch configuration method, device and system and electronic equipment | |
CN104635537A (en) | Control method for intelligent household electrical appliance | |
JP6602212B2 (en) | Electronic device, method and program | |
CN105049922A (en) | Proximity detection of candidate companion display device in same room as primary display using upnp | |
JP6418863B2 (en) | Network system, audio output method, server, device, and audio output program | |
CN112751734A (en) | Household appliance control method based on cleaning robot, cleaning robot and chip | |
CN103631231A (en) | Method and device for monitoring smart home and smart home system | |
JP2015053585A (en) | Communication system, server device, mobile terminal device, information processing method, and program | |
JP2021152928A (en) | Terminal device, method, and program | |
JP6701016B2 (en) | Device control device, device control system, device control method, and program | |
WO2018079063A1 (en) | Network system, server, information processing method, air conditioner and program | |
JP6607668B2 (en) | Network system, audio output method, server, device, and audio output program | |
CN104036625A (en) | Remote control operation method and apparatus thereof | |
JP6622112B2 (en) | Network system | |
KR20230009211A (en) | Method and system for controlling home appliance | |
WO2016052107A1 (en) | Network system, server, device, and communication terminal | |
CN113641105A (en) | A method, device, device and storage medium for controlling household electrical appliances |