JP2016063415A - Network system, audio output method, server, device and audio output program - Google Patents

Network system, audio output method, server, device and audio output program Download PDF

Info

Publication number
JP2016063415A
JP2016063415A JP2014190259A JP2014190259A JP2016063415A JP 2016063415 A JP2016063415 A JP 2016063415A JP 2014190259 A JP2014190259 A JP 2014190259A JP 2014190259 A JP2014190259 A JP 2014190259A JP 2016063415 A JP2016063415 A JP 2016063415A
Authority
JP
Japan
Prior art keywords
information
server
output
processor
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014190259A
Other languages
Japanese (ja)
Inventor
佐藤 修一
Shuichi Sato
修一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014190259A priority Critical patent/JP2016063415A/en
Publication of JP2016063415A publication Critical patent/JP2016063415A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Selective Calling Equipment (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a network system, an audio output method, a server, a device and an audio output program capable of outputting audio which is appropriate for a user or a situation.SOLUTION: A network system 1 comprises: first devices 200; second devices 200; and a server 100 capable of referring to correspondence relations 1211, 122, 123, 124 and 125 among the first information acquired by the first device, the second information acquired by the second device, messages and output devices 200. The server 100 makes the corresponding output devices 200 output messages corresponding to the first information and the second information with audio by referring to the correspondence relations 1211, 122, 123, 124 and 125.SELECTED DRAWING: Figure 1

Description

本発明は、家電から出力される音をサーバから制御するための技術に関する。   The present invention relates to a technique for controlling sound output from a home appliance from a server.

従来から、冷蔵庫やエアコンなどの家電に音声を出力させるための技術が提案されている。たとえば、特開2005−103679号公報(特許文献1)には、ロボット装置が開示されている。特開2005−103679号公報(特許文献1)によると、ロボット装置のシステムコントローラは、スケジュール管理情報記憶部に記憶されたスケジュール管理情報に従って、ユーザ毎にその行動をサポートするためのスケジュール管理処理を実行する。スケジュール管理情報記憶部には、ユーザ識別情報と、当該ユーザ識別情報で指定されるユーザが実行すべき行動と、当該行動の開始条件とが対応付けて記憶されている。システムコントローラは、開始条件で指定される条件が成立した場合、その成立した開始条件に対応するユーザ識別情報で指定されるユーザに対して、そのユーザの行動をサポートするためのサポート処理を実行する。   Conventionally, techniques for outputting sound to home appliances such as a refrigerator and an air conditioner have been proposed. For example, Japanese Patent Laying-Open No. 2005-103679 (Patent Document 1) discloses a robot apparatus. According to Japanese Patent Laying-Open No. 2005-103679 (Patent Document 1), the system controller of the robot apparatus performs a schedule management process for supporting the behavior for each user according to the schedule management information stored in the schedule management information storage unit. Run. The schedule management information storage unit stores user identification information, an action to be executed by the user specified by the user identification information, and a start condition for the action in association with each other. When the condition specified by the start condition is satisfied, the system controller executes a support process for supporting the user's action for the user specified by the user identification information corresponding to the satisfied start condition. .

特開2005−103679号公報JP 2005-103679 A

しかしながら、従来のネットワークシステムでは、ユーザを識別するために家電などに精度が高いカメラやマイクなどを搭載する必要があった。また、顔画像や音声のマッチング処理も煩雑なものであった。そこで、本発明の目的は、精度の高いカメラやマイクを有さずとも、あるいは顔画像や音声のマッチングをせずとも、ユーザまたは状況などに適した音声を出力することができるネットワークシステム、音声出力方法、サーバ、機器、およびプログラムを提供することにある。   However, in the conventional network system, it is necessary to mount a highly accurate camera, microphone, or the like on the home appliance in order to identify the user. Also, the face image and voice matching processing is complicated. Therefore, an object of the present invention is to provide a network system and an audio that can output audio suitable for a user or a situation without having a highly accurate camera and microphone, or without matching face images and audio. To provide an output method, a server, a device, and a program.

この発明のある態様に従うと、第1の機器と、第2の機器と、第1の機器が取得する第1の情報と第2の機器が取得する第2の情報とメッセージと出力用機器との対応関係を参照可能なサーバとを備えるネットワークシステムが提供される。サーバは、対応関係を参照することによって、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させる。なお、出力用機器は、第1の機器と第2の機器と他の機器のいずれかである。   According to an aspect of the present invention, the first device, the second device, the first information acquired by the first device, the second information acquired by the second device, the message, and the output device A network system is provided that includes a server capable of referencing the corresponding relationship. By referring to the correspondence relationship, the server causes the corresponding output device to output a voice message corresponding to the first information and the second information. Note that the output device is one of the first device, the second device, and another device.

好ましくは、対応関係は、時間帯を指定するための情報を含む。サーバは、第1の情報および第2の情報の少なくともいずれかが時間帯内に取得された場合に、メッセージを出力用機器に音声出力させる。   Preferably, the correspondence relationship includes information for designating a time zone. When at least one of the first information and the second information is acquired within the time period, the server causes the output device to output a message.

好ましくは、対応関係は、時間間隔を指定するための情報を含む。サーバは、第1の情報の取得と第2の情報の取得との間隔が時間間隔内である場合に、メッセージを出力用機器に音声出力させる。   Preferably, the correspondence relationship includes information for designating a time interval. The server causes the output device to output a voice message when the interval between the acquisition of the first information and the acquisition of the second information is within the time interval.

好ましくは、対応関係は、メッセージが出力されたか否かを示す情報を含む。   Preferably, the correspondence relationship includes information indicating whether or not a message has been output.

好ましくは、第1の情報は、第1の機器に対する操作を示す情報である。第2の情報は、第2の機器に対する操作を示す情報である。   Preferably, the first information is information indicating an operation on the first device. The second information is information indicating an operation on the second device.

好ましくは、第1の情報は、第1の機器がセンサを利用して取得した情報である。第2の情報は、第2の機器がセンサを利用して取得した情報である。   Preferably, the first information is information acquired by the first device using a sensor. The second information is information acquired by the second device using a sensor.

この発明の別の態様に従うと、第1の機器と第2の機器とサーバとを含むネットワークシステムにおける音声出力方法が提供される。音声出力方法は、第1の機器が第1の情報をサーバに送信するステップと、第2の機器が第2の情報をサーバに送信するステップと、サーバが、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとを備える。なお、出力用機器は、第1の機器と第2の機器と他の機器のいずれかである。   According to another aspect of the present invention, an audio output method in a network system including a first device, a second device, and a server is provided. The audio output method includes a step in which the first device transmits the first information to the server, a step in which the second device transmits the second information to the server, and the server includes the first information and the second information. And outputting a message corresponding to the information to the corresponding output device by voice. Note that the output device is one of the first device, the second device, and another device.

この発明の別の態様に従うと、第1の機器と第2の機器と通信するための通信インターフェイスと、第1の機器が取得する第1の情報と第2の機器が取得する第2の情報とメッセージと出力用機器との対応関係を参照可能なプロセッサとを備えるサーバが提供される。プロセッサは、対応関係を参照することによって、通信インターフェイスを介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させる。なお、出力用機器は、第1の機器と第2の機器と他の機器のいずれかである。   According to another aspect of the present invention, a communication interface for communicating with the first device and the second device, first information acquired by the first device, and second information acquired by the second device And a processor that can refer to the correspondence between the message and the output device. The processor causes the corresponding output device to output the message corresponding to the first information and the second information via the communication interface by referring to the correspondence relationship. Note that the output device is one of the first device, the second device, and another device.

この発明の別の態様に従うと、第1の機器と第2の機器と通信するための通信インターフェイスとプロセッサとを含むサーバにおける音声出力方法が提供される。音声出力方法は、プロセッサが、通信インターフェイスを介して、第1の機器から第1の情報を受け付けるステップと、プロセッサが、通信インターフェイスを介して、第2の機器から第2の情報を受け付けるステップと、プロセッサが、通信インターフェイスを介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとを備える。なお、出力用機器は、第1の機器と第2の機器と他の機器のいずれかである。   According to another aspect of the present invention, there is provided an audio output method in a server including a communication interface and a processor for communicating with a first device and a second device. The audio output method includes a step in which a processor receives first information from a first device via a communication interface, and a step in which the processor receives second information from a second device via a communication interface; The processor includes outputting a message corresponding to the first information and the second information to the corresponding output device via the communication interface. Note that the output device is one of the first device, the second device, and another device.

この発明の別の態様に従うと、第1の機器と第2の機器と通信するための通信インターフェイスとプロセッサとを含むサーバのための音声出力プログラムが提供される。音声出力プログラムは、通信インターフェイスを介して、第1の機器から第1の情報を受け付けるステップと、通信インターフェイスを介して、第2の機器から第2の情報を受け付けるステップと、通信インターフェイスを介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとをプロセッサに実行させる。なお、出力用機器は、第1の機器と第2の機器と他の機器のいずれかである。   According to another aspect of the present invention, an audio output program for a server is provided that includes a communication interface and a processor for communicating with a first device and a second device. The audio output program receives the first information from the first device via the communication interface, accepts the second information from the second device via the communication interface, and via the communication interface. , Causing the processor to execute a step of outputting a message corresponding to the first information and the second information to the corresponding output device. Note that the output device is one of the first device, the second device, and another device.

この発明の別の態様に従うと、サーバと通信するための通信インターフェイスと、ユーザからの操作を受け付けるための入力部と、スピーカと、プロセッサとを備える機器が提供される。プロセッサは、入力部を介してユーザの操作を受け付け、通信インターフェイスを介いて当該操作をサーバに送信し、サーバから当該操作に対応するメッセージを受信し、当該メッセージをスピーカに音声出力させる。   According to another aspect of the present invention, an apparatus is provided that includes a communication interface for communicating with a server, an input unit for receiving an operation from a user, a speaker, and a processor. The processor receives a user operation via the input unit, transmits the operation to the server via the communication interface, receives a message corresponding to the operation from the server, and causes the speaker to output the message as a voice.

以上のように、この発明によれば、精度の高いカメラやマイクを有さずとも、あるいは顔画像や音声のマッチングをせずとも、ユーザまたは状況などに適した音声を出力することができるネットワークシステム、音声出力方法、サーバ、機器、およびプログラムが提供される。   As described above, according to the present invention, it is possible to output a sound suitable for a user or a situation without having a highly accurate camera or microphone, or without matching a face image and sound. A system, an audio output method, a server, a device, and a program are provided.

第1〜第4の実施の形態にかかるネットワークシステム1の全体構成と第1の動作概要とを示すイメージ図である。It is an image figure which shows the whole structure of the network system 1 concerning 1st-4th Embodiment, and a 1st operation | movement outline | summary. 第1〜第4の実施の形態にかかるネットワークシステム1の全体構成と第2の動作概要とを示すイメージ図である。It is an image figure which shows the whole structure of the network system 1 concerning a 1st-4th embodiment, and a 2nd operation | movement outline | summary. 第1〜第8の実施の形態にかかる音声出力サーバ100のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the audio | voice output server 100 concerning 1st-8th embodiment. 第1と第6〜第8の実施の形態にかかる音声データベース1211のデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the audio | voice database 1211 concerning 1st and 6th-8th embodiment. 第1〜第8の実施の形態にかかる機器データベース1212のデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the apparatus database 1212 concerning the 1st-8th embodiment. 第1〜第8の実施の形態にかかる機器200のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the apparatus 200 concerning 1st-8th embodiment. 第1〜第8の実施の形態にかかるアダプタ300のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the adapter 300 concerning 1st-8th embodiment. 第1〜第8の実施の形態にかかる音声データベース321のデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the audio | voice database 321 concerning 1st-8th embodiment. 第1〜第8の実施の形態にかかる音声作成サーバ700のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the audio production server 700 concerning the 1st-8th embodiment. 第1〜第8の実施の形態にかかるアプリケーションサーバ500のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the application server 500 concerning 1st-8th embodiment. 第1〜第8の実施の形態にかかる通信端末600のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the communication terminal 600 concerning 1st-8th embodiment. 第1〜第8の実施の形態にかかる音声出力サーバ100の情報処理を示すフローチャートである。It is a flowchart which shows the information processing of the audio | voice output server 100 concerning 1st-8th embodiment. 第2の実施の形態にかかる音声データベース122のデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the audio | voice database 122 concerning 2nd Embodiment. 第3の実施の形態にかかる音声データベース123のデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the audio | voice database 123 concerning 3rd Embodiment. 第4の実施の形態にかかる音声データベース124のデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the audio | voice database 124 concerning 4th Embodiment. 第5の実施の形態にかかるネットワークシステム1の全体構成と動作概要とを示すイメージ図である。It is an image figure which shows the whole structure and the operation | movement outline | summary of the network system 1 concerning 5th Embodiment. 第5の実施の形態にかかる音声データベース125のデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the audio | voice database 125 concerning 5th Embodiment. 第6の実施の形態にかかるネットワークシステム1の全体構成と動作概要とを示すイメージ図である。It is an image figure which shows the whole structure and the operation | movement outline | summary of the network system 1 concerning 6th Embodiment. 第7の実施の形態にかかるネットワークシステム1の全体構成と動作概要とを示すイメージ図である。It is an image figure which shows the whole structure and the operation | movement outline | summary of the network system 1 concerning 7th Embodiment. 第8の実施の形態にかかるネットワークシステム1の全体構成と動作概要とを示すイメージ図である。It is an image figure which shows the whole structure and the operation | movement outline | summary of the network system 1 concerning 8th Embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<第1の実施の形態>
<ネットワークシステムの全体構成>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<First Embodiment>
<Overall configuration of network system>

まず、図1および図2を参照して、本実施の形態にかかるネットワークシステム1の全体構成について説明する。なお、図1は、本実施の形態にかかるネットワークシステム1の全体構成と第1の動作概要とを示すイメージ図である。図2は、本実施の形態にかかるネットワークシステム1の全体構成と第2の動作概要とを示すイメージ図である。   First, the overall configuration of the network system 1 according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is an image diagram showing an overall configuration of the network system 1 according to the present embodiment and a first operation outline. FIG. 2 is an image diagram showing an overall configuration of the network system 1 according to the present embodiment and a second operation outline.

本実施の形態にかかるネットワークシステム1は、主に、照明200A、冷蔵庫200B、エアコン200C、テレビ200D、扉センサ200E、ウォシュレット(登録商標)コントローラ200Fなどの機器と、機器の音声出力を制御するための音声出力サーバ100と、通信端末としてのアダプタ300A,300B,300C,300D,300E,300Fと、アダプタ300A,300B,300C,300D,300E,300Fをインターネットに接続するためのルータ400と、ニュースや天予報などの各種の情報を提供するデータベース701と、データベース701のデータに基づいて音声データを作成して音声出力サーバ100に渡す音声作成サーバ700と、通信端末としてのスマートフォン600A,600B,600Cと、パーソナルコンピュータ600Dと、当該通信端末とデータを送受信するためのアプリケーションサーバ500と、アプリケーションサーバ500で利用される情報を格納するデータベース501と、を含む。   The network system 1 according to the present embodiment mainly controls devices such as the lighting 200A, the refrigerator 200B, the air conditioner 200C, the television 200D, the door sensor 200E, the Washlet (registered trademark) controller 200F, and the audio output of the devices. Voice output server 100, adapters 300A, 300B, 300C, 300D, 300E, 300F as communication terminals, router 400 for connecting adapters 300A, 300B, 300C, 300D, 300E, 300F to the Internet, news, A database 701 that provides various information such as a sky forecast, a voice creation server 700 that creates voice data based on the data in the database 701 and passes it to the voice output server 100, and smartphones 600A and 600B as communication terminals. Comprising a 600C, the personal computer 600D, the application server 500 for sending and receiving the communication terminal and data, and a database 501 for storing the information used in the application server 500, a.

なお、音声出力サーバ100または音声作成サーバ700が、データベース701の情報の一部または全部を記憶してもよいし、アプリケーションサーバ500が、データベース501の情報の一部または全部を記憶してもよい。   Note that the voice output server 100 or the voice creation server 700 may store part or all of the information in the database 701, and the application server 500 may store part or all of the information in the database 501. .

音声出力サーバ100は、インターネットやルータ400を介してアダプタ300A,300B,300C,300D、300E,300Fおよび音声作成サーバ700に接続される。たとえば、音声出力サーバ100は、管理者から発話命令を受け付けたり、音声作成サーバ700からの発話命令を受け付けたりする。音声出力サーバ100は、発話命令に基づいて、アダプタ300A,300B,300C,300D,300E,300Fを介して、照明200A、冷蔵庫200B,エアコン200C,テレビ200D,扉センサ200E,ウォシュレットコントローラ200Fに音声を出力させる。   The voice output server 100 is connected to the adapters 300A, 300B, 300C, 300D, 300E, 300F and the voice creation server 700 via the Internet or the router 400. For example, the voice output server 100 accepts an utterance command from the administrator or accepts an utterance command from the voice creation server 700. The voice output server 100 sends voice to the lighting 200A, the refrigerator 200B, the air conditioner 200C, the television 200D, the door sensor 200E, and the washlet controller 200F via the adapters 300A, 300B, 300C, 300D, 300E, and 300F based on the speech command. Output.

照明200A,冷蔵庫200B,エアコン200C,テレビ200D,扉センサ200E,ウォシュレットコントローラ200Fなどの機器は、ユーザから受け付けた操作命令やセンサで取得したデータなどをアダプタ300A,300B,300C,300D,300E,300F、ルータ400およびインターネットなどを介して音声出力サーバ100および音声作成サーバ700に送信する。逆に、照明200A,冷蔵庫200B,エアコン200C,テレビ200D,扉センサ200E,ウォシュレットコントローラ200Fなどの機器は、音声出力サーバ100および音声作成サーバ700からの音声データ取得指示、音声データ、発話指示および制御命令に基づいて各種の動作を実行する。   Devices such as the lighting 200A, the refrigerator 200B, the air conditioner 200C, the television 200D, the door sensor 200E, and the washlet controller 200F are used for the adapters 300A, 300B, 300C, 300D, 300E, and 300F. And transmitted to the voice output server 100 and the voice creation server 700 via the router 400 and the Internet. Conversely, devices such as the lighting 200A, the refrigerator 200B, the air conditioner 200C, the television 200D, the door sensor 200E, and the washlet controller 200F are voice data acquisition instructions, voice data, speech instructions, and controls from the voice output server 100 and the voice creation server 700. Various operations are executed based on the instruction.

なお、機器は、照明200A,冷蔵庫200B,エアコン200C,テレビ200D,扉センサ200E,ウォシュレットコントローラ200Fに限らず、加湿器、除湿器、自走式掃除機、洗濯機などの家電、ハードディスクレコーダ、音楽プレーヤーなどのAV(オーディオ・ビジュアル)機器、太陽光発電機、インターホン、給湯器などの住宅設備、などであってもよい。なお、以下では、これらの装置を総称して、機器200ともいう。   The devices are not limited to lighting 200A, refrigerator 200B, air conditioner 200C, television 200D, door sensor 200E, and washlet controller 200F, but also humidifiers, dehumidifiers, self-propelled cleaners, washing machines, and other household appliances, hard disk recorders, music It may be an AV (audio / visual) device such as a player, a solar power generator, an interphone, a housing facility such as a water heater, or the like. Hereinafter, these devices are also collectively referred to as a device 200.

本実施の形態にかかる機器200の各々は、UART(Universal Asynchronous Receiver Transmitter)などの通信インターフェイスを介して、通信用のアダプタ300A,300B,300C,300D,300E,300Fとデータの送受信を行う。   Each of the devices 200 according to the present embodiment transmits / receives data to / from the communication adapters 300A, 300B, 300C, 300D, 300E, and 300F via a communication interface such as a UART (Universal Asynchronous Receiver Transmitter).

通信用のアダプタ300A,300B,300C,300D,300E,300Fは、UARTなどの通信インターフェイスを介して、機器200と通信を行う。本実施の形態においては、通信用のアダプタ300A,300B,300C,300D,300E,300Fは、WiFi(登録商標)などの無線LAN用の通信インターフェイスを介してルータ400と通信を行う。ただし、通信用のアダプタ300A,300B,300C,300D,300E,300Fは、有線LAN用の通信インターフェイスを介してルータ400と通信を行ってもよい。通信用のアダプタ300A、300B,300C,300D,300E,300Fは、機器200からのデータを、ルータ400やインターネットを介して音声出力サーバ100に送信する。逆に、通信用のアダプタ300A、300B,300C,300D,300E,300Fは、音声出力サーバ100からのデータを機器200に送信する。なお、以下では、通信用のアダプタ300A,300B,300C,300D,300E,300Fを総称して、アダプタ300ともいう。   The communication adapters 300A, 300B, 300C, 300D, 300E, and 300F communicate with the device 200 via a communication interface such as UART. In the present embodiment, the communication adapters 300A, 300B, 300C, 300D, 300E, and 300F communicate with the router 400 via a wireless LAN communication interface such as WiFi (registered trademark). However, the communication adapters 300A, 300B, 300C, 300D, 300E, and 300F may communicate with the router 400 through a wired LAN communication interface. The communication adapters 300A, 300B, 300C, 300D, 300E, and 300F transmit data from the device 200 to the voice output server 100 via the router 400 and the Internet. Conversely, the communication adapters 300A, 300B, 300C, 300D, 300E, and 300F transmit data from the audio output server 100 to the device 200. In the following, the communication adapters 300A, 300B, 300C, 300D, 300E, and 300F are collectively referred to as the adapter 300.

ルータ400は、アダプタ300とインターネットとを中継する。   The router 400 relays the adapter 300 and the Internet.

スマートフォン600A,600B,600C、ノートパソコン600Dなどは、機器制御アプリケーションを利用することによって、アプリケーションサーバ500を介して、機器200から情報を入手したり、機器200を制御したりすることができる。なお、以下では、スマートフォン600A,600B,600C、ノートパソコン600Dなどを総称して、通信端末600ともいう。
<ネットワークシステムの動作概要>
The smartphones 600A, 600B, 600C, the notebook personal computer 600D, and the like can obtain information from the device 200 and control the device 200 via the application server 500 by using the device control application. Hereinafter, the smartphones 600A, 600B, and 600C, the notebook personal computer 600D, and the like are collectively referred to as the communication terminal 600.
<Overview of network system operation>

次に、図1および図2を参照して、本実施の形態にかかるネットワークシステム1の動作概要について説明する。   Next, an outline of the operation of the network system 1 according to the present embodiment will be described with reference to FIGS.

本実施の形態においては、機器200は、ユーザから直接的に、あるいはユーザからリモコンやスマートフォン600Aなどの通信端末600を介して、様々な操作情報を受け付ける。機器200は、受け付けた操作情報を、アダプタ300を介して、音声出力サーバ100に送信する。また、機器200は、画像センサ、音声センサ、温度センサ、通信インターフェイスなどを介して取得したデータを、アダプタ300を介して、音声出力サーバ100に送信する。そして、音声出力サーバ100は、家族が所有する複数の機器200のそれぞれに入力される複数の操作情報、または家族が所有する複数の機器200のそれぞれが取得した画像データ、音声データ、その他のデータに応じて、当該複数の操作情報または取得した他のデータに対応するメッセージをいずれかの機器200に音声出力させる。   In the present embodiment, device 200 receives various operation information directly from the user or from the user via communication terminal 600 such as a remote controller or smartphone 600A. The device 200 transmits the received operation information to the audio output server 100 via the adapter 300. In addition, the device 200 transmits data acquired via an image sensor, a sound sensor, a temperature sensor, a communication interface, and the like to the sound output server 100 via the adapter 300. The audio output server 100 then receives a plurality of operation information input to each of the plurality of devices 200 owned by the family, or image data, sound data, and other data acquired by each of the plurality of devices 200 owned by the family. In response to this, a message corresponding to the plurality of pieces of operation information or other acquired data is output to any device 200 by voice.

たとえば、図1に示すように、男の子供が住宅の玄関の扉を開けて住宅内に入ってくると、扉センサ200Eが玄関の扉が開いたことを検知する。あるいは、扉センサ200Eは、玄関を誰かが通過したことを検知する。音声出力サーバ100は、玄関の扉が開いた旨の情報を扉センサ200Eから受信する。次に、男の子が、冷蔵庫200Bの扉を開けると、音声出力サーバ100は、冷蔵庫200Bから扉が開けられた旨の操作情報を受信する。   For example, as shown in FIG. 1, when the boys open the entrance door of the house and enter the house, the door sensor 200E detects that the entrance door has been opened. Alternatively, the door sensor 200E detects that someone has passed through the entrance. The audio output server 100 receives information indicating that the front door is opened from the door sensor 200E. Next, when the boy opens the door of the refrigerator 200B, the audio output server 100 receives operation information indicating that the door has been opened from the refrigerator 200B.

なお、本実施の形態においては、ネットワークシステム1が、玄関の扉が開いたことを検知するための扉センサ200Eを含んでいるが、たとえば、ドアの本体の動きまたは位置ではなく、ドアノブの動きまたは位置や、ドアの鍵の動きまたは位置を検知するセンサを利用してもよい。当該センサが、玄関扉を誰かが通過したことを検知して、検知結果を音声出力サーバ100に送信するものであってもよい。   In the present embodiment, the network system 1 includes the door sensor 200E for detecting that the entrance door is opened. For example, the movement of the door knob is not the movement or position of the door body. Alternatively, a sensor that detects the position or the movement or position of the door key may be used. The sensor may detect that someone has passed through the entrance door and transmit the detection result to the audio output server 100.

音声出力サーバ100は、扉センサ200Eと冷蔵庫200Bからのデータに基づいて、当該2つの機器を操作したのが長男であることを特定する。本実施の形態においては、予め家族に属する人間が取りやすい行動がデータベースに格納されているため、音声出力サーバ100は当該データベースを参照することによって、複数の家電が取得した情報からユーザを特定することができる。   The audio output server 100 specifies that the eldest son has operated the two devices based on data from the door sensor 200E and the refrigerator 200B. In the present embodiment, since actions that can be easily taken by a person belonging to a family are stored in the database in advance, the audio output server 100 identifies a user from information acquired by a plurality of home appliances by referring to the database. be able to.

その結果、音声出力サーバ100は、機器が取得したデータおよび/または特定されたユーザに適したメッセージを機器200に音声出力させることができる。なお、サーバ100は、機器を操作したのが誰であるかを特定する必要はない。複数の機器と複数の情報とに対応するメッセージを機器に送信すればよい。   As a result, the audio output server 100 can cause the device 200 to output the message acquired by the device and / or a message suitable for the identified user. The server 100 does not need to specify who has operated the device. Messages corresponding to a plurality of devices and a plurality of information may be transmitted to the devices.

あるいは、図2に示すように、母が朝起きて、リビングの照明200AをONすると、音声出力サーバ100は、照明200AがON命令を受け付けた旨の情報を照明200Aから受信する。次に、母が、冷蔵庫200Bの扉を開けると、音声出力サーバ100は、冷蔵庫200Bから扉が開けられた旨の操作情報を受信する。   Alternatively, as illustrated in FIG. 2, when the mother wakes up in the morning and turns on the living room lighting 200A, the audio output server 100 receives information from the lighting 200A that the lighting 200A has received an ON command. Next, when the mother opens the door of the refrigerator 200B, the audio output server 100 receives operation information indicating that the door has been opened from the refrigerator 200B.

音声出力サーバ100は、照明200Aと冷蔵庫200Bからのデータに基づいて、当該2つの機器を操作したのが母であることを特定する。具体的には、音声出力サーバ100は、データベースを参照することによって、2つの家電に対する操作情報から母を特定することができる。   The audio output server 100 specifies that the mother who operated the two devices is based on the data from the lighting 200A and the refrigerator 200B. Specifically, the audio output server 100 can identify the mother from the operation information for the two home appliances by referring to the database.

その結果、音声出力サーバ100は、機器が取得したデータおよび/またはユーザに適したメッセージを機器200に音声出力させることができる。なお、サーバ100は、機器を操作したのが誰であるかを特定する必要はない。複数の機器と複数の情報とに対応するメッセージを機器に送信すればよい。   As a result, the audio output server 100 can cause the device 200 to output the data acquired by the device and / or a message suitable for the user. The server 100 does not need to specify who has operated the device. Messages corresponding to a plurality of devices and a plurality of information may be transmitted to the devices.

このように、本実施の形態にかかるネットワークシステム1では、精度の高いカメラやマイクを有さずとも、あるいは顔画像や音声のマッチングをせずとも、複数の機器で取得される情報に基づいて、ユーザを特定したり、対応するメッセージを音声出力させたりすることができる。   As described above, the network system 1 according to the present embodiment is based on information acquired by a plurality of devices without having a highly accurate camera and microphone, or without matching face images and sounds. The user can be specified, and the corresponding message can be output as voice.

なお、本実施の形態においては、音声出力サーバ100は、音声データを取得させるための指示と、機器200に音声を発話させるための指示と、を別々のタイミングでアダプタ300に送信する。これによって、音声出力サーバ100は、毎回音声データを送信することなく、発話指示によって自由な組み合わせ音声を機器200から出力させることが可能になる。すなわち、従来よりも柔軟に音声出力サーバ100が機器200の音声出力を制御することができる。   In the present embodiment, the audio output server 100 transmits an instruction for acquiring audio data and an instruction for causing the device 200 to speak audio to the adapter 300 at different timings. As a result, the voice output server 100 can output a free combination voice from the device 200 according to the utterance instruction without transmitting voice data each time. That is, the audio output server 100 can control the audio output of the device 200 more flexibly than in the past.

また、データ送受信のトラフィック量が比較的少ないときに音声データをダウンロードさせることもできるため、ネットワークのトラフィック量の最大値の増大を抑制することができる。   Also, since the voice data can be downloaded when the traffic volume of data transmission / reception is relatively small, an increase in the maximum value of the network traffic volume can be suppressed.

また、発話指示は、音声データを含む必要がなくなるので、データ量が小さい。そのため、WebSocketなどを利用した常時接続によって送信しても、他のデータ送信の妨げになりにくい。つまり、サービスの管理者またはユーザが望むタイミングで、即座に発話指示をアダプタ300に受信させることができる。その結果、サービスの管理者またはユーザが望むタイミングで、即座に機器200に音声を出力させることができる。   Further, since the utterance instruction does not need to include voice data, the data amount is small. For this reason, even if data is transmitted by always-on connection using WebSocket or the like, it is difficult to prevent other data transmission. That is, it is possible to cause the adapter 300 to immediately receive an utterance instruction at a timing desired by the service manager or user. As a result, it is possible to immediately output sound to the device 200 at a timing desired by the service manager or user.

ただし、音声出力サーバ100は、機器200にメッセージを音声出力させるたびに、メッセージの音声データを送るものであってもよい。   However, the voice output server 100 may send the voice data of the message every time the device 200 outputs the message as voice.

以下では、このような機能を実現するためのネットワークシステム1について詳細に説明する。
<音声出力サーバ100のハードウェア構成>
Hereinafter, the network system 1 for realizing such a function will be described in detail.
<Hardware Configuration of Audio Output Server 100>

まず、ネットワークシステム1を構成する音声出力サーバ100のハードウェア構成の一態様について説明する。なお、図3は、本実施の形態にかかる音声出力サーバ100のハードウェア構成を表わすブロック図である。   First, an aspect of the hardware configuration of the audio output server 100 configuring the network system 1 will be described. FIG. 3 is a block diagram showing a hardware configuration of the audio output server 100 according to the present embodiment.

図3を参照して、音声出力サーバ100は、主たる構成要素として、プロセッサ110と、メモリ120と、各種ライト130と、各種スイッチ140と、通信インターフェイス160とを含む。   Referring to FIG. 3, audio output server 100 includes a processor 110, a memory 120, various lights 130, various switches 140, and a communication interface 160 as main components.

プロセッサ110は、メモリ120あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、音声出力サーバ100の各部を制御する。すなわち、プロセッサ110は、メモリ120に格納されているプログラムを実行することによって、後述する各種の処理を実行する。   The processor 110 controls each unit of the audio output server 100 by executing a program stored in the memory 120 or an external storage medium. That is, the processor 110 executes various processes described later by executing a program stored in the memory 120.

メモリ120は、各種のRAM(Random Access Memory)、各種のROM(Read-Only Memory)、フラッシュメモリーなどによって実現される。なお、メモリ120は、インターフェイスを介して利用される、USB(Universal Serial Bus)(登録商標)メモリ、CD(Compact Disc)、DVD(Digital Versatile Disk)、メモリカード、ハードディスク、IC(Integrated Circuit)カード、光カード、マスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの記憶媒体などによっても実現される。   The memory 120 is realized by various types of RAM (Random Access Memory), various types of ROM (Read-Only Memory), flash memory, and the like. The memory 120 is a USB (Universal Serial Bus) (registered trademark) memory, a CD (Compact Disc), a DVD (Digital Versatile Disk), a memory card, a hard disk, an IC (Integrated Circuit) card, which is used via an interface. It is also realized by a storage medium such as an optical card, mask ROM, EPROM (Erasable Programmable Read Only Memory), or EEPROM (Electronically Erasable Programmable Read Only Memory).

メモリ120は、プロセッサ110によって実行されるプログラムや、プロセッサ110によるプログラムの実行により生成されたデータ、スイッチ140から入力されたデータ、機器200、アダプタ300、音声作成サーバ700、アプリケーションサーバ500、通信端末600から受信したデータを記憶する。なお、メモリ120は、音声データベース1211および機器データベース1212を記憶する。ただし、音声データベース1211および機器データベース1212の一部または両方は、音声作成サーバ700またはデータベース701に格納されるものであってもよい。あるいは、音声データベース1211および機器データベース1212の一部または両方は、音声出力サーバ100および音声作成サーバ700から参照可能に、その他の装置に格納されるものであってもよい。   The memory 120 is a program executed by the processor 110, data generated by execution of the program by the processor 110, data input from the switch 140, device 200, adapter 300, voice creation server 700, application server 500, communication terminal. The data received from 600 is stored. The memory 120 stores a voice database 1211 and a device database 1212. However, part or both of the voice database 1211 and the device database 1212 may be stored in the voice creation server 700 or the database 701. Alternatively, a part or both of the voice database 1211 and the device database 1212 may be stored in another device so as to be referred to from the voice output server 100 and the voice creation server 700.

ここで、図4は、本実施の形態にかかる音声データベース1211のデータ構造を示すイメージ図である。図4を参照して、音声データベース1211は、第1の機器を特定するための情報と、第1の機器に対する操作または第1の機器が取得する情報と、第2の機器を特定するための情報と、第2の機器に対する操作または第2の機器が取得する情報と、対象ユーザと、メッセージ、出力用機器、出力フラグとの対応関係を格納する。なお、対象ユーザが音声データベース1211に含まれていなくてもよい。   Here, FIG. 4 is an image diagram showing a data structure of the voice database 1211 according to the present embodiment. Referring to FIG. 4, the voice database 1211 includes information for identifying the first device, information for the operation on the first device or information acquired by the first device, and for identifying the second device. The correspondence relationship between the information, the operation on the second device or the information acquired by the second device, the target user, the message, the output device, and the output flag is stored. The target user may not be included in the voice database 1211.

なお、メッセージは、メッセージを特定するための音声IDであってもよいし、メッセージの音声データそのものであってもよいし、メッセージのテキストデータであってもよい。   Note that the message may be a voice ID for identifying the message, the voice data of the message itself, or the text data of the message.

また、音声データベース1211のレコード毎のメッセージは、固定であってもよい。あるいは、音声出力サーバ100の管理者または当該サービスの提供者が変更するものであってもよい。あるいは、天気予報や花粉に関する情報やPM2.5に関する情報や店舗の安売り情報など、他のWebサーバなどから取得する情報に基づいて、音声出力サーバ100のプロセッサ110や音声作成サーバ700のプロセッサ710が、毎朝または毎時などの定期的に、あるいは新たな情報を入手する度などに、作成するものであってもよい。また、メッセージは、固定メッセージと、定期的に変更するメッセージの組み合わせであってもよい。   Further, the message for each record in the voice database 1211 may be fixed. Alternatively, the administrator of the audio output server 100 or the provider of the service may change it. Alternatively, the processor 110 of the voice output server 100 and the processor 710 of the voice creation server 700 are based on information acquired from other Web servers, such as information on weather forecasts and pollen, information on PM2.5, and bargain information on stores. It may be created periodically such as every morning or every hour, or whenever new information is obtained. The message may be a combination of a fixed message and a message that is periodically changed.

これによって、プロセッサ110は、音声データベース1211を参照することによって、第1の機器に対する操作または第1の機器が取得した画像データ・音声データなどと、第2の機器に対する操作または第2の機器が取得した画像データ・音声データなどと、に基づいてユーザおよび/または当該ユーザの動作に適したメッセージを特定することができる。   As a result, the processor 110 refers to the audio database 1211 so that the operation on the first device or the image data / audio data acquired by the first device and the operation on the second device or the second device A user and / or a message suitable for the user's operation can be specified based on the acquired image data / audio data and the like.

ここで、図5は、本実施の形態にかかる機器データベース1212のデータ構造を示すイメージ図である。図5を参照して、機器データベース1212は、機器を特定するための機器IDと、機器のアドレスと、機器を所有する家族またはグループを特定するための家族IDと、第1の機器としてのデータを既に受信しているか否かを示すフラグとの対応関係を格納する。   Here, FIG. 5 is an image diagram showing a data structure of the device database 1212 according to the present embodiment. Referring to FIG. 5, device database 1212 includes a device ID for specifying a device, an address of the device, a family ID for specifying a family or group that owns the device, and data as a first device. Is stored in correspondence with a flag indicating whether or not a message has already been received.

これによって、プロセッサ110は、機器データベース1212を参照することによって、機器を所有している家族またはグループを特定することができる。また、プロセッサ110は、機器データベース1212を参照することによって、機器と同じ家族に属する他の機器を特定することができる。   Thus, the processor 110 can identify the family or group that owns the device by referring to the device database 1212. Further, the processor 110 can specify another device belonging to the same family as the device by referring to the device database 1212.

図3に戻って、ライト130は、プロセッサ110からの信号によって点灯・点滅・消灯することによって、音声出力サーバ100の各種の状態を外部に伝える。   Returning to FIG. 3, the light 130 transmits various states of the audio output server 100 to the outside by being turned on, blinking, and turned off by a signal from the processor 110.

スイッチ140は、管理者からの命令を受け付けて、当該命令をプロセッサ110に入力する。   The switch 140 receives an instruction from the administrator and inputs the instruction to the processor 110.

通信インターフェイス160は、プロセッサ110からのデータを、インターネット、キャリア網、ルータなどを介してアダプタ300、音声作成サーバ700に送信する。通信インターフェイス160は、インターネット、キャリア網、ルータなどを介してアダプタ300、音声作成サーバ700からのデータを受信して、プロセッサ110に受け渡す。
<機器200のハードウェア構成>
The communication interface 160 transmits the data from the processor 110 to the adapter 300 and the voice creation server 700 via the Internet, a carrier network, a router, or the like. The communication interface 160 receives data from the adapter 300 and the voice creation server 700 via the Internet, a carrier network, a router, and the like, and passes them to the processor 110.
<Hardware Configuration of Device 200>

次に、機器200のハードウェア構成の一態様について説明する。図6は、本実施の形態にかかる機器200のハードウェア構成を表わすブロック図である。   Next, an aspect of the hardware configuration of the device 200 will be described. FIG. 6 is a block diagram showing a hardware configuration of the device 200 according to the present embodiment.

図6を参照して、機器200は、主たる構成要素として、プロセッサ210と、メモリ220と、各種ライト230と、各種スイッチ240と、通信インターフェイス260と、スピーカ270と、機器駆動部290とを含む。   Referring to FIG. 6, device 200 includes a processor 210, a memory 220, various lights 230, various switches 240, a communication interface 260, a speaker 270, and a device driving unit 290 as main components. .

プロセッサ210は、メモリ220あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、機器200の各部を制御する。すなわち、プロセッサ210は、メモリ220に格納されているプログラムを実行することによって、後述する各種の処理を実行する。   The processor 210 controls each unit of the device 200 by executing a program stored in the memory 220 or an external storage medium. That is, the processor 210 executes various processes to be described later by executing a program stored in the memory 220.

メモリ220は、各種のRAM、各種のROM、フラッシュメモリーなどによって実現される。メモリ220は、プロセッサ210によって実行されるプログラムや、プロセッサ210によるプログラムの実行により生成されたデータ、入力されたデータ、音声出力サーバ100から受信したデータなどを記憶する。   The memory 220 is realized by various RAMs, various ROMs, flash memories, and the like. The memory 220 stores a program executed by the processor 210, data generated by the execution of the program by the processor 210, input data, data received from the audio output server 100, and the like.

ライト230は、プロセッサ210からの信号によって点灯・点滅・消灯することによって、機器200の各種の状態を外部に伝える。   The light 230 transmits various states of the device 200 to the outside by being turned on / flashing / turned off by a signal from the processor 210.

スイッチ240は、ユーザからの命令を受け付けて、当該命令をプロセッサ210に入力する。   The switch 240 receives a command from the user and inputs the command to the processor 210.

通信インターフェイス260は、プロセッサ210からのデータ、たとえば、機器が検知した各種の状態および機器がユーザからリモコンを介して受け付けた命令など、をアダプタ300に送信する。換言すれば、通信インターフェイス160は、上記データをアダプタ300、ルータ400、インターネットなどを介して音声出力サーバ100および音声作成サーバ700に送信する。通信インターフェイス260は、インターネット、ルータ400、アダプタ300などを介して音声出力サーバ100からのデータ、音声作成サーバ700からのデータ、他の端末からの制御命令、音声データ、発話命令および閲覧命令を受信してプロセッサ210に受け渡す。   The communication interface 260 transmits data from the processor 210 to the adapter 300, for example, various states detected by the device and instructions received by the device via a remote control from the user. In other words, the communication interface 160 transmits the data to the voice output server 100 and the voice creation server 700 via the adapter 300, the router 400, the Internet, and the like. The communication interface 260 receives data from the voice output server 100, data from the voice creation server 700, control commands, voice data, speech commands, and browsing commands from other terminals via the Internet, the router 400, the adapter 300, and the like. To the processor 210.

スピーカ270は、プロセッサ210からの音声信号に基づいて音声、音楽などの様々な音声を出力する。   The speaker 270 outputs various sounds such as sound and music based on the sound signal from the processor 210.

リモコン受光部280は、リモコンからの赤外線信号やその他の電波信号を受光して、当該信号をプロセッサ110に入力する。   The remote control light receiving unit 280 receives an infrared signal or other radio signal from the remote control and inputs the signal to the processor 110.

機器駆動部290は、プロセッサ210からの制御命令に基づいて、モータ、アクチュエータ、センサなどを制御することによって、機器200の主要な役割を果たす。   The device driving unit 290 plays a main role of the device 200 by controlling a motor, an actuator, a sensor, and the like based on a control command from the processor 210.

機器200は、その他にも、カメラなどの画像センサ、マイクなどの音声センサ、温度センサ、人感センサなどを搭載してもよい。そして、プロセッサ210は、当該センサを介して取得した各種の情報を、通信インターフェイス260を介して、サーバ100に送信する。
<アダプタ300のハードウェア構成>
In addition, the device 200 may include an image sensor such as a camera, an audio sensor such as a microphone, a temperature sensor, a human sensor, and the like. Then, the processor 210 transmits various information acquired via the sensor to the server 100 via the communication interface 260.
<Hardware configuration of adapter 300>

次に、アダプタ300のハードウェア構成の一態様について説明する。図7は、本実施の形態にかかるアダプタ300のハードウェア構成を表わすブロック図である。   Next, an aspect of the hardware configuration of the adapter 300 will be described. FIG. 7 is a block diagram showing a hardware configuration of adapter 300 according to the present embodiment.

図7を参照して、アダプタ300は、主たる構成要素として、プロセッサ310と、メモリ320と、各種ライト330と、各種スイッチ340と、第1の通信インターフェイス361と、第2の通信インターフェイス362とを含む。   Referring to FIG. 7, the adapter 300 includes a processor 310, a memory 320, various lights 330, various switches 340, a first communication interface 361, and a second communication interface 362 as main components. Including.

プロセッサ310は、メモリ320あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、アダプタ300の各部を制御する。すなわち、プロセッサ310は、メモリ320に格納されているプログラムを実行することによって、後述する各種の処理を実行する。   The processor 310 controls each unit of the adapter 300 by executing a program stored in the memory 320 or an external storage medium. That is, the processor 310 executes various processes to be described later by executing a program stored in the memory 320.

メモリ320は、各種のRAM、各種のROM、フラッシュメモリーなどによって実現される。メモリ320は、プロセッサ310によって実行されるプログラムや、プロセッサ310によるプログラムの実行により生成されたデータ、入力されたデータ、音声出力サーバ100、音声作成サーバ700、アプリケーションサーバ500、通信端末600から受信したデータなどを記憶する。本実施の形態においては、図8に示すように、メモリ320は、予め音声出力サーバ100または音声作成サーバ700から受信した音声データベース321を記憶する。   The memory 320 is realized by various RAMs, various ROMs, flash memories, and the like. The memory 320 is received from a program executed by the processor 310, data generated by execution of the program by the processor 310, input data, the audio output server 100, the audio creation server 700, the application server 500, and the communication terminal 600. Store data etc. In the present embodiment, as shown in FIG. 8, the memory 320 stores a voice database 321 received in advance from the voice output server 100 or the voice creation server 700.

ここで、図8は、本実施の形態にかかる音声データベース321のデータ構造を示すイメージ図である。図8を参照して、音声データベース321は、音声データ毎に、音声IDと音声データとの対応関係を格納する。ただし、音声データベース321は、音声データそのものの代わりに、音声データの格納先を示す音声データのアドレスを格納してもよい。   Here, FIG. 8 is an image diagram showing a data structure of the audio database 321 according to the present embodiment. Referring to FIG. 8, the voice database 321 stores the correspondence between the voice ID and the voice data for each voice data. However, the audio database 321 may store an address of audio data indicating a storage location of the audio data instead of the audio data itself.

なお、音声データベース321と、音声データそのものとは、機器200に格納されてもよい。この場合は、機器200のプロセッサ210が、アダプタ300を介して、音声出力サーバ100からの指示に基づいて、それらのデータを上書きしたり、削除したりしてもよい。   Note that the audio database 321 and the audio data itself may be stored in the device 200. In this case, the processor 210 of the device 200 may overwrite or delete the data based on an instruction from the audio output server 100 via the adapter 300.

本実施の形態においては、音声IDを音声データに付与する際のルールとして、たとえば、音声IDの前の3ケタが対象となる機器の種類を特定し、音声IDの次の3ケタが機器の設置場所や地域を特定し、音声IDの後ろからの2ケタ目が音声データの種類を特定する。たとえば、下2ケタ目が「5」は天気に関するメッセージである。下2ケタ目が「7」の場合は、食べ物に関するメッセージである。下2ケタ目が「9」の場合はエラーを示すメッセージである。   In the present embodiment, as a rule for assigning a voice ID to voice data, for example, the type of device for which three digits before the voice ID are targeted is specified, and the next three digits after the voice ID is the device. The installation location and area are specified, and the second digit from the back of the audio ID specifies the type of audio data. For example, the lower second digit “5” is a message about the weather. If the second digit is “7”, it is a message about food. When the lower second digit is “9”, it is a message indicating an error.

音声出力サーバ100は、第1の機器への操作および第2の機器への操作に基づいて、出力用機器としての機器200のアダプタ300に、メッセージを特定するための音声IDを送信する。出力用機器としての機器200のアダプタ300のプロセッサ310は、メモリ320から音声データを取得して、機器200に音声を出力させる。   The voice output server 100 transmits a voice ID for specifying a message to the adapter 300 of the device 200 as the output device based on the operation on the first device and the operation on the second device. The processor 310 of the adapter 300 of the device 200 as an output device acquires audio data from the memory 320 and causes the device 200 to output audio.

ただし、音声出力サーバ100は、第1の機器への操作および第2の機器への操作に基づいて、メッセージを特定するためのテキストデータや、メッセージの音声データそのものを、出力用機器としてのアダプタ300に送信したり、アダプタ300を介して出力用機器としての機器200に送信したりしてもよい。この場合は、アダプタ300が、図8の音声データベース321を格納する必要はない。   However, the voice output server 100 uses the text data for specifying the message and the voice data of the message itself as an output device based on the operation on the first device and the operation on the second device. The information may be transmitted to the device 300, or may be transmitted to the device 200 as an output device via the adapter 300. In this case, the adapter 300 does not need to store the voice database 321 of FIG.

図7に戻って、ライト330は、プロセッサ310からの信号によって点灯・点滅・消灯することによって、アダプタ300の各種の状態を外部に伝える。   Returning to FIG. 7, the light 330 transmits the various states of the adapter 300 to the outside by being turned on, blinking, and turned off by a signal from the processor 310.

スイッチ340は、ユーザからの命令を受け付けて、当該命令をプロセッサ310に入力する。   The switch 340 receives a command from the user and inputs the command to the processor 310.

第1の通信インターフェイス361は、UARTなどによって実現されて、プロセッサ310からのデータを機器200に送信したり、機器200からのデータをプロセッサ310に受け渡したりする。たとえば、プロセッサ310は、発話指示に基づいて、第1の通信インターフェイス361を介して、音声データを機器200に送信することによって、機器200に音声を出力させる。   The first communication interface 361 is realized by UART or the like, and transmits data from the processor 310 to the device 200 and transfers data from the device 200 to the processor 310. For example, the processor 310 transmits voice data to the device 200 via the first communication interface 361 based on the utterance instruction, thereby causing the device 200 to output sound.

ただし、音声データベース321が機器200に記憶されていてもよい。この場合は、プロセッサ310は、音声IDを含む発話指示を機器200に送信するだけであってもよい。この場合は、機器200のプロセッサ210が、発話指示に基づいて、メモリ220に格納されている音声データをスピーカ270に出力する。   However, the audio database 321 may be stored in the device 200. In this case, the processor 310 may simply transmit an utterance instruction including the voice ID to the device 200. In this case, the processor 210 of the device 200 outputs the audio data stored in the memory 220 to the speaker 270 based on the utterance instruction.

第2の通信インターフェイス362は、WiFi(登録商標)アンテナなどによって実現されて、プロセッサ310からのデータをルータ400およびインターネットを介して音声出力サーバ100または音声作成サーバ700に送信したり、音声出力サーバ100または音声作成サーバ700からのデータのプロセッサ110に受け渡したりする。たとえば、プロセッサ310は、第2の通信インターフェイス362を介して、音声出力サーバ100から音声データ取得指示や発話指示や音声データ自体を受信する。プロセッサ310は、第2の通信インターフェイス362を介して、音声出力サーバ100に音声データの取得が完了した旨の通知や発話が完了した旨の通知を送信する。
<音声作成サーバ700のハードウェア構成>
The second communication interface 362 is realized by a WiFi (registered trademark) antenna or the like, and transmits data from the processor 310 to the voice output server 100 or the voice creation server 700 via the router 400 and the Internet. 100 or the data processor 110 from the voice creation server 700. For example, the processor 310 receives an audio data acquisition instruction, an utterance instruction, and audio data itself from the audio output server 100 via the second communication interface 362. The processor 310 transmits, via the second communication interface 362, a notification that the acquisition of the voice data has been completed and a notification that the utterance has been completed to the voice output server 100.
<Hardware Configuration of Voice Creation Server 700>

次に、ネットワークシステム1を構成する音声作成サーバ700のハードウェア構成の一態様について説明する。なお、図9は、本実施の形態にかかる音声作成サーバ700のハードウェア構成を表わすブロック図である。   Next, an aspect of the hardware configuration of the voice creation server 700 constituting the network system 1 will be described. FIG. 9 is a block diagram showing a hardware configuration of the voice creation server 700 according to this embodiment.

図9を参照して、音声作成サーバ700は、主たる構成要素として、プロセッサ710と、メモリ720と、各種ライト730と、各種スイッチ740と、通信インターフェイス760とを含む。   Referring to FIG. 9, the audio creation server 700 includes a processor 710, a memory 720, various lights 730, various switches 740, and a communication interface 760 as main components.

プロセッサ710は、メモリ720あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、音声作成サーバ700の各部を制御する。すなわち、プロセッサ710は、メモリ720に格納されているプログラムを実行することによって各種の処理を実行する。   The processor 710 controls each unit of the voice creation server 700 by executing a program stored in the memory 720 or an external storage medium. That is, the processor 710 executes various processes by executing a program stored in the memory 720.

メモリ720の具体例は、音声出力サーバ100と同様であるため、ここでは説明を繰り返さない。メモリ720は、プロセッサ710によって実行されるプログラムや、プロセッサ710によるプログラムの実行により生成されたデータ、入力されたデータ、機器200、アダプタ300、音声出力サーバ100から受信したデータを記憶する。なお、メモリ720は、図1に示すデータベース701を記憶してもよい。   A specific example of the memory 720 is the same as that of the audio output server 100, and thus description thereof will not be repeated here. The memory 720 stores a program executed by the processor 710, data generated by execution of the program by the processor 710, input data, data received from the device 200, the adapter 300, and the audio output server 100. The memory 720 may store the database 701 shown in FIG.

ライト730は、プロセッサ710からの信号によって点灯・点滅・消灯することによって、音声作成サーバ700の各種の状態を外部に伝える。   The light 730 is turned on / flashing / turned off in response to a signal from the processor 710 to transmit various states of the voice creation server 700 to the outside.

スイッチ740は、管理者からの命令を受け付けて、当該命令をプロセッサ510に入力する。   The switch 740 receives a command from the administrator and inputs the command to the processor 510.

通信インターフェイス760は、プロセッサ710からのデータを、インターネット、キャリア網、ルータ400などを介してアダプタ300、音声出力サーバ100に送信する。通信インターフェイス760は、インターネット、キャリア網、ルータ400などを介してアダプタ300、音声出力サーバ100からのデータを受信して、プロセッサ710に受け渡す。
<アプリケーションサーバ500のハードウェア構成>
The communication interface 760 transmits data from the processor 710 to the adapter 300 and the audio output server 100 via the Internet, a carrier network, the router 400, and the like. The communication interface 760 receives data from the adapter 300 and the audio output server 100 via the Internet, a carrier network, the router 400, and the like, and passes them to the processor 710.
<Hardware Configuration of Application Server 500>

次に、ネットワークシステム1を構成するアプリケーションサーバ500のハードウェア構成の一態様について説明する。なお、図10は、本実施の形態にかかるアプリケーションサーバ500のハードウェア構成を表わすブロック図である。   Next, an aspect of the hardware configuration of the application server 500 configuring the network system 1 will be described. FIG. 10 is a block diagram showing a hardware configuration of application server 500 according to the present embodiment.

図10を参照して、アプリケーションサーバ500は、主たる構成要素として、プロセッサ510と、メモリ520と、各種ライト530と、各種スイッチ540と、通信インターフェイス560とを含む。   Referring to FIG. 10, application server 500 includes a processor 510, a memory 520, various lights 530, various switches 540, and a communication interface 560 as main components.

プロセッサ510は、メモリ520あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、アプリケーションサーバ500の各部を制御する。すなわち、プロセッサ510は、メモリ520に格納されているプログラムを実行することによって、後述する各種の処理を実行する。   The processor 510 controls each unit of the application server 500 by executing a program stored in the memory 520 or an external storage medium. That is, the processor 510 executes various processes described later by executing a program stored in the memory 520.

メモリ520の具体例は、音声出力サーバ100と同様であるため、ここでは説明を繰り返さない。メモリ520は、プロセッサ510によって実行されるプログラムや、プロセッサ510によるプログラムの実行により生成されたデータ、入力されたデータ、機器200、アダプタ300、音声出力サーバ100、通信端末600から受信したデータを記憶する。なお、メモリ520は、図1に示すデータベース501を記憶してもよい。   A specific example of the memory 520 is the same as that of the audio output server 100, and thus description thereof will not be repeated here. The memory 520 stores a program executed by the processor 510, data generated by execution of the program by the processor 510, input data, data received from the device 200, the adapter 300, the audio output server 100, and the communication terminal 600. To do. The memory 520 may store the database 501 shown in FIG.

ライト530は、プロセッサ510からの信号によって点灯・点滅・消灯することによって、アプリケーションサーバ500の各種の状態を外部に伝える。   The light 530 is lit, flashed, or turned off by a signal from the processor 510, thereby transmitting various states of the application server 500 to the outside.

スイッチ540は、管理者からの命令を受け付けて、当該命令をプロセッサ510に入力する。   The switch 540 receives an instruction from the administrator and inputs the instruction to the processor 510.

通信インターフェイス560は、プロセッサ510からのデータを、インターネット、キャリア網、ルータ400などを介してアダプタ300、音声出力サーバ100、通信端末600に送信する。通信インターフェイス560は、インターネット、キャリア網、ルータ400などを介してアダプタ300、音声出力サーバ100、通信端末600からのデータを受信して、プロセッサ510に受け渡す。
<通信端末600のハードウェア構成>
The communication interface 560 transmits data from the processor 510 to the adapter 300, the audio output server 100, and the communication terminal 600 via the Internet, a carrier network, the router 400, and the like. The communication interface 560 receives data from the adapter 300, the audio output server 100, and the communication terminal 600 via the Internet, a carrier network, the router 400, and the like, and passes them to the processor 510.
<Hardware configuration of communication terminal 600>

次に、通信端末600のハードウェア構成の一態様について説明する。なお、図11は、本実施の形態にかかる通信端末600のハードウェア構成を表わすブロック図である。   Next, an aspect of the hardware configuration of the communication terminal 600 will be described. FIG. 11 is a block diagram showing a hardware configuration of communication terminal 600 according to the present embodiment.

図11を参照して、通信端末600は、主たる構成要素として、プロセッサ610と、メモリ620と、タッチパネル650(ディスプレイ630とポインティングデバイス640)と、通信インターフェイス660と、スピーカ680とを含む。   Referring to FIG. 11, communication terminal 600 includes a processor 610, a memory 620, a touch panel 650 (display 630 and pointing device 640), a communication interface 660, and a speaker 680 as main components.

プロセッサ610は、メモリ620あるいは外部の記憶媒体に記憶されているプログラムを実行することによって、通信端末600の各部を制御する。すなわち、プロセッサ610は、メモリ620に格納されているプログラムを実行することによって、後述する各種の処理を実行する。   The processor 610 controls each unit of the communication terminal 600 by executing a program stored in the memory 620 or an external storage medium. That is, the processor 610 executes various processes described later by executing a program stored in the memory 620.

メモリ620は、各種のRAM、各種のROM、フラッシュメモリーなどによって実現される。なお、メモリ620は、様々なインターフェイスを介して利用される、SDカードやマイクロSDカードのようなメモリカード、USB(登録商標)メモリ、CD、DVD、ハードディスク、ICカード、光カード、マスクROM、EPROM、EEPROMなどの記憶媒体などによっても実現される。   The memory 620 is realized by various RAMs, various ROMs, flash memories, and the like. The memory 620 is used via various interfaces, such as a memory card such as an SD card or a micro SD card, a USB (registered trademark) memory, a CD, a DVD, a hard disk, an IC card, an optical card, a mask ROM, It is also realized by a storage medium such as EPROM or EEPROM.

メモリ620は、プロセッサ610によって実行されるプログラムや、プロセッサ610によるプログラムの実行により生成されたデータ、ポインティングデバイス640を介して入力されたデータ、音声出力サーバ100およびアプリケーションサーバ500から受信したデータなどを記憶する。特に、本実施の形態においては、メモリ620は、機器制御アプリケーションを記憶している。プロセッサ610は、メモリ620の機器制御アプリケーションに従って、機器200の制御命令をアプリケーションサーバ500に送信したり、機器200に音声を出力させるための発話命令を音声出力サーバ100に送信したり、機器200からの情報を受信したりする。   The memory 620 stores a program executed by the processor 610, data generated by execution of the program by the processor 610, data input via the pointing device 640, data received from the audio output server 100 and the application server 500, and the like. Remember. In particular, in the present embodiment, the memory 620 stores a device control application. The processor 610 transmits a control command for the device 200 to the application server 500 in accordance with a device control application in the memory 620, transmits a speech command for causing the device 200 to output a sound, to the sound output server 100, and the like. Or receive information.

ディスプレイ630は、プロセッサ610からの信号に基づいて、文字や画像を出力する。ポインティングデバイス640は、ユーザからの命令を受け付けて、当該命令をプロセッサ610に入力する。なお、本実施の形態においては、通信端末600は、ディスプレイ630とポインティングデバイス640とが組み合わされたタッチパネル650を有する。プロセッサ610は、ディスプレイ630に、機器200を制御するための画面やSNSの家族のページなどを表示させる。   Display 630 outputs characters and images based on signals from processor 610. The pointing device 640 receives a command from the user and inputs the command to the processor 610. In the present embodiment, communication terminal 600 includes touch panel 650 in which display 630 and pointing device 640 are combined. The processor 610 causes the display 630 to display a screen for controlling the device 200, an SNS family page, and the like.

通信インターフェイス660は、アンテナやコネクタによって実現される。通信インターフェイス660は、有線通信あるいは無線通信によって他の装置との間でデータをやり取りする。プロセッサ610は、通信インターフェイス660を介して、テキストデータ、画像データなどを、音声出力サーバ100およびアプリケーションサーバ500などの他の装置に送信する。たとえば、プロセッサ610は、機器200に対する制御命令を音声出力サーバ100およびアプリケーションサーバ500に送信する。また、プロセッサ610は、通信インターフェイス660を介して、プログラム、制御命令、画像データ、テキストデータなどを、音声出力サーバ100およびアプリケーションサーバ500などの他の装置から受信する。   The communication interface 660 is realized by an antenna or a connector. The communication interface 660 exchanges data with other devices by wired communication or wireless communication. The processor 610 transmits text data, image data, and the like to other devices such as the audio output server 100 and the application server 500 via the communication interface 660. For example, the processor 610 transmits a control command for the device 200 to the audio output server 100 and the application server 500. Further, the processor 610 receives programs, control commands, image data, text data, and the like from other devices such as the audio output server 100 and the application server 500 via the communication interface 660.

スピーカ680は、プロセッサ610からの音声信号に基づいて通話音声、音楽、動画などの様々な音声を出力する。
<音声出力サーバ100における情報処理>
The speaker 680 outputs various sounds such as a call sound, music, and a moving image based on the sound signal from the processor 610.
<Information Processing in Audio Output Server 100>

次に、図12を参照しながら、本実施の形態にかかる音声出力サーバ100の情報処理について説明する。なお、図12は、本実施の形態にかかる音声出力サーバ100の情報処理を示すフローチャートである。   Next, information processing of the audio output server 100 according to the present embodiment will be described with reference to FIG. In addition, FIG. 12 is a flowchart which shows the information processing of the audio | voice output server 100 concerning this Embodiment.

まず、はじめに、音声出力サーバ100のプロセッサ110が、通信インターフェイス160を介して機器200からデータを受信すると、以下の処理を実行する。プロセッサ110は、受信したデータから、機器IDと、機器に対する操作の情報または機器が取得した情報と、を取り出してそれらをメモリ120に格納する(ステップS102)。プロセッサ110は、機器データベース1212と音声データベース1211とを参照し、これまでにメモリ120に格納している機器IDと機器からの情報との組み合わせの中に、今回受信した機器IDと機器からの情報との組み合わせに対応するものがあるか検索する(ステップS104)。   First, when the processor 110 of the audio output server 100 receives data from the device 200 via the communication interface 160, the following processing is executed. The processor 110 extracts the device ID and the operation information on the device or the information acquired by the device from the received data, and stores them in the memory 120 (step S102). The processor 110 refers to the device database 1212 and the audio database 1211, and among the combinations of the device ID and the information from the device stored so far in the memory 120, the currently received device ID and the information from the device. A search is made as to whether there is a combination corresponding to the combination (step S104).

たとえば、プロセッサ110は、今回受信した機器IDと機器からの情報との組み合わせが第2の機器と第2の情報とに該当し、今回よりも前に受信した機器IDと機器からの情報との組み合わせが第1の機器と第1の情報とに該当するレコードがあるか否かを判断する。なお、プロセッサ110は、今回受信した機器IDと機器からの情報との組み合わせが第1の機器と第1の情報とに該当し、今回よりも前に受信した機器IDと機器からの情報との組み合わせが第2の機器と第2の情報とに該当するレコードがあるか否かを判断してもよい。   For example, the processor 110 has a combination of the device ID received this time and the information from the device corresponding to the second device and the second information, and the combination of the device ID received before this time and the information from the device. It is determined whether there is a record whose combination corresponds to the first device and the first information. The processor 110 corresponds to the combination of the device ID received this time and the information from the device corresponds to the first device and the first information, and the combination of the device ID received before this time and the information from the device. It may be determined whether there is a record whose combination corresponds to the second device and the second information.

これまでにメモリ120に格納している機器IDと機器からの情報との組み合わせの中に、今回受信した機器IDと機器からの情報との組み合わせに対応するものがない場合(ステップS106にてNOの場合)、プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。   If no combination of the device ID and the information from the device stored in the memory 120 corresponds to the combination of the device ID and the information received this time (NO in step S106) The processor 110 waits for the next information via the communication interface 160.

これまでにメモリ120に格納している機器IDと機器からの情報との組み合わせの中に、今回受信した機器IDと機器からの情報との組み合わせに対応するものがあった場合(ステップS106にてYESの場合)、プロセッサ110は、当該レコードのフラグがOFFであるか否かを判断する(ステップS108)。当該レコードのフラグがONである場合(ステップS108にてNOの場合)、プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。   The combination of the device ID and the information from the device stored in the memory 120 so far corresponds to the combination of the device ID received this time and the information from the device (in step S106) If YES, the processor 110 determines whether or not the flag of the record is OFF (step S108). If the flag of the record is ON (NO in step S108), processor 110 waits for the next information via communication interface 160.

当該レコードのフラグがOFFである場合(ステップS108にてYESの場合)、通信インターフェイス160を介して、対応するメッセージの音声データまたは発話指示を出力用機器に送信する(ステップS110)。プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。   If the flag of the record is OFF (YES in step S108), the corresponding message voice data or speech instruction is transmitted to the output device via the communication interface 160 (step S110). The processor 110 waits for the next information via the communication interface 160.

なお、プロセッサ110は、ステップS110を実行した際は、メモリ120に、記憶されていた今回受信した機器IDと機器からの情報との組み合わせのデータと、それに対応する以前から記憶されていた機器IDと機器からの情報との組み合わせのデータとを削除する。   When the processor 110 executes step S110, the data of the combination of the device ID received this time and the information received from the device stored in the memory 120 and the device ID stored before that correspond to the data. And combination data with information from the device.

また、プロセッサ110は、ステップS110を実行した際は、音声データベース1211において、音声出力されたメッセージに対応するフラグをONにする。これによって、同じユーザに同じメッセージを出力する可能性を低減することができる。   In addition, when executing step S110, the processor 110 turns on a flag corresponding to the message output in the voice database 1211. Thereby, the possibility of outputting the same message to the same user can be reduced.

これによって出力用機器としての機器200では、プロセッサ210が、通信インターフェイス260を介して、音声出力サーバ100から発話指示データまたはメッセージの音声データを受信する。プロセッサ210は、当該データに基づいてスピーカ270にメッセージを音声出力させる。   Accordingly, in the device 200 as the output device, the processor 210 receives the speech instruction data or the message voice data from the voice output server 100 via the communication interface 260. The processor 210 causes the speaker 270 to output a message by voice based on the data.

このように、本実施の形態にかかるネットワークシステム1は、ユーザを画像認識するためにカメラを使用したりマッチング処理をしなくても、また、ユーザを音声認識するためにマイクを使用したりマッチング処理をしなくても、ユーザが取りやすい行動を利用して、複数の機器に対する操作や複数の機器が取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりすることができる。
<第2の実施の形態>
As described above, the network system 1 according to the present embodiment does not use a camera or perform a matching process for recognizing a user image, uses a microphone or performs matching for recognizing the user. Even without processing, it is possible to recognize a user or specify a message based on operations on a plurality of devices and data acquired by the plurality of devices, using actions that are easy for the user to take.
<Second Embodiment>

第1の実施の形態においては、複数の機器に対する操作や複数の機器が取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりするものであった。本実施の形態においては、複数の機器に対する操作や複数の機器が取得したデータだけでなく、当該操作が行われた時刻や曜日なども参考にして、ユーザを認識したり、メッセージを特定したりするものである。
<ネットワークシステムの全体構成>
In the first embodiment, a user is recognized or a message is specified based on operations on a plurality of devices and data acquired by the plurality of devices. In the present embodiment, not only operations for a plurality of devices and data acquired by a plurality of devices, but also the time and day of the week when the operations are performed are used as a reference to identify a user or specify a message. To do.
<Overall configuration of network system>

本実施の形態にかかるネットワークシステム1の全体構成は、第1の実施の形態のそれと同様であるため、ここでは説明を繰り返さない。
<ネットワークシステムの動作概要>
Since the overall configuration of network system 1 according to the present embodiment is the same as that of the first embodiment, description thereof will not be repeated here.
<Overview of network system operation>

次に、図1および図2を参照して、本実施の形態にかかるネットワークシステム1の動作概要について説明する。   Next, an outline of the operation of the network system 1 according to the present embodiment will be described with reference to FIGS.

本実施の形態においては、機器200は、ユーザから直接的に、あるいはユーザからリモコンやスマートフォン600Aなどの通信端末600を介して、様々な操作情報を受け付ける。機器200は、受け付けた操作情報を、アダプタ300を介して、音声出力サーバ100に送信する。また、機器200は、画像センサ、音声センサ、温度センサなどを介して取得したデータを、アダプタ300を介して、音声出力サーバ100に送信する。そして、音声出力サーバ100は、家族が所有する複数の機器200のそれぞれに入力される複数の操作情報、または家族が所有する複数の機器200のそれぞれが取得した画像データ、音声データ、その他のデータと、それらの情報およびデータが取得された時刻と曜日とに基づいて、当該複数の操作情報またはデータに対応するメッセージをいずれかの機器200に音声出力させる。   In the present embodiment, device 200 receives various operation information directly from the user or from the user via communication terminal 600 such as a remote controller or smartphone 600A. The device 200 transmits the received operation information to the audio output server 100 via the adapter 300. In addition, the device 200 transmits data acquired via an image sensor, a voice sensor, a temperature sensor, or the like to the voice output server 100 via the adapter 300. The audio output server 100 then receives a plurality of operation information input to each of the plurality of devices 200 owned by the family, or image data, sound data, and other data acquired by each of the plurality of devices 200 owned by the family. Then, based on the time and day of the week when the information and data are acquired, a message corresponding to the plurality of pieces of operation information or data is output to any device 200 by voice.

たとえば、図1に示すように、夕方の16時に、男の子供が住宅の玄関の扉を開けて住宅内に入ってくると、音声出力サーバ100は、玄関の扉センサ200Eが人を検知した旨の情報を当該扉センサ200Eから受信する。次に、男の子が、16時3分に、冷蔵庫200Bの扉を開けると、音声出力サーバ100は、冷蔵庫200Bから扉が開けられた旨の操作情報を受信する。   For example, as shown in FIG. 1, when the boys open the entrance door of the house and enter the house at 16:00 in the evening, the voice output server 100 indicates that the entrance door sensor 200E has detected a person. Is received from the door sensor 200E. Next, when the boy opens the door of the refrigerator 200B at 16:03, the audio output server 100 receives operation information indicating that the door has been opened from the refrigerator 200B.

なお、本実施の形態においては、ネットワークシステム1が、玄関の扉センサ200Eを含んでいるが、たとえば、ドアの本体の動きまたは位置や、ドアノブの動きまたは位置や、ドアの鍵の動きまたは位置を検知するセンサを利用してもよい。当該センサが、玄関扉を誰かが通過したことを検知して、検知結果を音声出力サーバ100に送信するものであってもよい。   In the present embodiment, the network system 1 includes the door sensor 200E at the entrance. For example, the movement or position of the door body, the movement or position of the door knob, or the movement or position of the door key. You may utilize the sensor which detects this. The sensor may detect that someone has passed through the entrance door and transmit the detection result to the audio output server 100.

音声出力サーバ100は、扉センサ200Eと冷蔵庫200Bからのデータと当該データが取得された時刻とに基づいて、当該2つの機器を操作したのが長男であることを特定する。本実施の形態においては、予め家族に属する人間が取りやすい行動がデータベースに格納されているため、音声出力サーバ100は当該データベースを参照することによって、複数の家電が取得した情報と時刻とからユーザを特定することができる。   The audio output server 100 specifies that the eldest son operated the two devices based on the data from the door sensor 200E and the refrigerator 200B and the time when the data was acquired. In this embodiment, since actions that can be easily taken by a person belonging to a family are stored in the database in advance, the audio output server 100 refers to the database, so that the user can obtain information based on information and times acquired by a plurality of home appliances. Can be specified.

その結果、音声出力サーバ100は、機器が取得したデータおよび/または特定されたユーザに適したメッセージを機器200に音声出力させることができる。なお、サーバ100は、機器を操作したのが誰であるかを特定する必要はない。複数の機器と複数の情報とに対応するメッセージを機器に送信すればよい。   As a result, the audio output server 100 can cause the device 200 to output the message acquired by the device and / or a message suitable for the identified user. The server 100 does not need to specify who has operated the device. Messages corresponding to a plurality of devices and a plurality of information may be transmitted to the devices.

あるいは、図2に示すように、朝6時に、母が起きて、リビングの照明200AをONすると、音声出力サーバ100は、照明200AがON命令を受け付けた旨の情報を照明200Aから受信する。次に、6時5分に、母が、冷蔵庫200Bの扉を開けると、音声出力サーバ100は、冷蔵庫200Bから扉が開けられた旨の操作情報を受信する。   Alternatively, as illustrated in FIG. 2, when the mother wakes up at 6 am and turns on the living room lighting 200 </ b> A, the audio output server 100 receives information indicating that the lighting 200 </ b> A has received the ON command from the lighting 200 </ b> A. Next, when the mother opens the door of the refrigerator 200B at 6:05, the audio output server 100 receives operation information indicating that the door has been opened from the refrigerator 200B.

音声出力サーバ100は、照明200Aと冷蔵庫200Bからのデータと当該データが取得された時刻とに基づいて、当該2つの機器を操作したのが母であることを特定する。具体的には、音声出力サーバ100は、データベースを参照することによって、2つの家電に対する操作情報と時刻とから母を特定することができる。   The audio output server 100 specifies that the mother who operated the two devices is based on the data from the lighting 200A and the refrigerator 200B and the time when the data was acquired. Specifically, the audio output server 100 can specify the mother from the operation information and the time for the two home appliances by referring to the database.

その結果、音声出力サーバ100は、機器が取得したデータおよび/またはユーザに適したメッセージを機器200に音声出力させることができる。なお、サーバ100は、機器を操作したのが誰であるかを特定する必要はない。複数の機器と複数の情報とに対応するメッセージを機器に送信すればよい。   As a result, the audio output server 100 can cause the device 200 to output the data acquired by the device and / or a message suitable for the user. The server 100 does not need to specify who has operated the device. Messages corresponding to a plurality of devices and a plurality of information may be transmitted to the devices.

このように、本実施の形態にかかるネットワークシステム1では、精度の高いカメラやマイクを有さずとも、あるいは顔画像や音声のマッチングをせずとも、ユーザまたは状況などに適した音声を出力することができる。   As described above, the network system 1 according to the present embodiment outputs a sound suitable for the user or the situation without having a highly accurate camera and microphone, or without matching a face image and sound. be able to.

なお、本実施の形態においては、音声出力サーバ100は、音声データを取得させるための指示と、機器200に音声を発話させるための指示と、を別々のタイミングでアダプタ300に送信する。これによって、音声出力サーバ100は、毎回音声データを送信することなく、発話指示によって自由な組み合わせ音声を機器200から出力させることが可能になる。すなわち、従来よりも柔軟に音声出力サーバ100が機器200の音声出力を制御することができる。   In the present embodiment, the audio output server 100 transmits an instruction for acquiring audio data and an instruction for causing the device 200 to speak audio to the adapter 300 at different timings. As a result, the voice output server 100 can output a free combination voice from the device 200 according to the utterance instruction without transmitting voice data each time. That is, the audio output server 100 can control the audio output of the device 200 more flexibly than in the past.

ただし、音声出力サーバ100は、機器200にメッセージを音声出力させるたびに、メッセージの音声データを送るものであってもよい。   However, the voice output server 100 may send the voice data of the message every time the device 200 outputs the message as voice.

以下では、このような機能を実現するためのネットワークシステム1について説明する。ただし、音声出力サーバ100の音声データベース122について説明するものとし、音声出力サーバ100、機器200、アダプタ300、音声作成サーバ700、アプリケーションサーバ500、通信端末600のハードウェア構成の一態様については、第1の実施の形態のそれと同様であるため、ここでは説明を繰り返さない。   Below, the network system 1 for implement | achieving such a function is demonstrated. However, the voice database 122 of the voice output server 100 will be described, and one aspect of the hardware configuration of the voice output server 100, the device 200, the adapter 300, the voice creation server 700, the application server 500, and the communication terminal 600 will be described. Since it is the same as that of the first embodiment, description thereof will not be repeated here.

ここで、図13は、本実施の形態にかかる音声データベース122のデータ構造を示すイメージ図である。図13を参照して、音声データベース122は、第1の機器を特定するための情報と、第1の機器に対する操作または第1の機器が取得する情報と、第2の機器を特定するための情報と、第2の機器に対する操作または第2の機器が取得する情報と、それらの情報を取得すべき時間帯と曜日と、対象ユーザと、メッセージ、出力用機器、出力フラグとの対応関係を格納する。   Here, FIG. 13 is an image diagram showing a data structure of the voice database 122 according to the present embodiment. Referring to FIG. 13, the voice database 122 specifies information for specifying the first device, information for the operation of the first device or information acquired by the first device, and for specifying the second device. The correspondence between the information, the operation on the second device or the information acquired by the second device, the time zone and day of the week for acquiring the information, the target user, the message, the output device, and the output flag Store.

これによって、プロセッサ110は、音声データベース1211を参照することによって、第1の機器に対する操作または第1の機器が取得した画像データ・音声データなどと、第2の機器に対する操作または第2の機器が取得した画像データ・音声データなどと、それらのデータを取得した時刻とに基づいてユーザおよび当該ユーザの動作に適したメッセージを特定することができる。
<音声出力サーバ100における情報処理>
As a result, the processor 110 refers to the audio database 1211 so that the operation on the first device or the image data / audio data acquired by the first device and the operation on the second device or the second device A user and a message suitable for the user's operation can be specified based on the acquired image data / audio data and the time when the data is acquired.
<Information Processing in Audio Output Server 100>

次に、図12を参照しながら、本実施の形態にかかる音声出力サーバ100の情報処理について説明する。なお、図12は、本実施の形態にかかる音声出力サーバ100の情報処理を示すフローチャートである。   Next, information processing of the audio output server 100 according to the present embodiment will be described with reference to FIG. In addition, FIG. 12 is a flowchart which shows the information processing of the audio | voice output server 100 concerning this Embodiment.

まず、はじめに、音声出力サーバ100のプロセッサ110が、通信インターフェイス160を介して機器200からデータを受信すると、以下の処理を実行する。プロセッサ110は、受信したデータから、機器IDと、機器からの情報と、当該情報が取得された時刻とを取り出してそれらをメモリ120に格納する(ステップS102)。プロセッサ110は、機器データベース1212と音声データベース1211とを参照し、これまでにメモリ120に格納している機器IDと機器からの情報と時刻組み合わせの中に、今回受信した機器IDと機器からの情報と時刻の組み合わせに対応するものがあるか検索する(ステップS104)。   First, when the processor 110 of the audio output server 100 receives data from the device 200 via the communication interface 160, the following processing is executed. The processor 110 extracts the device ID, the information from the device, and the time when the information was acquired from the received data, and stores them in the memory 120 (step S102). The processor 110 refers to the device database 1212 and the audio database 1211, and includes the device ID and information from the device received this time, among the device ID, information from the device, and time combination stored so far. A search is made as to whether there is a combination corresponding to the combination of time and time (step S104).

たとえば、プロセッサ110は、今回受信した機器IDと機器からの情報と時刻との組み合わせが第2の機器と第2の情報とに該当し、今回よりも前に受信した機器IDと機器からの情報と時刻との組み合わせが第1の機器と第1の情報とに該当するレコードがあるか否かを判断する。なお、プロセッサ110は、今回受信した機器IDと機器からの情報と時刻との組み合わせが第1の機器と第1の情報と時刻とに該当し、今回よりも前に受信した機器IDと機器からの情報と時刻との組み合わせが第2の機器と第2の情報と時刻とに該当するレコードがあるか否かを判断してもよい。   For example, the processor 110 has a combination of the device ID, the information from the device, and the time received this time correspond to the second device and the second information, and the device ID and information from the device received before this time. It is determined whether or not there is a record in which the combination of time and time corresponds to the first device and the first information. Note that the processor 110 has a combination of the device ID, the information from the device, and the time received this time correspond to the first device, the first information, and the time, and the device ID and the device received before this time. It may be determined whether there is a record in which the combination of the information and the time corresponds to the second device, the second information, and the time.

これまでにメモリ120に格納している機器IDと機器からの情報と時刻との組み合わせの中に、今回受信した機器IDと機器からの情報と時刻との組み合わせに対応するものがない場合(ステップS106にてNOの場合)、プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。   The combination of the device ID, the information from the device, and the time stored in the memory 120 so far does not correspond to the combination of the device ID, the information from the device, and the time (step) In the case of NO in S106), the processor 110 waits for the next information via the communication interface 160.

これまでにメモリ120に格納している機器IDと機器からの情報と時刻との組み合わせの中に、今回受信した機器IDと機器からの情報と時刻との組み合わせに対応するものがあった場合(ステップS106にてYESの場合)、プロセッサ110は、当該レコードのフラグがOFFであるか否かを判断する(ステップS108)。当該レコードのフラグがONである場合(ステップS108にてNOの場合)、プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。   The combination of the device ID, the information from the device, and the time stored in the memory 120 so far corresponds to the combination of the device ID, the information from the device and the time received this time ( In the case of YES in step S106, the processor 110 determines whether or not the flag of the record is OFF (step S108). If the flag of the record is ON (NO in step S108), processor 110 waits for the next information via communication interface 160.

当該レコードのフラグがOFFである場合(ステップS108にてYESの場合)、通信インターフェイス160を介して、対応するメッセージの音声データまたは発話指示を出力用機器に送信する(ステップS110)。プロセッサ110は、通信インターフェイス160を介して、次の情報を待ち受ける。   If the flag of the record is OFF (YES in step S108), the corresponding message voice data or speech instruction is transmitted to the output device via the communication interface 160 (step S110). The processor 110 waits for the next information via the communication interface 160.

なお、プロセッサ110は、ステップS110を実行した際は、メモリ120に、記憶されていた今回受信した機器IDと機器からの情報と時刻との組み合わせのデータと、それに対応する以前から記憶されていた機器IDと機器からの情報と時刻との組み合わせのデータとを削除する。   When the processor 110 executes step S110, the memory 120 previously stores the data of the combination of the device ID, the information received from the device received this time, and the time, and the corresponding data. The device ID, the information from the device, and the combination data of the time are deleted.

また、プロセッサ110は、ステップS110を実行した際は、音声データベース1211において、音声出力されたメッセージに対応するフラグをONにする。これによって、同じユーザに同じメッセージを出力する可能性を低減することができる。   In addition, when executing step S110, the processor 110 turns on a flag corresponding to the message output in the voice database 1211. Thereby, the possibility of outputting the same message to the same user can be reduced.

これによって出力用機器としての機器200では、プロセッサ210は、通信インターフェイス260を介して、音声出力サーバ100から受信したメッセージの音声データあるいは発話指示に基づいて、スピーカ270からメッセージを音声出力する。   As a result, in the device 200 as an output device, the processor 210 outputs a message from the speaker 270 via the communication interface 260 based on the voice data or the utterance instruction of the message received from the voice output server 100.

このように、本実施の形態にかかるネットワークシステム1は、ユーザを画像認識するためにカメラを使用したりマッチング処理をしなくても、また、ユーザを音声認識するためにマイクを使用したりマッチング処理をしなくても、ユーザが取りやすい行動を利用して、複数の機器に対する操作や複数の機器が取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりすることができる。
<第3の実施の形態>
As described above, the network system 1 according to the present embodiment does not use a camera or perform a matching process for recognizing a user image, uses a microphone or performs matching for recognizing the user. Even without processing, it is possible to recognize a user or specify a message based on operations on a plurality of devices and data acquired by the plurality of devices, using actions that are easy for the user to take.
<Third Embodiment>

第2の実施の形態においては、第1の機器および第1の情報の組み合わせと、第2の機器および第2の情報の組み合わせとに、同じ時間帯が対応付けられている。しかしながら、本実施の形態においては、第1の機器および第1の情報の組み合わせと、第2の機器および第2の情報の組み合わせとに、別々の時間帯を対応付けることができる。ただし、同じ時間帯が対応付けられることが禁止されているわけではない。   In the second embodiment, the same time zone is associated with the combination of the first device and the first information and the combination of the second device and the second information. However, in the present embodiment, different time zones can be associated with the combination of the first device and the first information and the combination of the second device and the second information. However, it is not prohibited to associate the same time zone.

すなわち、図14を参照して、本実施の形態にかかる音声データベース123は、第1の機器を特定するための情報と、第1の機器に対する操作または第1の機器が取得する情報と、当該情報を取得すべき時間帯と、第2の機器を特定するための情報と、第2の機器に対する操作または第2の機器が取得する情報と、当該情報を取得すべき時間帯と曜日と、対象ユーザと、メッセージ、出力用機器、出力フラグとの対応関係を格納する。   That is, with reference to FIG. 14, the audio database 123 according to the present embodiment includes information for specifying the first device, operation for the first device or information acquired by the first device, A time zone for acquiring information, information for specifying the second device, an operation for the second device or information acquired by the second device, a time zone and day of the week for acquiring the information, Stores the correspondence relationship between the target user, messages, output devices, and output flags.

これによって、プロセッサ110は、音声データベース1211を参照することによって、第1の機器に対する操作または第1の機器が取得した画像データ・音声データなどと、当該データを取得した時刻と、第2の機器に対する操作または第2の機器が取得した画像データ・音声データなどと、当該データを取得した時刻とに基づいてユーザおよび当該ユーザの動作に適したメッセージを特定することができる。
<第4の実施の形態>
Accordingly, the processor 110 refers to the audio database 1211 to operate the first device or the image data / audio data acquired by the first device, the time when the data is acquired, and the second device. The user and a message suitable for the user's operation can be specified based on the operation on the image or the image data / audio data acquired by the second device and the time when the data is acquired.
<Fourth embodiment>

第1の実施の形態においては、複数の機器に対する操作や複数の機器が取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりするものであった。本実施の形態においては、複数の機器に対する操作や複数の機器が取得したデータだけでなく、当該複数の機器に対する操作が行われた間隔なども参考にして、ユーザを認識したり、メッセージを特定したりするものである。   In the first embodiment, a user is recognized or a message is specified based on operations on a plurality of devices and data acquired by the plurality of devices. In this embodiment, the user is identified and the message is identified by referring not only to the operations for a plurality of devices and the data acquired by the plurality of devices, but also to the intervals at which the operations for the devices are performed. It is something to do.

すなわち、図15を参照して、本実施の形態にかかる音声データベース124は、第1の機器を特定するための情報と、第1の機器に対する操作または第1の機器が取得する情報と、第2の機器を特定するための情報と、第2の機器に対する操作または第2の機器が取得する情報と、当該2つの情報を取得した間隔に関する条件と、当該2つの情報を取得した曜日と、対象ユーザと、メッセージ、出力用機器、出力フラグとの対応関係を格納する。なお、間隔だけでなく、第2および第3の実施の形態のように、音声データベース124は、時間帯を示す情報も格納してもよい。   That is, referring to FIG. 15, the audio database 124 according to the present embodiment includes information for specifying the first device, operation for the first device or information acquired by the first device, Information for identifying the two devices, information on the operation of the second device or information acquired by the second device, the conditions regarding the interval at which the two pieces of information were acquired, the day of the week on which the two pieces of information were acquired, Stores the correspondence relationship between the target user, messages, output devices, and output flags. In addition to the interval, as in the second and third embodiments, the voice database 124 may store information indicating a time zone.

これによって、プロセッサ110は、音声データベース1211を参照することによって、第1の機器に対する操作または第1の機器が取得した画像データ・音声データなどと、当該データを取得した時刻と、第2の機器に対する操作または第2の機器が取得した画像データ・音声データなどと、当該データを取得した時刻と、それらから計算される間隔とに基づいてユーザおよび当該ユーザの動作に適したメッセージを特定することができる。
<第5の実施の形態>
Accordingly, the processor 110 refers to the audio database 1211 to operate the first device or the image data / audio data acquired by the first device, the time when the data is acquired, and the second device. Identifying a user and a message suitable for the user's operation based on the image data / sound data acquired by the second device or the time when the data was acquired, and the interval calculated from them Can do.
<Fifth embodiment>

第1の実施の形態においては、第1および第2の機器に対する操作やそれらが取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりするものであった。しかしながら、複数の機器は2つの機器に限られない。本実施の形態においては、第1〜第3の機器に対する操作やそれらが取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりするものである。
<ネットワークシステムの全体構成>
In the first embodiment, the user is recognized and the message is specified based on the operations on the first and second devices and the data acquired by them. However, the plurality of devices is not limited to two devices. In the present embodiment, the user is recognized or the message is specified based on the operations on the first to third devices and the data acquired by them.
<Overall configuration of network system>

本実施の形態にかかるネットワークシステム1の全体構成は、第1の実施の形態のそれと同様であるため、ここでは説明を繰り返さない。
<ネットワークシステムの動作概要>
Since the overall configuration of network system 1 according to the present embodiment is the same as that of the first embodiment, description thereof will not be repeated here.
<Overview of network system operation>

次に、図16を参照して、本実施の形態にかかるネットワークシステム1の動作概要について説明する。なお、図16は、本実施の形態にかかるネットワークシステム1の全体構成と動作概要とを示すイメージ図である。   Next, with reference to FIG. 16, an outline of the operation of the network system 1 according to the present embodiment will be described. FIG. 16 is an image diagram showing an overall configuration and an operation outline of the network system 1 according to the present embodiment.

本実施の形態においては、機器200は、ユーザから直接的に、あるいはユーザからリモコンやスマートフォン600Aなどの通信端末600を介して、様々な操作情報を受け付ける。機器200は、受け付けた操作情報を、アダプタ300を介して、音声出力サーバ100に送信する。また、機器200は、画像センサ、音声センサ、温度センサなどを介して取得したデータを、アダプタ300を介して、音声出力サーバ100に送信する。そして、音声出力サーバ100は、同じ家族が所有する複数の機器200のそれぞれに入力される複数の操作情報、または同じ家族が所有する複数の機器200のそれぞれが取得した画像データ、音声データ、その他のデータと、それらの情報およびデータが取得された時刻と曜日とに基づいて、当該複数の操作情報またはデータに対応するメッセージをいずれかの機器200に音声出力させる。   In the present embodiment, device 200 receives various operation information directly from the user or from the user via communication terminal 600 such as a remote controller or smartphone 600A. The device 200 transmits the received operation information to the audio output server 100 via the adapter 300. In addition, the device 200 transmits data acquired via an image sensor, a voice sensor, a temperature sensor, or the like to the voice output server 100 via the adapter 300. And the audio | voice output server 100 is the image data, audio | voice data, etc. which each acquired the some operation information input into each of the some apparatus 200 which the same family owns, or each of the some apparatus 200 which the same family owns. And a message corresponding to the plurality of pieces of operation information or data based on the data, the information and the time and day of the week when the data was acquired, are output to any device 200 by voice.

たとえば、図2に示すように、朝6時に、母が起きて、リビングの照明200AをONすると、音声出力サーバ100は、照明200AがON命令を受け付けた旨の情報を照明200Aから受信する。次に、6時1分に、母がテレビ200DのスイッチをONすると、音声出力サーバ100は、テレビ200DからスイッチがONされた旨の操作情報を受信する。次に、6時5分に、母が、冷蔵庫200Bの扉を開けると、音声出力サーバ100は、冷蔵庫200Bから扉が開けられた旨の操作情報を受信する。   For example, as shown in FIG. 2, when the mother wakes up at 6 am and turns on the living room lighting 200A, the audio output server 100 receives information from the lighting 200A that the lighting 200A has received an ON command. Next, when the mother turns on the switch of the television 200D at 6:01, the audio output server 100 receives operation information indicating that the switch is turned on from the television 200D. Next, when the mother opens the door of the refrigerator 200B at 6:05, the audio output server 100 receives operation information indicating that the door has been opened from the refrigerator 200B.

音声出力サーバ100は、照明200Aとテレビ200Dと冷蔵庫200Bからのデータと当該データが取得された時刻とに基づいて、当該3つの機器を操作したのが母であることを特定する。具体的には、音声出力サーバ100は、データベースを参照することによって、3つの家電に対する操作情報と時刻とから母を特定することができる。   The audio output server 100 specifies that the mother who operated the three devices is based on the data from the lighting 200A, the television 200D, and the refrigerator 200B and the time when the data was acquired. Specifically, the audio output server 100 can specify the mother from the operation information and the time for the three home appliances by referring to the database.

その結果、音声出力サーバ100は、機器が取得したデータおよび/またはユーザに適したメッセージを機器200に音声出力させることができる。   As a result, the audio output server 100 can cause the device 200 to output the data acquired by the device and / or a message suitable for the user.

このように、本実施の形態にかかるネットワークシステム1では、精度の高いカメラやマイクを有さずとも、あるいは顔画像や音声のマッチングをせずとも、ユーザまたは状況などに適した音声を出力することができる。   As described above, the network system 1 according to the present embodiment outputs a sound suitable for the user or the situation without having a highly accurate camera and microphone, or without matching a face image and sound. be able to.

なお、本実施の形態においては、音声出力サーバ100は、音声データを取得させるための指示と、機器200に音声を発話させるための指示と、を別々のタイミングでアダプタ300に送信する。これによって、音声出力サーバ100は、毎回音声データを送信することなく、発話指示によって自由な組み合わせ音声を機器200から出力させることが可能になる。すなわち、従来よりも柔軟に音声出力サーバ100が機器200の音声出力を制御することができる。   In the present embodiment, the audio output server 100 transmits an instruction for acquiring audio data and an instruction for causing the device 200 to speak audio to the adapter 300 at different timings. As a result, the voice output server 100 can output a free combination voice from the device 200 according to the utterance instruction without transmitting voice data each time. That is, the audio output server 100 can control the audio output of the device 200 more flexibly than in the past.

ただし、音声出力サーバ100は、機器200にメッセージを音声出力させるたびに、メッセージの音声データを送るものであってもよい。   However, the voice output server 100 may send the voice data of the message every time the device 200 outputs the message as voice.

以下では、このような機能を実現するためのネットワークシステム1について説明する。ただし、音声出力サーバ100の音声データベース125について説明するものとし、音声出力サーバ100、機器200、アダプタ300、音声作成サーバ700、アプリケーションサーバ500、通信端末600のハードウェア構成の一態様と、音声出力サーバ100の情報処理については、第1の実施の形態のそれと同様であるため、ここでは説明を繰り返さない。   Below, the network system 1 for implement | achieving such a function is demonstrated. However, the audio database 125 of the audio output server 100 will be described. One aspect of the hardware configuration of the audio output server 100, the device 200, the adapter 300, the audio creation server 700, the application server 500, and the communication terminal 600, and the audio output Information processing of server 100 is the same as that of the first embodiment, and therefore description thereof will not be repeated here.

ここで、図17は、本実施の形態にかかる音声データベース125のデータ構造を示すイメージ図である。図17を参照して、音声データベース125は、第1の機器を特定するための情報と、第1の機器に対する操作または第1の機器が取得する情報と、第2の機器を特定するための情報と、第2の機器に対する操作または第2の機器が取得する情報と、第3の機器を特定するための情報と、第3の機器に対する操作または第3の機器が取得する情報と、それらの情報を取得すべき曜日と、対象ユーザと、メッセージ、出力用機器、出力フラグとの対応関係を格納する。   Here, FIG. 17 is an image diagram showing a data structure of the voice database 125 according to the present embodiment. Referring to FIG. 17, the voice database 125 includes information for specifying the first device, operation for the first device or information acquired by the first device, and information for specifying the second device. Information, operation for the second device or information acquired by the second device, information for specifying the third device, operation for the third device or information acquired by the third device, and The correspondence relationship between the day of the week to obtain the information, the target user, the message, the output device, and the output flag is stored.

これによって、プロセッサ110は、音声データベース1211を参照することによって、第1の機器に対する操作または第1の機器が取得した画像データ・音声データなどと、第2の機器に対する操作または第2の機器が取得した画像データ・音声データなどと、第3の機器に対する操作または第3の機器が取得した画像データ・音声データなどと、に基づいてユーザおよび当該ユーザの動作に適したメッセージを特定することができる。   As a result, the processor 110 refers to the audio database 1211 so that the operation on the first device or the image data / audio data acquired by the first device and the operation on the second device or the second device It is possible to identify a user and a message suitable for the user's operation based on the acquired image data / audio data and the operation on the third device or the image data / audio data acquired by the third device. it can.

このように、本実施の形態にかかるネットワークシステム1も、ユーザを画像認識するためにカメラを使用したりマッチング処理をしなくても、また、ユーザを音声認識するためにマイクを使用したりマッチング処理をしなくても、ユーザが取りやすい行動を利用して、複数の機器に対する操作や複数の機器が取得したデータに基づいて、ユーザを認識したり、メッセージを特定したりすることができる。
<第6の実施の形態>
As described above, the network system 1 according to the present embodiment also uses the camera to recognize the image of the user or does not perform the matching process, or uses the microphone to recognize the user or performs the matching. Even without processing, it is possible to recognize a user or specify a message based on operations on a plurality of devices and data acquired by the plurality of devices, using actions that are easy for the user to take.
<Sixth Embodiment>

第1から第5の実施の形態においては、機器200は、アダプタ300を介して、ルータ、インターネット、音声出力サーバ100などと通信するものであった。しかしながら、図18に示すように、機器200が、直接的に、WiFi(登録商標)通信やBluetooth(登録商標)によって、ルータ400を介して、インターネット、音声出力サーバ100と通信するものであってもよい。
<第7の実施の形態>
In the first to fifth embodiments, the device 200 communicates with the router, the Internet, the audio output server 100, and the like via the adapter 300. However, as shown in FIG. 18, the device 200 communicates directly with the Internet and the audio output server 100 via the router 400 by WiFi (registered trademark) communication or Bluetooth (registered trademark). Also good.
<Seventh embodiment>

第1から第5の実施の形態においては、機器200は、アダプタ300を介して、ルータ、インターネット、音声出力サーバ100などと通信するものであった。しかしながら、図19に示すように、機器200が、アダプタ300を介して、直接的に、すなわちルータ400を介さずに、3G回線、4G回線、LTE(登録商標)回線などのモバイル無線通信網などを介して、インターネット、音声出力サーバ100と通信するものであってもよい。
<第8の実施の形態>
In the first to fifth embodiments, the device 200 communicates with the router, the Internet, the audio output server 100, and the like via the adapter 300. However, as shown in FIG. 19, the device 200 is directly connected to the mobile radio communication network such as a 3G line, a 4G line, and an LTE (registered trademark) line via the adapter 300, that is, not via the router 400. It is also possible to communicate with the Internet or the audio output server 100 via the Internet.
<Eighth Embodiment>

さらには、図20に示すように、機器200が、直接的に、すなわちアダプタ300もルータも介さずに、3G回線、4G回線、LTE(登録商標)回線などのモバイル無線通信網などを介して、インターネット、音声出力サーバ100と通信するものであってもよい。
<その他の応用例>
Furthermore, as shown in FIG. 20, the device 200 can be directly connected via a mobile wireless communication network such as a 3G line, a 4G line, or an LTE (registered trademark) line directly, that is, without using an adapter 300 or a router. It may communicate with the Internet or the audio output server 100.
<Other application examples>

本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体(あるいはメモリ)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。   It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium (or memory) storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores it in the storage medium. The effect of the present invention can also be enjoyed by reading and executing the program code.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
<上記の複数の実施の形態のまとめ>
Furthermore, after the program code read from the storage medium is written to another storage medium provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU of the function expansion board or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
<Summary of the above embodiments>

上記の第1から第8の実施の形態においては、第1の機器200と、第2の機器200と、第1の機器が取得する第1の情報と第2の機器が取得する第2の情報とメッセージと出力用機器200との対応関係を参照可能なサーバ100とを備えるネットワークシステム1が提供される。サーバ100は、対応関係1211,122,123,124,125を参照することによって、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器200に音声出力させる。   In the first to eighth embodiments, the first device 200, the second device 200, the first information acquired by the first device, and the second information acquired by the second device. A network system 1 is provided that includes a server 100 that can refer to a correspondence relationship between information, a message, and an output device 200. By referring to the correspondence relationships 1211, 122, 123, 124, and 125, the server 100 causes the corresponding output device 200 to output a voice message corresponding to the first information and the second information.

また、上記の第2および第3の実施の形態においては、対応関係122,123は、時間帯を指定するための情報を含む。サーバ100は、第1の情報および第2の情報の少なくともいずれかが時間帯内に取得された場合に、メッセージを出力用機器200に音声出力させる。   In the second and third embodiments, the correspondence relationships 122 and 123 include information for designating time zones. The server 100 causes the output device 200 to output a voice message when at least one of the first information and the second information is acquired within the time period.

また、上記の第4の実施の形態においては、対応関係124は、時間間隔を指定するための情報を含む。サーバ100は、第1の情報の取得と第2の情報の取得との間隔が時間間隔内である場合に、メッセージを出力用機器に音声出力させる。   In the fourth embodiment, the correspondence relationship 124 includes information for specifying a time interval. When the interval between the acquisition of the first information and the acquisition of the second information is within the time interval, the server 100 causes the output device to output a voice message.

また、上記の第1および第8の実施の形態においては、対応関係1211,122,123,124,125は、メッセージが出力されたか否かを示す情報を含む。   In the first and eighth embodiments, the correspondence relationships 1211, 122, 123, 124, and 125 include information indicating whether a message has been output.

また、上記の第1および第8の実施の形態においては、第1の情報は、第1の機器に対する操作を示す情報である。第2の情報は、第2の機器に対する操作を示す情報である。   In the first and eighth embodiments, the first information is information indicating an operation on the first device. The second information is information indicating an operation on the second device.

また、上記の第1および第8の実施の形態においては、第1の情報は、第1の機器がセンサを利用して取得した情報である。第2の情報は、第2の機器がセンサを利用して取得した情報である。   In the first and eighth embodiments, the first information is information acquired by the first device using the sensor. The second information is information acquired by the second device using a sensor.

また、上記の第1および第8の実施の形態においては、第1の機器200と第2の機器200とサーバ100とを含むネットワークシステム1における音声出力方法が提供される。音声出力方法は、第1の機器200が第1の情報をサーバ100に送信するステップと、第2の機器200が第2の情報をサーバ100に送信するステップと、サーバ100が、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器200に音声出力させるステップとを備える。   In the first and eighth embodiments described above, an audio output method in the network system 1 including the first device 200, the second device 200, and the server 100 is provided. The audio output method includes a step in which the first device 200 transmits the first information to the server 100, a step in which the second device 200 transmits the second information to the server 100, And outputting a message corresponding to the information and the second information to the corresponding output device 200 by voice.

また、上記の第1および第8の実施の形態においては、第1の機器200と第2の機器200と通信するための通信インターフェイス160と、第1の機器200が取得する第1の情報と第2の機器200が取得する第2の情報とメッセージと出力用機器200との対応関係1211,122,123,124,125を参照可能なプロセッサ110とを備えるサーバ100が提供される。プロセッサ110は、対応関係1211,122,123,124,125を参照することによって、通信インターフェイス160を介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器200に音声出力させる。   In the first and eighth embodiments described above, the communication interface 160 for communicating with the first device 200 and the second device 200, and the first information acquired by the first device 200, A server 100 is provided that includes a processor 110 that can refer to correspondences 1211, 122, 123, 124, and 125 between second information acquired by the second device 200, messages, and the output device 200. The processor 110 refers to the correspondence relations 1211, 122, 123, 124, and 125, and sends a message corresponding to the first information and the second information via the communication interface 160 to the corresponding output device 200. To output sound.

また、上記の第1および第8の実施の形態においては、第1の機器200と第2の機器200と通信するための通信インターフェイス160とプロセッサ110とを含むサーバ100における音声出力方法が提供される。音声出力方法は、プロセッサ110が、通信インターフェイス160を介して、第1の機器200から第1の情報を受け付けるステップと、プロセッサ110が、通信インターフェイス160を介して、第2の機器200から第2の情報を受け付けるステップと、プロセッサ110が、通信インターフェイス160を介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器200に音声出力させるステップとを備える。   In the first and eighth embodiments described above, an audio output method in the server 100 including the communication interface 160 and the processor 110 for communicating with the first device 200 and the second device 200 is provided. The In the audio output method, the processor 110 receives the first information from the first device 200 via the communication interface 160, and the processor 110 receives the second information from the second device 200 via the communication interface 160. And the processor 110 causes the corresponding output device 200 to output a message corresponding to the first information and the second information via the communication interface 160.

また、上記の第1および第8の実施の形態においては、第1の機器200と第2の機器200と通信するための通信インターフェイス160とプロセッサ110とを含むサーバ100のための音声出力プログラムが提供される。音声出力プログラムは、通信インターフェイス160を介して、第1の機器200から第1の情報を受け付けるステップと、通信インターフェイス160を介して、第2の機器200から第2の情報を受け付けるステップと、通信インターフェイス160を介して、第1の情報と第2の情報とに対応するメッセージを、対応する出力用機器200に音声出力させるステップとをプロセッサに実行させる。   In the first and eighth embodiments described above, an audio output program for the server 100 including the communication interface 160 and the processor 110 for communicating with the first device 200 and the second device 200 is provided. Provided. The audio output program accepts first information from the first device 200 via the communication interface 160, accepts second information from the second device 200 via the communication interface 160, and communication. Through the interface 160, the processor is caused to execute a step of causing the corresponding output device 200 to output a message corresponding to the first information and the second information.

この発明の別の態様に従うと、サーバ100と通信するための通信インターフェイス260と、ユーザからの操作を受け付けるための入力部240,280と、スピーカ270と、プロセッサ210とを備える機器200が提供される。プロセッサ210は、入力部240,280を介してユーザの操作を受け付け、通信インターフェイス260を介いて当該操作をサーバ100に送信し、サーバ100から当該操作に対応するメッセージを受信し、当該メッセージをスピーカ270に音声出力させる。   According to another aspect of the present invention, there is provided a device 200 including a communication interface 260 for communicating with the server 100, input units 240 and 280 for receiving an operation from a user, a speaker 270, and a processor 210. The The processor 210 receives a user operation via the input units 240 and 280, transmits the operation to the server 100 via the communication interface 260, receives a message corresponding to the operation from the server 100, and transmits the message to the speaker. 270 makes the audio output.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 :ネットワークシステム
100 :音声出力サーバ
110 :プロセッサ
120 :メモリ
1211 :対応関係(音声データベース)
1212 :機器データベース
122 :対応関係(音声データベース)
123 :対応関係(音声データベース)
124 :対応関係(音声データベース)
125 :対応関係(音声データベース)
130 :ライト
140 :スイッチ
160 :通信インターフェイス
200 :機器
200A :照明
200B :冷蔵庫
200C :エアコン
200D :テレビ
200E :扉センサ
200F :ウォシュレットコントローラ
210 :プロセッサ
220 :メモリ
230 :ライト
240 :スイッチ
260 :通信インターフェイス
270 :スピーカ
280 :リモコン受光部
290 :機器駆動部
300 :アダプタ
310 :プロセッサ
320 :メモリ
321 :音声データベース
330 :ライト
340 :スイッチ
361 :第1の通信インターフェイス
362 :第2の通信インターフェイス
400 :ルータ
500 :アプリケーションサーバ
600 :通信端末
700 :音声作成サーバ
1: Network system 100: Voice output server 110: Processor 120: Memory 1211: Correspondence (voice database)
1212: Device database 122: Correspondence relationship (voice database)
123: Correspondence (voice database)
124: correspondence (voice database)
125: Correspondence (voice database)
130: Light 140: Switch 160: Communication interface 200: Device 200A: Lighting 200B: Refrigerator 200C: Air conditioner 200D: Television 200E: Door sensor 200F: Washlet controller 210: Processor 220: Memory 230: Light 240: Switch 260: Communication interface 270 : Speaker 280: Remote controller light receiving unit 290: Device driving unit 300: Adapter 310: Processor 320: Memory 321: Audio database 330: Light 340: Switch 361: First communication interface 362: Second communication interface 400: Router 500: Application server 600: Communication terminal 700: Voice creation server

Claims (11)

第1の機器と、
第2の機器と、
前記第1の機器が取得する第1の情報と前記第2の機器が取得する第2の情報とメッセージと出力用機器との対応関係を参照可能なサーバとを備え、
前記サーバは、前記対応関係を参照することによって、前記第1の情報と前記第2の情報とに対応する前記メッセージを、対応する出力用機器に音声出力させる、ネットワークシステム。
A first device;
A second device;
A server capable of referring to the correspondence between the first information acquired by the first device, the second information acquired by the second device, the message, and the output device;
The network system in which the server causes the corresponding output device to output the voice corresponding to the first information and the second information by referring to the correspondence relationship.
前記対応関係は、時間帯を指定するための情報を含み、
前記サーバは、前記第1の情報および前記第2の情報の少なくともいずれかが前記時間帯内に取得された場合に、前記メッセージを出力用機器に音声出力させる、請求項1に記載のネットワークシステム。
The correspondence relationship includes information for designating a time zone,
2. The network system according to claim 1, wherein when at least one of the first information and the second information is acquired within the time period, the server causes the message to be output to the output device. 3. .
前記対応関係は、時間間隔を指定するための情報を含み、
前記サーバは、前記第1の情報の取得と前記第2の情報の取得との間隔が前記時間間隔内である場合に、前記メッセージを出力用機器に音声出力させる、請求項1または2に記載のネットワークシステム。
The correspondence includes information for specifying a time interval;
3. The server according to claim 1, wherein when the interval between the acquisition of the first information and the acquisition of the second information is within the time interval, the server causes the output device to output the message by voice. Network system.
前記対応関係は、前記メッセージが出力されたか否かを示す情報を含む、請求項1から3のいずれか1項に記載のネットワークシステム。   The network system according to claim 1, wherein the correspondence relationship includes information indicating whether or not the message has been output. 前記第1の情報は、前記第1の機器に対する操作を示す情報であって、
前記第2の情報は、前記第2の機器に対する操作を示す情報である、請求項1から4のいずれか1項に記載のネットワークシステム。
The first information is information indicating an operation on the first device,
5. The network system according to claim 1, wherein the second information is information indicating an operation on the second device. 6.
前記第1の情報は、前記第1の機器がセンサを利用して取得した情報であって、
前記第2の情報は、前記第2の機器がセンサを利用して取得した情報である、請求項1から4のいずれか1項に記載のネットワークシステム。
The first information is information acquired by the first device using a sensor,
5. The network system according to claim 1, wherein the second information is information acquired by the second device using a sensor. 6.
第1の機器と第2の機器とサーバとを含むネットワークシステムにおける音声出力方法であって、
前記第1の機器が第1の情報を前記サーバに送信するステップと、
前記第2の機器が第2の情報を前記サーバに送信するステップと、
前記サーバが、前記第1の情報と前記第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとを備える、音声出力方法。
An audio output method in a network system including a first device, a second device, and a server,
The first device transmitting first information to the server;
The second device transmitting second information to the server;
A voice output method, comprising: a step of causing the corresponding output device to output the message corresponding to the first information and the second information by the server.
第1の機器と第2の機器と通信するための通信インターフェイスと、
前記第1の機器が取得する第1の情報と前記第2の機器が取得する第2の情報とメッセージと出力用機器との対応関係を参照可能なプロセッサとを備え、
前記プロセッサは、前記対応関係を参照することによって、前記通信インターフェイスを介して、前記第1の情報と前記第2の情報とに対応する前記メッセージを、対応する出力用機器に音声出力させる、サーバ。
A communication interface for communicating with the first device and the second device;
A first information acquired by the first device, a second information acquired by the second device, a processor capable of referring to a correspondence relationship between the message and the output device;
The processor, by referring to the correspondence relationship, causes the corresponding output device to output the message corresponding to the first information and the second information via the communication interface. .
第1の機器と第2の機器と通信するための通信インターフェイスとプロセッサとを含むサーバにおける音声出力方法であって、
前記プロセッサが、前記通信インターフェイスを介して、前記第1の機器から第1の情報を受け付けるステップと、
前記プロセッサが、前記通信インターフェイスを介して、前記第2の機器から第2の情報を受け付けるステップと、
前記プロセッサが、前記通信インターフェイスを介して、前記第1の情報と前記第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとを備える、音声出力方法。
An audio output method in a server including a communication interface and a processor for communicating with a first device and a second device,
The processor accepting first information from the first device via the communication interface;
The processor accepting second information from the second device via the communication interface;
A voice output method, comprising: a step of causing the corresponding output device to output a message corresponding to the first information and the second information via the communication interface;
第1の機器と第2の機器と通信するための通信インターフェイスとプロセッサとを含むサーバのための音声出力プログラムであって、
前記通信インターフェイスを介して、前記第1の機器から第1の情報を受け付けるステップと、
前記通信インターフェイスを介して、前記第2の機器から第2の情報を受け付けるステップと、
前記通信インターフェイスを介して、前記第1の情報と前記第2の情報とに対応するメッセージを、対応する出力用機器に音声出力させるステップとを前記プロセッサに実行させる、音声出力プログラム。
An audio output program for a server including a communication interface and a processor for communicating with a first device and a second device,
Receiving first information from the first device via the communication interface;
Receiving second information from the second device via the communication interface;
A voice output program that causes the processor to execute a step of outputting a message corresponding to the first information and the second information to a corresponding output device via the communication interface.
サーバと通信するための通信インターフェイスと、
ユーザからの操作を受け付けるための入力部と、
スピーカと、
プロセッサとを備え、
前記プロセッサは、前記入力部を介してユーザの操作を受け付け、前記通信インターフェイスを介いて当該操作を前記サーバに送信し、前記サーバから当該操作に対応するメッセージを受信し、当該メッセージを前記スピーカに音声出力させる、機器。
A communication interface for communicating with the server;
An input unit for accepting operations from the user;
Speakers,
With a processor,
The processor receives a user operation via the input unit, transmits the operation to the server via the communication interface, receives a message corresponding to the operation from the server, and sends the message to the speaker. Equipment that outputs sound.
JP2014190259A 2014-09-18 2014-09-18 Network system, audio output method, server, device and audio output program Pending JP2016063415A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014190259A JP2016063415A (en) 2014-09-18 2014-09-18 Network system, audio output method, server, device and audio output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014190259A JP2016063415A (en) 2014-09-18 2014-09-18 Network system, audio output method, server, device and audio output program

Publications (1)

Publication Number Publication Date
JP2016063415A true JP2016063415A (en) 2016-04-25

Family

ID=55798354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014190259A Pending JP2016063415A (en) 2014-09-18 2014-09-18 Network system, audio output method, server, device and audio output program

Country Status (1)

Country Link
JP (1) JP2016063415A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104654704A (en) * 2015-03-13 2015-05-27 合肥华凌股份有限公司 Refrigerator
WO2018150612A1 (en) * 2017-02-17 2018-08-23 シャープ株式会社 Network system, sever, information processing method, and refrigerator
JP2018198348A (en) * 2017-05-23 2018-12-13 株式会社ノーリツ Control device
JP2019046132A (en) * 2017-09-01 2019-03-22 シャープ株式会社 Network system, information processing method, server, and device
JP2020122589A (en) * 2019-01-29 2020-08-13 シャープ株式会社 Air conditioner
US11355106B2 (en) 2018-03-30 2022-06-07 Ricoh Company, Ltd. Information processing apparatus, method of processing information and storage medium comprising dot per inch resolution for scan or copy

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104654704A (en) * 2015-03-13 2015-05-27 合肥华凌股份有限公司 Refrigerator
WO2018150612A1 (en) * 2017-02-17 2018-08-23 シャープ株式会社 Network system, sever, information processing method, and refrigerator
JP2018132285A (en) * 2017-02-17 2018-08-23 シャープ株式会社 Network system, server, information processing method, and refrigerator
CN110268212A (en) * 2017-02-17 2019-09-20 夏普株式会社 Network system, server, information processing method and refrigerator
CN110268212B (en) * 2017-02-17 2021-06-22 夏普株式会社 Network system, server, information processing method and refrigerator
JP2018198348A (en) * 2017-05-23 2018-12-13 株式会社ノーリツ Control device
JP2019046132A (en) * 2017-09-01 2019-03-22 シャープ株式会社 Network system, information processing method, server, and device
JP7097161B2 (en) 2017-09-01 2022-07-07 シャープ株式会社 Network systems, information processing methods, servers, and equipment
US11355106B2 (en) 2018-03-30 2022-06-07 Ricoh Company, Ltd. Information processing apparatus, method of processing information and storage medium comprising dot per inch resolution for scan or copy
JP2020122589A (en) * 2019-01-29 2020-08-13 シャープ株式会社 Air conditioner
JP7311272B2 (en) 2019-01-29 2023-07-19 シャープ株式会社 air conditioner

Similar Documents

Publication Publication Date Title
US11019130B2 (en) Method and apparatus for remotely controlling home device in home network system
JP2016063415A (en) Network system, audio output method, server, device and audio output program
JP6371889B2 (en) Network system, server, and information processing method
JP6715283B2 (en) Network system and information processing method
JP2019509645A (en) Home automation system and its products
WO2015129372A1 (en) Audio system
CN113273151A (en) Intelligent device management method, mobile terminal and system
CN104852843A (en) Remote home control system based on WeChat public platform
CN111913402A (en) Smart home batch configuration method, device and system and electronic equipment
CN104635537A (en) Control method for intelligent household electrical appliance
JP6602212B2 (en) Electronic device, method and program
CN105049922A (en) Proximity detection of candidate companion display device in same room as primary display using upnp
JP6418863B2 (en) Network system, audio output method, server, device, and audio output program
CN112751734A (en) Household appliance control method based on cleaning robot, cleaning robot and chip
CN103631231A (en) Method and device for monitoring smart home and smart home system
JP2015053585A (en) Communication system, server device, mobile terminal device, information processing method, and program
JP2021152928A (en) Terminal device, method, and program
JP6701016B2 (en) Device control device, device control system, device control method, and program
WO2018079063A1 (en) Network system, server, information processing method, air conditioner and program
JP6607668B2 (en) Network system, audio output method, server, device, and audio output program
CN104036625A (en) Remote control operation method and apparatus thereof
JP6622112B2 (en) Network system
KR20230009211A (en) Method and system for controlling home appliance
WO2016052107A1 (en) Network system, server, device, and communication terminal
CN113641105A (en) A method, device, device and storage medium for controlling household electrical appliances