JP2016114744A - Electronic device control system, terminal device and server - Google Patents
Electronic device control system, terminal device and server Download PDFInfo
- Publication number
- JP2016114744A JP2016114744A JP2014252853A JP2014252853A JP2016114744A JP 2016114744 A JP2016114744 A JP 2016114744A JP 2014252853 A JP2014252853 A JP 2014252853A JP 2014252853 A JP2014252853 A JP 2014252853A JP 2016114744 A JP2016114744 A JP 2016114744A
- Authority
- JP
- Japan
- Prior art keywords
- electronic device
- controlled
- control
- command
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Selective Calling Equipment (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、テレビ、照明等の電子機器を制御するための電子機器制御システム、電子機器制御システムを構成する端末装置、及び、サーバーに関する。 The present invention relates to an electronic device control system for controlling electronic devices such as a television and lighting, a terminal device that constitutes the electronic device control system, and a server.
近年、ユーザーが発話した音声を利用して、テレビ、照明等の電子機器を制御する技術が開発されている(例えば、特許文献1参照。)。図6は、従来の電子機器制御システムのシステム構成を示す図である。電子機器制御システム11は、端末装置12(12a〜12c)、ホームサーバー13、クラウドサーバー14、ルーター15を備える。例えば、端末装置12a、ホームサーバー13、ルーター15は、自宅1階のリビングに設置されている。端末装置12bは、自宅2階の書斎に設置されている。端末装置12cは、自宅2階の子供部屋に設置されている。クラウドサーバー14は、自宅外に設置された外部サーバーである。
2. Description of the Related Art In recent years, a technique for controlling electronic devices such as a television and lighting using a voice spoken by a user has been developed (see, for example, Patent Document 1). FIG. 6 is a diagram showing a system configuration of a conventional electronic device control system. The electronic
端末装置12a〜12cは、同一の構成を有する。端末装置12は、マイクロコンピュータ121、マイク122、スピーカー123、赤外線LED124等を備える。マイクロコンピュータ121は、端末装置12を構成する各部を制御する。また、マイクロコンピュータ121は、無線LANネットワークプロセッサーを有しており、ルーター15と無線LANに従った通信を行う。マイク122は、外部の音声を集音し音声データとして出力する。マイク122が出力した音声データは、図示しないDSP(Digital Signal Processor)を介して、マイクロコンピュータ121に入力される。なお、マイク122は、デジタルマイクであり、集音した音声データをA/D変換してDSPに出力する。スピーカー123は、音声データに基づいて音声を出力する。なお、スピーカー123には、図示しないD/Aコンバータが音声データ(デジタルデータ)をD/A変換し、図示しないパワーアンプが増幅した音声データが出力される。赤外線LED124は、テレビ16、照明17に対して、テレビ16、照明17を制御するためのリモコンコードを送信する。
The
ホームサーバー13は、CPU(Central Processing Unit)131、RAM(Random Access Memory)132、記憶部133、ネットワークインターフェース(以下、「NW I/F」という。)134を備える。CPU131は、ホームサーバー13を構成する各部を制御する。RAM132は、CPU131のワークメモリとして機能する。記憶部133は、各種のプログラム、データを記憶する。NW I/F134は、外部の機器(例えば、ルーター15)と有線LAN、無線LANに従った通信を行うためのものである。
The
ルーター15は、アクセスポイント機能を有しており、端末装置12と無線LANに従った通信を行う。また、ルーター15は、ホームサーバー13と有線LANに従った通信を行う。また、ルーター15は、ホームサーバー13とクラウドサーバー14とをインターネット接続する。
The
上述したホームサーバー13は、電子機器(テレビ16、照明17)を制御するために、機器制御情報データベース(以下、「機器制御情報DB」という。)を記憶部133に記憶している。図7は、機器制御情報DBを示す図である。図7(a)に示すように、機器制御情報DBには、端末装置12a〜12cのIDと、端末装置12a〜12cの位置と、が対応付けて記憶されている。例えば、IDが「XXX1」の端末装置12aは、自宅1階のリビングにあることが記憶されている。また、図7(b)に示すように、機器制御情報DBには、端末装置12a〜12cのIDと、電子機器のプロファイルと、が対応付けて記憶されている。電子機器のプロファイルとしては、「Accessory」、「Service」、「Characteristics」がある。「Accessory」は、制御対象の電子機器(照明、テレビ)を示す。「Service」は、制御対象の機能(Light、tv_control)を示す。「Characteristics」は、実行内容(Power State、Volume Control等)を示す。
The
また、図7(c)に示すように、制御対象の電子機器を特定するために、機器制御情報DBには、Accessoryと、音声コマンドと、が対応付けて記憶されている。また、図7(d)に示すように、制御対象の機能を特定するために、機器制御情報DBには、Serviceと、音声コマンドと、が対応付けて記憶されている。また、図7(e)に示すように、実行内容を特定するために、機器制御情報DBには、Characteristicsと、音声コマンドと、が対応付けて記憶されている。 Further, as shown in FIG. 7C, in order to identify the electronic device to be controlled, the Accessory and the voice command are stored in association with each other in the device control information DB. Also, as shown in FIG. 7D, in order to specify the function to be controlled, the device control information DB stores a service and a voice command in association with each other. Further, as shown in FIG. 7 (e), in order to specify the execution contents, the device control information DB stores Characteristics and voice commands in association with each other.
例えば、音声コマンドが、「テレビつけて」であれば、音声コマンド「テレビ」に対応するAccessory(制御対象の電子機器)は、「テレビ」である。また、音声コマンド「つけ」に対応するCharacteristics(実行内容)は、「Power State」である。従って、CPU131は、音声コマンドと機器制御情報DBとに基づいて、テレビの電源をオンすることを決定することができる。そして、CPU131は、テレビの電源をオンする制御コマンドを端末装置12に送信する。
For example, if the voice command is “Turn on TV”, the Accessory (the electronic device to be controlled) corresponding to the voice command “TV” is “TV”. Further, Characteristics (execution content) corresponding to the voice command “Take” is “Power State”. Therefore, the
図8は、従来の電子機器制御システムの動作を示すシーケンス図である。以下、図8に基づいて、テレビ16を制御する一連の動作を説明する。まず、ユーザーは、端末装置12がホームサーバー13に音声データを送信するデータ送信モードとするために、所定のキーワードを発話する。例えば、ユーザーは、「こんにちはオンキヨー」と発話する(図8の(1))。端末装置12のマイク122は、ユーザーが発話した音声を集音し音声データとしてマイクロコンピュータ121に出力する。マイクロコンピュータ121は、音声認識機能を有しており、音声データに含まれる文字データを認識し、認識した文字データが所定のキーワードと一致しているか否かを判断する。マイクロコンピュータ121は、認識した文字データが所定のキーワードと一致していると判断した場合、データ送信モードに遷移する(図8の(2))。
FIG. 8 is a sequence diagram showing the operation of the conventional electronic device control system. Hereinafter, a series of operations for controlling the
次に、例えば、ユーザーは、テレビの電源をオンにしたい場合、「テレビつけて」と発話する(図8の(3))。端末装置12のマイク122は、ユーザーが発話した音声を集音し音声データとしてマイクロコンピュータ121に出力する。マイクロコンピュータ121は、音声データ(「テレビつけて」)をホームサーバー14に送信する(図8の(4))。ホームサーバー13のCPU131は、NW I/F134により端末装置12が送信した音声データを受信する。次に、CPU131は、NW I/F134によりクラウドサーバー14に音声データを送信し、音声認識の問い合わせを行う(図8の(5))。
Next, for example, when the user wants to turn on the TV, the user speaks “Turn on TV” ((3) in FIG. 8). The
クラウドサーバー14は、ホームサーバー13が送信した音声データを受信する。クラウドサーバー14は、音声認識機能を有しており、音声データに含まれる文字データを認識する。次に、クラウドサーバー14は、認識した文字データに対応する音声コマンド(「テレビつけて」)をホームサーバー13に送信し、音声認識の結果を応答する(図8の(6))。ホームサーバー13のCPU131は、NW I/F134によりクラウドサーバー14が送信した音声コマンドを受信する。CPU131は、音声認識結果の解析を行う(図8の(7))。具体的には、CPU131は、機器制御情報DBと音声コマンドとに基づいて、音声コマンドに対応する制御コマンドを決定する。CPU131は、NW I/F134により決定した制御コマンド(テレビの電源をオンする制御コマンド)を送信する(図8の(8))。
The
同時に、CPU131は、NW I/F134によりクラウドサーバー14に音声合成を行わせる要求を送信する(図8の(9))。例えば、CPU131は、音声コマンドが「テレビつけて」であった場合、これに対応する「テレビつけました」の音声合成をクラウドサーバー14に行わせる。クラウドサーバー14は、音声合成を行い、音声合成データをホームサーバー13に送信し、音声合成の結果を応答する(図8の(10))。ホームサーバー13のCPU131は、NW I/F134により音声合成データを受信する。次に、CPU131は、NW I/F134により受信した音声合成データを端末装置12に送信する(図8の(11))。
At the same time, the
一方、端末装置12のマイクロコンピュータ121は、ホームサーバー13が送信した制御コマンドを受信する。次に、マイクロコンピュータ121は、受信した制御コマンドに対応するリモコンコード(テレビの電源をオンするリモコンコード)を、赤外線LED124により送信する(図8の(12))。テレビ16は、端末装置12が送信したテレビの電源をオンするリモコンコードにより電源がオンする(図8の(13))。また、マイクロコンピュータ121は、ホームサーバー13が送信した音声合成データを受信する。マイクロコンピュータ121は、受信した音声合成データに基づいてスピーカー123から音声(「テレビつけました」)を出力させる。
On the other hand, the
従来技術においては、ユーザーは、端末装置12をデータ送信モードとするために、所定のキーワードを発話する必要がある。このため、例えば、テレビをつけた後に、テレビの音量をあげたい場合、「こんにちはオンキヨー」、「テレビつけて」、「こんにちはオンキヨー」、「テレビの音量あげて」と所定のキーワードを復唱しなければならない。また、ユーザーは、制御したい対象の電子機器(例えば、テレビ)も復唱する必要がある。また、端末装置12側で逐一キーワードの音声認識をする必要があるため、端末装置12の処理能力が低く、キーワードの認識率が低い場合は、端末装置12がデータ送信モードに遷移しない場合がある。
In the prior art, the user needs to speak a predetermined keyword in order to set the
本発明の目的は、少ない発話量で電子機器の制御を可能とすることである。 An object of the present invention is to enable control of an electronic device with a small amount of speech.
第1の発明の電子機器制御システムは、音声区間検出機能及び音声認識機能を有し、音声データに対応する音声コマンドを送信する外部サーバーと通信を行うサーバーと、前記サーバーと通信を行う端末装置と、を備える電子機器制御システムであって、前記端末装置は、外部の音声を集音し音声データとして出力するマイクと、電子機器を制御するためのコードを送信する送信部と、前記マイクが出力する音声データに含まれる文字データと所定のキーワードとが一致した場合に、所定のキーワードよりも後に前記マイクが出力する音声データをサーバーに送信し、前記サーバーが送信する制御コマンドを受信し、受信した制御コマンドに対応するコードを前記送信部により前記電子機器に送信する第1制御部と、を備え、前記サーバーは、前記端末装置が送信する音声データを受信し、受信した音声データを前記外部サーバーに送信し、送信した音声データに対応する音声コマンドを前記外部サーバーから受信し、受信した音声コマンドに基づいて制御コマンドを決定し、決定した制御コマンドを前記端末装置に送信する第2制御部を備えることを特徴とする。 An electronic device control system according to a first aspect of the present invention has a voice section detection function and a voice recognition function, communicates with an external server that transmits voice commands corresponding to voice data, and a terminal device that communicates with the server An electronic device control system comprising: a microphone that collects external sound and outputs it as sound data; a transmitter that transmits a code for controlling the electronic device; and the microphone When the character data included in the voice data to be output matches a predetermined keyword, the voice data output by the microphone after the predetermined keyword is transmitted to the server, and the control command transmitted by the server is received. A first control unit that transmits a code corresponding to the received control command to the electronic device by the transmission unit; The voice data transmitted by the terminal device is received, the received voice data is transmitted to the external server, a voice command corresponding to the transmitted voice data is received from the external server, and a control command based on the received voice command And a second control unit for transmitting the determined control command to the terminal device.
本発明では、端末装置の第1制御部は、マイクが出力する音声データに含まれる文字データと所定のキーワードとが一致した場合に、所定のキーワードよりも後にマイクが出力する音声データをサーバーに送信する。サーバーの第2制御部は、端末装置が送信する音声データを外部サーバーに送信し、送信した音声データに対応する音声コマンドを外部サーバーから受信する。また、第2制御部は、受信した音声コマンドに基づいて制御コマンドを決定し、決定した制御コマンドを端末装置に送信する。そして、端末装置の第1制御部は、サーバーが送信する制御コマンドを受信し、受信した制御コマンドに対応するコードを送信部により電子機器に送信する。従って、ユーザーは、所定のキーワードを一度発話すればよく、所定のキーワードを復唱する必要がないため、少ない発話量で電子機器を制御することができる。また、端末装置側で逐一キーワードの音声認識をする必要がない。 In the present invention, the first control unit of the terminal device transmits, to the server, voice data output from the microphone after the predetermined keyword when the character data included in the voice data output from the microphone matches the predetermined keyword. Send. The second control unit of the server transmits the voice data transmitted from the terminal device to the external server, and receives a voice command corresponding to the transmitted voice data from the external server. Further, the second control unit determines a control command based on the received voice command, and transmits the determined control command to the terminal device. And the 1st control part of a terminal unit receives the control command which a server transmits, and transmits the code corresponding to the received control command to an electronic device by a transmission part. Therefore, the user only has to speak a predetermined keyword once, and does not need to repeat the predetermined keyword, so that the electronic device can be controlled with a small amount of utterance. In addition, it is not necessary to perform voice recognition of keywords one by one on the terminal device side.
第2の発明の電子機器制御システムは、第1の発明の電子機器制御システムにおいて、前記サーバーは、記憶部をさらに備え、前記第2制御部は、受信した音声コマンドに対応する制御対象の電子機器、制御対象の機能、実行内容を前記記憶部に記憶し、前記記憶部に記憶されている制御対象の電子機器、制御対象の機能、実行内容に基づいて、制御コマンドを決定することを特徴とする。 An electronic device control system according to a second aspect is the electronic device control system according to the first aspect, wherein the server further includes a storage unit, and the second control unit is an electronic device to be controlled corresponding to the received voice command. A device, a function to be controlled, and an execution content are stored in the storage unit, and a control command is determined based on the electronic device to be controlled, the function to be controlled, and the execution content stored in the storage unit. And
本発明では、サーバーの第2制御部は、受信した音声コマンドに対応する制御対象の電子機器(例えば、テレビ)、制御対象の機能(例えば、テレビコントロール)、実行内容(例えば、電源オン)を記憶部に記憶する。そして、第2制御部は、記憶部に記憶されている制御対象の電子機器(例えば、テレビ)、制御対象の機能(例えば、テレビコントロール)、実行内容(例えば、電源オン)に基づいて、制御コマンド(例えば、テレビの電源をオンする制御コマンド)を決定する。例えば、第2制御部は、制御対象の電子機器(例えば、テレビ)、制御対象の機能(例えば、テレビコントロール)、実行内容(例えば、電源オン)が記憶部に記憶されており、且つ、実行内容(例えば、電源オフ)に対応する音声コマンドを受信した場合、制御コマンド(例えば、テレビの電源をオフにする制御コマンド)を決定することができる。このため、ユーザーは、制御対象の電子機器(例えば、テレビ)、制御対象の機能(例えば、テレビコントロール)、実行内容(電源オン)に対応する音声を発話しており、実行内容(例えば、電源オフ)だけ異なる制御を行いたい場合は、実行内容に対応する音声のみを発話すればよい。これにより、ユーザーは、少ない発話量で電子機器を制御することができる。 In the present invention, the second control unit of the server sets the electronic device to be controlled (for example, a television) corresponding to the received voice command, the function to be controlled (for example, television control), and the execution content (for example, power on). Store in the storage unit. Then, the second control unit performs control based on the electronic device to be controlled (for example, a television), the function to be controlled (for example, television control), and the execution content (for example, power on) stored in the storage unit. A command (for example, a control command for turning on the television) is determined. For example, the second control unit stores the electronic device to be controlled (for example, a television), the function to be controlled (for example, television control), and the execution content (for example, power on) in the storage unit, and executes When a voice command corresponding to the content (for example, power off) is received, a control command (for example, a control command for turning off the power of the television) can be determined. For this reason, the user utters a voice corresponding to an electronic device to be controlled (for example, a television), a function to be controlled (for example, television control), and an execution content (power on), and the execution content (for example, a power source) When it is desired to perform control that differs only by (off), it is sufficient to speak only the voice corresponding to the execution content. Thus, the user can control the electronic device with a small amount of speech.
第3の発明の電子機器制御システムは、第2の発明の電子機器制御システムにおいて、前記第2制御部は、受信した音声コマンドが制御対象の電子機器に対応している場合、制御対象の電子機器よりも優先順位が下位の、前記記憶部に記憶されている制御対象の機能、実行内容を消去し、受信した音声コマンドが制御対象の機能に対応している場合、制御対象の機能よりも優先順位が下位の、前記記憶部に記憶されている実行内容を消去することを特徴とする。 An electronic device control system according to a third aspect is the electronic device control system according to the second aspect, wherein the second control unit is configured to control the electronic device to be controlled when the received voice command corresponds to the electronic device to be controlled. When the control target function and execution contents stored in the storage unit, which have a lower priority than the device, are erased and the received voice command corresponds to the control target function, the control target function is lower than the control target function. The execution content stored in the storage unit with the lower priority is erased.
本発明では、サーバーの第2制御部は、受信した音声コマンドが制御対象の電子機器(例えば、テレビ)に対応している場合、記憶部に記憶されている制御対象の機能(例えば、テレビコントロール)、実行内容(例えば、電源オン)を消去する。また、第2制御部は、受信した音声コマンドが制御対象の機能(例えば、テレビコントロール)に対応している場合、記憶部に記憶されている実行内容(例えば、電源オン)を消去する。このため、ユーザーは、制御対象の電子機器、制御対象の機能に対応する音声を発話して、それらを変更することができる。 In the present invention, when the received voice command corresponds to the electronic device to be controlled (for example, a television), the second control unit of the server has a function to be controlled (for example, a television control) stored in the storage unit. ), The execution contents (for example, power-on) are deleted. In addition, when the received voice command corresponds to a function to be controlled (for example, television control), the second control unit deletes the execution content (for example, power on) stored in the storage unit. For this reason, the user can utter the voice corresponding to the electronic device to be controlled and the function to be controlled, and change them.
第4の発明の電子機器制御システムは、第3の発明の電子機器制御システムにおいて、前記第2制御部は、前記記憶部に制御対象の電子機器、制御対象の機能、実行内容が記憶されていない初期状態で、且つ、受信した音声コマンドが実行内容に対応している場合、前記記憶部に実行内容を記憶し、この後、受信した音声コマンドが制御対象の電子機器又は制御対象の機能に対応している場合、前記記憶部に記憶されている実行内容を消去せずに、受信した音声コマンドが対応する制御対象の電子機器又は制御対象の機能を前記記憶部に記憶することを特徴とする。 An electronic device control system according to a fourth aspect is the electronic device control system according to the third aspect, wherein the second control unit stores the electronic device to be controlled, the function to be controlled, and the execution content in the storage unit. If there is no initial state and the received voice command corresponds to the execution content, the execution content is stored in the storage unit, and then the received voice command is sent to the electronic device to be controlled or the function to be controlled. In the case where it corresponds, the electronic device to be controlled or the function to be controlled corresponding to the received voice command is stored in the storage unit without erasing the execution content stored in the storage unit. To do.
本発明では、サーバーの第2制御部は、記憶部に制御対象の電子機器、制御対象の機能、実行内容が記憶されていない初期状態で、且つ、受信した音声コマンドが実行内容(例えば、電源オン)に対応している場合、記憶部に実行内容を記憶し、この後、受信した音声コマンドが制御対象の電子機器又は制御対象の機能に対応している場合、記憶部に記憶されている実行内容を消去せずに、受信した音声コマンドが対応する制御対象の電子機器(例えば、テレビ)又は制御対象の機能(例えば、テレビコントロール)を記憶部に記憶する。そして、第2制御部は、記憶部に記憶されている制御対象の電子機器(例えば、テレビ)、制御対象の機能(例えば、テレビコントロール)、実行内容(例えば、電源オン)に基づいて、制御コマンド(例えば、テレビの電源をオンする制御コマンド)を決定する。このため、ユーザーは、初期状態では、音声の発話順を考えることなく発話して、電子機器を制御することができる。 In the present invention, the second control unit of the server is in an initial state in which the electronic device to be controlled, the function to be controlled, and the execution content are not stored in the storage unit, and the received voice command executes the execution content (for example, power supply On), the execution contents are stored in the storage unit. After that, when the received voice command corresponds to the electronic device to be controlled or the function to be controlled, it is stored in the storage unit. Without deleting the execution contents, the control target electronic device (for example, television) or the control target function (for example, television control) corresponding to the received voice command is stored in the storage unit. Then, the second control unit performs control based on the electronic device to be controlled (for example, a television), the function to be controlled (for example, television control), and the execution content (for example, power on) stored in the storage unit. A command (for example, a control command for turning on the television) is determined. Therefore, in the initial state, the user can control the electronic device by speaking without considering the speech order.
第5の発明の電子機器制御システムは、第3の発明の電子機器制御システムにおいて、前記第2制御部は、受信した音声コマンドが制御対象の電子機器、制御対象の機能、実行内容のいずれか2つ以上に対応している場合、優先順位に関係なく、受信した音声コマンドに対応する制御対象の電子機器、制御対象の機能、実行内容を前記記憶部に記憶することを特徴とする。 The electronic device control system according to a fifth aspect of the present invention is the electronic device control system according to the third aspect of the present invention, wherein the second control unit is one of the electronic device whose control is the control target, the function of the control target, and the execution content. When it corresponds to two or more, the electronic device to be controlled, the function to be controlled, and the execution content corresponding to the received voice command are stored in the storage unit regardless of the priority order.
本発明では、サーバーの第2制御部は、受信した音声コマンドが制御対象の電子機器、制御対象の機能、実行内容のいずれか2つ以上に対応している場合、優先順位に関係なく、受信した音声コマンドに対応する制御対象の電子機器、制御対象の機能、実行内容を記憶部に記憶する。そして、第2制御部は、記憶部に記憶されている制御対象の電子機器、制御対象の機能、実行内容に基づいて、制御コマンドを決定する。このため、ユーザーは、制御対象の電子機器、制御対象の機能、実行内容に対応する音声を連続して発話することで、電子機器を制御することができる。また、ユーザーは、制御対象の電子機器、制御対象の機能、実行内容に対応する音声を連続して発話することで、音声の発話順を考えることなく発話して、電子機器を制御することができる。また、制御対象の電子機器、制御対象の機能、実行内容に対応する音声が連続して発話されれば、制御対象の電子機器、制御対象の機能、実行内容の順に発話される必要がない。このため、例えば、日本語では、「テレビつけて」のように、制御対象の電子機器、実行内容の順に発話するのが一般的であるが、例えば、英語の「Turn on the TV」のように、制御対象の電子機器、実行内容の順の発話にも対応することができる。 In the present invention, when the received voice command corresponds to any two or more of the electronic device to be controlled, the function to be controlled, and the execution content, the second control unit of the server receives the command regardless of the priority order. The electronic device to be controlled corresponding to the voice command, the function to be controlled, and the execution content are stored in the storage unit. And a 2nd control part determines a control command based on the electronic device of the control object memorize | stored in the memory | storage part, the function of a control object, and the execution content. For this reason, the user can control the electronic device by continuously speaking the sound corresponding to the electronic device to be controlled, the function to be controlled, and the execution content. In addition, the user can control the electronic device by speaking without considering the utterance order by continuously speaking the electronic device to be controlled, the function to be controlled, and the voice corresponding to the execution content. it can. In addition, if the electronic device to be controlled, the function to be controlled, and the voice corresponding to the execution content are continuously spoken, it is not necessary to speak in the order of the electronic device to be controlled, the function to be controlled, and the execution content. For this reason, in Japanese, for example, “Turn on the TV” is generally spoken in the order of the electronic devices to be controlled and the execution contents, such as “Turn on TV”. In addition, it is possible to cope with electronic devices to be controlled and utterances in the order of execution contents.
第6の発明の端末装置は、第1〜第5の発明のいずれかの電子機器制御システムにおける端末装置である。 A terminal device of a sixth invention is a terminal device in the electronic device control system of any one of the first to fifth inventions.
第7の発明のサーバーは、第1〜第5の発明のいずれかの電子機器制御システムにおけるサーバーである。 A server of a seventh invention is a server in the electronic device control system of any of the first to fifth inventions.
本発明によれば、少ない発話量で電子機器の制御することができる。 According to the present invention, it is possible to control an electronic device with a small amount of speech.
以下、本発明の実施形態について説明する。図1は、本実施形態に係る電子機器制御システムの構成を示すブロック図である。電子機器制御システム1は、端末装置2(2a〜2c)、ホームサーバー3、クラウドサーバー4、ルーター5を備える。例えば、端末装置2a、ホームサーバー3、ルーター5は、自宅1階のリビングに設置されている。端末装置2bは、自宅2階の書斎に設置されている。端末装置2cは、自宅2階の子供部屋に設置されている。クラウドサーバー4は、自宅外に設置された外部サーバーである。端末装置2は、ホームサーバー3と通信を行う。ホームサーバー3は、クラウドサーバー4と通信を行う。
Hereinafter, embodiments of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration of an electronic device control system according to the present embodiment. The electronic
端末装置2は、マイクロコンピュータ21、マイク22、スピーカー23、赤外線LED24等を備える。マイクロコンピュータ21(第1制御部)は、端末装置2を構成する各部を制御する。また、マイクロコンピュータ21は、無線LANネットワークプロセッサーを有しており、ルーター5と無線LANに従った通信を行う。マイク22は、外部の音声を集音し音声データとして出力する。マイク22が出力した音声データは、図示しないDSP(Digital Signal Processor)を介して、マイクロコンピュータ21に入力される。なお、マイク22は、デジタルマイクであり、集音した音声データをA/D変換してDSPに出力する。スピーカー23は、音声データに基づいて音声を出力する。なお、スピーカー23には、図示しないD/Aコンバータが音声データ(デジタルデータ)をD/A変換し、図示しないパワーアンプが増幅した音声データが出力される。赤外線LED24(送信部)は、テレビ6(電子機器)、照明(電子機器)7に対して、テレビ6、照明7を制御するためのリモコンコードを送信する。
The
ホームサーバー3(サーバー)は、CPU(Central Processing Unit)31、RAM(Random Access Memory)32、記憶部33、ネットワークインターフェース(以下、「NW I/F」という。)34を備える。CPU31(第2制御部)は、ホームサーバー3を構成する各部を制御する。RAM32は、CPU31のワークメモリとして機能する。記憶部33は、各種のプログラム、データを記憶する。また、記憶部33には、機器制御情報データベース(以下、「機器制御情報DB」という。)が記憶されている。機器制御情報DBは、図7に示す従来の機器制御情報DBと同様であるため、説明を省略する。NW I/F34は、外部の機器(例えば、ルーター5)と有線LAN、無線LANに従った通信を行うためのものである。
The home server 3 (server) includes a CPU (Central Processing Unit) 31, a RAM (Random Access Memory) 32, a
ルーター5は、アクセスポイント機能を有しており、端末装置2と無線LANに従った通信を行う。また、ルーター5は、ホームサーバー3と有線LANに従った通信を行う。また、ルーター5は、ホームサーバー3とクラウドサーバー4とをインターネット接続する。
The
クラウドサーバー4(外部サーバー)は、音声区間検出(Voice Activity Detection、以下、「VAD」という。)機能を有する。また、クラウドサーバー4は、音声認識機能を有する。クラウドサーバー4は、VAD機能を有しているため、無音区間を検出し、適切に音声認識を行うことができる。例えば、ユーザーが「こんにちは オンキヨー」と発話した場合、無音区間を検出し、「こんにちは」「おんきよー」と文字データを認識する。一方で、VAD機能がなければ、ユーザーが「こんにちは オンキヨー」と発話した場合、例えば、「こんに」「ちわ」「おん」「きよー」と認識されてしまう。なお、本明細書中、文中の空白部分は、無音区間を示している場合がある。
The cloud server 4 (external server) has a voice activity detection (hereinafter referred to as “VAD”) function. The
電子機器制御システム1において、端末装置2は、集音した音声データ(例えば、「テレビ つけて」)をホームサーバー3に送信する。ホームサーバー3は、音声データを受信し、受信した音声データをクラウドサーバー4に送信する。クラウドサーバー4は、音声データを受信する。クラウドサーバー4は、受信した音声データを音声認識し、対応する音声コマンド(例えば、「テレビ」「つけて」)を決定する。クラウドサーバー4は、決定した音声コマンドをホームサーバー3に送信する。ホームサーバー3は、クラウドサーバー4が送信した音声コマンドを受信する。ホームサーバー3は、受信した音声コマンドに対応する制御コマンド(例えば、「テレビの電源をオンする制御コマンド」)を端末装置2に送信する。端末装置2は、ホームサーバー3が送信した制御コマンドを受信する。端末装置2は、受信した制御コマンドに対応するリモコンコード(例えば、「テレビの電源をオンするリモコンコード」)を赤外線LED24により送信する。
In the electronic
ホームサーバー3のCPU31が、受信した音声コマンドに対応する制御コマンド(例えば、「テレビの電源をオンする制御コマンド」)を決定するために、記憶部33には、受信した音声コマンドに対応するAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)の情報が記憶される。図2は、受信した音声コマンドに対応するAccessory、Service、Characteristicsの情報を記憶するコマンド情報データベース(以下、「コマンド情報DB」という。)を示す図である。図2(a)に示すように、コマンド情報DBには、初期状態では何も記憶されていない(「None」)。CPU31は、例えば、NW I/F34によりクラウドサーバー4が送信した音声コマンド「テレビ」を受信した場合、機器制御情報DBに基づいて、音声コマンド「テレビ」に対応するAccessory「テレビ」をコマンド情報DBに記憶する(図2(b))。この時点では、テレビに対するService、Characteristicsが確定していないため、CPU31は、動作未決定の「No Action」状態となる。
In order for the
続いて、CPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンド「つけて」を受信した場合、機器制御情報DBに基づいて、音声コマンド「つけ」に対応するCharacteristics「Power State ON」を記憶する(図2(c))。このとき、CPU31は、音声コマンド「つけ」に対応するCharacteristicsから、Serviceが「tv_control」であることが判別できるため、Service「tv_control」をコマンド情報DBに記憶する。CPU31は、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)が確定したため、制御コマンドを「テレビの電源をオンする制御コマンド」に決定することができる。また、図2(c)に示す状態において、CPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンド「オフ」を受信した場合、機器制御情報DBに基づいて、音声コマンド「オフ」に対応するCharacteristics「Power State OFF」を記憶する(図2(d))。コマンド情報DBには、既に、Accessory「テレビ」、Service「tv_control」が記憶されているため、Accessory、Service、Characteristicsが確定し、CPU31は、受信した音声コマンドに対応する制御コマンドを「テレビの電源をオフする制御コマンド」に決定することができる。
Subsequently, when the
このように、CPU31は、受信した音声コマンドに対応するAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)を記憶部33のコマンド情報DBに記憶する。そして、CPU31は、記憶部33のコマンド情報DBに記憶されているAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)に基づいて、制御コマンドを決定する。ここで、記憶部33のコマンド情報DBに記憶されているAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)は、受信した音声コマンドに対応するものであるため、CPU31は、受信した音声コマンドに基づいて、制御コマンドを決定していることになる。
As described above, the
コマンド情報DBには、優先順位がある。その優先順位は、Accessory>Service>Characteristicsである。図2(c)に示す状態において、CPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンド「おんりょう」を受信した場合、機器制御情報DBに基づいて、音声コマンド「おんりょう」に対応するService「tv_control」を記憶する(図2(e))。ここで、CPU31は、Serviceよりも優先順位が下位のCharacteristicsを消去(「None」に変更)する。また、図2(c)に示す状態において、CPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンド「でんき」を受信した場合、機器制御情報DBに基づいて、音声コマンド「でんき」に対応するAccessory「照明」を記憶する(図2(f))。ここで、CPU31は、Accessoryよりも優先順位が下位のService、Characteristicsを消去(「None」に変更)する。
The command information DB has a priority order. The priority order is Accessory> Service> Characteristics. In the state shown in FIG. 2C, when the
このように、CPU31は、受信した音声コマンドがAccessory(制御対象の電子機器)に対応している場合、Accessory(制御対象の電子機器)よりも優先順位が下位の、記憶部33のコマンド情報DBに記憶されているService(制御対象の機能)、Characteristics(実行内容)を消去する。また、CPU31は、受信した音声コマンドがService(制御対象の機能)に対応している場合、Service(制御対象の機能)よりも優先順位が下位の、記憶部33のコマンド情報DBに記憶されているCharacteristics(実行内容)を消去する。
As described above, when the received voice command corresponds to Accessory (controlled electronic device), the
図2(a)に示す初期状態において、CPU31は、例えば、NW I/F34によりクラウドサーバー4が送信した音声コマンド「つけて」を受信した場合、機器制御情報DBに基づいて、音声コマンド「つけ」に対応するCharacteristics「Power State ON」をコマンド情報DBに記憶する(図2(g))。この時点では、Accessory、Serviceが確定していないため、CPU31は、動作未決定の「No Action」状態となる。続いて、CPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンド「でんき」を受信した場合、機器制御情報DBに基づいて、音声コマンド「でんき」に対応するAccesorry「照明」をコマンド情報DBに記憶する(図2(h))。初期状態において、優先順位が下位の情報が確定した後、それよりも優先順位が上位の情報が確定した場合は、優先順位が下位の情報を消去しない(「None」に変更しない)。これにより、初期状態で、CPU31は、例えば、NW I/F34によりクラウドサーバー4が送信した音声コマンド「つけて」、「でんき」を受信した場合、「照明の電源をオンする制御コマンド」を決定することができる(図2(h)参照)。
In the initial state shown in FIG. 2A, for example, when the
このように、CPU31は、記憶部33のコマンド情報DBにAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)が記憶されていない初期状態で、且つ、受信した音声コマンドがCharacteristics(実行内容)に対応している場合、記憶部33のコマンド情報DBにCharacteristics(実行内容)を記憶する。そして、CPU31は、この後、受信した音声コマンドがAccessory(制御対象の電子機器)又はService(制御対象の機能)に対応している場合、記憶部33のコマンド情報DBに記憶されているCharacteristics(実行内容)を消去せずに、受信した音声コマンドが対応するAccessory(制御対象の電子機器)又はCharacteristics(制御対象の機能)を記憶部33のコマンド情報DBに記憶する。
As described above, the
上述のように、クラウドサーバー4は、VAD機能を有している。例えば、ユーザーが「テレビ つけて」のように、「テレビ」と「つけて」の間に無音を挟んで発話した場合、クラウドサーバー4は、「テレビ」「つけて」の音声コマンドをホームサーバー3に送信する。例えば、ユーザーが「テレビつけて」のように、連続して発話した場合、クラウドサーバー4は、「テレビつけて」の音声コマンドをホームサーバー3に送信する。この場合、CPU31は、優先順位に関係なく、音声コマンド「テレビ」に対応するAccessory「テレビ」、音声コマンド「つけ」に対応するCharacteristics「Power State ON」をコマンド情報DBに記憶する。同様に、例えば、ユーザーが「つけてテレビ」のように、連続して発話した場合、クラウドサーバー4は、「つけてテレビ」の音声コマンドをホームサーバー3に送信する。この場合、CPU31は、優先順位に関係なく、音声コマンド「つけ」に対応するCharacteristics「Power State ON」、音声コマンド「テレビ」に対応するAccessory「テレビ」をコマンド情報DBに記憶する。
As described above, the
このように、CPU31は、受信した音声コマンドがAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)のいずれか2つ以上に対応している場合、優先順位に関係なく、受信した音声コマンドに対応するAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)を記憶部33のコマンド情報DBに記憶する。
As described above, when the received voice command corresponds to any two or more of Accessory (control target electronic device), Service (control target function), and Characteristics (execution content), the
図3及び図4は、電子機器制御システムの動作を示すシーケンス図である。以下、図3及び図4に基づいて、テレビ6を制御する一連の動作を説明する。まず、ユーザーは、端末装置2がホームサーバー3に音声データを送信するデータ送信モードとするために、所定のキーワードを発話する。例えば、ユーザーは、「こんにちはオンキヨー」と発話する(図3の(1))。端末装置2のマイク22は、ユーザーが発話した音声を集音し音声データとしてマイクロコンピュータ21に出力する。マイクロコンピュータ21は、音声認識機能を有しており、音声データに含まれる文字データを認識し、認識した文字データが所定のキーワードと一致しているか否かを判断する。マイクロコンピュータ21は、認識した文字データが所定のキーワードと一致していると判断した場合、データ送信モードに遷移する(図3の(2))。
3 and 4 are sequence diagrams showing the operation of the electronic device control system. Hereinafter, a series of operations for controlling the
次に、例えば、ユーザーは、テレビの電源をオンにしたい場合、「テレビ つけて」と発話する(図3の(3)、(4))。端末装置2のマイク22は、ユーザーが発話した音声を集音し音声データとしてマイクロコンピュータ21に出力する。マイクロコンピュータ21は、音声データ(「テレビ つけて」)をホームサーバー3に送信する(図3の(5)、(6))。ホームサーバー3のCPU31は、NW I/F34により端末装置2が送信した音声データを受信する。次に、CPU31は、NW I/F34によりクラウドサーバー4に音声データを送信し、音声認識の問い合わせを行う(図3の(7)、(8))。
Next, for example, when the user wants to turn on the TV, the user speaks “Turn on TV” ((3) and (4) in FIG. 3). The
クラウドサーバー4は、ホームサーバー3が送信した音声データを受信する。クラウドサーバー4は、音声認識機能を有しており、音声データに含まれる文字データを認識する。上述したように、クラウドサーバー4は、VAD機能を有しているため、無音区間を検出し、適切に音声認識を行うことができる。次に、クラウドサーバー4は、認識した文字データに対応する音声コマンド(「テレビ」「つけて」)をホームサーバー3に送信し、音声認識の結果を応答する(図3の(9)、(10))。ホームサーバー3のCPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンドを受信する。CPU31は、音声認識結果の解析を行う(図3の(11)、(12))。具体的には、CPU31は、機器制御情報DBと音声コマンドとに基づいて、音声コマンドに対応する制御コマンドを決定する。
The
ここで、CPU31は、音声コマンド「テレビ」を受信したときに、機器制御情報DBに基づいて、音声コマンド「テレビ」に対応するAccessory「テレビ」をコマンド情報DBに記憶する(図2(b)参照。)。また、CPU31は、音声コマンド「つけて」を受信したときに、機器制御情報DBに基づいて、音声コマンド「つけ」に対応するCharacteristics「Power State ON」を記憶する(図2(c)参照。)。このとき、CPU31は、音声コマンド「つけ」に対応するCharacteristicsから、Serviceが「tv_control」であることが判別できるため、Service「tv_control」の情報をコマンド情報DBに記憶する。CPU31は、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)が確定したため、受信した音声コマンドに対応する制御コマンドを「テレビの電源をオンする制御コマンド」に決定することができる。CPU31は、NW I/F34により決定した制御コマンド(テレビの電源をオンする制御コマンド)を端末装置2に送信する(図3の(13))。
Here, when receiving the voice command “TV”, the
端末装置2のマイクロコンピュータ21は、ホームサーバー3が送信した制御コマンドを受信する。次に、マイクロコンピュータ21は、受信した制御コマンドに対応するリモコンコード(テレビの電源をオンするリモコンコード)を、赤外線LED24により送信する(図3の(14))。テレビ6は、端末装置2が送信したテレビの電源をオンするリモコンコードにより電源がオンする(図3の(15))。
The
次に、例えば、ユーザーは、テレビの電源をオフにしたい場合、「オフ」と発話する(図4の(16))。端末装置2のマイク22は、ユーザーが発話した音声を集音し音声データとしてマイクロコンピュータ21に出力する。マイクロコンピュータ21は、音声データ(「オフ」)をホームサーバー3に送信する(図4の(17))。ホームサーバー3のCPU31は、NW I/F34により端末装置2が送信した音声データを受信する。次に、CPU31は、NW I/F34によりクラウドサーバー4に音声データを送信し、音声認識の問い合わせを行う(図4の(18))。
Next, for example, when the user wants to turn off the TV, the user speaks “OFF” ((16) in FIG. 4). The
クラウドサーバー4は、ホームサーバー3が送信した音声データを受信する。クラウドサーバー4は、音声データに含まれる文字データを認識し、認識した文字データに対応する音声コマンド(「オフ」)をホームサーバー3に送信し、音声認識の結果を応答する(図4の(19))。ホームサーバー3のCPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンドを受信する。CPU31は、音声認識結果の解析を行う(図4の(20))。
The
CPU31は、音声コマンド「オフ」を受信したときに、機器制御情報DBに基づいて、音声コマンド「オフ」に対応するCharacteristics「Power State OFF」を記憶する(図2(d)参照)。コマンド情報DBには、既に、Accessory「テレビ」、Service「tv_control」が記憶されているため、Accessory、Service、Characteristicsが確定し、CPU31は、受信した音声コマンドに対応する制御コマンドを「テレビの電源をオフする制御コマンド」に決定することができる。CPU31は、NW I/F34により決定した制御コマンド(テレビの電源をオフする制御コマンド)を端末装置2に送信する(図4の(21))。
When the
端末装置2のマイクロコンピュータ21は、ホームサーバー3が送信した制御コマンドを受信する。次に、マイクロコンピュータ21は、受信した制御コマンドに対応するリモコンコード(テレビの電源をオフするリモコンコード)を、赤外線LED24により送信する(図4の(22))。テレビ6は、端末装置2が送信したテレビの電源をオフするリモコンコードにより電源がオフする(図4の(23))。
The
端末装置2のマイクロコンピュータ21は、データ送信モードに遷移してから所定時間経過後、データ送信モードを終了する。また、クラウドサーバー4が所定時間、無音を検出した場合に、マイクロコンピュータ21は、データ送信モードを終了するようにしてもよい。
The
次に、クラウドサーバー4が送信した音声コマンドを受信した場合のホームサーバー3の処理動作を、図5に示すフローチャートに基づいて説明する。ホームサーバー3のCPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンドを受信すると(S1)、機器制御情報DBに基づいて、受信した音声コマンドが機器制御情報と一致するか否かを判断する(S2)。CPU31は、受信した音声コマンドが機器制御情報と一致しないと判断した場合(S2:No)、処理を終了する。
Next, the processing operation of the
CPU31は、受信した音声コマンドが機器制御情報と一致すると判断した場合(S2:Yes)、受信した音声コマンドがAccessoryに対応しているか否かを判断する(S3)。CPU31は、受信した音声コマンドがAccessoryに対応していると判断した場合(S3:Yes)、コマンド情報DBに基づいて、初期状態(図2(a)参照)であるか否かを判断する(S4)。CPU31は、初期状態でないと判断した場合(S4:No)、コマンド情報DBにおいて、Accessoryよりも優先順位が下位のService、Characteristicsを消去(「None」に変更)する(S5)。
When it is determined that the received voice command matches the device control information (S2: Yes), the
CPU31は、受信した音声コマンドがAccessoryに対応していないと判断した場合(S3:No)、受信した音声コマンドがServiceに対応しているか否かを判断する(S6)。CPU31は、受信した音声コマンドがServiceに対応していると判断した場合(S6:No)、コマンド情報DBに基づいて、初期状態(図2(a)参照)であるか否かを判断する(S7)。CPU31は、初期状態でないと判断した場合(S7:No)、コマンドDB情報において、Serviceよりも優先順位が下位のCharacteristicsを消去(「None」に変更)する(S8)。
When the
CPU31は、初期状態であると判断した場合(S4、S7:Yes)、受信した音声コマンドがServiceに対応していないと判断した場合(S6:No)、S5、S8の処理の後、情報コマンドDBに基づいて、Accessory、Service、Characteristicsが確定しており、制御コマンドを決定できるか否かを判断する(S9)。CPU31は、Accessory、Service、Characteristicsが確定しておらず、制御コマンドを決定できないと判断した場合(S9:No)、処理を終了する。
When the
CPU31は、Accessory、Service、Characteristicsが確定しており、制御コマンドを決定できると判断した場合(S9:Yes)、コマンド情報DBに基づいて制御コマンドを決定し、NW I/F34により決定した制御コマンドを端末装置2に送信する(S10)。
If the
以上説明したように、本実施形態では、端末装置2のマイクロコンピュータ21は、マイク22が出力する音声データに含まれる文字データと所定のキーワードとが一致した場合に、所定のキーワードよりも後にマイク22が出力する音声データをホームサーバー3に送信する。ホームサーバー3のCPU31は、端末装置2が送信した音声データをクラウドサーバー4に送信し、送信した音声データに対応する音声コマンドをクラウドサーバー4から受信する。また、CPU31は、受信した音声コマンドに基づいて制御コマンドを決定し、決定した制御コマンドを端末装置2に送信する。そして、端末装置2のマイクロコンピュータ21は、ホームサーバー3が送信する制御コマンドを受信し、受信した制御コマンドに対応するリモコンコードを赤外線LED24によりテレビ6又は照明7に送信する。従って、ユーザーは、所定のキーワードを一度発話すればよく、所定のキーワードを復唱する必要がないため、少ない発話量で電子機器を制御することができる。また、端末装置2側で逐一キーワードの音声認識をする必要がない。
As described above, in the present embodiment, when the character data included in the audio data output from the
また、本実施形態では、ホームサーバー3のCPU31は、受信した音声コマンドに対応するAccessory(制御対象の電子機器(例えば、テレビ))、Service(制御対象の機能(例えば、tv_control))、Characteristics(実行内容(例えば、Power State ON))を記憶部33のコマンド情報DBに記憶する。そして、CPU31は、記憶部33のコマンド情報DBに記憶されているAccessory(制御対象の電子機器(例えば、テレビ))、Service(制御対象の機能(例えば、tv_control))、Characteristics(実行内容(例えば、Power State ON))に基づいて、制御コマンド(例えば、テレビの電源をオンする制御コマンド)を決定する。例えば、CPU31は、Accessory(制御対象の電子機器(例えば、テレビ))、Service(制御対象の機能(例えば、tv_control))、Characteristics(実行内容(例えば、Power State ON))が記憶部33のコマンド情報DBに記憶されており、且つ、Characteristics(実行内容(例えば、Power State OFF)に対応する音声コマンドを受信した場合、制御コマンド(例えば、テレビの電源をオフにする制御コマンド)を決定することができる。このため、ユーザーは、Accessory(制御対象の電子機器(例えば、テレビ))、Service(制御対象の機能(例えば、tv_control))、Characteristics(実行内容(例えば、Power State ON))に対応する音声を発話しており、Characteristics(実行内容(例えば、Power State OFF)だけ異なる制御を行いたい場合は、Characteristics(実行内容)に対応する音声のみを発話すればよい。これにより、ユーザーは、少ない発話量で電子機器を制御することができる。
Further, in the present embodiment, the
また、本実施形態では、ホームサーバー3のCPU31は、受信した音声コマンドがAccessory(制御対象の電子機器(例えば、テレビ))に対応している場合、記憶部33のコマンド情報DBに記憶されているService(制御対象の機能(例えば、tv_control)、Characteristics(実行内容(例えば、Power State ON)を消去する。また、CPU31は、受信した音声コマンドがService(制御対象の機能(例えば、tv_control))に対応している場合、記憶部33のコマンド情報DBに記憶されているCharacteristics(実行内容(例えば、Power State ON)を消去する。このため、ユーザーは、Accessory(制御対象の電子機器)、Service(制御対象の機能)に対応する音声を発話して、それらを変更することができる。
In the present embodiment, the
また、本実施形態では、ホームサーバー3のCPU31は、記憶部33のコマンド情報DBにAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)が記憶されていない初期状態で、且つ、受信した音声コマンドがCharacteristics(実行内容(例えば、Power State On)に対応している場合、記憶部33のコマンド情報DBにCharacteristics(実行内容)を記憶し、この後、受信した音声コマンドがAccessory(制御対象の電子機器)又はService(制御対象の機能)に対応している場合、記憶部33のコマンド情報DBに記憶されているCharacteristics(実行内容)を消去せずに、受信した音声コマンドが対応するAccessory(制御対象の電子機器(例えば、テレビ))又はService(制御対象の機能(例えば、tv_control))を記憶部33のコマンド情報DBに記憶する。そして、CPU31は、記憶部33のコマンド情報DBに記憶されているAccessory(制御対象の電子機器(例えば、テレビ))、Service(制御対象の機能(例えば、tv_control))、Characteristics(実行内容(例えば、Power State ON))に基づいて、制御コマンド(例えば、テレビの電源をオンする制御コマンド)を決定する。このため、ユーザーは、初期状態では、音声の発話順を考えることなく発話して、電子機器を制御することができる。
In the present embodiment, the
また、本実施形態では、ホームサーバー3のCPU31は、受信した音声コマンドがAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)のいずれか2つ以上に対応している場合、優先順位に関係なく、受信した音声コマンドに対応するAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)を記憶部33のコマンド情報DBに記憶する。そして、CPU31は、記憶部33のコマンド情報DBに記憶されているAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)に基づいて、制御コマンドを決定する。このため、ユーザーは、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)に対応する音声を連続して発話することで、電子機器を制御することができる。また、ユーザーは、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)に対応する音声を連続して発話することで、音声の発話順を考えることなく発話して、電子機器を制御することができる。また、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)に対応する音声が連続して発話されれば、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)の順に発話される必要がない。このため、例えば、日本語では、「テレビつけて」のように、Accessory(制御対象の電子機器)、Characteristics(実行内容)の順に発話するのが一般的であるが、例えば、英語の「Turn on the TV」のように、Characteristics(実行内容)、Accessory(制御対象の電子機器)の順の発話にも対応することができる。
In the present embodiment, the
以上、本発明の実施形態について説明したが、本発明を適用可能な形態は、上述の実施形態には限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることが可能である。 As mentioned above, although embodiment of this invention was described, the form which can apply this invention is not restricted to the above-mentioned embodiment, It is possible to add a change suitably in the range which does not deviate from the meaning of this invention. is there.
本発明は、テレビ、照明等の電子機器を制御するための電子機器制御システム、電子機器制御システムを構成する端末装置、及び、サーバーに好適に採用され得る。 The present invention can be suitably employed in an electronic device control system for controlling electronic devices such as a television and lighting, a terminal device constituting the electronic device control system, and a server.
1 電子機器制御システム
2 端末装置
21 マイクロコンピュータ(第1制御部)
22 マイク
24 赤外線LED(送信部)
3 ホームサーバー(サーバー)
31 CPU(第2制御部)
33 記憶部
4 クラウドサーバー(外部サーバー)
6 テレビ(電子機器)
7 照明(電子機器)
DESCRIPTION OF
22
3 Home server (server)
31 CPU (second control unit)
33
6 TV (electronic equipment)
7 Lighting (electronic equipment)
Claims (7)
前記端末装置は、
外部の音声を集音し音声データとして出力するマイクと、
電子機器を制御するためのコードを送信する送信部と、
前記マイクが出力する音声データに含まれる文字データと所定のキーワードとが一致した場合に、所定のキーワードよりも後に前記マイクが出力する音声データをサーバーに送信し、
前記サーバーが送信する制御コマンドを受信し、
受信した制御コマンドに対応するコードを前記送信部により前記電子機器に送信する第1制御部と、を備え、
前記サーバーは、
前記端末装置が送信する音声データを受信し、
受信した音声データを前記外部サーバーに送信し、
送信した音声データに対応する音声コマンドを前記外部サーバーから受信し、
受信した音声コマンドに基づいて制御コマンドを決定し、
決定した制御コマンドを前記端末装置に送信する第2制御部
を備えることを特徴とする電子機器制御システム。 An electronic device control system comprising a server that has a voice section detection function and a voice recognition function, communicates with an external server that transmits voice commands corresponding to voice data, and a terminal device that communicates with the server ,
The terminal device
A microphone that collects external audio and outputs it as audio data;
A transmitter for transmitting a code for controlling the electronic device;
When the character data included in the voice data output from the microphone matches a predetermined keyword, the voice data output from the microphone after the predetermined keyword is transmitted to the server,
Receiving a control command sent by the server;
A first control unit that transmits a code corresponding to the received control command to the electronic device by the transmission unit;
The server
Receiving voice data transmitted by the terminal device;
Send the received audio data to the external server,
Receiving a voice command corresponding to the transmitted voice data from the external server;
Determine the control command based on the received voice command,
An electronic device control system comprising: a second control unit that transmits the determined control command to the terminal device.
前記第2制御部は、
受信した音声コマンドに対応する制御対象の電子機器、制御対象の機能、実行内容を前記記憶部に記憶し、
前記記憶部に記憶されている制御対象の電子機器、制御対象の機能、実行内容に基づいて、制御コマンドを決定することを特徴とする請求項1に記載の電子機器制御システム。 The server further includes a storage unit,
The second controller is
The electronic device to be controlled corresponding to the received voice command, the function to be controlled, and the execution content are stored in the storage unit,
The electronic device control system according to claim 1, wherein a control command is determined based on an electronic device to be controlled, a function to be controlled, and an execution content stored in the storage unit.
受信した音声コマンドが制御対象の電子機器に対応している場合、制御対象の電子機器よりも優先順位が下位の、前記記憶部に記憶されている制御対象の機能、実行内容を消去し、
受信した音声コマンドが制御対象の機能に対応している場合、制御対象の機能よりも優先順位が下位の、前記記憶部に記憶されている実行内容を消去することを特徴とする請求項2に記載の電子機器制御システム。 The second controller is
When the received voice command corresponds to the electronic device to be controlled, the priority order is lower than the electronic device to be controlled, the function to be controlled and the execution content stored in the storage unit are deleted,
3. When the received voice command corresponds to a function to be controlled, the execution content stored in the storage unit having a lower priority than the function to be controlled is erased. The electronic device control system described.
前記記憶部に制御対象の電子機器、制御対象の機能、実行内容が記憶されていない初期状態で、且つ、受信した音声コマンドが実行内容に対応している場合、前記記憶部に実行内容を記憶し、この後、受信した音声コマンドが制御対象の電子機器又は制御対象の機能に対応している場合、前記記憶部に記憶されている実行内容を消去せずに、受信した音声コマンドが対応する制御対象の電子機器又は制御対象の機能を前記記憶部に記憶することを特徴とする請求項3に記載の電子機器制御システム。 The second controller is
In the initial state in which the electronic device to be controlled, the function to be controlled, and the execution content are not stored in the storage unit, and the received voice command corresponds to the execution content, the execution content is stored in the storage unit Thereafter, when the received voice command corresponds to the electronic device to be controlled or the function to be controlled, the received voice command corresponds without erasing the execution content stored in the storage unit. The electronic device control system according to claim 3, wherein an electronic device to be controlled or a function to be controlled is stored in the storage unit.
受信した音声コマンドが制御対象の電子機器、制御対象の機能、実行内容のいずれか2つ以上に対応している場合、優先順位に関係なく、受信した音声コマンドに対応する制御対象の電子機器、制御対象の機能、実行内容を前記記憶部に記憶することを特徴とする請求項3に記載の電子機器制御システム。 The second controller is
When the received voice command corresponds to any two or more of the electronic device to be controlled, the function to be controlled, and the execution contents, the electronic device to be controlled corresponding to the received voice command regardless of the priority order, The electronic device control system according to claim 3, wherein functions to be controlled and execution contents are stored in the storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014252853A JP6520100B2 (en) | 2014-12-15 | 2014-12-15 | Electronic device control system, terminal device, and server |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014252853A JP6520100B2 (en) | 2014-12-15 | 2014-12-15 | Electronic device control system, terminal device, and server |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016114744A true JP2016114744A (en) | 2016-06-23 |
JP6520100B2 JP6520100B2 (en) | 2019-05-29 |
Family
ID=56139915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014252853A Expired - Fee Related JP6520100B2 (en) | 2014-12-15 | 2014-12-15 | Electronic device control system, terminal device, and server |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6520100B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107863104A (en) * | 2017-11-17 | 2018-03-30 | 出门问问信息科技有限公司 | A kind of sound control method and device |
WO2018199390A1 (en) * | 2017-04-24 | 2018-11-01 | 엘지전자 주식회사 | Electronic device |
JP2019032479A (en) * | 2017-08-09 | 2019-02-28 | レノボ・シンガポール・プライベート・リミテッド | Voice assistant system, server apparatus, device, voice assistant method therefor, and program to be executed by computer |
CN109658922A (en) * | 2017-10-12 | 2019-04-19 | 现代自动车株式会社 | The device and method for handling user's input of vehicle |
JP2019086535A (en) * | 2017-11-01 | 2019-06-06 | ソフトバンク株式会社 | Transmission control device and program |
JP2019185011A (en) * | 2018-04-02 | 2019-10-24 | 百度在線網絡技術(北京)有限公司 | Processing method for waking up application program, apparatus, and storage medium |
WO2019235134A1 (en) * | 2018-06-07 | 2019-12-12 | ソニー株式会社 | Information generation device, information processing system, information processing method, and program |
US10832670B2 (en) | 2017-01-20 | 2020-11-10 | Samsung Electronics Co., Ltd. | Voice input processing method and electronic device for supporting the same |
WO2021075736A1 (en) * | 2019-10-16 | 2021-04-22 | Samsung Electronics Co., Ltd. | Electronic device and method for sharing voice command thereof |
JP2022007620A (en) * | 2020-06-26 | 2022-01-13 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
JP2022040215A (en) * | 2017-07-14 | 2022-03-10 | ダイキン工業株式会社 | Apparatus control system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000122678A (en) * | 1998-10-14 | 2000-04-28 | Nippon Telegr & Teleph Corp <Ntt> | Controller for speech recogniging equipment |
JP2003131682A (en) * | 2001-10-24 | 2003-05-09 | Victor Co Of Japan Ltd | Equipment control system using voice command |
JP2009104156A (en) * | 2001-12-17 | 2009-05-14 | Asahi Kasei Homes Kk | Telephone communication terminal |
JP2014182307A (en) * | 2013-03-19 | 2014-09-29 | Sharp Corp | Voice recognition system and speech system |
-
2014
- 2014-12-15 JP JP2014252853A patent/JP6520100B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000122678A (en) * | 1998-10-14 | 2000-04-28 | Nippon Telegr & Teleph Corp <Ntt> | Controller for speech recogniging equipment |
JP2003131682A (en) * | 2001-10-24 | 2003-05-09 | Victor Co Of Japan Ltd | Equipment control system using voice command |
JP2009104156A (en) * | 2001-12-17 | 2009-05-14 | Asahi Kasei Homes Kk | Telephone communication terminal |
JP2014182307A (en) * | 2013-03-19 | 2014-09-29 | Sharp Corp | Voice recognition system and speech system |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10832670B2 (en) | 2017-01-20 | 2020-11-10 | Samsung Electronics Co., Ltd. | Voice input processing method and electronic device for supporting the same |
US11823673B2 (en) | 2017-01-20 | 2023-11-21 | Samsung Electronics Co., Ltd. | Voice input processing method and electronic device for supporting the same |
WO2018199390A1 (en) * | 2017-04-24 | 2018-11-01 | 엘지전자 주식회사 | Electronic device |
JP7295473B2 (en) | 2017-07-14 | 2023-06-21 | ダイキン工業株式会社 | Equipment control system |
JP2022040215A (en) * | 2017-07-14 | 2022-03-10 | ダイキン工業株式会社 | Apparatus control system |
US10867596B2 (en) | 2017-08-09 | 2020-12-15 | Lenovo (Singapore) Pte. Ltd. | Voice assistant system, server apparatus, device, voice assistant method therefor, and program to be executed by computer |
JP2019032479A (en) * | 2017-08-09 | 2019-02-28 | レノボ・シンガポール・プライベート・リミテッド | Voice assistant system, server apparatus, device, voice assistant method therefor, and program to be executed by computer |
CN109658922A (en) * | 2017-10-12 | 2019-04-19 | 现代自动车株式会社 | The device and method for handling user's input of vehicle |
CN109658922B (en) * | 2017-10-12 | 2023-10-10 | 现代自动车株式会社 | Apparatus and method for processing user input for vehicle |
JP2019086535A (en) * | 2017-11-01 | 2019-06-06 | ソフトバンク株式会社 | Transmission control device and program |
CN107863104A (en) * | 2017-11-17 | 2018-03-30 | 出门问问信息科技有限公司 | A kind of sound control method and device |
JP2019185011A (en) * | 2018-04-02 | 2019-10-24 | 百度在線網絡技術(北京)有限公司 | Processing method for waking up application program, apparatus, and storage medium |
US11037560B2 (en) | 2018-04-02 | 2021-06-15 | Baidu Online Network Technology (Beijing) Co., Ltd.X | Method, apparatus and storage medium for wake up processing of application |
WO2019235134A1 (en) * | 2018-06-07 | 2019-12-12 | ソニー株式会社 | Information generation device, information processing system, information processing method, and program |
WO2021075736A1 (en) * | 2019-10-16 | 2021-04-22 | Samsung Electronics Co., Ltd. | Electronic device and method for sharing voice command thereof |
US11662976B2 (en) | 2019-10-16 | 2023-05-30 | Samsung Electronics Co., Ltd | Electronic device and method for sharing voice command thereof |
JP2022007620A (en) * | 2020-06-26 | 2022-01-13 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
US11947645B2 (en) | 2020-06-26 | 2024-04-02 | Fujifilm Business Innovation Corp. | Voice-based authentication after successful authentication based on non-voice input |
Also Published As
Publication number | Publication date |
---|---|
JP6520100B2 (en) | 2019-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6520100B2 (en) | Electronic device control system, terminal device, and server | |
US11631403B2 (en) | Apparatus, system and method for directing voice input in a controlling device | |
TWI557599B (en) | Voice control method and voice control system | |
CN111989741B (en) | Speech-based user interface with dynamically switchable endpoints | |
US20240235879A1 (en) | Apparatus, system and method for directing voice input in a controlling device | |
KR102025566B1 (en) | Home appliance and voice recognition server system using artificial intelligence and method for controlling thereof | |
US11563854B1 (en) | Selecting user device during communications session | |
JP6543676B2 (en) | Transmission control device and program | |
WO2018173293A1 (en) | Speech terminal, speech command generation system, and method for controlling speech command generation system | |
US20170289582A1 (en) | Device control method and electric device | |
US20180233136A1 (en) | Audio playback device that dynamically switches between receiving audio data from a soft access point and receiving audio data from a local access point | |
US20170133013A1 (en) | Voice control method and voice control system | |
US10706845B1 (en) | Communicating announcements | |
TW201519172A (en) | Electronic device having function of lost reminding and using method of same | |
JPWO2020003851A1 (en) | Audio processing device, audio processing method and recording medium | |
JP2019184809A (en) | Voice recognition device and voice recognition method | |
WO2019136065A1 (en) | Apparatus, system and method for directing voice input in a controlling device | |
KR20170051994A (en) | speech recognition device and here of control Method | |
US11161038B2 (en) | Systems and devices for controlling network applications | |
JP2019191490A (en) | Voice interaction terminal, and voice interaction terminal control method | |
CN113314115B (en) | Voice processing method of terminal equipment, terminal equipment and readable storage medium | |
JP6468069B2 (en) | Electronic device control system, server, and terminal device | |
JP5610283B2 (en) | External device control apparatus, external device control method and program | |
TWI847393B (en) | Language data processing system and method and computer program product | |
US11367446B2 (en) | Information dissemination system and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190402 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6520100 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190415 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |