JP2016114744A - Electronic device control system, terminal device and server - Google Patents

Electronic device control system, terminal device and server Download PDF

Info

Publication number
JP2016114744A
JP2016114744A JP2014252853A JP2014252853A JP2016114744A JP 2016114744 A JP2016114744 A JP 2016114744A JP 2014252853 A JP2014252853 A JP 2014252853A JP 2014252853 A JP2014252853 A JP 2014252853A JP 2016114744 A JP2016114744 A JP 2016114744A
Authority
JP
Japan
Prior art keywords
electronic device
controlled
control
command
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014252853A
Other languages
Japanese (ja)
Other versions
JP6520100B2 (en
Inventor
近藤 裕介
Yusuke Kondo
裕介 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Onkyo Corp
Original Assignee
Onkyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Onkyo Corp filed Critical Onkyo Corp
Priority to JP2014252853A priority Critical patent/JP6520100B2/en
Publication of JP2016114744A publication Critical patent/JP2016114744A/en
Application granted granted Critical
Publication of JP6520100B2 publication Critical patent/JP6520100B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Selective Calling Equipment (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable control of an electronic device with a small amount of utterance.SOLUTION: When character data included in voice data outputted from a microphone 22 matches a predetermined keyword, a microcomputer 21 of a terminal device 2 transmits voice data outputted from the microphone 22 after the predetermined keyword to a home server 3, receives a control command transmitted by the home server 3 and transmits a remote control code corresponding to the received control code to an electronic device through an infrared LED 24. A CPU 31 of the home server 3 receives voice data transmitted by the terminal device 2, transmits the received voice data to a cloud server 4, receives a voice command corresponding to the transmitted voice data from the cloud server 4, determines a control command on the bases of the received voice command and transmits the determined control command to the terminal device 2.SELECTED DRAWING: Figure 2

Description

本発明は、テレビ、照明等の電子機器を制御するための電子機器制御システム、電子機器制御システムを構成する端末装置、及び、サーバーに関する。   The present invention relates to an electronic device control system for controlling electronic devices such as a television and lighting, a terminal device that constitutes the electronic device control system, and a server.

近年、ユーザーが発話した音声を利用して、テレビ、照明等の電子機器を制御する技術が開発されている(例えば、特許文献1参照。)。図6は、従来の電子機器制御システムのシステム構成を示す図である。電子機器制御システム11は、端末装置12(12a〜12c)、ホームサーバー13、クラウドサーバー14、ルーター15を備える。例えば、端末装置12a、ホームサーバー13、ルーター15は、自宅1階のリビングに設置されている。端末装置12bは、自宅2階の書斎に設置されている。端末装置12cは、自宅2階の子供部屋に設置されている。クラウドサーバー14は、自宅外に設置された外部サーバーである。   2. Description of the Related Art In recent years, a technique for controlling electronic devices such as a television and lighting using a voice spoken by a user has been developed (see, for example, Patent Document 1). FIG. 6 is a diagram showing a system configuration of a conventional electronic device control system. The electronic device control system 11 includes a terminal device 12 (12a to 12c), a home server 13, a cloud server 14, and a router 15. For example, the terminal device 12a, the home server 13, and the router 15 are installed in the living room on the first floor of the home. The terminal device 12b is installed in the study on the second floor of the home. The terminal device 12c is installed in a child room on the second floor of the home. The cloud server 14 is an external server installed outside the home.

端末装置12a〜12cは、同一の構成を有する。端末装置12は、マイクロコンピュータ121、マイク122、スピーカー123、赤外線LED124等を備える。マイクロコンピュータ121は、端末装置12を構成する各部を制御する。また、マイクロコンピュータ121は、無線LANネットワークプロセッサーを有しており、ルーター15と無線LANに従った通信を行う。マイク122は、外部の音声を集音し音声データとして出力する。マイク122が出力した音声データは、図示しないDSP(Digital Signal Processor)を介して、マイクロコンピュータ121に入力される。なお、マイク122は、デジタルマイクであり、集音した音声データをA/D変換してDSPに出力する。スピーカー123は、音声データに基づいて音声を出力する。なお、スピーカー123には、図示しないD/Aコンバータが音声データ(デジタルデータ)をD/A変換し、図示しないパワーアンプが増幅した音声データが出力される。赤外線LED124は、テレビ16、照明17に対して、テレビ16、照明17を制御するためのリモコンコードを送信する。   The terminal devices 12a to 12c have the same configuration. The terminal device 12 includes a microcomputer 121, a microphone 122, a speaker 123, an infrared LED 124, and the like. The microcomputer 121 controls each part constituting the terminal device 12. The microcomputer 121 has a wireless LAN network processor, and performs communication with the router 15 according to the wireless LAN. The microphone 122 collects external sound and outputs it as sound data. The audio data output from the microphone 122 is input to the microcomputer 121 via a DSP (Digital Signal Processor) (not shown). The microphone 122 is a digital microphone, and A / D converts the collected sound data and outputs it to the DSP. The speaker 123 outputs sound based on the sound data. The speaker 123 outputs audio data amplified by a power amplifier (not shown) after the D / A converter (not shown) D / A converts the audio data (digital data). The infrared LED 124 transmits a remote control code for controlling the television 16 and the illumination 17 to the television 16 and the illumination 17.

ホームサーバー13は、CPU(Central Processing Unit)131、RAM(Random Access Memory)132、記憶部133、ネットワークインターフェース(以下、「NW I/F」という。)134を備える。CPU131は、ホームサーバー13を構成する各部を制御する。RAM132は、CPU131のワークメモリとして機能する。記憶部133は、各種のプログラム、データを記憶する。NW I/F134は、外部の機器(例えば、ルーター15)と有線LAN、無線LANに従った通信を行うためのものである。   The home server 13 includes a CPU (Central Processing Unit) 131, a RAM (Random Access Memory) 132, a storage unit 133, and a network interface (hereinafter referred to as “NW I / F”) 134. The CPU 131 controls each unit constituting the home server 13. The RAM 132 functions as a work memory for the CPU 131. The storage unit 133 stores various programs and data. The NW I / F 134 is for communicating with an external device (for example, the router 15) according to a wired LAN or a wireless LAN.

ルーター15は、アクセスポイント機能を有しており、端末装置12と無線LANに従った通信を行う。また、ルーター15は、ホームサーバー13と有線LANに従った通信を行う。また、ルーター15は、ホームサーバー13とクラウドサーバー14とをインターネット接続する。   The router 15 has an access point function and communicates with the terminal device 12 according to the wireless LAN. The router 15 communicates with the home server 13 according to a wired LAN. The router 15 connects the home server 13 and the cloud server 14 to the Internet.

上述したホームサーバー13は、電子機器(テレビ16、照明17)を制御するために、機器制御情報データベース(以下、「機器制御情報DB」という。)を記憶部133に記憶している。図7は、機器制御情報DBを示す図である。図7(a)に示すように、機器制御情報DBには、端末装置12a〜12cのIDと、端末装置12a〜12cの位置と、が対応付けて記憶されている。例えば、IDが「XXX1」の端末装置12aは、自宅1階のリビングにあることが記憶されている。また、図7(b)に示すように、機器制御情報DBには、端末装置12a〜12cのIDと、電子機器のプロファイルと、が対応付けて記憶されている。電子機器のプロファイルとしては、「Accessory」、「Service」、「Characteristics」がある。「Accessory」は、制御対象の電子機器(照明、テレビ)を示す。「Service」は、制御対象の機能(Light、tv_control)を示す。「Characteristics」は、実行内容(Power State、Volume Control等)を示す。   The home server 13 described above stores a device control information database (hereinafter referred to as “device control information DB”) in the storage unit 133 in order to control electronic devices (the television 16 and the illumination 17). FIG. 7 is a diagram illustrating the device control information DB. As shown to Fig.7 (a), ID of terminal device 12a-12c and the position of terminal device 12a-12c are matched and memorize | stored in apparatus control information DB. For example, it is stored that the terminal device 12a whose ID is “XXX1” is in the living room on the first floor of the home. As shown in FIG. 7B, the device control information DB stores the IDs of the terminal devices 12a to 12c and the profiles of the electronic devices in association with each other. Electronic device profiles include “Accessory”, “Service”, and “Characteristics”. “Accessory” indicates an electronic device (lighting, television) to be controlled. “Service” indicates a function to be controlled (Light, tv_control). “Characteristics” indicates an execution content (Power State, Volume Control, etc.).

また、図7(c)に示すように、制御対象の電子機器を特定するために、機器制御情報DBには、Accessoryと、音声コマンドと、が対応付けて記憶されている。また、図7(d)に示すように、制御対象の機能を特定するために、機器制御情報DBには、Serviceと、音声コマンドと、が対応付けて記憶されている。また、図7(e)に示すように、実行内容を特定するために、機器制御情報DBには、Characteristicsと、音声コマンドと、が対応付けて記憶されている。   Further, as shown in FIG. 7C, in order to identify the electronic device to be controlled, the Accessory and the voice command are stored in association with each other in the device control information DB. Also, as shown in FIG. 7D, in order to specify the function to be controlled, the device control information DB stores a service and a voice command in association with each other. Further, as shown in FIG. 7 (e), in order to specify the execution contents, the device control information DB stores Characteristics and voice commands in association with each other.

例えば、音声コマンドが、「テレビつけて」であれば、音声コマンド「テレビ」に対応するAccessory(制御対象の電子機器)は、「テレビ」である。また、音声コマンド「つけ」に対応するCharacteristics(実行内容)は、「Power State」である。従って、CPU131は、音声コマンドと機器制御情報DBとに基づいて、テレビの電源をオンすることを決定することができる。そして、CPU131は、テレビの電源をオンする制御コマンドを端末装置12に送信する。   For example, if the voice command is “Turn on TV”, the Accessory (the electronic device to be controlled) corresponding to the voice command “TV” is “TV”. Further, Characteristics (execution content) corresponding to the voice command “Take” is “Power State”. Therefore, the CPU 131 can determine to turn on the television based on the voice command and the device control information DB. Then, the CPU 131 transmits a control command for turning on the television to the terminal device 12.

図8は、従来の電子機器制御システムの動作を示すシーケンス図である。以下、図8に基づいて、テレビ16を制御する一連の動作を説明する。まず、ユーザーは、端末装置12がホームサーバー13に音声データを送信するデータ送信モードとするために、所定のキーワードを発話する。例えば、ユーザーは、「こんにちはオンキヨー」と発話する(図8の(1))。端末装置12のマイク122は、ユーザーが発話した音声を集音し音声データとしてマイクロコンピュータ121に出力する。マイクロコンピュータ121は、音声認識機能を有しており、音声データに含まれる文字データを認識し、認識した文字データが所定のキーワードと一致しているか否かを判断する。マイクロコンピュータ121は、認識した文字データが所定のキーワードと一致していると判断した場合、データ送信モードに遷移する(図8の(2))。   FIG. 8 is a sequence diagram showing the operation of the conventional electronic device control system. Hereinafter, a series of operations for controlling the television 16 will be described with reference to FIG. First, the user speaks a predetermined keyword in order to set the data transmission mode in which the terminal device 12 transmits audio data to the home server 13. For example, the user speaks "Hello Onkyo" (shown in FIG. 8 (1)). The microphone 122 of the terminal device 12 collects the voice uttered by the user and outputs it to the microcomputer 121 as voice data. The microcomputer 121 has a voice recognition function, recognizes character data included in the voice data, and determines whether or not the recognized character data matches a predetermined keyword. When the microcomputer 121 determines that the recognized character data matches the predetermined keyword, the microcomputer 121 shifts to the data transmission mode ((2) in FIG. 8).

次に、例えば、ユーザーは、テレビの電源をオンにしたい場合、「テレビつけて」と発話する(図8の(3))。端末装置12のマイク122は、ユーザーが発話した音声を集音し音声データとしてマイクロコンピュータ121に出力する。マイクロコンピュータ121は、音声データ(「テレビつけて」)をホームサーバー14に送信する(図8の(4))。ホームサーバー13のCPU131は、NW I/F134により端末装置12が送信した音声データを受信する。次に、CPU131は、NW I/F134によりクラウドサーバー14に音声データを送信し、音声認識の問い合わせを行う(図8の(5))。   Next, for example, when the user wants to turn on the TV, the user speaks “Turn on TV” ((3) in FIG. 8). The microphone 122 of the terminal device 12 collects the voice uttered by the user and outputs it to the microcomputer 121 as voice data. The microcomputer 121 transmits audio data ("Turn on TV") to the home server 14 ((4) in FIG. 8). The CPU 131 of the home server 13 receives the audio data transmitted from the terminal device 12 through the NW I / F 134. Next, the CPU 131 transmits voice data to the cloud server 14 by the NW I / F 134 and makes a voice recognition inquiry ((5) in FIG. 8).

クラウドサーバー14は、ホームサーバー13が送信した音声データを受信する。クラウドサーバー14は、音声認識機能を有しており、音声データに含まれる文字データを認識する。次に、クラウドサーバー14は、認識した文字データに対応する音声コマンド(「テレビつけて」)をホームサーバー13に送信し、音声認識の結果を応答する(図8の(6))。ホームサーバー13のCPU131は、NW I/F134によりクラウドサーバー14が送信した音声コマンドを受信する。CPU131は、音声認識結果の解析を行う(図8の(7))。具体的には、CPU131は、機器制御情報DBと音声コマンドとに基づいて、音声コマンドに対応する制御コマンドを決定する。CPU131は、NW I/F134により決定した制御コマンド(テレビの電源をオンする制御コマンド)を送信する(図8の(8))。   The cloud server 14 receives the audio data transmitted from the home server 13. The cloud server 14 has a voice recognition function and recognizes character data included in the voice data. Next, the cloud server 14 transmits a voice command (“Turn on TV”) corresponding to the recognized character data to the home server 13 and responds to the result of the voice recognition ((6) in FIG. 8). The CPU 131 of the home server 13 receives the voice command transmitted from the cloud server 14 via the NW I / F 134. The CPU 131 analyzes the speech recognition result ((7) in FIG. 8). Specifically, the CPU 131 determines a control command corresponding to the voice command based on the device control information DB and the voice command. The CPU 131 transmits the control command determined by the NW I / F 134 (control command for turning on the power of the television) ((8) in FIG. 8).

同時に、CPU131は、NW I/F134によりクラウドサーバー14に音声合成を行わせる要求を送信する(図8の(9))。例えば、CPU131は、音声コマンドが「テレビつけて」であった場合、これに対応する「テレビつけました」の音声合成をクラウドサーバー14に行わせる。クラウドサーバー14は、音声合成を行い、音声合成データをホームサーバー13に送信し、音声合成の結果を応答する(図8の(10))。ホームサーバー13のCPU131は、NW I/F134により音声合成データを受信する。次に、CPU131は、NW I/F134により受信した音声合成データを端末装置12に送信する(図8の(11))。   At the same time, the CPU 131 transmits a request for voice synthesis to the cloud server 14 by the NW I / F 134 ((9) in FIG. 8). For example, if the voice command is “Turn on TV”, the CPU 131 causes the cloud server 14 to perform speech synthesis of “Turn on TV” corresponding to this. The cloud server 14 performs speech synthesis, transmits speech synthesis data to the home server 13, and responds with the result of speech synthesis ((10) in FIG. 8). The CPU 131 of the home server 13 receives voice synthesis data through the NW I / F 134. Next, the CPU 131 transmits the speech synthesis data received by the NW I / F 134 to the terminal device 12 ((11) in FIG. 8).

一方、端末装置12のマイクロコンピュータ121は、ホームサーバー13が送信した制御コマンドを受信する。次に、マイクロコンピュータ121は、受信した制御コマンドに対応するリモコンコード(テレビの電源をオンするリモコンコード)を、赤外線LED124により送信する(図8の(12))。テレビ16は、端末装置12が送信したテレビの電源をオンするリモコンコードにより電源がオンする(図8の(13))。また、マイクロコンピュータ121は、ホームサーバー13が送信した音声合成データを受信する。マイクロコンピュータ121は、受信した音声合成データに基づいてスピーカー123から音声(「テレビつけました」)を出力させる。   On the other hand, the microcomputer 121 of the terminal device 12 receives the control command transmitted by the home server 13. Next, the microcomputer 121 transmits a remote control code (remote control code for turning on the TV) corresponding to the received control command by the infrared LED 124 ((12) in FIG. 8). The television 16 is turned on by a remote control code that turns on the television transmitted by the terminal device 12 ((13) in FIG. 8). Further, the microcomputer 121 receives the speech synthesis data transmitted from the home server 13. The microcomputer 121 causes the speaker 123 to output sound (“TV set”) based on the received voice synthesis data.

特開2013−088535号公報JP2013-088535A

従来技術においては、ユーザーは、端末装置12をデータ送信モードとするために、所定のキーワードを発話する必要がある。このため、例えば、テレビをつけた後に、テレビの音量をあげたい場合、「こんにちはオンキヨー」、「テレビつけて」、「こんにちはオンキヨー」、「テレビの音量あげて」と所定のキーワードを復唱しなければならない。また、ユーザーは、制御したい対象の電子機器(例えば、テレビ)も復唱する必要がある。また、端末装置12側で逐一キーワードの音声認識をする必要があるため、端末装置12の処理能力が低く、キーワードの認識率が低い場合は、端末装置12がデータ送信モードに遷移しない場合がある。   In the prior art, the user needs to speak a predetermined keyword in order to set the terminal device 12 to the data transmission mode. For this reason, for example, after having turned on the TV, if you want to increase the volume of the TV, "Hello Onkyo", "put TV", "Hello Onkyo", have to recite a predetermined keyword as "volume up to the TV." I must. In addition, the user needs to repeat the electronic device (for example, a television) to be controlled. Further, since it is necessary to perform voice recognition of keywords one by one on the terminal device 12 side, the terminal device 12 may not transition to the data transmission mode when the processing capability of the terminal device 12 is low and the keyword recognition rate is low. .

本発明の目的は、少ない発話量で電子機器の制御を可能とすることである。   An object of the present invention is to enable control of an electronic device with a small amount of speech.

第1の発明の電子機器制御システムは、音声区間検出機能及び音声認識機能を有し、音声データに対応する音声コマンドを送信する外部サーバーと通信を行うサーバーと、前記サーバーと通信を行う端末装置と、を備える電子機器制御システムであって、前記端末装置は、外部の音声を集音し音声データとして出力するマイクと、電子機器を制御するためのコードを送信する送信部と、前記マイクが出力する音声データに含まれる文字データと所定のキーワードとが一致した場合に、所定のキーワードよりも後に前記マイクが出力する音声データをサーバーに送信し、前記サーバーが送信する制御コマンドを受信し、受信した制御コマンドに対応するコードを前記送信部により前記電子機器に送信する第1制御部と、を備え、前記サーバーは、前記端末装置が送信する音声データを受信し、受信した音声データを前記外部サーバーに送信し、送信した音声データに対応する音声コマンドを前記外部サーバーから受信し、受信した音声コマンドに基づいて制御コマンドを決定し、決定した制御コマンドを前記端末装置に送信する第2制御部を備えることを特徴とする。   An electronic device control system according to a first aspect of the present invention has a voice section detection function and a voice recognition function, communicates with an external server that transmits voice commands corresponding to voice data, and a terminal device that communicates with the server An electronic device control system comprising: a microphone that collects external sound and outputs it as sound data; a transmitter that transmits a code for controlling the electronic device; and the microphone When the character data included in the voice data to be output matches a predetermined keyword, the voice data output by the microphone after the predetermined keyword is transmitted to the server, and the control command transmitted by the server is received. A first control unit that transmits a code corresponding to the received control command to the electronic device by the transmission unit; The voice data transmitted by the terminal device is received, the received voice data is transmitted to the external server, a voice command corresponding to the transmitted voice data is received from the external server, and a control command based on the received voice command And a second control unit for transmitting the determined control command to the terminal device.

本発明では、端末装置の第1制御部は、マイクが出力する音声データに含まれる文字データと所定のキーワードとが一致した場合に、所定のキーワードよりも後にマイクが出力する音声データをサーバーに送信する。サーバーの第2制御部は、端末装置が送信する音声データを外部サーバーに送信し、送信した音声データに対応する音声コマンドを外部サーバーから受信する。また、第2制御部は、受信した音声コマンドに基づいて制御コマンドを決定し、決定した制御コマンドを端末装置に送信する。そして、端末装置の第1制御部は、サーバーが送信する制御コマンドを受信し、受信した制御コマンドに対応するコードを送信部により電子機器に送信する。従って、ユーザーは、所定のキーワードを一度発話すればよく、所定のキーワードを復唱する必要がないため、少ない発話量で電子機器を制御することができる。また、端末装置側で逐一キーワードの音声認識をする必要がない。   In the present invention, the first control unit of the terminal device transmits, to the server, voice data output from the microphone after the predetermined keyword when the character data included in the voice data output from the microphone matches the predetermined keyword. Send. The second control unit of the server transmits the voice data transmitted from the terminal device to the external server, and receives a voice command corresponding to the transmitted voice data from the external server. Further, the second control unit determines a control command based on the received voice command, and transmits the determined control command to the terminal device. And the 1st control part of a terminal unit receives the control command which a server transmits, and transmits the code corresponding to the received control command to an electronic device by a transmission part. Therefore, the user only has to speak a predetermined keyword once, and does not need to repeat the predetermined keyword, so that the electronic device can be controlled with a small amount of utterance. In addition, it is not necessary to perform voice recognition of keywords one by one on the terminal device side.

第2の発明の電子機器制御システムは、第1の発明の電子機器制御システムにおいて、前記サーバーは、記憶部をさらに備え、前記第2制御部は、受信した音声コマンドに対応する制御対象の電子機器、制御対象の機能、実行内容を前記記憶部に記憶し、前記記憶部に記憶されている制御対象の電子機器、制御対象の機能、実行内容に基づいて、制御コマンドを決定することを特徴とする。   An electronic device control system according to a second aspect is the electronic device control system according to the first aspect, wherein the server further includes a storage unit, and the second control unit is an electronic device to be controlled corresponding to the received voice command. A device, a function to be controlled, and an execution content are stored in the storage unit, and a control command is determined based on the electronic device to be controlled, the function to be controlled, and the execution content stored in the storage unit. And

本発明では、サーバーの第2制御部は、受信した音声コマンドに対応する制御対象の電子機器(例えば、テレビ)、制御対象の機能(例えば、テレビコントロール)、実行内容(例えば、電源オン)を記憶部に記憶する。そして、第2制御部は、記憶部に記憶されている制御対象の電子機器(例えば、テレビ)、制御対象の機能(例えば、テレビコントロール)、実行内容(例えば、電源オン)に基づいて、制御コマンド(例えば、テレビの電源をオンする制御コマンド)を決定する。例えば、第2制御部は、制御対象の電子機器(例えば、テレビ)、制御対象の機能(例えば、テレビコントロール)、実行内容(例えば、電源オン)が記憶部に記憶されており、且つ、実行内容(例えば、電源オフ)に対応する音声コマンドを受信した場合、制御コマンド(例えば、テレビの電源をオフにする制御コマンド)を決定することができる。このため、ユーザーは、制御対象の電子機器(例えば、テレビ)、制御対象の機能(例えば、テレビコントロール)、実行内容(電源オン)に対応する音声を発話しており、実行内容(例えば、電源オフ)だけ異なる制御を行いたい場合は、実行内容に対応する音声のみを発話すればよい。これにより、ユーザーは、少ない発話量で電子機器を制御することができる。   In the present invention, the second control unit of the server sets the electronic device to be controlled (for example, a television) corresponding to the received voice command, the function to be controlled (for example, television control), and the execution content (for example, power on). Store in the storage unit. Then, the second control unit performs control based on the electronic device to be controlled (for example, a television), the function to be controlled (for example, television control), and the execution content (for example, power on) stored in the storage unit. A command (for example, a control command for turning on the television) is determined. For example, the second control unit stores the electronic device to be controlled (for example, a television), the function to be controlled (for example, television control), and the execution content (for example, power on) in the storage unit, and executes When a voice command corresponding to the content (for example, power off) is received, a control command (for example, a control command for turning off the power of the television) can be determined. For this reason, the user utters a voice corresponding to an electronic device to be controlled (for example, a television), a function to be controlled (for example, television control), and an execution content (power on), and the execution content (for example, a power source) When it is desired to perform control that differs only by (off), it is sufficient to speak only the voice corresponding to the execution content. Thus, the user can control the electronic device with a small amount of speech.

第3の発明の電子機器制御システムは、第2の発明の電子機器制御システムにおいて、前記第2制御部は、受信した音声コマンドが制御対象の電子機器に対応している場合、制御対象の電子機器よりも優先順位が下位の、前記記憶部に記憶されている制御対象の機能、実行内容を消去し、受信した音声コマンドが制御対象の機能に対応している場合、制御対象の機能よりも優先順位が下位の、前記記憶部に記憶されている実行内容を消去することを特徴とする。   An electronic device control system according to a third aspect is the electronic device control system according to the second aspect, wherein the second control unit is configured to control the electronic device to be controlled when the received voice command corresponds to the electronic device to be controlled. When the control target function and execution contents stored in the storage unit, which have a lower priority than the device, are erased and the received voice command corresponds to the control target function, the control target function is lower than the control target function. The execution content stored in the storage unit with the lower priority is erased.

本発明では、サーバーの第2制御部は、受信した音声コマンドが制御対象の電子機器(例えば、テレビ)に対応している場合、記憶部に記憶されている制御対象の機能(例えば、テレビコントロール)、実行内容(例えば、電源オン)を消去する。また、第2制御部は、受信した音声コマンドが制御対象の機能(例えば、テレビコントロール)に対応している場合、記憶部に記憶されている実行内容(例えば、電源オン)を消去する。このため、ユーザーは、制御対象の電子機器、制御対象の機能に対応する音声を発話して、それらを変更することができる。   In the present invention, when the received voice command corresponds to the electronic device to be controlled (for example, a television), the second control unit of the server has a function to be controlled (for example, a television control) stored in the storage unit. ), The execution contents (for example, power-on) are deleted. In addition, when the received voice command corresponds to a function to be controlled (for example, television control), the second control unit deletes the execution content (for example, power on) stored in the storage unit. For this reason, the user can utter the voice corresponding to the electronic device to be controlled and the function to be controlled, and change them.

第4の発明の電子機器制御システムは、第3の発明の電子機器制御システムにおいて、前記第2制御部は、前記記憶部に制御対象の電子機器、制御対象の機能、実行内容が記憶されていない初期状態で、且つ、受信した音声コマンドが実行内容に対応している場合、前記記憶部に実行内容を記憶し、この後、受信した音声コマンドが制御対象の電子機器又は制御対象の機能に対応している場合、前記記憶部に記憶されている実行内容を消去せずに、受信した音声コマンドが対応する制御対象の電子機器又は制御対象の機能を前記記憶部に記憶することを特徴とする。   An electronic device control system according to a fourth aspect is the electronic device control system according to the third aspect, wherein the second control unit stores the electronic device to be controlled, the function to be controlled, and the execution content in the storage unit. If there is no initial state and the received voice command corresponds to the execution content, the execution content is stored in the storage unit, and then the received voice command is sent to the electronic device to be controlled or the function to be controlled. In the case where it corresponds, the electronic device to be controlled or the function to be controlled corresponding to the received voice command is stored in the storage unit without erasing the execution content stored in the storage unit. To do.

本発明では、サーバーの第2制御部は、記憶部に制御対象の電子機器、制御対象の機能、実行内容が記憶されていない初期状態で、且つ、受信した音声コマンドが実行内容(例えば、電源オン)に対応している場合、記憶部に実行内容を記憶し、この後、受信した音声コマンドが制御対象の電子機器又は制御対象の機能に対応している場合、記憶部に記憶されている実行内容を消去せずに、受信した音声コマンドが対応する制御対象の電子機器(例えば、テレビ)又は制御対象の機能(例えば、テレビコントロール)を記憶部に記憶する。そして、第2制御部は、記憶部に記憶されている制御対象の電子機器(例えば、テレビ)、制御対象の機能(例えば、テレビコントロール)、実行内容(例えば、電源オン)に基づいて、制御コマンド(例えば、テレビの電源をオンする制御コマンド)を決定する。このため、ユーザーは、初期状態では、音声の発話順を考えることなく発話して、電子機器を制御することができる。   In the present invention, the second control unit of the server is in an initial state in which the electronic device to be controlled, the function to be controlled, and the execution content are not stored in the storage unit, and the received voice command executes the execution content (for example, power supply On), the execution contents are stored in the storage unit. After that, when the received voice command corresponds to the electronic device to be controlled or the function to be controlled, it is stored in the storage unit. Without deleting the execution contents, the control target electronic device (for example, television) or the control target function (for example, television control) corresponding to the received voice command is stored in the storage unit. Then, the second control unit performs control based on the electronic device to be controlled (for example, a television), the function to be controlled (for example, television control), and the execution content (for example, power on) stored in the storage unit. A command (for example, a control command for turning on the television) is determined. Therefore, in the initial state, the user can control the electronic device by speaking without considering the speech order.

第5の発明の電子機器制御システムは、第3の発明の電子機器制御システムにおいて、前記第2制御部は、受信した音声コマンドが制御対象の電子機器、制御対象の機能、実行内容のいずれか2つ以上に対応している場合、優先順位に関係なく、受信した音声コマンドに対応する制御対象の電子機器、制御対象の機能、実行内容を前記記憶部に記憶することを特徴とする。   The electronic device control system according to a fifth aspect of the present invention is the electronic device control system according to the third aspect of the present invention, wherein the second control unit is one of the electronic device whose control is the control target, the function of the control target, and the execution content. When it corresponds to two or more, the electronic device to be controlled, the function to be controlled, and the execution content corresponding to the received voice command are stored in the storage unit regardless of the priority order.

本発明では、サーバーの第2制御部は、受信した音声コマンドが制御対象の電子機器、制御対象の機能、実行内容のいずれか2つ以上に対応している場合、優先順位に関係なく、受信した音声コマンドに対応する制御対象の電子機器、制御対象の機能、実行内容を記憶部に記憶する。そして、第2制御部は、記憶部に記憶されている制御対象の電子機器、制御対象の機能、実行内容に基づいて、制御コマンドを決定する。このため、ユーザーは、制御対象の電子機器、制御対象の機能、実行内容に対応する音声を連続して発話することで、電子機器を制御することができる。また、ユーザーは、制御対象の電子機器、制御対象の機能、実行内容に対応する音声を連続して発話することで、音声の発話順を考えることなく発話して、電子機器を制御することができる。また、制御対象の電子機器、制御対象の機能、実行内容に対応する音声が連続して発話されれば、制御対象の電子機器、制御対象の機能、実行内容の順に発話される必要がない。このため、例えば、日本語では、「テレビつけて」のように、制御対象の電子機器、実行内容の順に発話するのが一般的であるが、例えば、英語の「Turn on the TV」のように、制御対象の電子機器、実行内容の順の発話にも対応することができる。   In the present invention, when the received voice command corresponds to any two or more of the electronic device to be controlled, the function to be controlled, and the execution content, the second control unit of the server receives the command regardless of the priority order. The electronic device to be controlled corresponding to the voice command, the function to be controlled, and the execution content are stored in the storage unit. And a 2nd control part determines a control command based on the electronic device of the control object memorize | stored in the memory | storage part, the function of a control object, and the execution content. For this reason, the user can control the electronic device by continuously speaking the sound corresponding to the electronic device to be controlled, the function to be controlled, and the execution content. In addition, the user can control the electronic device by speaking without considering the utterance order by continuously speaking the electronic device to be controlled, the function to be controlled, and the voice corresponding to the execution content. it can. In addition, if the electronic device to be controlled, the function to be controlled, and the voice corresponding to the execution content are continuously spoken, it is not necessary to speak in the order of the electronic device to be controlled, the function to be controlled, and the execution content. For this reason, in Japanese, for example, “Turn on the TV” is generally spoken in the order of the electronic devices to be controlled and the execution contents, such as “Turn on TV”. In addition, it is possible to cope with electronic devices to be controlled and utterances in the order of execution contents.

第6の発明の端末装置は、第1〜第5の発明のいずれかの電子機器制御システムにおける端末装置である。   A terminal device of a sixth invention is a terminal device in the electronic device control system of any one of the first to fifth inventions.

第7の発明のサーバーは、第1〜第5の発明のいずれかの電子機器制御システムにおけるサーバーである。   A server of a seventh invention is a server in the electronic device control system of any of the first to fifth inventions.

本発明によれば、少ない発話量で電子機器の制御することができる。   According to the present invention, it is possible to control an electronic device with a small amount of speech.

本発明の実施形態に係る電子機器制御システムのシステム構成を示す図である。It is a figure which shows the system configuration | structure of the electronic device control system which concerns on embodiment of this invention. コマンド情報データベースを示す図である。It is a figure which shows a command information database. 電子機器制御システムの動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of an electronic device control system. 電子機器制御システムの動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of an electronic device control system. クラウドサーバーが送信した音声コマンドを受信した場合のホームサーバーの処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of a home server when the voice command which the cloud server transmitted is received. 従来の電子機器制御システムのシステム構成を示す図である。It is a figure which shows the system configuration | structure of the conventional electronic device control system. 機器制御情報データベースを示す図である。It is a figure which shows an apparatus control information database. 従来の電子機器制御システムの動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of the conventional electronic device control system.

以下、本発明の実施形態について説明する。図1は、本実施形態に係る電子機器制御システムの構成を示すブロック図である。電子機器制御システム1は、端末装置2(2a〜2c)、ホームサーバー3、クラウドサーバー4、ルーター5を備える。例えば、端末装置2a、ホームサーバー3、ルーター5は、自宅1階のリビングに設置されている。端末装置2bは、自宅2階の書斎に設置されている。端末装置2cは、自宅2階の子供部屋に設置されている。クラウドサーバー4は、自宅外に設置された外部サーバーである。端末装置2は、ホームサーバー3と通信を行う。ホームサーバー3は、クラウドサーバー4と通信を行う。   Hereinafter, embodiments of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration of an electronic device control system according to the present embodiment. The electronic device control system 1 includes a terminal device 2 (2a to 2c), a home server 3, a cloud server 4, and a router 5. For example, the terminal device 2a, the home server 3, and the router 5 are installed in a living room on the first floor of the home. The terminal device 2b is installed in the study on the second floor of the home. The terminal device 2c is installed in a child room on the second floor of the home. The cloud server 4 is an external server installed outside the home. The terminal device 2 communicates with the home server 3. The home server 3 communicates with the cloud server 4.

端末装置2は、マイクロコンピュータ21、マイク22、スピーカー23、赤外線LED24等を備える。マイクロコンピュータ21(第1制御部)は、端末装置2を構成する各部を制御する。また、マイクロコンピュータ21は、無線LANネットワークプロセッサーを有しており、ルーター5と無線LANに従った通信を行う。マイク22は、外部の音声を集音し音声データとして出力する。マイク22が出力した音声データは、図示しないDSP(Digital Signal Processor)を介して、マイクロコンピュータ21に入力される。なお、マイク22は、デジタルマイクであり、集音した音声データをA/D変換してDSPに出力する。スピーカー23は、音声データに基づいて音声を出力する。なお、スピーカー23には、図示しないD/Aコンバータが音声データ(デジタルデータ)をD/A変換し、図示しないパワーアンプが増幅した音声データが出力される。赤外線LED24(送信部)は、テレビ6(電子機器)、照明(電子機器)7に対して、テレビ6、照明7を制御するためのリモコンコードを送信する。   The terminal device 2 includes a microcomputer 21, a microphone 22, a speaker 23, an infrared LED 24, and the like. The microcomputer 21 (first control unit) controls each unit constituting the terminal device 2. The microcomputer 21 has a wireless LAN network processor, and performs communication with the router 5 in accordance with the wireless LAN. The microphone 22 collects external sound and outputs it as sound data. The audio data output from the microphone 22 is input to the microcomputer 21 via a DSP (Digital Signal Processor) (not shown). The microphone 22 is a digital microphone, and A / D converts the collected voice data and outputs it to the DSP. The speaker 23 outputs sound based on the sound data. The speaker 23 outputs audio data amplified by a power amplifier (not shown) after D / A conversion of the audio data (digital data) by a D / A converter (not shown). The infrared LED 24 (transmission unit) transmits a remote control code for controlling the television 6 and the illumination 7 to the television 6 (electronic device) and the illumination (electronic device) 7.

ホームサーバー3(サーバー)は、CPU(Central Processing Unit)31、RAM(Random Access Memory)32、記憶部33、ネットワークインターフェース(以下、「NW I/F」という。)34を備える。CPU31(第2制御部)は、ホームサーバー3を構成する各部を制御する。RAM32は、CPU31のワークメモリとして機能する。記憶部33は、各種のプログラム、データを記憶する。また、記憶部33には、機器制御情報データベース(以下、「機器制御情報DB」という。)が記憶されている。機器制御情報DBは、図7に示す従来の機器制御情報DBと同様であるため、説明を省略する。NW I/F34は、外部の機器(例えば、ルーター5)と有線LAN、無線LANに従った通信を行うためのものである。   The home server 3 (server) includes a CPU (Central Processing Unit) 31, a RAM (Random Access Memory) 32, a storage unit 33, and a network interface (hereinafter referred to as “NW I / F”) 34. The CPU 31 (second control unit) controls each unit constituting the home server 3. The RAM 32 functions as a work memory for the CPU 31. The storage unit 33 stores various programs and data. The storage unit 33 stores a device control information database (hereinafter referred to as “device control information DB”). The device control information DB is the same as the conventional device control information DB shown in FIG. The NW I / F 34 is for communicating with an external device (for example, the router 5) according to a wired LAN or a wireless LAN.

ルーター5は、アクセスポイント機能を有しており、端末装置2と無線LANに従った通信を行う。また、ルーター5は、ホームサーバー3と有線LANに従った通信を行う。また、ルーター5は、ホームサーバー3とクラウドサーバー4とをインターネット接続する。   The router 5 has an access point function, and communicates with the terminal device 2 according to the wireless LAN. The router 5 communicates with the home server 3 according to a wired LAN. The router 5 connects the home server 3 and the cloud server 4 to the Internet.

クラウドサーバー4(外部サーバー)は、音声区間検出(Voice Activity Detection、以下、「VAD」という。)機能を有する。また、クラウドサーバー4は、音声認識機能を有する。クラウドサーバー4は、VAD機能を有しているため、無音区間を検出し、適切に音声認識を行うことができる。例えば、ユーザーが「こんにちは オンキヨー」と発話した場合、無音区間を検出し、「こんにちは」「おんきよー」と文字データを認識する。一方で、VAD機能がなければ、ユーザーが「こんにちは オンキヨー」と発話した場合、例えば、「こんに」「ちわ」「おん」「きよー」と認識されてしまう。なお、本明細書中、文中の空白部分は、無音区間を示している場合がある。   The cloud server 4 (external server) has a voice activity detection (hereinafter referred to as “VAD”) function. The cloud server 4 has a voice recognition function. Since the cloud server 4 has a VAD function, the cloud server 4 can detect a silent section and appropriately perform speech recognition. For example, if a user utters "Hello Onkyo", it detects a silent section, recognizes the character data as "Hello", "Onkyo". On the other hand, if there is no VAD function, if the user utters "Hello Onkyo", for example, it would be recognized as "the crowded," "Harukazu", "on" and "Kiyoー". In this specification, a blank part in a sentence may indicate a silent section.

電子機器制御システム1において、端末装置2は、集音した音声データ(例えば、「テレビ つけて」)をホームサーバー3に送信する。ホームサーバー3は、音声データを受信し、受信した音声データをクラウドサーバー4に送信する。クラウドサーバー4は、音声データを受信する。クラウドサーバー4は、受信した音声データを音声認識し、対応する音声コマンド(例えば、「テレビ」「つけて」)を決定する。クラウドサーバー4は、決定した音声コマンドをホームサーバー3に送信する。ホームサーバー3は、クラウドサーバー4が送信した音声コマンドを受信する。ホームサーバー3は、受信した音声コマンドに対応する制御コマンド(例えば、「テレビの電源をオンする制御コマンド」)を端末装置2に送信する。端末装置2は、ホームサーバー3が送信した制御コマンドを受信する。端末装置2は、受信した制御コマンドに対応するリモコンコード(例えば、「テレビの電源をオンするリモコンコード」)を赤外線LED24により送信する。   In the electronic device control system 1, the terminal device 2 transmits collected sound data (for example, “Turn on TV”) to the home server 3. The home server 3 receives the audio data and transmits the received audio data to the cloud server 4. The cloud server 4 receives audio data. The cloud server 4 recognizes the received voice data and determines a corresponding voice command (for example, “TV” and “Turn”). The cloud server 4 transmits the determined voice command to the home server 3. The home server 3 receives the voice command transmitted from the cloud server 4. The home server 3 transmits a control command corresponding to the received voice command (for example, “control command to turn on the TV”) to the terminal device 2. The terminal device 2 receives the control command transmitted from the home server 3. The terminal device 2 transmits a remote control code (for example, “a remote control code for turning on the TV”) corresponding to the received control command via the infrared LED 24.

ホームサーバー3のCPU31が、受信した音声コマンドに対応する制御コマンド(例えば、「テレビの電源をオンする制御コマンド」)を決定するために、記憶部33には、受信した音声コマンドに対応するAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)の情報が記憶される。図2は、受信した音声コマンドに対応するAccessory、Service、Characteristicsの情報を記憶するコマンド情報データベース(以下、「コマンド情報DB」という。)を示す図である。図2(a)に示すように、コマンド情報DBには、初期状態では何も記憶されていない(「None」)。CPU31は、例えば、NW I/F34によりクラウドサーバー4が送信した音声コマンド「テレビ」を受信した場合、機器制御情報DBに基づいて、音声コマンド「テレビ」に対応するAccessory「テレビ」をコマンド情報DBに記憶する(図2(b))。この時点では、テレビに対するService、Characteristicsが確定していないため、CPU31は、動作未決定の「No Action」状態となる。   In order for the CPU 31 of the home server 3 to determine a control command corresponding to the received voice command (for example, “control command to turn on the TV”), the storage unit 33 stores the Accessory corresponding to the received voice command. Information on (electronic device to be controlled), Service (function to be controlled), and Characteristics (execution content) is stored. FIG. 2 is a diagram showing a command information database (hereinafter referred to as “command information DB”) that stores information on Accessory, Service, and Characteristics corresponding to received voice commands. As shown in FIG. 2A, nothing is stored in the command information DB in the initial state (“None”). For example, when the CPU 31 receives the voice command “TV” transmitted from the cloud server 4 by the NW I / F 34, the CPU 31 sets the Accessory “TV” corresponding to the voice command “TV” to the command information DB based on the device control information DB. (FIG. 2B). At this time, since the Service and Characteristics for the television are not fixed, the CPU 31 is in a “No Action” state in which the operation is not determined.

続いて、CPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンド「つけて」を受信した場合、機器制御情報DBに基づいて、音声コマンド「つけ」に対応するCharacteristics「Power State ON」を記憶する(図2(c))。このとき、CPU31は、音声コマンド「つけ」に対応するCharacteristicsから、Serviceが「tv_control」であることが判別できるため、Service「tv_control」をコマンド情報DBに記憶する。CPU31は、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)が確定したため、制御コマンドを「テレビの電源をオンする制御コマンド」に決定することができる。また、図2(c)に示す状態において、CPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンド「オフ」を受信した場合、機器制御情報DBに基づいて、音声コマンド「オフ」に対応するCharacteristics「Power State OFF」を記憶する(図2(d))。コマンド情報DBには、既に、Accessory「テレビ」、Service「tv_control」が記憶されているため、Accessory、Service、Characteristicsが確定し、CPU31は、受信した音声コマンドに対応する制御コマンドを「テレビの電源をオフする制御コマンド」に決定することができる。   Subsequently, when the CPU 31 receives the voice command “Tsuke” transmitted from the cloud server 4 via the NW I / F 34, based on the device control information DB, the Characteristics “Power State ON” corresponding to the voice command “Take” is displayed. Is stored (FIG. 2C). At this time, the CPU 31 can determine that the service is “tv_control” from the Characteristics corresponding to the voice command “attach”, and therefore stores the service “tv_control” in the command information DB. The CPU 31 can determine the control command as a “control command to turn on the TV” because the Accessory (electronic device to be controlled), Service (the function to be controlled), and Characteristics (execution content) have been determined. In the state shown in FIG. 2C, when the CPU 31 receives the voice command “OFF” transmitted from the cloud server 4 by the NW I / F 34, the CPU 31 sets the voice command “OFF” based on the device control information DB. The corresponding Characteristics “Power State OFF” is stored (FIG. 2D). In the command information DB, Accessory “TV” and Service “tv_control” are already stored. Therefore, Accessory, Service, and Characteristics are determined, and the CPU 31 assigns a control command corresponding to the received voice command to “TV power supply”. Control command to turn off.

このように、CPU31は、受信した音声コマンドに対応するAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)を記憶部33のコマンド情報DBに記憶する。そして、CPU31は、記憶部33のコマンド情報DBに記憶されているAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)に基づいて、制御コマンドを決定する。ここで、記憶部33のコマンド情報DBに記憶されているAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)は、受信した音声コマンドに対応するものであるため、CPU31は、受信した音声コマンドに基づいて、制御コマンドを決定していることになる。   As described above, the CPU 31 stores Accessory (control target electronic device), Service (control target function), and Characteristics (execution content) corresponding to the received voice command in the command information DB of the storage unit 33. Then, the CPU 31 determines a control command based on Accessory (control target electronic device), Service (control target function), and Characteristics (execution content) stored in the command information DB of the storage unit 33. Here, the Accessory (control target electronic device), Service (control target function), and Characteristics (execution contents) stored in the command information DB of the storage unit 33 correspond to the received voice command. The CPU 31 determines a control command based on the received voice command.

コマンド情報DBには、優先順位がある。その優先順位は、Accessory>Service>Characteristicsである。図2(c)に示す状態において、CPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンド「おんりょう」を受信した場合、機器制御情報DBに基づいて、音声コマンド「おんりょう」に対応するService「tv_control」を記憶する(図2(e))。ここで、CPU31は、Serviceよりも優先順位が下位のCharacteristicsを消去(「None」に変更)する。また、図2(c)に示す状態において、CPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンド「でんき」を受信した場合、機器制御情報DBに基づいて、音声コマンド「でんき」に対応するAccessory「照明」を記憶する(図2(f))。ここで、CPU31は、Accessoryよりも優先順位が下位のService、Characteristicsを消去(「None」に変更)する。   The command information DB has a priority order. The priority order is Accessory> Service> Characteristics. In the state shown in FIG. 2C, when the CPU 31 receives the voice command “ONRYO” transmitted from the cloud server 4 via the NW I / F 34, the CPU 31 changes the voice command “ONRYO” to the voice command “ONRYO” based on the device control information DB. The corresponding Service “tv_control” is stored (FIG. 2E). Here, the CPU 31 deletes the Characteristics having a lower priority than the Service (changes it to “None”). In the state shown in FIG. 2C, when the CPU 31 receives the voice command “Denki” transmitted from the cloud server 4 via the NW I / F 34, the CPU 31 changes the voice command “Denki” based on the device control information DB. The corresponding Accessory “illumination” is stored (FIG. 2F). Here, the CPU 31 deletes (changes to “None”) the Service and Characteristics that have a lower priority than the Accessory.

このように、CPU31は、受信した音声コマンドがAccessory(制御対象の電子機器)に対応している場合、Accessory(制御対象の電子機器)よりも優先順位が下位の、記憶部33のコマンド情報DBに記憶されているService(制御対象の機能)、Characteristics(実行内容)を消去する。また、CPU31は、受信した音声コマンドがService(制御対象の機能)に対応している場合、Service(制御対象の機能)よりも優先順位が下位の、記憶部33のコマンド情報DBに記憶されているCharacteristics(実行内容)を消去する。   As described above, when the received voice command corresponds to Accessory (controlled electronic device), the CPU 31 has a command information DB in the storage unit 33 having a lower priority than Accessory (controlled electronic device). Deletes the Service (function to be controlled) and Characteristics (execution content) stored in the. In addition, when the received voice command corresponds to Service (control target function), the CPU 31 stores the command in the command information DB of the storage unit 33 having a lower priority than Service (control target function). Delete the current Characteristics (execution content).

図2(a)に示す初期状態において、CPU31は、例えば、NW I/F34によりクラウドサーバー4が送信した音声コマンド「つけて」を受信した場合、機器制御情報DBに基づいて、音声コマンド「つけ」に対応するCharacteristics「Power State ON」をコマンド情報DBに記憶する(図2(g))。この時点では、Accessory、Serviceが確定していないため、CPU31は、動作未決定の「No Action」状態となる。続いて、CPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンド「でんき」を受信した場合、機器制御情報DBに基づいて、音声コマンド「でんき」に対応するAccesorry「照明」をコマンド情報DBに記憶する(図2(h))。初期状態において、優先順位が下位の情報が確定した後、それよりも優先順位が上位の情報が確定した場合は、優先順位が下位の情報を消去しない(「None」に変更しない)。これにより、初期状態で、CPU31は、例えば、NW I/F34によりクラウドサーバー4が送信した音声コマンド「つけて」、「でんき」を受信した場合、「照明の電源をオンする制御コマンド」を決定することができる(図2(h)参照)。   In the initial state shown in FIG. 2A, for example, when the CPU 31 receives the voice command “attach” transmitted from the cloud server 4 by the NW I / F 34, the CPU 31 attaches the voice command “attach” based on the device control information DB. "Characteristics" Power State ON "corresponding to" "is stored in the command information DB (FIG. 2G). At this point in time, the Accessory and Service have not been determined, so the CPU 31 enters a “No Action” state in which no operation has been determined. Subsequently, when the CPU 31 receives the voice command “Denki” transmitted from the cloud server 4 by the NW I / F 34, the command 31 sets the Accessory “lighting” corresponding to the voice command “Denki” to the command information based on the device control information DB. Store in the DB (FIG. 2 (h)). In the initial state, after information having a lower priority is determined, if information having a higher priority is determined, information having a lower priority is not deleted (not changed to “None”). Thus, in the initial state, the CPU 31 determines the “control command to turn on the illumination” when the voice command “Take” and “Denki” transmitted from the cloud server 4 by the NW I / F 34 are received, for example. (See FIG. 2 (h)).

このように、CPU31は、記憶部33のコマンド情報DBにAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)が記憶されていない初期状態で、且つ、受信した音声コマンドがCharacteristics(実行内容)に対応している場合、記憶部33のコマンド情報DBにCharacteristics(実行内容)を記憶する。そして、CPU31は、この後、受信した音声コマンドがAccessory(制御対象の電子機器)又はService(制御対象の機能)に対応している場合、記憶部33のコマンド情報DBに記憶されているCharacteristics(実行内容)を消去せずに、受信した音声コマンドが対応するAccessory(制御対象の電子機器)又はCharacteristics(制御対象の機能)を記憶部33のコマンド情報DBに記憶する。   As described above, the CPU 31 has received the initial state in which the Accessory (control target electronic device), Service (control target function), and Characteristics (execution content) are not stored in the command information DB of the storage unit 33. When the voice command corresponds to Characteristics (execution content), Characteristics (execution content) is stored in the command information DB of the storage unit 33. After that, when the received voice command corresponds to Accessory (electronic device to be controlled) or Service (functional to be controlled), the CPU 31 determines the characteristics (characteristics) stored in the command information DB of the storage unit 33. Without deleting the (execution content), the Accessory (control-target electronic device) or Characteristics (control-target function) corresponding to the received voice command is stored in the command information DB of the storage unit 33.

上述のように、クラウドサーバー4は、VAD機能を有している。例えば、ユーザーが「テレビ つけて」のように、「テレビ」と「つけて」の間に無音を挟んで発話した場合、クラウドサーバー4は、「テレビ」「つけて」の音声コマンドをホームサーバー3に送信する。例えば、ユーザーが「テレビつけて」のように、連続して発話した場合、クラウドサーバー4は、「テレビつけて」の音声コマンドをホームサーバー3に送信する。この場合、CPU31は、優先順位に関係なく、音声コマンド「テレビ」に対応するAccessory「テレビ」、音声コマンド「つけ」に対応するCharacteristics「Power State ON」をコマンド情報DBに記憶する。同様に、例えば、ユーザーが「つけてテレビ」のように、連続して発話した場合、クラウドサーバー4は、「つけてテレビ」の音声コマンドをホームサーバー3に送信する。この場合、CPU31は、優先順位に関係なく、音声コマンド「つけ」に対応するCharacteristics「Power State ON」、音声コマンド「テレビ」に対応するAccessory「テレビ」をコマンド情報DBに記憶する。   As described above, the cloud server 4 has a VAD function. For example, when the user speaks with silence between “TV” and “Turn”, such as “Turn on TV”, the cloud server 4 sends voice commands “Television” and “Turn on” to the home server. 3 to send. For example, when the user speaks continuously like “Turn on TV”, the cloud server 4 transmits a voice command “Turn on TV” to the home server 3. In this case, the CPU 31 stores Accessory “TV” corresponding to the voice command “TV” and Characteristics “Power State ON” corresponding to the voice command “ON” in the command information DB regardless of the priority order. Similarly, for example, when the user continuously speaks like “Turn on TV”, the cloud server 4 transmits a voice command of “Turn on TV” to the home server 3. In this case, the CPU 31 stores the Characteristics “Power State ON” corresponding to the voice command “Turn” and the Accessory “TV” corresponding to the voice command “TV” in the command information DB regardless of the priority order.

このように、CPU31は、受信した音声コマンドがAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)のいずれか2つ以上に対応している場合、優先順位に関係なく、受信した音声コマンドに対応するAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)を記憶部33のコマンド情報DBに記憶する。   As described above, when the received voice command corresponds to any two or more of Accessory (control target electronic device), Service (control target function), and Characteristics (execution content), the CPU 31 determines the priority order. Regardless of the received voice command, Accessory (control target electronic device), Service (control target function), and Characteristics (execution content) are stored in the command information DB of the storage unit 33.

図3及び図4は、電子機器制御システムの動作を示すシーケンス図である。以下、図3及び図4に基づいて、テレビ6を制御する一連の動作を説明する。まず、ユーザーは、端末装置2がホームサーバー3に音声データを送信するデータ送信モードとするために、所定のキーワードを発話する。例えば、ユーザーは、「こんにちはオンキヨー」と発話する(図3の(1))。端末装置2のマイク22は、ユーザーが発話した音声を集音し音声データとしてマイクロコンピュータ21に出力する。マイクロコンピュータ21は、音声認識機能を有しており、音声データに含まれる文字データを認識し、認識した文字データが所定のキーワードと一致しているか否かを判断する。マイクロコンピュータ21は、認識した文字データが所定のキーワードと一致していると判断した場合、データ送信モードに遷移する(図3の(2))。   3 and 4 are sequence diagrams showing the operation of the electronic device control system. Hereinafter, a series of operations for controlling the television 6 will be described with reference to FIGS. 3 and 4. First, the user speaks a predetermined keyword in order to set the data transmission mode in which the terminal device 2 transmits audio data to the home server 3. For example, the user utters "Hello Onkyo" (in FIG. 3 (1)). The microphone 22 of the terminal device 2 collects the voice spoken by the user and outputs it to the microcomputer 21 as voice data. The microcomputer 21 has a voice recognition function, recognizes character data included in the voice data, and determines whether or not the recognized character data matches a predetermined keyword. When the microcomputer 21 determines that the recognized character data matches the predetermined keyword, the microcomputer 21 shifts to the data transmission mode ((2) in FIG. 3).

次に、例えば、ユーザーは、テレビの電源をオンにしたい場合、「テレビ つけて」と発話する(図3の(3)、(4))。端末装置2のマイク22は、ユーザーが発話した音声を集音し音声データとしてマイクロコンピュータ21に出力する。マイクロコンピュータ21は、音声データ(「テレビ つけて」)をホームサーバー3に送信する(図3の(5)、(6))。ホームサーバー3のCPU31は、NW I/F34により端末装置2が送信した音声データを受信する。次に、CPU31は、NW I/F34によりクラウドサーバー4に音声データを送信し、音声認識の問い合わせを行う(図3の(7)、(8))。   Next, for example, when the user wants to turn on the TV, the user speaks “Turn on TV” ((3) and (4) in FIG. 3). The microphone 22 of the terminal device 2 collects the voice spoken by the user and outputs it to the microcomputer 21 as voice data. The microcomputer 21 transmits audio data (“Turn on TV”) to the home server 3 ((5) and (6) in FIG. 3). The CPU 31 of the home server 3 receives the audio data transmitted by the terminal device 2 through the NW I / F 34. Next, the CPU 31 transmits voice data to the cloud server 4 by the NW I / F 34 and makes a voice recognition inquiry ((7) and (8) in FIG. 3).

クラウドサーバー4は、ホームサーバー3が送信した音声データを受信する。クラウドサーバー4は、音声認識機能を有しており、音声データに含まれる文字データを認識する。上述したように、クラウドサーバー4は、VAD機能を有しているため、無音区間を検出し、適切に音声認識を行うことができる。次に、クラウドサーバー4は、認識した文字データに対応する音声コマンド(「テレビ」「つけて」)をホームサーバー3に送信し、音声認識の結果を応答する(図3の(9)、(10))。ホームサーバー3のCPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンドを受信する。CPU31は、音声認識結果の解析を行う(図3の(11)、(12))。具体的には、CPU31は、機器制御情報DBと音声コマンドとに基づいて、音声コマンドに対応する制御コマンドを決定する。   The cloud server 4 receives the audio data transmitted from the home server 3. The cloud server 4 has a voice recognition function and recognizes character data included in the voice data. As described above, since the cloud server 4 has the VAD function, it can detect a silent section and appropriately perform speech recognition. Next, the cloud server 4 transmits a voice command (“TV” and “attach”) corresponding to the recognized character data to the home server 3 and responds to the result of the voice recognition ((9) and (9) in FIG. 10)). The CPU 31 of the home server 3 receives the voice command transmitted from the cloud server 4 through the NW I / F 34. The CPU 31 analyzes the speech recognition result ((11) and (12) in FIG. 3). Specifically, the CPU 31 determines a control command corresponding to the voice command based on the device control information DB and the voice command.

ここで、CPU31は、音声コマンド「テレビ」を受信したときに、機器制御情報DBに基づいて、音声コマンド「テレビ」に対応するAccessory「テレビ」をコマンド情報DBに記憶する(図2(b)参照。)。また、CPU31は、音声コマンド「つけて」を受信したときに、機器制御情報DBに基づいて、音声コマンド「つけ」に対応するCharacteristics「Power State ON」を記憶する(図2(c)参照。)。このとき、CPU31は、音声コマンド「つけ」に対応するCharacteristicsから、Serviceが「tv_control」であることが判別できるため、Service「tv_control」の情報をコマンド情報DBに記憶する。CPU31は、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)が確定したため、受信した音声コマンドに対応する制御コマンドを「テレビの電源をオンする制御コマンド」に決定することができる。CPU31は、NW I/F34により決定した制御コマンド(テレビの電源をオンする制御コマンド)を端末装置2に送信する(図3の(13))。   Here, when receiving the voice command “TV”, the CPU 31 stores the Accessory “TV” corresponding to the voice command “TV” in the command information DB based on the device control information DB (FIG. 2B). reference.). Further, when receiving the voice command “Tsuke”, the CPU 31 stores Characteristics “Power State ON” corresponding to the voice command “Take” based on the device control information DB (see FIG. 2C). ). At this time, since it is possible to determine that the service is “tv_control” from the Characteristics corresponding to the voice command “tick”, the CPU 31 stores the information of the service “tv_control” in the command information DB. The CPU 31 determines that the control command corresponding to the received voice command is the “control command to turn on the TV” because the Accessory (electronic device to be controlled), Service (the function to be controlled), and Characteristics (execution content) have been determined. Can be determined. The CPU 31 transmits the control command determined by the NW I / F 34 (control command for turning on the power of the television) to the terminal device 2 ((13) in FIG. 3).

端末装置2のマイクロコンピュータ21は、ホームサーバー3が送信した制御コマンドを受信する。次に、マイクロコンピュータ21は、受信した制御コマンドに対応するリモコンコード(テレビの電源をオンするリモコンコード)を、赤外線LED24により送信する(図3の(14))。テレビ6は、端末装置2が送信したテレビの電源をオンするリモコンコードにより電源がオンする(図3の(15))。   The microcomputer 21 of the terminal device 2 receives the control command transmitted from the home server 3. Next, the microcomputer 21 transmits a remote control code (remote control code for turning on the TV) corresponding to the received control command by the infrared LED 24 ((14) in FIG. 3). The television 6 is turned on by a remote control code that turns on the television transmitted from the terminal device 2 ((15) in FIG. 3).

次に、例えば、ユーザーは、テレビの電源をオフにしたい場合、「オフ」と発話する(図4の(16))。端末装置2のマイク22は、ユーザーが発話した音声を集音し音声データとしてマイクロコンピュータ21に出力する。マイクロコンピュータ21は、音声データ(「オフ」)をホームサーバー3に送信する(図4の(17))。ホームサーバー3のCPU31は、NW I/F34により端末装置2が送信した音声データを受信する。次に、CPU31は、NW I/F34によりクラウドサーバー4に音声データを送信し、音声認識の問い合わせを行う(図4の(18))。   Next, for example, when the user wants to turn off the TV, the user speaks “OFF” ((16) in FIG. 4). The microphone 22 of the terminal device 2 collects the voice spoken by the user and outputs it to the microcomputer 21 as voice data. The microcomputer 21 transmits the audio data (“OFF”) to the home server 3 ((17) in FIG. 4). The CPU 31 of the home server 3 receives the audio data transmitted by the terminal device 2 through the NW I / F 34. Next, the CPU 31 sends voice data to the cloud server 4 by the NW I / F 34 and makes a voice recognition inquiry ((18) in FIG. 4).

クラウドサーバー4は、ホームサーバー3が送信した音声データを受信する。クラウドサーバー4は、音声データに含まれる文字データを認識し、認識した文字データに対応する音声コマンド(「オフ」)をホームサーバー3に送信し、音声認識の結果を応答する(図4の(19))。ホームサーバー3のCPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンドを受信する。CPU31は、音声認識結果の解析を行う(図4の(20))。   The cloud server 4 receives the audio data transmitted from the home server 3. The cloud server 4 recognizes the character data included in the voice data, transmits a voice command (“OFF”) corresponding to the recognized character data to the home server 3, and responds to the result of the voice recognition ((FIG. 4 ( 19)). The CPU 31 of the home server 3 receives the voice command transmitted from the cloud server 4 through the NW I / F 34. The CPU 31 analyzes the speech recognition result ((20) in FIG. 4).

CPU31は、音声コマンド「オフ」を受信したときに、機器制御情報DBに基づいて、音声コマンド「オフ」に対応するCharacteristics「Power State OFF」を記憶する(図2(d)参照)。コマンド情報DBには、既に、Accessory「テレビ」、Service「tv_control」が記憶されているため、Accessory、Service、Characteristicsが確定し、CPU31は、受信した音声コマンドに対応する制御コマンドを「テレビの電源をオフする制御コマンド」に決定することができる。CPU31は、NW I/F34により決定した制御コマンド(テレビの電源をオフする制御コマンド)を端末装置2に送信する(図4の(21))。   When the CPU 31 receives the voice command “OFF”, the CPU 31 stores Characteristics “Power State OFF” corresponding to the voice command “OFF” based on the device control information DB (see FIG. 2D). In the command information DB, Accessory “TV” and Service “tv_control” are already stored. Therefore, Accessory, Service, and Characteristics are determined, and the CPU 31 assigns a control command corresponding to the received voice command to “TV power supply”. Control command to turn off. The CPU 31 transmits the control command determined by the NW I / F 34 (control command for turning off the power of the television) to the terminal device 2 ((21) in FIG. 4).

端末装置2のマイクロコンピュータ21は、ホームサーバー3が送信した制御コマンドを受信する。次に、マイクロコンピュータ21は、受信した制御コマンドに対応するリモコンコード(テレビの電源をオフするリモコンコード)を、赤外線LED24により送信する(図4の(22))。テレビ6は、端末装置2が送信したテレビの電源をオフするリモコンコードにより電源がオフする(図4の(23))。   The microcomputer 21 of the terminal device 2 receives the control command transmitted from the home server 3. Next, the microcomputer 21 transmits a remote control code corresponding to the received control command (remote control code for turning off the power of the television) by the infrared LED 24 ((22) in FIG. 4). The television 6 is turned off by a remote control code for turning off the television transmitted from the terminal device 2 ((23) in FIG. 4).

端末装置2のマイクロコンピュータ21は、データ送信モードに遷移してから所定時間経過後、データ送信モードを終了する。また、クラウドサーバー4が所定時間、無音を検出した場合に、マイクロコンピュータ21は、データ送信モードを終了するようにしてもよい。   The microcomputer 21 of the terminal device 2 ends the data transmission mode after a predetermined time has elapsed since the transition to the data transmission mode. Further, when the cloud server 4 detects silence for a predetermined time, the microcomputer 21 may end the data transmission mode.

次に、クラウドサーバー4が送信した音声コマンドを受信した場合のホームサーバー3の処理動作を、図5に示すフローチャートに基づいて説明する。ホームサーバー3のCPU31は、NW I/F34によりクラウドサーバー4が送信した音声コマンドを受信すると(S1)、機器制御情報DBに基づいて、受信した音声コマンドが機器制御情報と一致するか否かを判断する(S2)。CPU31は、受信した音声コマンドが機器制御情報と一致しないと判断した場合(S2:No)、処理を終了する。   Next, the processing operation of the home server 3 when the voice command transmitted by the cloud server 4 is received will be described based on the flowchart shown in FIG. When the CPU 31 of the home server 3 receives the voice command transmitted from the cloud server 4 by the NW I / F 34 (S1), the CPU 31 determines whether the received voice command matches the device control information based on the device control information DB. Judgment is made (S2). CPU31 complete | finishes a process, when it is judged that the received voice command does not correspond with apparatus control information (S2: No).

CPU31は、受信した音声コマンドが機器制御情報と一致すると判断した場合(S2:Yes)、受信した音声コマンドがAccessoryに対応しているか否かを判断する(S3)。CPU31は、受信した音声コマンドがAccessoryに対応していると判断した場合(S3:Yes)、コマンド情報DBに基づいて、初期状態(図2(a)参照)であるか否かを判断する(S4)。CPU31は、初期状態でないと判断した場合(S4:No)、コマンド情報DBにおいて、Accessoryよりも優先順位が下位のService、Characteristicsを消去(「None」に変更)する(S5)。   When it is determined that the received voice command matches the device control information (S2: Yes), the CPU 31 determines whether the received voice command corresponds to Accessory (S3). If the CPU 31 determines that the received voice command corresponds to Accessory (S3: Yes), the CPU 31 determines whether or not it is in the initial state (see FIG. 2A) based on the command information DB (see FIG. 2A). S4). If the CPU 31 determines that it is not in the initial state (S4: No), it deletes (changes to “None”) the Service and Characteristics that have a lower priority than the Accessory in the command information DB (S5).

CPU31は、受信した音声コマンドがAccessoryに対応していないと判断した場合(S3:No)、受信した音声コマンドがServiceに対応しているか否かを判断する(S6)。CPU31は、受信した音声コマンドがServiceに対応していると判断した場合(S6:No)、コマンド情報DBに基づいて、初期状態(図2(a)参照)であるか否かを判断する(S7)。CPU31は、初期状態でないと判断した場合(S7:No)、コマンドDB情報において、Serviceよりも優先順位が下位のCharacteristicsを消去(「None」に変更)する(S8)。   When the CPU 31 determines that the received voice command does not correspond to Accessory (S3: No), the CPU 31 determines whether the received voice command corresponds to Service (S6). When the CPU 31 determines that the received voice command is compatible with Service (S6: No), the CPU 31 determines whether or not it is in the initial state (see FIG. 2A) based on the command information DB (see FIG. 2A). S7). When determining that the current state is not the initial state (S7: No), the CPU 31 deletes the Characteristics having a lower priority than the Service in the command DB information (changes to “None”) (S8).

CPU31は、初期状態であると判断した場合(S4、S7:Yes)、受信した音声コマンドがServiceに対応していないと判断した場合(S6:No)、S5、S8の処理の後、情報コマンドDBに基づいて、Accessory、Service、Characteristicsが確定しており、制御コマンドを決定できるか否かを判断する(S9)。CPU31は、Accessory、Service、Characteristicsが確定しておらず、制御コマンドを決定できないと判断した場合(S9:No)、処理を終了する。   When the CPU 31 determines that it is in the initial state (S4, S7: Yes), when it is determined that the received voice command does not correspond to the Service (S6: No), after the processing of S5 and S8, the information command Based on the DB, it is determined whether Accessory, Service, and Characteristics have been determined and a control command can be determined (S9). If the CPU 31 determines that the Accessory, Service, and Characteristics have not been determined and the control command cannot be determined (S9: No), the process ends.

CPU31は、Accessory、Service、Characteristicsが確定しており、制御コマンドを決定できると判断した場合(S9:Yes)、コマンド情報DBに基づいて制御コマンドを決定し、NW I/F34により決定した制御コマンドを端末装置2に送信する(S10)。   If the CPU 31 determines that the Accessory, Service, and Characteristics have been determined and the control command can be determined (S9: Yes), the CPU 31 determines the control command based on the command information DB, and determines the control command determined by the NW I / F 34 Is transmitted to the terminal device 2 (S10).

以上説明したように、本実施形態では、端末装置2のマイクロコンピュータ21は、マイク22が出力する音声データに含まれる文字データと所定のキーワードとが一致した場合に、所定のキーワードよりも後にマイク22が出力する音声データをホームサーバー3に送信する。ホームサーバー3のCPU31は、端末装置2が送信した音声データをクラウドサーバー4に送信し、送信した音声データに対応する音声コマンドをクラウドサーバー4から受信する。また、CPU31は、受信した音声コマンドに基づいて制御コマンドを決定し、決定した制御コマンドを端末装置2に送信する。そして、端末装置2のマイクロコンピュータ21は、ホームサーバー3が送信する制御コマンドを受信し、受信した制御コマンドに対応するリモコンコードを赤外線LED24によりテレビ6又は照明7に送信する。従って、ユーザーは、所定のキーワードを一度発話すればよく、所定のキーワードを復唱する必要がないため、少ない発話量で電子機器を制御することができる。また、端末装置2側で逐一キーワードの音声認識をする必要がない。   As described above, in the present embodiment, when the character data included in the audio data output from the microphone 22 matches the predetermined keyword, the microcomputer 21 of the terminal device 2 uses the microphone after the predetermined keyword. The voice data output by the terminal 22 is transmitted to the home server 3. The CPU 31 of the home server 3 transmits the voice data transmitted from the terminal device 2 to the cloud server 4 and receives a voice command corresponding to the transmitted voice data from the cloud server 4. Further, the CPU 31 determines a control command based on the received voice command, and transmits the determined control command to the terminal device 2. The microcomputer 21 of the terminal device 2 receives the control command transmitted from the home server 3 and transmits a remote control code corresponding to the received control command to the television 6 or the illumination 7 by the infrared LED 24. Therefore, the user only has to speak a predetermined keyword once, and does not need to repeat the predetermined keyword, so that the electronic device can be controlled with a small amount of utterance. Further, it is not necessary to recognize the voice of the keyword one by one on the terminal device 2 side.

また、本実施形態では、ホームサーバー3のCPU31は、受信した音声コマンドに対応するAccessory(制御対象の電子機器(例えば、テレビ))、Service(制御対象の機能(例えば、tv_control))、Characteristics(実行内容(例えば、Power State ON))を記憶部33のコマンド情報DBに記憶する。そして、CPU31は、記憶部33のコマンド情報DBに記憶されているAccessory(制御対象の電子機器(例えば、テレビ))、Service(制御対象の機能(例えば、tv_control))、Characteristics(実行内容(例えば、Power State ON))に基づいて、制御コマンド(例えば、テレビの電源をオンする制御コマンド)を決定する。例えば、CPU31は、Accessory(制御対象の電子機器(例えば、テレビ))、Service(制御対象の機能(例えば、tv_control))、Characteristics(実行内容(例えば、Power State ON))が記憶部33のコマンド情報DBに記憶されており、且つ、Characteristics(実行内容(例えば、Power State OFF)に対応する音声コマンドを受信した場合、制御コマンド(例えば、テレビの電源をオフにする制御コマンド)を決定することができる。このため、ユーザーは、Accessory(制御対象の電子機器(例えば、テレビ))、Service(制御対象の機能(例えば、tv_control))、Characteristics(実行内容(例えば、Power State ON))に対応する音声を発話しており、Characteristics(実行内容(例えば、Power State OFF)だけ異なる制御を行いたい場合は、Characteristics(実行内容)に対応する音声のみを発話すればよい。これにより、ユーザーは、少ない発話量で電子機器を制御することができる。   Further, in the present embodiment, the CPU 31 of the home server 3 has an Accessory corresponding to the received voice command (an electronic device to be controlled (for example, a television)), a Service (a function to be controlled (for example, tv_control)), a Characteristics ( The execution content (for example, Power State ON) is stored in the command information DB of the storage unit 33. Then, the CPU 31 stores an Accessory (an electronic device to be controlled (for example, a television)), a Service (a function to be controlled (for example, tv_control)), a Characteristics (for example, an execution content (for example, an execution content (for example, an execution content)). , Power State ON)), a control command (for example, a control command for turning on the power of the television) is determined. For example, the CPU 31 includes an Accessory (electronic device to be controlled (for example, a television)), a Service (a function to be controlled (for example, tv_control)), and a Characteristics (execution content (for example, Power State ON)) in the command of the storage unit 33. When a voice command stored in the information DB and corresponding to Characteristics (execution content (for example, Power State OFF) is received, a control command (for example, a control command for turning off the power of the television) is determined. For this reason, the user can use Accessory (controlled electronic device (eg, television)), Service (controlled function (eg, tv_control)), Characteristics ( When speech corresponding to the line content (for example, Power State ON) is uttered, and when it is desired to perform control that differs only by Characteristics (for example, Power State OFF), only the sound corresponding to Characteristics (for execution content) As a result, the user can control the electronic device with a small amount of speech.

また、本実施形態では、ホームサーバー3のCPU31は、受信した音声コマンドがAccessory(制御対象の電子機器(例えば、テレビ))に対応している場合、記憶部33のコマンド情報DBに記憶されているService(制御対象の機能(例えば、tv_control)、Characteristics(実行内容(例えば、Power State ON)を消去する。また、CPU31は、受信した音声コマンドがService(制御対象の機能(例えば、tv_control))に対応している場合、記憶部33のコマンド情報DBに記憶されているCharacteristics(実行内容(例えば、Power State ON)を消去する。このため、ユーザーは、Accessory(制御対象の電子機器)、Service(制御対象の機能)に対応する音声を発話して、それらを変更することができる。   In the present embodiment, the CPU 31 of the home server 3 stores the received voice command in the command information DB of the storage unit 33 when the received voice command corresponds to Accessory (an electronic device to be controlled (for example, a television)). Service (function to be controlled (for example, tv_control), Characteristics (execution content (for example, Power State ON) is deleted. Further, the CPU 31 receives the received voice command for Service (function to be controlled (for example, tv_control))). In this case, the Characteristics (execution content (for example, Power State ON)) stored in the command information DB of the storage unit 33 is deleted. For this reason, the user can access the Accessory (control target). Child device), and speech sound corresponding to the Service (function of the control object), it is possible to change them.

また、本実施形態では、ホームサーバー3のCPU31は、記憶部33のコマンド情報DBにAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)が記憶されていない初期状態で、且つ、受信した音声コマンドがCharacteristics(実行内容(例えば、Power State On)に対応している場合、記憶部33のコマンド情報DBにCharacteristics(実行内容)を記憶し、この後、受信した音声コマンドがAccessory(制御対象の電子機器)又はService(制御対象の機能)に対応している場合、記憶部33のコマンド情報DBに記憶されているCharacteristics(実行内容)を消去せずに、受信した音声コマンドが対応するAccessory(制御対象の電子機器(例えば、テレビ))又はService(制御対象の機能(例えば、tv_control))を記憶部33のコマンド情報DBに記憶する。そして、CPU31は、記憶部33のコマンド情報DBに記憶されているAccessory(制御対象の電子機器(例えば、テレビ))、Service(制御対象の機能(例えば、tv_control))、Characteristics(実行内容(例えば、Power State ON))に基づいて、制御コマンド(例えば、テレビの電源をオンする制御コマンド)を決定する。このため、ユーザーは、初期状態では、音声の発話順を考えることなく発話して、電子機器を制御することができる。   In the present embodiment, the CPU 31 of the home server 3 is an initial stage in which Accessory (control target electronic device), Service (control target function), and Characteristics (execution content) are not stored in the command information DB of the storage unit 33. If the received voice command is in the state and corresponds to Characteristics (execution content (for example, Power State On)), the Characteristics (execution content) is stored in the command information DB of the storage unit 33 and then received. When the voice command corresponds to Accessory (electronic device to be controlled) or Service (control target function), without deleting the Characteristics (execution contents) stored in the command information DB of the storage unit 33, The Accessory (the electronic device to be controlled (for example, a television)) or the Service (the function to be controlled (for example, tv_control)) corresponding to the received voice command is stored in the command information DB of the storage unit 33. Accessory (electronic device to be controlled (for example, television)), Service (function to be controlled (for example, tv_control)), Characteristics (execution content (for example, Power State ON)) stored in the command information DB of the storage unit 33 ) To determine a control command (for example, a control command to turn on the TV), so that, in the initial state, the user speaks without considering the speech order and controls the electronic device. be able to.

また、本実施形態では、ホームサーバー3のCPU31は、受信した音声コマンドがAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)のいずれか2つ以上に対応している場合、優先順位に関係なく、受信した音声コマンドに対応するAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)を記憶部33のコマンド情報DBに記憶する。そして、CPU31は、記憶部33のコマンド情報DBに記憶されているAccessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)に基づいて、制御コマンドを決定する。このため、ユーザーは、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)に対応する音声を連続して発話することで、電子機器を制御することができる。また、ユーザーは、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)に対応する音声を連続して発話することで、音声の発話順を考えることなく発話して、電子機器を制御することができる。また、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)に対応する音声が連続して発話されれば、Accessory(制御対象の電子機器)、Service(制御対象の機能)、Characteristics(実行内容)の順に発話される必要がない。このため、例えば、日本語では、「テレビつけて」のように、Accessory(制御対象の電子機器)、Characteristics(実行内容)の順に発話するのが一般的であるが、例えば、英語の「Turn on the TV」のように、Characteristics(実行内容)、Accessory(制御対象の電子機器)の順の発話にも対応することができる。   In the present embodiment, the CPU 31 of the home server 3 corresponds to any two or more of the received voice commands of “Accessory (control target electronic device)”, “Service (control target function)”, and “Characteristics (execution content)”. If there is, the Accessory (control target electronic device), Service (control target function), and Characteristics (execution content) corresponding to the received voice command are stored in the command information DB of the storage unit 33 regardless of the priority order. . Then, the CPU 31 determines a control command based on Accessory (control target electronic device), Service (control target function), and Characteristics (execution content) stored in the command information DB of the storage unit 33. For this reason, the user can control the electronic device by continuously speaking the voice corresponding to Accessory (electronic device to be controlled), Service (function to be controlled), and Characteristics (execution content). In addition, the user can continuously speak the voice corresponding to Accessory (control target electronic device), Service (control target function), and Characteristics (execution contents), so that the user can speak without considering the order of the voices. Thus, the electronic device can be controlled. Also, if a voice corresponding to Accessory (control target electronic device), Service (control target function), Characteristics (execution content) is continuously spoken, Accessory (control target electronic device), Service (control target) ) And Characteristics (execution content) in this order. For this reason, for example, in Japanese, it is common to utter in the order of Accessory (electronic device to be controlled) and Characteristics (execution content) like “Turn on TV”, but for example, “Turn in English” As in “on the TV”, it is also possible to deal with utterances in the order of Characteristics (execution contents) and Accessory (electronic device to be controlled).

以上、本発明の実施形態について説明したが、本発明を適用可能な形態は、上述の実施形態には限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることが可能である。   As mentioned above, although embodiment of this invention was described, the form which can apply this invention is not restricted to the above-mentioned embodiment, It is possible to add a change suitably in the range which does not deviate from the meaning of this invention. is there.

本発明は、テレビ、照明等の電子機器を制御するための電子機器制御システム、電子機器制御システムを構成する端末装置、及び、サーバーに好適に採用され得る。   The present invention can be suitably employed in an electronic device control system for controlling electronic devices such as a television and lighting, a terminal device constituting the electronic device control system, and a server.

1 電子機器制御システム
2 端末装置
21 マイクロコンピュータ(第1制御部)
22 マイク
24 赤外線LED(送信部)
3 ホームサーバー(サーバー)
31 CPU(第2制御部)
33 記憶部
4 クラウドサーバー(外部サーバー)
6 テレビ(電子機器)
7 照明(電子機器)
DESCRIPTION OF SYMBOLS 1 Electronic device control system 2 Terminal device 21 Microcomputer (1st control part)
22 Microphone 24 Infrared LED (Transmitter)
3 Home server (server)
31 CPU (second control unit)
33 Storage unit 4 Cloud server (external server)
6 TV (electronic equipment)
7 Lighting (electronic equipment)

Claims (7)

音声区間検出機能及び音声認識機能を有し、音声データに対応する音声コマンドを送信する外部サーバーと通信を行うサーバーと、前記サーバーと通信を行う端末装置と、を備える電子機器制御システムであって、
前記端末装置は、
外部の音声を集音し音声データとして出力するマイクと、
電子機器を制御するためのコードを送信する送信部と、
前記マイクが出力する音声データに含まれる文字データと所定のキーワードとが一致した場合に、所定のキーワードよりも後に前記マイクが出力する音声データをサーバーに送信し、
前記サーバーが送信する制御コマンドを受信し、
受信した制御コマンドに対応するコードを前記送信部により前記電子機器に送信する第1制御部と、を備え、
前記サーバーは、
前記端末装置が送信する音声データを受信し、
受信した音声データを前記外部サーバーに送信し、
送信した音声データに対応する音声コマンドを前記外部サーバーから受信し、
受信した音声コマンドに基づいて制御コマンドを決定し、
決定した制御コマンドを前記端末装置に送信する第2制御部
を備えることを特徴とする電子機器制御システム。
An electronic device control system comprising a server that has a voice section detection function and a voice recognition function, communicates with an external server that transmits voice commands corresponding to voice data, and a terminal device that communicates with the server ,
The terminal device
A microphone that collects external audio and outputs it as audio data;
A transmitter for transmitting a code for controlling the electronic device;
When the character data included in the voice data output from the microphone matches a predetermined keyword, the voice data output from the microphone after the predetermined keyword is transmitted to the server,
Receiving a control command sent by the server;
A first control unit that transmits a code corresponding to the received control command to the electronic device by the transmission unit;
The server
Receiving voice data transmitted by the terminal device;
Send the received audio data to the external server,
Receiving a voice command corresponding to the transmitted voice data from the external server;
Determine the control command based on the received voice command,
An electronic device control system comprising: a second control unit that transmits the determined control command to the terminal device.
前記サーバーは、記憶部をさらに備え、
前記第2制御部は、
受信した音声コマンドに対応する制御対象の電子機器、制御対象の機能、実行内容を前記記憶部に記憶し、
前記記憶部に記憶されている制御対象の電子機器、制御対象の機能、実行内容に基づいて、制御コマンドを決定することを特徴とする請求項1に記載の電子機器制御システム。
The server further includes a storage unit,
The second controller is
The electronic device to be controlled corresponding to the received voice command, the function to be controlled, and the execution content are stored in the storage unit,
The electronic device control system according to claim 1, wherein a control command is determined based on an electronic device to be controlled, a function to be controlled, and an execution content stored in the storage unit.
前記第2制御部は、
受信した音声コマンドが制御対象の電子機器に対応している場合、制御対象の電子機器よりも優先順位が下位の、前記記憶部に記憶されている制御対象の機能、実行内容を消去し、
受信した音声コマンドが制御対象の機能に対応している場合、制御対象の機能よりも優先順位が下位の、前記記憶部に記憶されている実行内容を消去することを特徴とする請求項2に記載の電子機器制御システム。
The second controller is
When the received voice command corresponds to the electronic device to be controlled, the priority order is lower than the electronic device to be controlled, the function to be controlled and the execution content stored in the storage unit are deleted,
3. When the received voice command corresponds to a function to be controlled, the execution content stored in the storage unit having a lower priority than the function to be controlled is erased. The electronic device control system described.
前記第2制御部は、
前記記憶部に制御対象の電子機器、制御対象の機能、実行内容が記憶されていない初期状態で、且つ、受信した音声コマンドが実行内容に対応している場合、前記記憶部に実行内容を記憶し、この後、受信した音声コマンドが制御対象の電子機器又は制御対象の機能に対応している場合、前記記憶部に記憶されている実行内容を消去せずに、受信した音声コマンドが対応する制御対象の電子機器又は制御対象の機能を前記記憶部に記憶することを特徴とする請求項3に記載の電子機器制御システム。
The second controller is
In the initial state in which the electronic device to be controlled, the function to be controlled, and the execution content are not stored in the storage unit, and the received voice command corresponds to the execution content, the execution content is stored in the storage unit Thereafter, when the received voice command corresponds to the electronic device to be controlled or the function to be controlled, the received voice command corresponds without erasing the execution content stored in the storage unit. The electronic device control system according to claim 3, wherein an electronic device to be controlled or a function to be controlled is stored in the storage unit.
前記第2制御部は、
受信した音声コマンドが制御対象の電子機器、制御対象の機能、実行内容のいずれか2つ以上に対応している場合、優先順位に関係なく、受信した音声コマンドに対応する制御対象の電子機器、制御対象の機能、実行内容を前記記憶部に記憶することを特徴とする請求項3に記載の電子機器制御システム。
The second controller is
When the received voice command corresponds to any two or more of the electronic device to be controlled, the function to be controlled, and the execution contents, the electronic device to be controlled corresponding to the received voice command regardless of the priority order, The electronic device control system according to claim 3, wherein functions to be controlled and execution contents are stored in the storage unit.
請求項1〜5のいずれか1項に記載の端末装置。   The terminal device according to claim 1. 請求項1〜5のいずれか1項に記載のサーバー。   The server according to any one of claims 1 to 5.
JP2014252853A 2014-12-15 2014-12-15 Electronic device control system, terminal device, and server Expired - Fee Related JP6520100B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014252853A JP6520100B2 (en) 2014-12-15 2014-12-15 Electronic device control system, terminal device, and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014252853A JP6520100B2 (en) 2014-12-15 2014-12-15 Electronic device control system, terminal device, and server

Publications (2)

Publication Number Publication Date
JP2016114744A true JP2016114744A (en) 2016-06-23
JP6520100B2 JP6520100B2 (en) 2019-05-29

Family

ID=56139915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014252853A Expired - Fee Related JP6520100B2 (en) 2014-12-15 2014-12-15 Electronic device control system, terminal device, and server

Country Status (1)

Country Link
JP (1) JP6520100B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107863104A (en) * 2017-11-17 2018-03-30 出门问问信息科技有限公司 A kind of sound control method and device
WO2018199390A1 (en) * 2017-04-24 2018-11-01 엘지전자 주식회사 Electronic device
JP2019032479A (en) * 2017-08-09 2019-02-28 レノボ・シンガポール・プライベート・リミテッド Voice assistant system, server apparatus, device, voice assistant method therefor, and program to be executed by computer
CN109658922A (en) * 2017-10-12 2019-04-19 现代自动车株式会社 The device and method for handling user's input of vehicle
JP2019086535A (en) * 2017-11-01 2019-06-06 ソフトバンク株式会社 Transmission control device and program
JP2019185011A (en) * 2018-04-02 2019-10-24 百度在線網絡技術(北京)有限公司 Processing method for waking up application program, apparatus, and storage medium
WO2019235134A1 (en) * 2018-06-07 2019-12-12 ソニー株式会社 Information generation device, information processing system, information processing method, and program
US10832670B2 (en) 2017-01-20 2020-11-10 Samsung Electronics Co., Ltd. Voice input processing method and electronic device for supporting the same
WO2021075736A1 (en) * 2019-10-16 2021-04-22 Samsung Electronics Co., Ltd. Electronic device and method for sharing voice command thereof
JP2022007620A (en) * 2020-06-26 2022-01-13 富士フイルムビジネスイノベーション株式会社 Information processing device and program
JP2022040215A (en) * 2017-07-14 2022-03-10 ダイキン工業株式会社 Apparatus control system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000122678A (en) * 1998-10-14 2000-04-28 Nippon Telegr & Teleph Corp <Ntt> Controller for speech recogniging equipment
JP2003131682A (en) * 2001-10-24 2003-05-09 Victor Co Of Japan Ltd Equipment control system using voice command
JP2009104156A (en) * 2001-12-17 2009-05-14 Asahi Kasei Homes Kk Telephone communication terminal
JP2014182307A (en) * 2013-03-19 2014-09-29 Sharp Corp Voice recognition system and speech system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000122678A (en) * 1998-10-14 2000-04-28 Nippon Telegr & Teleph Corp <Ntt> Controller for speech recogniging equipment
JP2003131682A (en) * 2001-10-24 2003-05-09 Victor Co Of Japan Ltd Equipment control system using voice command
JP2009104156A (en) * 2001-12-17 2009-05-14 Asahi Kasei Homes Kk Telephone communication terminal
JP2014182307A (en) * 2013-03-19 2014-09-29 Sharp Corp Voice recognition system and speech system

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10832670B2 (en) 2017-01-20 2020-11-10 Samsung Electronics Co., Ltd. Voice input processing method and electronic device for supporting the same
US11823673B2 (en) 2017-01-20 2023-11-21 Samsung Electronics Co., Ltd. Voice input processing method and electronic device for supporting the same
WO2018199390A1 (en) * 2017-04-24 2018-11-01 엘지전자 주식회사 Electronic device
JP7295473B2 (en) 2017-07-14 2023-06-21 ダイキン工業株式会社 Equipment control system
JP2022040215A (en) * 2017-07-14 2022-03-10 ダイキン工業株式会社 Apparatus control system
US10867596B2 (en) 2017-08-09 2020-12-15 Lenovo (Singapore) Pte. Ltd. Voice assistant system, server apparatus, device, voice assistant method therefor, and program to be executed by computer
JP2019032479A (en) * 2017-08-09 2019-02-28 レノボ・シンガポール・プライベート・リミテッド Voice assistant system, server apparatus, device, voice assistant method therefor, and program to be executed by computer
CN109658922A (en) * 2017-10-12 2019-04-19 现代自动车株式会社 The device and method for handling user's input of vehicle
CN109658922B (en) * 2017-10-12 2023-10-10 现代自动车株式会社 Apparatus and method for processing user input for vehicle
JP2019086535A (en) * 2017-11-01 2019-06-06 ソフトバンク株式会社 Transmission control device and program
CN107863104A (en) * 2017-11-17 2018-03-30 出门问问信息科技有限公司 A kind of sound control method and device
JP2019185011A (en) * 2018-04-02 2019-10-24 百度在線網絡技術(北京)有限公司 Processing method for waking up application program, apparatus, and storage medium
US11037560B2 (en) 2018-04-02 2021-06-15 Baidu Online Network Technology (Beijing) Co., Ltd.X Method, apparatus and storage medium for wake up processing of application
WO2019235134A1 (en) * 2018-06-07 2019-12-12 ソニー株式会社 Information generation device, information processing system, information processing method, and program
WO2021075736A1 (en) * 2019-10-16 2021-04-22 Samsung Electronics Co., Ltd. Electronic device and method for sharing voice command thereof
US11662976B2 (en) 2019-10-16 2023-05-30 Samsung Electronics Co., Ltd Electronic device and method for sharing voice command thereof
JP2022007620A (en) * 2020-06-26 2022-01-13 富士フイルムビジネスイノベーション株式会社 Information processing device and program
US11947645B2 (en) 2020-06-26 2024-04-02 Fujifilm Business Innovation Corp. Voice-based authentication after successful authentication based on non-voice input

Also Published As

Publication number Publication date
JP6520100B2 (en) 2019-05-29

Similar Documents

Publication Publication Date Title
JP6520100B2 (en) Electronic device control system, terminal device, and server
US11631403B2 (en) Apparatus, system and method for directing voice input in a controlling device
TWI557599B (en) Voice control method and voice control system
CN111989741B (en) Speech-based user interface with dynamically switchable endpoints
US20240235879A1 (en) Apparatus, system and method for directing voice input in a controlling device
KR102025566B1 (en) Home appliance and voice recognition server system using artificial intelligence and method for controlling thereof
US11563854B1 (en) Selecting user device during communications session
JP6543676B2 (en) Transmission control device and program
WO2018173293A1 (en) Speech terminal, speech command generation system, and method for controlling speech command generation system
US20170289582A1 (en) Device control method and electric device
US20180233136A1 (en) Audio playback device that dynamically switches between receiving audio data from a soft access point and receiving audio data from a local access point
US20170133013A1 (en) Voice control method and voice control system
US10706845B1 (en) Communicating announcements
TW201519172A (en) Electronic device having function of lost reminding and using method of same
JPWO2020003851A1 (en) Audio processing device, audio processing method and recording medium
JP2019184809A (en) Voice recognition device and voice recognition method
WO2019136065A1 (en) Apparatus, system and method for directing voice input in a controlling device
KR20170051994A (en) speech recognition device and here of control Method
US11161038B2 (en) Systems and devices for controlling network applications
JP2019191490A (en) Voice interaction terminal, and voice interaction terminal control method
CN113314115B (en) Voice processing method of terminal equipment, terminal equipment and readable storage medium
JP6468069B2 (en) Electronic device control system, server, and terminal device
JP5610283B2 (en) External device control apparatus, external device control method and program
TWI847393B (en) Language data processing system and method and computer program product
US11367446B2 (en) Information dissemination system and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

R150 Certificate of patent or registration of utility model

Ref document number: 6520100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees