JP6053097B2 - Device operating system, device operating device, server, device operating method and program - Google Patents

Device operating system, device operating device, server, device operating method and program Download PDF

Info

Publication number
JP6053097B2
JP6053097B2 JP2012041825A JP2012041825A JP6053097B2 JP 6053097 B2 JP6053097 B2 JP 6053097B2 JP 2012041825 A JP2012041825 A JP 2012041825A JP 2012041825 A JP2012041825 A JP 2012041825A JP 6053097 B2 JP6053097 B2 JP 6053097B2
Authority
JP
Japan
Prior art keywords
command
voice
biological information
information data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012041825A
Other languages
Japanese (ja)
Other versions
JP2013179446A (en
Inventor
曽根 基樹
基樹 曽根
長谷川 稔
稔 長谷川
由起 中原
由起 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012041825A priority Critical patent/JP6053097B2/en
Priority to PCT/JP2013/051728 priority patent/WO2013128999A1/en
Publication of JP2013179446A publication Critical patent/JP2013179446A/en
Application granted granted Critical
Publication of JP6053097B2 publication Critical patent/JP6053097B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/31Voice input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • H04M11/007Telephonic communication systems specially adapted for combination with other electrical systems with remote control systems

Description

本発明は、機器操作装置、サーバ、機器操作システム、機器操作方法およびプログラムに関する。   The present invention relates to a device operating device, a server, a device operating system, a device operating method, and a program.

家電製品の多くにはリモートコントローラが付属している。ユーザは、このリモートコントローラを操作することにより、家電機器に対して直接操作することなく、遠隔操作により所望の動作を行わせることができる。
その一方で、例えば洗濯や料理の作業を中断することなく他の家電機器を操作したいという要望がある。しかし、リモートコントローラによる遠隔操作では、リモートコントローラを操作するために作業を中断する必要がある。
Many home appliances come with a remote controller. By operating this remote controller, the user can perform a desired operation by remote operation without directly operating the home appliance.
On the other hand, for example, there is a desire to operate other home appliances without interrupting washing or cooking work. However, in the remote operation by the remote controller, it is necessary to interrupt the work in order to operate the remote controller.

近年において、音声認識の精度が向上してきている。そこで、この音声認識を用いて機器をコントロールできるようにすれば、作業を中断することなく機器を遠隔操作できる。
そこで、機器を遠隔操作する音声認識システムとして以下のものが知られている。つまり、この音声認識システムにおいては、発話音声データから抽出された音声特徴量を携帯電話器から通信ネットワークを介して音声認識機能を備えた認証・認識サーバに送信する。認証・認識サーバは、受信した音声特徴量に基づいて発話音声データの音声内容を認識する。そして、認証・認識サーバは、認識した音声内容が被制御機器に対する指示音声であった場合、その指示音声内容を認識し、対応する制御信号を通信ネットワークを介して被制御機器に送信するというものである(例えば、特許文献1参照)。
In recent years, the accuracy of voice recognition has improved. Therefore, if the device can be controlled using the voice recognition, the device can be remotely operated without interrupting the work.
Therefore, the following is known as a voice recognition system for remotely operating a device. That is, in this speech recognition system, the speech feature amount extracted from the speech speech data is transmitted from the mobile phone to an authentication / recognition server having a speech recognition function via the communication network. The authentication / recognition server recognizes the voice content of the speech voice data based on the received voice feature amount. The authentication / recognition server recognizes the instruction voice content when the recognized voice content is an instruction voice to the controlled device, and transmits a corresponding control signal to the controlled device via the communication network. (For example, see Patent Document 1).

特開2006−203900号公報JP 2006-203900 A

しかし、上記特許文献1に記載の構成では、ユーザが操作のための音声を入力する装置に携帯電話器を利用している。このため、ユーザは、機器の遠隔操作に際して発話音声データを送信させるための操作を携帯電話器に行い、かつ、携帯電話器に向かって発話する必要がある。したがって、特許文献1では、これまでに行っていた作業が中断されてしまうという問題は解決されていない。   However, in the configuration described in Patent Document 1, a mobile phone is used as a device for a user to input a voice for operation. For this reason, the user needs to perform an operation for transmitting utterance voice data to the mobile phone when the device is remotely operated, and to speak to the mobile phone. Therefore, in patent document 1, the problem that the operation | work which was performed until now is interrupted is not solved.

そこでこの発明は、ユーザがこれまでに行っていた作業を中断することなく、音声によって的確に機器の遠隔制御が行えるようにすることを目的とする。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to enable accurate remote control of a device by voice without interrupting work that has been performed by a user so far.

本発明は、上述の課題を解決すべくなされたもので、本発明の一態様としての機器操作システムは、機器操作装置と生体情報解析サーバとを備え、前記機器操作装置は、自己または他の機器操作装置が制御対象とする機器のいずれかを操作するための生体情報を入力する生体情報入力部と、入力された生体情報の内容を含む生体情報データを生成する生体情報処理部と、前記生体情報データを前記生体情報解析サーバに送信するとともに、前記生体情報解析サーバから送信されたコマンドを受信する第1の通信部と、受信したコマンドに応答した動作が実行されるように自己が制御対象とする機器を制御する機器制御部とを備え、前記生体情報解析サーバは、前記生体情報データを受信するとともに、前記コマンドを送信する第2の通信部と、受信した生体情報データを解析する解析部と、前記生体情報データを解析することにより認識された生体情報の内容に基づいて、コマンド内容と操作対象機器を判定するコマンド判定部と、判定されたコマンド内容に応じた前記コマンドを生成し、生成した前記コマンドを、前記操作対象機器を制御対象とする前記機器操作装置に対して前記第2の通信部により送信させるコマンド生成部とを備える。   The present invention has been made to solve the above-described problems, and an apparatus operating system according to an aspect of the present invention includes an apparatus operating device and a biological information analysis server, and the device operating device is self or other. A biometric information input unit that inputs biometric information for operating any of the devices to be controlled by the device operating device, a biometric information processing unit that generates biometric information data including the contents of the input biometric information, and The biometric information data is transmitted to the biometric information analysis server, and the first communication unit that receives the command transmitted from the biometric information analysis server, and the self control so that the operation in response to the received command is executed. A device control unit that controls a target device, wherein the biological information analysis server receives the biological information data and transmits the command An analysis unit that analyzes the received biological information data, a command determination unit that determines the command content and the operation target device based on the content of the biological information recognized by analyzing the biological information data, and the determined command A command generation unit configured to generate the command according to the content, and to transmit the generated command to the device operation device whose control target is the operation target device by the second communication unit.

また、本発明の一態様としての機器操作装置は、自己または他の機器操作装置が制御対象とする機器のいずれかを操作するための生体情報を入力する生体情報入力部と、入力された生体情報の内容を含む生体情報データを生成する生体情報処理部と、前記生体情報データを生体情報解析サーバに送信するとともに、前記生体情報解析サーバから送信されたコマンドを受信する通信部と、受信したコマンドに応答した動作が実行されるように自己が制御対象とする機器を制御する機器制御部とを備える。   In addition, the device operating device as one aspect of the present invention includes a biometric information input unit that inputs biometric information for operating any of the devices to be controlled by itself or another device operating device; A biometric information processing unit that generates biometric information data including information content, a communication unit that transmits the biometric information data to the biometric information analysis server, and that receives a command transmitted from the biometric information analysis server; A device control unit that controls a device that is controlled by the device so that an operation in response to the command is executed.

また、本発明の一態様としてのサーバは、機器操作装置が入力した生体情報に基づいて生成した生体情報データを前記機器操作装置から受信するとともに、コマンドを送信する通信部と、受信した生体情報データを解析する解析部と、前記生体情報データを解析することにより認識された生体情報の内容に基づいて、コマンド内容と操作対象機器を判定するコマンド判定部と、判定されたコマンド内容に応じた前記コマンドを生成し、生成した前記コマンドを、前記操作対象機器を制御対象とする前記機器操作装置に対して前記通信部により送信させるコマンド生成部とを備える。   In addition, the server as one aspect of the present invention receives the biological information data generated based on the biological information input by the device operating device from the device operating device, and transmits the command and the received biological information. An analysis unit that analyzes data, a command determination unit that determines a command content and an operation target device based on the content of the biological information recognized by analyzing the biological information data, and a command that corresponds to the determined command content A command generation unit configured to generate the command and cause the communication unit to transmit the generated command to the device operation apparatus whose control target is the operation target device;

また、本発明の一態様としての機器操作方法は、機器操作装置と生体情報解析サーバとを備える機器操作システムにおける機器操作方法であって、前記機器操作装置は、自己または他の機器操作装置が制御対象とする機器のいずれかを操作するための生体情報を入力する生体情報入力ステップと、入力された生体情報の内容を含む生体情報データを生成する生体情報処理ステップと、前記生体情報データを前記生体情報解析サーバに送信するとともに、前記生体情報解析サーバから送信されたコマンドを受信する第1の通信ステップと、受信したコマンドに応答した動作が実行されるように自己が制御対象とする機器を制御する機器制御ステップとを備え、前記生体情報解析サーバは、前記生体情報データを受信するとともに、前記コマンドを送信する第2の通信ステップと、受信した生体情報データを解析する解析ステップと、前記生体情報データを解析することにより認識された生体情報の内容に基づいて、コマンド内容と操作対象機器を判定するコマンド判定ステップと、判定されたコマンド内容に応じた前記コマンドを生成し、生成した前記コマンドを、前記操作対象機器を制御対象とする前記機器操作装置に対して前記第2の通信ステップにより送信させるコマンド生成ステップとを備える。   An apparatus operating method according to an aspect of the present invention is an apparatus operating method in an apparatus operating system including an apparatus operating device and a biological information analysis server, and the device operating device is self or another device operating device. A biological information input step for inputting biological information for operating any of the devices to be controlled, a biological information processing step for generating biological information data including the content of the input biological information, and the biological information data A first communication step for transmitting a command transmitted from the biological information analysis server and receiving a command transmitted from the biological information analysis server, and a device to be controlled by itself so that an operation in response to the received command is executed The biological information analysis server receives the biological information data and receives the command. Based on the content of the 2nd communication step to transmit, the analysis step which analyzes the received biometric information data, and the biometric information recognized by analyzing the biometric information data, the command content and the operation target device are determined. Generating a command corresponding to the determined command content, and transmitting the generated command to the device operating device whose control target is the operation target device in the second communication step; A command generation step.

また、本発明の一態様としてのプログラムは、コンピュータに、自己または他の機器操作装置が制御対象とする機器のいずれかを操作するための生体情報を入力する生体情報入力ステップと、入力された生体情報の内容を含む生体情報データを生成する生体情報処理ステップと、前記生体情報データを生体情報解析サーバに送信するとともに、前記生体情報解析サーバから送信されたコマンドを受信する通信ステップと、受信したコマンドに応答した動作が実行されるように自己が制御対象とする機器を制御する機器制御ステップとを実行させるためのものである。   In addition, a program as one embodiment of the present invention is input to a computer with a biometric information input step for inputting biometric information for operating either a device to be controlled by itself or another device operating device. A biological information processing step for generating biological information data including the content of the biological information, a communication step for transmitting the biological information data to the biological information analysis server, and receiving a command transmitted from the biological information analysis server; And a device control step for controlling a device to be controlled by itself so that an operation in response to the command is executed.

また、本発明の一態様としてのプログラムは、コンピュータに、機器操作装置が入力した生体情報に基づいて生成した生体情報データを前記機器操作装置から受信するとともに、コマンドを送信する通信ステップと、受信した生体情報データを解析する解析ステップと、前記生体情報データを解析することにより認識された生体情報の内容に基づいて、コマンド内容と操作対象機器を判定するコマンド判定ステップと、判定されたコマンド内容に応じた前記コマンドを生成し、生成した前記コマンドを、前記操作対象機器を制御対象とする前記機器操作装置に対して前記通信ステップにより送信させるコマンド生成ステップとを実行させるためのものである。   According to another aspect of the present invention, there is provided a program for receiving, from a device operating device, biological information data generated based on biological information input by the device operating device, and transmitting a command to the computer. An analysis step of analyzing the biometric information data, a command determination step of determining the command content and the operation target device based on the content of the biometric information recognized by analyzing the biometric information data, and the determined command content The command is generated in accordance with the command, and the generated command is transmitted to the device operating device whose control target is the operation target device through the communication step.

本発明によれば、ユーザがこれまでに行っていた作業を中断することなく、音声によって的確に機器の遠隔制御が行えるという効果が得られる。   According to the present invention, there is an effect that it is possible to perform remote control of a device accurately by voice without interrupting the work that the user has been doing so far.

本発明の第1の実施形態における機器操作システムの構成例を示す図である。It is a figure which shows the structural example of the apparatus operating system in the 1st Embodiment of this invention. 第1の実施形態における機器操作装置の構成例を示す図である。It is a figure which shows the structural example of the apparatus operating device in 1st Embodiment. 本実施形態における音声解析サーバ、ジェスチャ解析サーバの構成例を示す図である。It is a figure which shows the structural example of the audio | voice analysis server in this embodiment, and a gesture analysis server. 第1の実施形態における機器管理情報の内容例を示す図である。It is a figure which shows the example of the content of the apparatus management information in 1st Embodiment. 第1の実施形態におけるコマンド管理情報の内容例を示す図である。It is a figure which shows the example of the content of the command management information in 1st Embodiment. 第1の実施形態の機器操作装置における音声情報処理部が実行する処理手順例を示す図である。It is a figure which shows the example of a process sequence which the audio | voice information processing part in the apparatus operating device of 1st Embodiment performs. 第1の実施形態の機器操作装置における音声情報処理部が実行する処理手順の変形例を示す図である。It is a figure which shows the modification of the process sequence which the audio | voice information processing part in the apparatus operating device of 1st Embodiment performs. 第1の実施形態における音声解析サーバが実行する処理手順例を示す図である。It is a figure which shows the example of a process sequence which the audio | voice analysis server in 1st Embodiment performs. 第2の実施形態における機器操作システムの構成例を示す図である。It is a figure which shows the structural example of the apparatus operation system in 2nd Embodiment. 第2の実施形態における機器のグループ管理を説明するための図である。It is a figure for demonstrating the group management of the apparatus in 2nd Embodiment. 第3の実施形態における機器操作システムの構成例を示す図である。It is a figure which shows the structural example of the apparatus operation system in 3rd Embodiment. 第4の実施形態における機器操作装置の構成例を示す図である。It is a figure which shows the structural example of the apparatus operating device in 4th Embodiment. 第4の実施形態における機器操作装置の変形例を示す図である。It is a figure which shows the modification of the apparatus operating device in 4th Embodiment.

[第1の実施形態]
図1は、本発明における第1の実施形態としての機器操作システムの構成例を示している。この図に示す機器操作システムは、家屋1におけるエアコンディショナ100−1、テレビジョン受像機100−2、機器操作装置200−1、200−2およびルータ300を備える。また、機器操作システムは、音声解析サーバ(生体情報解析サーバ)400を備える。
[First Embodiment]
FIG. 1 shows a configuration example of a device operation system as a first embodiment of the present invention. The device operation system shown in this figure includes an air conditioner 100-1, a television receiver 100-2, device operation devices 200-1 and 200-2, and a router 300 in a house 1. The device operation system also includes a voice analysis server (biological information analysis server) 400.

エアコンディショナ100−1は、家屋1において備えられる家電機器であり、本実施形態の機器操作システムにおいて操作対象機器の1となるものである。テレビジョン受像機100−2も、家屋1において備えられる家電機器であり、本実施形態の機器操作システムにおいて操作対象機器となるものの1つである。
なお、以降において、エアコンディショナ100−1とテレビジョン受像機100−2とについて特に区別しない場合には、機器100と記載する。
The air conditioner 100-1 is a home appliance provided in the house 1, and is one of the operation target devices in the device operation system of the present embodiment. The television receiver 100-2 is also a home electric appliance provided in the house 1, and is one of the devices to be operated in the device operation system of the present embodiment.
Hereinafter, the air conditioner 100-1 and the television receiver 100-2 will be referred to as the device 100 unless otherwise distinguished.

機器操作装置200−1は、エアコンディショナ100−1を操作するための装置であり、エアコンディショナ100−1と所定方式のインターフェースを介して接続されている。また、機器操作装置200−1は、ルータ300からインターネットなどのネットワークを経由して音声解析サーバ400と通信可能に接続される。   The device operating device 200-1 is a device for operating the air conditioner 100-1, and is connected to the air conditioner 100-1 via a predetermined interface. The device operating device 200-1 is connected to the voice analysis server 400 via a network such as the Internet from the router 300 so as to be communicable.

また、機器操作装置200−2は、テレビジョン受像機100−2を操作するための装置であり、テレビジョン受像機100−2と所定方式のインターフェースを介して接続されている。また、機器操作装置200−1は、ルータ300からネットワークを経由して音声解析サーバ400と通信可能に接続される。
なお、以降において、機器操作装置200−1と200−2とで特に区別しない場合には、機器操作装置200と記載する。
The device operating device 200-2 is a device for operating the television receiver 100-2, and is connected to the television receiver 100-2 via a predetermined interface. In addition, the device operating device 200-1 is connected to the voice analysis server 400 so as to be communicable from the router 300 via the network.
Hereinafter, the device operation devices 200-1 and 200-2 are referred to as device operation devices 200 unless otherwise distinguished.

ルータ300は、家屋1内の機器操作装置200と音声解析サーバ400をネットワーク経由で通信可能とするための中継器である。   The router 300 is a relay for enabling the device operating device 200 in the house 1 and the voice analysis server 400 to communicate via a network.

音声解析サーバ400は、操作対象の機器100を遠隔操作するために、機器操作装置200からルータ300経由で受信した音声情報データをコマンドコードに変換して、操作対象の機器100に接続された機器操作装置200に対して送信する。   The voice analysis server 400 converts voice information data received from the device operation device 200 via the router 300 into a command code and remotely connects the operation target device 100 to a device connected to the operation target device 100. It transmits with respect to the operating device 200.

同じ図1を参照して、第1の実施形態の情報処理システムにおける機器100に対する遠隔操作のための動作例について説明する。
ここで、家屋1のユーザ2は、エアコンディショナ100−1の温度を28度に変更したいと思っているものとする。そこで、ユーザ2は、例えば「28度。」と声を発する。
機器操作装置200−1と200−2は、周囲音を収音するマイクロフォンを備えている。上記のようにユーザ2から発せられた発話音声(生体情報)は、機器操作装置200−1と200−2のうち、ユーザ2の近くに位置している側が備えるマイクロフォンにより収音される。あるいは、機器操作装置200−1と200−2とユーザ2の距離に大きな差が無いような場合には、機器操作装置200−1と200−2の両方のマイクロフォンにより発話音声が収音される。
With reference to the same FIG. 1, the operation example for the remote operation with respect to the apparatus 100 in the information processing system of 1st Embodiment is demonstrated.
Here, it is assumed that the user 2 of the house 1 wants to change the temperature of the air conditioner 100-1 to 28 degrees. Therefore, the user 2 speaks, for example, “28 degrees”.
The device operating devices 200-1 and 200-2 include microphones that collect ambient sounds. Speech speech (biological information) uttered from the user 2 as described above is collected by a microphone provided on the side of the device operating devices 200-1 and 200-2 located near the user 2. Alternatively, when there is no great difference in the distance between the device operation devices 200-1 and 200-2 and the user 2, the uttered voice is collected by the microphones of both the device operation devices 200-1 and 200-2. .

発話音声を収音した機器操作装置200は、収音した音声信号について例えば所定形式の圧縮音声信号に変換するとともにメタデータを付加することで、音声情報データ(生体情報データ)を生成する。なお、メタデータとしては、例えば、その機器操作装置200が備えられる家屋、部屋に対応する識別子などとなる。これらの情報は、例えば、ユーザの操作などによって機器操作装置200に記憶されている。   The device operating device 200 that picks up the uttered voice generates voice information data (biological information data) by converting the collected voice signal into, for example, a compressed voice signal of a predetermined format and adding metadata. The metadata is, for example, an identifier corresponding to a house or room in which the device operating device 200 is provided. Such information is memorize | stored in the apparatus operating device 200 by user operation etc., for example.

音声解析サーバ400は、受信した音声情報データを解析することで、この音声情報データが含む音声信号における発話音声の成分について音声認識を行う。これにより、発話音声の内容が認識される。そして、この発話内容の認識結果を利用して、音声解析サーバ400は、発話内容が示す操作対象機器とコマンド内容とを判定する。この場合、発話内容は「28度。」であるので、音声解析サーバ400は、操作対象機器がエアコンディショナ100−1であると判定し、コマンド内容が設定温度を28度にすることであると判定する。このように、コマンド内容とは、発話により指示された操作の内容のことである。
音声解析サーバ400は、判定したコマンド内容に応じたコマンドコードを生成し、このコマンドコードを、同じく判定した操作対象機器に接続される機器操作装置200を送信先として指定して送信する。具体的に、この場合の音声解析サーバ400は、設定温度を28度とすることを指示するコマンドコードを、エアコンディショナ100−1に接続された機器操作装置200−1を送信先として指定して送信する。
The voice analysis server 400 analyzes the received voice information data to perform voice recognition on the component of the uttered voice in the voice signal included in the voice information data. Thereby, the content of the uttered voice is recognized. Then, using the utterance content recognition result, the voice analysis server 400 determines the operation target device and the command content indicated by the utterance content. In this case, since the utterance content is “28 degrees”, the voice analysis server 400 determines that the operation target device is the air conditioner 100-1, and the command content is to set the set temperature to 28 degrees. Is determined. Thus, the command content is the content of the operation instructed by the utterance.
The voice analysis server 400 generates a command code corresponding to the determined command content, and transmits the command code by designating the device operating device 200 connected to the determined operation target device as a transmission destination. Specifically, the voice analysis server 400 in this case designates a command code for instructing to set the set temperature at 28 degrees as the transmission destination of the device operating device 200-1 connected to the air conditioner 100-1. To send.

機器操作装置200−1は、受信したコマンドコードをエアコンディショナ100−1に送信する。エアコンディショナ100−1は、このコマンドコードの受信に応答して設定温度を28度に変更する。
本実施形態では、このように、ユーザが音声を発して指示を行うことにより機器100を遠隔操作することができる。本実施形態において、機器操作装置200は、家屋1において対応の機器100とともに固定的に配置された状態でユーザの発話音声を収音する。つまり、ユーザ2は、家屋1において操作のための音声を単に発話すればよく、携帯電話を改めて持つようなことをしなくともよい。これにより、ユーザ2は、エアコンディショナ100−1を操作するにあたり、それまでに行っていた作業を中断する必要が無い。
The device operating device 200-1 transmits the received command code to the air conditioner 100-1. In response to receiving this command code, the air conditioner 100-1 changes the set temperature to 28 degrees.
In the present embodiment, as described above, the user can remotely operate the device 100 by giving a voice and giving an instruction. In the present embodiment, the device operating device 200 collects a user's uttered voice in a state where the device operating device 200 is fixedly disposed with the corresponding device 100 in the house 1. That is, the user 2 only has to speak the voice for operation in the house 1 and does not have to hold the mobile phone again. Thereby, when operating the air conditioner 100-1, the user 2 does not need to interrupt the work which has been performed so far.

図2は、第1の実施形態における機器操作装置200の構成例を示している。この図に示す機器操作装置200は、マイクロフォン(生体情報入力部)210、音声情報処理部(生体情報処理部)220、通信部230および機器制御部240を備える。   FIG. 2 shows a configuration example of the device operating device 200 in the first embodiment. The device operating device 200 shown in this figure includes a microphone (biological information input unit) 210, a voice information processing unit (biological information processing unit) 220, a communication unit 230, and a device control unit 240.

マイクロフォン210は、周囲の音声を収音する。つまり、マイクロフォン210は、自己または他の機器操作装置200が制御対象とする操作対象機器のいずれかを操作するための生体情報として音声を入力する。   The microphone 210 picks up surrounding sounds. That is, the microphone 210 inputs sound as biometric information for operating either the operation target device that is controlled by itself or another device operation device 200.

音声情報処理部220は、マイクロフォン210により収音(入力)された音声(生体情報)の内容を含む音声情報データ(生体情報データ)を生成する。また、音声情報処理部220は、予め定められた所定の操作開始予告信号を入力した後における一定時間内に入力した生体情報に基づいて前記生体情報データを生成する。   The voice information processing unit 220 generates voice information data (biological information data) including the content of voice (biological information) collected (input) by the microphone 210. The voice information processing unit 220 generates the biological information data based on the biological information input within a predetermined time after inputting a predetermined operation start notice signal.

音声情報処理部220は、発話音声成分抽出部221、形式変換部222、メタデータ記憶部223および音声情報データ生成部224を備える。
マイクロフォン210が収音した音声には、発話音声以外の周囲音も含まれている。発話音声成分抽出部221は、マイクロフォン210により収音された音声信号から発話音声を抽出する。この抽出にあたって、発話音声成分抽出部221は、例えば発話音声に特有の周波数特性の情報などを利用して音声信号をフィルタリングする。
形式変換部222は、抽出された発話音声成分の音声信号について、例えば圧縮符号化などを施して所定形式の音声データに変換する。
メタデータ記憶部223は、例えば機器操作装置200を識別するための機器操作操装置IDや、機器操作装置200が配置されている家屋や部屋に対応するグループIDなどをはじめとする所定のメタデータを記憶する。
音声情報データ生成部224は、形式変換部222による変換後の音声データに対してメタデータ記憶部223から読み出したメタデータを付加することにより、音声情報データを生成する。
The voice information processing unit 220 includes an utterance voice component extraction unit 221, a format conversion unit 222, a metadata storage unit 223, and a voice information data generation unit 224.
The sound collected by the microphone 210 includes ambient sounds other than the speech sound. The uttered voice component extraction unit 221 extracts the uttered voice from the voice signal collected by the microphone 210. In this extraction, the utterance voice component extraction unit 221 filters the voice signal using, for example, information on frequency characteristics unique to the utterance voice.
The format conversion unit 222 converts the extracted speech signal of the speech component into speech data of a predetermined format, for example, by performing compression encoding.
The metadata storage unit 223 is, for example, predetermined metadata including a device operation device ID for identifying the device operation device 200, a group ID corresponding to a house or a room where the device operation device 200 is disposed, and the like. Remember.
The audio information data generation unit 224 generates audio information data by adding the metadata read from the metadata storage unit 223 to the audio data converted by the format conversion unit 222.

機器操作装置200において、通信部(第1の通信部)230は、音声情報データ生成部224により生成された音声情報データを、この図では示していないルータ300からネットワークを経由して音声解析サーバ400に対して送信する。また、通信部230は、音声解析サーバ400から送信されたコマンドコードを受信する。   In the device operating device 200, the communication unit (first communication unit) 230 transmits the voice information data generated by the voice information data generation unit 224 from the router 300 (not shown in this figure) via the network to the voice analysis server. 400 is transmitted. Further, the communication unit 230 receives the command code transmitted from the voice analysis server 400.

機器制御部240は、通信部230により受信されたコマンドコードにしたがって、自己と接続された制御対象の機器100を制御する。例えば機器制御部240は、通信部230にて受信されたコマンドコードを、必要に応じて機器100に適合する形式に変換して機器100に送信する。機器100は、機器制御部240から受信したコマンドコードに応答した動作を実行する。   The device control unit 240 controls the device 100 to be controlled connected to the device control unit 240 according to the command code received by the communication unit 230. For example, the device control unit 240 converts the command code received by the communication unit 230 into a format suitable for the device 100 as necessary, and transmits the converted code to the device 100. The device 100 executes an operation in response to the command code received from the device control unit 240.

図3は、音声解析サーバ400の構成例を示している。この図に示す音声解析サーバ400は、重複受信対応処理部410、解析部420、コマンド判定部430、コマンド生成部440、機器管理情報450、コマンド管理情報460および通信部470(第2の通信部)を備える。   FIG. 3 shows a configuration example of the voice analysis server 400. The voice analysis server 400 shown in this figure includes a duplicate reception handling processing unit 410, an analysis unit 420, a command determination unit 430, a command generation unit 440, device management information 450, command management information 460, and a communication unit 470 (second communication unit). ).

本実施形態では、同じ部屋に設置される複数の機器操作装置200にて同じ発話音声を収音して同じ内容の音声情報データを送信する可能性がある。この場合において、音声解析サーバ400側で同じ音声情報データを複数回処理することは処理負荷を増加させる。また、同じ操作指示内容の音声情報データに基づいて同じコマンドが送信されてしまうと、機器100の動作もユーザの意図に沿わなくなるなど、安定した遠隔操作の阻害要因となる可能性がある。
上記のような不具合回避のために、重複受信対応処理部410は、複数の機器操作装置200から同じ発話音声の音声情報データを受信した場合に、1つの音声情報データのみを遠隔操作に利用すべきものとして選別する。
このために、重複受信対応処理部410は、今回受信された音声情報データ(生体情報データ)と、過去の一定時間内に通信部470により受信された音声情報データを比較した結果が一致している場合、今回受信された音声情報データを破棄する。
In the present embodiment, there is a possibility that a plurality of device operation devices 200 installed in the same room pick up the same uttered voice and transmit voice information data having the same content. In this case, processing the same voice information data a plurality of times on the voice analysis server 400 side increases the processing load. In addition, if the same command is transmitted based on the voice information data having the same operation instruction content, there is a possibility that the operation of the device 100 may be a hindrance to stable remote operation such that the operation of the device 100 does not conform to the user's intention.
In order to avoid the problems as described above, the duplicate reception handling processing unit 410 should use only one voice information data for remote operation when receiving voice information data of the same utterance voice from a plurality of device operation devices 200. Sort as kimono.
For this reason, the duplicate reception handling processing unit 410 matches the result of comparing the voice information data (biological information data) received this time with the voice information data received by the communication unit 470 within a certain past time. If so, the audio information data received this time is discarded.

解析部420は、通信部470にて受信された音声情報データについて解析を行う。解析部420は、解析結果として、音声情報データに含まれる発話音声の内容とメタデータの内容を認識する。   The analysis unit 420 analyzes the voice information data received by the communication unit 470. The analysis unit 420 recognizes the content of the uttered speech and the content of the metadata included in the speech information data as the analysis result.

コマンド判定部430は、解析部420により認識された発話音声の内容に基づき、ユーザ2が意図する操作に応じたコマンド内容と操作対象機器を判定する。この際、コマンド判定部430は、機器管理情報450とコマンド管理情報460とを利用する。   The command determination unit 430 determines the command content and the operation target device according to the operation intended by the user 2 based on the content of the uttered voice recognized by the analysis unit 420. At this time, the command determination unit 430 uses the device management information 450 and the command management information 460.

コマンド生成部440は、コマンド判定部430により判定されたコマンド内容のコマンドコード(コマンド)を生成する。そして、コマンド生成部440は、生成したコマンドコードを、判定された操作対象機器に接続される機器操作装置200を送信先として指定して通信部470に送信させる。   The command generation unit 440 generates a command code (command) of the command content determined by the command determination unit 430. Then, the command generation unit 440 causes the communication unit 470 to transmit the generated command code, specifying the device operating device 200 connected to the determined operation target device as a transmission destination.

通信部470は、機器操作装置200から送信された音声情報データを受信する。また、コマンド生成部440により生成されたコマンドコードを機器操作装置200に対して送信する。   The communication unit 470 receives the audio information data transmitted from the device operating device 200. Further, the command code generated by the command generation unit 440 is transmitted to the device operating device 200.

図4は、音声解析サーバ400が記憶する機器管理情報450の構造例を示している。機器管理情報450は、機器100を一意に識別する機器IDに対して、機種ID、機器操作装置ID、機器操作装置アドレス、メイングループIDおよびサブグループIDを対応付けた構造を有する。   FIG. 4 shows an example of the structure of the device management information 450 stored in the voice analysis server 400. The device management information 450 has a structure in which a device ID that uniquely identifies the device 100 is associated with a model ID, a device operation device ID, a device operation device address, a main group ID, and a sub group ID.

機器IDは、機器100を一意に識別する識別子である。
機種IDは、対応付けされた機器IDの機器100についての機種を一意に特定する識別子である。
機器操作装置IDは、対応付けされた機器IDの機器100に接続される機器操作装置200を一意に識別する識別子である。
機器操作装置アドレスは、ネットワーク上で機器操作装置200に割り当てられたアドレス(IPアドレス)を示す。
The device ID is an identifier that uniquely identifies the device 100.
The model ID is an identifier that uniquely identifies the model of the device 100 having the associated device ID.
The device operation device ID is an identifier for uniquely identifying the device operation device 200 connected to the device 100 having the associated device ID.
The device operating device address indicates an address (IP address) assigned to the device operating device 200 on the network.

メイングループIDは、対応付けされた機器IDの機器100が属するメイングループを一意に識別する識別子である。なお、メイングループは、例えば、家屋あるいは家族ごとに対応する。つまり、同じメイングループIDに対応付けられる機器IDの機器100は、同じ家屋に設置されていることを示す。
サブグループIDは、対応付けされた機器IDの機器100が属するサブグループを一意に識別する識別子である。なお、サブグループは、例えば、家屋(あるいは家族)における部屋ごとに対応する。つまり、同じサブグループIDに対応付けられる機器IDの機器100は、同じ部屋に設置されていることを示す。
The main group ID is an identifier that uniquely identifies the main group to which the device 100 having the associated device ID belongs. The main group corresponds to each house or family, for example. That is, the device 100 having the device ID associated with the same main group ID is installed in the same house.
The subgroup ID is an identifier that uniquely identifies the subgroup to which the device 100 having the associated device ID belongs. In addition, a subgroup respond | corresponds for every room in a house (or family), for example. That is, the device 100 having the device ID associated with the same subgroup ID is installed in the same room.

図5は、コマンド管理情報460の構造例を示している。コマンド管理情報460は、同図に示すように、機種IDとコマンドセットとを対応付けた情報である。コマンドコードは、機器100の機種ごとに異なるセットを有する。1つのコマンドセットは、コマンドコードとコマンド内容と発話音声内容とを対応付けた構造を有する。   FIG. 5 shows a structural example of the command management information 460. The command management information 460 is information in which a model ID and a command set are associated as shown in FIG. The command code has a different set for each model of the device 100. One command set has a structure in which a command code, command content, and speech voice content are associated with each other.

コマンド判定部430は、例えば、認識された発話音声内容に対応付けられたコマンド内容をコマンド管理情報460から検索することにより、コマンド内容を判定する。また、コマンド判定部430は、判定したコマンドコードに対応付けられている機種IDをコマンド管理情報460から認識し、さらに認識した機種IDに対応付けられている機器IDを機器管理情報450から認識する。コマンド判定部430は、このように認識した機器IDを、制御対象機器として判定する。   The command determination unit 430 determines the command content by searching the command management information 460 for the command content associated with the recognized utterance voice content, for example. Further, the command determination unit 430 recognizes the model ID associated with the determined command code from the command management information 460, and further recognizes the device ID associated with the recognized model ID from the device management information 450. . The command determination unit 430 determines the device ID recognized in this way as a control target device.

具体的に、発話音声内容が「28度」というものであると認識された場合、コマンド判定部430は、コマンド管理情報460から、この「28度」の発話音声内容を含むコマンドセットを検索する。コマンド判定部430は、この検索したコマンドセットに含まれるコマンド内容を認識する。また、コマンド判定部430は、コマンド管理情報460において検索したコマンドセットに対応付けられている機種IDを認識する。この場合には、エアコンディショナ100−1の機種の機種IDが認識される。
次に、コマンド判定部430は、認識した機種IDと、受信した音声情報データのメタデータに含まれていた機器操作装置IDを含むレコードを機器管理情報450から検索し、このレコードにおける機器IDを操作対象機器として認識する。具体的に、この場合のコマンド判定部430は、エアコンディショナ100−1の機器IDを認識する。
コマンド判定部430は、このように認識したコマンド内容と機器IDを判定結果とする。
Specifically, when it is recognized that the utterance voice content is “28 degrees”, the command determination unit 430 searches the command management information 460 for a command set including the “28 degrees” utterance voice content. . The command determination unit 430 recognizes the command content included in the searched command set. In addition, the command determination unit 430 recognizes the model ID associated with the command set searched in the command management information 460. In this case, the model ID of the model of the air conditioner 100-1 is recognized.
Next, the command determination unit 430 searches the device management information 450 for a record including the recognized model ID and the device operating device ID included in the received audio information data metadata, and determines the device ID in this record. Recognized as an operation target device. Specifically, the command determination unit 430 in this case recognizes the device ID of the air conditioner 100-1.
The command determination unit 430 uses the command content and the device ID recognized as described above as the determination result.

コマンド生成部440は、コマンド判定部430により判定されたコマンド内容に対応するコマンドコードをコマンド管理情報460から認識し、この認識したコマンドコードを生成する。   The command generation unit 440 recognizes a command code corresponding to the command content determined by the command determination unit 430 from the command management information 460, and generates the recognized command code.

図6フローチャートは、機器操作装置200における音声情報処理部220が実行する処理手順例を示している。
発話音声成分抽出部221は、マイクロフォン210から入力される音声信号から発話音声成分を抽出するための処理を実行しながら、発話音声成分が抽出されるのを待機している(ステップS101−NO)。そして、発話音声成分が抽出されると(ステップS101−YES)、形式変換部222は、抽出された発話音声成分の音声信号を所定形式の音声データに変換する(ステップS102)。
次に、音声情報データ生成部224は、ステップS102による変換後の音声データにメタデータを付加するなどして音声情報データを生成し(ステップS103)、この生成した音声情報データを通信部230により音声解析サーバ400へ送信させる(ステップS104)。
The flowchart in FIG. 6 illustrates an example of a processing procedure executed by the voice information processing unit 220 in the device operation apparatus 200.
The uttered voice component extraction unit 221 waits for the uttered voice component to be extracted while executing processing for extracting the uttered voice component from the voice signal input from the microphone 210 (step S101—NO). . When the utterance voice component is extracted (step S101—YES), the format conversion unit 222 converts the extracted voice signal of the utterance voice component into voice data of a predetermined format (step S102).
Next, the audio information data generation unit 224 generates audio information data by adding metadata to the audio data after the conversion in step S102 (step S103), and the generated audio information data is transmitted by the communication unit 230. It is transmitted to the voice analysis server 400 (step S104).

図7のフローチャートは、音声情報処理部220が実行する処理手順の変形例を示している。
この変形例では、ユーザ2は、遠隔操作のための音声を発する前のタイミングで、操作開始を予告する操作開始予告情報を機器操作装置200に入力する。具体例として、ユーザ2は、操作開始情報の入力として、手を叩いて音を出すようにする。機器操作装置200のマイクロフォン210はこの手を叩いた音を入力する。発話音声成分抽出部221は、発話音声に加えて、この手を叩いた音の成分についても抽出する。
The flowchart of FIG. 7 shows a modification of the processing procedure executed by the voice information processing unit 220.
In this modification, the user 2 inputs operation start notice information for notifying the start of operation to the device operation device 200 at a timing before sounding a sound for remote operation. As a specific example, the user 2 makes a sound by hitting his hand as input of operation start information. The microphone 210 of the device operating device 200 inputs the sound of hitting this hand. The utterance voice component extraction unit 221 extracts not only the utterance voice but also the component of the sound of clapping the hand.

発話音声成分抽出部221は、マイクロフォン210から入力される音声信号から手を叩いた音の成分を抽出する処理を実行しながら、この手を叩いた音の成分が抽出されるのを待機している。つまり、発話音声成分抽出部221は、操作開始予告情報が入力されるのを待機している(ステップS201−NO)。   The speech component extraction unit 221 performs a process of extracting a sound component of the clapping hand from the sound signal input from the microphone 210 and waits for the component of the sound of the clapping hand to be extracted. Yes. That is, the utterance voice component extraction unit 221 is on standby for input of operation start advance notice information (step S201—NO).

そして、発話音声成分抽出部221は、操作開始予告情報が入力されるのに応じて(ステップS201−YES)、この操作開始予告情報が入力されたタイミングから一定時間が経過するまでの間に(ステップS202−NO)、発話音声成分が抽出されるのを待機している(ステップS203−NO)。   Then, in response to the input of the operation start advance notice information (step S201-YES), the utterance voice component extraction unit 221 starts from the timing when the operation start advance notice information is input until a predetermined time elapses ( Step S202—NO), waiting for the speech component to be extracted (step S203—NO).

発話音声成分が抽出されないまま一定時間が経過した場合(ステップS202−YES)、発話音声成分抽出部221は、ステップS101に戻る。
これに対して、一定時間が経過するまでの間に発話音声が抽出された場合は(ステップS203−YES)、ステップS204からS206の処理が実行される。ステップS204からS206の処理は、図6のステップS102からS104と同様である。
When a certain period of time has passed without extracting the speech component (step S202—YES), the speech component extraction unit 221 returns to step S101.
On the other hand, when the utterance voice is extracted before the predetermined time elapses (step S203—YES), the processing from step S204 to S206 is executed. The processing in steps S204 to S206 is the same as that in steps S102 to S104 in FIG.

例えば、家屋1においてテレビジョン受像機100−2から番組の音声が出力されていたり、ユーザ2以外の人が存在しているような状況を考えた場合、マイクロフォン210が収音する発話音声成分は、遠隔操作のためのものであるとは限らない。
そこで、変形例におけるユーザ2は、遠隔操作のための行為として、まず操作開始予告のために手を叩き、それから一定時間後に操作のための発話音声を発するようにする。図7の処理によれば、音声情報処理部220は、操作開始予告として手を叩いてから一定時間後に発せられた発話音声のみを、音声情報データとして生成して音声解析サーバ400に送信することができる。これにより、操作目的以外で発せられた発話音声を音声情報データであると誤認して遠隔操作のための処理を実行してしまう可能性が低くなる。なお、操作開始予告として、手を叩く以外に、例えば、チャイムやベルなどを鳴らすようにしてもよい。また、特定の機器にある特定のボタンを押すもしくは、特定の言葉、例えば「操作開始」等の発言を操作開始予告としてもよい。
For example, in the case where the sound of a program is output from the television receiver 100-2 in the house 1 or there is a person other than the user 2, the speech sound component collected by the microphone 210 is It is not necessarily for remote operation.
Therefore, the user 2 in the modification first taps his hand for an operation start notice as an action for remote operation, and then utters a speech voice for operation after a certain time. According to the processing in FIG. 7, the voice information processing unit 220 generates only voice speech uttered after a predetermined time from hitting a hand as an operation start notice as voice information data and transmits it to the voice analysis server 400. Can do. As a result, the possibility that the uttered voice uttered for other than the operation purpose is mistakenly recognized as the voice information data and the process for the remote operation is executed is reduced. In addition, as an operation start notice, for example, a chime or a bell may be sounded in addition to clapping. Alternatively, a specific button on a specific device may be pressed, or a specific word, for example, an “operation start” message may be used as the operation start notification.

図8は、音声解析サーバ400が実行する処理手順例を示している。まず、通信部470は、機器操作装置200から音声情報データが送信されるのに応じて、この音声情報データを受信する(ステップS301)。   FIG. 8 shows an example of a processing procedure executed by the voice analysis server 400. First, the communication unit 470 receives the voice information data in response to the voice information data being transmitted from the device operating device 200 (step S301).

重複受信対応処理部410は、ステップS301により今回受信された音声情報データと、この今回の音声情報データの受信タイミングから過去の一定時間以内に受信された音声情報データの内容を比較する(ステップS302)。このとき、重複受信対応処理部410は、例えば音声情報データ情報のビット配列パターンを比較すればよい。また、一定時間については、機器操作装置200が音声を入力して音声情報データを生成するまでの処理時間の誤差などを考慮して、例えば3秒程度に設定される。
そして、重複受信対応処理部410は、ステップS302による比較結果に基づき、今回の音声情報データと過去の一定時間以内に受信された音声情報データとで一致したものがあるか否かについて判定する(ステップS303)。
The duplicate reception handling processing unit 410 compares the audio information data received this time in step S301 with the contents of the audio information data received within a certain past time from the reception timing of the current audio information data (step S302). ). At this time, the duplicate reception handling processing unit 410 may compare the bit arrangement patterns of the audio information data information, for example. The fixed time is set to, for example, about 3 seconds in consideration of an error in processing time until the device operating device 200 inputs sound and generates sound information data.
Then, the duplicate reception handling processing unit 410 determines whether or not there is a match between the current voice information data and the voice information data received within a certain past time based on the comparison result in step S302 ( Step S303).

一致したものがあると判定した場合(ステップS303―YES)、重複受信対応処理部410は、今回受信された音声情報データを破棄する(ステップS315)。
する(ステップS303)。
これに対して、一致したものがないと判定した場合(ステップS303−NO)、解析部420は、今回受信した音声情報データを解析する(ステップS304)。この解析の結果に基づき、解析部420は、音声情報データに含まれる音声データについて、発話音声であるか否かを判定する(ステップS305)。発話音声ではないと判定した場合(ステップS305−NO)、解析部420は、今回受信された音声情報データを破棄する(ステップS315)。
なお、コマンド判定部430は、発話音声であると判定した場合に(ステップS305−YES)、その発話音声の内容を認識する。また、解析部420は、解析の結果として、音声情報データに含まれるメタデータの内容を認識する。
If it is determined that there is a match (step S303—YES), the duplicate reception handling processing unit 410 discards the audio information data received this time (step S315).
(Step S303).
On the other hand, when it is determined that there is no match (NO in step S303), the analysis unit 420 analyzes the voice information data received this time (step S304). Based on the result of this analysis, the analysis unit 420 determines whether or not the voice data included in the voice information data is an uttered voice (step S305). If it is determined that the voice is not an uttered voice (step S305—NO), the analysis unit 420 discards the voice information data received this time (step S315).
Note that if the command determination unit 430 determines that the voice is an utterance (step S305—YES), the command determination unit 430 recognizes the content of the utterance. Further, the analysis unit 420 recognizes the content of metadata included in the audio information data as a result of the analysis.

発話音声であると判定した場合(ステップS305−YES)、解析部420によっては、音声情報データに含まれていた発話音声とメタデータの内容が認識されている。そこで、この場合のコマンド判定部430は、解析部420の認識結果を利用して、前述のように、コマンド内容と操作対象機器を判定する(ステップS306)。
ただし、ユーザが操作とは関係の無い内容を発話して、この発話音声の音声情報データが送信されたような場合には、機器管理情報450から音声情報データの発話音声に該当するコマンドセットを検索することができない。このような場合のあることに応じて、コマンド判定部430は、判定結果として、認識された発話音声内容に対応するコマンドセットがコマンド管理情報460から検索されたか否かについて判定する(ステップS307)。
When it is determined that the voice is an uttered voice (YES in step S305), the analysis unit 420 recognizes the uttered voice and the content of the metadata included in the voice information data. Therefore, the command determination unit 430 in this case uses the recognition result of the analysis unit 420 to determine the command content and the operation target device as described above (step S306).
However, when the user utters content not related to the operation and the voice information data of this uttered voice is transmitted, the command set corresponding to the uttered voice of the voice information data is selected from the device management information 450. I can't search. In response to such a case, the command determination unit 430 determines whether or not a command set corresponding to the recognized speech content is retrieved from the command management information 460 as a determination result (step S307). .

コマンドセットが検索されなかった場合(ステップS307−NO)、コマンド判定部430は、今回判定対象とした音声情報データを廃棄する(ステップS315)。
一方、コマンドセットが検索された場合(ステップS307−YES)、コマンド判定部430は、操作対象機器として判定した機器100が、音声情報データ送信元の機器操作装置200が設置された家屋1に存在するか否かについて判定する(ステップS308)。
このために、コマンド判定部430は、ステップS306により判定した操作対象機器の機器IDを含む機器管理情報450のレコードにおけるメイングループIDが、受信した音声情報データのメタデータに含まれていたメイングループIDと一致しているか否かを判定する。メイングループIDは、家屋に対応するので、メイングループIDが一致していれば、音声情報データ送信元の家屋に存在していることになる。
操作対象機器が存在していないと判定した場合(ステップS308−NO)、コマンド判定部430は、今回受信した音声情報データを廃棄する(ステップS315)。
When the command set is not searched (step S307—NO), the command determination unit 430 discards the voice information data that is the current determination target (step S315).
On the other hand, when the command set is searched (step S307: YES), the command determination unit 430 indicates that the device 100 determined as the operation target device exists in the house 1 where the device operation device 200 that is the voice information data transmission source is installed. It is determined whether or not to perform (step S308).
Therefore, the command determination unit 430 determines that the main group ID included in the metadata of the received audio information data includes the main group ID in the record of the device management information 450 including the device ID of the operation target device determined in step S306. It is determined whether or not it matches the ID. Since the main group ID corresponds to the house, if the main group ID matches, the main group ID exists in the house from which the audio information data is transmitted.
When it is determined that the operation target device does not exist (step S308—NO), the command determination unit 430 discards the currently received voice information data (step S315).

一方、認識した操作対象機器が存在している場合(ステップS308−YES)、コマンド判定部430は、ステップS306により判定された操作対象機器が1つのみであるか否かについて判定する(ステップS309)。例えば、発話音声が不明瞭であったりする場合、コマンド判定部430は、ステップS306において、複数機種の操作対象機種を判定する場合がある。   On the other hand, when the recognized operation target device exists (step S308-YES), the command determination unit 430 determines whether there is only one operation target device determined in step S306 (step S309). ). For example, when the uttered voice is unclear, the command determination unit 430 may determine a plurality of operation target models in step S306.

判定された操作対象機器が複数であった場合(ステップS309−NO)、コマンド判定部430は、操作対象機器を1つに絞り込むための候補提示情報を生成し、この候補提示情報を、音声情報データ送信元の機器操作装置200に対して送信する(ステップS313)。候補提示情報は、コマンド判定部430がステップS306により判定した複数の操作対象機器を選択候補として提示する情報である。   When there are a plurality of determined operation target devices (NO in step S309), the command determination unit 430 generates candidate presentation information for narrowing down the operation target devices to one, and the candidate presentation information is converted into voice information. It transmits with respect to the apparatus operating device 200 of a data transmission origin (step S313). The candidate presentation information is information that presents a plurality of operation target devices determined by the command determination unit 430 in step S306 as selection candidates.

候補提示情報を受信した機器操作装置200は、例えば選択候補の操作対象機器の名称を提示するとともに機器の選択を促す音声を出力する。例えば、機器操作装置200は、「エアコンディショナとテレビジョン受像機が候補です。正しい装置の名前を言ってください」などのように音声出力を行う。
これを聴いたユーザは、例えば選択した操作対象機器の名称を音声で発する。機器操作装置200は、この発話音声を含む選択通知を生成し、音声解析サーバ400に対して送信する。音声解析サーバ400において、この選択通知は、重複受信対応処理部410、解析部420を介してコマンド判定部430に受け渡される。コマンド判定部430は、この選択通知が示す操作対象機器を最終的な判定結果とする(ステップS314)。
The device operating device 200 that has received the candidate presentation information, for example, presents the name of the operation target device that is a candidate for selection and outputs a sound that prompts selection of the device. For example, the device operating device 200 outputs a sound such as “air conditioner and television receiver are candidates. Please say the name of the correct device”.
The user who has heard this utters the name of the selected operation target device, for example. The device operating device 200 generates a selection notification including the uttered voice and transmits it to the voice analysis server 400. In the voice analysis server 400, the selection notification is passed to the command determination unit 430 via the duplicate reception handling processing unit 410 and the analysis unit 420. The command determination unit 430 sets the operation target device indicated by the selection notification as a final determination result (step S314).

また、コマンド判定部430は、やはり発話音声が不明瞭であったような場合に、ステップS306において複数のコマンド内容を判定してしまう場合がある。そこで、コマンド判定部430は、ステップS306により判定されたコマンド内容が1つのみであるか否かについて判定する(ステップS310)。
判定されたコマンド内容が複数であった場合(ステップS310−NO)、コマンド判定部430は、コマンド内容を1つに絞り込むための候補提示情報を生成し、この候補提示情報を、音声情報データ送信元の機器操作装置200に対して送信する(ステップS313)。この後、コマンド判定部430は、候補提示情報の送信に応じて機器操作装置200から返送された選択通知が示す操作対象機器を最終的な判定結果とする(ステップS314)。なお、ステップS306により判定されたコマンド内容が1つのみであると判定された場合には、コマンド判定部430により、最終的に各1つのコマンド内容と操作対象機器が判定されている。
In addition, the command determination unit 430 may determine the contents of a plurality of commands in step S306 when the uttered voice is still unclear. Therefore, the command determination unit 430 determines whether there is only one command content determined in step S306 (step S310).
When the determined command content is plural (step S310-NO), the command determination unit 430 generates candidate presentation information for narrowing the command content to one, and transmits this candidate presentation information as voice information data transmission. It transmits with respect to the original apparatus operating device 200 (step S313). Thereafter, the command determination unit 430 sets the operation target device indicated by the selection notification returned from the device operation apparatus 200 in response to the transmission of the candidate presentation information as a final determination result (step S314). When it is determined that there is only one command content determined in step S306, the command determination unit 430 finally determines each command content and operation target device.

このような処理によりコマンド判定部430は、最終的に各1つのコマンド内容と操作対象機器とを判定する。これに応じて、コマンド生成部440は、判定されたコマンド内容に対応付けられているコマンドコードをコマンド管理情報460におけるコマンドセットから読み出すことにより、コマンドコードを生成する(ステップS311)。そして、コマンド生成部440は、生成したコマンドコードを、判定した操作対象機器に接続された機器操作装置200に対して送信する(ステップS312)。この際、コマンド生成部440は、機器管理情報450において操作対象機器の機器IDに対応付けられている機器操作装置アドレス(IPアドレス)を読み込み、このIPアドレスを宛先として指定する。   By such processing, the command determination unit 430 finally determines the contents of each command and the operation target device. In response to this, the command generation unit 440 generates a command code by reading the command code associated with the determined command content from the command set in the command management information 460 (step S311). Then, the command generation unit 440 transmits the generated command code to the device operating device 200 connected to the determined operation target device (step S312). At this time, the command generation unit 440 reads a device operating device address (IP address) associated with the device ID of the operation target device in the device management information 450 and designates this IP address as a destination.

[第2の実施形態]
図9を参照して第2の実施形態の遠隔操作例について説明する。
図9に示す家屋1においては、2つの部屋R1とR2が示される。部屋R1には、ユーザ2が存在し、また、エアコンディショナ100−1と、このエアコンディショナ100−1と接続された機器操作装置200−1が設置される。また、部屋R2には、エアコンディショナ100−3と、このエアコンディショナ100−3と接続された機器操作装置200−3が設置される。部屋R2においてユーザは不在である。なお、第2の実施形態において、機器操作装置200と音声解析サーバ400の構成は、それぞれ、図2、図3と同様でよい。
[Second Embodiment]
A remote operation example of the second embodiment will be described with reference to FIG.
In the house 1 shown in FIG. 9, two rooms R1 and R2 are shown. In the room R1, the user 2 exists, and the air conditioner 100-1 and the device operating device 200-1 connected to the air conditioner 100-1 are installed. In the room R2, an air conditioner 100-3 and a device operating device 200-3 connected to the air conditioner 100-3 are installed. There is no user in room R2. In the second embodiment, the configurations of the device operating device 200 and the voice analysis server 400 may be the same as those in FIGS. 2 and 3, respectively.

部屋R1においてユーザ2は、遠隔操作のために、「この部屋は暑い」、「部屋R2は電源オフ」と音声を発したとする。機器操作装置200は、この発話音声の音声データの音声情報データを音声解析サーバ400に送信する。   It is assumed that the user 2 in the room R1 utters voices “This room is hot” and “The room R2 is turned off” for remote control. The device operating device 200 transmits the voice information data of the voice data of the uttered voice to the voice analysis server 400.

この音声情報データを受信した音声解析サーバ400におけるコマンド判定部430は、「この部屋は暑い」の発話音声内容とコマンド管理情報460の発話音声内容とを照合することで、コマンド内容はエアコンディショナの設定温度を現在より下げる指示であると判定する。また、コマンド判定部430は、操作対象機器が、部屋R1において備えられるエアコンディショナ100−1であると判定する。   The command determination unit 430 in the voice analysis server 400 that has received the voice information data collates the utterance voice content of “This room is hot” with the utterance voice content of the command management information 460, so that the command content is the air conditioner. It is determined that this is an instruction to lower the set temperature of the current temperature. Further, the command determination unit 430 determines that the operation target device is the air conditioner 100-1 provided in the room R1.

そして、上記のようにコマンド内容と操作対象機器を判定したのに応じて、音声解析サーバ400におけるコマンド生成部440は、エアコンディショナ100−1の設定温度を現在の設定値から所定値低下させるためのコマンドコードを生成する。そして、この生成したコマンドコードを機器操作装置200−1に送信する。
また、コマンド生成部440は、エアコンディショナ100−3の電源をオフとするためのコマンドコードを生成し、機器操作装置200−2に送信する。
これにより、部屋R1におけるエアコンディショナ100−1の設定温度が所定値低くなるように変更され、部屋R2におけるエアコンディショナ100−3は、電源をオンからオフに切り替えて動作を停止する。
Then, in response to the determination of the command content and the operation target device as described above, the command generation unit 440 in the voice analysis server 400 decreases the set temperature of the air conditioner 100-1 by a predetermined value from the current set value. Command code for Then, the generated command code is transmitted to the device operating device 200-1.
Moreover, the command generation part 440 produces | generates the command code for turning off the power supply of the air conditioner 100-3, and transmits to the apparatus operating device 200-2.
As a result, the set temperature of the air conditioner 100-1 in the room R1 is changed to be a predetermined value lower, and the air conditioner 100-3 in the room R2 stops operating by switching the power supply from on to off.

このように、第2実施形態において、ユーザ2は、自身が存在している部屋の機器100だけではなく、自身が存在していない部屋の機器100についても遠隔操作を行える。   As described above, in the second embodiment, the user 2 can remotely control not only the device 100 in the room where the user 2 exists but also the device 100 in the room where the user 2 does not exist.

このような遠隔操作を実現するために、音声解析サーバ400は、機器管理情報450におけるサブグループIDの情報を利用する。図10を参照してサブグループの概念について説明する。
図10において、家屋601には、6つの機器A、B、C、D、E、Fが設置されている。この家屋601において、部屋611−1には2つの機器A、Bが設置され、部屋611−2には2つの機器C、Dが設置される。また、機器E、Fは、例えば設置場所が特定できない携帯機器である。
また、家屋602には、6つの機器G、H、I、J、K、Lが設置されている。この家屋602において、部屋621−1には2つの機器G、Hが設置され、部屋621−2には2つの機器I、Jが設置される。また、機器K、Lは、例えば設置場所が特定できない携帯機器である。
In order to realize such remote operation, the voice analysis server 400 uses information on the subgroup ID in the device management information 450. The concept of subgroups will be described with reference to FIG.
In FIG. 10, six devices A, B, C, D, E, and F are installed in a house 601. In this house 601, two devices A and B are installed in the room 611-1 and two devices C and D are installed in the room 611-2. The devices E and F are portable devices whose installation location cannot be specified, for example.
The house 602 is provided with six devices G, H, I, J, K, and L. In this house 602, two devices G and H are installed in the room 621-1, and two devices I and J are installed in the room 621-2. The devices K and L are portable devices whose installation locations cannot be specified, for example.

家屋601にはメイングループ1が割り当てられ、家屋602にはメイングループ2が割り当てられる。このようにメイングループは、例えば家屋ごとに対応して区分されるグループである。
メイングループ1において、部屋611−1にはサブグループ1が割り当てられ、部屋611−2にはサブグループ2が割り当てられる。したがって、サブグループ1には、機器A、Bが対応付けられ、サブグループ2には機器C、Dが対応付けられる。
また、メイングループ2において、部屋621−1にはサブグループ4が割り当てられ、部屋621−2にはサブグループ5が割り当てられる。したがって、サブグループ4には、機器C、Dが対応付けられ、サブグループ5には機器I、Jが対応付けられる。
Main group 1 is assigned to house 601, and main group 2 is assigned to house 602. In this way, the main group is a group that is divided corresponding to each house, for example.
In main group 1, subgroup 1 is assigned to room 611-1 and subgroup 2 is assigned to room 611-2. Accordingly, devices A and B are associated with subgroup 1, and devices C and D are associated with subgroup 2.
In the main group 2, the sub group 4 is assigned to the room 621-1, and the sub group 5 is assigned to the room 621-2. Therefore, devices C and D are associated with subgroup 4, and devices I and J are associated with subgroup 5.

なお、サブグループは上記のように部屋ごとに対応して区分されるグループであるが、例えば、部屋611におけるサブグループ3のように、携帯用の機器Eの所有者であるユーザと、例えばこのユーザが主に使用する部屋611−1の機器Bとを含めてサブグループを設定してもよい。部屋621におけるサブグループ6も、携帯用の機器Kの所有者であるユーザと、このユーザが主に使用する部屋621−1の機器Hとを含めてサブグループを設定している。また、部屋611の機器Fと、部屋621の機器Lのように、どのサブグループにも属さない機器があってもよい。   In addition, although a subgroup is a group divided according to each room as described above, for example, a user who is the owner of the portable device E, such as the subgroup 3 in the room 611, for example, You may set a subgroup including the apparatus B of the room 611-1 which a user mainly uses. The subgroup 6 in the room 621 also sets a subgroup including the user who is the owner of the portable device K and the device H in the room 621-1 used mainly by this user. Further, there may be devices that do not belong to any subgroup, such as the device F in the room 611 and the device L in the room 621.

そして、上記のように設定されたメイングループとサブグループには、それぞれ、個々を一意に識別するメイングループIDとサブグループIDが付与される。
図10の例では、メイングループ1とメイングループ2に付与されたメイングループIDについて、それぞれ、「MG1」、「MG2」と表している。また、メイングループ1におけるサブグループ1、2、3に付与されたサブグループIDについては、それぞれ、「SG11」、「SG12」、「SG13」と表している。また、メイングループ2におけるサブグループ3、4、5に付与されたサブグループIDについては、それぞれ「SG14」、「SG15」、「SG16」と表している。
また、機器A、B、C、D、E、F、G、H、I、J、K、Lの機器IDについては、それぞれ、「A」、「B」、「C」、「D」、「E」、「F」、「G」、「H」、「I」、「J」、「K」、「L」と表している。
図4の機器管理情報450に例示した内容には、この図10に示すグループ設定が反映されている。
The main group and subgroup set as described above are assigned a main group ID and a subgroup ID that uniquely identify each individual group.
In the example of FIG. 10, the main group IDs assigned to the main group 1 and the main group 2 are represented as “MG1” and “MG2”, respectively. The subgroup IDs assigned to the subgroups 1, 2, and 3 in the main group 1 are represented as “SG11”, “SG12”, and “SG13”, respectively. Further, the subgroup IDs assigned to the subgroups 3, 4, and 5 in the main group 2 are represented as “SG14”, “SG15”, and “SG16”, respectively.
The device IDs of devices A, B, C, D, E, F, G, H, I, J, K, and L are “A”, “B”, “C”, “D”, “E”, “F”, “G”, “H”, “I”, “J”, “K”, “L”.
The content exemplified in the device management information 450 of FIG. 4 reflects the group setting shown in FIG.

なお、図示は省略するが、本実施形態の音声解析サーバ400は、設定されたメイングループIDごとに例えばユーザが登録した家屋(または家族)の名称を対応付けたメイングループ管理情報を記憶する。また、設定されたサブグループIDごとに部屋の名称を対応付けたサブグループ管理情報を記憶する。これらの情報を利用することで、本実施形態では、ユーザが部屋名を指示して行う発話音声に応答して遠隔操作を行うことが可能になる。   In addition, although illustration is abbreviate | omitted, the audio | voice analysis server 400 of this embodiment memorize | stores the main group management information which matched the name of the house (or family) which the user registered for every set main group ID, for example. Moreover, the subgroup management information which matched the name of the room for every set subgroup ID is memorize | stored. By using these pieces of information, in this embodiment, it is possible to perform a remote operation in response to an utterance voice that is performed by a user specifying a room name.

前述のように、コマンド判定部430は、「この部屋は暑い」の発話音声内容とコマンド管理情報460の発話音声内容とを照合することで、コマンド内容はエアコンディショナの設定温度を現在より下げる指示であると判定する。
また、図9により説明したようにユーザ2が音声を発したのに応じて、コマンド判定部430は、音声情報データのメタデータに含まれる機器操作装置IDを含むレコードを機器管理情報450から抽出する。この抽出されたレコードにおける機器IDとサブグループIDにより、操作対象機器がエアコンディショナ100−1であり、その設置された部屋が部屋R1であることが認識される。
As described above, the command determination unit 430 compares the utterance voice content of “This room is hot” with the utterance voice content of the command management information 460, so that the command content lowers the set temperature of the air conditioner from the current level. It is determined that it is an instruction.
Further, as described with reference to FIG. 9, in response to the user 2 uttering a voice, the command determination unit 430 extracts a record including the device operating device ID included in the metadata of the voice information data from the device management information 450. To do. From the device ID and the subgroup ID in the extracted record, it is recognized that the operation target device is the air conditioner 100-1 and the installed room is the room R1.

さらに、コマンド判定部430は、「部屋R2は電源オフ」の発話内容とコマンド管理情報460の発話音声内容とを照合することで、コマンド内容は電源のオフであると認識する。また、操作対象機器については、部屋R2におけるエアコンディショナ100−3であると認識する。この操作対象機器の認識にあたり、コマンド判定部430は、電源オフ対象の機器100が部屋R2に設置されていることを認識する必要がある。この場合には、前述のように、サブグループと部屋の名称を対応付けて管理するテーブルを参照すればよい。コマンド判定部430は、部屋R2のサブグループIDに対応付けられた機器IDを抽出することで、部屋R2に設置された操作対象がエアコンディショナ100−3であることを認識できる。   Further, the command determination unit 430 recognizes that the command content is power off by comparing the utterance content of “room R2 is powered off” with the utterance voice content of the command management information 460. The operation target device is recognized as the air conditioner 100-3 in the room R2. In recognizing the operation target device, the command determination unit 430 needs to recognize that the power-off target device 100 is installed in the room R2. In this case, as described above, a table that manages subgroups and room names in association with each other may be referred to. The command determination unit 430 can recognize that the operation target installed in the room R2 is the air conditioner 100-3 by extracting the device ID associated with the subgroup ID of the room R2.

上記のようにコマンド内容と操作対象機器を判定したのに応じて、コマンド生成部440は、エアコンディショナ100−1の温度を現在から所定値低下させるためのコマンドコードを生成し、機器操作装置200−1に送信する。
また、コマンド生成部440は、エアコンディショナ100−3の電源をオフとするためのコマンドコードを生成し、機器操作装置200−2に送信する。
これにより、部屋R1におけるエアコンディショナ100−1は設定温度を低く設定するように動作し、部屋R2におけるエアコンディショナ100−3は、電源をオンからオフに切り替えて動作を停止する。
In response to the determination of the command content and the operation target device as described above, the command generation unit 440 generates a command code for lowering the temperature of the air conditioner 100-1 by a predetermined value from the current time, and the device operation device 200-1 is transmitted.
Moreover, the command generation part 440 produces | generates the command code for turning off the power supply of the air conditioner 100-3, and transmits to the apparatus operating device 200-2.
Thereby, the air conditioner 100-1 in the room R1 operates so as to set the set temperature low, and the air conditioner 100-3 in the room R2 stops the operation by switching the power supply from on to off.

[第3の実施形態]
図11を参照して第3の実施形態の遠隔操作例について説明する。なお、第3の実施形態における機器操作装置200と音声解析サーバ400の構成は、それぞれ、図2、図3と同様でよい。
図11に示す家屋1においては、エアコンディショナ100−1と、このエアコンディショナ100−1に接続された機器操作装置200−1が設置される。また、エアコンディショナ100−1が設置されるのと同じ部屋において、ヒーター100−4と、このヒーター100−4に接続された機器操作装置200−4が設置される。つまり、家屋1には、同じ部屋において2種類の暖房機器が設置されている。
ここで、ヒーター100−4は急速に部屋を温めることはできるが消費電力が高いという特徴がある。一方、エアコンディショナ100−1は、ヒーター100−4ほど急速に部屋を暖めることはできないが、消費電力は低いという特徴がある。
[Third Embodiment]
A remote operation example of the third embodiment will be described with reference to FIG. Note that the configurations of the device operating device 200 and the voice analysis server 400 in the third embodiment may be the same as those in FIGS. 2 and 3, respectively.
In the house 1 shown in FIG. 11, an air conditioner 100-1 and a device operating device 200-1 connected to the air conditioner 100-1 are installed. Further, in the same room where the air conditioner 100-1 is installed, a heater 100-4 and a device operating device 200-4 connected to the heater 100-4 are installed. That is, two kinds of heating devices are installed in the house 1 in the same room.
Here, the heater 100-4 can rapidly heat the room, but has a feature of high power consumption. On the other hand, the air conditioner 100-1 cannot warm the room as rapidly as the heater 100-4, but has a feature of low power consumption.

ユーザ2は、遠隔操作のために、「この部屋は寒い」と音声を発したとする。機器操作装置200は、この発話音声の音声データの音声情報データを音声解析サーバ400に送信する。   Assume that the user 2 utters a voice saying “This room is cold” for remote control. The device operating device 200 transmits the voice information data of the voice data of the uttered voice to the voice analysis server 400.

この音声情報データを受信した音声解析サーバ400におけるコマンド判定部430は、「この部屋は寒い」の発話音声内容とコマンド管理情報460の発話音声内容とを照合することで、暖房器具であるエアコンディショナ100−1とヒーター100−4が操作対象機器の候補であることを判定する。このとき、エアコンディショナ100−1とヒーター100−4はいずれも電源がオフの状態であったとする。なお、コマンド判定部430は、例えば、音声解析サーバ400にて記憶しているこれまでの機器100に対する操作履歴に基づいて、エアコンディショナ100−1とヒーター100−4の電源がオフであることを認識できる。   The command determination unit 430 in the voice analysis server 400 that has received the voice information data collates the utterance voice content of “This room is cold” with the utterance voice content of the command management information 460, so that the air conditioner that is a heating appliance is used. It is determined that the Shona 100-1 and the heater 100-4 are candidates for the operation target device. At this time, it is assumed that the air conditioner 100-1 and the heater 100-4 are both turned off. Note that the command determination unit 430 has the air conditioner 100-1 and the heater 100-4 turned off based on, for example, the operation history of the device 100 stored in the voice analysis server 400 so far. Can be recognized.

この場合、部屋を急速に暖めることが必要である。そこで、コマンド判定部430は、操作対象機器の候補として判定されたエアコンディショナ100−1とヒーター100−4のうち、ヒーター100−4を操作対象機器として判定し、また、コマンド内容については、ヒーター100−4の電源をオンとして所定の設定温度を指定するものであると判定する。   In this case, it is necessary to warm the room rapidly. Therefore, the command determination unit 430 determines the heater 100-4 as the operation target device among the air conditioner 100-1 and the heater 100-4 determined as the operation target device candidates. It is determined that the heater 100-4 is turned on to designate a predetermined set temperature.

この判定結果に応じて生成したコマンドコードが音声解析サーバ400からヒーター100−4に接続された機器操作装置200に送信されることで、家屋1においてヒーター100−4の電源がオンとなって動作を開始する。   The command code generated according to the determination result is transmitted from the voice analysis server 400 to the device operating device 200 connected to the heater 100-4, so that the heater 100-4 is turned on and operates in the house 1. To start.

そのうえで、第3の実施形態においては、例えば室温が設定温度に到達した、または、ヒーター100−4の電源をオンとして一定時間が経過するのに応じて、コマンド判定部430は、以下のコマンド内容および操作対象機器についての判定結果を出力する。つまり、コマンド判定部430は、ヒーター100−4の電源をオフとし、エアコンディショナ100−1の電源をオンとして所定の設定温度を指定すべきであることを判定する。このように、第3の実施形態のコマンド判定部430は、2以上の操作対象機器と、これらの操作対象機器が連係して所定の動作を行うためのコマンド内容を判定する。   In addition, in the third embodiment, for example, when the room temperature reaches a set temperature, or when a certain time elapses after the heater 100-4 is turned on, the command determination unit 430 performs the following command content: And the determination result for the operation target device is output. That is, the command determination unit 430 determines that the heater 100-4 should be turned off and the air conditioner 100-1 should be turned on to specify a predetermined set temperature. As described above, the command determination unit 430 according to the third embodiment determines two or more operation target devices and command contents for performing a predetermined operation in cooperation with these operation target devices.

上記の判定結果にしたがって、コマンド生成部440は、ヒーター100−4の電源をオフとするコマンドコードを生成し機器操作装置200−4に送信する。また、エアコンディショナ100−1の電源をオンとするコマンドコードと、エアコンディショナ100−1に所定の設定温度の設定を指示するコマンドコードとを生成し、機器操作装置200−1に送信する。   According to the determination result, the command generation unit 440 generates a command code for turning off the power of the heater 100-4 and transmits the command code to the device operating device 200-4. Further, a command code for turning on the power of the air conditioner 100-1 and a command code for instructing the air conditioner 100-1 to set a predetermined set temperature are generated and transmitted to the device operating device 200-1. .

これにより、家屋1においては、室内が十分に暖まった状態のもとで、ヒーター100−4がオフとなり、代わりにエアコンディショナ100−1がオンとなって低消費電力の状態での暖房が継続される。
このように、第3の実施形態においては、例えば「この部屋は寒い」という発話音声に基づいて、複数の機器100を異なる時系列で遠隔操作することができる。
Thereby, in the house 1, the heater 100-4 is turned off while the room is sufficiently warmed. Instead, the air conditioner 100-1 is turned on to perform heating in a low power consumption state. Will continue.
As described above, in the third embodiment, a plurality of devices 100 can be remotely operated in different time series based on, for example, an utterance voice “This room is cold”.

[第4の実施形態]
続いて、第4の実施形態について説明する。
図12は、第4の実施形態としての機器操作システムの構成例を示している。なお、この図において図2と同一部分には同一符号を付して説明を省略する。
図12に示す機器操作システムは、図2の機器操作装置200と音声解析サーバ400に代えて、機器操作装置200Aとジェスチャ解析サーバ(生体情報解析サーバ)400Aを備える。
機器操作装置200Aは、マイクロフォン210に代えて撮像部250を備える。また、音声情報処理部220に代えて、ジェスチャ情報処理部260を備える。
ジェスチャ情報処理部260は、被写体抽出部261、ジェスチャ情報データ生成部262およびメタデータ記憶部263を備える。
[Fourth Embodiment]
Subsequently, a fourth embodiment will be described.
FIG. 12 shows a configuration example of a device operation system as the fourth embodiment. In this figure, the same parts as those in FIG.
The device operation system shown in FIG. 12 includes a device operation device 200A and a gesture analysis server (biological information analysis server) 400A instead of the device operation device 200 and the voice analysis server 400 shown in FIG.
The device operating device 200 </ b> A includes an imaging unit 250 instead of the microphone 210. Further, instead of the voice information processing unit 220, a gesture information processing unit 260 is provided.
The gesture information processing unit 260 includes a subject extraction unit 261, a gesture information data generation unit 262, and a metadata storage unit 263.

また、ジェスチャ解析サーバ400Aの構成は、例えば図3と同様である。ただし、以下に説明するように、解析対象がジェスチャ情報データであるのに応じて、ジェスチャ解析サーバ400Aにおける各部の動作は適宜異なる。   The configuration of the gesture analysis server 400A is the same as that shown in FIG. 3, for example. However, as will be described below, the operation of each unit in the gesture analysis server 400A differs appropriately depending on the analysis target being gesture information data.

第4の実施形態においてユーザが行う遠隔操作の例とともに、図12および図3に示される機器操作装置200Aとジェスチャ解析サーバ400Aの動作について説明する。なお、以下の説明において、家屋1内の機器100と機器操作装置200の設置の態様は図1と同様であるものとする。   The operation of the device operation device 200A and the gesture analysis server 400A shown in FIGS. 12 and 3 will be described together with an example of remote operation performed by the user in the fourth embodiment. In the following description, it is assumed that the installation mode of the device 100 and the device operating device 200 in the house 1 is the same as that in FIG.

第4の実施形態において、ユーザ2は、遠隔操作を行うにあたり、音声に代えて所定の動作(ジェスチャ)を行う。つまり、第4の実施形態における生体情報は、身体の動きとなる。
具体例として、手を右に振るジェスチャは、テレビジョン受像機100−2のチャンネル番号を1つ増加させるようにチャンネル切り替えを行うことを指示する操作であると定められている。一方、手を左に振るジェスチャは、テレビジョン受像機100−2のチャンネル番号を1つ減少させるようにチャンネル切り替えを行うことを指示する操作であると定められている。
In the fourth embodiment, the user 2 performs a predetermined operation (gesture) instead of voice when performing remote operation. That is, the biological information in the fourth embodiment is a body movement.
As a specific example, the gesture of shaking the hand to the right is defined as an operation for instructing channel switching so as to increase the channel number of the television receiver 100-2 by one. On the other hand, the gesture of shaking the hand to the left is defined as an operation for instructing channel switching so that the channel number of the television receiver 100-2 is decreased by one.

ここで、ユーザ2は、チャンネル番号を1つ増加させるようにチャンネル切り替えを行いたいと思ったとする。これに応じて、ユーザは、室内において設置されている機器操作装置200のいずれかに向かって手を右に振るジェスチャを行う。   Here, it is assumed that the user 2 wants to perform channel switching so as to increase the channel number by one. In response to this, the user performs a gesture of waving his hand to the right toward any of the device operation devices 200 installed indoors.

機器操作装置200Aにおいて、撮像部250は、このジェスチャを行っているユーザ2を撮像する。
次に、ジェスチャ情報処理部260において、被写体抽出部261は、撮像部250により撮像された画像データからジェスチャを行っているユーザとしての被写体の画像部分を検出し、この画像部分を抽出する。次に、ジェスチャ情報データ生成部262は、抽出した画像部分のデータに対して、メタデータ記憶部263が記憶する所定のメタデータを付加してジェスチャ情報データを生成し、この生成したジェスチャ情報データをジェスチャ解析サーバ400Aに送信する。
In the device operating device 200A, the imaging unit 250 images the user 2 who is making this gesture.
Next, in the gesture information processing unit 260, the subject extraction unit 261 detects an image portion of the subject as a user performing a gesture from the image data captured by the imaging unit 250, and extracts this image portion. Next, the gesture information data generation unit 262 adds the predetermined metadata stored in the metadata storage unit 263 to the extracted image portion data to generate gesture information data, and the generated gesture information data Is transmitted to the gesture analysis server 400A.

上記のように送信されたジェスチャ情報データは、ジェスチャ解析サーバ400Aの通信部470にて受信される。このときに異なる機器操作装置200から送信された同じジェスチャ情報データを受信した場合、重複受信対応処理部410は、図7に準じた処理によって2回目以降に受信されたジェスチャ情報データを廃棄する。   The gesture information data transmitted as described above is received by the communication unit 470 of the gesture analysis server 400A. When the same gesture information data transmitted from different device operation devices 200 is received at this time, the duplicate reception handling processing unit 410 discards the gesture information data received after the second time by the processing according to FIG.

解析部420は、ジェスチャ情報データを解析する。解析部420は、解析によって、被写体部分の画像データからジェスチャ内容とメタデータの内容を認識する。この場合の解析部420は、ジェスチャ内容が手を右に振るというものであると認識する。   The analysis unit 420 analyzes the gesture information data. The analysis unit 420 recognizes the content of the gesture and the content of the metadata from the image data of the subject portion by analysis. In this case, the analysis unit 420 recognizes that the gesture content is that the hand is shaken to the right.

第4の実施形態におけるコマンド管理情報460は、コマンドセットにおいて発話音声内容に代えてジェスチャ内容のデータを格納する。
コマンド判定部430は、解析部420により認識されたジェスチャ内容とコマンド管理情報460におけるジェスチャ内容とを照合する。これにより、解析部420により認識されたジェスチャ内容に対応するコマンド内容と操作対象機器を認識する。この場合のコマンド判定部430は、操作対象機器がテレビジョン受像機100−2で、コマンド内容はチャンネル番号を1つ増加させるようにチャンネル切り替えを行うというものであると判定する。
The command management information 460 in the fourth embodiment stores gesture content data in place of the speech voice content in the command set.
The command determination unit 430 collates the gesture content recognized by the analysis unit 420 with the gesture content in the command management information 460. Accordingly, the command content corresponding to the gesture content recognized by the analysis unit 420 and the operation target device are recognized. In this case, the command determination unit 430 determines that the operation target device is the television receiver 100-2, and the command content is to perform channel switching so as to increase the channel number by one.

コマンド生成部440は、上記の判定結果に応じたコマンドコードを生成し、テレビジョン受像機100−2に接続された機器操作装置200−2に対して送信する。
機器操作装置200−2は、受信したコマンドコードをテレビジョン受像機100−2に送信する。テレビジョン受像機100−2は、このコマンドコードの受信に応答して、チャンネル番号を1つ増加させるようにチャンネル切り替えを行う。
The command generation unit 440 generates a command code corresponding to the determination result and transmits the command code to the device operating device 200-2 connected to the television receiver 100-2.
The device operating device 200-2 transmits the received command code to the television receiver 100-2. In response to receiving this command code, the television receiver 100-2 performs channel switching so as to increase the channel number by one.

このように、第4の実施形態においては、ユーザ2が行ったジェスチャにより機器100を遠隔操作することができる。   As described above, in the fourth embodiment, the device 100 can be remotely operated by a gesture performed by the user 2.

図13は、第4の実施形態の変形例に対応する機器操作装置200Bの構成例を示している。この図において、図12と同一部分には同一符号を付している。
第4の実施形態の変形例では、ユーザは、ジェスチャ検出装置500を所持してジェスチャを行う。ジェスチャ検出装置500は、ユーザが行うジェスチャに応じた動きを検出し、その検出情報を機器操作装置200Bに送信する。
FIG. 13 shows a configuration example of a device operating device 200B corresponding to a modification of the fourth embodiment. In this figure, the same parts as those in FIG.
In the modified example of the fourth embodiment, the user performs a gesture by holding the gesture detection device 500. The gesture detection device 500 detects a movement according to a gesture performed by the user, and transmits the detection information to the device operation device 200B.

図13に示すように、ジェスチャ検出装置500は、加速度センサ510と送信部520を備える。加速度センサ510は、ジェスチャに応じた動きを検出し、加速度検出信号を出力する。送信部520は、加速度検出信号を無線により機器操作装置200Bに送信する。   As shown in FIG. 13, the gesture detection device 500 includes an acceleration sensor 510 and a transmission unit 520. The acceleration sensor 510 detects a movement according to the gesture and outputs an acceleration detection signal. The transmission unit 520 transmits the acceleration detection signal to the device operating device 200B wirelessly.

なお、ジェスチャ検出装置500は、例えば腕時計のような形状である。ユーザは、このジェスチャ検出装置500を腕に装着した状態で例えば手を動かすジェスチャを行う。または、ジェスチャ検出装置500は、例えばヘッドセットのような形状とされて、ユーザの頭部に装着されるようなタイプのものであってもよい。このようにジェスチャ検出装置500についてユーザが身に付けられるタイプのものとすることで、ユーザは、それまで行っていた作業をほとんど中断することなく遠隔操作を行える。   The gesture detection device 500 has a shape like a wristwatch, for example. The user performs, for example, a gesture of moving his / her hand while wearing the gesture detection device 500 on the arm. Alternatively, the gesture detection device 500 may be of a type that is shaped like a headset and is worn on the user's head. As described above, the gesture detection device 500 is a type that the user can wear, so that the user can perform remote operation with almost no interruption to the work that has been performed.

機器操作装置200Bは、撮像部250に代えて受信部270を備える。受信部270は、ジェスチャ検出装置500の送信部520から送信される加速度検出信号を入力する。   The device operating device 200B includes a receiving unit 270 instead of the imaging unit 250. The receiving unit 270 receives an acceleration detection signal transmitted from the transmitting unit 520 of the gesture detection device 500.

機器操作装置200Bにおいて、ジェスチャ情報処理部260は、ジェスチャ情報データ生成部262とメタデータ記憶部263を備える。この場合のジェスチャ情報データ生成部262は、受信部270にて受信された加速度検出信号のデータにメタデータ記憶部263から読み出したメタデータを付加することによりジェスチャ情報データを生成する。このジェスチャ情報データは、通信部230からジェスチャ解析サーバ400Aに送信される。   In the device operating device 200B, the gesture information processing unit 260 includes a gesture information data generation unit 262 and a metadata storage unit 263. In this case, the gesture information data generation unit 262 generates gesture information data by adding the metadata read from the metadata storage unit 263 to the data of the acceleration detection signal received by the reception unit 270. This gesture information data is transmitted from the communication unit 230 to the gesture analysis server 400A.

ジェスチャ解析サーバ400Aにおいて、解析部420は、解析処理によって、例えばジェスチャ情報データにおける加速度検出信号が示す時間経過に応じた変化のパタンなどに基づいてジェスチャを認識する。
コマンド判定部430は認識されたジェスチャに基づいてコマンド内容と操作対象機器を判定する。コマンド生成部440は、コマンド判定部430の判定結果にしたがってコマンドコードを生成し、このコマンドコードを操作対象機器に接続された機器操作装置200Bに対して送信させる。
このように第4の実施形態の変形例では、加速度センサを備えるジェスチャ検出装置を利用してユーザがジェスチャを行うことにより、機器100を遠隔操作できる。
In the gesture analysis server 400 </ b> A, the analysis unit 420 recognizes a gesture based on, for example, a change pattern according to the passage of time indicated by the acceleration detection signal in the gesture information data by analysis processing.
The command determination unit 430 determines the command content and the operation target device based on the recognized gesture. The command generation unit 440 generates a command code according to the determination result of the command determination unit 430, and transmits the command code to the device operation device 200B connected to the operation target device.
Thus, in the modification of the fourth embodiment, the device 100 can be remotely operated by a user performing a gesture using a gesture detection device including an acceleration sensor.

なお、例えば、機器100と機器操作装置200はそれぞれ個別の装置として説明したが、機器100の中に機器操作装置200があらかじめ搭載されていてもよい。また、本実施例では、制御対象となる機器100の例として、エアコンディショナとテレビジョン受像機を例に挙げているが、他にも冷蔵庫や調理器具、ビデオ等、操作を必要とするあらゆる機器を対象としてよい。また、上記実施形態における説明では、機器操作装置200は、例えば1つの機器100に対応して接続されるものであったが、例えば、携帯電話やスマートフォンに機器操作装置200としての機能を搭載して、多様な機器を制御対象として操作できるように構成しても良い。   For example, although the device 100 and the device operation device 200 have been described as separate devices, the device operation device 200 may be mounted in the device 100 in advance. Further, in this embodiment, an air conditioner and a television receiver are given as examples of the device 100 to be controlled, but any other devices that require operation, such as a refrigerator, a cooking utensil, and a video. Equipment may be targeted. In the description of the above embodiment, the device operating device 200 is connected to correspond to, for example, one device 100. For example, a function as the device operating device 200 is mounted on a mobile phone or a smartphone. Thus, various devices may be configured to be operated as control targets.

また、図2、図3、図12および図13に示した各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより遠隔操作のための処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   In addition, a program for realizing the functions of the respective units shown in FIGS. 2, 3, 12 and 13 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system. The processing for remote operation may be performed by executing the command. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1 家屋
100 機器
200、200A、200B 機器操作装置
210 マイクロフォン
220 音声情報処理部
221 発話音声成分抽出部
222 形式変換部
223 メタデータ記憶部
224 音声情報データ生成部
230 通信部
240 機器制御部
400 音声解析サーバ
400A ジェスチャ解析サーバ
410 重複受信対応処理部
420 解析部
430 コマンド判定部
440 コマンド生成部
450 機器管理情報
460 コマンド管理情報
470 通信部
DESCRIPTION OF SYMBOLS 1 House 100 apparatus 200, 200A, 200B apparatus operation apparatus 210 microphone 220 audio | voice information processing part 221 speech audio | voice component extraction part 222 format conversion part 223 metadata memory | storage part 224 audio | voice information data generation part 230 communication part 240 apparatus control part 400 audio | voice analysis Server 400A Gesture analysis server 410 Duplicate reception processing unit 420 Analysis unit 430 Command determination unit 440 Command generation unit 450 Device management information 460 Command management information 470 Communication unit

Claims (14)

機器操作装置と生体情報解析サーバとを備え、
前記機器操作装置は、
家庭に設置される家庭用電気機械器具である操作対象機器に搭載又は接続され、
自己または他の機器操作装置が制御対象とする前記操作対象機器のいずれかを操作するための発話音声を入力する生体情報入力部と、
入力された発話音声を表す音声信号を含む生体情報データを生成する生体情報処理部と、
前記生体情報データを前記生体情報解析サーバに送信するとともに、前記生体情報解析サーバから送信されたコマンドを受信する第1の通信部と、
受信したコマンドに応答した動作が実行されるように、前記操作対象機器を制御する機器制御部とを備え、
前記生体情報解析サーバは、
前記生体情報データを受信するとともに、前記コマンドを送信する第2の通信部と、
受信した生体情報データに含まれる音声信号音声解析し、前記発話音声の内容を認識する解析部と、
前記生体情報データを音声解析することにより認識された発話音声の内容に基づいて、コマンド内容と前記操作対象機器を判定するコマンド判定部と、
判定されたコマンド内容に応じた前記コマンドを生成し、生成した前記コマンドを、判定された前記操作対象機器を制御対象とする前記機器操作装置に対して前記第2の通信部により送信させるコマンド生成部とを備える、
ことを特徴とする機器操作システム。
A device operating device and a biological information analysis server;
The device operating device is
It is mounted on or connected to a device to be operated, which is a household electrical machine that is installed at home.
A biometric information input unit that inputs speech sound for operating any one of the operation target devices to be controlled by the device itself or another device operation device;
A biological information processing unit that generates biological information data including an audio signal representing the input utterance voice ;
A first communication unit for transmitting the biometric information data to the biometric information analysis server and receiving a command transmitted from the biometric information analysis server;
A device control unit that controls the operation target device so that an operation in response to the received command is performed;
The biological information analysis server is
A second communication unit that receives the biological information data and transmits the command;
An analysis unit a voice signal to voice analysis, recognize contents of the speech contained in the received biometric information data,
A command determination unit that determines the command content and the operation target device based on the content of the utterance voice recognized by voice analysis of the biological information data;
Command generation for generating the command corresponding to the determined command content, and transmitting the generated command to the device operation device whose control target is the determined operation target device by the second communication unit Comprising a part,
A device operation system characterized by that.
前記解析部は、発話音声の内容として、温度を示す内容を認識し、
前記コマンド判定部は、前記温度を示す内容が認識された場合に、温度調整機能を有する前記操作対象機器を判定する、
ことを特徴とする請求項1に記載の機器操作システム。
The analysis unit recognizes the content indicating the temperature as the content of the speech voice,
The command determination unit determines the operation target device having a temperature adjustment function when the content indicating the temperature is recognized.
The apparatus operation system according to claim 1.
前記機器操作装置は、第1の前記操作対象機器に搭載又は接続され、
生体情報処理部は、前記家庭用電気機械器具が設置されている場所を特定する情報を含む生体情報データを生成し、
前記コマンド判定部は、前記場所を特定する情報に基づいて、前記第1の操作対象機器とは異なる第2の前記操作対象機器を判定し、
前記コマンド生成部は、生成した前記コマンドを、前記第2の操作対象機器を制御対象とする前記機器操作装置に対して前記第2の通信部により送信させる、 ことを特徴とする請求項1又は2に記載の機器操作システム。
The device operating device is mounted on or connected to the first operation target device,
The biological information processing unit generates biological information data including information for specifying a place where the household electric machine is installed,
The command determination unit determines a second operation target device different from the first operation target device based on information specifying the location,
The command generation unit causes the second communication unit to transmit the generated command to the device operation device whose control target is the second operation target device. 2. The device operation system according to 2.
前記生体情報解析サーバは、
今回受信された生体情報データと、過去の一定時間内に前記第2の通信部により受信された生体情報データを比較した結果が一致している場合、前記今回受信された生体情報データを破棄する重複受信対応処理部をさらに備える、
ことを特徴とする請求項1から3のいずれか一項に記載の機器操作システム。
The biological information analysis server is
If the result of comparing the biometric information data received this time with the biometric information data received by the second communication unit within a predetermined time in the past matches, the biometric information data received this time is discarded Further comprising a duplicate reception handling processing unit,
The device operation system according to any one of claims 1 to 3, wherein
前記生体情報解析サーバは、
前記操作対象機器と当該操作対象機器を制御対象とする機器操作装置について、前記操作対象機器と前記機器操作装置が設置される部屋に対応させたグループごとに区分して管理するグループ管理情報をさらに備え、
前記コマンド判定部は、部屋を指定して前記操作対象機器を操作する内容の生体情報データであることが解析された場合に、前記グループ管理情報を参照して、指定された部屋における前記操作対象機器を操作するためのコマンド内容を判定する、
ことを特徴とする請求項1から4のいずれか一項に記載の機器操作システム。
The biological information analysis server is
Group management information for managing the operation target device and the device operation device that controls the operation target device separately for each group corresponding to the room in which the operation target device and the device operation device are installed Prepared,
The command determination unit refers to the group management information when it is analyzed that the biometric information data has contents for operating the operation target device by specifying a room, and the operation target in the specified room Determine the command content for operating the device,
The apparatus operating system according to any one of claims 1 to 4, wherein
前記生体情報処理部は、
予め定められた所定の操作開始予告信号を入力した後における一定時間内に入力した発話音声に基づいて前記生体情報データを生成する、
ことを特徴とする請求項1から5のいずれか一項に記載の機器操作システム。
The biological information processing unit
Generating the biometric information data based on the utterance voice input within a predetermined time after inputting a predetermined operation start warning signal,
The apparatus operating system according to any one of claims 1 to 5, wherein
前記コマンド判定部は、
前記発話音声の内容に基づいて、2種類以上の前記操作対象機器と、これらの前記操作対象機器が連係して所定の動作を行うためのコマンド内容を判定する、
ことを特徴とする請求項1から6のいずれか一項に記載の機器操作システム。
The command determination unit
Based on the content of the uttered voice , two or more types of the operation target devices and a command content for performing a predetermined operation in cooperation with the operation target devices are determined.
The device operation system according to any one of claims 1 to 6, wherein
前記生体情報入力部は、ユーザを撮像した画像を入力する撮像部を備え
前記生体情報処理部は、撮像した画像を含む前記生体情報データを生成することを特徴とする請求項1から7のいずれか一項に記載の機器操作システム。
The biological information input unit includes an imaging unit to enter the image of the captured user,
The apparatus operation system according to claim 1 , wherein the biological information processing unit generates the biological information data including a captured image .
前記生体情報入力部は、ユーザの動きに応じた加速度を検出するための加速度センサの検出信号を受信する受信部を備え
前記生体情報処理部は、検出信号を含む前記生体情報データを生成する
ことを特徴とする請求項1から7のいずれか一項に記載の機器操作システム。
The biological information input unit includes a receiving unit that receives a detection signal of the acceleration sensor for detecting acceleration based on a movement of the user,
The apparatus operation system according to claim 1 , wherein the biological information processing unit generates the biological information data including a detection signal .
自己または他の機器操作装置が制御対象とする操作対象機器のいずれかを操作するための生体情報を入力する生体情報入力部と、
入力された発話音声を表す音声信号を含む生体情報データを生成する生体情報処理部と、
前記生体情報データを生体情報解析サーバに送信するとともに、前記生体情報解析サーバから送信されたコマンドを受信する通信部と、
受信したコマンドに応答した動作が実行されるように、前記操作対象機器を制御する機器制御部と、
を備え
家庭に設置される家庭用電気機械器具である前記操作対象機器に搭載又は接続されることを特徴とする機器操作装置。
A biometric information input unit that inputs biometric information for operating any of the operation target devices that are to be controlled by the device itself or another device operation device;
A biological information processing unit that generates biological information data including an audio signal representing the input utterance voice ;
A communication unit that transmits the biological information data to the biological information analysis server and receives a command transmitted from the biological information analysis server;
A device control unit that controls the operation target device so that an operation in response to the received command is executed;
Equipped with a,
Equipment operating device is mounted or connected to the operation target apparatus is a Consumer Electronics installed in the home, characterized in Rukoto.
機器操作装置が入力した発話音声に基づいて生成した生体情報データを前記機器操作装置から受信するとともに、コマンドを送信する通信部と、
受信した生体情報データに含まれる音声信号音声解析し、前記発話音声の内容を認識する解析部と、
前記生体情報データを音声解析することにより認識された発話音声の内容に基づいて、コマンド内容と操作対象機器を判定するコマンド判定部と、
判定されたコマンド内容に応じた前記コマンドを生成し、生成した前記コマンドを、判定された前記操作対象機器を制御対象とする前記機器操作装置に対して前記通信部により送信させるコマンド生成部と、
を備えることを特徴とするサーバ。
A communication unit that receives the biological information data generated based on the uttered voice input by the device operating device from the device operating device, and transmits a command;
An analysis unit a voice signal to voice analysis, recognize contents of the speech contained in the received biometric information data,
A command determination unit for determining the command content and the operation target device based on the content of the utterance voice recognized by performing voice analysis on the biological information data;
A command generation unit that generates the command according to the determined command content, and causes the communication unit to transmit the generated command to the device operation device whose control target is the determined operation target device;
A server comprising:
家庭に設置される家庭用電気機械器具である操作対象機器に搭載又は接続される機器操作装置と生体情報解析サーバとを備える機器操作システムにおける機器操作方法であって、
前記機器操作装置は、
自己または他の機器操作装置が制御対象とする前記操作対象機器のいずれかを操作するための発話音声を入力する生体情報入力ステップと、
入力された発話音声を表す音声信号を含む生体情報データを生成する生体情報処理ステップと、
前記生体情報データを前記生体情報解析サーバに送信するとともに、前記生体情報解析サーバから送信されたコマンドを受信する第1の通信ステップと、
受信したコマンドに応答した動作が実行されるように、前記操作対象機器を制御する機器制御ステップとを備え、
前記生体情報解析サーバは、
前記生体情報データを受信するとともに、前記コマンドを送信する第2の通信ステップと、
受信した生体情報データに含まれる音声信号音声解析し、前記発話音声の内容を認識する解析ステップと、
前記生体情報データを音声解析することにより認識された発話音声の内容に基づいて、コマンド内容と前記操作対象機器を判定するコマンド判定ステップと、
判定されたコマンド内容に応じた前記コマンドを生成し、生成した前記コマンドを、判定された前記操作対象機器を制御対象とする前記機器操作装置に対して前記第2の通信ステップにより送信させるコマンド生成ステップとを備える、
ことを特徴とする機器操作方法。
A device operation method in a device operation system comprising a device operation device and a biological information analysis server mounted or connected to an operation target device that is a home electric machine instrument installed in a home ,
The device operating device is
A biometric information input step for inputting speech sound for operating any one of the operation target devices to be controlled by the device itself or another device operation device;
A biometric information processing step for generating biometric information data including a voice signal representing the input speech voice ;
A first communication step of transmitting the biological information data to the biological information analysis server and receiving a command transmitted from the biological information analysis server;
A device control step for controlling the operation target device so that an operation in response to the received command is executed,
The biological information analysis server is
A second communication step of receiving the biological information data and transmitting the command;
An analysis step of the speech signal and voice analysis, recognizing the contents of the speech contained in the received biometric information data,
A command determination step of determining the command content and the operation target device based on the content of the utterance voice recognized by performing voice analysis on the biological information data;
Command generation for generating the command according to the determined command content, and transmitting the generated command to the device operating device whose control target is the determined operation target device in the second communication step Comprising steps,
A device operating method characterized by the above.
家庭に設置される家庭用電気機械器具である操作対象機器に搭載又は接続されるコンピュータに、
自己または他の機器操作装置が制御対象とする前記操作対象機器のいずれかを操作するための発話音声を入力する生体情報入力ステップと、
入力された発話音声を表す音声信号を含む生体情報データを生成する生体情報処理ステップと、
前記生体情報データを生体情報解析サーバに送信するとともに、前記生体情報解析サーバから送信されたコマンドを受信する通信ステップと、
受信したコマンドに応答した動作が実行されるように、前記操作対象機器を制御する機器制御ステップと、
を実行させるためのプログラム。
To a computer mounted on or connected to an operation target device that is a home electric machine / equipment installed at home ,
A biometric information input step for inputting speech sound for operating any one of the operation target devices to be controlled by the device itself or another device operation device;
A biometric information processing step for generating biometric information data including a voice signal representing the input speech voice ;
A communication step of transmitting the biological information data to the biological information analysis server and receiving a command transmitted from the biological information analysis server;
A device control step for controlling the device to be operated so that an operation in response to the received command is executed;
A program for running
コンピュータに、
機器操作装置が入力した発話音声に基づいて生成した生体情報データを前記機器操作装置から受信するとともに、コマンドを送信する通信ステップと、
受信した生体情報データに含まれる音声信号音声解析し、前記発話音声の内容を認識する解析ステップと、
前記生体情報データを音声解析することにより認識された発話音声の内容に基づいて、コマンド内容と操作対象機器を判定するコマンド判定ステップと、
判定されたコマンド内容に応じた前記コマンドを生成し、生成した前記コマンドを、判定された前記操作対象機器を制御対象とする前記機器操作装置に対して前記通信ステップにより送信させるコマンド生成ステップと、
を実行させるためのプログラム。
On the computer,
A communication step of receiving biological information data generated based on the speech voice input by the device operating device from the device operating device and transmitting a command;
An analysis step of the speech signal and voice analysis, recognizing the contents of the speech contained in the received biometric information data,
A command determination step for determining the command content and the operation target device based on the content of the utterance voice recognized by performing voice analysis on the biological information data;
A command generation step of generating the command according to the determined command content, and transmitting the generated command to the device operating device whose control target is the determined operation target device by the communication step;
A program for running
JP2012041825A 2012-02-28 2012-02-28 Device operating system, device operating device, server, device operating method and program Expired - Fee Related JP6053097B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012041825A JP6053097B2 (en) 2012-02-28 2012-02-28 Device operating system, device operating device, server, device operating method and program
PCT/JP2013/051728 WO2013128999A1 (en) 2012-02-28 2013-01-28 Equipment operation system, equipment operation device, server, equipment operation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012041825A JP6053097B2 (en) 2012-02-28 2012-02-28 Device operating system, device operating device, server, device operating method and program

Publications (2)

Publication Number Publication Date
JP2013179446A JP2013179446A (en) 2013-09-09
JP6053097B2 true JP6053097B2 (en) 2016-12-27

Family

ID=49082203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012041825A Expired - Fee Related JP6053097B2 (en) 2012-02-28 2012-02-28 Device operating system, device operating device, server, device operating method and program

Country Status (2)

Country Link
JP (1) JP6053097B2 (en)
WO (1) WO2013128999A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10861449B2 (en) 2015-05-19 2020-12-08 Sony Corporation Information processing device and information processing method

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US9329695B2 (en) 2013-10-04 2016-05-03 Panasonic Intellectual Property Corporation Of America Wearable terminal and method for controlling the same
JP6329833B2 (en) 2013-10-04 2018-05-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Wearable terminal and method for controlling wearable terminal
JP2015179493A (en) * 2014-02-27 2015-10-08 株式会社ログバー gesture input system
JP6031465B2 (en) * 2014-03-07 2016-11-24 三井ホーム株式会社 Housing equipment control device
JP6362677B2 (en) * 2014-04-16 2018-07-25 三菱電機株式会社 Controller, home system, environmental control method, and program
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) * 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
JP6449039B2 (en) * 2015-02-10 2019-01-09 ホーチキ株式会社 Device management apparatus, device management method, and program
WO2016131013A1 (en) * 2015-02-13 2016-08-18 Swan Solutions Inc. System and method for controlling a terminal device
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
WO2018123445A1 (en) * 2016-12-27 2018-07-05 シャープ株式会社 Electric device, remote-control controlling system, remote control, and program
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. Low-latency intelligent automated assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
CN108594777B (en) * 2018-04-20 2020-03-13 百度在线网络技术(北京)有限公司 Intelligent household control method, device, equipment, system and storage medium
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (en) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
JPWO2019239738A1 (en) * 2018-06-12 2021-07-15 ソニーグループ株式会社 Information processing device, information processing method
JP7162169B2 (en) * 2018-07-25 2022-10-28 パナソニックIpマネジメント株式会社 processor, remote control system, program
JP2020046163A (en) * 2018-09-21 2020-03-26 リンナイ株式会社 Heating cooking system
JP2020053895A (en) * 2018-09-27 2020-04-02 東京瓦斯株式会社 Load equipment control system and load equipment control program
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
JP7165908B2 (en) * 2018-12-28 2022-11-07 パナソニックIpマネジメント株式会社 LIGHTING SYSTEM, LIGHTING SYSTEM CONTROL METHOD AND PROGRAM
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
DE112020001542T5 (en) * 2019-03-26 2022-01-13 Sony Group Corporation INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. User activity shortcut suggestions
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11043220B1 (en) 2020-05-11 2021-06-22 Apple Inc. Digital assistant hardware abstraction
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2973311B1 (en) * 1998-06-03 1999-11-08 日本電気株式会社 Remote control device
JP2001319045A (en) * 2000-05-11 2001-11-16 Matsushita Electric Works Ltd Home agent system using vocal man-machine interface and program recording medium
JP2003153031A (en) * 2001-11-12 2003-05-23 Matsushita Electric Ind Co Ltd Remote control signal relay device
JP5327838B2 (en) * 2008-04-23 2013-10-30 Necインフロンティア株式会社 Voice input distributed processing method and voice input distributed processing system
JP2011250027A (en) * 2010-05-25 2011-12-08 Panasonic Electric Works Co Ltd Remote control device and information communication system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10861449B2 (en) 2015-05-19 2020-12-08 Sony Corporation Information processing device and information processing method

Also Published As

Publication number Publication date
JP2013179446A (en) 2013-09-09
WO2013128999A1 (en) 2013-09-06

Similar Documents

Publication Publication Date Title
JP6053097B2 (en) Device operating system, device operating device, server, device operating method and program
JP6475386B2 (en) Device control method, device, and program
US20210050013A1 (en) Information processing device, information processing method, and program
JP6428954B2 (en) Information processing apparatus, information processing method, and program
JP6440513B2 (en) Information providing method and device control method using voice recognition function
CN105206275A (en) Device control method, apparatus and terminal
JP2017138476A (en) Information processing device, information processing method, and program
WO2017141530A1 (en) Information processing device, information processing method and program
JP2017203967A (en) Voice output control device, electronic apparatus, and method for controlling voice output control device
KR20190096308A (en) electronic device
WO2001082646A1 (en) Cellular phone and remote control system
KR101936639B1 (en) Home appliance and home appliance system
JP2007178666A (en) Content reproducing apparatus and method
US20220122600A1 (en) Information processing device and information processing method
US20210224066A1 (en) Information processing device and information processing method
JP6720983B2 (en) Information processing device, information processing method, and program
US20160133243A1 (en) Musical performance system, musical performance method and musical performance program
JP2016001282A (en) Karaoke system, portable information processing device, and program
JP6491830B2 (en) Network system, server, communication terminal, audio output method, and audio output program
JP6347680B2 (en) System for managing action logs
WO2018023521A1 (en) Voice control method for music playback over internet
JP2010072704A (en) Interface device and input method
WO2018023519A1 (en) Voice control method for music local playback
CN114093357A (en) Control method, intelligent terminal and readable storage medium
WO2018023522A1 (en) Voice-control music network playback device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141001

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150513

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161128

R150 Certificate of patent or registration of utility model

Ref document number: 6053097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees