JP2020141235A - Apparatus control system, apparatus control method and program - Google Patents

Apparatus control system, apparatus control method and program Download PDF

Info

Publication number
JP2020141235A
JP2020141235A JP2019034919A JP2019034919A JP2020141235A JP 2020141235 A JP2020141235 A JP 2020141235A JP 2019034919 A JP2019034919 A JP 2019034919A JP 2019034919 A JP2019034919 A JP 2019034919A JP 2020141235 A JP2020141235 A JP 2020141235A
Authority
JP
Japan
Prior art keywords
information
control
command
additional information
voice input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019034919A
Other languages
Japanese (ja)
Inventor
池部 早人
Hayato Ikebe
早人 池部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019034919A priority Critical patent/JP2020141235A/en
Priority to PCT/JP2020/006636 priority patent/WO2020175293A1/en
Publication of JP2020141235A publication Critical patent/JP2020141235A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Abstract

To provide an apparatus control system, an apparatus control method and a program capable of flexibly controlling an apparatus even if a user speaks in the same way.SOLUTION: An apparatus control system 1 includes a first acquisition unit 11, a second acquisition unit 12, and a control unit 13. The first acquisition unit 11 acquires a piece of command information. The command information is a piece of information concerning a recognition result of voice input to a voice input device 2. The second acquisition unit 12 acquires a piece of additional information. The additional information is a piece of information different from the command information. The control unit 13 controls a control target T1 including at least one device via a control command based on the command information and the additional information.SELECTED DRAWING: Figure 2

Description

本開示は、一般に機器制御システム、機器制御方法及びプログラムに関し、より詳細には、少なくとも1つの機器からなる制御対象を制御するための機器制御システム、機器制御方法及びプログラムに関する。 The present disclosure relates generally to device control systems, device control methods and programs, and more specifically to device control systems, device control methods and programs for controlling control objects consisting of at least one device.

特許文献1には、ユーザにより発せられた音声指令に基づいて機器(浴室の電気機器)を制御する機器制御システムが記載されている。特許文献1に記載の機器制御システムは、ユーザにより発せられた音声が入力され、当該入力された音声を認識する音声認識部を備えている。 Patent Document 1 describes a device control system that controls a device (electrical device in a bathroom) based on a voice command issued by a user. The device control system described in Patent Document 1 includes a voice recognition unit in which a voice uttered by a user is input and the input voice is recognized.

特許文献1において、例えば、ユーザが「ヒーリングライトをつけて」と音声で指令を出すと、機器制御システムは、入力された音声データがいずれの指令に対応するかが判断される。この結果、入力された音声データが「ヒーリングライトをつけて」という指令であると認識できた場合には、機器制御システムは、ヒーリングライトに作動信号を送信し、ヒーリングライトを作動させる。 In Patent Document 1, for example, when a user issues a voice command "turn on a healing light", the device control system determines which command the input voice data corresponds to. As a result, when the input voice data can be recognized as a command to "turn on the healing light", the device control system transmits an operation signal to the healing light to activate the healing light.

特開2008−250035号公報Japanese Unexamined Patent Publication No. 2008-250035

特許文献1に記載の機器制御システムは、ユーザが発した音声の認識結果に従って機器を制御するので、ユーザが同じように発話した場合には機器は一義的に制御される。 Since the device control system described in Patent Document 1 controls the device according to the recognition result of the voice uttered by the user, the device is uniquely controlled when the user utters in the same manner.

本開示は上記事由に鑑みてなされており、ユーザが同じように発話した場合でも機器を柔軟に制御可能な機器制御システム、機器制御方法及びプログラムを提供することを目的とする。 The present disclosure has been made in view of the above reasons, and an object of the present invention is to provide a device control system, a device control method, and a program capable of flexibly controlling a device even when a user speaks in the same manner.

本開示の一態様に係る機器制御システムは、第1取得部と、第2取得部と、制御部と、を備える。前記第1取得部は、コマンド情報を取得する。前記コマンド情報は、音声入力装置に入力された音声の認識結果に関する情報である。前記第2取得部は、付加情報を取得する。前記付加情報は、前記コマンド情報とは別の情報からなる。前記制御部は、前記コマンド情報と前記付加情報との両方に基づく制御命令により、少なくとも1つの機器からなる制御対象を制御する。 The device control system according to one aspect of the present disclosure includes a first acquisition unit, a second acquisition unit, and a control unit. The first acquisition unit acquires command information. The command information is information regarding the recognition result of the voice input to the voice input device. The second acquisition unit acquires additional information. The additional information includes information different from the command information. The control unit controls a control target including at least one device by a control command based on both the command information and the additional information.

本開示の一態様に係る機器制御方法は、第1取得処理と、第2取得処理と、制御処理と、を有する。前記第1取得処理は、コマンド情報を取得する処理である。前記コマンド情報は、音声入力装置に入力された音声の認識結果に関する情報である。前記第2取得処理は、付加情報を取得する処理である。前記付加情報は、前記コマンド情報とは別の情報からなる。前記制御処理は、前記コマンド情報と前記付加情報との両方に基づく制御命令により、少なくとも1つの機器からなる制御対象を制御する処理である。 The device control method according to one aspect of the present disclosure includes a first acquisition process, a second acquisition process, and a control process. The first acquisition process is a process for acquiring command information. The command information is information regarding the recognition result of the voice input to the voice input device. The second acquisition process is a process for acquiring additional information. The additional information includes information different from the command information. The control process is a process of controlling a control target composed of at least one device by a control command based on both the command information and the additional information.

本開示の一態様に係るプログラムは、前記機器制御方法を、1以上のプロセッサに実行させるためのプログラムである。 The program according to one aspect of the present disclosure is a program for causing one or more processors to execute the device control method.

本開示によれば、ユーザが同じように発話した場合でも機器を柔軟に制御可能である、という利点がある。 According to the present disclosure, there is an advantage that the device can be flexibly controlled even when the user speaks in the same manner.

図1は、実施形態1に係る機器制御システムの使用例を示す概略システム構成図である。FIG. 1 is a schematic system configuration diagram showing a usage example of the device control system according to the first embodiment. 図2は、同上の機器制御システムの概略構成を示すブロック図である。FIG. 2 is a block diagram showing a schematic configuration of the above-mentioned device control system. 図3は、同上の機器制御システムの動作例を示すフローチャートである。FIG. 3 is a flowchart showing an operation example of the above-mentioned device control system. 図4は、同上の機器制御システムの動作を模式的に表すシーケンス図である。FIG. 4 is a sequence diagram schematically showing the operation of the above-mentioned device control system. 図5は、実施形態2に係る機器制御システムの使用例を示す概略システム構成図である。FIG. 5 is a schematic system configuration diagram showing a usage example of the device control system according to the second embodiment.

(実施形態1)
(1)概要
本実施形態に係る機器制御システム1の概要について、図1及び図2を参照して説明する。
(Embodiment 1)
(1) Outline An outline of the device control system 1 according to the present embodiment will be described with reference to FIGS. 1 and 2.

機器制御システム1は、少なくとも1つの機器51〜55からなる制御対象T1(図2参照)を制御するためのシステムである。複数の機器51〜55を特に区別しない場合、複数の機器51〜55の各々を単に「機器5」ともいう。機器制御システム1は、制御対象T1としての機器5に対して、機器5の外部から制御命令を送信することで、制御命令に従って機器5を制御する。 The device control system 1 is a system for controlling a controlled object T1 (see FIG. 2) including at least one device 51 to 55. When the plurality of devices 51 to 55 are not particularly distinguished, each of the plurality of devices 51 to 55 is also simply referred to as “device 5”. The device control system 1 controls the device 5 according to the control command by transmitting a control command from the outside of the device 5 to the device 5 as the control target T1.

ここで、本実施形態に係る機器制御システム1は、音声入力装置2に入力された音声に基づいて、制御対象T1の制御を行う。すなわち、機器制御システム1によれば、ユーザU1は、音声にて制御対象T1を制御する、いわゆる音声操作が可能になる。したがって、ユーザU1は、例えば、両手が塞がっている状態でも、発話する(つまり、音声を発する)ことで制御対象T1の操作が可能となる。 Here, the device control system 1 according to the present embodiment controls the control target T1 based on the voice input to the voice input device 2. That is, according to the device control system 1, the user U1 can perform a so-called voice operation in which the control target T1 is controlled by voice. Therefore, the user U1 can operate the control target T1 by speaking (that is, emitting a voice) even when both hands are closed, for example.

よって、機器制御システム1を用いることで、例えば、音声入力装置2との通信機能を持たず、かつ音声操作に対応していない機器5であっても、ユーザU1の音声入力に応じて、機器制御システム1を介した間接的な音声操作が可能となる。要するに、機器制御システム1によれば、機器制御システム1が音声入力装置2と連携することにより、機器5が音声入力装置2に直接的には連動していなくても、機器5を音声入力装置2に間接的に連動させることができる。 Therefore, by using the device control system 1, for example, even if the device 5 does not have a communication function with the voice input device 2 and does not support voice operation, the device can respond to the voice input of the user U1. Indirect voice operation via the control system 1 becomes possible. In short, according to the device control system 1, the device control system 1 cooperates with the voice input device 2, so that the device 5 can be used as a voice input device even if the device 5 is not directly linked to the voice input device 2. It can be indirectly linked to 2.

ところで、本実施形態に係る機器制御システム1は、第1取得部11と、第2取得部12と、制御部13と、を備えている。第1取得部11は、コマンド情報I1を取得する。コマンド情報I1は、音声入力装置2に入力された音声の認識結果に関する情報である。第2取得部12は、付加情報I2を取得する。付加情報I2は、コマンド情報I1とは別の情報からなる。制御部13は、コマンド情報I1及び付加情報I2との両方に基づく制御命令I3により、少なくとも1つの機器5からなる制御対象T1を制御する。 By the way, the device control system 1 according to the present embodiment includes a first acquisition unit 11, a second acquisition unit 12, and a control unit 13. The first acquisition unit 11 acquires the command information I1. The command information I1 is information regarding the recognition result of the voice input to the voice input device 2. The second acquisition unit 12 acquires the additional information I2. The additional information I2 is composed of information different from the command information I1. The control unit 13 controls the control target T1 including at least one device 5 by the control command I3 based on both the command information I1 and the additional information I2.

上述した構成によれば、機器制御システム1は、制御対象T1の制御に、音声入力装置2に入力された音声に基づくコマンド情報I1だけでなく、コマンド情報I1とは別の付加情報I2も用いている。そのため、例えば、音声入力装置2に入力される音声が同じ場合であっても、少なくとも1つの機器5からなる制御対象T1に対しては、機器制御システム1により、一義的ではなく、付加情報I2次第で異なる制御がなされる。したがって、機器制御システム1によれば、ユーザU1が同じように発話した場合でも機器5を柔軟に制御可能である、という利点がある。 According to the above-described configuration, the device control system 1 uses not only the command information I1 based on the voice input to the voice input device 2 but also the additional information I2 different from the command information I1 to control the control target T1. ing. Therefore, for example, even if the voice input to the voice input device 2 is the same, the device control system 1 is not unique to the control target T1 composed of at least one device 5, and the additional information I2 Different controls are made depending on the situation. Therefore, according to the device control system 1, there is an advantage that the device 5 can be flexibly controlled even when the user U1 speaks in the same manner.

(2)構成
以下、本実施形態に係る機器制御システム1の構成について、図1及び図2を参照して詳しく説明する。
(2) Configuration Hereinafter, the configuration of the device control system 1 according to the present embodiment will be described in detail with reference to FIGS. 1 and 2.

(2.1)前提
本実施形態では一例として、機器制御システム1は、施設F1に導入され、この施設F1に設置されている複数の機器5の少なくとも1つを制御対象T1とすることと仮定する。本開示でいう「施設」は、戸建住宅、集合住宅、又は集合住宅の各住戸等の住宅施設、及びオフィス、工場、ビル、店舗、学校、福祉施設又は病院等の非住宅施設を含む。非住宅施設には、劇場、映画館、公会堂、遊技場、複合施設、飲食店、百貨店、ホテル、旅館、幼稚園、図書館、博物館、美術館、地下街、駅及び空港等も含む。さらには、本開示でいう「施設」には、建物(建造物)だけでなく、球場、庭、駐車場、グランド及び公園等の屋外施設を含む。
(2.1) Premise In the present embodiment, as an example, it is assumed that the device control system 1 is introduced in the facility F1 and at least one of the plurality of devices 5 installed in the facility F1 is the control target T1. To do. The term "facility" as used in the present disclosure includes residential facilities such as detached houses, condominiums, or dwelling units of condominiums, and non-residential facilities such as offices, factories, buildings, stores, schools, welfare facilities, and hospitals. Non-residential facilities include theaters, movie theaters, public halls, amusement parks, complex facilities, restaurants, department stores, hotels, inns, kindergartens, libraries, museums, art galleries, underground streets, stations and airports. Furthermore, the "facility" referred to in the present disclosure includes not only buildings (buildings) but also outdoor facilities such as stadiums, gardens, parking lots, grounds and parks.

本実施形態では特に、機器制御システム1が導入される施設F1が戸建住宅である場合を例として説明する。よって、本実施形態では、機器制御システム1は、施設F1(ここでは戸建住宅)に設置されている複数の機器5の少なくとも1つを制御対象T1として、制御対象T1の制御を行う。より具体的には、本実施形態では、施設F1には父、母、姉及び弟の4人家族が住む戸建住宅である場合を想定する。そのため、本実施形態において、施設F1の住人である父、母、姉及び弟は、機器制御システム1のユーザU1となり得る。 In the present embodiment, a case where the facility F1 into which the device control system 1 is introduced is a detached house will be described as an example. Therefore, in the present embodiment, the device control system 1 controls the control target T1 with at least one of the plurality of devices 5 installed in the facility F1 (here, the detached house) as the control target T1. More specifically, in the present embodiment, it is assumed that the facility F1 is a detached house in which a family of four, a father, a mother, an older sister, and a younger brother, lives. Therefore, in the present embodiment, the father, mother, sister, and younger brother who are residents of the facility F1 can be the user U1 of the device control system 1.

本開示でいう「機器」は、機器制御システム1からの制御命令を受けて制御される機器であって、一例として、電力を用いる電気機器、据置型又は可搬型の設備、装置及びシステムを含む。本実施形態では、施設F1には、制御対象T1となり得る複数の機器51〜55が設置されている。図1の例では、機器51,54は空調機器であって、機器52,55は照明器具であって、機器53は電動シャッタである。 The "device" referred to in the present disclosure is a device controlled by receiving a control command from the device control system 1, and includes, for example, an electric device using electric power, a stationary or portable device, a device, and a system. .. In the present embodiment, a plurality of devices 51 to 55 that can be the control target T1 are installed in the facility F1. In the example of FIG. 1, the devices 51 and 54 are air conditioners, the devices 52 and 55 are lighting fixtures, and the devices 53 are electric shutters.

本開示でいう「音声」は、人が発声器官を通じて発する言語音に加えて、例えば、口笛、フィンガースナップ(finger snapping)音、及び拍手(clapping)音等の、人が意図的に発する音全般を含む。 The "voice" referred to in the present disclosure refers to all sounds intentionally produced by a person, such as whistle, finger snapping sound, and clapping sound, in addition to the speech sound produced by the person through the vocal organs. including.

(2.2)全体構成
本実施形態に係る機器制御システム1は、図1に示すように、コントローラ10及び制御用サーバ100を備えている。
(2.2) Overall Configuration As shown in FIG. 1, the device control system 1 according to the present embodiment includes a controller 10 and a control server 100.

コントローラ10と制御用サーバ100とは、互いに通信可能に構成されている。本開示でいう「通信可能」とは、有線通信又は無線通信の適宜の通信方式により、直接的、又はネットワーク若しくは中継器等を介して間接的に、信号を授受できることを意味する。すなわち、コントローラ10と制御用サーバ100とは、互いに信号を授受することができる。コントローラ10及び制御用サーバ100はいずれもインターネット等のネットワークに接続されており、ネットワークを介して互いに双方向に信号を授受できる。 The controller 10 and the control server 100 are configured to be able to communicate with each other. The term "communicable" as used in the present disclosure means that signals can be sent and received directly or indirectly via a network or a repeater by an appropriate communication method of wired communication or wireless communication. That is, the controller 10 and the control server 100 can send and receive signals to and from each other. Both the controller 10 and the control server 100 are connected to a network such as the Internet, and can exchange signals in both directions via the network.

さらに、機器制御システム1(コントローラ10及び制御用サーバ100)は、図1に示すように、音声入力装置2、音声認識サーバ3及び機器5(制御対象T1)の各々と、通信可能に構成されている。つまり、機器制御システム1は、音声入力装置2、音声認識サーバ3及び機器5の各々との間で、互いに信号を授受することができる。 Further, the device control system 1 (controller 10 and control server 100) is configured to be communicable with each of the voice input device 2, the voice recognition server 3, and the device 5 (control target T1), as shown in FIG. ing. That is, the device control system 1 can send and receive signals to and from each of the voice input device 2, the voice recognition server 3, and the device 5.

本実施形態では、機器制御システム1は、音声入力装置2、音声認識サーバ3及び機器5の各々を構成要素に含まない。ただし、音声入力装置2、音声認識サーバ3及び機器5の少なくとも1つは、機器制御システム1の構成要素に含まれていてもよい。一例として、機器制御システム1は、音声認識サーバ3を構成要素に含んでいてもよい。 In the present embodiment, the device control system 1 does not include each of the voice input device 2, the voice recognition server 3, and the device 5 as components. However, at least one of the voice input device 2, the voice recognition server 3, and the device 5 may be included in the components of the device control system 1. As an example, the device control system 1 may include the voice recognition server 3 as a component.

本実施形態では一例として、コントローラ10、制御用サーバ100、音声入力装置2及び音声認識サーバ3の各々は、1以上のプロセッサ及び1以上のメモリを有するコンピュータシステム(サーバ、クラウドコンピューティングを含む)を主構成とする。プロセッサは、メモリに記録されているプログラムを実行することにより、コントローラ10、制御用サーバ100、音声入力装置2及び音声認識サーバ3の各々の機能を実現する。プログラムは、予めメモリに記録されていてもよいし、メモリカードのような非一時的記録媒体に記録されて提供されたり、電気通信回線を通して提供されたりしてもよい。言い換えれば、上記プログラムは、1以上のプロセッサを、コントローラ10、制御用サーバ100、音声入力装置2及び音声認識サーバ3の各々として機能させるためのプログラムである。 In the present embodiment, as an example, each of the controller 10, the control server 100, the voice input device 2, and the voice recognition server 3 is a computer system (including a server and cloud computing) having one or more processors and one or more memories. Is the main configuration. The processor realizes each function of the controller 10, the control server 100, the voice input device 2, and the voice recognition server 3 by executing the program recorded in the memory. The program may be pre-recorded in memory, provided by being recorded on a non-temporary recording medium such as a memory card, or provided through a telecommunication line. In other words, the program is a program for making one or more processors function as each of the controller 10, the control server 100, the voice input device 2, and the voice recognition server 3.

機器制御システム1の構成要素は、コントローラ10及び制御用サーバ100に分散して配置されている。ここで、コントローラ10は施設F1に設置され、制御用サーバ100は施設F1の外部に設置されている。制御用サーバ100は、例えば、機器5を音声操作可能とする機器制御方法をサービスとしてユーザU1に提供するサービス提供会社によって運用される。機器制御システム1の構成について詳しくは「(2.3)機器制御システムの構成」の欄で説明する。 The components of the device control system 1 are distributed and arranged in the controller 10 and the control server 100. Here, the controller 10 is installed in the facility F1, and the control server 100 is installed outside the facility F1. The control server 100 is operated, for example, by a service providing company that provides the user U1 with a device control method that enables the device 5 to be operated by voice. The configuration of the device control system 1 will be described in detail in the column of "(2.3) Configuration of the device control system".

音声入力装置2は、例えば、ユーザU1の音声に反応して、音楽の再生及び特定の家電機器の制御等を行う、家庭用の音声アシスタントデバイスである。この種の音声入力装置2は、機械学習及び対話型の人工知能(AI:Artificial Intelligence)等の技術を用いて、音声認識及びその他の動作を行う。本開示でいう「音声認識」は、ユーザU1の音声を文字列に変換する処理だけでなく、意味解析及び文脈解析等の自然言語処理を含む。 The voice input device 2 is, for example, a home-use voice assistant device that plays music, controls a specific home appliance, or the like in response to the voice of the user U1. This type of voice input device 2 uses techniques such as machine learning and interactive artificial intelligence (AI) to perform voice recognition and other operations. The "speech recognition" referred to in the present disclosure includes not only the process of converting the speech of the user U1 into a character string, but also natural language processing such as semantic analysis and context analysis.

音声入力装置2は、施設F1に設置されている。音声入力装置2は、音声認識サーバ3と通信可能に構成されている。具体的には、音声入力装置2は、例えば、電波を媒体とする無線通信によりルータに接続される。これにより、音声入力装置2は、ルータ及びネットワークを介して、音声認識サーバ3との双方向の通信が可能となる。音声入力装置2の通信方式は、一例として、Wi−Fi(登録商標)又はBluetooth(登録商標)等の無線通信である。 The voice input device 2 is installed in the facility F1. The voice input device 2 is configured to be able to communicate with the voice recognition server 3. Specifically, the voice input device 2 is connected to the router by, for example, wireless communication using radio waves as a medium. As a result, the voice input device 2 enables bidirectional communication with the voice recognition server 3 via the router and the network. The communication method of the voice input device 2 is, for example, wireless communication such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

音声入力装置2は、メモリに記憶された登録ワードを用いて音声入力装置2に入力された音声の認識(音声認識)を行う。音声入力装置2は、入力された音声の認識結果を、音声認識サーバ3に出力する。登録ワードには、音響モデル及び認識辞書等が含まれている。すなわち、音声入力装置2は、登録ワードを参照して、ユーザU1から入力された音声を分析して音響特徴量を抽出し、認識辞書を参照して音声認識を実行する。音声入力装置2には、例えば、ユーザU1ごとに登録ワードが記憶されている。さらに、音声入力装置2は、音声を発したユーザU1を識別するための話者識別を行うことにより、予め登録されたユーザU1以外の音声、例えば、来客の音声、テレビ番組又はラジオ番組等の音声による音声入力装置2の誤動作を抑制することができる。 The voice input device 2 recognizes the voice input to the voice input device 2 (voice recognition) using the registered word stored in the memory. The voice input device 2 outputs the recognition result of the input voice to the voice recognition server 3. The registered words include an acoustic model, a recognition dictionary, and the like. That is, the voice input device 2 refers to the registered word, analyzes the voice input from the user U1, extracts the acoustic features, and refers to the recognition dictionary to perform voice recognition. In the voice input device 2, for example, a registered word is stored for each user U1. Further, the voice input device 2 performs speaker identification for identifying the user U1 who has emitted the voice, so that the voice other than the user U1 registered in advance, for example, a visitor's voice, a television program, a radio program, or the like can be used. It is possible to suppress a malfunction of the voice input device 2 by voice.

音声入力装置2は、例えば、「リビング」等、施設F1(ここでは戸建住宅)内においてユーザU1の音声が比較的届きやすい場所に配置されている。音声入力装置2は、特定の事象をトリガにして、ユーザU1の音声操作の受け付けを開始する。本実施形態では一例として、特定の事象は、ユーザU1から「音声操作開始」等の特定のキーワード(ウェイクワード)を表す音声が入力されることである。そのため、ユーザU1は、例えば、両手が塞がっている状態でも、音声入力装置2に対する音声操作を開始することができる。ただし、ユーザU1の音声操作の受け付けを開始するための特定の事象は、特定の音声(言葉)が入力されることに限らず、例えば、音声入力装置2の正面にユーザU1が移動すること、又は音声入力装置2のボタンが押されること等であってもよい。 The voice input device 2 is arranged in a place such as a "living room" in the facility F1 (here, a detached house) where the voice of the user U1 is relatively easy to reach. The voice input device 2 triggers a specific event to start accepting the voice operation of the user U1. In the present embodiment, as an example, a specific event is that a voice representing a specific keyword (wake word) such as "start voice operation" is input from the user U1. Therefore, the user U1 can start a voice operation on the voice input device 2 even when both hands are closed, for example. However, the specific event for starting the acceptance of the voice operation of the user U1 is not limited to the input of a specific voice (word), for example, the user U1 moves to the front of the voice input device 2. Alternatively, the button of the voice input device 2 may be pressed.

また、本実施形態では、音声入力装置2は、ユーザU1の音声を電気信号に変換するマイクロフォンに加えて、電気信号を音に変換するスピーカを有している。そのため、音声入力装置2は、ユーザU1の音声による操作(音声入力)を受け付けるだけでなく、ユーザU1に対して音(音声、ビープ音及びメロディ等を含む)を出力することができる。したがって、ユーザU1は、ハンズフリーでインタラクティブに音声入力装置2の操作を行うことができる。 Further, in the present embodiment, the voice input device 2 has a speaker that converts an electric signal into a sound in addition to a microphone that converts the voice of the user U1 into an electric signal. Therefore, the voice input device 2 can not only accept the voice operation (voice input) of the user U1 but also output the sound (including voice, beep sound, melody, etc.) to the user U1. Therefore, the user U1 can operate the voice input device 2 hands-free and interactively.

音声認識サーバ3は、上述したように、音声入力装置2と通信可能に構成されている。つまり、音声認識サーバ3は、インターネット等のネットワークに接続されており、音声入力装置2との間でネットワークを介して互いに双方向に信号を授受できる。音声認識サーバ3は、音声入力装置2から、少なくとも音声の認識結果を受信する。音声認識サーバ3が音声入力装置2から受信する認識結果は、少なくとも音声入力装置2に音声として入力された言葉を含み、かつ音声認識サーバ3の1以上のプロセッサにて処理可能なデータである。例えば、ユーザU1が音声入力装置2に向けて「おはよう」という言葉を発した(発話した)場合、音声認識サーバ3が音声入力装置2から受信する認識結果には、少なくとも「おはよう」という言葉が含まれる。 As described above, the voice recognition server 3 is configured to be able to communicate with the voice input device 2. That is, the voice recognition server 3 is connected to a network such as the Internet, and can send and receive signals to and from the voice input device 2 in both directions via the network. The voice recognition server 3 receives at least the voice recognition result from the voice input device 2. The recognition result received by the voice recognition server 3 from the voice input device 2 is data that includes at least words input as voice to the voice input device 2 and can be processed by one or more processors of the voice recognition server 3. For example, when the user U1 utters (speaks) the word "good morning" to the voice input device 2, the recognition result received by the voice recognition server 3 from the voice input device 2 includes at least the word "good morning". included.

さらに、音声認識サーバ3は、機器制御システム1の制御用サーバ100とも通信可能に構成されている。音声認識サーバ3及び制御用サーバ100はいずれもインターネット等のネットワークに接続されており、ネットワークを介して互いに双方向に信号を授受できる。 Further, the voice recognition server 3 is configured to be able to communicate with the control server 100 of the device control system 1. Both the voice recognition server 3 and the control server 100 are connected to a network such as the Internet, and can exchange signals in both directions via the network.

音声認識サーバ3は、音声入力装置2から認識結果を受信すると、この認識結果が、制御ワードであるか否かを判断する。ここでは、音声認識サーバ3は、例えば、「おはよう」、「おやすみ」、「いってきます」、「ただいま」、「明るくして」、「暗くして」、「温度を上げて」及び「温度を下げて」等の特定のキーワードを、制御ワードとして予め記憶している。制御ワードは、後述する設定部16により、ユーザU1が任意に設定し、登録することが可能である。 When the voice recognition server 3 receives the recognition result from the voice input device 2, it determines whether or not the recognition result is a control word. Here, the voice recognition server 3 uses, for example, "good morning", "good night", "come", "I'm home", "brighten", "darken", "raise the temperature", and "temperature". A specific keyword such as "lower" is stored in advance as a control word. The control word can be arbitrarily set and registered by the user U1 by the setting unit 16 described later.

特に、「おはよう」、「おやすみ」、「いってきます」、「ただいま」といった制御ワードは、機器5の制御を直接的に示しておらず、単に、ユーザU1の生活の中での起床、就寝、外出、帰宅といったシーンを示す言葉(「シーンワード」ともいう)である。このようなシーンワードを制御ワードとすることで、ユーザU1が生活の中で、各シーンにおいて自然と発する言葉を制御ワードとして、機器5の制御を実現することが可能である。本実施形態では、このようなシーンワードが制御ワードとして登録されている場合を想定する。 In particular, control words such as "good morning," "good night," "come," and "I'm home" do not directly indicate control of device 5, but simply wake up, go to bed, etc. in the life of user U1. It is a word (also called "scene word") that indicates a scene such as going out or returning home. By using such a scene word as a control word, it is possible to realize control of the device 5 by using a word that the user U1 naturally utters in each scene in his / her life as a control word. In the present embodiment, it is assumed that such a scene word is registered as a control word.

音声認識サーバ3は、受信した認識結果が制御ワードである場合、つまり認識結果が制御ワードに該当する場合に、制御用サーバ100に対してコマンド情報I1を出力(送信)する。本開示でいう「コマンド情報」は、音声入力装置2に入力された音声の認識結果に関する情報である。つまり、コマンド情報I1は、音声認識サーバ3が音声入力装置2から受信した認識結果そのものを含む情報でもよいし、認識結果を基に生成される情報であってもよい。一例として、音声認識サーバ3は、「おはよう」という言葉が含まれる認識結果を音声入力装置2から受信した場合に、「おはよう」という言葉を含むコマンド情報I1を生成し、制御用サーバ100にコマンド情報I1を出力する。 The voice recognition server 3 outputs (transmits) command information I1 to the control server 100 when the received recognition result is a control word, that is, when the recognition result corresponds to the control word. The "command information" referred to in the present disclosure is information regarding the recognition result of the voice input to the voice input device 2. That is, the command information I1 may be information including the recognition result itself received from the voice input device 2 by the voice recognition server 3, or may be information generated based on the recognition result. As an example, when the voice recognition server 3 receives the recognition result including the word "good morning" from the voice input device 2, the voice recognition server 3 generates command information I1 including the word "good morning" and commands the control server 100. Information I1 is output.

音声認識サーバ3は、受信した認識結果が制御ワードでない場合、つまり認識結果が制御ワードに該当しない場合、制御用サーバ100へのコマンド情報I1の出力を行わない。 The voice recognition server 3 does not output the command information I1 to the control server 100 when the received recognition result is not a control word, that is, when the recognition result does not correspond to the control word.

(2.3)機器制御システムの構成
次に、機器制御システム1の構成についてより詳しく説明する。
(2.3) Configuration of Device Control System Next, the configuration of the device control system 1 will be described in more detail.

機器制御システム1は、上述した通り、それぞれ1以上のプロセッサ及び1以上のメモリを有するコンピュータシステム(サーバ、クラウドコンピューティングを含む)を主構成とする、コントローラ10と制御用サーバ100とを備えている。 As described above, the device control system 1 includes a controller 10 and a control server 100, each of which mainly comprises a computer system (including a server and cloud computing) having one or more processors and one or more memories. There is.

また、本実施形態に係る機器制御システム1は、上述したように、第1取得部11と、第2取得部12と、制御部13と、を備えている。さらに、本実施形態では、機器制御システム1は、図2に示すように、第1取得部11、第2取得部12及び制御部13に加えて、入力部14、表示部15、設定部16、記憶部17、通信部18及び情報生成部19を更に備えている。 Further, as described above, the device control system 1 according to the present embodiment includes a first acquisition unit 11, a second acquisition unit 12, and a control unit 13. Further, in the present embodiment, as shown in FIG. 2, the device control system 1 has an input unit 14, a display unit 15, and a setting unit 16 in addition to the first acquisition unit 11, the second acquisition unit 12, and the control unit 13. , A storage unit 17, a communication unit 18, and an information generation unit 19 are further provided.

ここでは一例として、第1取得部11、第2取得部12、制御部13、入力部14、表示部15、設定部16、記憶部17及び通信部18は、いずれもコントローラ10に設けられており、情報生成部19は、制御用サーバ100に設けられている。すなわち、本実施形態においては、第1取得部11、第2取得部12、制御部13、入力部14、表示部15、設定部16、記憶部17、通信部18及び情報生成部19の構成要素が、コントローラ10と制御用サーバ100とに分散して配置されている。 Here, as an example, the first acquisition unit 11, the second acquisition unit 12, the control unit 13, the input unit 14, the display unit 15, the setting unit 16, the storage unit 17, and the communication unit 18 are all provided in the controller 10. The information generation unit 19 is provided in the control server 100. That is, in the present embodiment, the configuration of the first acquisition unit 11, the second acquisition unit 12, the control unit 13, the input unit 14, the display unit 15, the setting unit 16, the storage unit 17, the communication unit 18, and the information generation unit 19. The elements are distributed and arranged in the controller 10 and the control server 100.

第1取得部11は、上述したように、コマンド情報I1を取得する。コマンド情報I1は、音声入力装置2に入力された音声の認識結果に関する情報であって、例えば、音声認識サーバ3が音声入力装置2から受信した認識結果そのものを含む情報である。本実施形態では一例として、第1取得部11は、「おはよう」という言葉が含まれるコマンド情報I1を、音声認識サーバ3から取得する。第1取得部11がコマンド情報I1を取得するタイミングは、音声認識サーバ3がコマンド情報I1を出力するタイミングによって決まる。 As described above, the first acquisition unit 11 acquires the command information I1. The command information I1 is information regarding the recognition result of the voice input to the voice input device 2, and is, for example, information including the recognition result itself received from the voice input device 2 by the voice recognition server 3. In the present embodiment, as an example, the first acquisition unit 11 acquires the command information I1 including the word "good morning" from the voice recognition server 3. The timing at which the first acquisition unit 11 acquires the command information I1 is determined by the timing at which the voice recognition server 3 outputs the command information I1.

第2取得部12は、上述したように、付加情報I2を取得する。付加情報I2は、コマンド情報I1とは別の情報からなる。本実施形態では、付加情報I2は、コマンド情報I1から独立した外部情報を含む。本開示でいう「外部情報」とは、コマンド情報I1から独立した、つまりコマンド情報I1に依存しない情報である。例えば、第1取得部11でのコマンド情報I1の取得回数又は取得頻度等のように、コマンド情報I1に依存する、つまりコマンド情報I1との相関がある情報を「内部情報」とすると、コマンド情報I1に依存しない情報「外部情報」である。本実施形態では、付加情報I2は、内部情報を含まず、外部情報と内部情報とのうちの外部情報のみを含む。 The second acquisition unit 12 acquires the additional information I2 as described above. The additional information I2 is composed of information different from the command information I1. In this embodiment, the additional information I2 includes external information independent of the command information I1. The "external information" referred to in the present disclosure is information that is independent of the command information I1, that is, that does not depend on the command information I1. For example, if information that depends on command information I1, that is, has a correlation with command information I1, such as the number of acquisitions or acquisition frequency of command information I1 in the first acquisition unit 11, is defined as "internal information". Information that does not depend on I1 "external information". In the present embodiment, the additional information I2 does not include the internal information, but includes only the external information of the external information and the internal information.

具体的には、付加情報I2は、人(ユーザU1)の操作に応じて変化する入力情報を含む。つまり、例えば、ユーザU1がスイッチ等を手で操作することによって変化する入力情報が、付加情報I2に含まれている。また、付加情報I2は、期間に関する期間情報を含む。本開示でいう「期間」は、時間軸上においてある幅で規定される区間を意味し、一例として、時間帯、日(曜日、平日/祝日を含む)、月、年及び季節等を単位とする期間を含む。つまり、例えば、季節を単位とする場合、付加情報I2は、現在の季節が春、夏、秋、冬のいずれであるかを示す期間情報を含む。 Specifically, the additional information I2 includes input information that changes according to the operation of a person (user U1). That is, for example, the additional information I2 includes input information that changes when the user U1 manually operates a switch or the like. In addition, the additional information I2 includes period information regarding the period. The term "period" as used in the present disclosure means a section defined by a certain width on the time axis, and as an example, the unit is time zone, day (including day of the week, weekday / holiday), month, year, season, etc. Includes the period to do. That is, for example, when the unit is a season, the additional information I2 includes period information indicating whether the current season is spring, summer, autumn, or winter.

また、付加情報I2は、音声入力装置2に入力された音声を発した話者(ユーザU1)に関する話者情報を含む。つまり、例えば、音声入力装置2に入力された音声を発したユーザU1が、父、母、姉及び弟のいずれであるかを示す話者情報が、付加情報I2に含まれている。さらに、付加情報I2は、音声入力装置2に入力された音声から抽出され、音声を発した話者の状態に関連する状態情報を含む。本開示でいう「話者の状態」は、音声入力装置2に入力された音声から抽出し得る情報であって、例えば、声の大きさ(声量)及び調子等から推定される、話者の感情又は体調等を含む。話者の感情は、一例として、覚醒の度合いである覚醒感(Arousal Level)と、快適さの度合いである快適感(Valence Level)と、を2軸とする人の感情の二次元モデル(ラッセル円環モデル)を用いて推定可能である。 Further, the additional information I2 includes speaker information regarding the speaker (user U1) who has emitted the voice input to the voice input device 2. That is, for example, the additional information I2 includes speaker information indicating whether the user U1 who has emitted the voice input to the voice input device 2 is a father, a mother, an older sister, or a younger brother. Further, the additional information I2 includes state information extracted from the voice input to the voice input device 2 and related to the state of the speaker who uttered the voice. The "speaker's state" referred to in the present disclosure is information that can be extracted from the voice input to the voice input device 2, and is estimated from, for example, the loudness (voice volume) and tone of the voice of the speaker. Includes emotions or physical condition. As an example, the speaker's emotions are a two-dimensional model (Russell) of human emotions centered on the degree of arousal (Arousal Level) and the degree of comfort (Valence Level). It can be estimated using the annulus model).

上述したような、入力情報、期間情報、話者情報及び状態情報は、いずれもコマンド情報I1に依存しない、つまりコマンド情報I1から独立した情報であるので、「外部情報」に含まれる。 The input information, the period information, the speaker information, and the state information as described above are all included in the "external information" because they do not depend on the command information I1, that is, they are information independent of the command information I1.

第2取得部12が付加情報I2を取得するタイミングは、第1取得部11がコマンド情報I1を取得するタイミングと同期している。つまり、第2取得部12が付加情報I2を取得するタイミングは、音声認識サーバ3がコマンド情報I1を出力するタイミングによって決まる。 The timing at which the second acquisition unit 12 acquires the additional information I2 is synchronized with the timing at which the first acquisition unit 11 acquires the command information I1. That is, the timing at which the second acquisition unit 12 acquires the additional information I2 is determined by the timing at which the voice recognition server 3 outputs the command information I1.

制御部13は、上述したように、コマンド情報I1及び付加情報I2との両方に基づく制御命令I3により、少なくとも1つの機器5からなる制御対象T1を制御する。すなわち、制御部13は、第1取得部11が取得したコマンド情報I1、及び第2取得部12が取得した付加情報I2との両方に基づいて、制御命令I3を生成する。このようにして生成される制御命令I3により、制御部13は、少なくとも1つの機器5からなる制御対象T1の制御を実行する。 As described above, the control unit 13 controls the control target T1 including at least one device 5 by the control command I3 based on both the command information I1 and the additional information I2. That is, the control unit 13 generates the control command I3 based on both the command information I1 acquired by the first acquisition unit 11 and the additional information I2 acquired by the second acquisition unit 12. By the control command I3 generated in this way, the control unit 13 executes the control of the control target T1 including at least one device 5.

すなわち、制御部13は、コマンド情報I1だけでなく、付加情報I2についても制御対象T1の制御に反映する。例えば、コマンド情報I1が同じであっても、付加情報I2が異なる条件を満たす場合には、制御部13は、異なる制御命令I3にて制御対象T1の制御を実行する。つまり、制御部13は、コマンド情報I1が同じでも、付加情報I2が第1条件を満たす場合には第1の制御命令I3にて制御対象T1を制御し、付加情報I2が第2条件を満たす場合には、第2の制御命令I3にて制御対象T1を制御する。ここで、第2条件は第1条件とは異なる条件であって、第2の制御命令I3は第1の制御命令I3とは異なる制御命令I3である。 That is, the control unit 13 reflects not only the command information I1 but also the additional information I2 in the control of the control target T1. For example, even if the command information I1 is the same, if the additional information I2 satisfies different conditions, the control unit 13 executes the control of the control target T1 by the different control command I3. That is, even if the command information I1 is the same, the control unit 13 controls the control target T1 with the first control command I3 when the additional information I2 satisfies the first condition, and the additional information I2 satisfies the second condition. In this case, the control target T1 is controlled by the second control command I3. Here, the second condition is a condition different from the first condition, and the second control command I3 is a control command I3 different from the first control command I3.

本実施形態では、付加情報I2は、上述したように、入力情報、期間情報、話者情報及び状態情報を含み得る。そこで、制御部13は、入力情報、期間情報、話者情報及び状態情報が付加情報I2に含まれる場合、入力情報、期間情報、話者情報及び状態情報に応じて制御命令I3を変化させる。すなわち、付加情報I2が入力情報を含む場合、制御部13は、少なくとも入力情報に応じて制御命令I3を変化させる。また、付加情報I2が期間情報を含む場合、制御部13は、少なくとも期間情報に応じて制御命令I3を変化させる。また、付加情報I2が話者情報を含む場合、制御部13は、少なくとも話者情報に応じて制御命令I3を変化させる。また、付加情報I2が状態情報を含む場合、制御部13は、少なくとも状態情報に応じて制御命令I3を変化させる。さらに、これら入力情報、期間情報、話者情報及び状態情報のうちの2つ以上の情報が付加情報I2に含まれる場合、制御部13は、これら2つ以上の情報に応じて制御命令I3を変化させる。 In the present embodiment, the additional information I2 may include input information, period information, speaker information, and state information, as described above. Therefore, when the input information, the period information, the speaker information, and the state information are included in the additional information I2, the control unit 13 changes the control command I3 according to the input information, the period information, the speaker information, and the state information. That is, when the additional information I2 includes the input information, the control unit 13 changes the control command I3 at least according to the input information. Further, when the additional information I2 includes the period information, the control unit 13 changes the control command I3 at least according to the period information. Further, when the additional information I2 includes the speaker information, the control unit 13 changes the control command I3 at least according to the speaker information. Further, when the additional information I2 includes the state information, the control unit 13 changes the control command I3 at least according to the state information. Further, when two or more of the input information, the period information, the speaker information, and the state information are included in the additional information I2, the control unit 13 issues the control command I3 in response to the two or more pieces of information. Change.

ところで、本開示でいう「制御命令」は、複数の機器5のうちの制御対象T1となる少なくとも1つの機器5を特定する対象特定項目と、制御対象T1の動作を特定する内容特定項目と、を含んでいる。そして、制御部13は、コマンド情報I1及び付加情報I2との両方に基づいて、対象特定項目及び内容特定項目を決定する。 By the way, the "control command" referred to in the present disclosure includes a target specific item that specifies at least one device 5 that is a control target T1 among a plurality of devices 5, a content specific item that specifies the operation of the control target T1. Includes. Then, the control unit 13 determines the target specific item and the content specific item based on both the command information I1 and the additional information I2.

つまり、制御命令I3は、対象特定項目にて、制御対象T1となる少なくとも1つの機器5を特定可能とする。対象特定項目は、例えば、複数の機器5の各々に個別に割り当てられ、各機器5に記憶されている識別情報(アドレス等)で表される。 That is, the control command I3 makes it possible to specify at least one device 5 that is the control target T1 in the target identification item. The target specific item is represented by, for example, identification information (address, etc.) that is individually assigned to each of the plurality of devices 5 and stored in each device 5.

また、制御命令I3は、内容特定項目にて、制御対象T1をどのように制御するかを特定可能とする。例えば、空調機器からなる機器51,54が制御対象T1であれば、制御対象T1の動作モード(冷房/暖房等)、設定温度、風向、風量及び運転時間(タイマ)等の動作が、内容特定項目にて規定される。照明器具からなる機器52,55が制御対象T1であれば、制御対象T1の消灯、点灯、調光点灯、調光レベル(明るさ)、光色(色温度)及び運転時間(タイマ)等の動作が、内容特定項目にて規定される。電動シャッタからなる機器53が制御対象T1であれば、制御対象T1の開/閉及び開度等の動作が、内容特定項目にて規定される。 Further, the control command I3 makes it possible to specify how to control the control target T1 in the content specifying item. For example, if the devices 51 and 54 composed of air conditioners are the control target T1, the operations such as the operation mode (cooling / heating, etc.), set temperature, wind direction, air volume, and operation time (timer) of the control target T1 are specified. It is specified by the item. If the devices 52 and 55 made of lighting equipment are the control target T1, the control target T1 is turned off, turned on, dimmed and turned on, dimming level (brightness), light color (color temperature), operating time (timer), etc. The operation is specified by the content specific item. If the device 53 including the electric shutter is the control target T1, the operations such as opening / closing and opening of the control target T1 are defined by the content specifying items.

これにより、制御部13は、制御命令I3を出力することにより、複数の機器5のうちのいずれの機器5を制御対象T1とし、かつ制御対象T1をどのように制御するか、を指定することができる。 As a result, the control unit 13 specifies which of the plurality of devices 5 is the control target T1 and how to control the control target T1 by outputting the control command I3. Can be done.

また、本実施形態では、制御部13は、コマンド情報I1と付加情報I2との両方に基づいて、複数の機器5の中から2つ以上の機器5を制御対象T1として選択する。つまり、制御部13は、1つの機器5を制御対象T1とするのみでなく、複数(2つ以上)の機器5を制御対象T1として選択することが可能である。これにより、制御部13は、複数の機器5をまとめて(一括して)制御することが可能である。制御対象T1として選択される2つ以上の機器5は、同種の機器5であってもよいし、例えば、空調機器及び照明器具等のように、異種の機器5を含んでいてもよい。 Further, in the present embodiment, the control unit 13 selects two or more devices 5 as the control target T1 from the plurality of devices 5 based on both the command information I1 and the additional information I2. That is, the control unit 13 can not only set one device 5 as the control target T1, but also select a plurality of (two or more) devices 5 as the control target T1. As a result, the control unit 13 can collectively (collectively) control a plurality of devices 5. The two or more devices 5 selected as the control target T1 may be the same type of device 5, or may include different types of devices 5, such as an air conditioner and a lighting fixture.

ところで、本実施形態では一例として、上述したような制御命令I3(対象特定項目及び内容特定項目)に相当する命令候補を複数含む制御リスト(制御テーブル)を、後述する記憶部17が記憶している。そして、制御部13は、記憶部17に記憶されている制御リストに含まれる複数の命令候補の中から、いずれかの命令候補を選択し、選択した命令候補に相当する制御命令I3に従って制御対象T1の制御を実行する。 By the way, in the present embodiment, as an example, a storage unit 17 described later stores a control list (control table) including a plurality of command candidates corresponding to the control command I3 (target specific item and content specific item) as described above. There is. Then, the control unit 13 selects one of the instruction candidates from the plurality of instruction candidates included in the control list stored in the storage unit 17, and controls according to the control instruction I3 corresponding to the selected instruction candidate. The control of T1 is executed.

ここで、制御リストにおいては、1つのコマンド情報I1に対して、2以上の命令候補が対応付けられている。すなわち、コマンド情報I1のみでは、命令候補を1つに絞ることができないところ、本実施形態に係る制御部13は、コマンド情報I1に加えて付加情報I2を用いることで、命令候補を一つに絞り込むことを可能とする。要するに、制御部13は、1つのコマンド情報I1に対応付けられている複数の命令候補の中から、付加情報I2に基づいて一の命令候補を選択し、選択した一の命令候補を制御命令I3として制御対象T1を制御する。 Here, in the control list, two or more instruction candidates are associated with one command information I1. That is, where the command information I1 alone cannot narrow down the instruction candidates to one, the control unit 13 according to the present embodiment uses the additional information I2 in addition to the command information I1 to combine the instruction candidates into one. It is possible to narrow down. In short, the control unit 13 selects one instruction candidate based on the additional information I2 from a plurality of instruction candidates associated with one command information I1, and controls the selected one instruction candidate to control instruction I3. The control target T1 is controlled as.

さらに、付加情報I2が判別不能である場合等で、付加情報I2による命令候補の絞り込みができない場合に対処できるように、本実施形態では、制御リスト中にデフォルトの命令候補が用意されている。すなわち、付加情報I2による命令候補の絞り込みができない場合であっても、制御部13が、デフォルトの命令候補を制御命令I3として採用することにより、制御対象T1の制御が可能となる。要するに、制御部13は、付加情報I2が判定条件を満たした場合に、判定条件に従って一の命令候補を選択し、選択した一の命令候補を制御命令I3として制御対象T1を制御する。一方、付加情報I2が判定条件を満たさない場合に、制御部13は、複数の命令候補の中のデフォルトの命令候補を選択し、デフォルトの命令候補を制御命令I3として制御対象T1を制御する。 Further, in the present embodiment, a default instruction candidate is prepared in the control list so that it can be dealt with when the additional information I2 cannot be discriminated and the instruction candidates cannot be narrowed down by the additional information I2. That is, even when the command candidates cannot be narrowed down by the additional information I2, the control unit 13 can control the control target T1 by adopting the default command candidate as the control command I3. In short, when the additional information I2 satisfies the determination condition, the control unit 13 selects one instruction candidate according to the determination condition, and controls the control target T1 with the selected one instruction candidate as the control instruction I3. On the other hand, when the additional information I2 does not satisfy the determination condition, the control unit 13 selects the default instruction candidate from the plurality of instruction candidates, and controls the control target T1 with the default instruction candidate as the control instruction I3.

入力部14は、ユーザU1の操作に応じた入力信号の入力を受け付ける。すなわち、機器制御システム1は、ユーザU1の操作を受け付けることが可能である。ここで、入力部14が受け付ける入力信号は、ユーザU1の音声操作以外の操作、基本的には、ユーザU1が自らの手で行う操作によって発生する。入力部14は、一例として、コントローラ10に設けられたタッチパネルディスプレイ、又は押ボタンの操作によって発生する入力信号の入力を受け付ける。 The input unit 14 receives the input of the input signal according to the operation of the user U1. That is, the device control system 1 can accept the operation of the user U1. Here, the input signal received by the input unit 14 is generated by an operation other than the voice operation of the user U1, basically, an operation performed by the user U1 by his / her own hand. As an example, the input unit 14 receives an input of an input signal generated by operating a touch panel display provided on the controller 10 or a push button.

表示部15は、表示によりユーザU1に情報を提示する機能を有している。本実施形態では、表示部15及び入力部14は、例えば、タッチパネルディスプレイにて実現される。そのため、コントローラ10は、タッチパネルディスプレイに表示される各画面上でのボタン等のオブジェクトの操作(タップ、スワイプ、ドラッグ等)を検出することをもって、ボタン等のオブジェクトが操作されたことと判断する。つまり、表示部15は、タッチパネルディスプレイに含まれる、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等にて実現される。 The display unit 15 has a function of presenting information to the user U1 by display. In the present embodiment, the display unit 15 and the input unit 14 are realized by, for example, a touch panel display. Therefore, the controller 10 determines that the object such as the button has been operated by detecting the operation (tap, swipe, drag, etc.) of the object such as the button on each screen displayed on the touch panel display. That is, the display unit 15 is realized by, for example, a liquid crystal display, an organic EL (Electro Luminescence) display, or the like included in the touch panel display.

設定部16は、コマンド情報I1と付加情報I2と制御命令I3との対応関係を設定する。本実施形態では、設定部16は、設定を無効にする通常モードと、手動設定モードと、の2つのモードを有している。通常モードにおいては、設定部16は、コマンド情報I1と付加情報I2と制御命令I3との対応関係を固定し、コマンド情報I1と付加情報I2と制御命令I3との対応関係の設定(変更)を行わない。手動設定モードは、コマンド情報I1と付加情報I2と制御命令I3との対応関係を、ユーザU1が手動で設定できるモードである。手動設定モードにおいては、設定部16は、例えば、入力部14が受け付けた入力信号、つまりユーザU1の操作に応じた入力信号に従って、コマンド情報I1と付加情報I2と制御命令I3との対応関係を設定(変更)する。具体的には、ユーザU1は、制御リスト上において、コマンド情報I1及び付加情報I2の1つの組み合わせに対して、一の命令候補を対応付ける。 The setting unit 16 sets the correspondence between the command information I1 and the additional information I2 and the control command I3. In the present embodiment, the setting unit 16 has two modes, a normal mode for disabling the setting and a manual setting mode. In the normal mode, the setting unit 16 fixes the correspondence between the command information I1 and the additional information I2 and the control command I3, and sets (changes) the correspondence between the command information I1 and the additional information I2 and the control command I3. Not performed. The manual setting mode is a mode in which the user U1 can manually set the correspondence between the command information I1 and the additional information I2 and the control command I3. In the manual setting mode, the setting unit 16 determines the correspondence between the command information I1, the additional information I2, and the control command I3 according to, for example, the input signal received by the input unit 14, that is, the input signal corresponding to the operation of the user U1. Set (change). Specifically, the user U1 associates one command candidate with one combination of the command information I1 and the additional information I2 on the control list.

また、本実施形態では、設定部16は、通常モード及び手動設定モードに加えて、学習モードを有している。学習モードは、制御対象T1に対して制御命令I3に相当する制御が行われた場合に、制御命令I3と、コマンド情報I1と付加情報I2との対応関係を生成するモードである。すなわち、学習モードにおいては、設定部16は、コマンド情報I1と付加情報I2と制御命令I3との対応関係を、自動的に学習して調整(変更)する。具体的には、設定部16は、コマンド情報I1及び付加情報I2の1つの組み合わせに対して、相関の高い機器5の操作をユーザU1が行った場合に、この操作に相当する命令候補を生成し、制御リストに追加する。または、設定部16は、コマンド情報I1及び付加情報I2の1つの組み合わせに対して、相関の高い機器5の操作をユーザU1が行った場合に、この操作に応じて制御リスト内の命令候補を変更(削除を含む)する。学習モードにおける設定部16での学習は、例えば、制御用サーバ100に構築されたニューラルネットワークにて訓練(学習)がされることにより行われてもよい。 Further, in the present embodiment, the setting unit 16 has a learning mode in addition to the normal mode and the manual setting mode. The learning mode is a mode for generating a correspondence relationship between the control command I3, the command information I1 and the additional information I2 when the control corresponding to the control command I3 is performed on the control target T1. That is, in the learning mode, the setting unit 16 automatically learns and adjusts (changes) the correspondence between the command information I1 and the additional information I2 and the control command I3. Specifically, when the user U1 performs an operation of the device 5 having a high correlation with respect to one combination of the command information I1 and the additional information I2, the setting unit 16 generates a command candidate corresponding to this operation. And add it to the control list. Alternatively, when the user U1 performs an operation of the device 5 having a high correlation with respect to one combination of the command information I1 and the additional information I2, the setting unit 16 sets a command candidate in the control list in response to this operation. Make changes (including deletion). The learning in the setting unit 16 in the learning mode may be performed, for example, by training (learning) in the neural network constructed in the control server 100.

記憶部17は、例えば、命令候補を複数含む制御リスト等を記憶する。また、記憶部17は、制御部13等での演算に必要な情報等を更に記憶する。記憶部17は、EEPROM(Electrically Erasable Programmable Read-Only Memory)のような書き換え可能な不揮発性メモリを含む。 The storage unit 17 stores, for example, a control list including a plurality of instruction candidates. Further, the storage unit 17 further stores information and the like necessary for the calculation by the control unit 13 and the like. The storage unit 17 includes a rewritable non-volatile memory such as an EEPROM (Electrically Erasable Programmable Read-Only Memory).

通信部18は、制御用サーバ100及び制御対象T1の各々との通信機能を有する。通信部18は、制御用サーバ100との間で、例えば、ネットワークを介して双方向の通信が可能である。また、通信部18は、制御対象T1との間で、例えば、電波を媒体とした無線通信により双方向の通信が可能である。無線通信の一例としては、920MHz帯の特定小電力無線局(免許を要しない無線局)、Wi−Fi(登録商標)、又はBluetooth(登録商標)等の通信規格に準拠した通信方式がある。また、通信部18(コントローラ10)と、制御対象T1との間の通信における通信プロトコルは、例えば、Ethernet(登録商標)、ECHONET Lite(登録商標)等である。 The communication unit 18 has a communication function with each of the control server 100 and the control target T1. The communication unit 18 is capable of bidirectional communication with the control server 100, for example, via a network. Further, the communication unit 18 can perform bidirectional communication with the control target T1 by, for example, wireless communication using radio waves as a medium. As an example of wireless communication, there is a communication method compliant with a communication standard such as a specific low power wireless station (a wireless station that does not require a license) in the 920 MHz band, Wi-Fi (registered trademark), or Bluetooth (registered trademark). Further, the communication protocol in the communication between the communication unit 18 (controller 10) and the control target T1 is, for example, Ethernet (registered trademark), ECHONET Lite (registered trademark), or the like.

制御用サーバ100に設けられている情報生成部19は、付加情報I2に含まれ得る種々の情報を生成する。例えば、付加情報I2が、季節を示す期間情報を含む場合、情報生成部19は、現在時刻(月日も含む)に従って現在の季節が春、夏、秋、冬のいずれであるかを示す期間情報を生成する。この場合、制御用サーバ100は、例えば、NTP(Network Time Protocol)サーバ等との通信により、正確な現在時刻を計時する。また、例えば、付加情報I2が、話者情報を含む場合、情報生成部19は、音声認識サーバ3と通信することで、音声入力装置2に入力された音声を発したユーザU1が、父、母、姉及び弟のいずれであるかを示す話者情報を生成する。例えば、付加情報I2が、状態情報を含む場合、情報生成部19は、音声認識サーバ3と通信することで、音声入力装置2に入力された音声を発した話者(ユーザU1)の状態を示す状態情報を生成する。 The information generation unit 19 provided in the control server 100 generates various information that can be included in the additional information I2. For example, when the additional information I2 includes period information indicating a season, the information generation unit 19 indicates a period indicating whether the current season is spring, summer, autumn, or winter according to the current time (including the month and day). Generate information. In this case, the control server 100 clocks an accurate current time by communicating with, for example, an NTP (Network Time Protocol) server or the like. Further, for example, when the additional information I2 includes speaker information, the information generation unit 19 communicates with the voice recognition server 3, and the user U1 who emits the voice input to the voice input device 2 is the father. Generates speaker information indicating whether it is a mother, an older sister, or a younger brother. For example, when the additional information I2 includes the state information, the information generation unit 19 communicates with the voice recognition server 3 to change the state of the speaker (user U1) who has emitted the voice input to the voice input device 2. Generate the indicated state information.

(3)動作
次に、本実施形態に係る機器制御システム1の動作、つまり本実施形態に係る機器制御方法について説明する。
(3) Operation Next, the operation of the device control system 1 according to the present embodiment, that is, the device control method according to the present embodiment will be described.

(3.1)基本動作例
図3は、機器制御システム1の動作の一例を示すフローチャートである。
(3.1) Example of Basic Operation FIG. 3 is a flowchart showing an example of the operation of the device control system 1.

すなわち、まずは音声入力装置2に対する、音声入力の有無が判断される(S1)。本実施形態では、音声入力装置2は、ユーザU1から「音声操作開始」等の特定のキーワード(ウェイクワード)を表す音声が入力されることをトリガにして、ユーザU1の音声操作の受け付けを開始する。つまり、音声入力装置2は、ユーザU1からウェイクワードの入力を受け付けるまでは音声入力なし(S1:No)と判断し、処理S1を繰り返し実行する。 That is, first, the presence / absence of voice input to the voice input device 2 is determined (S1). In the present embodiment, the voice input device 2 starts accepting the voice operation of the user U1 by triggering the input of the voice representing a specific keyword (wake word) such as "start voice operation" from the user U1. To do. That is, the voice input device 2 determines that there is no voice input (S1: No) until the user U1 accepts the input of the wake word, and repeatedly executes the process S1.

一方、音声入力装置2がユーザU1からウェイクワードの入力を受け付けると、音声入力装置2は、音声入力あり(S1:Yes)と判断し、ユーザU1からの音声を受け付ける。このとき、音声入力装置2に入力された音声の認識結果は、音声入力装置2から音声認識サーバ3に送信される。そして、音声認識サーバ3は、音声入力装置2から受信した認識結果が制御ワードであるか否かを判断する(S2)。音声入力装置2から受信した認識結果が制御ワードでなければ(S2:No)、処理S1を繰り返し実行する。 On the other hand, when the voice input device 2 receives the input of the wake word from the user U1, the voice input device 2 determines that there is voice input (S1: Yes) and accepts the voice from the user U1. At this time, the recognition result of the voice input to the voice input device 2 is transmitted from the voice input device 2 to the voice recognition server 3. Then, the voice recognition server 3 determines whether or not the recognition result received from the voice input device 2 is a control word (S2). If the recognition result received from the voice input device 2 is not a control word (S2: No), the process S1 is repeatedly executed.

音声入力装置2から受信した認識結果が制御ワードであれば(S2:Yes)、音声認識サーバ3は、制御用サーバ100に対してコマンド情報I1を出力する。これにより、機器制御システム1は、第1取得部11にてコマンド情報I1を取得する(S3)。このとき、第1取得部11は、制御用サーバ100を介して、音声認識サーバ3からのコマンド情報I1を取得する。さらに、機器制御システム1は、第2取得部12にて付加情報I2を取得する(S4)。このとき、第2取得部12は、例えば、制御用サーバ100(情報生成部19)で生成された付加情報I2を、制御用サーバ100から取得する。 If the recognition result received from the voice input device 2 is a control word (S2: Yes), the voice recognition server 3 outputs the command information I1 to the control server 100. As a result, the device control system 1 acquires the command information I1 by the first acquisition unit 11 (S3). At this time, the first acquisition unit 11 acquires the command information I1 from the voice recognition server 3 via the control server 100. Further, the device control system 1 acquires the additional information I2 by the second acquisition unit 12 (S4). At this time, the second acquisition unit 12 acquires, for example, the additional information I2 generated by the control server 100 (information generation unit 19) from the control server 100.

次に、機器制御システム1は、制御部13にて、記憶部17に記憶されている制御リストに含まれる複数の命令候補の中から、まずはコマンド情報I1による命令候補の絞り込みを行う(S5)。このとき、制御部13は、複数の命令候補のうち、取得したコマンド情報I1に対応する2以上の命令候補を、一次候補として選択する。 Next, the device control system 1 first narrows down the command candidates by the command information I1 from the plurality of command candidates included in the control list stored in the storage unit 17 by the control unit 13 (S5). .. At this time, the control unit 13 selects two or more command candidates corresponding to the acquired command information I1 as primary candidates from the plurality of command candidates.

そして、機器制御システム1は、制御部13にて、付加情報I2が判定条件を満たすか否かを判断する(S6)。判定条件は、例えば、付加情報I2が、季節を示す期間情報を含む場合に、期間情報が「夏」又は「冬」のいずれかを示すこと、である。この場合、付加情報I2が、「夏」又は「冬」を示す期間情報を含んでいれば、判定条件を満たすことになり、「春」又は「秋」を示す期間情報を含んでいるか期間情報が判別不能であれば、判定条件を満たさない。 Then, the device control system 1 determines whether or not the additional information I2 satisfies the determination condition in the control unit 13 (S6). The determination condition is, for example, that when the additional information I2 includes the period information indicating the season, the period information indicates either "summer" or "winter". In this case, if the additional information I2 includes the period information indicating "summer" or "winter", the determination condition is satisfied, and the period information indicating whether the additional information I2 includes the period information indicating "spring" or "autumn". If is indistinguishable, the determination condition is not satisfied.

付加情報I2が判定条件を満たす場合(S6:Yes)、機器制御システム1は、制御部13にて、一次候補として選択されている2以上の命令候補の中から、付加情報I2による命令候補の絞り込みを行う(S7)。このとき、制御部13は、判定条件に従って一次候補の中から一の命令候補を選択する。このように、制御部13は、コマンド情報I1に加えて付加情報I2を用いることで、命令候補を一つに絞り込むことができる。 When the additional information I2 satisfies the determination condition (S6: Yes), the device control system 1 selects the instruction candidate by the additional information I2 from the two or more instruction candidates selected as the primary candidates by the control unit 13. Narrow down (S7). At this time, the control unit 13 selects one command candidate from the primary candidates according to the determination condition. In this way, the control unit 13 can narrow down the command candidates to one by using the additional information I2 in addition to the command information I1.

一方、付加情報I2が判定条件を満たさなければ(S6:No)、機器制御システム1は、制御部13にて、一次候補として選択されている2以上の命令候補の中から、デフォルトの命令候補を選択する(S8)。このように、付加情報I2が判別不能である場合等で、付加情報I2による命令候補の絞り込みができない場合であっても、制御部13は、命令候補を一つに絞り込むことができる。 On the other hand, if the additional information I2 does not satisfy the determination condition (S6: No), the device control system 1 has the default instruction candidate from the two or more instruction candidates selected as the primary candidates by the control unit 13. Is selected (S8). In this way, even when the additional information I2 cannot be discriminated and the command candidates cannot be narrowed down by the additional information I2, the control unit 13 can narrow down the command candidates to one.

そして、制御部13は、処理S7又は処理S8にて選択した一の命令候補を制御命令I3とし、制御命令I3により制御対象T1を制御する(S9)。このとき、制御命令I3に含まれる対象特定項目にて、複数の機器5の中から、制御対象T1となる少なくとも1つの機器5が特定される。さらに、制御命令I3に含まれる内容特定項目にて、制御対象T1をどのように制御するかが特定される。 Then, the control unit 13 sets one command candidate selected in the process S7 or the process S8 as the control command I3, and controls the control target T1 by the control command I3 (S9). At this time, at least one device 5 to be the control target T1 is specified from the plurality of devices 5 by the target identification item included in the control command I3. Further, how to control the control target T1 is specified by the content specifying item included in the control command I3.

図3のフローチャートは、機器制御システム1の動作の一例に過ぎず、処理を適宜省略又は追加してもよいし、処理の順番が適宜変更されていてもよい。例えば、第1取得部11にてコマンド情報I1を取得する処理(S3)と、第2取得部12にて付加情報I2を取得する処理(S4)とは、順番が逆であってもよい。 The flowchart of FIG. 3 is merely an example of the operation of the device control system 1, and the processing may be omitted or added as appropriate, or the order of the processing may be changed as appropriate. For example, the order of the process of acquiring the command information I1 by the first acquisition unit 11 (S3) and the process of acquiring the additional information I2 by the second acquisition unit 12 (S4) may be reversed.

(3.2)具体動作例
次に、機器制御システム1の具体動作例について、図4を参照して説明する。図4は、ユーザU1が発話してから機器5が制御され、かつ制御結果がユーザU1にフィードバックされる一連の処理を、模式的に表すシーケンス図である。
(3.2) Specific Operation Example Next, a specific operation example of the device control system 1 will be described with reference to FIG. FIG. 4 is a sequence diagram schematically showing a series of processes in which the device 5 is controlled after the user U1 speaks and the control result is fed back to the user U1.

図4の例では、「夏」の季節において、起床したユーザU1が、音声入力装置2に向けて、制御ワードの1つである「おはよう」という言葉を発する場合を想定する。ここでは、「おはよう」という言葉を含むコマンド情報I1には、機器51〜55のうち、「リビング」にある機器51〜53の制御に関する2つの命令候補が対応付けられていることと仮定する。 In the example of FIG. 4, it is assumed that the user U1 who wakes up in the "summer" season utters the word "good morning", which is one of the control words, toward the voice input device 2. Here, it is assumed that the command information I1 including the word "good morning" is associated with two command candidates related to the control of the devices 51 to 53 in the "living room" among the devices 51 to 55.

これら2つの命令候補のうち、「夏」という期間情報を含む付加情報I2に対応付けられた命令候補は、空調機器からなる機器51、照明器具からなる機器52、及び電動シャッタからなる機器53を制御対象T1として特定する対象特定項目を含む。さらに、この命令候補は、機器51については動作モードを「冷房」としてオンし、機器52を点灯し、機器53について「開」とするための内容特定項目を含む。一方、2つの命令候補のうち、「冬」という期間情報を含む付加情報I2に対応付けられた命令候補は、空調機器からなる機器51及び照明器具からなる機器52を制御対象T1として特定する対象特定項目を含む。さらに、この命令候補は、機器51については動作モードを「暖房」としてオンし、機器52を点灯するための内容特定項目を含む。 Of these two command candidates, the command candidates associated with the additional information I2 including the period information "summer" include a device 51 made of an air conditioner, a device 52 made of a lighting fixture, and a device 53 made of an electric shutter. The target specific item specified as the control target T1 is included. Further, this command candidate includes a content specifying item for turning on the operation mode of the device 51 as "cooling", lighting the device 52, and setting the device 53 to "open". On the other hand, of the two command candidates, the command candidate associated with the additional information I2 including the period information "winter" is a target for specifying the device 51 made of an air conditioner and the device 52 made of a lighting device as the control target T1. Includes specific items. Further, this command candidate includes a content specifying item for turning on the operation mode of the device 51 as "heating" and turning on the device 52.

図4の例では、音声入力装置2がユーザU1の音声操作の受け付けを開始後、ユーザU1が、音声入力装置2に対して、「おはよう」という言葉を発する(S11)。音声入力装置2は、ユーザU1から入力された音声を受けて、音声コマンドの検出を行う。すなわち、音声入力装置2は、ユーザU1の発した音声について音声認識を行い、「おはよう」という言葉を含む認識結果を音声認識サーバ3に送信する(S12)。 In the example of FIG. 4, after the voice input device 2 starts accepting the voice operation of the user U1, the user U1 utters the word "good morning" to the voice input device 2 (S11). The voice input device 2 receives the voice input from the user U1 and detects the voice command. That is, the voice input device 2 performs voice recognition on the voice emitted by the user U1 and transmits the recognition result including the word "good morning" to the voice recognition server 3 (S12).

音声認識サーバ3は、認識結果が制御ワードであるので、「おはよう」という言葉を含むコマンド情報I1を制御用サーバ100に送信する(S13)。コマンド情報I1を受けた制御用サーバ100は、コマンド情報I1を受信したタイミングで、付加情報I2を生成する(S14)。このとき生成される付加情報I2は、少なくとも「夏」を示す期間情報を含んでいる。 Since the recognition result is the control word, the voice recognition server 3 transmits the command information I1 including the word "good morning" to the control server 100 (S13). The control server 100 that has received the command information I1 generates the additional information I2 at the timing when the command information I1 is received (S14). The additional information I2 generated at this time includes at least period information indicating "summer".

そして、制御用サーバ100は、コマンド情報I1及び付加情報I2を1組にして、この1組のデータ(コマンド情報I1及び付加情報I2)をコントローラ10に送信する(S15)。このとき、コントローラ10には、「おはよう」という言葉を含むコマンド情報I1と、「夏」を示す期間情報を含む付加情報I2と、が送信されることになる。 Then, the control server 100 makes a set of command information I1 and additional information I2, and transmits the set of data (command information I1 and additional information I2) to the controller 10 (S15). At this time, the command information I1 including the word "good morning" and the additional information I2 including the period information indicating "summer" are transmitted to the controller 10.

コマンド情報I1及び付加情報I2を取得したコントローラ10は、コマンド情報I1及び付加情報I2に基づいて制御命令I3を生成し、制御対象T1としての機器51〜53に制御命令I3を送信する(S16)。このとき、「おはよう」という言葉を含むコマンド情報I1に対応付けられている2つの命令候補のうち、「夏」という期間情報を含む付加情報I2に対応付けられた命令候補が、制御命令I3として選択される。これにより、制御対象T1としての機器51〜53は、コマンド情報I1(「おはよう」)及び付加情報I2(「夏」)に基づく制御命令I3に従って制御される。結果的に、空調機器からなる機器51は動作モードが「冷房」でオンし、照明器具からなる機器52は点灯し、電動シャッタからなる機器53は「開」となる。 The controller 10 that has acquired the command information I1 and the additional information I2 generates the control command I3 based on the command information I1 and the additional information I2, and transmits the control command I3 to the devices 51 to 53 as the control target T1 (S16). .. At this time, of the two instruction candidates associated with the command information I1 including the word "good morning", the instruction candidate associated with the additional information I2 including the period information "summer" is designated as the control instruction I3. Be selected. As a result, the devices 51 to 53 as the control target T1 are controlled according to the control command I3 based on the command information I1 (“good morning”) and the additional information I2 (“summer”). As a result, the operation mode of the device 51 made of the air conditioner is turned on in the "cooling" mode, the device 52 made of the lighting equipment is turned on, and the device 53 made of the electric shutter is "open".

また、制御対象T1としての機器51〜53からは、コントローラ10、制御用サーバ100、音声認識サーバ3をこの順で通して、音声入力装置2に応答信号が送信される(S17〜S20)。応答信号は、制御命令I3による機器5の制御の結果を表す情報である。機器5は、基本的には、応答信号を送信した後で、制御命令I3に従って動作するが、この例に限らず、制御命令I3に従って動作した後で応答信号を送信してもよい。 Further, the devices 51 to 53 as the control target T1 pass the controller 10, the control server 100, and the voice recognition server 3 in this order, and transmit a response signal to the voice input device 2 (S17 to S20). The response signal is information representing the result of control of the device 5 by the control command I3. Basically, the device 5 operates according to the control command I3 after transmitting the response signal, but the present invention is not limited to this example, and the response signal may be transmitted after operating according to the control command I3.

応答信号を受信した音声入力装置2は、ユーザU1に対して報知音を出力する(S21)。このとき、音声入力装置2が出力する報知音は、一例として「OK」という音声、又はビープ音等である。また、応答信号を受信した音声入力装置2は、報知音に代えて又は加えて、表示(単なる発光を含む)等によって、機器5の制御の結果をユーザU1に報知してもよい。 The voice input device 2 that has received the response signal outputs a notification sound to the user U1 (S21). At this time, the notification sound output by the voice input device 2 is, for example, a voice "OK", a beep sound, or the like. Further, the voice input device 2 that has received the response signal may notify the user U1 of the control result of the device 5 by displaying (including mere light emission) or the like instead of or in addition to the notification sound.

一方、季節が「冬」であれば、図4の例と同様に、ユーザU1が音声入力装置2に向けて、制御ワードの1つである「おはよう」という言葉を発した場合でも、機器制御システム1による機器5の制御は、図4の例とは異なる。すなわち、季節が「冬」であれば、付加情報I2に含まれる期間情報が「冬」になるため、コントローラ10で生成される制御命令I3が、図4の例とは異なる。具体的には、空調機器からなる機器51は動作モードが「暖房」でオンし、照明器具からなる機器52は点灯し、電動シャッタからなる機器53は動作しない。要するに、コマンド情報I1(「おはよう」)が同じであっても、付加情報I2が異なることで、機器制御システム1は、機器5に対して異なる制御を行うことになる。 On the other hand, if the season is "winter", as in the example of FIG. 4, even if the user U1 speaks the word "good morning", which is one of the control words, to the voice input device 2, the device is controlled. The control of the device 5 by the system 1 is different from the example of FIG. That is, if the season is "winter", the period information included in the additional information I2 is "winter", so that the control command I3 generated by the controller 10 is different from the example of FIG. Specifically, the device 51 made of air conditioner is turned on when the operation mode is "heating", the device 52 made of lighting equipment is lit, and the device 53 made of electric shutter does not operate. In short, even if the command information I1 (“good morning”) is the same, the device control system 1 performs different control on the device 5 due to the difference in the additional information I2.

以上説明したように、機器制御システム1によれば、ユーザU1は、「おはよう」という言葉を発するだけで、少なくとも1つ(ここでは3つ)の機器5からなる制御対象T1の制御を実現することができる。しかも、機器制御システム1では、制御対象T1の制御に、音声入力装置2に入力された音声に基づくコマンド情報I1だけでなく、付加情報I2も用いているため、ユーザU1が同じ言葉を発した場合でも、付加情報I2次第で異なる制御を実現できる。つまり、「夏」の起床時と、「冬」の起床時とでは、ユーザU1が同じように「おはよう」という言葉を発した場合でも、上述のように機器5に対して異なる制御が実行される。 As described above, according to the device control system 1, the user U1 realizes the control of the controlled object T1 composed of at least one (three in this case) device 5 only by saying "good morning". be able to. Moreover, in the device control system 1, not only the command information I1 based on the voice input to the voice input device 2 but also the additional information I2 is used to control the control target T1, so that the user U1 utters the same words. Even in this case, different control can be realized depending on the additional information I2. That is, different control is executed for the device 5 as described above even if the user U1 similarly utters the word "good morning" when waking up in "summer" and when waking up in "winter". To.

上述したコマンド情報I1等は一例に過ぎず、適宜変更が可能である。例えば、「おやすみ」といった制御ワードが設定されている場合、就寝時にユーザU1が「おやすみ」との言葉を発することで、就寝時用に設定されている機器5の制御を実現できる。また、例えば「いってきます」、「ただいま」といった制御ワードが設定されている場合、外出時又は帰宅時にユーザU1が「いってきます」又は「ただいま」との言葉を発することで、外出時又は帰宅時用に設定されている機器5の制御を実現できる。しかも、これらの場合であっても、機器制御システム1では、制御対象T1の制御に、コマンド情報I1だけでなく、付加情報I2も用いているため、ユーザU1が同じ言葉を発した場合でも、付加情報I2次第で異なる制御を実現できる。その結果、例えば、「夏」の就寝時と、「冬」の就寝時とでは、ユーザU1が同じように「おやすみ」という言葉を発しただけでも、機器5に対して異なる制御が実行される。 The above-mentioned command information I1 and the like are merely examples, and can be changed as appropriate. For example, when a control word such as "good night" is set, the user U1 can say "good night" at bedtime to control the device 5 set for bedtime. In addition, when control words such as "I'm coming" and "I'm home" are set, the user U1 can say "I'm coming" or "I'm home" when going out or returning home. It is possible to realize the control of the device 5 set for. Moreover, even in these cases, since the device control system 1 uses not only the command information I1 but also the additional information I2 to control the control target T1, even if the user U1 utters the same word. Different controls can be realized depending on the additional information I2. As a result, for example, at bedtime in "summer" and at bedtime in "winter", even if the user U1 similarly says the word "good night", different control is executed for the device 5. ..

(3.3)その他の具体動作例
次に、機器制御システム1のその他の具体動作例について説明する。以下では、付加情報I2が季節以外の情報を含むことを前提として、起床したユーザU1が、音声入力装置2に向けて、制御ワードの1つである「おはよう」という言葉を発する場合を想定する。ここでは、「おはよう」という言葉を含むコマンド情報I1には、機器51〜55のうち、「リビング」にある機器51〜53の制御に関する2つの命令候補が対応付けられていることと仮定する。
(3.3) Other Specific Operation Examples Next, other specific operation examples of the device control system 1 will be described. In the following, assuming that the additional information I2 includes information other than the season, it is assumed that the user U1 who wakes up speaks the word "good morning", which is one of the control words, to the voice input device 2. .. Here, it is assumed that the command information I1 including the word "good morning" is associated with two command candidates related to the control of the devices 51 to 53 in the "living room" among the devices 51 to 55.

まず、1つ目の例として、付加情報I2が「時間帯」を単位とする期間情報として含む場合について説明する。この場合、制御部13は、少なくとも期間情報に応じて制御命令I3を変化させるので、例えば、ユーザU1が「おはよう」という言葉を発する時間帯が、6時台(6時〜7時)、7時台(7時〜8時)のいずれの時間帯かによって、制御命令I3が変化する。 First, as a first example, a case where the additional information I2 is included as period information in units of "time zone" will be described. In this case, since the control unit 13 changes the control command I3 at least according to the period information, for example, the time zone in which the user U1 issues the word "good morning" is around 6 o'clock (6 o'clock to 7 o'clock), 7 The control command I3 changes depending on which time zone (7:00 to 8:00).

2つ目の例として、付加情報I2が入力情報を含む場合について説明する。この場合、制御部13は、少なくとも入力情報に応じて制御命令I3を変化させる。したがって、例えば、ユーザU1が「おはよう」という言葉を発するときに、コントローラ10に設けられている押ボタンが操作されている(つまり入力部14がユーザU1の操作に応じた入力信号を受ける)か否かによって、制御命令I3が変化する。この場合、例えば、コントローラ10において、入力部14が受ける入力信号に応じた入力情報を含む付加情報I2が生成され、第2取得部12は、コントローラ10内で生成された付加情報I2を取得してもよい。 As a second example, a case where the additional information I2 includes input information will be described. In this case, the control unit 13 changes the control command I3 at least according to the input information. Therefore, for example, when the user U1 utters the word "good morning", is the push button provided on the controller 10 operated (that is, the input unit 14 receives the input signal corresponding to the operation of the user U1). The control command I3 changes depending on whether or not it is present. In this case, for example, in the controller 10, additional information I2 including input information corresponding to the input signal received by the input unit 14 is generated, and the second acquisition unit 12 acquires the additional information I2 generated in the controller 10. You may.

3つ目の例として、付加情報I2が話者情報を含む場合について説明する。この場合、制御部13は、少なくとも話者情報に応じて制御命令I3を変化させる。したがって、例えば、「おはよう」という言葉を発したユーザU1が、父、母、姉又は弟のいずれかによって、制御命令I3が変化する。この場合、例えば、音声認識サーバ3において、話者情報を含む付加情報I2が生成され、第2取得部12は、音声認識サーバ3から(制御用サーバ100経由で)、付加情報I2を取得してもよい。 As a third example, a case where the additional information I2 includes speaker information will be described. In this case, the control unit 13 changes the control command I3 at least according to the speaker information. Therefore, for example, the control command I3 changes depending on whether the user U1 who utters the word "good morning" is a father, a mother, an older sister, or a younger brother. In this case, for example, the voice recognition server 3 generates additional information I2 including speaker information, and the second acquisition unit 12 acquires the additional information I2 from the voice recognition server 3 (via the control server 100). You may.

4つ目の例として、付加情報I2が状態情報を含む場合について説明する。この場合、制御部13は、少なくとも状態情報に応じて制御命令I3を変化させる。したがって、例えば、「おはよう」という言葉を発したユーザU1の体調の良否によって、制御命令I3が変化する。この場合、例えば、音声認識サーバ3において、状態情報を含む付加情報I2が生成され、第2取得部12は、音声認識サーバ3から(制御用サーバ100経由で)、付加情報I2を取得してもよい。 As a fourth example, a case where the additional information I2 includes state information will be described. In this case, the control unit 13 changes the control command I3 at least according to the state information. Therefore, for example, the control command I3 changes depending on the physical condition of the user U1 who has issued the word "good morning". In this case, for example, the voice recognition server 3 generates additional information I2 including state information, and the second acquisition unit 12 acquires the additional information I2 from the voice recognition server 3 (via the control server 100). May be good.

以上説明したような動作は、適宜組み合わせて適用可能である。 The operations described above can be applied in combination as appropriate.

(3.4)設定動作
次に、設定部16による設定動作(手動設定モード又は学習モード)について説明する。本実施形態では、設定動作において設定される情報は、少なくともコマンド情報I1と付加情報I2と制御命令I3との対応関係である。さらに、制御ワード等についても、設定動作において設定される。
(3.4) Setting operation Next, the setting operation (manual setting mode or learning mode) by the setting unit 16 will be described. In the present embodiment, the information set in the setting operation is at least the correspondence between the command information I1, the additional information I2, and the control command I3. Further, the control word and the like are also set in the setting operation.

機器制御システム1は、特定の事象をトリガにして、設定動作(手動設定モード又は学習モード)を開始する。本実施形態では一例として、特定の事象は、ユーザU1から「設定モード」等の特定のキーワードを表す音声が音声入力装置2に入力されることである。ただし、設定動作を開始するための特定の事象は、特定の音声(言葉)が入力されることに限らず、例えば、コントローラ10に対する特定の操作等であってもよい。 The device control system 1 starts a setting operation (manual setting mode or learning mode) by using a specific event as a trigger. In the present embodiment, as an example, a specific event is that a voice representing a specific keyword such as "setting mode" is input from the user U1 to the voice input device 2. However, the specific event for starting the setting operation is not limited to the input of a specific voice (word), and may be, for example, a specific operation on the controller 10.

設定部16は、手動設定モードで設定動作を開始すると、例えば、入力部14が受け付けた入力信号、つまりユーザU1の操作に応じた入力信号に従って、コマンド情報I1と付加情報I2と制御命令I3との対応関係を変更する。このとき、ユーザU1は、記憶部17に記憶されている制御リスト上において、コマンド情報I1及び付加情報I2の1つの組み合わせに対して、一の命令候補を対応付ける。ここで、設定部16は、命令候補(制御命令I3)に含まれている対象特定項目及び内容特定項目の各々を個別に変更可能である。また、設定部16は、コマンド情報I1と付加情報I2と制御命令I3との対応関係を追加してもよいし、削除してもよい。設定部16は、制御リストを変更後、記憶部17に記憶されている制御リストの更新を行う。 When the setting unit 16 starts the setting operation in the manual setting mode, for example, according to the input signal received by the input unit 14, that is, the input signal corresponding to the operation of the user U1, the command information I1, the additional information I2, and the control command I3 Change the correspondence of. At this time, the user U1 associates one command candidate with one combination of the command information I1 and the additional information I2 on the control list stored in the storage unit 17. Here, the setting unit 16 can individually change each of the target specific item and the content specific item included in the command candidate (control command I3). Further, the setting unit 16 may add or delete the correspondence between the command information I1 and the additional information I2 and the control command I3. After changing the control list, the setting unit 16 updates the control list stored in the storage unit 17.

一方、設定部16は、学習モードで設定動作を開始すると、例えば、コマンド情報I1と付加情報I2と制御命令I3との対応関係を、自動的に学習して調整(変更)する。具体的には、設定部16は、コマンド情報I1及び付加情報I2の1つの組み合わせに対して、相関の高い機器5の操作をユーザU1が行った場合に、この操作に相当する命令候補を生成し、制御リストに追加する。一例として、あるコマンド情報I1(「おはよう」)及び付加情報I2(「夏」)を機器制御システム1が取得した時点の前及び/又は後の一定時間(例えば1分間)において、ユーザU1が電動シャッタからなる機器53を「開」とする操作を行ったとする。この場合、設定部16は、電動シャッタからなる機器53を「開」とする操作を、コマンド情報I1(「おはよう」)及び付加情報I2(「夏」)の組み合わせに対して、相関の高い操作として、この操作に相当する命令候補を生成し、制御リストに追加する。 On the other hand, when the setting operation is started in the learning mode, the setting unit 16 automatically learns and adjusts (changes) the correspondence between the command information I1 and the additional information I2 and the control command I3, for example. Specifically, when the user U1 performs an operation of the device 5 having a high correlation with respect to one combination of the command information I1 and the additional information I2, the setting unit 16 generates a command candidate corresponding to this operation. And add it to the control list. As an example, the user U1 is electrically driven for a certain period of time (for example, 1 minute) before and / or after the time when the device control system 1 acquires certain command information I1 (“good morning”) and additional information I2 (“summer”). It is assumed that the operation of opening the device 53 including the shutter is performed. In this case, the setting unit 16 performs an operation of opening the device 53 including the electric shutter with respect to the combination of the command information I1 (“good morning”) and the additional information I2 (“summer”). As an instruction candidate corresponding to this operation, it is added to the control list.

または、設定部16は、コマンド情報I1及び付加情報I2の1つの組み合わせに対して、相関の高い機器5の操作をユーザU1が行った場合に、この操作に応じて制御リスト内の命令候補を変更(削除を含む)する。一例として、あるコマンド情報I1(「おはよう」)及び付加情報I2(「夏」)の組み合わせに対して、照明器具からなる機器52を点灯させる命令候補が対応付けられている場合を想定する。この場合に、コマンド情報I1(「おはよう」)及び付加情報I2(「夏」)を機器制御システム1が取得し、機器52を点灯させる制御を行った直後(例えば1分以内)に、ユーザU1が機器52を消灯させる操作を行ったとする。この場合、設定部16は、照明器具からなる機器52を点灯させる操作を、コマンド情報I1(「おはよう」)及び付加情報I2(「夏」)の組み合わせに対して、相関の高い操作として、この操作に応じて命令候補を変更する。上述のケースでは、設定部16は、照明器具からなる機器52を点灯させる命令候補を削除するか、照明器具からなる機器52を消灯させる命令候補に変更する。 Alternatively, when the user U1 performs an operation of the device 5 having a high correlation with respect to one combination of the command information I1 and the additional information I2, the setting unit 16 sets a command candidate in the control list in response to this operation. Make changes (including deletion). As an example, it is assumed that a command candidate for lighting a device 52 made of a lighting fixture is associated with a combination of a certain command information I1 (“good morning”) and additional information I2 (“summer”). In this case, immediately after the device control system 1 acquires the command information I1 (“good morning”) and the additional information I2 (“summer”) and controls to turn on the device 52 (for example, within 1 minute), the user U1 Suppose that the device 52 is turned off. In this case, the setting unit 16 sets the operation of lighting the device 52 made of the lighting fixture as an operation having a high correlation with the combination of the command information I1 (“good morning”) and the additional information I2 (“summer”). Change the command candidate according to the operation. In the above case, the setting unit 16 deletes the command candidate for turning on the device 52 made of the lighting fixture, or changes the command candidate for turning off the device 52 made of the lighting fixture.

学習モードにおいても、設定部16は、制御リストを変更後、記憶部17に記憶されている制御リストの更新を行う。 Even in the learning mode, the setting unit 16 updates the control list stored in the storage unit 17 after changing the control list.

(4)変形例
実施形態1は、本開示の様々な実施形態の一つに過ぎない。実施形態1は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。本開示において説明する各図は、模式的な図であり、各図中の各構成要素の大きさ及び厚さそれぞれの比が、必ずしも実際の寸法比を反映しているとは限らない。また、実施形態1に係る機器制御システム1と同様の機能は、機器制御方法、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。一態様に係る機器制御方法は、第1取得処理(図3の「S3」に相当)と、第2取得処理(図3の「S4」に相当)と、制御処理(図3の「S5〜S9」に相当)と、を有する。第1取得処理は、コマンド情報I1を取得する処理である。コマンド情報I1は、音声入力装置2に入力された音声の認識結果に関する情報である。第2取得処理は、付加情報I2を取得する処理である。付加情報I2は、コマンド情報I1とは別の情報からなる。制御処理は、コマンド情報I1と付加情報I2との両方に基づく制御命令I3により、少なくとも1つの機器5からなる制御対象T1を制御する処理である。一態様に係る(コンピュータ)プログラムは、上記の機器制御方法を、1以上のプロセッサに実行させるためのプログラムである。
(4) Modified Example Embodiment 1 is only one of various embodiments of the present disclosure. The first embodiment can be changed in various ways depending on the design and the like as long as the object of the present disclosure can be achieved. Each figure described in the present disclosure is a schematic view, and the ratio of the size and the thickness of each component in each figure does not necessarily reflect the actual dimensional ratio. Further, the same function as the device control system 1 according to the first embodiment may be realized by a device control method, a computer program, a non-temporary recording medium on which the computer program is recorded, or the like. The device control method according to one aspect includes a first acquisition process (corresponding to “S3” in FIG. 3), a second acquisition process (corresponding to “S4” in FIG. 3), and a control process (corresponding to “S5” in FIG. 3). Corresponds to S9 ”) and. The first acquisition process is a process for acquiring command information I1. The command information I1 is information regarding the recognition result of the voice input to the voice input device 2. The second acquisition process is a process for acquiring the additional information I2. The additional information I2 is composed of information different from the command information I1. The control process is a process of controlling the controlled object T1 including at least one device 5 by the control command I3 based on both the command information I1 and the additional information I2. The (computer) program according to one aspect is a program for causing one or more processors to execute the above-mentioned device control method.

以下、実施形態1の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。 Hereinafter, modifications of the first embodiment will be listed. The modifications described below can be applied in combination as appropriate.

本開示における機器制御システム1は、例えば、制御用サーバ100及びコントローラ10に、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における機器制御システム1としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。 The device control system 1 in the present disclosure includes, for example, a computer system in the control server 100 and the controller 10. The main configuration of a computer system is a processor and memory as hardware. When the processor executes the program recorded in the memory of the computer system, the function as the device control system 1 in the present disclosure is realized. The program may be pre-recorded in the memory of the computer system, may be provided through a telecommunications line, and may be recorded on a non-temporary recording medium such as a memory card, optical disk, or hard disk drive that can be read by the computer system. May be provided. A processor in a computer system is composed of one or more electronic circuits including a semiconductor integrated circuit (IC) or a large scale integrated circuit (LSI). The integrated circuit such as IC or LSI referred to here has a different name depending on the degree of integration, and includes an integrated circuit called a system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration). Further, an FPGA (Field-Programmable Gate Array) programmed after the LSI is manufactured, or a logical device capable of reconfiguring the junction relationship inside the LSI or reconfiguring the circuit partition inside the LSI should also be adopted as a processor. Can be done. A plurality of electronic circuits may be integrated on one chip, or may be distributed on a plurality of chips. The plurality of chips may be integrated in one device, or may be distributed in a plurality of devices. The computer system referred to here includes a microcontroller having one or more processors and one or more memories. Therefore, the microcontroller is also composed of one or more electronic circuits including a semiconductor integrated circuit or a large-scale integrated circuit.

また、機器制御システム1の少なくとも一部の機能が、1つの筐体内に集約されていることは機器制御システム1に必須の構成ではなく、機器制御システム1の構成要素は、複数の筐体に分散して設けられていてもよい。例えば、機器制御システム1のうちの第2取得部12は、第1取得部11と同じコントローラ10の筐体に集約されている必要はなく、第1取得部11とは別の筐体に設けられていてもよい。さらに、機器制御システム1の少なくとも一部の機能、例えば、制御部13の機能が、複数の筐体に分散して設けられてもよいし、クラウド(クラウドコンピューティング)等によって実現されてもよい。 Further, it is not an essential configuration for the device control system 1 that at least a part of the functions of the device control system 1 are integrated in one housing, and the components of the device control system 1 are contained in a plurality of housings. It may be provided in a distributed manner. For example, the second acquisition unit 12 of the device control system 1 does not need to be integrated in the same housing of the controller 10 as the first acquisition unit 11, and is provided in a housing different from the first acquisition unit 11. It may have been. Further, at least a part of the functions of the device control system 1, for example, the functions of the control unit 13 may be distributed in a plurality of housings, or may be realized by a cloud (cloud computing) or the like. ..

反対に、実施形態1において、複数の装置に分散されている少なくとも一部の機能が、1つの筐体内に集約されていてもよい。例えば、制御用サーバ100とコントローラ10とに分散されている機能が、1つの筐体内に集約されていてもよい。 On the contrary, in the first embodiment, at least a part of the functions distributed in a plurality of devices may be integrated in one housing. For example, the functions distributed to the control server 100 and the controller 10 may be integrated in one housing.

また、付加情報I2に含まれ得る種々の情報を生成する情報生成部19は、制御用サーバ100に設けられる構成に限らず、例えば、コントローラ10に設けられていてもよいし、機器制御システム1以外の装置に設けられていてもよい。例えば、付加情報I2が入力情報を含む場合、情報生成部19は、コントローラ10に設けられていてもよい。この場合、情報生成部19は、コントローラ10において入力部14が受ける入力信号に応じた入力情報を含む付加情報I2を生成し、第2取得部12は、コントローラ10内で生成された付加情報I2を取得する。また、例えば、付加情報I2が話者情報を含む場合、情報生成部19は、音声認識サーバ3に設けられていてもよい。この場合、情報生成部19は、音声認識サーバ3において話者情報を含む付加情報I2を生成し、第2取得部12は、音声認識サーバ3から、(制御用サーバ100経由で)話者情報を含む付加情報I2を取得する。また、例えば、付加情報I2が状態情報を含む場合、情報生成部19は、音声認識サーバ3に設けられていてもよい。この場合、情報生成部19は、音声認識サーバ3において状態情報を含む付加情報I2を生成し、第2取得部12は、音声認識サーバ3から、(制御用サーバ100経由で)状態情報を含む付加情報I2を取得する。 Further, the information generation unit 19 that generates various information that can be included in the additional information I2 is not limited to the configuration provided in the control server 100, and may be provided in, for example, the controller 10 or the device control system 1. It may be provided in a device other than the above. For example, when the additional information I2 includes the input information, the information generation unit 19 may be provided in the controller 10. In this case, the information generation unit 19 generates the additional information I2 including the input information corresponding to the input signal received by the input unit 14 in the controller 10, and the second acquisition unit 12 generates the additional information I2 generated in the controller 10. To get. Further, for example, when the additional information I2 includes speaker information, the information generation unit 19 may be provided in the voice recognition server 3. In this case, the information generation unit 19 generates the additional information I2 including the speaker information in the voice recognition server 3, and the second acquisition unit 12 generates the speaker information (via the control server 100) from the voice recognition server 3. Acquires additional information I2 including. Further, for example, when the additional information I2 includes the state information, the information generation unit 19 may be provided in the voice recognition server 3. In this case, the information generation unit 19 generates additional information I2 including the state information in the voice recognition server 3, and the second acquisition unit 12 includes the state information (via the control server 100) from the voice recognition server 3. Acquire additional information I2.

また、制御対象T1となり得る機器5は、機器制御システム1からの制御命令を受けて制御される機器であればよく、空調機器、照明器具及び電動シャッタ等に限らない。例えば、機器5は、インターホン装置、テレビジョン受像機、洗濯機、冷蔵庫、複合機、電気錠、太陽光発電設備、蓄電設備、配線器具、電動車両用充電器及び携帯端末等であってもよい。さらに、制御対象T1としての機器5が分岐ブレーカ又は壁スイッチ等の配線器具である場合には、機器制御システム1は、制御対象T1としての機器5を制御することで、分岐回路等の回路単位で通電状態を制御することができる。 Further, the device 5 that can be the control target T1 may be any device that is controlled by receiving a control command from the device control system 1, and is not limited to air conditioning equipment, lighting equipment, electric shutters, and the like. For example, the device 5 may be an intercom device, a television receiver, a washing machine, a refrigerator, a multifunction device, an electric lock, a solar power generation facility, a power storage facility, a wiring device, a charger for an electric vehicle, a portable terminal, or the like. .. Further, when the device 5 as the control target T1 is a wiring device such as a branch breaker or a wall switch, the device control system 1 controls the device 5 as the control target T1 to form a circuit unit such as a branch circuit. The energized state can be controlled with.

また、実施形態1では、登録ワード(音響モデル及び認識辞書等を含む)は、音声入力装置2に記憶されているが、この構成は機器制御システム1に必須の構成ではない。例えば、登録ワード(音響モデル及び認識辞書等を含む)は、音声認識サーバ3に記憶されていてもよい。この場合、音声入力装置2は、スタンドアローンで動作するのではなく、音声認識サーバ3と連携して音声認識を実行する。 Further, in the first embodiment, the registered word (including the acoustic model and the recognition dictionary) is stored in the voice input device 2, but this configuration is not essential for the device control system 1. For example, the registered word (including the acoustic model and the recognition dictionary) may be stored in the voice recognition server 3. In this case, the voice input device 2 does not operate standalone, but performs voice recognition in cooperation with the voice recognition server 3.

また、実施形態1では、付加情報I2は、外部情報と内部情報とのうちの外部情報のみを含むが、これに限らず、付加情報I2は、外部情報と内部情報との両方を含んでもよい。さらにまた、付加情報I2は、外部情報を含まず、外部情報と内部情報とのうちの内部情報のみを含んでもよい。 Further, in the first embodiment, the additional information I2 includes only the external information of the external information and the internal information, but the additional information I2 may include both the external information and the internal information. .. Furthermore, the additional information I2 may not include the external information but may include only the internal information of the external information and the internal information.

また、付加情報I2は、入力情報、期間情報、話者情報及び状態情報に加えて又は代えて、例えば、気象情報及び要求情報等の外部情報を含んでいてもよい。ここでいう気象情報は、施設F1の周辺の気象に関する情報であって、例えば、天気、外気温及び花粉の飛散量等の情報である。要求情報は、例えば、電気事業者(電力会社等)が発行するピークカット及びピークシフト等を需要家に求めるための情報である。気象情報及び要求情報は、それぞれ気象サーバ及び電気事業者のサーバ等から、制御用サーバ100又はコントローラ10が取得する。 Further, the additional information I2 may include external information such as weather information and request information in addition to or in place of the input information, the period information, the speaker information and the state information. The weather information referred to here is information on the weather around the facility F1, such as the weather, the outside air temperature, and the amount of pollen scattered. The request information is, for example, information for requesting a customer for a peak cut, a peak shift, or the like issued by an electric power company (electric power company, etc.). The weather information and the request information are acquired by the control server 100 or the controller 10 from the weather server, the server of the electric power company, and the like, respectively.

また、機器制御システム1で用いられる各通信方式は、実施形態1で例示した通信方式に限らず、適宜変更可能である。例えば、コントローラ10(通信部18)と、制御対象T1との間の通信方式は、無線通信に限らず、有線LAN(Local Area Network)等の通信規格に準拠した有線通信であってもよい。 Further, each communication method used in the device control system 1 is not limited to the communication method illustrated in the first embodiment, and can be appropriately changed. For example, the communication method between the controller 10 (communication unit 18) and the control target T1 is not limited to wireless communication, and may be wired communication conforming to a communication standard such as a wired LAN (Local Area Network).

また、設定部16が、通常モードと、手動設定モードと、学習モードと、の3つのモードを有することは、機器制御システム1に必須の構成ではなく、例えば、学習モードのみを有していてもよい。 Further, the fact that the setting unit 16 has three modes of a normal mode, a manual setting mode, and a learning mode is not an essential configuration for the device control system 1, and has, for example, only a learning mode. May be good.

また、付加情報I2は、施設F1の状態に関する施設情報を含んでいてもよい。ここでいう施設F1の状態は、例えば、施設F1の開口部(扉及び窓等)の開閉状態及び施解錠状態、並びに施設F1における人の在否状態を含む。人の在否状態は、例えば、施設F1に居る人の属性(年齢、性別等)も含む。この場合、制御部13は、少なくとも施設情報に応じて制御命令I3を変化させる。したがって、例えば、ユーザU1が「おはよう」という言葉を発するときに、施設F1に大人が居るか居ない(つまり「姉」及び「弟」しか居ない)かによって、制御命令I3が変化する。 Further, the additional information I2 may include facility information regarding the state of the facility F1. The state of the facility F1 referred to here includes, for example, an open / closed state and a locked / unlocked state of an opening (door, window, etc.) of the facility F1, and a presence / absence state of a person in the facility F1. The presence / absence status of a person also includes, for example, the attributes (age, gender, etc.) of the person in the facility F1. In this case, the control unit 13 changes the control command I3 at least according to the facility information. Therefore, for example, when the user U1 utters the word "good morning", the control command I3 changes depending on whether or not there is an adult in the facility F1 (that is, there are only "sister" and "younger brother").

(実施形態2)
本実施形態に係る機器制御システム1Aは、図5に示すように、制御用サーバ100Aからコントローラ10Aに制御命令I3が送信される点で、実施形態1に係る機器制御システム1と相違する。以下、実施形態1と同様の構成については共通の符号を付して適宜説明を省略する。
(Embodiment 2)
As shown in FIG. 5, the device control system 1A according to the present embodiment is different from the device control system 1 according to the first embodiment in that the control command I3 is transmitted from the control server 100A to the controller 10A. Hereinafter, the same configurations as those in the first embodiment will be designated by a common reference numeral and description thereof will be omitted as appropriate.

本実施形態では、第1取得部11(図2参照)、第2取得部12(図2参照)及び制御部13(図2参照)は、コントローラ10Aではなく、制御用サーバ100Aに設けられている。コントローラ10Aは、制御用サーバ100Aから受信した制御命令I3を、制御対象T1としての機器5に送信(転送)することで、機器5の制御を実現する。 In the present embodiment, the first acquisition unit 11 (see FIG. 2), the second acquisition unit 12 (see FIG. 2), and the control unit 13 (see FIG. 2) are provided not in the controller 10A but in the control server 100A. There is. The controller 10A realizes the control of the device 5 by transmitting (transferring) the control command I3 received from the control server 100A to the device 5 as the control target T1.

本実施形態に係る機器制御システム1Aにおいては、例えば、図5に示すように、音声認識サーバ3は、「おはよう」という言葉を含む認識結果を受信すると、認識結果に基づいて、コマンド情報I1を生成する。音声認識サーバ3が生成するコマンド情報I1は、例えば、一例として、空調機器からなる機器51をオンすることを示す「空調オン」という項目を含む。このコマンド情報I1は、音声認識サーバ3が、音声入力装置2から受信した認識結果に基づいて生成する情報である。つまり、「おはよう」という言葉を含む認識結果には、「空調オン」という項目を含むコマンド情報I1が対応付けられており、音声認識サーバ3は、この対応関係に基づいて、コマンド情報I1を生成する。 In the device control system 1A according to the present embodiment, for example, as shown in FIG. 5, when the voice recognition server 3 receives the recognition result including the word "good morning", it receives the command information I1 based on the recognition result. Generate. The command information I1 generated by the voice recognition server 3 includes, for example, an item "air conditioning on" indicating that the device 51 including the air conditioning device is turned on. This command information I1 is information generated by the voice recognition server 3 based on the recognition result received from the voice input device 2. That is, the recognition result including the word "good morning" is associated with the command information I1 including the item "air conditioning on", and the voice recognition server 3 generates the command information I1 based on this correspondence. To do.

音声認識サーバ3は、生成したコマンド情報I1を、制御用サーバ100Aに送信する。コマンド情報I1(「空調オン」)を受信した制御用サーバ100Aは、情報生成部19にて、付加情報I2に含まれ得る種々の情報を生成する。例えば、付加情報I2が、季節を示す期間情報を含む場合、情報生成部19は、現在時刻(月日も含む)に従って現在の季節が春、夏、秋、冬のいずれであるかを示す期間情報を生成する(図5の例では「夏」)。制御用サーバ100Aの第1取得部11及び第2取得部12は、それぞれコマンド情報I1及び付加情報I2を取得する。そして、制御用サーバ100Aは、制御部13にて、コマンド情報I1(「空調オン」)及び付加情報I2(「夏」)に基づく制御命令I3を生成する。ここでは一例として、制御命令I3は、空調機器からなる機器51を制御対象T1とし、かつ制御対象T1(機器51)の動作モードを「冷房」とするための、対象特定項目及び内容特定項目を含む。制御用サーバ100Aは、このような制御命令I3をコントローラ10Aに送信する。 The voice recognition server 3 transmits the generated command information I1 to the control server 100A. The control server 100A that has received the command information I1 (“air conditioning on”) generates various information that can be included in the additional information I2 at the information generation unit 19. For example, when the additional information I2 includes a period information indicating a season, the information generation unit 19 indicates a period indicating whether the current season is spring, summer, autumn, or winter according to the current time (including the month and day). Generate information (“summer” in the example of FIG. 5). The first acquisition unit 11 and the second acquisition unit 12 of the control server 100A acquire the command information I1 and the additional information I2, respectively. Then, the control server 100A generates the control command I3 based on the command information I1 (“air conditioning on”) and the additional information I2 (“summer”) in the control unit 13. Here, as an example, the control command I3 sets the target specific item and the content specific item for setting the device 51 composed of the air conditioner as the control target T1 and the operation mode of the control target T1 (device 51) as “cooling”. Including. The control server 100A transmits such a control command I3 to the controller 10A.

これにより、コントローラ10Aは、制御命令I3に従って機器5の制御を実行する。その結果、一例として、空調機器からなる機器51は動作モードが「冷房」でオンすることになる。 As a result, the controller 10A executes the control of the device 5 according to the control command I3. As a result, as an example, the device 51 composed of the air conditioner is turned on when the operation mode is "cooling".

また、実施形態2に係る機器制御システム1Aにおいて、空調機器からなる機器51を制御対象T1とすることは必須の構成ではなく、例えば、2つ以上の機器5を制御対象T1としてもよい。 Further, in the device control system 1A according to the second embodiment, it is not indispensable to set the device 51 composed of the air conditioner as the control target T1, and for example, two or more devices 5 may be the control target T1.

実施形態2で説明した種々の構成(変形例を含む)は、実施形態1で説明した種々の構成(変形例を含む)と適宜組み合わせて採用可能である。 The various configurations (including the modified examples) described in the second embodiment can be appropriately combined with the various configurations (including the modified examples) described in the first embodiment.

(まとめ)
以上説明したように、第1の態様に係る機器制御システム(1,1A)は、第1取得部(11)と、第2取得部(12)と、制御部(13)と、を備える。第1取得部(11)は、コマンド情報(I1)を取得する。コマンド情報(I1)は、音声入力装置(2)に入力された音声の認識結果に関する情報である。第2取得部(12)は、付加情報(I2)を取得する。付加情報(I2)は、コマンド情報(I1)とは別の情報からなる。制御部(13)は、コマンド情報(I1)と付加情報(I2)との両方に基づく制御命令(I3)により、少なくとも1つの機器(5)からなる制御対象(T1)を制御する。
(Summary)
As described above, the device control system (1,1A) according to the first aspect includes a first acquisition unit (11), a second acquisition unit (12), and a control unit (13). The first acquisition unit (11) acquires command information (I1). The command information (I1) is information regarding the recognition result of the voice input to the voice input device (2). The second acquisition unit (12) acquires the additional information (I2). The additional information (I2) consists of information different from the command information (I1). The control unit (13) controls a control target (T1) including at least one device (5) by a control command (I3) based on both command information (I1) and additional information (I2).

この態様によれば、制御対象(T1)の制御に、音声入力装置(2)に入力された音声に基づくコマンド情報(I1)だけでなく、コマンド情報(I1)とは別の付加情報(I2)が用いられる。そのため、例えば、音声入力装置(2)に入力される音声が同じ場合であっても、少なくとも1つの機器(5)からなる制御対象(T1)に対しては、一義的ではなく、付加情報(I2)次第で異なる制御がなされる。したがって、機器制御システム(1,1A)によれば、ユーザ(U1)が同じように発話した場合でも機器(5)を柔軟に制御可能である、という利点がある。 According to this aspect, not only the command information (I1) based on the voice input to the voice input device (2) but also additional information (I2) different from the command information (I1) is used to control the control target (T1). ) Is used. Therefore, for example, even if the voice input to the voice input device (2) is the same, the additional information (T1) including at least one device (5) is not unique. Different controls are made depending on I2). Therefore, according to the device control system (1,1A), there is an advantage that the device (5) can be flexibly controlled even when the user (U1) speaks in the same manner.

第2の態様に係る機器制御システム(1,1A)では、第1の態様において、付加情報(I2)は、ユーザ(U1)の操作に応じて変化する入力情報を含む。制御部(13)は、少なくとも入力情報に応じて制御命令(I3)を変化させる。 In the device control system (1,1A) according to the second aspect, in the first aspect, the additional information (I2) includes input information that changes according to the operation of the user (U1). The control unit (13) changes the control command (I3) at least according to the input information.

この態様によれば、ユーザ(U1)が同じように発話した場合でも、ユーザ(U1)の操作次第で、機器(5)に対して異なる制御を実現できる。 According to this aspect, even when the user (U1) speaks in the same way, different control can be realized for the device (5) depending on the operation of the user (U1).

第3の態様に係る機器制御システム(1,1A)では、第1又は2の態様において、付加情報(I2)は、期間に関する期間情報を含む。制御部(13)は、少なくとも期間情報に応じて制御命令(I3)を変化させる。 In the device control system (1,1A) according to the third aspect, in the first or second aspect, the additional information (I2) includes the period information regarding the period. The control unit (13) changes the control command (I3) at least according to the period information.

この態様によれば、ユーザ(U1)が同じように発話した場合でも、例えば、季節又は時間帯等の期間次第で、機器(5)に対して異なる制御を実現できる。 According to this aspect, even when the user (U1) speaks in the same way, different control can be realized for the device (5) depending on a period such as a season or a time zone.

第4の態様に係る機器制御システム(1,1A)では、第1〜3のいずれかの態様において、付加情報(I2)は、音声入力装置(2)に入力された音声を発した話者に関する話者情報を含む。制御部(13)は、少なくとも話者情報に応じて制御命令(I3)を変化させる。 In the device control system (1,1A) according to the fourth aspect, in any one of the first to third aspects, the additional information (I2) is the speaker who emitted the voice input to the voice input device (2). Includes speaker information about. The control unit (13) changes the control command (I3) at least according to the speaker information.

この態様によれば、ユーザ(U1)が同じように発話した場合でも、話者によって、機器(5)に対して異なる制御を実現できる。 According to this aspect, even when the user (U1) speaks in the same way, different control can be realized for the device (5) depending on the speaker.

第5の態様に係る機器制御システム(1,1A)では、第1〜4のいずれかの態様において、付加情報(I2)は、コマンド情報(I1)から独立した外部情報を含む。 In the device control system (1,1A) according to the fifth aspect, in any one of the first to fourth aspects, the additional information (I2) includes external information independent of the command information (I1).

この態様によれば、付加情報(I2)に含まれる外部情報は、コマンド情報(I1)に依存しないため、コマンド情報(I1)と付加情報(I2)との組み合わせにより、多様な制御を実現できる。 According to this aspect, since the external information included in the additional information (I2) does not depend on the command information (I1), various controls can be realized by combining the command information (I1) and the additional information (I2). ..

第6の態様に係る機器制御システム(1,1A)では、第1〜5のいずれかの態様において、付加情報(I2)は、状態情報を含む。状態情報は、音声入力装置(2)に入力された音声から抽出され、音声を発した話者の状態に関連する情報である。制御部(13)は、少なくとも状態情報に応じて制御命令(I3)を変化させる。 In the device control system (1,1A) according to the sixth aspect, in any one of the first to fifth aspects, the additional information (I2) includes the state information. The state information is information related to the state of the speaker who utters the voice, which is extracted from the voice input to the voice input device (2). The control unit (13) changes the control command (I3) at least according to the state information.

この態様によれば、ユーザ(U1)が同じように発話した場合でも、話者の状態次第で、機器(5)に対して異なる制御を実現できる。 According to this aspect, even when the user (U1) speaks in the same way, different control can be realized for the device (5) depending on the state of the speaker.

第7の態様に係る機器制御システム(1,1A)では、第1〜6のいずれかの態様において、制御命令(I3)は、対象特定項目と、内容特定項目と、を含む。対象特定項目は、複数の機器(5)のうちの制御対象(T1)となる少なくとも1つの機器(5)を特定する。内容特定項目は、制御対象(T1)の動作を特定する。制御部(13)は、コマンド情報(I1)及び付加情報(I2)との両方に基づいて、対象特定項目及び内容特定項目を決定する。 In the device control system (1,1A) according to the seventh aspect, in any one of the first to sixth aspects, the control command (I3) includes a target specific item and a content specific item. The target identification item specifies at least one device (5) that is a control target (T1) among the plurality of devices (5). The content specification item specifies the operation of the control target (T1). The control unit (13) determines the target specific item and the content specific item based on both the command information (I1) and the additional information (I2).

この態様によれば、制御命令(I3)により、いずれの機器(5)を、どのように制御するのか、を規定することが可能である。 According to this aspect, it is possible to specify which device (5) is controlled and how by the control command (I3).

第8の態様に係る機器制御システム(1,1A)では、第1〜7のいずれかの態様において、制御部(13)は、コマンド情報(I1)と付加情報(I2)との両方に基づいて、複数の機器(5)の中から2つ以上の機器(5)を制御対象(T1)として選択する。 In the device control system (1,1A) according to the eighth aspect, in any one of the first to seventh aspects, the control unit (13) is based on both the command information (I1) and the additional information (I2). Then, two or more devices (5) are selected as the control target (T1) from the plurality of devices (5).

この態様によれば、2つ以上の機器(5)をまとめて制御することが可能である。 According to this aspect, it is possible to collectively control two or more devices (5).

第9の態様に係る機器制御システム(1,1A)では、第1〜8のいずれかの態様において、制御部(13)は、1つのコマンド情報(I1)に対応付けられている複数の命令候補の中から、付加情報(I2)に基づいて一の命令候補を選択する。制御部(13)は、一の命令候補を制御命令(I3)として制御対象(T1)を制御する。 In the device control system (1, 1A) according to the ninth aspect, in any one of the first to eighth aspects, the control unit (13) has a plurality of commands associated with one command information (I1). From the candidates, one instruction candidate is selected based on the additional information (I2). The control unit (13) controls the control target (T1) with one command candidate as the control command (I3).

この態様によれば、複数の命令候補の中からコマンド情報(I1)にて命令候補の絞り込みを行い、更に付加情報(I2)に基づいて一の命令候補を選択することができ、一の命令候補を選択する処理負荷の低減を図ることができる。 According to this aspect, command candidates can be narrowed down by command information (I1) from a plurality of command candidates, and one command candidate can be selected based on additional information (I2), and one command can be selected. It is possible to reduce the processing load for selecting candidates.

第10の態様に係る機器制御システム(1,1A)では、第9の態様において、制御部(13)は、付加情報(I2)が判定条件を満たした場合に、判定条件に従って一の命令候補を選択する。制御部(13)は、付加情報(I2)が判定条件を満たさない場合に、複数の命令候補の中のデフォルトの命令候補を選択し、デフォルトの命令候補を制御命令(I3)として制御対象(T1)を制御する。 In the device control system (1,1A) according to the tenth aspect, in the ninth aspect, when the additional information (I2) satisfies the determination condition, the control unit (13) is one instruction candidate according to the determination condition. Select. When the additional information (I2) does not satisfy the determination condition, the control unit (13) selects the default instruction candidate from the plurality of instruction candidates, and sets the default instruction candidate as the control instruction (I3) to control (I3). T1) is controlled.

この態様によれば、付加情報(I2)による命令候補の絞り込みができない場合であっても、デフォルトの命令候補を制御命令(I3)として採用することにより、制御対象(T1)の制御が可能となる。 According to this aspect, even when the command candidates cannot be narrowed down by the additional information (I2), the control target (T1) can be controlled by adopting the default command candidate as the control command (I3). Become.

第11の態様に係る機器制御システム(1,1A)は、第1〜10のいずれかの態様において、設定部(16)を更に備える。設定部(16)は、コマンド情報(I1)と付加情報(I2)と制御命令(I3)との対応関係を設定する。 The device control system (1,1A) according to the eleventh aspect further includes a setting unit (16) in any one of the first to tenth aspects. The setting unit (16) sets the correspondence between the command information (I1), the additional information (I2), and the control command (I3).

この態様によれば、コマンド情報(I1)と付加情報(I2)と制御命令(I3)との対応関係を変更することができる。 According to this aspect, the correspondence between the command information (I1), the additional information (I2), and the control command (I3) can be changed.

第12の態様に係る機器制御システム(1,1A)では、第11の態様において、設定部(16)は、学習モードを有する。学習モードは、制御対象(T1)に対して制御命令(I3)に相当する制御が行われた場合に、制御命令(I3)と、コマンド情報(I1)と付加情報(I2)との対応関係を生成するモードである。 In the device control system (1,1A) according to the twelfth aspect, in the eleventh aspect, the setting unit (16) has a learning mode. In the learning mode, when control corresponding to the control command (I3) is performed on the control target (T1), the correspondence between the control command (I3), the command information (I1), and the additional information (I2). Is the mode to generate.

この態様によれば、学習モードにおいては、コマンド情報(I1)と付加情報(I2)と制御命令(I3)との対応関係を自動的に変更することができる。 According to this aspect, in the learning mode, the correspondence between the command information (I1), the additional information (I2), and the control command (I3) can be automatically changed.

第13の態様に係る機器制御方法は、第1取得処理と、第2取得処理と、制御処理と、を有する。第1取得処理は、コマンド情報(I1)を取得する処理である。コマンド情報(I1)は、音声入力装置(2)に入力された音声の認識結果に関する情報である。第2取得処理は、付加情報(I2)を取得する処理である。付加情報(I2)は、コマンド情報(I1)とは別の情報からなる。制御処理は、コマンド情報(I1)と付加情報(I2)との両方に基づく制御命令(I3)により、少なくとも1つの機器(5)からなる制御対象(T1)を制御する処理である。 The device control method according to the thirteenth aspect includes a first acquisition process, a second acquisition process, and a control process. The first acquisition process is a process for acquiring command information (I1). The command information (I1) is information regarding the recognition result of the voice input to the voice input device (2). The second acquisition process is a process for acquiring additional information (I2). The additional information (I2) consists of information different from the command information (I1). The control process is a process of controlling a control target (T1) composed of at least one device (5) by a control command (I3) based on both command information (I1) and additional information (I2).

この態様によれば、制御対象(T1)の制御に、音声入力装置(2)に入力された音声に基づくコマンド情報(I1)だけでなく、コマンド情報(I1)とは別の付加情報(I2)が用いられる。そのため、例えば、音声入力装置(2)に入力される音声が同じ場合であっても、少なくとも1つの機器(5)からなる制御対象(T1)に対しては、一義的ではなく、付加情報(I2)次第で異なる制御がなされる。したがって、機器制御方法によれば、ユーザ(U1)が同じように発話した場合でも機器(5)を柔軟に制御可能である、という利点がある。 According to this aspect, not only the command information (I1) based on the voice input to the voice input device (2) but also additional information (I2) different from the command information (I1) is used to control the control target (T1). ) Is used. Therefore, for example, even if the voice input to the voice input device (2) is the same, the additional information (T1) including at least one device (5) is not unique. Different controls are made depending on I2). Therefore, according to the device control method, there is an advantage that the device (5) can be flexibly controlled even when the user (U1) speaks in the same manner.

第14の態様に係るプログラムは、第13の態様に係る機器制御方法を、1以上のプロセッサに実行させるためのプログラムである。 The program according to the fourteenth aspect is a program for causing one or more processors to execute the device control method according to the thirteenth aspect.

この態様によれば、制御対象(T1)の制御に、音声入力装置(2)に入力された音声に基づくコマンド情報(I1)だけでなく、コマンド情報(I1)とは別の付加情報(I2)が用いられる。そのため、例えば、音声入力装置(2)に入力される音声が同じ場合であっても、少なくとも1つの機器(5)からなる制御対象(T1)に対しては、一義的ではなく、付加情報(I2)次第で異なる制御がなされる。したがって、上記プログラムによれば、ユーザ(U1)が同じように発話した場合でも機器(5)を柔軟に制御可能である、という利点がある。 According to this aspect, not only the command information (I1) based on the voice input to the voice input device (2) but also additional information (I2) different from the command information (I1) is used to control the control target (T1). ) Is used. Therefore, for example, even if the voice input to the voice input device (2) is the same, the additional information (T1) including at least one device (5) is not unique. Different controls are made depending on I2). Therefore, according to the above program, there is an advantage that the device (5) can be flexibly controlled even when the user (U1) speaks in the same manner.

上記態様に限らず、実施形態1及び実施形態2に係る機器制御システム(1,1A)の種々の構成(変形例を含む)は、機器制御方法又はプログラムにて具現化可能である。 Not limited to the above aspects, various configurations (including modifications) of the device control system (1,1A) according to the first and second embodiments can be embodied by a device control method or a program.

第2〜12の態様に係る構成については、機器制御システム(1,1A)に必須の構成ではなく、適宜省略可能である。 The configuration according to the second to twelfth aspects is not an essential configuration for the device control system (1,1A) and can be omitted as appropriate.

1,1A 機器制御システム
2 音声入力装置
5 機器
11 第1取得部
12 第2取得部
13 制御部
16 設定部
I1 コマンド情報
I2 付加情報
I3 制御命令
T1 制御対象
U1 ユーザ
1,1A Equipment control system 2 Voice input device 5 Equipment 11 1st acquisition unit 12 2nd acquisition unit 13 Control unit 16 Setting unit I1 Command information I2 Additional information I3 Control command T1 Control target U1 User

Claims (14)

音声入力装置に入力された音声の認識結果に関するコマンド情報を取得する第1取得部と、
前記コマンド情報とは別の情報からなる付加情報を取得する第2取得部と、
前記コマンド情報と前記付加情報との両方に基づく制御命令により、少なくとも1つの機器からなる制御対象を制御する制御部と、を備える、
機器制御システム。
The first acquisition unit that acquires command information related to the recognition result of the voice input to the voice input device, and
A second acquisition unit that acquires additional information consisting of information other than the command information, and
A control unit that controls a control target composed of at least one device by a control command based on both the command information and the additional information is provided.
Equipment control system.
前記付加情報は、ユーザの操作に応じて変化する入力情報を含み、
前記制御部は、少なくとも前記入力情報に応じて前記制御命令を変化させる、
請求項1に記載の機器制御システム。
The additional information includes input information that changes according to the operation of the user.
The control unit changes the control command at least according to the input information.
The device control system according to claim 1.
前記付加情報は、期間に関する期間情報を含み、
前記制御部は、少なくとも前記期間情報に応じて前記制御命令を変化させる、
請求項1又は2に記載の機器制御システム。
The additional information includes period information relating to the period.
The control unit changes the control command at least according to the period information.
The device control system according to claim 1 or 2.
前記付加情報は、前記音声入力装置に入力された前記音声を発した話者に関する話者情報を含み、
前記制御部は、少なくとも前記話者情報に応じて前記制御命令を変化させる、
請求項1〜3のいずれか1項に記載の機器制御システム。
The additional information includes speaker information about a speaker who has emitted the voice input to the voice input device.
The control unit changes the control command at least according to the speaker information.
The device control system according to any one of claims 1 to 3.
前記付加情報は、前記コマンド情報から独立した外部情報を含む、
請求項1〜4のいずれか1項に記載の機器制御システム。
The additional information includes external information independent of the command information.
The device control system according to any one of claims 1 to 4.
前記付加情報は、前記音声入力装置に入力された前記音声から抽出され、前記音声を発した話者の状態に関連する状態情報を含み、
前記制御部は、少なくとも前記状態情報に応じて前記制御命令を変化させる、
請求項1〜5のいずれか1項に記載の機器制御システム。
The additional information is extracted from the voice input to the voice input device, and includes state information related to the state of the speaker who emitted the voice.
The control unit changes the control command at least according to the state information.
The device control system according to any one of claims 1 to 5.
前記制御命令は、複数の機器のうちの前記制御対象となる少なくとも1つの機器を特定する対象特定項目と、前記制御対象の動作を特定する内容特定項目と、を含み、
前記制御部は、前記コマンド情報及び前記付加情報との両方に基づいて、前記対象特定項目及び前記内容特定項目を決定する、
請求項1〜6のいずれか1項に記載の機器制御システム。
The control command includes a target specific item that specifies at least one device to be controlled among a plurality of devices, and a content specific item that specifies the operation of the control target.
The control unit determines the target specific item and the content specific item based on both the command information and the additional information.
The device control system according to any one of claims 1 to 6.
前記制御部は、前記コマンド情報と前記付加情報との両方に基づいて、複数の機器の中から2つ以上の機器を前記制御対象として選択する、
請求項1〜7のいずれか1項に記載の機器制御システム。
The control unit selects two or more devices as the control target from a plurality of devices based on both the command information and the additional information.
The device control system according to any one of claims 1 to 7.
前記制御部は、1つの前記コマンド情報に対応付けられている複数の命令候補の中から、前記付加情報に基づいて一の命令候補を選択し、前記一の命令候補を前記制御命令として前記制御対象を制御する、
請求項1〜8のいずれか1項に記載の機器制御システム。
The control unit selects one instruction candidate based on the additional information from a plurality of instruction candidates associated with the one command information, and controls the one instruction candidate as the control instruction. Control the target,
The device control system according to any one of claims 1 to 8.
前記制御部は、
前記付加情報が判定条件を満たした場合に、前記判定条件に従って前記一の命令候補を選択し、
前記付加情報が前記判定条件を満たさない場合に、前記複数の命令候補の中のデフォルトの命令候補を選択し、前記デフォルトの命令候補を前記制御命令として前記制御対象を制御する、
請求項9に記載の機器制御システム。
The control unit
When the additional information satisfies the determination condition, the one instruction candidate is selected according to the determination condition.
When the additional information does not satisfy the determination condition, a default instruction candidate among the plurality of instruction candidates is selected, and the control target is controlled using the default instruction candidate as the control instruction.
The device control system according to claim 9.
前記コマンド情報と前記付加情報と前記制御命令との対応関係を設定する設定部を更に備える、
請求項1〜10のいずれか1項に記載の機器制御システム。
A setting unit for setting the correspondence between the command information, the additional information, and the control command is further provided.
The device control system according to any one of claims 1 to 10.
前記設定部は、前記制御対象に対して前記制御命令に相当する制御が行われた場合に、前記制御命令と、前記コマンド情報と前記付加情報との対応関係を生成する学習モードを有する、
請求項11に記載の機器制御システム。
The setting unit has a learning mode that generates a correspondence relationship between the control command, the command information, and the additional information when the control target is controlled to correspond to the control command.
The device control system according to claim 11.
音声入力装置に入力された音声の認識結果に関するコマンド情報を取得する第1取得処理と、
前記コマンド情報とは別の情報からなる付加情報を取得する第2取得処理と、
前記コマンド情報と前記付加情報との両方に基づく制御命令により、少なくとも1つの機器からなる制御対象を制御する制御処理と、を有する、
機器制御方法。
The first acquisition process to acquire command information related to the recognition result of the voice input to the voice input device, and
A second acquisition process for acquiring additional information consisting of information other than the command information, and
It has a control process for controlling a control target composed of at least one device by a control command based on both the command information and the additional information.
Device control method.
請求項13に記載の機器制御方法を、1以上のプロセッサに実行させるためのプログラム。 A program for causing one or more processors to execute the device control method according to claim 13.
JP2019034919A 2019-02-27 2019-02-27 Apparatus control system, apparatus control method and program Pending JP2020141235A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019034919A JP2020141235A (en) 2019-02-27 2019-02-27 Apparatus control system, apparatus control method and program
PCT/JP2020/006636 WO2020175293A1 (en) 2019-02-27 2020-02-19 Apparatus control system, apparatus control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019034919A JP2020141235A (en) 2019-02-27 2019-02-27 Apparatus control system, apparatus control method and program

Publications (1)

Publication Number Publication Date
JP2020141235A true JP2020141235A (en) 2020-09-03

Family

ID=72239029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019034919A Pending JP2020141235A (en) 2019-02-27 2019-02-27 Apparatus control system, apparatus control method and program

Country Status (2)

Country Link
JP (1) JP2020141235A (en)
WO (1) WO2020175293A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111243587A (en) * 2020-01-08 2020-06-05 北京松果电子有限公司 Voice interaction method, device, equipment and storage medium
US20220165260A1 (en) * 2020-11-24 2022-05-26 International Business Machines Corporation Ar (augmented reality) based selective sound inclusion from the surrounding while executing any voice command

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002182680A (en) * 2000-12-19 2002-06-26 Alpine Electronics Inc Operation indication device
JP2005086768A (en) * 2003-09-11 2005-03-31 Toshiba Corp Controller, control method, and program
WO2013099322A1 (en) * 2011-12-28 2013-07-04 株式会社 東芝 Power management server device, power management method and power management program
JP2014183491A (en) * 2013-03-19 2014-09-29 Sharp Corp Electric equipment control apparatus, electric equipment control system, program, and electric equipment control method
WO2015029379A1 (en) * 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Device control method, display control method, and purchase payment method
WO2016157537A1 (en) * 2015-04-03 2016-10-06 三菱電機株式会社 Air-conditioning system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002182680A (en) * 2000-12-19 2002-06-26 Alpine Electronics Inc Operation indication device
JP2005086768A (en) * 2003-09-11 2005-03-31 Toshiba Corp Controller, control method, and program
WO2013099322A1 (en) * 2011-12-28 2013-07-04 株式会社 東芝 Power management server device, power management method and power management program
JP2014183491A (en) * 2013-03-19 2014-09-29 Sharp Corp Electric equipment control apparatus, electric equipment control system, program, and electric equipment control method
WO2015029379A1 (en) * 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Device control method, display control method, and purchase payment method
WO2016157537A1 (en) * 2015-04-03 2016-10-06 三菱電機株式会社 Air-conditioning system

Also Published As

Publication number Publication date
WO2020175293A1 (en) 2020-09-03

Similar Documents

Publication Publication Date Title
US11133953B2 (en) Systems and methods for home automation control
US11602033B1 (en) Electronic devices for controlling lights
US10985936B2 (en) Customized interface based on vocal input
US6967565B2 (en) Building automation system
US20190229943A1 (en) System and method for crowdsourcing generalized smart home automation scenes
CN107895574A (en) Voice command is handled based on device topological structure
US11929844B2 (en) Customized interface based on vocal input
CN110709785A (en) Equipment control system
CN113516979A (en) Server-provided visual output at a voice interface device
US11039520B1 (en) Electronic devices for controlling lights
US11665796B2 (en) Multi-purpose voice activated lighting apparatus
CN111970180B (en) Networking configuration method and device for intelligent household equipment, electronic equipment and storage medium
CN110794693A (en) Device configuration method and device, electronic device and storage medium
CN111917591A (en) Intelligent device networking scheme generation method and device and electronic device
JP2020141235A (en) Apparatus control system, apparatus control method and program
WO2021106737A1 (en) Space staging method, program, and space staging system
JP7340764B2 (en) voice control system
CN109164713A (en) A kind of intelligent home furnishing control method and device
KR20200058015A (en) System for reomte control of device
CN110347125A (en) A kind of lighting system of software definition
Alkan et al. Indoor Soundscapes of the Future: Listening to Smart Houses
WO2020223967A1 (en) Active intelligent control method and system, and intelligent apparatus
JP2022087694A (en) Wiring system, and communication system
HOuSE perpetuum

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230718

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231024