WO2020175293A1 - Apparatus control system, apparatus control method, and program - Google Patents
Apparatus control system, apparatus control method, and program Download PDFInfo
- Publication number
- WO2020175293A1 WO2020175293A1 PCT/JP2020/006636 JP2020006636W WO2020175293A1 WO 2020175293 A1 WO2020175293 A1 WO 2020175293A1 JP 2020006636 W JP2020006636 W JP 2020006636W WO 2020175293 A1 WO2020175293 A1 WO 2020175293A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- control
- command
- additional information
- control system
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000008569 process Effects 0.000 claims description 41
- 230000006854 communication Effects 0.000 description 29
- 238000004891 communication Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 12
- 230000015654 memory Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 7
- 238000004378 air conditioning Methods 0.000 description 6
- 230000001276 controlling effect Effects 0.000 description 5
- 238000001816 cooling Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 230000037007 arousal Effects 0.000 description 3
- 230000007175 bidirectional communication Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000035876 healing Effects 0.000 description 3
- 238000010438 heat treatment Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002618 waking effect Effects 0.000 description 2
- 206010002953 Aphonia Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 208000005809 status epilepticus Diseases 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q9/00—Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
Definitions
- the present disclosure generally relates to a device control system, a device control method, and a program, and more particularly, to a device control system, a device control method, and a program for controlling a control target including at least one device.
- Patent Document 1 describes a device control system that controls a device (electric device in a bathroom) based on a voice command issued by a user.
- the device control system described in Patent Document 1 includes a voice recognition unit that receives a voice uttered by a user and recognizes the input voice.
- Patent Document 1 when a user issues a command "voice with healing light” by voice, the device control system determines which command the input voice data corresponds to. .. As a result, if the input voice data can be recognized as a command "put on hearing light", the device control system sends an operation signal to the healing light to turn on the healing light. Activate.
- Patent Document 1 Japanese Patent Laid-Open No. 2058-8500
- the present disclosure has been made in view of the above circumstances, and an object of the present disclosure is to provide a device control system, a device control method, and a program that can flexibly control a device even when a user similarly speaks. .. ⁇ 2020/175293 2
- a device control system includes a first acquisition unit, a second acquisition unit, and a control unit.
- the first acquisition unit acquires command information.
- the command information is information regarding the recognition result of the voice input to the voice input device.
- the second acquisition unit acquires additional information.
- the additional information includes information different from the command information.
- the control unit controls a control target including at least one device by a control command based on both the command information and the additional information.
- a device control method includes a first acquisition process, a second acquisition process, and a control process.
- the first acquisition process is a process of acquiring command information.
- the command information is information about the recognition result of the voice input to the voice input device.
- the second acquisition process is a process of acquiring additional information.
- the additional information is information different from the command information.
- the control process is a process of controlling a control target including at least one device by a control command based on both the command information and the additional information.
- a program according to an aspect of the present disclosure is a program for causing one or more processors to execute the device control method.
- FIG. 1 is a schematic system configuration diagram showing a usage example of the device control system according to the first embodiment.
- FIG. 2 is a block diagram showing a schematic configuration of the device control system of the above.
- Fig. 3 is a flow chart showing an operation example of the above device control system.
- FIG. 4 is a sequence diagram schematically showing the operation of the above-mentioned device control system.
- FIG. 5 is a schematic system configuration diagram showing a usage example of the device control system according to the second embodiment.
- the device control system 1 is a system for controlling a control target 1 (see FIG. 2) including at least one device 51 to 55. Each of the plurality of devices 5 1 to 5 5 is also simply referred to as “device 5” unless the plurality of devices 5 1 to 55 are distinguished.
- the device control system 1 controls the device 5 according to the control command by transmitting a control command from the outside of the device 5 to the device 5 as the controlled object.
- the device control system 1 controls the control target table 1 based on the voice input to the voice input device 2. That is, according to the device control system 1, the user II 1 can control what is controlled by the voice, that is, a so-called voice operation can be performed. Therefore, the user II 1 can operate the control target table 1 by speaking (that is, uttering a voice) even when both hands are closed.
- the device control system 1 for example, even if the device 5 does not have a communication function with the voice input device 2 and does not support voice operation, the voice of the user 11 1 Depending on the input, indirect voice operation via the device control system 1 is possible.
- the device control system 1 since the device control system 1 cooperates with the voice input device 2, even if the device 5 is not directly linked to the voice input device 2, It can be indirectly linked to the input device 2.
- the device control system 1 includes a first acquisition unit 11, a second acquisition unit 12, and a control unit 13.
- the first acquisition unit 11 acquires the command information [1].
- Command information 1 is information about the recognition result of the voice input to the voice input device 2.
- the second acquisition unit 12 acquires the additional information I 2.
- the additional information [2] consists of information other than the command information I1.
- the "I" part 13 is a control command based on both the command information 1 and the additional information 2. ⁇ 2020/175293 4
- the device control system 1 controls not only the command information 1 based on the voice input to the voice input device 2 but also the command information 1 to control the controlled object 1.
- Another additional information item 2 is also used. Therefore, for example, even if the voices input to the voice input device 2 are the same, for the controlled object D1 consisting of at least one device 5, the device control system 1 is not unique. Different controls are performed depending on the additional information. Therefore, the device control system 1 has an advantage that the device 5 can be flexibly controlled even when the user II 1 similarly speaks.
- the device control system 1 is installed in the facility 1 and at least one of the plurality of devices 5 installed in the facility 1 is set as the controlled object 1.
- the term “facility” as used in the present disclosure includes a single-family house, an apartment house, a housing facility such as each dwelling unit of the apartment house, and a non-residential facility such as an office, a factory, a building, a store, a school, a welfare facility, or a hospital.
- Non-residential facilities include theaters, cinemas, public halls, playgrounds, complex facilities, restaurants, department stores, hotels, inns, kindergartens, libraries, museums, museums, underground malls, stations and airports.
- “facility” referred to in this disclosure includes not only buildings (buildings) but also outdoor facilities such as stadiums, gardens, parking lots, grounds and parks.
- the device control system 1 controls at least one of the plurality of devices 5 installed in the facility 1 (here, a detached house) as the control target, and controls the control target.
- the facility 1 is a detached house in which a family of four including a father, a mother, a sister, and a brother live. Therefore, in this embodiment, Father, mother, sister and younger brother who are residents of 1 can be user U 1 of device control system 1.
- the "equipment” as referred to in the present disclosure is an equipment that is controlled by receiving a control command from the equipment control system 1, and as an example, an electric equipment that uses electric power, a stationary or portable facility, or an apparatus. And system.
- the facility F 1 is provided with a plurality of devices 51 to 55 that can be the control target T 1.
- the devices 5 1 and 5 4 are air conditioners
- the devices 5 2 and 5 5 are lighting fixtures
- the device 5 3 is an electric shutter.
- speech means, for example, a whistle, a finger snapp i ng sound, and a clap pi ng sound in addition to a speech sound emitted by a person through a vocal organ. , Including all sounds intentionally emitted by humans.
- the device control system 1 includes a controller 100 and a control server 100.
- the controller 100 and the control server 100 are configured to be able to communicate with each other.
- the term “communicable” in the present disclosure means that a signal can be directly or indirectly transmitted and received by an appropriate communication method such as wired communication or wireless communication. That is, the controller 10 and the control server 100 can exchange signals with each other.
- Both the controller 100 and the control server 100 are connected to a network such as the Internet, and can send and receive signals to and from each other bidirectionally via the network.
- the device control system 1 (the controller 10 and the control server 100) includes a voice input device 2, a voice recognition server 3, and a device 5 (control target T 1 ), respectively. , And is configured to communicate. That is, the device control system 1 can exchange signals with each of the voice input device 2, the voice recognition server 3, and the device 5.
- the device control system 1 does not include the voice input device 2, the voice recognition server 3, and the device 5 as constituent elements.
- the voice input device 2 At least one of the voice recognition server 3 and the device 5 may be included in the components of the device control system 1.
- the device control system 1 may include the voice recognition server 3 as a component.
- each of the controller 10, the control server 100, the voice input device 2, and the voice recognition server 3 has a computer system having one or more processors and one or more memories.
- the main configuration is (including server and cloud computing).
- the processor implements the functions of the controller 10, the control server 100, the voice input device 2, and the voice recognition server 3 by executing the program recorded in the memory.
- the program may be recorded in a memory in advance, may be recorded in a non-transitory recording medium such as a memory card and provided, or may be provided through an electric communication line.
- the above program is a program for causing one or more processors to function as each of the controller 10, the control server 100, the voice input device 2, and the voice recognition server 3.
- the components of the device control system 1 are distributed and arranged in the controller 10 and the control server 100.
- the controller 10 is installed in the facility F 1
- the control server 100 is installed outside the facility F 1.
- the control server 100 is operated by, for example, a service providing company that provides the user U 1 with a device control method that enables the device 5 to be operated by voice, as a service.
- the details of the configuration of the device control system 1 are described in the section “(2.3) Configuration of device control system”.
- the voice input device 2 is, for example, a home voice assistant device that responds to the voice of the user U 1 to play music, control a specific home electric appliance, and the like.
- This type of voice input device 2 performs voice recognition and other operations using technology such as machine learning and interactive artificial intelligence (AI: Artificial Intelligence).
- AI Artificial Intelligence
- the “speech recognition” in the present disclosure includes not only a process of converting the voice of the user U 1 into a character string, but also a natural language process such as semantic analysis and context analysis.
- the voice input device 2 is installed in the facility F 1.
- the voice input device 2 ⁇ 2020/175 293 7
- the voice input device 2 is connected to the router by, for example, wireless communication using radio waves as a medium. This enables the voice input device 2 to perform bidirectional communication with the voice recognition server 3 via the router and the network.
- the communication system of the voice input device 2 is, for example, a wireless communication such as _ _ ⁇ (registered trademark) or Iri 6 1: ⁇ ⁇ 1 (registered trademark).
- the voice input device 2 is a voice input device using the registered words stored in the memory.
- the voice input to 2 is recognized (voice recognition).
- the voice input device 2 outputs the recognition result of the inputted voice to the voice recognition server 3.
- the registered words include acoustic models and recognition dictionaries. That is, the voice input device 2 refers to the registered word, analyzes the voice input from the user II 1 to extract the acoustic feature amount, and refers to the recognition dictionary to perform voice recognition.
- the voice input device 2 stores, for example, a registered word for each user II 1.
- the voice input device 2 performs the speaker identification for identifying the user II 1 who has made a voice, so that the voice other than the user II 1 registered in advance, for example, the voice of a visitor, a television program or a radio It is possible to suppress malfunction of the audio input device 2 due to audio of a program or the like.
- the voice input device 2 is arranged in a place where the voice of the user II 1 is relatively easy to reach, such as in the "living room" in the facility 1 (here, a detached house).
- the voice input device 2 triggers a specific event to start accepting the voice operation of the user II 1.
- the specific event is that a voice representing a specific keyword (wake word) such as “voice operation start” is input from the user II 1. Therefore, the user II 1 can start the voice operation on the voice input device 2 even when both hands are closed.
- the specific event for starting the reception of the voice operation of the user II 1 is not limited to the input of a specific voice (word).
- the user II 1 moves to the front of the voice input device 2.
- the button of the voice input device 2 may be pressed, or the like.
- the voice input device 2 has a speaker that converts an electric signal into sound, in addition to a microphone that converts the voice of the user II 1 into an electric signal. Therefore, the voice input device 2 can not only accept the operation (voice input) by the voice of the user II 1, but also output the sound (including the voice, the beep sound, the melody, etc.) to the user-only 1. Therefore, the user II 1 can operate the voice input device 2 in a hands-free and interactive manner.
- the voice recognition server 3 is configured to be communicable with the voice input device 2, as described above. That is, the voice recognition server 3 is connected to a network such as the Internet and can exchange signals with the voice input device 2 bidirectionally via the network.
- the voice recognition server 3 receives at least the voice recognition result from the voice input device 2.
- the recognition result received by the voice recognition server 3 from the voice input device 2 includes at least a word input as voice to the voice input device 2 and can be processed by one or more processors of the voice recognition server 3. Is. For example, when the user II 1 utters (speaks) the word “good morning” to the voice input device 2, the voice recognition server 3 receives at least “good morning” in the recognition result received from the voice input device 2. Is included.
- the voice recognition server 3 is also communicable with the control server 100 of the device control system 1. Both the voice recognition server 3 and the control server 100 are connected to a network such as the Internet and can exchange signals bidirectionally with each other via the network.
- the voice recognition server 3 Upon receiving the recognition result from the voice input device 2, the voice recognition server 3 determines whether the recognition result is a control word.
- the voice recognition server 3 is, for example, “Good morning”, “Good night”, “I'm coming”, “I'm free”, “Brighten”, “Darken”, “Raise temperature” and “ A specific keyword such as "lower the temperature” is stored in advance as a control word.
- the control word can be arbitrarily set by the user II 1 and registered by the setting unit 16 described later. ⁇ 2020/175 293 9 ⁇ (: 171-1? 2020/006636
- control words such as "Good morning”, “Good night”, “I'm coming”, and “I'm home” do not directly indicate the control of the device 5, but simply in the life of the user 1.
- scene word indicates a scene such as getting up in bed, going to bed, going out, and going home.
- the voice recognition server 3 outputs (transmits) the command information 1 to the control server 100 when the received recognition result is the control word, that is, when the recognition result corresponds to the control word.
- the “command information” referred to in the present disclosure is information regarding the recognition result of the voice input to the voice input device 2. That is, the command information item 1 may be information including the recognition result itself received by the voice recognition server 3 from the voice input device 2, or may be information generated based on the recognition result. As an example, when the voice recognition server 3 receives a recognition result including the word “good morning” from the voice input device 2, it generates command information 1 including the word “good morning”, and the control server 1 Command information 1 is output to 0 0.
- the voice recognition server 3 does not output the command information 1 to the control server 100 when the received recognition result is not the control word, that is, when the recognition result does not correspond to the control word.
- controller 10 and a control server 100, which mainly comprises a computer system (including a server and cloud computer) having one or more memories.
- the acquisition unit 11 includes a second acquisition unit 12 and a control unit 13. Further, in the present embodiment, as shown in FIG. 2, the device control system 1 includes an input unit 14 and a display unit 1 in addition to the first acquisition unit 11 1, the second acquisition unit 12 and the control unit 13. 5, a setting unit 16, a storage unit 17, a communication unit 18 and an information generation unit 19 are further provided.
- All of the units 18 are provided in the controller 10 and the information generation unit 19 is provided in the control server 100. That is, in this embodiment, the first acquisition unit 11 1, the second acquisition unit 12 2, the control unit 13, the input unit 14, the display unit 15, the setting unit 16, the storage unit 17, and the communication unit.
- the components of the information processing unit 18 and the information generation unit 19 are distributed and arranged in the controller 10 and the control server 100.
- the first acquisition unit 11 acquires the command information I 1.
- the command information 1 is information about the recognition result of the voice input to the voice input device 2, for example, information including the recognition result itself received from the voice input device 2 by the voice recognition server 3.
- the first acquisition unit 11 acquires from the voice recognition server 3 the command information 1 including the word “good morning”.
- the timing at which the first acquisition unit 11 acquires the command information [1] depends on the timing at which the voice recognition server 3 outputs the command information [1].
- the second acquisition unit 12 acquires the additional information I 2 as described above. Additional information
- the additional information I 2 includes information different from the command information I 1.
- the additional information I 2 includes external information that is independent of the command information I 1.
- the “external information” referred to in the present disclosure is information that is independent of the command information 1, that is, does not depend on the command information 1.
- information that depends on command information 1, such as the number of times or frequency of acquisition of command information 1 by the first acquisition unit 11, that is, information that correlates with command information 1 is "internal information”.
- the additional information [2] does not include internal information, but includes only external information of external information and internal information.
- the additional information I2 includes input information that changes according to an operation of a person (user U1). That is, for example, the input information that changes when the user U 1 manually operates a switch or the like is included in the additional information section 2.
- Appendix 2 includes period information regarding the period. “Period” in the present disclosure means a section defined by a certain width on the time axis, and for example, time zone, day (including day of the week, weekday/holiday), month, year, season, etc. Including the period. That is, for example, when the unit is the season, the additional information [2] includes period information indicating whether the current season is spring, summer, autumn, or winter.
- the additional information item 2 includes the speaker information about the speaker (user U 1) who uttered the voice input to the voice input device 2.
- the speaker information indicating whether the user U 1 who uttered the voice input to the voice input device 2 is a father, mother, sister, or younger brother is included in the additional information section 2.
- the additional information I 2 is extracted from the voice input to the voice input device 2 and includes state information related to the state of the speaker who uttered the voice.
- the “speaker state” referred to in the present disclosure is information that can be extracted from the voice input to the voice input device 2, and is, for example, estimated from the loudness (volume) and tone of the speaker. Including the emotion or physical condition of.
- the speaker's emotions are, for example, two types of emotions of a person whose two axes are arousal (Arousal l Level), which is the degree of arousal, and comfort (Valence Level), which is the degree of comfort. It can be estimated using the dimensional model (Russell ring model).
- the input information, the period information, the speaker information, and the state information as described above do not depend on the command information I 1, that is, the information is independent of the command information I 1, the "external information" include.
- the timing at which the second acquisition unit 12 acquires the additional information item 2 is synchronized with the timing at which the first acquisition unit 11 acquires the command information I 1. That is, the timing at which the second acquisition unit 12 acquires the additional information I 2 is determined by the timing at which the voice recognition server 3 outputs the command information 1 1.
- control unit 13 controls the command information I 1 and the additional information I 2. ⁇ 0 2020/175293 12 ⁇ (: 17 2020/006636
- the control instruction 1 based on both controls the control target 1 consisting of at least one device 5.
- the control unit 13 outputs the control command information 3 based on both the command information 1 acquired by the first acquisition unit 11 and the additional information I 2 acquired by the second acquisition unit 12. To generate. With the control command 3 generated in this way, the control unit 13 executes control of the control target tool 1 including at least one device 5.
- the control unit 13 reflects not only the command information item 1 but also the additional information item 2 on the control of the control target document 1. For example, even if the command information 1 is the same, if the additional information 2 satisfies different conditions, the control unit 13 executes control of the controlled object D 1 with different control commands 3. In other words, even if the command information I 1 is the same, the control unit 13 controls the controlled object D 1 with the first control command 3 when the additional information 2 satisfies the first condition, and the additional information 2 If satisfies the second condition, the control target tool 1 is controlled by the second control command I 3.
- the second condition is different from the first condition
- the second control command I 3 is a control command I 3 different from the first control command I 3.
- the additional information item 2 may include the input information, the period information, the speaker information, and the state information, as described above. Therefore, when the input information, the period information, the speaker information and the state information are included in the additional information section 2, the control unit 13 controls the control command according to the input information, the period information, the speaker information and the state information. Change. That is, when the additional information [2] includes input information, the control unit [13] changes the control command [3] at least according to the input information. When the additional information I 2 includes the period information, the control unit 13 changes the control command 3 at least according to the period information. When the additional information [2] includes the speaker information, the control unit [13] changes the control command [3] according to at least the speaker information.
- the control unit 13 changes the control command 3 at least according to the status information. Further, when the additional information I 2 includes two or more pieces of the input information, the period information, the speaker information, and the status information, the control unit 13 controls according to the two or more pieces of information. Change instruction I 3. ⁇ 2020/175 293 13 ⁇ (:171? 2020 /006636
- control command in the present disclosure specifies a target specifying item that specifies at least one device 5 that is a controlled target among the plurality of devices 5, and an operation of the controlled target. Includes content specific items and. Then, the control unit 13 determines the target specific item and the content specific item based on both the command information I 1 and the additional information [2].
- control command (3) can specify at least one device (5) to be controlled by the target specifying item.
- the target specifying item is, for example, assigned to each of the plurality of devices 5 and is represented by identification information (address, etc.) stored in each device 5.
- control command [3] makes it possible to specify how to control the controlled object [1] by the content specifying item.
- the devices 5 1 and 5 4 consisting of air-conditioning equipment are the controlled target 1, the operating mode of the controlled target 1 (cooling/heating, etc.), set temperature, wind direction, air volume and operating time (timer), etc.
- the operation of is specified in the content specific item.
- the equipment 5 2 and 5 5 consisting of luminaires is the controlled object 1, the control object 1 will be turned off, lit, dimmed, dimmed level (brightness), light color (color temperature) and operated. Operations such as time (timer) are specified in the content specific items.
- the device 53 consisting of an electric shutter is the controlled object, the operations such as opening/closing and opening of the controlled object 1 are specified in the content specific items.
- control unit 13 outputs the control command 3 to determine which device 5 among the plurality of devices 5 is the control target document 1 and which control target document 1 is. You can control or specify.
- the control unit 13 controls two or more devices 5 out of the plurality of devices 5 based on both the command information 1 and the additional information 2. To choose as. That is, the control unit 13 can select not only one device 5 as the control target document 1 but also a plurality of (two or more) devices 5 as the control target document 1. As a result, the control unit 13 can collectively control the plurality of devices 5.
- the two or more devices 5 selected as the controlled object 1 may be devices 5 of the same type, for example, an air conditioner and a lighting device. ⁇ 2020/175 293 14 ⁇ (:171? 2020 /006636
- a control list (control table) including a plurality of command candidates corresponding to the above-described control command 3 (target specific item and content specific item) is stored in a storage unit described later. 1 7 remembers. Then, the control unit 13 selects one of the command candidates included in the control list stored in the storage unit 17 and selects a control command corresponding to the selected command candidate. Execute the control of controlled object D1 according to 3.
- one or more command candidates are associated with one or more command candidates. That is, it is not possible to limit the number of command candidates to one command information only, but the control unit 13 according to the present embodiment uses the additional information command 2 in addition to the command information I 1 to It is possible to narrow down to one. In short, the control unit 13 selects one instruction candidate from the plurality of instruction candidates associated with one command information item 1 on the basis of the additional information item 2, and selects the selected one instruction candidate item. Is used as a control command I 3 to control the controlled object.
- the default command in the control list is dealt with. Candidates are available. That is, even if the instruction candidates cannot be narrowed down by the additional information I 2, the control unit 13 can control the controlled object 1 by adopting the default instruction candidate as the control instruction ⁇ 3. .. In short, the control unit 13 selects one instruction candidate according to the determination condition when the additional information [2] satisfies the determination condition, and selects the selected one instruction candidate as the control instruction [3] to control the target object 1. Control. On the other hand, when the additional information I 2 does not satisfy the determination condition, the control unit 13 selects the default instruction candidate from the plurality of instruction candidates and sets the default instruction candidate as the control instruction I 3 to control the target instruction. Control 1
- the input unit 14 receives input of an input signal according to the operation of the user II 1.
- the device control system 1 can accept the operation of the user II 1. ⁇ 2020/175 293 15 ⁇ (:171? 2020/006636
- the input signal received by the input unit 14 is generated by an operation other than the voice operation of the user II 1, basically the operation performed by the user II 1 by his/her own hand.
- the input unit 14 receives, as an example, an input of an input signal generated by operating a touch panel display provided on the controller 10 or a push button.
- the display unit 15 has a function of presenting information to the user II 1 by display.
- the display unit 15 and the input unit 14 are realized by, for example, a touch panel display. Therefore, the controller 10 detects that the operation of an object such as a button on each screen displayed on the touch panel display (such as duplication, swipe, or drag) is detected, and the object such as the button is operated. To judge.
- the display unit 15 is included in a touch panel display, for example, a liquid crystal display, an organic display! !_ 11111 _1 306 6) Realized by a display etc.
- the setting unit 16 sets the correspondence between the command information I 1, the additional information item 2 and the control command I 3.
- the setting unit 16 has two modes: a normal mode for invalidating the setting and a manual setting mode.
- the normal mode the setting unit 16 fixes the correspondence between the command information I 1, the additional information ⁇ 2 and the control command I3, and sets the command information ⁇ 1, additional information ⁇ 2 and the control command ⁇ 3. Do not set (change) the correspondence relationship of.
- the manual setting mode is a mode in which the user II 1 can manually set the correspondence between the command information 1 and the additional information 2 and the control command I 3.
- the setting unit 16 may, for example, according to the input signal received by the input unit 14, that is, the input signal according to the operation of the user II 1, the command information 1 and the additional information 2 and the control command.
- user II 1 associates one command code with one combination of command information 1 and additional information 2 on the control list.
- the setting unit 16 has a learning mode in addition to the normal mode and the manual setting mode.
- the learning mode is limited to the controlled object 1.
- the learning mode when the control equivalent to command 3 is performed, the correspondence between control command 3, command information 1 and additional information 2 is generated. That is, in the learning mode, the setting unit 16 automatically learns and adjusts (changes) the correspondence relationship between the command information I 1, the additional information 2 and the control command I 3.
- the setting unit 16 corresponds to this operation when the user U 1 operates the device 5 having a high correlation with respect to one combination of the command information I 1 and the additional information [2]. Generate command candidates and add them to the control list.
- the setting unit 16 responds to this operation to control the list. Change (including delete) the instruction candidates in.
- the learning in the setting unit 16 in the learning mode may be performed, for example, by performing training (learning) with a neural network built in the control server 100.
- the storage unit 17 stores, for example, a control list including a plurality of instruction candidates. In addition, the storage unit 17 further stores information and the like necessary for calculation in the control unit 13 and the like.
- the storage unit 17 includes a rewritable nonvolatile memory such as an EEPROM (Electrically Erasable Programmable Read-0 nly Memory).
- the communication unit 18 has a communication function with each of the control server 100 and the control target T 1.
- the communication unit 18 is capable of bidirectional communication with the control server 100, for example, via a network. Further, the communication unit 18 is capable of bidirectional communication with the control target T 1, for example, by wireless communication using a radio wave as a medium.
- a specific low power wireless station in the 92 MHz band (a wireless station that does not require a license), W i -F i (registered trademark), or B ⁇ uet ⁇ ⁇ th (registered trademark), etc.
- the communication protocol in the communication between the communication unit 18 (controller 10) and the control target T 1 is, for example, E het rn et (registered trademark) or ECHO N ET Lite (registered trademark).
- the information generation unit 19 provided in the control server 100 generates various types of information that can be included in the additional information section 2.
- the additional information ⁇ 2 indicates the season ⁇ 2020/175 293 17 ⁇ (:171? 2020/006636
- the information generation unit 19 In the case of including the interval information, the information generation unit 19 generates period information indicating whether the current season is spring, summer, autumn, or winter according to the current time (including month and day). In this case, the control server 100
- the information generation unit 19 communicates with the voice recognition server 3 so that the user II 1 who utters the voice input to the voice input device 2 is , Speaker information indicating whether the child is a father, mother, sister, or brother.
- the information generation unit 19 communicates with the voice recognition server 3 to cause the speaker (user II 1 1) who uttered the voice input to the voice input device 2. ) Generates state information indicating the state of.
- FIG. 3 is a flow chart showing an example of the operation of the device control system 1.
- the voice input device 2 triggers the voice input from the user II 1 that represents a specific keyword (wake word) such as “start voice operation” to trigger the voice operation of the user II 1. Start accepting. In other words, the voice input device 2 determines that there is no voice input (3 1: N 0) until it receives the input of the wake word from the user II 1, and repeats the process 3 1.
- a specific keyword such as “start voice operation”
- the voice input device 2 receives the input of the wake word from the user II 1, the voice input device 2 has the voice input (3 1: 3) and accept the voice from user II 1. At this time, the recognition result of the voice input to the voice input device 2 is transmitted from the voice input device 2 to the voice recognition server 3. Then, the voice recognition server 3 determines whether or not the recognition result received from the voice input device 2 is a control word (32). If the recognition result received from the voice input device 2 is not a control word (3 2 :N 0), process 3 1 is repeated. ⁇ 2020/175 293 18 ⁇ (:171? 2020 /006636
- the voice recognition server 3 outputs command information 1 to the control server 100.
- the device control system 1 acquires the command information 1 by the first acquisition unit 11 (3 3).
- the first acquisition unit 11 acquires the command information 1 from the voice recognition server 3 via the control server 100.
- the second acquisition unit 12 acquires the additional information I 2 (34).
- the second acquisition unit 12 acquires, for example, the additional information item 2 generated by the control server 100 (information generation unit 19) from the control server 100.
- the control unit 13 first selects from among the plurality of command candidates included in the control list stored in the storage unit 17 the command candidate based on the command information ⁇ 1. Narrow down (3 5). At this time, the control unit 13 selects two or more instruction candidates corresponding to the acquired command information [1] from among the plurality of instruction candidates as the _ next candidate.
- the control unit 13 determines whether or not the additional information item 2 satisfies the determination condition ⁇ 6).
- the judgment condition is that, for example, when the additional information [2] includes period information indicating a season, the period information indicates either “summer” or “winter”. In this case, if the additional information [2] includes the period information indicating “summer” or “winter”, the judgment condition is satisfied, and whether the additional information includes period information indicating “spring” or “fall”. If the information cannot be discriminated, the judgment condition is not satisfied.
- control unit 13 narrows down the command candidates from the two or more command candidates selected as the primary candidates by the additional information [2] (37). In this case, the control unit 13 selects one instruction candidate from the primary candidates according to the semi-constant condition. As described above, the control unit 13 can narrow down the command candidates to one by using the additional information item 2 in addition to the command information item I 1.
- the control system 1 causes the control unit 13 to select a default instruction candidate from the two or more instruction candidates selected as the primary candidates (38). In this way, even if the additional information I2 cannot be discriminated, and the instruction candidates cannot be narrowed down by the additional information I2, the control unit 13 can narrow down the instruction candidates to one. it can.
- control unit 13 sets the one command candidate selected in the process 37 or the process 38 as the control command 3 and controls the control target I 1 by the control command I 3 (39)
- the target specifying item included in the control command 3 specifies at least one device 5 to be the controlled target among the plurality of devices 5. Furthermore, how to control the controlled object 1 is specified by the content specification item included in the control command [3].
- the flow chart of FIG. 3 is merely an example of the operation of the device control system 1, and the processes may be omitted or added as appropriate, or the order of the processes may be appropriately changed.
- the process in which the first acquisition unit 11 acquires the command information 1 (3 3) and the process in which the second acquisition unit 12 acquires the additional information I 2 (3 4) are in reverse order. May be
- FIG. 4 is a sequence diagram schematically showing a series of processes in which the device 5 is controlled after the user II 1 speaks and the control result is fed back to the user II 1.
- the command information I 1 including the word “good morning” is associated with two command candidates regarding the control of the devices 5 1 to 5 3 in the “living room” among the devices 5 1 to 5 5. Suppose that.
- the command candidate associated with the additional information ⁇ 2 including the period information "summer" is not the device 51 consisting of the air conditioner and the lighting fixture. ⁇ 2020/175 293 20 ⁇ (:171? 2020 /006636
- the command candidate associated with the additional information [2] including the period information "Winter” is the device 51 that is an air conditioner and the device 52 that is a lighting fixture. Includes target specific items specified as 1. Further, this command candidate includes a content specific item for turning on the operation mode of the device 51 as "heating” and turning on the device 52.
- the voice input device 2 after the voice input device 2 starts accepting the voice operation of the user II 1, the user 111 outputs the word "Good morning” to the voice input device 2 (3 1 1).
- the voice input device 2 receives the voice input from the user II 1 and detects a voice command. That is, the voice input device 2 performs voice recognition on the voice uttered by the user II 1 and transmits the recognition result including the word "Good morning” to the voice recognition server 3 (3 1 2).
- the voice recognition server 3 transmits command information ⁇ 1 including the word “Good morning” to the control server 100 (3 1 3 ).
- the control server 100 which has received the command information [1], generates the additional information [2] at the timing of receiving the command information [1] (3 1 4).
- the additional information 2 generated at this time includes at least period information indicating “summer”.
- the control server 100 sets the command information 1 and the additional information 2 into one set, and sets this one set of data (command information 1 and additional information 2) to the controller 10 Send (3 15).
- the command information [1] including the word "Good morning” and the additional information [2] including the period information indicating "summer" are transmitted to the controller 10.
- the controller 10 that has acquired the command information I 1 and the additional information [2] generates the control command I3 based on the command information [1] and the additional information [2], and the device 5 1 as the control target Send control command 3 to ⁇ 5 3 (3 16). This and ⁇ 2020/175 293 21 ⁇ (:171? 2020 /006636
- the command candidate that is associated with additional information [2] that contains the term information “summer” is the control command. Selected as ⁇ 3.
- the devices 51 to 53 as the control target knife 1 are controlled according to the control command I 3 based on the command information 1 (“Good morning”) and the additional information 2 (“Summer”).
- the device 5 1 consisting of air conditioners turns on when the operation mode is “cooling”
- the device 5 2 consisting of lighting fixtures lights up
- the device 5 3 consisting of electric shirts opens “open”.
- the response signal is sent to the voice input device 2 through the controller 10, the control server 100, and the voice recognition server 3 in this order.
- Sent (3 17 to 320).
- the response signal is information indicating the result of control of the device 5 by the control instruction I 3.
- the device 5 basically operates according to the control command 3 after transmitting the response signal, but not limited to this example, the device 5 operates according to the control command 3 and then transmits the response signal. Good.
- the voice input device 2 Upon receiving the response signal, the voice input device 2 outputs a notification sound to the user II 1 (3 2 1). At this time, the notification sound output by the voice input device 2 is, for example, a sound “ ⁇ ” or a beep sound. Further, the voice input device 2 that receives the response signal may notify the user II 1 of the control result of the device 5 by a display (including simple light emission) or the like instead of or in addition to the notification sound.
- the control of the device 5 by the device control system 1 is different from the example in FIG. That is, if the season is "winter”, the period information included in the additional information [2] will be [winter], so the control command [3] generated by the controller 10 is different from the example in FIG. Specifically, the device 51 consisting of an air conditioner is turned on when the operation mode is "heating”, the device 52 consisting of a lighting device is turned on, and the device 53 consisting of an electric shirt does not operate. In short, even if the command information (1) (“Good morning”) is the same, the additional information (2) is different, so the device control system 1 ⁇ 2020/175293 22 control (:171? 2020/006636) will be controlled differently.
- the user II 1 only has to say the word “good morning”, and the control composed of at least one (here, three) devices 5 is required. It is possible to realize control of the target table 1. Moreover, since the device control system 1 uses not only the command information 1 based on the voice input to the voice input device 2 but also the additional information 2 to control the controlled object 1, the user II 1 Even if they say the same word, different controls can be realized depending on the additional information. In other words, even when User II 1 similarly utters the word “Good morning” when waking up in “Summer” and when waking up in “Winter”, different control is applied to the device 5 as described above. To be executed.
- the command information 1 and the like described above are merely examples, and can be changed as appropriate. For example, if a control word such as “Good night” is set, the user 5 ) 1 at the time of going to bed utters the words “Good night” to control the device 5 that is set for bedtime. it can. If a control word such as “I'm coming” or “I'm home” is set, the user II 1 will say “I'm coming” or “I'm home” when going out or coming home, and It is possible to control the device 5 that is set for returning home. Moreover, even in these cases, since the device control system 1 uses not only the command information 1 but also the additional information 2 to control the controlled object 1, the user II 1 uses the same word.
- the wake-up user 1 utters the word ‘good morning’, which is one of the control words, toward the voice input device 2.
- the word "good morning” ⁇ 2020/175 293 23 ⁇ (:171? 2020 /006636
- command information ⁇ 1 including the above is associated with two command candidates regarding the control of the devices 5 1 to 5 3 in the “living room” among the devices 5 1 to 5 5.
- the control unit 13 changes the control command 3 at least in accordance with the period information.
- 7 o'clock (7 o'clock to 8 o'clock) the control command 3 changes.
- the control unit 13 changes the control command 3 at least according to the input information.
- the pushbutton provided on controller 10 is operated (that is, input section 14 responds to user II 1's operation).
- the control command [3] changes depending on whether or not the signal is received.
- the controller 10 generates the additional information I 2 including the input information corresponding to the input signal received by the input unit 14, and the second acquisition unit 12 generates the additional information I 2 generated in the controller 10. You may also get Informational 2.
- the control unit 13 changes the control command 3 according to at least the speaker information. Therefore, for example, the user II 1 who utters the word “good morning” changes the control command [3] depending on whether the father, mother, sister, or younger brother.
- the additional information I 2 including the speaker information is generated, and the second acquisition unit 12 adds the additional information from the voice recognition server 3 (via the control server 100). You may also obtain Information Note 2.
- the control unit 13 changes the control command 3 at least according to the state information. Therefore, for example, the control command [3] changes depending on the physical condition of the user II 1 who has issued the word “good morning”. In this case, for example, ⁇ 2020/175 293 24 ⁇ (:171? 2020 /006636
- the voice recognition server 3 generates the additional information 2 including the status information, and the second acquisition unit 12 acquires the additional information 2 from the voice recognition server 3 (via the control server 100). You may.
- the setting operation (manual setting mode or learning mode) by the setting unit 16 will be described.
- the information set in the setting operation is at least the correspondence relationship between the command information [1], the additional information [2], and the control command I3. Further, the control word and the like are also set in the setting operation.
- the device control system 1 starts a setting operation (manual setting mode or learning mode) with a specific event as a trigger.
- a specific event is that a voice representing a specific keyword such as “setting mode” is input from the user interface 1 to the voice input device 2.
- the specific event for starting the setting operation is not limited to the input of a specific voice (word), and may be, for example, a specific operation for the controller 10.
- the setting section 16 returns to the input section, for example.
- the correspondence between the command information I 1, the additional information 2, and the control command I 3 is changed according to the input signal accepted by the controller 14, that is, the input signal according to the operation of the user II 1.
- the user II 1 associates the instruction candidate _ with one combination of the command information 1 and the additional information 2 on the control list stored in the storage unit 17.
- the setting unit 16 can individually change each of the target specific item and the content specific item included in the command candidate (control command 3). Also, the setting unit 16 may add or delete the correspondence relationship between the command information I 1, the additional information [2], and the control command [3].
- the setting unit 16 updates the control list stored in the storage unit 17 after changing the control list.
- the setting unit 16 when the setting unit 16 starts the setting operation in the learning mode, for example, it automatically learns the correspondence relationship between the command information 1 and the additional information 2 and the control command I 3. ⁇ 2020/175 293 25 ⁇ (:171? 2020 /006636
- the setting unit 16 corresponds to this operation when the user 11 1 operates the highly correlated device 5 for one combination of the command information I 1 and the additional information ⁇ 2. Generate a command candidate to be added and add it to the control list.
- a command candidate to be added and add it to the control list.
- the user II It is assumed that an operation is performed to “open” the device 5 3 in which 1 is an electric shirt.
- the setting unit 16 performs the operation of opening the device 5 3 composed of the electric shirt to “open” for the combination of the command information I 1 (“Good morning”) and the additional information ⁇ 2 (“Summer”).
- an instruction candidate corresponding to this operation is generated and added to the control list.
- the setting unit 16 performs this operation.
- the instruction candidates in the control list are changed (including deletion) accordingly.
- a combination of certain command information 1 (“Ohayo”) and additional information 2 (“Summer”) is associated with a command candidate for lighting the device 5 2 that is a lighting fixture.
- the device control system 1 obtains the command information 1 (“Good morning”) and the additional information 2 (“Summer”) and controls to turn on the device 52 (for example, 1 minute). Then, the user 11 1 operates to turn off the device 5 2.
- the setting unit 16 has a high correlation with the operation of turning on the device 52, which is a lighting fixture, with respect to the combination of the command information I 1 (“Good morning”) and the additional information ⁇ 2 (“Summer”). As an operation, the instruction candidate is changed according to this operation. In the above-mentioned case, the setting unit 16 deletes the command candidate for turning on the device 52 composed of the lighting equipment or changes the command candidate for turning off the device 52 composed of the lighting equipment.
- the setting unit 16 updates the control list stored in the storage unit 17 after changing the control list.
- Embodiment 1 is only one of the various embodiments of the present disclosure.
- the first embodiment can be variously modified according to the design and the like as long as the object of the present disclosure can be achieved.
- Each drawing described in the present disclosure is a schematic drawing, and the sizes and thicknesses of the respective constituent elements in the drawings do not necessarily reflect the actual dimensional ratios.
- the same function as that of the device control system 1 according to the first embodiment may be embodied by a device control method, a computer program, or a non-transitory recording medium in which the computer program is recorded.
- the device control method according to one aspect includes a first acquisition process (corresponding to “3 3” in FIG. 3), a second acquisition process (corresponding to “3 4” in FIG.
- the first acquisition process is a process for acquiring command information [1].
- Command information 1 is information about the recognition result of the voice input to the voice input device 2.
- the second acquisition process is a process of acquiring the additional information I 2.
- the additional information I 2 includes information different from the command information 1.
- the control process is a process for controlling the controlled object manual 1 consisting of at least one device 5 by the control command [3] based on both the command information [1] and the additional information [2].
- a (computer) program according to an aspect is a program for causing one or more processors to execute the device control method.
- the device control system 1 includes a computer system in the control server 100 and the controller 10, for example.
- the computer system mainly has a processor and a memory as hardware.
- the function as the device control system 1 according to the present disclosure is realized by the processor executing the program recorded in the memory of the computer system.
- the program may be pre-recorded in the memory of the computer system or may be provided through a telecommunication line, and may be recorded on a non-transitory recording medium such as a memory card, an optical disk, a hard disk drive, etc. which is readable by the computer system. It may be recorded and provided.
- Computer system professional A sessa is composed of one or more electronic circuits including a semiconductor integrated circuit (1 C) or a large scale integrated circuit (LS I ).
- the integration circuits such as C and LS are referred to by the degree of integration as system LS I, VL SI (Very Large Scale Integration), or U LS I (Ultra Large Scale Integration). Called integrated circuit.
- F PGAs Field-Programmable Gate Arrays
- logic devices that can be reconfigured with the junction relationship inside the LS or the reconfiguration of the circuit section inside the LSI, which is programmed after manufacturing the LSI.
- the plurality of electronic circuits may be integrated in one chip or may be distributed and provided in the plurality of chips.
- the plurality of chips may be integrated in one device or may be distributed and provided in the plurality of devices.
- a computer system includes a microcontroller with one or more processors and one or more memories. Therefore, the microcontroller is also composed of one or more electronic circuits including semiconductor integrated circuits or large-scale integrated circuits.
- the device control system 1 it is not an essential configuration of the device control system 1 that at least a part of the functions of the device control system 1 are integrated in one housing, and the components of the device control system 1 are It may be distributed and provided in a plurality of housings.
- the second acquisition unit 12 of the device control system 1 does not have to be integrated in the same housing of the controller 10 as the first acquisition unit 11 and is different from the first acquisition unit 11. It may be provided in the housing.
- at least a part of the functions of the device control system 1, for example, the functions of the control unit 13 may be distributed and provided in multiple housings, or realized by cloud (cloud computing) or the like. You may touch it.
- At least a part of the functions distributed to the plurality of devices may be integrated in one housing.
- the functions distributed to the control server 100 and the controller 10 may be integrated in one housing.
- the information generation unit 19 that generates various information that can be included in the additional information I 2 is ⁇ 2020/175 293 28 ⁇ (:171? 2020 /006636
- the control server 100 may be provided in the controller 10 or may be provided in a device other than the device control system 1, for example.
- the information generation unit 19 may be provided in the controller 10.
- the information generation unit 19 generates the additional information section 2 including the input information corresponding to the input signal received by the input section 14 in the controller 10, and the second acquisition section 12 stores the additional information in the controller 10. Acquire the additional information 2 generated in.
- the information generation unit 19 may be provided in the voice recognition server 3.
- the information generation unit 19 generates the additional information [2] including the speaker information in the speech recognition server 3, and the second acquisition unit 12 causes the speech recognition server 3 to (the control server 1 Acquire additional information (2) including speaker information.
- the information generation unit 19 may be provided in the voice recognition server 3.
- the information generation unit 19 generates the additional information I 2 including the state information in the voice recognition server 3, and the second acquisition unit 12 outputs the additional information I 2 from the voice recognition server 3 (via the control server 100). ) Acquire additional information 2 including status information.
- the device 5 that can be the controlled object 1 is only required to be a device that is controlled in response to a control command from the device control system 1, and is not limited to an air conditioner, a lighting fixture, an electric shutter, or the like.
- the device 5 is an intercom device, a television receiver, a washing machine, a refrigerator, a multifunction device, an electric lock, a solar power generation facility, a power storage facility, a wiring device, a charger for an electric vehicle, a mobile terminal, etc. Good.
- the device 5 as the control target knife 1 is a wiring device such as a branch breaker or a wall switch
- the device control system 1 controls the device 5 as the controlled target knife 1 to branch the device.
- the energization state can be controlled for each circuit such as a circuit.
- the registered words are stored in the voice input device 2, but this configuration is not essential for the device control system 1.
- the registered words may be stored in the voice recognition server 3.
- the audio input device Unit 2 does not operate stand-alone, but executes voice recognition in cooperation with voice recognition server 3.
- the additional information [2] includes only the external information of the external information and the internal information, but the present invention is not limited to this, and the additional information [2] includes the external information and the internal information. And both may be included. Furthermore, the additional information [2] may not include external information, and may include only internal information of external information and internal information.
- the additional information [2] may include external information such as weather information and request information in addition to or in place of the input information, the period information, the speaker information, and the state information.
- the meteorological information mentioned here is information on the weather around the facility F 1, and is, for example, information on the weather, the outside temperature, and the amount of pollen scattered.
- the request information is, for example, information for demanding peak cuts, peak shifts, etc. from electric power companies (electric power companies, etc.).
- the weather information and the requested information are acquired by the control server 100 or the controller 10 from the weather server and the server of the electric utility, respectively.
- each communication method used in the device control system 1 is not limited to the communication method exemplified in the first embodiment, and can be changed as appropriate.
- the communication method between the controller 10 (communication unit 18) and the control target T 1 is not limited to wireless communication, but wired communication conforming to a communication standard such as a wired LAN (Local Area Network). It may be.
- the setting unit 16 has the three modes of the normal mode, the manual setting mode, and the learning mode. For example, only the learning mode is available. May have.
- the additional information I2 may include facility information regarding the state of the facility F1.
- the state of the facility F 1 here includes, for example, the opening/closing state and the locked/unlocked state of the openings (doors and windows, etc.) of the facility F 1, and the presence/absence of a person in the facility F 1.
- the presence/absence status of a person also includes, for example, the attributes (age, gender, etc.) of the person at the facility F 1.
- the control unit 13 changes the control command 3 according to at least the facility information. So, for example, user U 1 says the words "good morning.” ⁇ 2020/175 293 30 ⁇ (:171? 2020 /006636
- Control command 3 changes depending on whether there is an adult in facility 1 when the is issued (that is, there are only “sister” and “younger brother”).
- the device control system 1 relates to the first embodiment in that the control server 10.8 sends a control command 3 to the controller 108. Different from the device control system 1.
- the same components as those in the first embodiment will be denoted by the same reference numerals and the description thereof will be appropriately omitted.
- the first acquisition unit 11 (see FIG. 2), the second acquisition unit 12 (see FIG. 2) and the control unit 13 (see FIG. 2) are not included in the controller 108. Instead, it is installed on the control server 1008.
- the controller 108 realizes the control of the device 5 by transmitting (transferring) the control command I 3 received from the control server 100 to the device 5 as the controlled object.
- command information I 1 is generated.
- the command information I 1 generated by the voice recognition server 3 includes, for example, an item “air conditioning on” indicating that the device 5 1 including an air conditioning device is turned on.
- the command information 1 is information generated by the voice recognition server 3 based on the recognition result received from the voice input device 2.
- the recognition result including the word "Ohayo” is associated with the command information 1 including the item "Air conditioning on”, and the voice recognition server 3 uses the command information based on this correspondence.
- the voice recognition server 3 transmits the generated command information 1 to the control server 1008.
- the control server 100 which has received the command information I 1 (“air conditioning on”), causes the information generation unit 19 to generate various information that can be included in the additional information [2]. For example, when the additional information ⁇ 2 includes period information indicating a season, the information generation unit 19 determines whether the current season is spring, summer, autumn, or winter according to the current time (including month and day). Generate the period information shown (“Summer” in the example in Figure 5). Control ⁇ 2020/175 293 31 ⁇ (:171? 2020 /006636
- the first acquisition unit 11 and the second acquisition unit 12 of the service server 1008 acquire the command information 1 and the additional information 2, respectively. Then, the control server 1008 causes the control unit 13 to generate a control command 3 based on the command information I 1 (“air conditioning on”) and the additional information 2 (“summer”).
- the control command 3 specifies the device 51, which is an air conditioner, as the control target switch 1 and sets the operation mode of the control target switch 1 (device 5 1) to “cooling”. Includes items and content specific items.
- the control server 1008 transmits such a control command 3 to the controller 108.
- the controller 108 executes control of the device 5 in accordance with the control command [3].
- the device 51 which is an air conditioner, is turned on when the operation mode is “cooling”.
- the device control system 18 it is not an indispensable configuration to set the device 5 1 consisting of an air conditioner as a control target, and for example, control of two or more devices 5 is possible. It can also be the target Ding 1.
- the device control system (1, 18) includes the first acquisition unit (1 1), the second acquisition unit (1 2), and the control unit (1 3). ,.
- the first acquisition unit (11) acquires command information ( ⁇ 1).
- the command information (1) is the information about the recognition result of the voice input to the voice input device (2).
- the second acquisition unit (1 2) acquires the additional information (I 2).
- the additional information (I 2) consists of information other than the command information (11).
- the control unit (1 3) uses the control command (I 3) based on both the command information (1 1) and the additional information (I 2) to select the controlled object (D 1) including at least one device (5). Control.
- Additional information (1) different from 1) is used. Therefore, for example, even if the voice input to the voice input device (2) is the same, it is not unique to the control target (Ding 1) that consists of at least one device (5), and additional information (I 2) Different controls are performed. Therefore, the equipment control system (1,
- the device (5) has the advantage that the device (5) can be flexibly controlled even when the user (II 1) speaks in the same way.
- the additional information ([2]) is the input information that changes according to the operation of the user (II 1). Including.
- the control section (1 3) changes the control command (3) according to at least the input information.
- the additional information ([2]) includes period information regarding a period.
- the control unit (1 3) changes the control command (3) according to at least the period information.
- the additional information ([2]) is the voice input to the voice input device (2).
- the control unit (1 3) changes the control command (3) according to at least the speaker information.
- the additional information ( ⁇ 2) is an external information independent from the command information (11). Contains information.
- the external information included in the additional information ([2]) is the command information. ⁇ 2020/175 293 33 ⁇ (:171? 2020 /006636
- the additional information ([2]) includes state information.
- the state information is information that is extracted from the voice input to the voice input device (2) and is related to the state of the speaker who uttered the voice.
- the control unit (13) changes the control command (I3) at least according to the status information.
- the control instruction (I3) includes a target specific item and a content specific item.
- the target specification item specifies at least one device (5) that is a control target (Ding 1) among a plurality of devices (5).
- the content specific item specifies the operation of the control target (Ding 1).
- the control unit (13) determines the target specific item and the content specific item based on both the command information (11) and the additional information ( ⁇ 2).
- the control unit (13) includes the command information (11) and the additional information (I). 2) and two or more devices (5) are selected as the control target (Ding 1) from the multiple devices (5) based on both.
- the control unit (13) is associated with one command information (11).
- One instruction candidate is selected from among the plurality of instruction candidates that are provided, based on the additional information (see 2).
- the control unit (1 3) controls the instruction candidate of _ as a control instruction (I 3) ⁇ 2020/175 293 34 ⁇ (:171? 2020 /006636
- command candidates are narrowed down from the plurality of command candidates by the command information ([1]), and one command candidate is selected based on the additional information ([2]). Therefore, the processing load for selecting one instruction candidate can be reduced.
- the control unit (13) determines that the additional information (I2) satisfies the determination condition. Then, one instruction candidate is selected according to the semi-fixed condition. When the additional information (I 2) does not satisfy the judgment condition, the control unit (1 3) selects a default instruction candidate from a plurality of instruction candidates and sets the default instruction candidate as a control instruction (I 3). Control the control target (Ding 1).
- the control target can be controlled. (1) can be controlled.
- the device control system (1, 18) according to the eleventh aspect further includes a setting unit (16) in any one of the first to tenth aspects.
- the setting unit (16) sets the correspondence between the command information ([1]), additional information ([2]) and the control command (I3).
- the setting unit (16) has a learning mode.
- the learning mode when the control target (D1) is controlled by the control command ( ⁇ 3), the control command ( ⁇ 3), command information (1 1) and additional information (I 2 ) Is a mode for generating a correspondence relationship with.
- the device control method includes a first acquisition process, a second acquisition process, and a control process.
- the first acquisition process is the process of acquiring the command information (11).
- the command information (I 1) is information on the recognition result of the voice input to the voice input device (2).
- the second acquisition process is a process to acquire the additional information (I 2 ).
- the additional information ([2]) consists of information different from the command information (11).
- the control process is a process of controlling the controlled object (D1) consisting of at least one device (5) by a control command (D3) based on both command information (D1) and additional information (D2). Is.
- the device control method has an advantage that the device (5) can be flexibly controlled even when the user (11 1) speaks in the same manner.
- a program according to a fourteenth aspect is the device control method according to the thirteenth aspect
- the command information ( ⁇ 1) based on the voice input to the voice input device (2) but also the command information (I1) are used to control the controlled object (Ding 1). Uses other additional information (see 2). Therefore, for example, even if the voice input to the voice input device (2) is the same, it is not unique to the control target (Ding 1) that consists of at least one device (5), and additional information (I 2) Different controls are performed. Therefore, the above program has the advantage that the device (5) can be flexibly controlled even when the user (111) speaks in the same way.
- the configurations according to the second to 12th aspects are not essential configurations for the device control system (1, 18), and can be omitted as appropriate.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Selective Calling Equipment (AREA)
Abstract
The present invention provides an apparatus control system, an apparatus control method and a program with which it is possible to flexibly control an apparatus even when a user speaks the same way. An apparatus control system (1) comprises a first acquisition unit (11), a second acquisition unit (12), and a control unit (13). The first acquisition unit (11) acquires command information. The command information pertains to the result of recognition of a speech inputted to a speech input device (2). The second acquisition unit (12) acquires additional information. The additional information is composed of information separate from the command information. The control unit (13) controls a control object (T1) composed of at least one apparatus by a control instruction based on both the command information and the additional information.
Description
\¥0 2020/175293 1 卩(:17 2020 /006636 明 細 書 \¥0 2020/175293 1 卩 (: 17 2020/006636
発明の名称 : 機器制御システム、 機器制御方法及びプログラム 技術分野 Title of Invention: Device control system, device control method and program
[0001 ] 本開示は、 一般に機器制御システム、 機器制御方法及びプログラムに関し 、 より詳細には、 少なくとも 1つの機器からなる制御対象を制御するための 機器制御システム、 機器制御方法及びプログラムに関する。 The present disclosure generally relates to a device control system, a device control method, and a program, and more particularly, to a device control system, a device control method, and a program for controlling a control target including at least one device.
背景技術 Background technology
[0002] 特許文献 1 には、 ユーザにより発せられた音声指令に基づいて機器 (浴室 の電気機器) を制御する機器制御システムが記載されている。 特許文献 1 に 記載の機器制御システムは、 ユーザにより発せられた音声が入力され、 当該 入力された音声を認識する音声認識部を備えている。 [0002]Patent Document 1 describes a device control system that controls a device (electric device in a bathroom) based on a voice command issued by a user. The device control system described in Patent Document 1 includes a voice recognition unit that receives a voice uttered by a user and recognizes the input voice.
[0003] 特許文献 1 において、 例えば、 ユーザが 「ヒーリングライ トをつけて」 と 音声で指令を出すと、 機器制御システムは、 入力された音声データがいずれ の指令に対応するかが判断される。 この結果、 入力された音声データが 「ヒ —リングライ トをつけて」 という指令であると認識できた場合には、 機器制 御システムは、 ヒーリングライ トに作動信号を送信し、 ヒーリングライ トを 作動させる。 [0003] In Patent Document 1, for example, when a user issues a command "voice with healing light" by voice, the device control system determines which command the input voice data corresponds to. .. As a result, if the input voice data can be recognized as a command "put on hearing light", the device control system sends an operation signal to the healing light to turn on the healing light. Activate.
[0004] 特許文献 1 に記載の機器制御システムは、 ユーザが発した音声の認識結果 に従って機器を制御するので、 ユーザが同じように発話した場合には機器は 一義的に制御される。 [0004] Since the device control system described in Patent Document 1 controls the device according to the recognition result of the voice uttered by the user, the device is uniquely controlled when the user utters the same.
先行技術文献 Prior art documents
特許文献 Patent literature
[0005] 特許文献 1 :特開 2 0 0 8— 2 5 0 0 3 5号公報 [0005] Patent Document 1: Japanese Patent Laid-Open No. 2058-8500
発明の概要 Summary of the invention
[0006] 本開示は上記事由に鑑みてなされており、 ユーザが同じように発話した場 合でも機器を柔軟に制御可能な機器制御システム、 機器制御方法及びプログ ラムを提供することを目的とする。
〇 2020/175293 2 卩(:171? 2020 /006636 [0006] The present disclosure has been made in view of the above circumstances, and an object of the present disclosure is to provide a device control system, a device control method, and a program that can flexibly control a device even when a user similarly speaks. .. 〇 2020/175293 2
[0007] 本開示の一態様に係る機器制御システムは、 第 1取得部と、 第 2取得部と 、 制御部と、 を備える。 前記第 1取得部は、 コマンド情報を取得する。 前記 コマンド情報は、 音声入力装置に入力された音声の認識結果に関する情報で ある。 前記第 2取得部は、 付加情報を取得する。 前記付加情報は、 前記コマ ンド情報とは別の情報からなる。 前記制御部は、 前記コマンド情報と前記付 加情報との両方に基づく制御命令により、 少なくとも 1つの機器からなる制 御対象を制御する。 [0007] A device control system according to an aspect of the present disclosure includes a first acquisition unit, a second acquisition unit, and a control unit. The first acquisition unit acquires command information. The command information is information regarding the recognition result of the voice input to the voice input device. The second acquisition unit acquires additional information. The additional information includes information different from the command information. The control unit controls a control target including at least one device by a control command based on both the command information and the additional information.
[0008] 本開示の一態様に係る機器制御方法は、 第 1取得処理と、 第 2取得処理と 、 制御処理と、 を有する。 前記第 1取得処理は、 コマンド情報を取得する処 理である。 前記コマンド情報は、 音声入力装置に入力された音声の認識結果 に関する情報である。 前記第 2取得処理は、 付加情報を取得する処理である 。 前記付加情報は、 前記コマンド情報とは別の情報からなる。 前記制御処理 は、 前記コマンド情報と前記付加情報との両方に基づく制御命令により、 少 なくとも 1つの機器からなる制御対象を制御する処理である。 [0008] A device control method according to an aspect of the present disclosure includes a first acquisition process, a second acquisition process, and a control process. The first acquisition process is a process of acquiring command information. The command information is information about the recognition result of the voice input to the voice input device. The second acquisition process is a process of acquiring additional information. The additional information is information different from the command information. The control process is a process of controlling a control target including at least one device by a control command based on both the command information and the additional information.
[0009] 本開示の一態様に係るプログラムは、 前記機器制御方法を、 1以上のプロ セツサに実行させるためのプログラムである。 [0009] A program according to an aspect of the present disclosure is a program for causing one or more processors to execute the device control method.
図面の簡単な説明 Brief description of the drawings
[0010] [図 1]図 1は、 実施形態 1 に係る機器制御システムの使用例を示す概略システ ム構成図である。 [0010] [FIG. 1] FIG. 1 is a schematic system configuration diagram showing a usage example of the device control system according to the first embodiment.
[図 2]図 2は、 同上の機器制御システムの概略構成を示すブロツク図である。 [図 3]図 3は、 同上の機器制御システムの動作例を示すフローチヤートである [Fig. 2] Fig. 2 is a block diagram showing a schematic configuration of the device control system of the above. [Fig. 3] Fig. 3 is a flow chart showing an operation example of the above device control system.
[図 4]図 4は、 同上の機器制御システムの動作を模式的に表すシーケンス図で ある。 [FIG. 4] FIG. 4 is a sequence diagram schematically showing the operation of the above-mentioned device control system.
[図 5]図 5は、 実施形態 2に係る機器制御システムの使用例を示す概略システ ム構成図である。 [FIG. 5] FIG. 5 is a schematic system configuration diagram showing a usage example of the device control system according to the second embodiment.
発明を実施するための形態 MODE FOR CARRYING OUT THE INVENTION
[001 1] (実施形態 1)
〇 2020/175293 3 卩(:171? 2020 /006636 [001 1] (Embodiment 1) 〇 2020/175 293 3
(1) 概要 (1) Outline
本実施形態に係る機器制御システム 1の概要について、 図 1及び図 2を参 照して説明する。 An outline of the device control system 1 according to the present embodiment will be described with reference to FIGS. 1 and 2.
[0012] 機器制御システム 1は、 少なくとも 1つの機器 5 1〜 5 5からなる制御対 象丁 1 (図 2参照) を制御するためのシステムである。 複数の機器 5 1〜 5 5を特に区別しない場合、 複数の機器 5 1〜 5 5の各々を単に 「機器 5」 と もいう。 機器制御システム 1は、 制御対象丁 1 としての機器 5に対して、 機 器 5の外部から制御命令を送信することで、 制御命令に従って機器 5を制御 する。 The device control system 1 is a system for controlling a control target 1 (see FIG. 2) including at least one device 51 to 55. Each of the plurality of devices 5 1 to 5 5 is also simply referred to as “device 5” unless the plurality of devices 5 1 to 55 are distinguished. The device control system 1 controls the device 5 according to the control command by transmitting a control command from the outside of the device 5 to the device 5 as the controlled object.
[0013] ここで、 本実施形態に係る機器制御システム 1は、 音声入力装置 2に入力 された音声に基づいて、 制御対象丁 1の制御を行う。 すなわち、 機器制御シ ステム 1 によれば、 ユーザ II 1は、 音声にて制御対象丁 1 を制御する、 いわ ゆる音声操作が可能になる。 したがって、 ユーザ II 1は、 例えば、 両手が塞 がっている状態でも、 発話する (つまり、 音声を発する) ことで制御対象丁 1の操作が可能となる。 Here, the device control system 1 according to the present embodiment controls the control target table 1 based on the voice input to the voice input device 2. That is, according to the device control system 1, the user II 1 can control what is controlled by the voice, that is, a so-called voice operation can be performed. Therefore, the user II 1 can operate the control target table 1 by speaking (that is, uttering a voice) even when both hands are closed.
[0014] よって、 機器制御システム 1 を用いることで、 例えば、 音声入力装置 2と の通信機能を持たず、 かつ音声操作に対応していない機器 5であっても、 ユ _ザ11 1の音声入力に応じて、 機器制御システム 1 を介した間接的な音声操 作が可能となる。 要するに、 機器制御システム 1 によれば、 機器制御システ ム 1が音声入力装置 2と連携することにより、 機器 5が音声入力装置 2に直 接的には連動していなくても、 機器 5を音声入力装置 2に間接的に連動させ ることができる。 Therefore, by using the device control system 1, for example, even if the device 5 does not have a communication function with the voice input device 2 and does not support voice operation, the voice of the user 11 1 Depending on the input, indirect voice operation via the device control system 1 is possible. In short, according to the device control system 1, since the device control system 1 cooperates with the voice input device 2, even if the device 5 is not directly linked to the voice input device 2, It can be indirectly linked to the input device 2.
[0015] ところで、 本実施形態に係る機器制御システム 1は、 第 1取得部 1 1 と、 第 2取得部 1 2と、 制御部 1 3と、 を備えている。 第 1取得部 1 1は、 コマ ンド情報丨 1 を取得する。 コマンド情報丨 1は、 音声入力装置 2に入力され た音声の認識結果に関する情報である。 第 2取得部 1 2は、 付加情報 I 2を 取得する。 付加情報丨 2は、 コマンド情報 I 1 とは別の情報からなる。 芾 I」御 部 1 3は、 コマンド情報丨 1及び付加情報丨 2との両方に基づく制御命令丨
〇 2020/175293 4 卩(:171? 2020 /006636 By the way, the device control system 1 according to the present embodiment includes a first acquisition unit 11, a second acquisition unit 12, and a control unit 13. The first acquisition unit 11 acquires the command information [1]. Command information 1 is information about the recognition result of the voice input to the voice input device 2. The second acquisition unit 12 acquires the additional information I 2. The additional information [2] consists of information other than the command information I1. The "I" part 13 is a control command based on both the command information 1 and the additional information 2. 〇2020/175293 4
3により、 少なくとも 1つの機器 5からなる制御対象丁 1 を制御する。 Controls the controlled object 1 consisting of at least one device 5 by 3.
[0016] 上述した構成によれば、 機器制御システム 1は、 制御対象丁 1の制御に、 音声入力装置 2に入力された音声に基づくコマンド情報丨 1だけでなく、 コ マンド情報丨 1 とは別の付加情報丨 2も用いている。 そのため、 例えば、 音 声入力装置 2に入力される音声が同じ場合であっても、 少なくとも 1つの機 器 5からなる制御対象丁 1 に対しては、 機器制御システム 1 により、 一義的 ではなく、 付加情報丨 2次第で異なる制御がなされる。 したがって、 機器制 御システム 1 によれば、 ユーザ II 1が同じように発話した場合でも機器 5を 柔軟に制御可能である、 という利点がある。 [0016] According to the above-described configuration, the device control system 1 controls not only the command information 1 based on the voice input to the voice input device 2 but also the command information 1 to control the controlled object 1. Another additional information item 2 is also used. Therefore, for example, even if the voices input to the voice input device 2 are the same, for the controlled object D1 consisting of at least one device 5, the device control system 1 is not unique. Different controls are performed depending on the additional information. Therefore, the device control system 1 has an advantage that the device 5 can be flexibly controlled even when the user II 1 similarly speaks.
[0017] ( 2 ) 構成 [0017] (2) Configuration
以下、 本実施形態に係る機器制御システム 1の構成について、 図 1及び図 2を参照して詳しく説明する。 Hereinafter, the configuration of the device control system 1 according to the present embodiment will be described in detail with reference to FIGS. 1 and 2.
[0018] ( 2 . 1 ) 前提 [0018] (2.1) Premise
本実施形態では一例として、 機器制御システム 1は、 施設 1 に導入され 、 この施設 1 に設置されている複数の機器 5の少なくとも 1つを制御対象 丁 1 とすることと仮定する。 本開示でいう 「施設」 は、 戸建住宅、 集合住宅 、 又は集合住宅の各住戸等の住宅施設、 及びオフィス、 工場、 ビル、 店舗、 学校、 福祉施設又は病院等の非住宅施設を含む。 非住宅施設には、 劇場、 映 画館、 公会堂、 遊技場、 複合施設、 飲食店、 百貨店、 ホテル、 旅館、 幼稚園 、 図書館、 博物館、 美術館、 地下街、 駅及び空港等も含む。 さらには、 本開 示でいう 「施設」 には、 建物 (建造物) だけでなく、 球場、 庭、 駐車場、 グ ランド及び公園等の屋外施設を含む。 In the present embodiment, as an example, it is assumed that the device control system 1 is installed in the facility 1 and at least one of the plurality of devices 5 installed in the facility 1 is set as the controlled object 1. The term “facility” as used in the present disclosure includes a single-family house, an apartment house, a housing facility such as each dwelling unit of the apartment house, and a non-residential facility such as an office, a factory, a building, a store, a school, a welfare facility, or a hospital. Non-residential facilities include theaters, cinemas, public halls, playgrounds, complex facilities, restaurants, department stores, hotels, inns, kindergartens, libraries, museums, museums, underground malls, stations and airports. Furthermore, “facility” referred to in this disclosure includes not only buildings (buildings) but also outdoor facilities such as stadiums, gardens, parking lots, grounds and parks.
[0019] 本実施形態では特に、 機器制御システム 1が導入される施設 1が戸建住 宅である場合を例として説明する。 よって、 本実施形態では、 機器制御シス テム 1は、 施設 1 (ここでは戸建住宅) に設置されている複数の機器 5の 少なくとも 1つを制御対象丁 1 として、 制御対象丁 1の制御を行う。 より具 体的には、 本実施形態では、 施設 1 には父、 母、 姉及び弟の 4人家族が住 む戸建住宅である場合を想定する。 そのため、 本実施形態において、 施設
1の住人である父、 母、 姉及び弟は、 機器制御システム 1のユーザ U 1 とな り得る。 In the present embodiment, a case where the facility 1 into which the device control system 1 is installed is a detached house will be described as an example. Therefore, in the present embodiment, the device control system 1 controls at least one of the plurality of devices 5 installed in the facility 1 (here, a detached house) as the control target, and controls the control target. To do. More specifically, in the present embodiment, it is assumed that the facility 1 is a detached house in which a family of four including a father, a mother, a sister, and a brother live. Therefore, in this embodiment, Father, mother, sister and younger brother who are residents of 1 can be user U 1 of device control system 1.
[0020] 本開示でいう 「機器」 は、 機器制御システム 1からの制御命令を受けて制 御される機器であって、 一例として、 電力を用いる電気機器、 据置型又は可 搬型の設備、 装置及びシステムを含む。 本実施形態では、 施設 F 1 には、 制 御対象 T 1 となり得る複数の機器 5 1〜 5 5が設置されている。 図 1の例で は、 機器 5 1 , 5 4は空調機器であって、 機器 5 2 , 5 5は照明器具であっ て、 機器 5 3は電動シャッタである。 [0020] The "equipment" as referred to in the present disclosure is an equipment that is controlled by receiving a control command from the equipment control system 1, and as an example, an electric equipment that uses electric power, a stationary or portable facility, or an apparatus. And system. In the present embodiment, the facility F 1 is provided with a plurality of devices 51 to 55 that can be the control target T 1. In the example of FIG. 1, the devices 5 1 and 5 4 are air conditioners, the devices 5 2 and 5 5 are lighting fixtures, and the device 5 3 is an electric shutter.
[0021 ] 本開示でいう 「音声」 は、 人が発声器官を通じて発する言語音に加えて、 例えば、 口笛、 フインガースナップ (f i nger snapp i ng) 音、 及び拍手 (c lap p i ng) 音等の、 人が意図的に発する音全般を含む。 [0021] In the present disclosure, "speech" means, for example, a whistle, a finger snapp i ng sound, and a clap pi ng sound in addition to a speech sound emitted by a person through a vocal organ. , Including all sounds intentionally emitted by humans.
[0022] ( 2 . 2 ) 全体構成 [0022] (2.2) Overall structure
本実施形態に係る機器制御システム 1は、 図 1 に示すように、 コントロー ラ 1 〇及び制御用サーバ 1 〇〇を備えている。 As shown in FIG. 1, the device control system 1 according to the present embodiment includes a controller 100 and a control server 100.
[0023] コントローラ 1 0と制御用サーバ 1 0 0とは、 互いに通信可能に構成され ている。 本開示でいう 「通信可能」 とは、 有線通信又は無線通信の適宜の通 信方式により、 直接的、 又はネッ トワーク若しくは中継器等を介して間接的 に、 信号を授受できることを意味する。 すなわち、 コントローラ 1 0と制御 用サーバ 1 0 0とは、 互いに信号を授受することができる。 コントローラ 1 〇及び制御用サーバ 1 0 0はいずれもインターネッ ト等のネッ トワークに接 続されており、 ネッ トワークを介して互いに双方向に信号を授受できる。 [0023] The controller 100 and the control server 100 are configured to be able to communicate with each other. The term “communicable” in the present disclosure means that a signal can be directly or indirectly transmitted and received by an appropriate communication method such as wired communication or wireless communication. That is, the controller 10 and the control server 100 can exchange signals with each other. Both the controller 100 and the control server 100 are connected to a network such as the Internet, and can send and receive signals to and from each other bidirectionally via the network.
[0024] さらに、 機器制御システム 1 (コントローラ 1 0及び制御用サーバ 1 0 0 ) は、 図 1 に示すように、 音声入力装置 2、 音声認識サーバ 3及び機器 5 ( 制御対象 T 1 ) の各々と、 通信可能に構成されている。 つまり、 機器制御シ ステム 1は、 音声入力装置 2、 音声認識サーバ 3及び機器 5の各々との間で 、 互いに信号を授受することができる。 [0024] Further, as shown in Fig. 1, the device control system 1 (the controller 10 and the control server 100) includes a voice input device 2, a voice recognition server 3, and a device 5 (control target T 1 ), respectively. , And is configured to communicate. That is, the device control system 1 can exchange signals with each of the voice input device 2, the voice recognition server 3, and the device 5.
[0025] 本実施形態では、 機器制御システム 1は、 音声入力装置 2、 音声認識サー バ 3及び機器 5の各々を構成要素に含まない。 ただし、 音声入力装置 2、 音
声認識サーバ 3及び機器 5の少なくとも 1つは、 機器制御システム 1の構成 要素に含まれていてもよい。 一例として、 機器制御システム 1は、 音声認識 サーバ 3を構成要素に含んでいてもよい。 In the present embodiment, the device control system 1 does not include the voice input device 2, the voice recognition server 3, and the device 5 as constituent elements. However, the voice input device 2, At least one of the voice recognition server 3 and the device 5 may be included in the components of the device control system 1. As an example, the device control system 1 may include the voice recognition server 3 as a component.
[0026] 本実施形態では一例として、 コントローラ 1 0、 制御用サーバ 1 0 0、 音 声入力装置 2及び音声認識サーバ 3の各々は、 1以上のプロセッサ及び 1以 上のメモリを有するコンビユータシステム (サーバ、 クラウドコンピユーテ ィングを含む) を主構成とする。 プロセッサは、 メモリに記録されているプ ログラムを実行することにより、 コントローラ 1 0、 制御用サーバ 1 0 0、 音声入力装置 2及び音声認識サーバ 3の各々の機能を実現する。 プログラム は、 予めメモリに記録されていてもよいし、 メモリカードのような非一時的 記録媒体に記録されて提供されたり、 電気通信回線を通して提供されたりし てもよい。 言い換えれば、 上記プログラムは、 1以上のプロセッサを、 コン トローラ 1 0、 制御用サーバ 1 0 0、 音声入力装置 2及び音声認識サーバ 3 の各々として機能させるためのプログラムである。 In this embodiment, as an example, each of the controller 10, the control server 100, the voice input device 2, and the voice recognition server 3 has a computer system having one or more processors and one or more memories. The main configuration is (including server and cloud computing). The processor implements the functions of the controller 10, the control server 100, the voice input device 2, and the voice recognition server 3 by executing the program recorded in the memory. The program may be recorded in a memory in advance, may be recorded in a non-transitory recording medium such as a memory card and provided, or may be provided through an electric communication line. In other words, the above program is a program for causing one or more processors to function as each of the controller 10, the control server 100, the voice input device 2, and the voice recognition server 3.
[0027] 機器制御システム 1の構成要素は、 コントローラ 1 0及び制御用サーバ 1 〇〇に分散して配置されている。 ここで、 コントローラ 1 0は施設 F 1 に設 置され、 制御用サーバ 1 0 0は施設 F 1の外部に設置されている。 制御用サ —バ 1 0 0は、 例えば、 機器 5を音声操作可能とする機器制御方法をサービ スとしてユーザ U 1 に提供するサービス提供会社によって運用される。 機器 制御システム 1の構成について詳しくは 「 (2 . 3) 機器制御システムの構 成」 の欄で説明する。 The components of the device control system 1 are distributed and arranged in the controller 10 and the control server 100. Here, the controller 10 is installed in the facility F 1, and the control server 100 is installed outside the facility F 1. The control server 100 is operated by, for example, a service providing company that provides the user U 1 with a device control method that enables the device 5 to be operated by voice, as a service. The details of the configuration of the device control system 1 are described in the section “(2.3) Configuration of device control system”.
[0028] 音声入力装置 2は、 例えば、 ユーザ U 1の音声に反応して、 音楽の再生及 び特定の家電機器の制御等を行う、 家庭用の音声アシスタントデバイスであ る。 この種の音声入力装置 2は、 機械学習及び対話型の人工知能 (A I : Art i f i c i a l Inte l l i gence) 等の技術を用いて、 音声認識及びその他の動作を行 う。 本開示でいう 「音声認識」 は、 ユーザ U 1の音声を文字列に変換する処 理だけでなく、 意味解析及び文脈解析等の自然言語処理を含む。 [0028] The voice input device 2 is, for example, a home voice assistant device that responds to the voice of the user U 1 to play music, control a specific home electric appliance, and the like. This type of voice input device 2 performs voice recognition and other operations using technology such as machine learning and interactive artificial intelligence (AI: Artificial Intelligence). The “speech recognition” in the present disclosure includes not only a process of converting the voice of the user U 1 into a character string, but also a natural language process such as semantic analysis and context analysis.
[0029] 音声入力装置 2は、 施設 F 1 に設置されている。 音声入力装置 2は、 音声
〇 2020/175293 7 卩(:171? 2020 /006636 [0029] The voice input device 2 is installed in the facility F 1. The voice input device 2 〇 2020/175 293 7
認識サーバ 3と通信可能に構成されている。 具体的には、 音声入力装置 2は 、 例えば、 電波を媒体とする無線通信によりルータに接続される。 これによ り、 音声入力装置 2は、 ルータ及びネッ トワークを介して、 音声認識サーバ 3との双方向の通信が可能となる。 音声入力装置 2の通信方式は、 一例とし て、 丨 _ 丨 (登録商標) 又は巳 I リ 6 1: 〇〇 1 (登録商標) 等の無線 通信である。 It is configured to communicate with the recognition server 3. Specifically, the voice input device 2 is connected to the router by, for example, wireless communication using radio waves as a medium. This enables the voice input device 2 to perform bidirectional communication with the voice recognition server 3 via the router and the network. The communication system of the voice input device 2 is, for example, a wireless communication such as _ _ 丨 (registered trademark) or Iri 6 1: 〇 〇 1 (registered trademark).
[0030] 音声入力装置 2は、 メモリに記憶された登録ワードを用いて音声入力装置 [0030] The voice input device 2 is a voice input device using the registered words stored in the memory.
2に入力された音声の認識 (音声認識) を行う。 音声入力装置 2は、 入力さ れた音声の認識結果を、 音声認識サーバ 3に出力する。 登録ワードには、 音 響モデル及び認識辞書等が含まれている。 すなわち、 音声入力装置 2は、 登 録ワードを参照して、 ユーザ II 1から入力された音声を分析して音響特徴量 を抽出し、 認識辞書を参照して音声認識を実行する。 音声入力装置 2には、 例えば、 ユーザ II 1 ごとに登録ワードが記憶されている。 さらに、 音声入力 装置 2は、 音声を発したユーザ II 1 を識別するための話者識別を行うことに より、 予め登録されたユーザ II 1以外の音声、 例えば、 来客の音声、 テレビ 番組又はラジオ番組等の音声による音声入力装置 2の誤動作を抑制すること ができる。 The voice input to 2 is recognized (voice recognition). The voice input device 2 outputs the recognition result of the inputted voice to the voice recognition server 3. The registered words include acoustic models and recognition dictionaries. That is, the voice input device 2 refers to the registered word, analyzes the voice input from the user II 1 to extract the acoustic feature amount, and refers to the recognition dictionary to perform voice recognition. The voice input device 2 stores, for example, a registered word for each user II 1. Furthermore, the voice input device 2 performs the speaker identification for identifying the user II 1 who has made a voice, so that the voice other than the user II 1 registered in advance, for example, the voice of a visitor, a television program or a radio It is possible to suppress malfunction of the audio input device 2 due to audio of a program or the like.
[0031 ] 音声入力装置 2は、 例えば、 「リビング」 等、 施設 1 (ここでは戸建住 宅) 内においてユーザ II 1の音声が比較的届きやすい場所に配置されている 。 音声入力装置 2は、 特定の事象をトリガにして、 ユーザ II 1の音声操作の 受け付けを開始する。 本実施形態では一例として、 特定の事象は、 ユーザ II 1から 「音声操作開始」 等の特定のキーワード (ウェイクワード) を表す音 声が入力されることである。 そのため、 ユーザ II 1は、 例えば、 両手が塞が っている状態でも、 音声入力装置 2に対する音声操作を開始することができ る。 ただし、 ユーザ II 1の音声操作の受け付けを開始するための特定の事象 は、 特定の音声 (言葉) が入力されることに限らず、 例えば、 音声入力装置 2の正面にユーザ II 1が移動すること、 又は音声入力装置 2のボタンが押さ れること等であってもよい。
〇 2020/175293 8 卩(:171? 2020 /006636 [0031] The voice input device 2 is arranged in a place where the voice of the user II 1 is relatively easy to reach, such as in the "living room" in the facility 1 (here, a detached house). The voice input device 2 triggers a specific event to start accepting the voice operation of the user II 1. In the present embodiment, as an example, the specific event is that a voice representing a specific keyword (wake word) such as “voice operation start” is input from the user II 1. Therefore, the user II 1 can start the voice operation on the voice input device 2 even when both hands are closed. However, the specific event for starting the reception of the voice operation of the user II 1 is not limited to the input of a specific voice (word). For example, the user II 1 moves to the front of the voice input device 2. Alternatively, the button of the voice input device 2 may be pressed, or the like. 〇 2020/175 293 8 卩 (:171? 2020 /006636
[0032] また、 本実施形態では、 音声入力装置 2は、 ユーザ II 1の音声を電気信号 に変換するマイクロフォンに加えて、 電気信号を音に変換するスピーカを有 している。 そのため、 音声入力装置 2は、 ユーザ II 1の音声による操作 (音 声入力) を受け付けるだけでなく、 ユーザリ 1 に対して音 (音声、 ビープ音 及びメロディ等を含む) を出力することができる。 したがって、 ユーザ II 1 は、 ハンズフリーでインタラクティブに音声入力装置 2の操作を行うことが できる。 Further, in the present embodiment, the voice input device 2 has a speaker that converts an electric signal into sound, in addition to a microphone that converts the voice of the user II 1 into an electric signal. Therefore, the voice input device 2 can not only accept the operation (voice input) by the voice of the user II 1, but also output the sound (including the voice, the beep sound, the melody, etc.) to the user-only 1. Therefore, the user II 1 can operate the voice input device 2 in a hands-free and interactive manner.
[0033] 音声認識サーバ 3は、 上述したように、 音声入力装置 2と通信可能に構成 されている。 つまり、 音声認識サーバ 3は、 インターネッ ト等のネッ トワー クに接続されており、 音声入力装置 2との間でネッ トワークを介して互いに 双方向に信号を授受できる。 音声認識サーバ 3は、 音声入力装置 2から、 少 なくとも音声の認識結果を受信する。 音声認識サーバ 3が音声入力装置 2か ら受信する認識結果は、 少なくとも音声入力装置 2に音声として入力された 言葉を含み、 かつ音声認識サーバ 3の 1以上のプロセッサにて処理可能なデ —夕である。 例えば、 ユーザ II 1が音声入力装置 2に向けて 「おはよう」 と いう言葉を発した (発話した) 場合、 音声認識サーバ 3が音声入力装置 2か ら受信する認識結果には、 少なくとも 「おはよう」 という言葉が含まれる。 The voice recognition server 3 is configured to be communicable with the voice input device 2, as described above. That is, the voice recognition server 3 is connected to a network such as the Internet and can exchange signals with the voice input device 2 bidirectionally via the network. The voice recognition server 3 receives at least the voice recognition result from the voice input device 2. The recognition result received by the voice recognition server 3 from the voice input device 2 includes at least a word input as voice to the voice input device 2 and can be processed by one or more processors of the voice recognition server 3. Is. For example, when the user II 1 utters (speaks) the word “good morning” to the voice input device 2, the voice recognition server 3 receives at least “good morning” in the recognition result received from the voice input device 2. Is included.
[0034] さらに、 音声認識サーバ 3は、 機器制御システム 1の制御用サーバ 1 0 0 とも通信可能に構成されている。 音声認識サーバ 3及び制御用サーバ 1 0 0 はいずれもインターネッ ト等のネッ トワークに接続されており、 ネッ トワー クを介して互いに双方向に信号を授受できる。 Furthermore, the voice recognition server 3 is also communicable with the control server 100 of the device control system 1. Both the voice recognition server 3 and the control server 100 are connected to a network such as the Internet and can exchange signals bidirectionally with each other via the network.
[0035] 音声認識サーバ 3は、 音声入力装置 2から認識結果を受信すると、 この認 識結果が、 制御ワードであるか否かを判断する。 ここでは、 音声認識サーバ 3は、 例えば、 「おはよう」 、 「おやすみ」 、 「いってきます」 、 「ただい ま」 、 「明るく して」 、 「暗く して」 、 「温度を上げて」 及び 「温度を下げ て」 等の特定のキーワードを、 制御ワードとして予め記憶している。 制御ワ —ドは、 後述する設定部 1 6により、 ユーザ II 1が任意に設定し、 登録する ことが可能である。
〇 2020/175293 9 卩(:171? 2020 /006636 Upon receiving the recognition result from the voice input device 2, the voice recognition server 3 determines whether the recognition result is a control word. Here, the voice recognition server 3 is, for example, “Good morning”, “Good night”, “I'm coming”, “I'm free”, “Brighten”, “Darken”, “Raise temperature” and “ A specific keyword such as "lower the temperature" is stored in advance as a control word. The control word can be arbitrarily set by the user II 1 and registered by the setting unit 16 described later. 〇 2020/175 293 9 卩(: 171-1? 2020/006636
[0036] 特に、 「おはよう」 、 「おやすみ」 、 「いってきます」 、 「ただいま」 と いった制御ワードは、 機器 5の制御を直接的に示しておらず、 単に、 ユーザ リ 1の生活の中での起床、 就寝、 外出、 帰宅といったシーンを示す言葉 ( 「 シーンワード」 ともいう) である。 このようなシーンワードを制御ワードと することで、 ユーザ II 1が生活の中で、 各シーンにおいて自然と発する言葉 を制御ワードとして、 機器 5の制御を実現することが可能である。 本実施形 態では、 このようなシーンワードが制御ワードとして登録されている場合を 想定する。 [0036] In particular, the control words such as "Good morning", "Good night", "I'm coming", and "I'm home" do not directly indicate the control of the device 5, but simply in the life of the user 1. It is a word (also called "scene word") that indicates a scene such as getting up in bed, going to bed, going out, and going home. By using such a scene word as the control word, it is possible to realize the control of the device 5 by using the words naturally spoken in each scene by the user II 1 in each life as the control word. In this embodiment, it is assumed that such a scene word is registered as a control word.
[0037] 音声認識サーバ 3は、 受信した認識結果が制御ワードである場合、 つまり 認識結果が制御ワードに該当する場合に、 制御用サーバ 1 0 0に対してコマ ンド情報丨 1 を出力 (送信) する。 本開示でいう 「コマンド情報」 は、 音声 入力装置 2に入力された音声の認識結果に関する情報である。 つまり、 コマ ンド情報丨 1は、 音声認識サーバ 3が音声入力装置 2から受信した認識結果 そのものを含む情報でもよいし、 認識結果を基に生成される情報であっても よい。 一例として、 音声認識サーバ 3は、 「おはよう」 という言葉が含まれ る認識結果を音声入力装置 2から受信した場合に、 「おはよう」 という言葉 を含むコマンド情報丨 1 を生成し、 制御用サーバ 1 0 0にコマンド情報丨 1 を出力する。 [0037] The voice recognition server 3 outputs (transmits) the command information 1 to the control server 100 when the received recognition result is the control word, that is, when the recognition result corresponds to the control word. ) Do. The “command information” referred to in the present disclosure is information regarding the recognition result of the voice input to the voice input device 2. That is, the command information item 1 may be information including the recognition result itself received by the voice recognition server 3 from the voice input device 2, or may be information generated based on the recognition result. As an example, when the voice recognition server 3 receives a recognition result including the word “good morning” from the voice input device 2, it generates command information 1 including the word “good morning”, and the control server 1 Command information 1 is output to 0 0.
[0038] 音声認識サーバ 3は、 受信した認識結果が制御ワードでない場合、 つまり 認識結果が制御ワードに該当しない場合、 制御用サーバ 1 0 0へのコマンド 情報丨 1の出力を行わない。 [0038] The voice recognition server 3 does not output the command information 1 to the control server 100 when the received recognition result is not the control word, that is, when the recognition result does not correspond to the control word.
[0039] (2 . 3) 機器制御システムの構成 [0039] (2.3) Configuration of device control system
次に、 機器制御システム 1の構成についてより詳しく説明する。 Next, the configuration of the device control system 1 will be described in more detail.
[0040] 機器制御システム 1は、 上述した通り、 それぞれ 1以上のプロセッサ及び [0040] As described above, the device control system 1 includes one or more processors and
1以上のメモリを有するコンビユータシステム (サーバ、 クラウドコンピユ —ティングを含む) を主構成とする、 コントローラ 1 0と制御用サーバ 1 0 0とを備えている。 It is provided with a controller 10 and a control server 100, which mainly comprises a computer system (including a server and cloud computer) having one or more memories.
[0041 ] また、 本実施形態に係る機器制御システム 1は、 上述したように、 第 1取
〇 2020/175293 10 卩(:171? 2020 /006636 In addition, the device control system 1 according to the present embodiment, as described above, 〇 2020/175 293 10 卩 (:171? 2020 /006636
得部 1 1 と、 第 2取得部 1 2と、 制御部 1 3と、 を備えている。 さらに、 本 実施形態では、 機器制御システム 1は、 図 2に示すように、 第 1取得部 1 1 、 第 2取得部 1 2及び制御部 1 3に加えて、 入力部 1 4、 表示部 1 5、 設定 部 1 6、 記憶部 1 7、 通信部 1 8及び情報生成部 1 9を更に備えている。 The acquisition unit 11 includes a second acquisition unit 12 and a control unit 13. Further, in the present embodiment, as shown in FIG. 2, the device control system 1 includes an input unit 14 and a display unit 1 in addition to the first acquisition unit 11 1, the second acquisition unit 12 and the control unit 13. 5, a setting unit 16, a storage unit 17, a communication unit 18 and an information generation unit 19 are further provided.
[0042] ここでは一例として、 第 1取得部 1 1、 第 2取得部 1 2、 制御部 1 3、 入 力部 1 4、 表示部 1 5、 設定部 1 6、 記憶部 1 7及び通信部 1 8は、 いずれ もコントローラ 1 0に設けられており、 情報生成部 1 9は、 制御用サーバ 1 0 0に設けられている。 すなわち、 本実施形態においては、 第 1取得部 1 1 、 第 2取得部 1 2、 制御部 1 3、 入力部 1 4、 表示部 1 5、 設定部 1 6、 記 憶部 1 7、 通信部 1 8及び情報生成部 1 9の構成要素が、 コントローラ 1 0 と制御用サーバ 1 〇〇とに分散して配置されている。 [0042] Here, as an example, the first acquisition unit 1 1, the second acquisition unit 1 2, the control unit 1 3, the input unit 1 4, the display unit 1 5, the setting unit 1 6, the storage unit 1 7 and the communication unit 1 All of the units 18 are provided in the controller 10 and the information generation unit 19 is provided in the control server 100. That is, in this embodiment, the first acquisition unit 11 1, the second acquisition unit 12 2, the control unit 13, the input unit 14, the display unit 15, the setting unit 16, the storage unit 17, and the communication unit. The components of the information processing unit 18 and the information generation unit 19 are distributed and arranged in the controller 10 and the control server 100.
[0043] 第 1取得部 1 1は、 上述したように、 コマンド情報 I 1 を取得する。 コマ ンド情報丨 1は、 音声入力装置 2に入力された音声の認識結果に関する情報 であって、 例えば、 音声認識サーバ 3が音声入力装置 2から受信した認識結 果そのものを含む情報である。 本実施形態では一例として、 第 1取得部 1 1 は、 「おはよう」 という言葉が含まれるコマンド情報丨 1 を、 音声認識サー バ 3から取得する。 第 1取得部 1 1がコマンド情報丨 1 を取得するタイミン グは、 音声認識サーバ 3がコマンド情報丨 1 を出力するタイミングによって 決まる。 [0043] As described above, the first acquisition unit 11 acquires the command information I 1. The command information 1 is information about the recognition result of the voice input to the voice input device 2, for example, information including the recognition result itself received from the voice input device 2 by the voice recognition server 3. In the present embodiment, as an example, the first acquisition unit 11 acquires from the voice recognition server 3 the command information 1 including the word “good morning”. The timing at which the first acquisition unit 11 acquires the command information [1] depends on the timing at which the voice recognition server 3 outputs the command information [1].
[0044] 第 2取得部 1 2は、 上述したように、 付加情報 I 2を取得する。 付加情報 The second acquisition unit 12 acquires the additional information I 2 as described above. Additional information
I 2は、 コマンド情報 I 1 とは別の情報からなる。 本実施形態では、 付加情 報 I 2は、 コマンド情報 I 1から独立した外部情報を含む。 本開示でいう 「 外部情報」 とは、 コマンド情報丨 1から独立した、 つまりコマンド情報丨 1 に依存しない情報である。 例えば、 第 1取得部 1 1でのコマンド情報丨 1の 取得回数又は取得頻度等のように、 コマンド情報丨 1 に依存する、 つまりコ マンド情報丨 1 との相関がある情報を 「内部情報」 とすると、 コマンド情報 I 1 に依存しない情報 「外部情報」 である。 本実施形態では、 付加情報丨 2 は、 内部情報を含まず、 外部情報と内部情報とのうちの外部情報のみを含む
[0045] 具体的には、 付加情報 I 2は、 人 (ユーザ U 1) の操作に応じて変化する 入力情報を含む。 つまり、 例えば、 ユーザ U 1がスイッチ等を手で操作する ことによって変化する入力情報が、 付加情報丨 2に含まれている。 また、 付 加情報丨 2は、 期間に関する期間情報を含む。 本開示でいう 「期間」 は、 時 間軸上においてある幅で規定される区間を意味し、 一例として、 時間帯、 日 (曜日、 平日/祝日を含む) 、 月、 年及び季節等を単位とする期間を含む。 つまり、 例えば、 季節を単位とする場合、 付加情報丨 2は、 現在の季節が春 、 夏、 秋、 冬のいずれであるかを示す期間情報を含む。 I 2 includes information different from the command information I 1. In this embodiment, the additional information I 2 includes external information that is independent of the command information I 1. The “external information” referred to in the present disclosure is information that is independent of the command information 1, that is, does not depend on the command information 1. For example, information that depends on command information 1, such as the number of times or frequency of acquisition of command information 1 by the first acquisition unit 11, that is, information that correlates with command information 1 is "internal information". Then, it is the "external information" that does not depend on the command information I 1. In the present embodiment, the additional information [2] does not include internal information, but includes only external information of external information and internal information. [0045] Specifically, the additional information I2 includes input information that changes according to an operation of a person (user U1). That is, for example, the input information that changes when the user U 1 manually operates a switch or the like is included in the additional information section 2. In addition, Appendix 2 includes period information regarding the period. “Period” in the present disclosure means a section defined by a certain width on the time axis, and for example, time zone, day (including day of the week, weekday/holiday), month, year, season, etc. Including the period. That is, for example, when the unit is the season, the additional information [2] includes period information indicating whether the current season is spring, summer, autumn, or winter.
[0046] また、 付加情報丨 2は、 音声入力装置 2に入力された音声を発した話者 ( ユーザ U 1) に関する話者情報を含む。 つまり、 例えば、 音声入力装置 2に 入力された音声を発したユーザ U 1が、 父、 母、 姉及び弟のいずれであるか を示す話者情報が、 付加情報丨 2に含まれている。 さらに、 付加情報 I 2は 、 音声入力装置 2に入力された音声から抽出され、 音声を発した話者の状態 に関連する状態情報を含む。 本開示でいう 「話者の状態」 は、 音声入力装置 2に入力された音声から抽出し得る情報であって、 例えば、 声の大きさ (声 量) 及び調子等から推定される、 話者の感情又は体調等を含む。 話者の感情 は、 一例として、 覚醒の度合いである覚醒感 (Arousa l Leve l) と、 快適さの 度合いである快適感 (Va lence Leve l) と、 を 2軸とする人の感情の二次元モ デル (ラッセル円環モデル) を用いて推定可能である。 [0046] Further, the additional information item 2 includes the speaker information about the speaker (user U 1) who uttered the voice input to the voice input device 2. In other words, for example, the speaker information indicating whether the user U 1 who uttered the voice input to the voice input device 2 is a father, mother, sister, or younger brother is included in the additional information section 2. Further, the additional information I 2 is extracted from the voice input to the voice input device 2 and includes state information related to the state of the speaker who uttered the voice. The “speaker state” referred to in the present disclosure is information that can be extracted from the voice input to the voice input device 2, and is, for example, estimated from the loudness (volume) and tone of the speaker. Including the emotion or physical condition of. The speaker's emotions are, for example, two types of emotions of a person whose two axes are arousal (Arousal l Level), which is the degree of arousal, and comfort (Valence Level), which is the degree of comfort. It can be estimated using the dimensional model (Russell ring model).
[0047] 上述したような、 入力情報、 期間情報、 話者情報及び状態情報は、 いずれ もコマンド情報 I 1 に依存しない、 つまりコマンド情報 I 1から独立した情 報であるので、 「外部情報」 に含まれる。 [0047] Since the input information, the period information, the speaker information, and the state information as described above do not depend on the command information I 1, that is, the information is independent of the command information I 1, the "external information" include.
[0048] 第 2取得部 1 2が付加情報丨 2を取得するタイミングは、 第 1取得部 1 1 がコマンド情報 I 1 を取得するタイミングと同期している。 つまり、 第 2取 得部 1 2が付加情報 I 2を取得するタイミングは、 音声認識サーバ 3がコマ ンド情報丨 1 を出力するタイミングによって決まる。 The timing at which the second acquisition unit 12 acquires the additional information item 2 is synchronized with the timing at which the first acquisition unit 11 acquires the command information I 1. That is, the timing at which the second acquisition unit 12 acquires the additional information I 2 is determined by the timing at which the voice recognition server 3 outputs the command information 1 1.
[0049] 制御部 1 3は、 上述したように、 コマンド情報 I 1及び付加情報 I 2との
\¥0 2020/175293 12 卩(:17 2020 /006636 As described above, the control unit 13 controls the command information I 1 and the additional information I 2. \¥0 2020/175293 12 卩(: 17 2020/006636
両方に基づく制御命令丨 3により、 少なくとも 1つの機器 5からなる制御対 象丁 1 を制御する。 すなわち、 制御部 1 3は、 第 1取得部 1 1が取得したコ マンド情報丨 1、 及び第 2取得部 1 2が取得した付加情報 I 2との両方に基 づいて、 制御命令丨 3を生成する。 このようにして生成される制御命令丨 3 により、 制御部 1 3は、 少なくとも 1つの機器 5からなる制御対象丁 1の制 御を実行する。 The control instruction 1 based on both controls the control target 1 consisting of at least one device 5. In other words, the control unit 13 outputs the control command information 3 based on both the command information 1 acquired by the first acquisition unit 11 and the additional information I 2 acquired by the second acquisition unit 12. To generate. With the control command 3 generated in this way, the control unit 13 executes control of the control target tool 1 including at least one device 5.
[0050] すなわち、 制御部 1 3は、 コマンド情報丨 1だけでなく、 付加情報丨 2に ついても制御対象丁 1の制御に反映する。 例えば、 コマンド情報丨 1が同じ であっても、 付加情報丨 2が異なる条件を満たす場合には、 制御部 1 3は、 異なる制御命令丨 3にて制御対象丁 1の制御を実行する。 つまり、 制御部 1 3は、 コマンド情報 I 1が同じでも、 付加情報丨 2が第 1条件を満たす場合 には第 1の制御命令丨 3にて制御対象丁 1 を制御し、 付加情報丨 2が第 2条 件を満たす場合には、 第 2の制御命令 I 3にて制御対象丁 1 を制御する。 こ こで、 第 2条件は第 1条件とは異なる条件であって、 第 2の制御命令 I 3は 第 1の制御命令丨 3とは異なる制御命令 I 3である。 That is, the control unit 13 reflects not only the command information item 1 but also the additional information item 2 on the control of the control target document 1. For example, even if the command information 1 is the same, if the additional information 2 satisfies different conditions, the control unit 13 executes control of the controlled object D 1 with different control commands 3. In other words, even if the command information I 1 is the same, the control unit 13 controls the controlled object D 1 with the first control command 3 when the additional information 2 satisfies the first condition, and the additional information 2 If satisfies the second condition, the control target tool 1 is controlled by the second control command I 3. Here, the second condition is different from the first condition, and the second control command I 3 is a control command I 3 different from the first control command I 3.
[0051 ] 本実施形態では、 付加情報丨 2は、 上述したように、 入力情報、 期間情報 、 話者情報及び状態情報を含み得る。 そこで、 制御部 1 3は、 入力情報、 期 間情報、 話者情報及び状態情報が付加情報丨 2に含まれる場合、 入力情報、 期間情報、 話者情報及び状態情報に応じて制御命令丨 3を変化させる。 すな わち、 付加情報丨 2が入力情報を含む場合、 制御部 1 3は、 少なくとも入力 情報に応じて制御命令丨 3を変化させる。 また、 付加情報 I 2が期間情報を 含む場合、 制御部 1 3は、 少なくとも期間情報に応じて制御命令丨 3を変化 させる。 また、 付加情報丨 2が話者情報を含む場合、 制御部 1 3は、 少なく とも話者情報に応じて制御命令丨 3を変化させる。 また、 付加情報 I 2が状 態情報を含む場合、 制御部 1 3は、 少なくとも状態情報に応じて制御命令丨 3を変化させる。 さらに、 これら入力情報、 期間情報、 話者情報及び状態情 報のうちの 2つ以上の情報が付加情報 I 2に含まれる場合、 制御部 1 3は、 これら 2つ以上の情報に応じて制御命令 I 3を変化させる。
〇 2020/175293 13 卩(:171? 2020 /006636 [0051] In the present embodiment, the additional information item 2 may include the input information, the period information, the speaker information, and the state information, as described above. Therefore, when the input information, the period information, the speaker information and the state information are included in the additional information section 2, the control unit 13 controls the control command according to the input information, the period information, the speaker information and the state information. Change. That is, when the additional information [2] includes input information, the control unit [13] changes the control command [3] at least according to the input information. When the additional information I 2 includes the period information, the control unit 13 changes the control command 3 at least according to the period information. When the additional information [2] includes the speaker information, the control unit [13] changes the control command [3] according to at least the speaker information. If the additional information I 2 includes status information, the control unit 13 changes the control command 3 at least according to the status information. Further, when the additional information I 2 includes two or more pieces of the input information, the period information, the speaker information, and the status information, the control unit 13 controls according to the two or more pieces of information. Change instruction I 3. 〇 2020/175 293 13 卩 (:171? 2020 /006636
[0052] ところで、 本開示でいう 「制御命令」 は、 複数の機器 5のうちの制御対象 丁 1 となる少なくとも 1つの機器 5を特定する対象特定項目と、 制御対象丁 1の動作を特定する内容特定項目と、 を含んでいる。 そして、 制御部 1 3は 、 コマンド情報 I 1及び付加情報丨 2との両方に基づいて、 対象特定項目及 び内容特定項目を決定する。 [0052] By the way, the "control command" in the present disclosure specifies a target specifying item that specifies at least one device 5 that is a controlled target among the plurality of devices 5, and an operation of the controlled target. Includes content specific items and. Then, the control unit 13 determines the target specific item and the content specific item based on both the command information I 1 and the additional information [2].
[0053] つまり、 制御命令丨 3は、 対象特定項目にて、 制御対象丁 1 となる少なく とも 1つの機器 5を特定可能とする。 対象特定項目は、 例えば、 複数の機器 5の各々に個別に割り当てられ、 各機器 5に記憶されている識別情報 (アド レス等) で表される。 In other words, the control command (3) can specify at least one device (5) to be controlled by the target specifying item. The target specifying item is, for example, assigned to each of the plurality of devices 5 and is represented by identification information (address, etc.) stored in each device 5.
[0054] また、 制御命令丨 3は、 内容特定項目にて、 制御対象丁 1 をどのように制 御するかを特定可能とする。 例えば、 空調機器からなる機器 5 1 , 5 4が制 御対象丁 1であれば、 制御対象丁 1の動作モード (冷房/暖房等) 、 設定温 度、 風向、 風量及び運転時間 (タイマ) 等の動作が、 内容特定項目にて規定 される。 照明器具からなる機器 5 2 , 5 5が制御対象丁 1であれば、 制御対 象丁 1の消灯、 点灯、 調光点灯、 調光レベル (明るさ) 、 光色 (色温度) 及 び運転時間 (タイマ) 等の動作が、 内容特定項目にて規定される。 電動シャ ッタからなる機器 5 3が制御対象丁 1であれば、 制御対象丁 1の開/閉及び 開度等の動作が、 内容特定項目にて規定される。 [0054] Further, the control command [3] makes it possible to specify how to control the controlled object [1] by the content specifying item. For example, if the devices 5 1 and 5 4 consisting of air-conditioning equipment are the controlled target 1, the operating mode of the controlled target 1 (cooling/heating, etc.), set temperature, wind direction, air volume and operating time (timer), etc. The operation of is specified in the content specific item. If the equipment 5 2 and 5 5 consisting of luminaires is the controlled object 1, the control object 1 will be turned off, lit, dimmed, dimmed level (brightness), light color (color temperature) and operated. Operations such as time (timer) are specified in the content specific items. If the device 53 consisting of an electric shutter is the controlled object, the operations such as opening/closing and opening of the controlled object 1 are specified in the content specific items.
[0055] これにより、 制御部 1 3は、 制御命令丨 3を出力することにより、 複数の 機器 5のうちのいずれの機器 5を制御対象丁 1 とし、 かつ制御対象丁 1 をど のように制御するか、 を指定することができる。 As a result, the control unit 13 outputs the control command 3 to determine which device 5 among the plurality of devices 5 is the control target document 1 and which control target document 1 is. You can control or specify.
[0056] また、 本実施形態では、 制御部 1 3は、 コマンド情報丨 1 と付加情報丨 2 との両方に基づいて、 複数の機器 5の中から 2つ以上の機器 5を制御対象丁 1 として選択する。 つまり、 制御部 1 3は、 1つの機器 5を制御対象丁 1 と するのみでなく、 複数 (2つ以上) の機器 5を制御対象丁 1 として選択する ことが可能である。 これにより、 制御部 1 3は、 複数の機器 5をまとめて ( —括して) 制御することが可能である。 制御対象丁 1 として選択される 2つ 以上の機器 5は、 同種の機器 5であってもよいし、 例えば、 空調機器及び照
〇 2020/175293 14 卩(:171? 2020 /006636 Further, in the present embodiment, the control unit 13 controls two or more devices 5 out of the plurality of devices 5 based on both the command information 1 and the additional information 2. To choose as. That is, the control unit 13 can select not only one device 5 as the control target document 1 but also a plurality of (two or more) devices 5 as the control target document 1. As a result, the control unit 13 can collectively control the plurality of devices 5. The two or more devices 5 selected as the controlled object 1 may be devices 5 of the same type, for example, an air conditioner and a lighting device. 〇 2020/175 293 14 卩 (:171? 2020 /006636
明器具等のように、 異種の機器 5を含んでいてもよい。 It may include different types of equipment 5, such as lighting equipment.
[0057] ところで、 本実施形態では一例として、 上述したような制御命令丨 3 (対 象特定項目及び内容特定項目) に相当する命令候補を複数含む制御リスト ( 制御テーブル) を、 後述する記憶部 1 7が記憶している。 そして、 制御部 1 3は、 記憶部 1 7に記憶されている制御リストに含まれる複数の命令候補の 中から、 いずれかの命令候補を選択し、 選択した命令候補に相当する制御命 令丨 3に従って制御対象丁 1の制御を実行する。 By the way, as an example in the present embodiment, a control list (control table) including a plurality of command candidates corresponding to the above-described control command 3 (target specific item and content specific item) is stored in a storage unit described later. 1 7 remembers. Then, the control unit 13 selects one of the command candidates included in the control list stored in the storage unit 17 and selects a control command corresponding to the selected command candidate. Execute the control of controlled object D1 according to 3.
[0058] ここで、 制御リストにおいては、 1 つのコマンド情報丨 1 に対して、 2以 上の命令候補が対応付けられている。 すなわち、 コマンド情報丨 1のみでは 、 命令候補を 1つに絞ることができないところ、 本実施形態に係る制御部 1 3は、 コマンド情報 I 1 に加えて付加情報丨 2を用いることで、 命令候補を —つに絞り込むことを可能とする。 要するに、 制御部 1 3は、 1 つのコマン ド情報丨 1 に対応付けられている複数の命令候補の中から、 付加情報丨 2に 基づいて一の命令候補を選択し、 選択した一の命令候補を制御命令 I 3とし て制御対象丁 1 を制御する。 Here, in the control list, one or more command candidates are associated with one or more command candidates. That is, it is not possible to limit the number of command candidates to one command information only, but the control unit 13 according to the present embodiment uses the additional information command 2 in addition to the command information I 1 to It is possible to narrow down to one. In short, the control unit 13 selects one instruction candidate from the plurality of instruction candidates associated with one command information item 1 on the basis of the additional information item 2, and selects the selected one instruction candidate item. Is used as a control command I 3 to control the controlled object.
[0059] さらに、 付加情報 I 2が判別不能である場合等で、 付加情報 I 2による命 令候補の絞り込みができない場合に対処できるように、 本実施形態では、 制 御リスト中にデフォルトの命令候補が用意されている。 すなわち、 付加情報 I 2による命令候補の絞り込みができない場合であっても、 制御部 1 3が、 デフォルトの命令候補を制御命令丨 3として採用することにより、 制御対象 丁 1の制御が可能となる。 要するに、 制御部 1 3は、 付加情報丨 2が判定条 件を満たした場合に、 判定条件に従って一の命令候補を選択し、 選択した一 の命令候補を制御命令丨 3として制御対象丁 1 を制御する。 一方、 付加情報 I 2が判定条件を満たさない場合に、 制御部 1 3は、 複数の命令候補の中の デフォルトの命令候補を選択し、 デフォルトの命令候補を制御命令 I 3とし て制御対象丁 1 を制御する。 Further, in order to cope with the case where the additional information I 2 cannot be discriminated and the instruction candidates cannot be narrowed down by the additional information I 2, in the present embodiment, the default command in the control list is dealt with. Candidates are available. That is, even if the instruction candidates cannot be narrowed down by the additional information I 2, the control unit 13 can control the controlled object 1 by adopting the default instruction candidate as the control instruction 丨3. .. In short, the control unit 13 selects one instruction candidate according to the determination condition when the additional information [2] satisfies the determination condition, and selects the selected one instruction candidate as the control instruction [3] to control the target object 1. Control. On the other hand, when the additional information I 2 does not satisfy the determination condition, the control unit 13 selects the default instruction candidate from the plurality of instruction candidates and sets the default instruction candidate as the control instruction I 3 to control the target instruction. Control 1
[0060] 入力部 1 4は、 ユーザ II 1の操作に応じた入力信号の入力を受け付ける。 The input unit 14 receives input of an input signal according to the operation of the user II 1.
すなわち、 機器制御システム 1は、 ユーザ II 1の操作を受け付けることが可
〇 2020/175293 15 卩(:171? 2020 /006636 That is, the device control system 1 can accept the operation of the user II 1. 〇 2020/175 293 15 卩(:171? 2020/006636
能である。 ここで、 入力部 1 4が受け付ける入力信号は、 ユーザ II 1の音声 操作以外の操作、 基本的には、 ユーザ II 1が自らの手で行う操作によって発 生する。 入力部 1 4は、 一例として、 コントローラ 1 0に設けられたタッチ パネルディスプレイ、 又は押ボタンの操作によって発生する入力信号の入力 を受け付ける。 Noh. Here, the input signal received by the input unit 14 is generated by an operation other than the voice operation of the user II 1, basically the operation performed by the user II 1 by his/her own hand. The input unit 14 receives, as an example, an input of an input signal generated by operating a touch panel display provided on the controller 10 or a push button.
[0061 ] 表示部 1 5は、 表示によりユーザ II 1 に情報を提示する機能を有している 。 本実施形態では、 表示部 1 5及び入力部 1 4は、 例えば、 タッチパネルデ ィスプレイにて実現される。 そのため、 コントローラ 1 0は、 タッチパネル ディスプレイに表示される各画面上でのボタン等のオブジヱクトの操作 (夕 ップ、 スワイプ、 ドラッグ等) を検出することをもって、 ボタン等のオブジ ェクトが操作されたことと判断する。 つまり、 表示部 1 5は、 タッチパネル ディスプレイに含まれる、 例えば、 液晶ディスプレイ、 有機巳 !_
!_ 11111 _1 306 6) ディスプレイ等にて実現される。 [0061] The display unit 15 has a function of presenting information to the user II 1 by display. In the present embodiment, the display unit 15 and the input unit 14 are realized by, for example, a touch panel display. Therefore, the controller 10 detects that the operation of an object such as a button on each screen displayed on the touch panel display (such as duplication, swipe, or drag) is detected, and the object such as the button is operated. To judge. In other words, the display unit 15 is included in a touch panel display, for example, a liquid crystal display, an organic display! !_ 11111 _1 306 6) Realized by a display etc.
[0062] 設定部 1 6は、 コマンド情報 I 1 と付加情報丨 2と制御命令 I 3との対応 関係を設定する。 本実施形態では、 設定部 1 6は、 設定を無効にする通常モ —ドと、 手動設定モードと、 の 2つのモードを有している。 通常モードにお いては、 設定部 1 6は、 コマンド情報 I 1 と付加情報丨 2と制御命令 I 3と の対応関係を固定し、 コマンド情報丨 1 と付加情報丨 2と制御命令丨 3との 対応関係の設定 (変更) を行わない。 手動設定モードは、 コマンド情報丨 1 と付加情報丨 2と制御命令 I 3との対応関係を、 ユーザ II 1が手動で設定で きるモードである。 手動設定モードにおいては、 設定部 1 6は、 例えば、 入 力部 1 4が受け付けた入力信号、 つまりユーザ II 1の操作に応じた入力信号 に従って、 コマンド情報丨 1 と付加情報丨 2と制御命令 I 3との対応関係を 設定 (変更) する。 具体的には、 ユーザ II 1は、 制御リスト上において、 コ マンド情報丨 1及び付加情報丨 2の 1つの組み合わせに対して、 一の命令候 補を対応付ける。 The setting unit 16 sets the correspondence between the command information I 1, the additional information item 2 and the control command I 3. In the present embodiment, the setting unit 16 has two modes: a normal mode for invalidating the setting and a manual setting mode. In the normal mode, the setting unit 16 fixes the correspondence between the command information I 1, the additional information 伨2 and the control command I3, and sets the command information 丨1, additional information 丨2 and the control command 丨3. Do not set (change) the correspondence relationship of. The manual setting mode is a mode in which the user II 1 can manually set the correspondence between the command information 1 and the additional information 2 and the control command I 3. In the manual setting mode, the setting unit 16 may, for example, according to the input signal received by the input unit 14, that is, the input signal according to the operation of the user II 1, the command information 1 and the additional information 2 and the control command. Set (change) the correspondence with I 3. Specifically, user II 1 associates one command code with one combination of command information 1 and additional information 2 on the control list.
[0063] また、 本実施形態では、 設定部 1 6は、 通常モード及び手動設定モードに 加えて、 学習モードを有している。 学習モードは、 制御対象丁 1 に対して制
御命令丨 3に相当する制御が行われた場合に、 制御命令丨 3と、 コマンド情 報丨 1 と付加情報丨 2との対応関係を生成するモードである。 すなわち、 学 習モードにおいては、 設定部 1 6は、 コマンド情報 I 1 と付加情報丨 2と制 御命令 I 3との対応関係を、 自動的に学習して調整 (変更) する。 具体的に は、 設定部 1 6は、 コマンド情報 I 1及び付加情報丨 2の 1つの組み合わせ に対して、 相関の高い機器 5の操作をユーザ U 1が行った場合に、 この操作 に相当する命令候補を生成し、 制御リストに追加する。 または、 設定部 1 6 は、 コマンド情報 I 1及び付加情報 I 2の 1つの組み合わせに対して、 相関 の高い機器 5の操作をユーザ U 1が行った場合に、 この操作に応じて制御リ スト内の命令候補を変更 (削除を含む) する。 学習モードにおける設定部 1 6での学習は、 例えば、 制御用サーバ 1 00に構築されたニューラルネッ ト ワークにて訓練 (学習) がされることにより行われてもよい。 [0063] Further, in the present embodiment, the setting unit 16 has a learning mode in addition to the normal mode and the manual setting mode. The learning mode is limited to the controlled object 1. In this mode, when the control equivalent to command 3 is performed, the correspondence between control command 3, command information 1 and additional information 2 is generated. That is, in the learning mode, the setting unit 16 automatically learns and adjusts (changes) the correspondence relationship between the command information I 1, the additional information 2 and the control command I 3. Specifically, the setting unit 16 corresponds to this operation when the user U 1 operates the device 5 having a high correlation with respect to one combination of the command information I 1 and the additional information [2]. Generate command candidates and add them to the control list. Alternatively, when the user U 1 operates the device 5 having a high correlation with respect to one combination of the command information I 1 and the additional information I 2, the setting unit 16 responds to this operation to control the list. Change (including delete) the instruction candidates in. The learning in the setting unit 16 in the learning mode may be performed, for example, by performing training (learning) with a neural network built in the control server 100.
[0064] 記憶部 1 7は、 例えば、 命令候補を複数含む制御リスト等を記憶する。 ま た、 記憶部 1 7は、 制御部 1 3等での演算に必要な情報等を更に記憶する。 記憶部 1 7は、 E E P ROM (Electrically Erasable Programmable Read-0 nly Memory) のような書き換え可能な不揮発性メモリを含む。 The storage unit 17 stores, for example, a control list including a plurality of instruction candidates. In addition, the storage unit 17 further stores information and the like necessary for calculation in the control unit 13 and the like. The storage unit 17 includes a rewritable nonvolatile memory such as an EEPROM (Electrically Erasable Programmable Read-0 nly Memory).
[0065] 通信部 1 8は、 制御用サーバ 1 〇〇及び制御対象 T 1の各々との通信機能 を有する。 通信部 1 8は、 制御用サーバ 1 00との間で、 例えば、 ネッ トワ —クを介して双方向の通信が可能である。 また、 通信部 1 8は、 制御対象 T 1 との間で、 例えば、 電波を媒体とした無線通信により双方向の通信が可能 である。 無線通信の一例としては、 92 OMH z帯の特定小電力無線局 (免 許を要しない無線局) 、 W i -F i (登録商標) 、 又は B 丨 u e t 〇〇 t h (登録商標) 等の通信規格に準拠した通信方式がある。 また、 通信部 1 8 ( コントローラ 1 0) と、 制御対象 T 1 との間の通信における通信プロトコル は、 例えば、 E t h e r n e t (登録商標) 、 ECHO N ET L i t e ( 登録商標) 等である。 The communication unit 18 has a communication function with each of the control server 100 and the control target T 1. The communication unit 18 is capable of bidirectional communication with the control server 100, for example, via a network. Further, the communication unit 18 is capable of bidirectional communication with the control target T 1, for example, by wireless communication using a radio wave as a medium. As an example of wireless communication, a specific low power wireless station in the 92 MHz band (a wireless station that does not require a license), W i -F i (registered trademark), or B 丨 uet 〇 〇 th (registered trademark), etc. There are communication methods that comply with communication standards. Further, the communication protocol in the communication between the communication unit 18 (controller 10) and the control target T 1 is, for example, E het rn et (registered trademark) or ECHO N ET Lite (registered trademark).
[0066] 制御用サーバ 1 00に設けられている情報生成部 1 9は、 付加情報丨 2に 含まれ得る種々の情報を生成する。 例えば、 付加情報丨 2が、 季節を示す期
〇 2020/175293 17 卩(:171? 2020 /006636 The information generation unit 19 provided in the control server 100 generates various types of information that can be included in the additional information section 2. For example, the additional information 丨2 indicates the season 〇 2020/175 293 17 卩(:171? 2020/006636
間情報を含む場合、 情報生成部 1 9は、 現在時刻 (月日も含む) に従って現 在の季節が春、 夏、 秋、 冬のいずれであるかを示す期間情報を生成する。 こ の場合、 制御用サーバ 1 0 0は、 例えば、
In the case of including the interval information, the information generation unit 19 generates period information indicating whether the current season is spring, summer, autumn, or winter according to the current time (including month and day). In this case, the control server 100
サーバ等との通信により、 正確な現在時刻を計時する。 また、 例えば、 付加 情報丨 2が、 話者情報を含む場合、 情報生成部 1 9は、 音声認識サーバ 3と 通信することで、 音声入力装置 2に入力された音声を発したユーザ II 1が、 父、 母、 姉及び弟のいずれであるかを示す話者情報を生成する。 例えば、 付 加情報丨 2が、 状態情報を含む場合、 情報生成部 1 9は、 音声認識サーバ 3 と通信することで、 音声入力装置 2に入力された音声を発した話者 (ユーザ II 1) の状態を示す状態情報を生成する。 Accurately measures the current time by communicating with the server. In addition, for example, when the additional information item 2 includes speaker information, the information generation unit 19 communicates with the voice recognition server 3 so that the user II 1 who utters the voice input to the voice input device 2 is , Speaker information indicating whether the child is a father, mother, sister, or brother. For example, when the supplementary information 2 includes state information, the information generation unit 19 communicates with the voice recognition server 3 to cause the speaker (user II 1 1) who uttered the voice input to the voice input device 2. ) Generates state information indicating the state of.
[0067] (3) 動作 [0067] (3) Operation
次に、 本実施形態に係る機器制御システム 1の動作、 つまり本実施形態に 係る機器制御方法について説明する。 Next, the operation of the device control system 1 according to the present embodiment, that is, the device control method according to the present embodiment will be described.
[0068] (3 . 1) 基本動作例 [0068] (3.1) Basic operation example
図 3は、 機器制御システム 1の動作の一例を示すフローチヤートである。 FIG. 3 is a flow chart showing an example of the operation of the device control system 1.
[0069] すなわち、 まずは音声入力装置 2に対する、 音声入力の有無が判断される (3 1) 。 本実施形態では、 音声入力装置 2は、 ユーザ II 1から 「音声操作 開始」 等の特定のキーワード (ウェイクワード) を表す音声が入力されるこ とをトリガにして、 ユーザ II 1の音声操作の受け付けを開始する。 つまり、 音声入力装置 2は、 ユーザ II 1からウェイクワードの入力を受け付けるまで は音声入力なし (3 1 : N 0) と判断し、 処理 3 1 を繰り返し実行する。 That is, first, the presence/absence of voice input to the voice input device 2 is determined (31). In the present embodiment, the voice input device 2 triggers the voice input from the user II 1 that represents a specific keyword (wake word) such as “start voice operation” to trigger the voice operation of the user II 1. Start accepting. In other words, the voice input device 2 determines that there is no voice input (3 1: N 0) until it receives the input of the wake word from the user II 1, and repeats the process 3 1.
[0070] 一方、 音声入力装置 2がユーザ II 1からウェイクワードの入力を受け付け ると、 音声入力装置 2は、 音声入力あり (3 1 :
3) と判断し、 ユーザ II 1からの音声を受け付ける。 このとき、 音声入力装置 2に入力された音声 の認識結果は、 音声入力装置 2から音声認識サーバ 3に送信される。 そして 、 音声認識サーバ 3は、 音声入力装置 2から受信した認識結果が制御ワード であるか否かを判断する (3 2) 。 音声入力装置 2から受信した認識結果が 制御ワードでなければ (3 2 : N 0) 、 処理 3 1 を繰り返し実行する。
〇 2020/175293 18 卩(:171? 2020 /006636 [0070] On the other hand, when the voice input device 2 receives the input of the wake word from the user II 1, the voice input device 2 has the voice input (3 1: 3) and accept the voice from user II 1. At this time, the recognition result of the voice input to the voice input device 2 is transmitted from the voice input device 2 to the voice recognition server 3. Then, the voice recognition server 3 determines whether or not the recognition result received from the voice input device 2 is a control word (32). If the recognition result received from the voice input device 2 is not a control word (3 2 :N 0), process 3 1 is repeated. 〇 2020/175 293 18 卩 (:171? 2020 /006636
[0071 ] 音声入力装置 2から受信した認識結果が制御ワードであれば (3 2 : 丫6 [0071] If the recognition result received from the voice input device 2 is a control word, (3 2 : 6
3) 、 音声認識サーバ 3は、 制御用サーバ 1 0 0に対してコマンド情報丨 1 を出力する。 これにより、 機器制御システム 1は、 第 1取得部 1 1 にてコマ ンド情報丨 1 を取得する (3 3) 。 このとき、 第 1取得部 1 1は、 制御用サ —バ 1 0 0を介して、 音声認識サーバ 3からのコマンド情報丨 1 を取得する 。 さらに、 機器制御システム 1は、 第 2取得部 1 2にて付加情報 I 2を取得 する (3 4) 。 このとき、 第 2取得部 1 2は、 例えば、 制御用サーバ 1 0 0 (情報生成部 1 9) で生成された付加情報丨 2を、 制御用サーバ 1 〇〇から 取得する。 3) The voice recognition server 3 outputs command information 1 to the control server 100. As a result, the device control system 1 acquires the command information 1 by the first acquisition unit 11 (3 3). At this time, the first acquisition unit 11 acquires the command information 1 from the voice recognition server 3 via the control server 100. Furthermore, in the device control system 1, the second acquisition unit 12 acquires the additional information I 2 (34). At this time, the second acquisition unit 12 acquires, for example, the additional information item 2 generated by the control server 100 (information generation unit 19) from the control server 100.
[0072] 次に、 機器制御システム 1は、 制御部 1 3にて、 記憶部 1 7に記憶されて いる制御リストに含まれる複数の命令候補の中から、 まずはコマンド情報丨 1 による命令候補の絞り込みを行う (3 5) 。 このとき、 制御部 1 3は、 複 数の命令候補のうち、 取得したコマンド情報丨 1 に対応する 2以上の命令候 補を、 _次候補として選択する。 Next, in the device control system 1, the control unit 13 first selects from among the plurality of command candidates included in the control list stored in the storage unit 17 the command candidate based on the command information 丨1. Narrow down (3 5). At this time, the control unit 13 selects two or more instruction candidates corresponding to the acquired command information [1] from among the plurality of instruction candidates as the _ next candidate.
[0073] そして、 機器制御システム 1は、 制御部 1 3にて、 付加情報丨 2が判定条 件を満たすか否かを判断する ^ 6) 。 判定条件は、 例えば、 付加情報丨 2 が、 季節を示す期間情報を含む場合に、 期間情報が 「夏」 又は 「冬」 のいず れかを示すこと、 である。 この場合、 付加情報丨 2が、 「夏」 又は 「冬」 を 示す期間情報を含んでいれば、 判定条件を満たすことになり、 「春」 又は 「 秋」 を示す期間情報を含んでいるか期間情報が判別不能であれば、 判定条件 を満たさない。 Then, in the device control system 1, the control unit 13 determines whether or not the additional information item 2 satisfies the determination condition ^ 6). The judgment condition is that, for example, when the additional information [2] includes period information indicating a season, the period information indicates either “summer” or “winter”. In this case, if the additional information [2] includes the period information indicating “summer” or “winter”, the judgment condition is satisfied, and whether the additional information includes period information indicating “spring” or “fall”. If the information cannot be discriminated, the judgment condition is not satisfied.
[0074] 付加情報
機器制御システ ム 1は、 制御部 1 3にて、 一次候補として選択されている 2以上の命令候補 の中から、 付加情報丨 2による命令候補の絞り込みを行う (3 7) 。 このと き、 制御部 1 3は、 半定条件に従って一次候補の中から一の命令候補を選択 する。 このように、 制御部 1 3は、 コマンド情報 I 1 に加えて付加情報丨 2 を用いることで、 命令候補を一つに絞り込むことができる。 [0074] Additional information In the device control system 1, the control unit 13 narrows down the command candidates from the two or more command candidates selected as the primary candidates by the additional information [2] (37). In this case, the control unit 13 selects one instruction candidate from the primary candidates according to the semi-constant condition. As described above, the control unit 13 can narrow down the command candidates to one by using the additional information item 2 in addition to the command information item I 1.
[0075] 一方、 付加情報丨 2が判定条件を満たさなければ (3 6 : N 0) 、 機器制
〇 2020/175293 19 卩(:171? 2020 /006636 [0075] On the other hand, if the additional information 2 does not satisfy the determination condition (36: N 0), the device control 〇 2020/175 293 19 卩(:171? 2020/006636
御システム 1は、 制御部 1 3にて、 一次候補として選択されている 2以上の 命令候補の中から、 デフォルトの命令候補を選択する (3 8) 。 このように 、 付加情報丨 2が判別不能である場合等で、 付加情報 I 2による命令候補の 絞り込みができない場合であっても、 制御部 1 3は、 命令候補を一つに絞り 込むことができる。 The control system 1 causes the control unit 13 to select a default instruction candidate from the two or more instruction candidates selected as the primary candidates (38). In this way, even if the additional information I2 cannot be discriminated, and the instruction candidates cannot be narrowed down by the additional information I2, the control unit 13 can narrow down the instruction candidates to one. it can.
[0076] そして、 制御部 1 3は、 処理 3 7又は処理 3 8にて選択した一の命令候補 を制御命令丨 3とし、 制御命令 I 3により制御対象丁 1 を制御する (3 9) Then, the control unit 13 sets the one command candidate selected in the process 37 or the process 38 as the control command 3 and controls the control target I 1 by the control command I 3 (39)
。 このとき、 制御命令丨 3に含まれる対象特定項目にて、 複数の機器 5の中 から、 制御対象丁 1 となる少なくとも 1つの機器 5が特定される。 さらに、 制御命令丨 3に含まれる内容特定項目にて、 制御対象丁 1 をどのように制御 するかが特定される。 .. At this time, the target specifying item included in the control command 3 specifies at least one device 5 to be the controlled target among the plurality of devices 5. Furthermore, how to control the controlled object 1 is specified by the content specification item included in the control command [3].
[0077] 図 3のフローチヤートは、 機器制御システム 1の動作の一例に過ぎず、 処 理を適宜省略又は追加してもよいし、 処理の順番が適宜変更されていてもよ い。 例えば、 第 1取得部 1 1 にてコマンド情報丨 1 を取得する処理 (3 3) と、 第 2取得部 1 2にて付加情報 I 2を取得する処理 (3 4) とは、 順番が 逆であってもよい。 The flow chart of FIG. 3 is merely an example of the operation of the device control system 1, and the processes may be omitted or added as appropriate, or the order of the processes may be appropriately changed. For example, the process in which the first acquisition unit 11 acquires the command information 1 (3 3) and the process in which the second acquisition unit 12 acquires the additional information I 2 (3 4) are in reverse order. May be
[0078] (3 . 2) 具体動作例 [0078] (3.2) Specific operation example
次に、 機器制御システム 1の具体動作例について、 図 4を参照して説明す る。 図 4は、 ユーザ II 1が発話してから機器 5が制御され、 かつ制御結果が ユーザ II 1 にフイードバックされる一連の処理を、 模式的に表すシーケンス 図である。 Next, a specific operation example of the device control system 1 will be described with reference to FIG. FIG. 4 is a sequence diagram schematically showing a series of processes in which the device 5 is controlled after the user II 1 speaks and the control result is fed back to the user II 1.
[0079] 図 4の例では、 「夏」 の季節において、 起床したユーザ II 1が、 音声入力 装置 2に向けて、 制御ワードの 1つである 「おはよう」 という言葉を発する 場合を想定する。 ここでは、 「おはよう」 という言葉を含むコマンド情報 I 1 には、 機器 5 1〜 5 5のうち、 「リビング」 にある機器 5 1〜 5 3の制御 に関する 2つの命令候補が対応付けられていることと仮定する。 [0079] In the example of Fig. 4, it is assumed that the user II 1 who gets up in the "summer" season utters the word "Good morning", which is one of the control words, toward the voice input device 2. Here, the command information I 1 including the word “good morning” is associated with two command candidates regarding the control of the devices 5 1 to 5 3 in the “living room” among the devices 5 1 to 5 5. Suppose that.
[0080] これら 2つの命令候補のうち、 「夏」 という期間情報を含む付加情報丨 2 に対応付けられた命令候補は、 空調機器からなる機器 5 1、 照明器具からな
〇 2020/175293 20 卩(:171? 2020 /006636 [0080] Of these two command candidates, the command candidate associated with the additional information 丨 2 including the period information "summer" is not the device 51 consisting of the air conditioner and the lighting fixture. 〇 2020/175 293 20 卩 (:171? 2020 /006636
る機器 5 2、 及び電動シャツタからなる機器 5 3を制御対象丁 1 として特定 する対象特定項目を含む。 さらに、 この命令候補は、 機器 5 1 については動 作モードを 「冷房」 としてオンし、 機器 5 2を点灯し、 機器 5 3について 「 開」 とするための内容特定項目を含む。 一方、 2つの命令候補のうち、 「冬 」 という期間情報を含む付加情報丨 2に対応付けられた命令候補は、 空調機 器からなる機器 5 1及び照明器具からなる機器 5 2を制御対象丁 1 として特 定する対象特定項目を含む。 さらに、 この命令候補は、 機器 5 1 については 動作モードを 「暖房」 としてオンし、 機器 5 2を点灯するための内容特定項 目を含む。 This includes the target specification item that specifies the device 52 that is controlled and the device 5 3 that is an electric shirt as the control target. Further, this command candidate includes a content specifying item for turning on the operation mode of the device 51 as "cooling", turning on the device 52, and opening "open" of the device 53. On the other hand, of the two command candidates, the command candidate associated with the additional information [2] including the period information "Winter" is the device 51 that is an air conditioner and the device 52 that is a lighting fixture. Includes target specific items specified as 1. Further, this command candidate includes a content specific item for turning on the operation mode of the device 51 as "heating" and turning on the device 52.
[0081 ] 図 4の例では、 音声入力装置 2がユーザ II 1の音声操作の受け付けを開始 後、 ユーザ 11 1が、 音声入力装置 2に対して、 「おはよう」 という言葉を発 する (3 1 1) 。 音声入力装置 2は、 ユーザ II 1から入力された音声を受け て、 音声コマンドの検出を行う。 すなわち、 音声入力装置 2は、 ユーザ II 1 の発した音声について音声認識を行い、 「おはよう」 という言葉を含む認識 結果を音声認識サーバ 3に送信する (3 1 2) 。 [0081] In the example of Fig. 4, after the voice input device 2 starts accepting the voice operation of the user II 1, the user 111 outputs the word "Good morning" to the voice input device 2 (3 1 1). The voice input device 2 receives the voice input from the user II 1 and detects a voice command. That is, the voice input device 2 performs voice recognition on the voice uttered by the user II 1 and transmits the recognition result including the word "Good morning" to the voice recognition server 3 (3 1 2).
[0082] 音声認識サーバ 3は、 認識結果が制御ワードであるので、 「おはよう」 と いう言葉を含むコマンド情報丨 1 を制御用サーバ 1 〇〇に送信する (3 1 3 ) 。 コマンド情報丨 1 を受けた制御用サーバ 1 0 0は、 コマンド情報丨 1 を 受信したタイミングで、 付加情報丨 2を生成する (3 1 4) 。 このとき生成 される付加情報丨 2は、 少なくとも 「夏」 を示す期間情報を含んでいる。 Since the recognition result is the control word, the voice recognition server 3 transmits command information 丨 1 including the word “Good morning” to the control server 100 (3 1 3 ). The control server 100, which has received the command information [1], generates the additional information [2] at the timing of receiving the command information [1] (3 1 4). The additional information 2 generated at this time includes at least period information indicating “summer”.
[0083] そして、 制御用サーバ 1 0 0は、 コマンド情報丨 1及び付加情報丨 2を 1 組にして、 この 1組のデータ (コマンド情報丨 1及び付加情報丨 2) をコン トローラ 1 0に送信する (3 1 5) 。 このとき、 コントローラ 1 0には、 「 おはよう」 という言葉を含むコマンド情報丨 1 と、 「夏」 を示す期間情報を 含む付加情報丨 2と、 が送信されることになる。 [0083] Then, the control server 100 sets the command information 1 and the additional information 2 into one set, and sets this one set of data (command information 1 and additional information 2) to the controller 10 Send (3 15). At this time, the command information [1] including the word "Good morning" and the additional information [2] including the period information indicating "summer" are transmitted to the controller 10.
[0084] コマンド情報 I 1及び付加情報丨 2を取得したコントローラ 1 0は、 コマ ンド情報丨 1及び付加情報丨 2に基づいて制御命令 I 3を生成し、 制御対象 丁 1 としての機器 5 1〜 5 3に制御命令丨 3を送信する (3 1 6) 。 このと
〇 2020/175293 21 卩(:171? 2020 /006636 [0084] The controller 10 that has acquired the command information I 1 and the additional information [2] generates the control command I3 based on the command information [1] and the additional information [2], and the device 5 1 as the control target Send control command 3 to ~ 5 3 (3 16). This and 〇 2020/175 293 21 卩 (:171? 2020 /006636
き、 「おはよう」 という言葉を含むコマンド情報丨 1 に対応付けられている 2つの命令候補のうち、 「夏」 という期間情報を含む付加情報丨 2に対応付 けられた命令候補が、 制御命令丨 3として選択される。 これにより、 制御対 象丁 1 としての機器 5 1〜 5 3は、 コマンド情報丨 1 ( 「おはよう」 ) 及び 付加情報丨 2 ( 「夏」 ) に基づく制御命令 I 3に従って制御される。 結果的 に、 空調機器からなる機器 5 1は動作モードが 「冷房」 でオンし、 照明器具 からなる機器 5 2は点灯し、 電動シャツタからなる機器 5 3は 「開」 となる Of the two command candidates that are associated with command information [1] that contains the word “Ohayo”, the command candidate that is associated with additional information [2] that contains the term information “summer” is the control command. Selected as 丨3. As a result, the devices 51 to 53 as the control target knife 1 are controlled according to the control command I 3 based on the command information 1 (“Good morning”) and the additional information 2 (“Summer”). As a result, the device 5 1 consisting of air conditioners turns on when the operation mode is “cooling”, the device 5 2 consisting of lighting fixtures lights up, and the device 5 3 consisting of electric shirts opens “open”.
[0085] また、 制御対象丁 1 としての機器 5 1〜 5 3からは、 コントローラ 1 0、 制御用サーバ 1 〇〇、 音声認識サーバ 3をこの順で通して、 音声入力装置 2 に応答信号が送信される (3 1 7〜3 2 0) 。 応答信号は、 制御命令 I 3に よる機器 5の制御の結果を表す情報である。 機器 5は、 基本的には、 応答信 号を送信した後で、 制御命令丨 3に従って動作するが、 この例に限らず、 制 御命令丨 3に従って動作した後で応答信号を送信してもよい。 [0085] In addition, from the devices 5 1 to 5 3 as the controlled object, the response signal is sent to the voice input device 2 through the controller 10, the control server 100, and the voice recognition server 3 in this order. Sent (3 17 to 320). The response signal is information indicating the result of control of the device 5 by the control instruction I 3. The device 5 basically operates according to the control command 3 after transmitting the response signal, but not limited to this example, the device 5 operates according to the control command 3 and then transmits the response signal. Good.
[0086] 応答信号を受信した音声入力装置 2は、 ユーザ II 1 に対して報知音を出力 する (3 2 1) 。 このとき、 音声入力装置 2が出力する報知音は、 一例とし て 「〇<」 という音声、 又はビープ音等である。 また、 応答信号を受信した 音声入力装置 2は、 報知音に代えて又は加えて、 表示 (単なる発光を含む) 等によって、 機器 5の制御の結果をユーザ II 1 に報知してもよい。 Upon receiving the response signal, the voice input device 2 outputs a notification sound to the user II 1 (3 2 1). At this time, the notification sound output by the voice input device 2 is, for example, a sound “◯<” or a beep sound. Further, the voice input device 2 that receives the response signal may notify the user II 1 of the control result of the device 5 by a display (including simple light emission) or the like instead of or in addition to the notification sound.
[0087] —方、 季節が 「冬」 であれば、 図 4の例と同様に、 ユーザ II 1が音声入力 装置 2に向けて、 制御ワードの 1つである 「おはよう」 という言葉を発した 場合でも、 機器制御システム 1 による機器 5の制御は、 図 4の例とは異なる 。 すなわち、 季節が 「冬」 であれば、 付加情報丨 2に含まれる期間情報が 「 冬」 になるため、 コントローラ 1 0で生成される制御命令丨 3が、 図 4の例 とは異なる。 具体的には、 空調機器からなる機器 5 1は動作モードが 「暖房 」 でオンし、 照明器具からなる機器 5 2は点灯し、 電動シャツタからなる機 器 5 3は動作しない。 要するに、 コマンド情報丨 1 ( 「おはよう」 ) が同じ であっても、 付加情報丨 2が異なることで、 機器制御システム 1は、 機器 5
〇 2020/175293 22 卩(:171? 2020 /006636 に対して異なる制御を行うことになる。 [0087] On the other hand, if the season is "winter", as in the example of Fig. 4, the user II 1 utters the word "Good morning", which is one of the control words, toward the voice input device 2. Even in this case, the control of the device 5 by the device control system 1 is different from the example in FIG. That is, if the season is "winter", the period information included in the additional information [2] will be [winter], so the control command [3] generated by the controller 10 is different from the example in FIG. Specifically, the device 51 consisting of an air conditioner is turned on when the operation mode is "heating", the device 52 consisting of a lighting device is turned on, and the device 53 consisting of an electric shirt does not operate. In short, even if the command information (1) (“Good morning”) is the same, the additional information (2) is different, so the device control system 1 〇 2020/175293 22 control (:171? 2020/006636) will be controlled differently.
[0088] 以上説明したように、 機器制御システム 1 によれば、 ユーザ II 1は、 「お はよう」 という言葉を発するだけで、 少なくとも 1つ (ここでは 3つ) の機 器 5からなる制御対象丁 1の制御を実現することができる。 しかも、 機器制 御システム 1では、 制御対象丁 1の制御に、 音声入力装置 2に入力された音 声に基づくコマンド情報丨 1だけでなく、 付加情報丨 2も用いているため、 ユーザ II 1が同じ言葉を発した場合でも、 付加情報丨 2次第で異なる制御を 実現できる。 つまり、 「夏」 の起床時と、 「冬」 の起床時とでは、 ユーザ II 1が同じように 「おはよう」 という言葉を発した場合でも、 上述のように機 器 5に対して異なる制御が実行される。 [0088] As described above, according to the device control system 1, the user II 1 only has to say the word "good morning", and the control composed of at least one (here, three) devices 5 is required. It is possible to realize control of the target table 1. Moreover, since the device control system 1 uses not only the command information 1 based on the voice input to the voice input device 2 but also the additional information 2 to control the controlled object 1, the user II 1 Even if they say the same word, different controls can be realized depending on the additional information. In other words, even when User II 1 similarly utters the word “Good morning” when waking up in “Summer” and when waking up in “Winter”, different control is applied to the device 5 as described above. To be executed.
[0089] 上述したコマンド情報丨 1等は一例に過ぎず、 適宜変更が可能である。 例 えば、 「おやすみ」 といった制御ワードが設定されている場合、 就寝時にユ _ザ1) 1が 「おやすみ」 との言葉を発することで、 就寝時用に設定されてい る機器 5の制御を実現できる。 また、 例えば 「いってきます」 、 「ただいま 」 といった制御ワードが設定されている場合、 外出時又は帰宅時にユーザ II 1が 「いってきます」 又は 「ただいま」 との言葉を発することで、 外出時又 は帰宅時用に設定されている機器 5の制御を実現できる。 しかも、 これらの 場合であっても、 機器制御システム 1では、 制御対象丁 1の制御に、 コマン ド情報丨 1だけでなく、 付加情報丨 2も用いているため、 ユーザ II 1が同じ 言葉を発した場合でも、 付加情報丨 2次第で異なる制御を実現できる。 その 結果、 例えば、 「夏」 の就寝時と、 「冬」 の就寝時とでは、 ユーザ II 1が同 じように 「おやすみ」 という言葉を発しただけでも、 機器 5に対して異なる 制御が実行される。 The command information 1 and the like described above are merely examples, and can be changed as appropriate. For example, if a control word such as “Good night” is set, the user 5 ) 1 at the time of going to bed utters the words “Good night” to control the device 5 that is set for bedtime. it can. If a control word such as “I'm coming” or “I'm home” is set, the user II 1 will say “I'm coming” or “I'm home” when going out or coming home, and It is possible to control the device 5 that is set for returning home. Moreover, even in these cases, since the device control system 1 uses not only the command information 1 but also the additional information 2 to control the controlled object 1, the user II 1 uses the same word. Even if it is issued, different control can be realized depending on the additional information. As a result, for example, at the time of sleeping in "summer" and at the time of sleeping in "winter", even if user II 1 just says "Good night", different controls are executed for device 5. To be done.
[0090] ( 3 . 3 ) その他の具体動作例 [0090] (3.3) Other specific operation examples
次に、 機器制御システム 1のその他の具体動作例について説明する。 以下 では、 付加情報丨 2が季節以外の情報を含むことを前提として、 起床したユ _ザリ 1が、 音声入力装置 2に向けて、 制御ワードの 1つである 「おはよう 」 という言葉を発する場合を想定する。 ここでは、 「おはよう」 という言葉
〇 2020/175293 23 卩(:171? 2020 /006636 Next, another specific operation example of the device control system 1 will be described. In the following, assuming that the additional information 丨2 includes information other than the season, the wake-up user 1 utters the word ‘good morning’, which is one of the control words, toward the voice input device 2. Assume Here, the word "good morning" 〇 2020/175 293 23 卩 (:171? 2020 /006636
を含むコマンド情報丨 1 には、 機器 5 1〜 5 5のうち、 「リビング」 にある 機器 5 1〜 5 3の制御に関する 2つの命令候補が対応付けられていることと 仮定する。 It is assumed that the command information 丨1 including the above is associated with two command candidates regarding the control of the devices 5 1 to 5 3 in the “living room” among the devices 5 1 to 5 5.
[0091 ] まず、 1つ目の例として、 付加情報丨 2が 「時間帯」 を単位とする期間情 報として含む場合について説明する。 この場合、 制御部 1 3は、 少なくとも 期間情報に応じて制御命令丨 3を変化させるので、 例えば、 ユーザ II 1が 「 おはよう」 という言葉を発する時間帯が、 6時台 (6時〜 7時) 、 7時台 ( 7時〜 8時) のいずれの時間帯かによって、 制御命令丨 3が変化する。 [0091] First, as a first example, a case will be described in which the additional information 2 is included as period information in units of "time zone". In this case, the control unit 13 changes the control command 3 at least in accordance with the period information. ) And 7 o'clock (7 o'clock to 8 o'clock), the control command 3 changes.
[0092] 2つ目の例として、 付加情報丨 2が入力情報を含む場合について説明する [0092] As a second example, a case where additional information [2] includes input information will be described.
。 この場合、 制御部 1 3は、 少なくとも入力情報に応じて制御命令丨 3を変 化させる。 したがって、 例えば、 ユーザ II 1が 「おはよう」 という言葉を発 するときに、 コントローラ 1 0に設けられている押ボタンが操作されている (つまり入力部 1 4がユーザ II 1の操作に応じた入力信号を受ける) か否か によって、 制御命令丨 3が変化する。 この場合、 例えば、 コントローラ 1 0 において、 入力部 1 4が受ける入力信号に応じた入力情報を含む付加情報 I 2が生成され、 第 2取得部 1 2は、 コントローラ 1 0内で生成された付加情 報丨 2を取得してもよい。 .. In this case, the control unit 13 changes the control command 3 at least according to the input information. Thus, for example, when user II 1 says the word “good morning”, the pushbutton provided on controller 10 is operated (that is, input section 14 responds to user II 1's operation). The control command [3] changes depending on whether or not the signal is received. In this case, for example, the controller 10 generates the additional information I 2 including the input information corresponding to the input signal received by the input unit 14, and the second acquisition unit 12 generates the additional information I 2 generated in the controller 10. You may also get Informational 2.
[0093] 3つ目の例として、 付加情報 I 2が話者情報を含む場合について説明する [0093] As a third example, a case where the additional information I2 includes speaker information will be described.
。 この場合、 制御部 1 3は、 少なくとも話者情報に応じて制御命令丨 3を変 化させる。 したがって、 例えば、 「おはよう」 という言葉を発したユーザ II 1が、 父、 母、 姉又は弟のいずれかによって、 制御命令丨 3が変化する。 こ の場合、 例えば、 音声認識サーバ 3において、 話者情報を含む付加情報 I 2 が生成され、 第 2取得部 1 2は、 音声認識サーバ 3から (制御用サーバ 1 0 〇経由で) 、 付加情報丨 2を取得してもよい。 .. In this case, the control unit 13 changes the control command 3 according to at least the speaker information. Therefore, for example, the user II 1 who utters the word “good morning” changes the control command [3] depending on whether the father, mother, sister, or younger brother. In this case, for example, in the voice recognition server 3, the additional information I 2 including the speaker information is generated, and the second acquisition unit 12 adds the additional information from the voice recognition server 3 (via the control server 100). You may also obtain Information Note 2.
[0094] 4つ目の例として、 付加情報 I 2が状態情報を含む場合について説明する As a fourth example, a case where the additional information I 2 includes state information will be described.
。 この場合、 制御部 1 3は、 少なくとも状態情報に応じて制御命令丨 3を変 化させる。 したがって、 例えば、 「おはよう」 という言葉を発したユーザ II 1の体調の良否によって、 制御命令丨 3が変化する。 この場合、 例えば、 音
〇 2020/175293 24 卩(:171? 2020 /006636 .. In this case, the control unit 13 changes the control command 3 at least according to the state information. Therefore, for example, the control command [3] changes depending on the physical condition of the user II 1 who has issued the word “good morning”. In this case, for example, 〇 2020/175 293 24 卩 (:171? 2020 /006636
声認識サーバ 3において、 状態情報を含む付加情報丨 2が生成され、 第 2取 得部 1 2は、 音声認識サーバ 3から (制御用サーバ 1 0 0経由で) 、 付加情 報丨 2を取得してもよい。 The voice recognition server 3 generates the additional information 2 including the status information, and the second acquisition unit 12 acquires the additional information 2 from the voice recognition server 3 (via the control server 100). You may.
[0095] 以上説明したような動作は、 適宜組み合わせて適用可能である。 The operations described above can be applied in appropriate combination.
[0096] (3 . 4) 設定動作 [0096] (3.4) Setting operation
次に、 設定部 1 6による設定動作 (手動設定モード又は学習モード) につ いて説明する。 本実施形態では、 設定動作において設定される情報は、 少な くともコマンド情報丨 1 と付加情報丨 2と制御命令 I 3との対応関係である 。 さらに、 制御ワード等についても、 設定動作において設定される。 Next, the setting operation (manual setting mode or learning mode) by the setting unit 16 will be described. In the present embodiment, the information set in the setting operation is at least the correspondence relationship between the command information [1], the additional information [2], and the control command I3. Further, the control word and the like are also set in the setting operation.
[0097] 機器制御システム 1は、 特定の事象をトリガにして、 設定動作 (手動設定 モード又は学習モード) を開始する。 本実施形態では一例として、 特定の事 象は、 ユーザリ 1から 「設定モード」 等の特定のキーワードを表す音声が音 声入力装置 2に入力されることである。 ただし、 設定動作を開始するための 特定の事象は、 特定の音声 (言葉) が入力されることに限らず、 例えば、 コ ントローラ 1 0に対する特定の操作等であってもよい。 The device control system 1 starts a setting operation (manual setting mode or learning mode) with a specific event as a trigger. In the present embodiment, as an example, a specific event is that a voice representing a specific keyword such as “setting mode” is input from the user interface 1 to the voice input device 2. However, the specific event for starting the setting operation is not limited to the input of a specific voice (word), and may be, for example, a specific operation for the controller 10.
[0098] 設定部 1 6は、 手動設定モードで設定動作を開始すると、 例えば、 入力部 [0098] When the setting operation is started in the manual setting mode, the setting section 16 returns to the input section, for example.
1 4が受け付けた入力信号、 つまりユーザ II 1の操作に応じた入力信号に従 って、 コマンド情報 I 1 と付加情報丨 2と制御命令 I 3との対応関係を変更 する。 このとき、 ユーザ II 1は、 記憶部 1 7に記憶されている制御リスト上 において、 コマンド情報丨 1及び付加情報丨 2の 1つの組み合わせに対して 、 _の命令候補を対応付ける。 ここで、 設定部 1 6は、 命令候補 (制御命令 丨 3) に含まれている対象特定項目及び内容特定項目の各々を個別に変更可 能である。 また、 設定部 1 6は、 コマンド情報 I 1 と付加情報丨 2と制御命 令丨 3との対応関係を追加してもよいし、 削除してもよい。 設定部 1 6は、 制御リストを変更後、 記憶部 1 7に記憶されている制御リストの更新を行う The correspondence between the command information I 1, the additional information 2, and the control command I 3 is changed according to the input signal accepted by the controller 14, that is, the input signal according to the operation of the user II 1. At this time, the user II 1 associates the instruction candidate _ with one combination of the command information 1 and the additional information 2 on the control list stored in the storage unit 17. Here, the setting unit 16 can individually change each of the target specific item and the content specific item included in the command candidate (control command 3). Also, the setting unit 16 may add or delete the correspondence relationship between the command information I 1, the additional information [2], and the control command [3]. The setting unit 16 updates the control list stored in the storage unit 17 after changing the control list.
[0099] 一方、 設定部 1 6は、 学習モードで設定動作を開始すると、 例えば、 コマ ンド情報丨 1 と付加情報丨 2と制御命令 I 3との対応関係を、 自動的に学習
〇 2020/175293 25 卩(:171? 2020 /006636 On the other hand, when the setting unit 16 starts the setting operation in the learning mode, for example, it automatically learns the correspondence relationship between the command information 1 and the additional information 2 and the control command I 3. 〇 2020/175 293 25 卩 (:171? 2020 /006636
して調整 (変更) する。 具体的には、 設定部 1 6は、 コマンド情報 I 1及び 付加情報丨 2の 1つの組み合わせに対して、 相関の高い機器 5の操作をユー ザ 11 1が行った場合に、 この操作に相当する命令候補を生成し、 制御リスト に追加する。 一例として、 あるコマンド情報丨 1 ( 「おはよう」 ) 及び付加 情報丨 2 ( 「夏」 ) を機器制御システム 1が取得した時点の前及び/又は後 の一定時間 (例えば 1分間) において、 ユーザ II 1が電動シャツタからなる 機器 5 3を 「開」 とする操作を行ったとする。 この場合、 設定部 1 6は、 電 動シャツタからなる機器 5 3を 「開」 とする操作を、 コマンド情報 I 1 ( 「 おはよう」 ) 及び付加情報丨 2 ( 「夏」 ) の組み合わせに対して、 相関の高 い操作として、 この操作に相当する命令候補を生成し、 制御リストに追加す る。 And adjust (change). Specifically, the setting unit 16 corresponds to this operation when the user 11 1 operates the highly correlated device 5 for one combination of the command information I 1 and the additional information 丨2. Generate a command candidate to be added and add it to the control list. As an example, at a certain time (for example, 1 minute) before and/or after the time when the device control system 1 acquired certain command information 1 (“Ohayo”) and additional information 2 (“Summer”), the user II It is assumed that an operation is performed to “open” the device 5 3 in which 1 is an electric shirt. In this case, the setting unit 16 performs the operation of opening the device 5 3 composed of the electric shirt to “open” for the combination of the command information I 1 (“Good morning”) and the additional information 丨 2 (“Summer”). , As a highly correlated operation, an instruction candidate corresponding to this operation is generated and added to the control list.
[0100] または、 設定部 1 6は、 コマンド情報丨 1及び付加情報丨 2の 1つの組み 合わせに対して、 相関の高い機器 5の操作をユーザ II 1が行った場合に、 こ の操作に応じて制御リスト内の命令候補を変更 (削除を含む) する。 一例と して、 あるコマンド情報丨 1 ( 「おはよう」 ) 及び付加情報丨 2 ( 「夏」 ) の組み合わせに対して、 照明器具からなる機器 5 2を点灯させる命令候補が 対応付けられている場合を想定する。 この場合に、 コマンド情報丨 1 ( 「お はよう」 ) 及び付加情報丨 2 ( 「夏」 ) を機器制御システム 1が取得し、 機 器 5 2を点灯させる制御を行った直後 (例えば 1分以内) に、 ユーザ 11 1が 機器 5 2を消灯させる操作を行ったとする。 この場合、 設定部 1 6は、 照明 器具からなる機器 5 2を点灯させる操作を、 コマンド情報 I 1 ( 「おはよう 」 ) 及び付加情報丨 2 ( 「夏」 ) の組み合わせに対して、 相関の高い操作と して、 この操作に応じて命令候補を変更する。 上述のケースでは、 設定部 1 6は、 照明器具からなる機器 5 2を点灯させる命令候補を削除するか、 照明 器具からなる機器 5 2を消灯させる命令候補に変更する。 [0100] Alternatively, when the user II 1 operates the device 5 having a high correlation with respect to one combination of the command information 1 and the additional information 2, the setting unit 16 performs this operation. The instruction candidates in the control list are changed (including deletion) accordingly. As an example, when a combination of certain command information 1 (“Ohayo”) and additional information 2 (“Summer”) is associated with a command candidate for lighting the device 5 2 that is a lighting fixture. Assume In this case, immediately after the device control system 1 obtains the command information 1 (“Good morning”) and the additional information 2 (“Summer”) and controls to turn on the device 52 (for example, 1 minute). Then, the user 11 1 operates to turn off the device 5 2. In this case, the setting unit 16 has a high correlation with the operation of turning on the device 52, which is a lighting fixture, with respect to the combination of the command information I 1 (“Good morning”) and the additional information 丨 2 (“Summer”). As an operation, the instruction candidate is changed according to this operation. In the above-mentioned case, the setting unit 16 deletes the command candidate for turning on the device 52 composed of the lighting equipment or changes the command candidate for turning off the device 52 composed of the lighting equipment.
[0101 ] 学習モードにおいても、 設定部 1 6は、 制御リストを変更後、 記憶部 1 7 に記憶されている制御リストの更新を行う。 [0101] Also in the learning mode, the setting unit 16 updates the control list stored in the storage unit 17 after changing the control list.
[0102] (4) 変形例
〇 2020/175293 26 卩(:171? 2020 /006636 [0102] (4) Modified example 〇 2020/175 293 26 卩 (:171? 2020 /006636
実施形態 1は、 本開示の様々な実施形態の一つに過ぎない。 実施形態 1は 、 本開示の目的を達成できれば、 設計等に応じて種々の変更が可能である。 本開示において説明する各図は、 模式的な図であり、 各図中の各構成要素の 大きさ及び厚さそれそれの比が、 必ずしも実際の寸法比を反映しているとは 限らない。 また、 実施形態 1 に係る機器制御システム 1 と同様の機能は、 機 器制御方法、 コンビュータプログラム、 又はコンビュータプログラムを記録 した非一時的記録媒体等で具現化されてもよい。 一態様に係る機器制御方法 は、 第 1取得処理 (図 3の 「3 3」 に相当) と、 第 2取得処理 (図 3の 「 3 4」 に相当) と、 制御処理 (図 3の 「3 5〜3 9」 に相当) と、 を有する。 第 1取得処理は、 コマンド情報丨 1 を取得する処理である。 コマンド情報丨 1は、 音声入力装置 2に入力された音声の認識結果に関する情報である。 第 2取得処理は、 付加情報 I 2を取得する処理である。 付加情報 I 2は、 コマ ンド情報丨 1 とは別の情報からなる。 制御処理は、 コマンド情報丨 1 と付加 情報丨 2との両方に基づく制御命令丨 3により、 少なくとも 1つの機器 5か らなる制御対象丁 1 を制御する処理である。 一態様に係る (コンピュータ) プログラムは、 上記の機器制御方法を、 1以上のプロセッサに実行させるた めのプログラムである。 Embodiment 1 is only one of the various embodiments of the present disclosure. The first embodiment can be variously modified according to the design and the like as long as the object of the present disclosure can be achieved. Each drawing described in the present disclosure is a schematic drawing, and the sizes and thicknesses of the respective constituent elements in the drawings do not necessarily reflect the actual dimensional ratios. Further, the same function as that of the device control system 1 according to the first embodiment may be embodied by a device control method, a computer program, or a non-transitory recording medium in which the computer program is recorded. The device control method according to one aspect includes a first acquisition process (corresponding to “3 3” in FIG. 3), a second acquisition process (corresponding to “3 4” in FIG. 3), and a control process (corresponding to “3 4” in FIG. 3). Equivalent to 3-5 to 39”) and. The first acquisition process is a process for acquiring command information [1]. Command information 1 is information about the recognition result of the voice input to the voice input device 2. The second acquisition process is a process of acquiring the additional information I 2. The additional information I 2 includes information different from the command information 1. The control process is a process for controlling the controlled object manual 1 consisting of at least one device 5 by the control command [3] based on both the command information [1] and the additional information [2]. A (computer) program according to an aspect is a program for causing one or more processors to execute the device control method.
[0103] 以下、 実施形態 1の変形例を列挙する。 以下に説明する変形例は、 適宜組 み合わせて適用可能である。 [0103] Hereinafter, modifications of the first embodiment will be listed. The modified examples described below can be applied in appropriate combination.
[0104] 本開示における機器制御システム 1は、 例えば、 制御用サーバ 1 〇〇及び コントローラ 1 0に、 コンピュータシステムを含んでいる。 コンピュータシ ステムは、 ハードウエアとしてのプロセッサ及びメモリを主構成とする。 コ ンピュータシステムのメモリに記録されたプログラムをプロセッサが実行す ることによって、 本開示における機器制御システム 1 としての機能が実現さ れる。 プログラムは、 コンビュータシステムのメモリに予め記録されてもよ く、 電気通信回線を通じて提供されてもよく、 コンピュータシステムで読み 取り可能なメモリカード、 光学ディスク、 ハードディスクドライブ等の非一 時的記録媒体に記録されて提供されてもよい。 コンピュータシステムのプロ
セッサは、 半導体集積回路 ( 1 C) 又は大規模集積回路 (LS I ) を含む 1 ないし複数の電子回路で構成される。 ここでいう 丨 C又は LS 丨等の集積回 路は、 集積の度合いによって呼び方が異なっており、 システム LS I、 VL S I (Very Large Scale Integration) 、 又は U LS I (Ultra Large Scale Integration) と呼ばれる集積回路を含む。 さらに、 LS Iの製造後にプロ グラムされる、 F PGA (Field-Programmable Gate Array) 、 又は LS 丨 内 部の接合関係の再構成若しくは LS I 内部の回路区画の再構成が可能な論理 デバイスについても、 プロセッサとして採用することができる。 複数の電子 回路は、 1つのチップに集約されていてもよいし、 複数のチップに分散して 設けられていてもよい。 複数のチップは、 1つの装置に集約されていてもよ いし、 複数の装置に分散して設けられていてもよい。 ここでいうコンピュー タシステムは、 1以上のプロセッサ及び 1以上のメモリを有するマイクロコ ントローラを含む。 したがって、 マイクロコントローラについても、 半導体 集積回路又は大規模集積回路を含む 1ないし複数の電子回路で構成される。 The device control system 1 according to the present disclosure includes a computer system in the control server 100 and the controller 10, for example. The computer system mainly has a processor and a memory as hardware. The function as the device control system 1 according to the present disclosure is realized by the processor executing the program recorded in the memory of the computer system. The program may be pre-recorded in the memory of the computer system or may be provided through a telecommunication line, and may be recorded on a non-transitory recording medium such as a memory card, an optical disk, a hard disk drive, etc. which is readable by the computer system. It may be recorded and provided. Computer system professional A sessa is composed of one or more electronic circuits including a semiconductor integrated circuit (1 C) or a large scale integrated circuit (LS I ). The integration circuits such as C and LS are referred to by the degree of integration as system LS I, VL SI (Very Large Scale Integration), or U LS I (Ultra Large Scale Integration). Called integrated circuit. In addition, for F PGAs (Field-Programmable Gate Arrays) or logic devices that can be reconfigured with the junction relationship inside the LS or the reconfiguration of the circuit section inside the LSI, which is programmed after manufacturing the LSI. , Can be adopted as a processor. The plurality of electronic circuits may be integrated in one chip or may be distributed and provided in the plurality of chips. The plurality of chips may be integrated in one device or may be distributed and provided in the plurality of devices. As used herein, a computer system includes a microcontroller with one or more processors and one or more memories. Therefore, the microcontroller is also composed of one or more electronic circuits including semiconductor integrated circuits or large-scale integrated circuits.
[0105] また、 機器制御システム 1の少なくとも一部の機能が、 1つの筐体内に集 約されていることは機器制御システム 1 に必須の構成ではなく、 機器制御シ ステム 1の構成要素は、 複数の筐体に分散して設けられていてもよい。 例え ば、 機器制御システム 1のうちの第 2取得部 1 2は、 第 1取得部 1 1 と同じ コントローラ 1 0の筐体に集約されている必要はなく、 第 1取得部 1 1 とは 別の筐体に設けられていてもよい。 さらに、 機器制御システム 1の少なくと も一部の機能、 例えば、 制御部 1 3の機能が、 複数の筐体に分散して設けら れてもよいし、 クラウド (クラウドコンピューティング) 等によって実現さ れてもよい。 [0105] Further, it is not an essential configuration of the device control system 1 that at least a part of the functions of the device control system 1 are integrated in one housing, and the components of the device control system 1 are It may be distributed and provided in a plurality of housings. For example, the second acquisition unit 12 of the device control system 1 does not have to be integrated in the same housing of the controller 10 as the first acquisition unit 11 and is different from the first acquisition unit 11. It may be provided in the housing. Furthermore, at least a part of the functions of the device control system 1, for example, the functions of the control unit 13 may be distributed and provided in multiple housings, or realized by cloud (cloud computing) or the like. You may touch it.
[0106] 反対に、 実施形態 1 において、 複数の装置に分散されている少なくとも一 部の機能が、 1つの筐体内に集約されていてもよい。 例えば、 制御用サーバ 1 00とコントローラ 1 0とに分散されている機能が、 1つの筐体内に集約 されていてもよい。 [0106] On the contrary, in the first embodiment, at least a part of the functions distributed to the plurality of devices may be integrated in one housing. For example, the functions distributed to the control server 100 and the controller 10 may be integrated in one housing.
[0107] また、 付加情報 I 2に含まれ得る種々の情報を生成する情報生成部 1 9は
〇 2020/175293 28 卩(:171? 2020 /006636 [0107] Further, the information generation unit 19 that generates various information that can be included in the additional information I 2 is 〇 2020/175 293 28 卩 (:171? 2020 /006636
、 制御用サーバ 1 〇〇に設けられる構成に限らず、 例えば、 コントローラ 1 0に設けられていてもよいし、 機器制御システム 1以外の装置に設けられて いてもよい。 例えば、 付加情報丨 2が入力情報を含む場合、 情報生成部 1 9 は、 コントローラ 1 0に設けられていてもよい。 この場合、 情報生成部 1 9 は、 コントローラ 1 0において入力部 1 4が受ける入力信号に応じた入力情 報を含む付加情報丨 2を生成し、 第 2取得部 1 2は、 コントローラ 1 0内で 生成された付加情報丨 2を取得する。 また、 例えば、 付加情報 I 2が話者情 報を含む場合、 情報生成部 1 9は、 音声認識サーバ 3に設けられていてもよ い。 この場合、 情報生成部 1 9は、 音声認識サーバ 3において話者情報を含 む付加情報丨 2を生成し、 第 2取得部 1 2は、 音声認識サーバ 3から、 (制 御用サーバ 1 〇〇経由で) 話者情報を含む付加情報丨 2を取得する。 また、 例えば、 付加情報丨 2が状態情報を含む場合、 情報生成部 1 9は、 音声認識 サーバ 3に設けられていてもよい。 この場合、 情報生成部 1 9は、 音声認識 サーバ 3において状態情報を含む付加情報 I 2を生成し、 第 2取得部 1 2は 、 音声認識サーバ 3から、 (制御用サーバ 1 0 0経由で) 状態情報を含む付 加情報丨 2を取得する。 Not limited to the configuration provided in the control server 100, it may be provided in the controller 10 or may be provided in a device other than the device control system 1, for example. For example, when the additional information item 2 includes input information, the information generation unit 19 may be provided in the controller 10. In this case, the information generation unit 19 generates the additional information section 2 including the input information corresponding to the input signal received by the input section 14 in the controller 10, and the second acquisition section 12 stores the additional information in the controller 10. Acquire the additional information 2 generated in. Further, for example, when the additional information I 2 includes the speaker information, the information generation unit 19 may be provided in the voice recognition server 3. In this case, the information generation unit 19 generates the additional information [2] including the speaker information in the speech recognition server 3, and the second acquisition unit 12 causes the speech recognition server 3 to (the control server 1 Acquire additional information (2) including speaker information. In addition, for example, when the additional information item 2 includes state information, the information generation unit 19 may be provided in the voice recognition server 3. In this case, the information generation unit 19 generates the additional information I 2 including the state information in the voice recognition server 3, and the second acquisition unit 12 outputs the additional information I 2 from the voice recognition server 3 (via the control server 100). ) Acquire additional information 2 including status information.
[0108] また、 制御対象丁 1 となり得る機器 5は、 機器制御システム 1からの制御 命令を受けて制御される機器であればよく、 空調機器、 照明器具及び電動シ ヤツタ等に限らない。 例えば、 機器 5は、 インターホン装置、 テレビジョン 受像機、 洗濯機、 冷蔵庫、 複合機、 電気錠、 太陽光発電設備、 蓄電設備、 配 線器具、 電動車両用充電器及び携帯端末等であってもよい。 さらに、 制御対 象丁 1 としての機器 5が分岐ブレーカ又は壁スイツチ等の配線器具である場 合には、 機器制御システム 1は、 制御対象丁 1 としての機器 5を制御するこ とで、 分岐回路等の回路単位で通電状態を制御することができる。 [0108] The device 5 that can be the controlled object 1 is only required to be a device that is controlled in response to a control command from the device control system 1, and is not limited to an air conditioner, a lighting fixture, an electric shutter, or the like. For example, even if the device 5 is an intercom device, a television receiver, a washing machine, a refrigerator, a multifunction device, an electric lock, a solar power generation facility, a power storage facility, a wiring device, a charger for an electric vehicle, a mobile terminal, etc. Good. Further, when the device 5 as the control target knife 1 is a wiring device such as a branch breaker or a wall switch, the device control system 1 controls the device 5 as the controlled target knife 1 to branch the device. The energization state can be controlled for each circuit such as a circuit.
[0109] また、 実施形態 1では、 登録ワード (音響モデル及び認識辞書等を含む) は、 音声入力装置 2に記憶されているが、 この構成は機器制御システム 1 に 必須の構成ではない。 例えば、 登録ワード (音響モデル及び認識辞書等を含 む) は、 音声認識サーバ 3に記憶されていてもよい。 この場合、 音声入力装
置 2は、 スタンドアローンで動作するのではなく、 音声認識サーバ 3と連携 して音声認識を実行する。 Further, in the first embodiment, the registered words (including the acoustic model, the recognition dictionary, etc.) are stored in the voice input device 2, but this configuration is not essential for the device control system 1. For example, the registered words (including the acoustic model and the recognition dictionary) may be stored in the voice recognition server 3. In this case, the audio input device Unit 2 does not operate stand-alone, but executes voice recognition in cooperation with voice recognition server 3.
[01 10] また、 実施形態 1では、 付加情報丨 2は、 外部情報と内部情報とのうちの 外部情報のみを含むが、 これに限らず、 付加情報丨 2は、 外部情報と内部情 報との両方を含んでもよい。 さらにまた、 付加情報丨 2は、 外部情報を含ま ず、 外部情報と内部情報とのうちの内部情報のみを含んでもよい。 [0110] Further, in the first embodiment, the additional information [2] includes only the external information of the external information and the internal information, but the present invention is not limited to this, and the additional information [2] includes the external information and the internal information. And both may be included. Furthermore, the additional information [2] may not include external information, and may include only internal information of external information and internal information.
[01 1 1 ] また、 付加情報丨 2は、 入力情報、 期間情報、 話者情報及び状態情報に加 えて又は代えて、 例えば、 気象情報及び要求情報等の外部情報を含んでいて もよい。 ここでいう気象情報は、 施設 F 1の周辺の気象に関する情報であっ て、 例えば、 天気、 外気温及び花粉の飛散量等の情報である。 要求情報は、 例えば、 電気事業者 (電力会社等) が発行するピークカッ ト及びピークシフ 卜等を需要家に求めるための情報である。 気象情報及び要求情報は、 それぞ れ気象サーバ及び電気事業者のサーバ等から、 制御用サーバ 1 0 0又はコン トローラ 1 0が取得する。 Further, the additional information [2] may include external information such as weather information and request information in addition to or in place of the input information, the period information, the speaker information, and the state information. The meteorological information mentioned here is information on the weather around the facility F 1, and is, for example, information on the weather, the outside temperature, and the amount of pollen scattered. The request information is, for example, information for demanding peak cuts, peak shifts, etc. from electric power companies (electric power companies, etc.). The weather information and the requested information are acquired by the control server 100 or the controller 10 from the weather server and the server of the electric utility, respectively.
[01 12] また、 機器制御システム 1で用いられる各通信方式は、 実施形態 1で例示 した通信方式に限らず、 適宜変更可能である。 例えば、 コントローラ 1 0 ( 通信部 1 8) と、 制御対象 T 1 との間の通信方式は、 無線通信に限らず、 有 線 L A N (Loca l Area Network) 等の通信規格に準拠した有線通信であって もよい。 Further, each communication method used in the device control system 1 is not limited to the communication method exemplified in the first embodiment, and can be changed as appropriate. For example, the communication method between the controller 10 (communication unit 18) and the control target T 1 is not limited to wireless communication, but wired communication conforming to a communication standard such as a wired LAN (Local Area Network). It may be.
[01 13] また、 設定部 1 6が、 通常モードと、 手動設定モードと、 学習モードと、 の 3つのモードを有することは、 機器制御システム 1 に必須の構成ではなく 、 例えば、 学習モードのみを有していてもよい。 [0113] It is not essential for the device control system 1 that the setting unit 16 has the three modes of the normal mode, the manual setting mode, and the learning mode. For example, only the learning mode is available. May have.
[01 14] また、 付加情報 I 2は、 施設 F 1の状態に関する施設情報を含んでいても よい。 ここでいう施設 F 1の状態は、 例えば、 施設 F 1の開口部 (扉及び窓 等) の開閉状態及び施解錠状態、 並びに施設 F 1 における人の在否状態を含 む。 人の在否状態は、 例えば、 施設 F 1 に居る人の属性 (年齢、 性別等) も 含む。 この場合、 制御部 1 3は、 少なくとも施設情報に応じて制御命令丨 3 を変化させる。 したがって、 例えば、 ユーザ U 1が 「おはよう」 という言葉
〇 2020/175293 30 卩(:171? 2020 /006636 [0114] Further, the additional information I2 may include facility information regarding the state of the facility F1. The state of the facility F 1 here includes, for example, the opening/closing state and the locked/unlocked state of the openings (doors and windows, etc.) of the facility F 1, and the presence/absence of a person in the facility F 1. The presence/absence status of a person also includes, for example, the attributes (age, gender, etc.) of the person at the facility F 1. In this case, the control unit 13 changes the control command 3 according to at least the facility information. So, for example, user U 1 says the words "good morning." 〇 2020/175 293 30 卩 (:171? 2020 /006636
を発するときに、 施設 1 に大人が居るか居ない (つまり 「姉」 及び 「弟」 しか居ない) かによって、 制御命令丨 3が変化する。 Control command 3 changes depending on whether there is an adult in facility 1 when the is issued (that is, there are only “sister” and “younger brother”).
[01 15] (実施形態 2) [0115] (Embodiment 2)
本実施形態に係る機器制御システム 1 は、 図 5に示すように、 制御用サ —バ 1 〇〇八からコントローラ 1 0八に制御命令丨 3が送信される点で、 実 施形態 1 に係る機器制御システム 1 と相違する。 以下、 実施形態 1 と同様の 構成については共通の符号を付して適宜説明を省略する。 As shown in FIG. 5, the device control system 1 according to the present embodiment relates to the first embodiment in that the control server 10.8 sends a control command 3 to the controller 108. Different from the device control system 1. Hereinafter, the same components as those in the first embodiment will be denoted by the same reference numerals and the description thereof will be appropriately omitted.
[01 16] 本実施形態では、 第 1取得部 1 1 (図 2参照) 、 第 2取得部 1 2 (図 2参 照) 及び制御部 1 3 (図 2参照) は、 コントローラ 1 〇八ではなく、 制御用 サーバ 1 〇〇八に設けられている。 コントローラ 1 〇八は、 制御用サーバ 1 0 0 から受信した制御命令 I 3を、 制御対象丁 1 としての機器 5に送信 ( 転送) することで、 機器 5の制御を実現する。 In the present embodiment, the first acquisition unit 11 (see FIG. 2), the second acquisition unit 12 (see FIG. 2) and the control unit 13 (see FIG. 2) are not included in the controller 108. Instead, it is installed on the control server 1008. The controller 108 realizes the control of the device 5 by transmitting (transferring) the control command I 3 received from the control server 100 to the device 5 as the controlled object.
[01 17] 本実施形態に係る機器制御システム 1 八においては、 例えば、 図 5に示す ように、 音声認識サーバ 3は、 「おはよう」 という言葉を含む認識結果を受 信すると、 認識結果に基づいて、 コマンド情報 I 1 を生成する。 音声認識サ —バ 3が生成するコマンド情報 I 1は、 例えば、 一例として、 空調機器から なる機器 5 1 をオンすることを示す 「空調オン」 という項目を含む。 このコ マンド情報丨 1は、 音声認識サーバ 3が、 音声入力装置 2から受信した認識 結果に基づいて生成する情報である。 つまり、 「おはよう」 という言葉を含 む認識結果には、 「空調オン」 という項目を含むコマンド情報丨 1が対応付 けられており、 音声認識サーバ 3は、 この対応関係に基づいて、 コマンド情 報丨 1 を生成する。 In the device control system 18 according to the present embodiment, for example, as shown in FIG. 5, when the voice recognition server 3 receives the recognition result including the word “Ohayo”, based on the recognition result. Command information I 1 is generated. For example, the command information I 1 generated by the voice recognition server 3 includes, for example, an item “air conditioning on” indicating that the device 5 1 including an air conditioning device is turned on. The command information 1 is information generated by the voice recognition server 3 based on the recognition result received from the voice input device 2. In other words, the recognition result including the word "Ohayo" is associated with the command information 1 including the item "Air conditioning on", and the voice recognition server 3 uses the command information based on this correspondence. Generate a reward 1.
[01 18] 音声認識サーバ 3は、 生成したコマンド情報丨 1 を、 制御用サーバ 1 0 0 八に送信する。 コマンド情報 I 1 ( 「空調オン」 ) を受信した制御用サーバ 1 0 0 は、 情報生成部 1 9にて、 付加情報丨 2に含まれ得る種々の情報を 生成する。 例えば、 付加情報丨 2が、 季節を示す期間情報を含む場合、 情報 生成部 1 9は、 現在時刻 (月日も含む) に従って現在の季節が春、 夏、 秋、 冬のいずれであるかを示す期間情報を生成する (図 5の例では 「夏」 ) 。 制
〇 2020/175293 31 卩(:171? 2020 /006636 [0118] The voice recognition server 3 transmits the generated command information 1 to the control server 1008. The control server 100, which has received the command information I 1 (“air conditioning on”), causes the information generation unit 19 to generate various information that can be included in the additional information [2]. For example, when the additional information 丨 2 includes period information indicating a season, the information generation unit 19 determines whether the current season is spring, summer, autumn, or winter according to the current time (including month and day). Generate the period information shown (“Summer” in the example in Figure 5). Control 〇 2020/175 293 31 卩 (:171? 2020 /006636
御用サーバ 1 〇〇八の第1取得部1 1及び第 2取得部 1 2は、 それぞれコマ ンド情報丨 1及び付加情報丨 2を取得する。 そして、 制御用サーバ 1 〇〇八 は、 制御部 1 3にて、 コマンド情報 I 1 ( 「空調オン」 ) 及び付加情報丨 2 ( 「夏」 ) に基づく制御命令丨 3を生成する。 ここでは一例として、 制御命 令丨 3は、 空調機器からなる機器 5 1 を制御対象丁 1 とし、 かつ制御対象丁 1 (機器 5 1) の動作モードを 「冷房」 とするための、 対象特定項目及び内 容特定項目を含む。 制御用サーバ 1 〇〇八は、 このような制御命令丨 3をコ ントローラ 1 0八に送信する。 The first acquisition unit 11 and the second acquisition unit 12 of the service server 1008 acquire the command information 1 and the additional information 2, respectively. Then, the control server 1008 causes the control unit 13 to generate a control command 3 based on the command information I 1 (“air conditioning on”) and the additional information 2 (“summer”). Here, as an example, the control command 3 specifies the device 51, which is an air conditioner, as the control target switch 1 and sets the operation mode of the control target switch 1 (device 5 1) to “cooling”. Includes items and content specific items. The control server 1008 transmits such a control command 3 to the controller 108.
[01 19] これにより、 コントローラ 1 〇八は、 制御命令丨 3に従って機器 5の制御 を実行する。 その結果、 一例として、 空調機器からなる機器 5 1は動作モー ドが 「冷房」 でオンすることになる。 [01 19] As a result, the controller 108 executes control of the device 5 in accordance with the control command [3]. As a result, as an example, the device 51, which is an air conditioner, is turned on when the operation mode is “cooling”.
[0120] また、 実施形態 2に係る機器制御システム 1 八において、 空調機器からな る機器 5 1 を制御対象丁 1 とすることは必須の構成ではなく、 例えば、 2つ 以上の機器 5を制御対象丁 1 としてもよい。 [0120] In the device control system 18 according to the second embodiment, it is not an indispensable configuration to set the device 5 1 consisting of an air conditioner as a control target, and for example, control of two or more devices 5 is possible. It can also be the target Ding 1.
[0121 ] 実施形態 2で説明した種々の構成 (変形例を含む) は、 実施形態 1で説明 した種々の構成 (変形例を含む) と適宜組み合わせて採用可能である。 [0121] The various configurations (including modified examples) described in the second embodiment can be appropriately combined with the various configurations (including modified examples) described in the first embodiment.
[0122] (まとめ) [0122] (Summary)
以上説明したように、 第 1の態様に係る機器制御システム ( 1 , 1 八) は 、 第 1取得部 (1 1) と、 第 2取得部 (1 2) と、 制御部 (1 3) と、 を備 える。 第 1取得部 ( 1 1) は、 コマンド情報 (丨 1) を取得する。 コマンド 情報 (丨 1) は、 音声入力装置 (2) に入力された音声の認識結果に関する 情報である。 第 2取得部 (1 2) は、 付加情報 ( I 2) を取得する。 付加情 幸艮 ( I 2) は、 コマンド情報 ( 1 1) とは別の情報からなる。 制御部 (1 3 ) は、 コマンド情報 ( 1 1) と付加情報 ( I 2) との両方に基づく制御命令 ( I 3) により、 少なくとも 1つの機器 (5) からなる制御対象 (丁 1) を 制御する。 As described above, the device control system (1, 18) according to the first aspect includes the first acquisition unit (1 1), the second acquisition unit (1 2), and the control unit (1 3). ,. The first acquisition unit (11) acquires command information (丨1). The command information (1) is the information about the recognition result of the voice input to the voice input device (2). The second acquisition unit (1 2) acquires the additional information (I 2). The additional information (I 2) consists of information other than the command information (11). The control unit (1 3) uses the control command (I 3) based on both the command information (1 1) and the additional information (I 2) to select the controlled object (D 1) including at least one device (5). Control.
[0123] この態様によれば、 制御対象 (丁 1) の制御に、 音声入力装置 (2) に入 力された音声に基づくコマンド情報 (丨 1) だけでなく、 コマンド情報 ( I
〇 2020/175293 32 卩(:171? 2020 /006636 [0123] According to this aspect, not only the command information (丨1) based on the voice input to the voice input device (2) but also the command information (I 〇 2020/175 293 32 卩 (:171? 2020 /006636
1) とは別の付加情報 (丨 2) が用いられる。 そのため、 例えば、 音声入力 装置 (2) に入力される音声が同じ場合であっても、 少なくとも 1つの機器 (5) からなる制御対象 (丁 1) に対しては、 一義的ではなく、 付加情報 ( I 2) 次第で異なる制御がなされる。 したがって、 機器制御システム (1 ,Additional information (1) different from 1) is used. Therefore, for example, even if the voice input to the voice input device (2) is the same, it is not unique to the control target (Ding 1) that consists of at least one device (5), and additional information (I 2) Different controls are performed. Therefore, the equipment control system (1,
1 八) によれば、 ユーザ (II 1) が同じように発話した場合でも機器 (5) を柔軟に制御可能である、 という利点がある。 18) has the advantage that the device (5) can be flexibly controlled even when the user (II 1) speaks in the same way.
[0124] 第 2の態様に係る機器制御システム ( 1 , 1 八) では、 第 1の態様におい て、 付加情報 (丨 2) は、 ユーザ (II 1) の操作に応じて変化する入力情報 を含む。 制御部 (1 3) は、 少なくとも入力情報に応じて制御命令 (丨 3) を変化させる。 [0124] In the device control system (1, 18) according to the second aspect, in the first aspect, the additional information ([2]) is the input information that changes according to the operation of the user (II 1). Including. The control section (1 3) changes the control command (3) according to at least the input information.
[0125] この態様によれば、 ユーザ (11 1) が同じように発話した場合でも、 ユー ザ (11 1) の操作次第で、 機器 (5) に対して異なる制御を実現できる。 According to this aspect, even when the user (11 1) speaks similarly, different controls can be realized for the device (5) depending on the operation of the user (11 1 ).
[0126] 第 3の態様に係る機器制御システム ( 1 , 1 八) では、 第 1又は 2の態様 において、 付加情報 (丨 2) は、 期間に関する期間情報を含む。 制御部 (1 3) は、 少なくとも期間情報に応じて制御命令 (丨 3) を変化させる。 [0126] In the device control system (1, 18) according to the third aspect, in the first or second aspect, the additional information ([2]) includes period information regarding a period. The control unit (1 3) changes the control command (3) according to at least the period information.
[0127] この態様によれば、 ユーザ (11 1) が同じように発話した場合でも、 例え ば、 季節又は時間帯等の期間次第で、 機器 (5) に対して異なる制御を実現 できる。 According to this aspect, even when the user (11 1) speaks in the same way, different control can be realized for the device (5) depending on the period such as the season or the time zone.
[0128] 第 4の態様に係る機器制御システム ( 1 , 1 八) では、 第 1〜 3のいずれ かの態様において、 付加情報 (丨 2) は、 音声入力装置 (2) に入力された 音声を発した話者に関する話者情報を含む。 制御部 (1 3) は、 少なくとも 話者情報に応じて制御命令 (丨 3) を変化させる。 [0128] In the device control system (1, 18) according to the fourth aspect, in any one of the first to third aspects, the additional information ([2]) is the voice input to the voice input device (2). Includes speaker information about the speaker who issued the. The control unit (1 3) changes the control command (3) according to at least the speaker information.
[0129] この態様によれば、 ユーザ (11 1) が同じように発話した場合でも、 話者 によって、 機器 (5) に対して異なる制御を実現できる。 According to this aspect, even when the user (11 1) speaks in the same manner, different controls can be realized for the device (5) depending on the speaker.
[0130] 第 5の態様に係る機器制御システム ( 1 , 1 八) では、 第 1〜 4のいずれ かの態様において、 付加情報 (丨 2) は、 コマンド情報 ( 1 1) から独立し た外部情報を含む。 [0130] In the device control system (1, 18) according to the fifth aspect, in any one of the first to fourth aspects, the additional information (丨2) is an external information independent from the command information (11). Contains information.
[0131 ] この態様によれば、 付加情報 (丨 2) に含まれる外部情報は、 コマンド情
〇 2020/175293 33 卩(:171? 2020 /006636 [0131] According to this aspect, the external information included in the additional information ([2]) is the command information. 〇 2020/175 293 33 卩 (:171? 2020 /006636
報 (丨 1) に依存しないため、 コマンド情報 (丨 1) と付加情報 (丨 2) と の組み合わせにより、 多様な制御を実現できる。 Since it does not depend on the information ([1]), various controls can be realized by combining the command information ([1]) and the additional information ([2]).
[0132] 第 6の態様に係る機器制御システム ( 1 , 1 八) では、 第 1〜 5のいずれ かの態様において、 付加情報 (丨 2) は、 状態情報を含む。 状態情報は、 音 声入力装置 (2) に入力された音声から抽出され、 音声を発した話者の状態 に関連する情報である。 制御部 (1 3) は、 少なくとも状態情報に応じて制 御命令 ( I 3) を変化させる。 [0132] In the device control system (1, 18) according to the sixth aspect, in any one of the first to fifth aspects, the additional information ([2]) includes state information. The state information is information that is extracted from the voice input to the voice input device (2) and is related to the state of the speaker who uttered the voice. The control unit (13) changes the control command (I3) at least according to the status information.
[0133] この態様によれば、 ユーザ (11 1) が同じように発話した場合でも、 話者 の状態次第で、 機器 (5) に対して異なる制御を実現できる。 According to this aspect, even when the user (11 1) utters the same, different control can be realized for the device (5) depending on the state of the speaker.
[0134] 第 7の態様に係る機器制御システム ( 1 , 1 八) では、 第 1〜 6のいずれ かの態様において、 制御命令 ( I 3) は、 対象特定項目と、 内容特定項目と 、 を含む。 対象特定項目は、 複数の機器 (5) のうちの制御対象 (丁 1) と なる少なくとも 1つの機器 (5) を特定する。 内容特定項目は、 制御対象 ( 丁 1) の動作を特定する。 制御部 (1 3) は、 コマンド情報 ( 1 1) 及び付 加情報 (丨 2) との両方に基づいて、 対象特定項目及び内容特定項目を決定 する。 [0134] In the device control system (1, 18) according to the seventh aspect, in any one of the first to sixth aspects, the control instruction (I3) includes a target specific item and a content specific item. Including. The target specification item specifies at least one device (5) that is a control target (Ding 1) among a plurality of devices (5). The content specific item specifies the operation of the control target (Ding 1). The control unit (13) determines the target specific item and the content specific item based on both the command information (11) and the additional information (丨2).
[0135] この態様によれば、 制御命令 (丨 3) により、 いずれの機器 (5) を、 ど のように制御するのか、 を規定することが可能である。 [0135] According to this aspect, it is possible to define which device (5) is to be controlled and which device (5) is to be controlled by the control command (3).
[0136] 第 8の態様に係る機器制御システム ( 1 , 1 八) では、 第 1〜 7のいずれ かの態様において、 制御部 (1 3) は、 コマンド情報 ( 1 1) と付加情報 ( I 2) との両方に基づいて、 複数の機器 (5) の中から 2つ以上の機器 (5 ) を制御対象 (丁 1) として選択する。 [0136] In the device control system (1, 18) according to the eighth aspect, in any one of the first to seventh aspects, the control unit (13) includes the command information (11) and the additional information (I). 2) and two or more devices (5) are selected as the control target (Ding 1) from the multiple devices (5) based on both.
[0137] この態様によれば、 2つ以上の機器 (5) をまとめて制御することが可能 である。 According to this aspect, it is possible to collectively control two or more devices (5).
[0138] 第 9の態様に係る機器制御システム ( 1 , 1 八) では、 第 1〜 8のいずれ かの態様において、 制御部 (1 3) は、 1つのコマンド情報 ( 1 1) に対応 付けられている複数の命令候補の中から、 付加情報 (丨 2) に基づいて一の 命令候補を選択する。 制御部 (1 3) は、 _の命令候補を制御命令 ( I 3)
〇 2020/175293 34 卩(:171? 2020 /006636 [0138] In the device control system (1, 18) according to the ninth aspect, in any one of the first to eighth aspects, the control unit (13) is associated with one command information (11). One instruction candidate is selected from among the plurality of instruction candidates that are provided, based on the additional information (see 2). The control unit (1 3) controls the instruction candidate of _ as a control instruction (I 3) 〇 2020/175 293 34 卩 (:171? 2020 /006636
として制御対象 (丁 1) を制御する。 As the control target (Ding 1).
[0139] この態様によれば、 複数の命令候補の中からコマンド情報 (丨 1) にて命 令候補の絞り込みを行い、 更に付加情報 (丨 2) に基づいて一の命令候補を 選択することができ、 一の命令候補を選択する処理負荷の低減を図ることが できる。 [0139] According to this aspect, command candidates are narrowed down from the plurality of command candidates by the command information ([1]), and one command candidate is selected based on the additional information ([2]). Therefore, the processing load for selecting one instruction candidate can be reduced.
[0140] 第 1 0の態様に係る機器制御システム ( 1 , 1 八) では、 第 9の態様にお いて、 制御部 (1 3) は、 付加情報 ( I 2) が判定条件を満たした場合に、 半〇定条件に従って一の命令候補を選択する。 制御部 (1 3) は、 付加情報 ( I 2) が判定条件を満たさない場合に、 複数の命令候補の中のデフォルトの 命令候補を選択し、 デフォルトの命令候補を制御命令 ( I 3) として制御対 象 (丁 1) を制御する。 [0140] In the device control system (1, 18) according to the tenth aspect, in the ninth aspect, the control unit (13) determines that the additional information (I2) satisfies the determination condition. Then, one instruction candidate is selected according to the semi-fixed condition. When the additional information (I 2) does not satisfy the judgment condition, the control unit (1 3) selects a default instruction candidate from a plurality of instruction candidates and sets the default instruction candidate as a control instruction (I 3). Control the control target (Ding 1).
[0141 ] この態様によれば、 付加情報 (丨 2) による命令候補の絞り込みができな い場合であっても、 デフォルトの命令候補を制御命令 (丨 3) として採用す ることにより、 制御対象 (丁 1) の制御が可能となる。 [0141] According to this aspect, even if the instruction candidates cannot be narrowed down by the additional information ([2]), by adopting the default instruction candidates as the control instruction ([3]), the control target can be controlled. (1) can be controlled.
[0142] 第 1 1の態様に係る機器制御システム ( 1 , 1 八) は、 第 1〜 1 0のいず れかの態様において、 設定部 (1 6) を更に備える。 設定部 (1 6) は、 コ マンド情報 (丨 1) と付加情報 (丨 2) と制御命令 ( I 3) との対応関係を 設定する。 [0142] The device control system (1, 18) according to the eleventh aspect further includes a setting unit (16) in any one of the first to tenth aspects. The setting unit (16) sets the correspondence between the command information ([1]), additional information ([2]) and the control command (I3).
[0143] この態様によれば、 コマンド情報 ( 1 1) と付加情報 (丨 2) と制御命令 ( I 3) との対応関係を変更することができる。 According to this aspect, it is possible to change the correspondence between the command information (11), the additional information (丨2), and the control command (I3).
[0144] 第 1 2の態様に係る機器制御システム ( 1 , 1 八) では、 第 1 1の態様に おいて、 設定部 (1 6) は、 学習モードを有する。 学習モードは、 制御対象 (丁 1) に対して制御命令 (丨 3) に相当する制御が行われた場合に、 制御 命令 (丨 3) と、 コマンド情報 ( 1 1) と付加情報 ( I 2) との対応関係を 生成するモードである。 In the device control system (1, 18) according to the 12th aspect, in the 11th aspect, the setting unit (16) has a learning mode. In the learning mode, when the control target (D1) is controlled by the control command (丨3), the control command (丨3), command information (1 1) and additional information (I 2 ) Is a mode for generating a correspondence relationship with.
[0145] この態様によれば、 学習モードにおいては、 コマンド情報 ( 1 1) と付加 情報 (丨 2) と制御命令 ( I 3) との対応関係を自動的に変更することがで きる。
〇 2020/175293 35 卩(:171? 2020 /006636 According to this aspect, in the learning mode, it is possible to automatically change the correspondence relationship between the command information (11), the additional information (丨2), and the control command (I3). 〇 2020/175 293 35 卩 (:171? 2020 /006636
[0146] 第 1 3の態様に係る機器制御方法は、 第 1取得処理と、 第 2取得処理と、 制御処理と、 を有する。 第 1取得処理は、 コマンド情報 ( 1 1) を取得する 処理である。 コマンド情報 ( I 1) は、 音声入力装置 (2) に入力された音 声の認識結果に関する情報である。 第 2取得処理は、 付加情報 ( I 2) を取 得する処理である。 付加情報 (丨 2) は、 コマンド情報 ( 1 1) とは別の情 報からなる。 制御処理は、 コマンド情報 (丨 1) と付加情報 (丨 2) との両 方に基づく制御命令 (丨 3) により、 少なくとも 1つの機器 (5) からなる 制御対象 (丁 1) を制御する処理である。 The device control method according to the thirteenth aspect includes a first acquisition process, a second acquisition process, and a control process. The first acquisition process is the process of acquiring the command information (11). The command information (I 1) is information on the recognition result of the voice input to the voice input device (2). The second acquisition process is a process to acquire the additional information (I 2 ). The additional information ([2]) consists of information different from the command information (11). The control process is a process of controlling the controlled object (D1) consisting of at least one device (5) by a control command (D3) based on both command information (D1) and additional information (D2). Is.
[0147] この態様によれば、 制御対象 (丁 1) の制御に、 音声入力装置 (2) に入 力された音声に基づくコマンド情報 (丨 1) だけでなく、 コマンド情報 ( I 1) とは別の付加情報 (丨 2) が用いられる。 そのため、 例えば、 音声入力 装置 (2) に入力される音声が同じ場合であっても、 少なくとも 1つの機器 (5) からなる制御対象 (丁 1) に対しては、 一義的ではなく、 付加情報 ( I 2) 次第で異なる制御がなされる。 したがって、 機器制御方法によれば、 ユーザ (11 1) が同じように発話した場合でも機器 (5) を柔軟に制御可能 である、 という利点がある。 [0147] According to this aspect, not only the command information (丨1) based on the voice input to the voice input device (2) but also the command information (I1) are used to control the controlled object (Ding 1). Uses other additional information (see 2). Therefore, for example, even if the voice input to the voice input device (2) is the same, it is not unique to the control target (Ding 1) that consists of at least one device (5), and additional information (I 2) Different controls are performed. Therefore, the device control method has an advantage that the device (5) can be flexibly controlled even when the user (11 1) speaks in the same manner.
[0148] 第 1 4の態様に係るプログラムは、 第 1 3の態様に係る機器制御方法を、 A program according to a fourteenth aspect is the device control method according to the thirteenth aspect,
1以上のプロセッサに実行させるためのプログラムである。 This is a program to be executed by one or more processors.
[0149] この態様によれば、 制御対象 (丁 1) の制御に、 音声入力装置 (2) に入 力された音声に基づくコマンド情報 (丨 1) だけでなく、 コマンド情報 ( I 1) とは別の付加情報 (丨 2) が用いられる。 そのため、 例えば、 音声入力 装置 (2) に入力される音声が同じ場合であっても、 少なくとも 1つの機器 (5) からなる制御対象 (丁 1) に対しては、 一義的ではなく、 付加情報 ( I 2) 次第で異なる制御がなされる。 したがって、 上記プログラムによれば 、 ユーザ (11 1) が同じように発話した場合でも機器 (5) を柔軟に制御可 能である、 という利点がある。 According to this aspect, not only the command information (丨1) based on the voice input to the voice input device (2) but also the command information (I1) are used to control the controlled object (Ding 1). Uses other additional information (see 2). Therefore, for example, even if the voice input to the voice input device (2) is the same, it is not unique to the control target (Ding 1) that consists of at least one device (5), and additional information (I 2) Different controls are performed. Therefore, the above program has the advantage that the device (5) can be flexibly controlled even when the user (111) speaks in the same way.
[0150] 上記態様に限らず、 実施形態 1及び実施形態 2に係る機器制御システム ( [0150] The device control system according to the first and second embodiments, not limited to the above-described aspect (
1 , 1 ) の種々の構成 (変形例を含む) は、 機器制御方法又はプログラム
〇 2020/175293 36 卩(:171? 2020 /006636 Various configurations of (1, 1) (including modified examples) are device control methods or programs. 〇 2020/175 293 36 卩 (:171? 2020 /006636
にて具現化可能である。 Can be embodied in.
[0151] 第 2〜 1 2の態様に係る構成については、 機器制御システム (1 , 1 八) に必須の構成ではなく、 適宜省略可能である。 [0151] The configurations according to the second to 12th aspects are not essential configurations for the device control system (1, 18), and can be omitted as appropriate.
符号の説明 Explanation of symbols
[0152] 1 , 1 八 機器制御システム [0152] 1, 1, 8 equipment control system
2 音声入力装置 2 Voice input device
5 機器 5 equipment
1 1 第 1取得部 1 1 1st acquisition department
1 2 第 2取得部 1 2 2nd acquisition department
1 3 制御部 1 3 Control unit
1 6 設定部 1 6 Setting section
1 1 コマン ド情報 1 1 Command information
I 2 付加情報 I 2 additional information
1 3 制御命令 1 3 Control command
丁 1 制御対象 Ding 1 controlled object
II 1 ユーザ
II 1 user
Claims
[請求項 1 ] 音声入力装置に入力された音声の認識結果に関するコマンド情報を 取得する第 1取得部と、 [Claim 1] A first acquisition unit for acquiring command information relating to a recognition result of voice input to a voice input device,
前記コマンド情報とは別の情報からなる付加情報を取得する第 2取 得部と、 A second acquisition unit for acquiring additional information consisting of information different from the command information,
前記コマンド情報と前記付加情報との両方に基づく制御命令により 、 少なくとも 1 つの機器からなる制御対象を制御する制御部と、 を備 える、 A control unit that controls a control target including at least one device according to a control command based on both the command information and the additional information;
機器制御システム。 Equipment control system.
[請求項 2] 前記付加情報は、 ユーザの操作に応じて変化する入力情報を含み、 前記制御部は、 少なくとも前記入力情報に応じて前記制御命令を変 化させる、 [Claim 2] The additional information includes input information that changes according to a user operation, and the control unit changes the control command at least according to the input information.
請求項 1 に記載の機器制御システム。 The device control system according to claim 1.
[請求項 3] 前記付加情報は、 期間に関する期間情報を含み、 [Claim 3] The additional information includes period information regarding a period,
前記制御部は、 少なくとも前記期間情報に応じて前記制御命令を変 化させる、 The control unit changes the control command according to at least the period information;
請求項 1又は 2に記載の機器制御システム。 The device control system according to claim 1 or 2.
[請求項 4] 前記付加情報は、 前記音声入力装置に入力された前記音声を発した 話者に関する話者情報を含み、 [Claim 4] The additional information includes speaker information about a speaker who has output the voice input to the voice input device,
前記制御部は、 少なくとも前記話者情報に応じて前記制御命令を変 化させる、 The control unit changes the control command in accordance with at least the speaker information,
請求項 1 〜 3のいずれか 1項に記載の機器制御システム。 The equipment control system according to any one of claims 1 to 3.
[請求項 5] 前記付加情報は、 前記コマンド情報から独立した外部情報を含む、 請求項 1 〜 4のいずれか 1項に記載の機器制御システム。 [Claim 5] The equipment control system according to any one of claims 1 to 4, wherein the additional information includes external information independent of the command information.
[請求項 6] 前記付加情報は、 前記音声入力装置に入力された前記音声から抽出 され、 前記音声を発した話者の状態に関連する状態情報を含み、 前記制御部は、 少なくとも前記状態情報に応じて前記制御命令を変 化させる、
〇 2020/175293 38 卩(:171? 2020 /006636 [Claim 6] The additional information is extracted from the voice input to the voice input device and includes state information related to a state of a speaker who uttered the voice, and the control unit includes at least the state information. The control command is changed according to 〇 2020/175 293 38 卩 (:171? 2020 /006636
請求項 1〜 5のいずれか 1項に記載の機器制御システム。 The equipment control system according to any one of claims 1 to 5.
[請求項 7] 前記制御命令は、 複数の機器のうちの前記制御対象となる少なくと も 1つの機器を特定する対象特定項目と、 前記制御対象の動作を特定 する内容特定項目と、 を含み、 [Claim 7] The control command includes a target specifying item that specifies at least one device to be controlled among a plurality of devices, and a content specifying item that specifies an operation of the control target. ,
前記制御部は、 前記コマンド情報及び前記付加情報との両方に基づ いて、 前記対象特定項目及び前記内容特定項目を決定する、 The control unit determines the target specific item and the content specific item based on both the command information and the additional information.
請求項 1〜 6のいずれか 1項に記載の機器制御システム。 The equipment control system according to any one of claims 1 to 6.
[請求項 8] 前記制御部は、 前記コマンド情報と前記付加情報との両方に基づい て、 複数の機器の中から 2つ以上の機器を前記制御対象として選択す る、 [Claim 8] The control unit selects, as the control target, two or more devices from a plurality of devices based on both the command information and the additional information.
請求項 1〜 7のいずれか 1項に記載の機器制御システム。 The equipment control system according to any one of claims 1 to 7.
[請求項 9] 前記制御部は、 1つの前記コマンド情報に対応付けられている複数 の命令候補の中から、 前記付加情報に基づいて一の命令候補を選択し 、 前記 _の命令候補を前記制御命令として前記制御対象を制御する、 請求項 1〜 8のいずれか 1項に記載の機器制御システム。 [Claim 9] wherein, said from the plurality of instructions candidates that are associated with one of said command information, selects one instruction candidates based on the additional information, the _ instruction candidate The device control system according to claim 1, wherein the control target is controlled as a control command.
[請求項 10] 前記制御部は、 [Claim 10] The control unit is
前記付加情報が判定条件を満たした場合に、 前記判定条件に従っ て前記 _の命令候補を選択し、 When the additional information satisfies the determination condition, the instruction candidate of the _ is selected according to the determination condition,
前記付加情報が前記判定条件を満たさない場合に、 前記複数の命 令候補の中のデフオルトの命令候補を選択し、 前記デフオルトの命令 候補を前記制御命令として前記制御対象 When the additional information does not satisfy the determination condition, a default command candidate is selected from the plurality of command candidates, and the default command candidate is the control target as the control target.
を制御する、 To control the
請求項 9に記載の機器制御システム。 The equipment control system according to claim 9.
[請求項 1 1 ] 前記コマンド情報と前記付加情報と前記制御命令との対応関係を設 定する設定部を更に備える、 [Claim 11] Further comprising a setting unit for setting a correspondence relationship between the command information, the additional information, and the control command,
請求項 1〜 1 0のいずれか 1項に記載の機器制御システム。 The equipment control system according to any one of claims 1 to 10.
[請求項 12] 前記設定部は、 前記制御対象に対して前記制御命令に相当する制御 が行われた場合に、 前記制御命令と、 前記コマンド情報と前記付加情
〇 2020/175293 39 卩(:171? 2020 /006636 [Claim 12] The setting unit, when control corresponding to the control command is performed on the control target, the control command, the command information, and the additional information. 〇 2020/175 293 39 卩 (:171? 2020 /006636
報との対応関係を生成する学習モードを有する、 Has a learning mode for generating a correspondence with the information,
請求項 1 1 に記載の機器制御システム。 The device control system according to claim 11.
[請求項 13] 音声入力装置に入力された音声の認識結果に関するコマンド情報を 取得する第 1取得処理と、 [Claim 13] a first acquisition process for acquiring command information relating to a recognition result of voice input to a voice input device;
前記コマンド情報とは別の情報からなる付加情報を取得する第 2取 得処理と、 A second acquisition process for acquiring additional information consisting of information different from the command information,
前記コマンド情報と前記付加情報との両方に基づく制御命令により 、 少なくとも 1つの機器からなる制御対象を制御する制御処理と、 を 有する、 A control command based on both the command information and the additional information, and a control process for controlling a control target including at least one device,
機器制御方法。 Equipment control method.
[請求項 14] 請求項 1 3に記載の機器制御方法を、 1以上のプロセッサに実行さ せるためのプログラム。
[Claim 14] A program for causing one or more processors to execute the device control method according to claim 13.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-034919 | 2019-02-27 | ||
JP2019034919A JP2020141235A (en) | 2019-02-27 | 2019-02-27 | Apparatus control system, apparatus control method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020175293A1 true WO2020175293A1 (en) | 2020-09-03 |
Family
ID=72239029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/006636 WO2020175293A1 (en) | 2019-02-27 | 2020-02-19 | Apparatus control system, apparatus control method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020141235A (en) |
WO (1) | WO2020175293A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021110921A (en) * | 2020-01-08 | 2021-08-02 | ペキン シャオミ パインコーン エレクトロニクス カンパニー, リミテッド | Voice interactive method, device and apparatus, and storage medium |
WO2022111282A1 (en) * | 2020-11-24 | 2022-06-02 | International Business Machines Corporation | Ar (augmented reality) based selective sound inclusion from the surrounding while executing any voice command |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002182680A (en) * | 2000-12-19 | 2002-06-26 | Alpine Electronics Inc | Operation indication device |
JP2005086768A (en) * | 2003-09-11 | 2005-03-31 | Toshiba Corp | Controller, control method, and program |
JP2014183491A (en) * | 2013-03-19 | 2014-09-29 | Sharp Corp | Electric equipment control apparatus, electric equipment control system, program, and electric equipment control method |
WO2015029379A1 (en) * | 2013-08-29 | 2015-03-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Device control method, display control method, and purchase payment method |
WO2016157537A1 (en) * | 2015-04-03 | 2016-10-06 | 三菱電機株式会社 | Air-conditioning system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013138553A (en) * | 2011-12-28 | 2013-07-11 | Toshiba Corp | Electric power management server device, electric power management method, and electric power management program |
-
2019
- 2019-02-27 JP JP2019034919A patent/JP2020141235A/en active Pending
-
2020
- 2020-02-19 WO PCT/JP2020/006636 patent/WO2020175293A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002182680A (en) * | 2000-12-19 | 2002-06-26 | Alpine Electronics Inc | Operation indication device |
JP2005086768A (en) * | 2003-09-11 | 2005-03-31 | Toshiba Corp | Controller, control method, and program |
JP2014183491A (en) * | 2013-03-19 | 2014-09-29 | Sharp Corp | Electric equipment control apparatus, electric equipment control system, program, and electric equipment control method |
WO2015029379A1 (en) * | 2013-08-29 | 2015-03-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Device control method, display control method, and purchase payment method |
WO2016157537A1 (en) * | 2015-04-03 | 2016-10-06 | 三菱電機株式会社 | Air-conditioning system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021110921A (en) * | 2020-01-08 | 2021-08-02 | ペキン シャオミ パインコーン エレクトロニクス カンパニー, リミテッド | Voice interactive method, device and apparatus, and storage medium |
US11798545B2 (en) | 2020-01-08 | 2023-10-24 | Beijing Xiaomi Pinecone Electronics Co., Ltd. | Speech interaction method and apparatus, device and storage medium |
WO2022111282A1 (en) * | 2020-11-24 | 2022-06-02 | International Business Machines Corporation | Ar (augmented reality) based selective sound inclusion from the surrounding while executing any voice command |
GB2616765A (en) * | 2020-11-24 | 2023-09-20 | Ibm | AR (augmented reality) based selective sound inclusion from the surrounding while executing any voice command |
US11978444B2 (en) | 2020-11-24 | 2024-05-07 | International Business Machines Corporation | AR (augmented reality) based selective sound inclusion from the surrounding while executing any voice command |
Also Published As
Publication number | Publication date |
---|---|
JP2020141235A (en) | 2020-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11355111B2 (en) | Voice control of an integrated room automation system | |
JP7364948B2 (en) | equipment control system | |
US11929844B2 (en) | Customized interface based on vocal input | |
US10985936B2 (en) | Customized interface based on vocal input | |
CN102538143B (en) | Intelligent phonic search engine air-conditioning system and control method thereof | |
US11665796B2 (en) | Multi-purpose voice activated lighting apparatus | |
CN110164436A (en) | The system and method for portable intelligent multipoint voice control household | |
WO2020175293A1 (en) | Apparatus control system, apparatus control method, and program | |
JP7340764B2 (en) | voice control system | |
CN202075619U (en) | Intelligent home furnishing control system | |
CN102981420A (en) | Intelligent sound wave sensing service system | |
JP7557822B2 (en) | Wiring systems and communication systems | |
US20240363110A1 (en) | Electronic device, method, system, medium, and program capable of voice control | |
CN112003770A (en) | Intelligent voice switch panel and control method thereof | |
WO2023283013A1 (en) | Electronic device, method, system, medium, and program capable of voice control | |
Alkan et al. | Indoor Soundscapes of the Future: Listening to Smart Houses | |
CN113302564A (en) | Composition and method for realizing whole-house intelligent home system | |
JP2020013593A (en) | Safety confirmation system, and refrigerator | |
Rashid et al. | Smart and Energy Efficient Wireless Embedded Home Automation System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20762813 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20762813 Country of ref document: EP Kind code of ref document: A1 |