JP7012250B2 - Equipment control system - Google Patents

Equipment control system Download PDF

Info

Publication number
JP7012250B2
JP7012250B2 JP2017223901A JP2017223901A JP7012250B2 JP 7012250 B2 JP7012250 B2 JP 7012250B2 JP 2017223901 A JP2017223901 A JP 2017223901A JP 2017223901 A JP2017223901 A JP 2017223901A JP 7012250 B2 JP7012250 B2 JP 7012250B2
Authority
JP
Japan
Prior art keywords
unit
person
voice recognition
space
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017223901A
Other languages
Japanese (ja)
Other versions
JP2019096435A (en
Inventor
龍司 夏目
克彦 木村
正也 花園
実 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017223901A priority Critical patent/JP7012250B2/en
Publication of JP2019096435A publication Critical patent/JP2019096435A/en
Application granted granted Critical
Publication of JP7012250B2 publication Critical patent/JP7012250B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Circuit Arrangement For Electric Light Sources In General (AREA)

Description

本開示は、一般に機器制御システムに関し、より詳細には、音声認識技術を用いて機器を制御する機器制御システムに関する。 The present disclosure relates to a device control system in general, and more particularly to a device control system for controlling a device using voice recognition technology.

従来、遠隔操作のための信号として音声を利用した照明器具の制御装置が知られており、例えば特許文献1に開示されている。特許文献1に記載の照明器具の制御装置は、複数の照明器具の各々に、マイクと音声認識部とを有する音声制御手段が設けられている。音声制御手段は、予め個々の照明器具の識別音声と、点灯/消灯及び調光の命令音声と登録できるように構成されている。そして、識別音声を伴って発せられた命令音声が、マイクを通じて音声認識部にて認識されることにより、識別音声に該当する照明器具が制御される。 Conventionally, a control device for a lighting fixture using voice as a signal for remote control is known, and is disclosed in, for example, Patent Document 1. The control device for a lighting fixture described in Patent Document 1 is provided with a voice control means having a microphone and a voice recognition unit in each of the plurality of lighting fixtures. The voice control means is configured so as to be able to register in advance the identification voice of each lighting fixture and the instruction voice of lighting / extinguishing and dimming. Then, the command voice emitted with the identification voice is recognized by the voice recognition unit through the microphone, so that the lighting equipment corresponding to the identification voice is controlled.

特開2006-286275号公報Japanese Unexamined Patent Publication No. 2006-286275

しかしながら、特許文献1の照明器具の制御装置では、例えば照明器具(機器)の存在する部屋(空間)の外部から照明器具の存在する部屋へと音が漏れた場合、音声認識部が漏れた音に反応することで、照明器具を誤って制御する可能性があった。 However, in the lighting fixture control device of Patent Document 1, for example, when sound leaks from the outside of the room (space) in which the lighting fixture (equipment) exists to the room in which the lighting fixture exists, the sound leaked by the voice recognition unit. By reacting to, there was a possibility of erroneously controlling the luminaire.

本開示は、上記の点に鑑みてなされており、外部から漏れる音によって機器を誤って制御する可能性を低減することのできる機器制御システムを提供することを目的とする。 The present disclosure has been made in view of the above points, and an object of the present invention is to provide a device control system capable of reducing the possibility of erroneously controlling a device due to a sound leaking from the outside.

本開示の一態様に係る機器制御システムは、音入力部と、音声認識部と、人検知部と、制御部と、を備える。前記音入力部は、入力された音に基づく電気信号を出力する。前記音声認識部は、前記電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を出力する。前記人検知部は、前記音入力部のある空間における人の存否を検知し、検知結果を検知情報として出力する。前記制御部は、前記認識情報及び前記検知情報の両方に基づいて、前記空間にある機器の制御を行う。 The device control system according to one aspect of the present disclosure includes a sound input unit, a voice recognition unit, a human detection unit, and a control unit. The sound input unit outputs an electric signal based on the input sound. The voice recognition unit performs voice recognition based on the electric signal and outputs recognition information corresponding to the recognized voice. The person detection unit detects the presence or absence of a person in the space where the sound input unit is located, and outputs the detection result as detection information. The control unit controls the device in the space based on both the recognition information and the detection information.

本開示は、外部から漏れる音によって機器を誤って制御する可能性を低減することができる、という利点がある。 The present disclosure has the advantage that the possibility of erroneously controlling the device due to the sound leaking from the outside can be reduced.

図1は、本開示の一実施形態に係る機器制御システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a device control system according to an embodiment of the present disclosure. 図2は、同上の機器制御システムを有する照明スイッチを示す正面図である。FIG. 2 is a front view showing a lighting switch having the same device control system. 図3は、同上の機器制御システムの動作を示すフローチャートである。FIG. 3 is a flowchart showing the operation of the above-mentioned device control system. 図4A及び図4Bは、それぞれ同上の機器制御システムの動作を説明するための概念図である。4A and 4B are conceptual diagrams for explaining the operation of the same device control system, respectively. 図5は、同上の機器制御システムの動作を説明するための概念図である。FIG. 5 is a conceptual diagram for explaining the operation of the above-mentioned device control system. 図6は、本開示の一実施形態の第1変形例に係る機器制御システムの構成を示すブロック図である。FIG. 6 is a block diagram showing a configuration of a device control system according to a first modification of the embodiment of the present disclosure. 図7は、本開示の一実施形態の第2変形例に係る機器制御システムを示す概念図である。FIG. 7 is a conceptual diagram showing a device control system according to a second modification of the embodiment of the present disclosure.

(1)概要
以下、本実施形態の機器制御システム1について図1を用いて説明する。本実施形態の機器制御システム1は、音声認識技術を用いて、施設に設置されている機器を制御するシステムである。施設は、例えば、戸建住宅、集合住宅の各住戸、店舗、病院、学校、オフィス、工場、又は商業施設などである。本実施形態では、機器制御システム1を戸建住宅に用いる場合を例として説明する。また、本実施形態では、機器制御システム1が制御対象とする機器2は、照明機器である。以下では、「機器2」を「照明機器2」ともいう。
(1) Overview Hereinafter, the device control system 1 of the present embodiment will be described with reference to FIG. The device control system 1 of the present embodiment is a system that controls devices installed in a facility by using voice recognition technology. The facility is, for example, a detached house, each dwelling unit of an apartment house, a store, a hospital, a school, an office, a factory, or a commercial facility. In this embodiment, a case where the device control system 1 is used for a detached house will be described as an example. Further, in the present embodiment, the device 2 to be controlled by the device control system 1 is a lighting device. Hereinafter, "equipment 2" is also referred to as "lighting equipment 2".

照明機器2は、複数のLED(Light Emitting Diode)を光源として備えている。また、複数のLEDのうち2以上のLEDは、互いに異なる発光色のLEDで構成されている。つまり、本実施形態では、照明機器2は、調光及び調色が可能な光源を有している。機器制御システム1は、例えば人の発する音声に基づいて、照明機器2を制御する。具体的には、機器制御システム1は、人の発する音声に基づいて、照明機器2の点灯、消灯、調光、又は調色などを行う。ここでいう「音声」は、人が発声器官を通じて発する言語音に加えて、例えば、口笛、フィンガースナップ(finger snapping)音、及び拍手(clapping)音などの、人が意図的に発する音全般を含んでいる。 The lighting device 2 includes a plurality of LEDs (Light Emitting Diodes) as a light source. Further, two or more of the plurality of LEDs are composed of LEDs having different emission colors. That is, in the present embodiment, the lighting device 2 has a light source capable of dimming and toning. The device control system 1 controls the lighting device 2 based on, for example, a voice emitted by a person. Specifically, the device control system 1 turns on, turns off, dims, or adjusts the color of the lighting device 2 based on the voice emitted by a person. "Voice" here refers to all sounds that a person intentionally makes, such as whistle, finger snapping sounds, and clapping sounds, in addition to the speech sounds that a person makes through the vocal organs. Includes.

機器制御システム1はマイクロフォン(音入力部)11と、音声認識部12と、人検知部13と、制御部14と、を備えている。マイクロフォン11は、入力された音に基づく電気信号を出力する。音声認識部12は、マイクロフォン11から出力される電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を出力する。ここでいう「音声認識」は、人の発する音声を文字列に変換する処理だけではなく、意味解析及び文脈解析等の自然言語処理を含んでいる。人検知部13は、マイクロフォン11のある空間R1(図4A参照)における人の存否を検知し、検知結果を検知情報として出力する。 The device control system 1 includes a microphone (sound input unit) 11, a voice recognition unit 12, a human detection unit 13, and a control unit 14. The microphone 11 outputs an electric signal based on the input sound. The voice recognition unit 12 performs voice recognition based on the electric signal output from the microphone 11, and outputs recognition information corresponding to the recognized voice. The "speech recognition" here includes not only the process of converting a human-generated speech into a character string, but also natural language processing such as semantic analysis and context analysis. The human detection unit 13 detects the presence or absence of a person in the space R1 (see FIG. 4A) in which the microphone 11 is located, and outputs the detection result as detection information.

制御部14は、音声認識部12の出力する認識情報、及び人検知部13の出力する検知情報に基づいて、空間R1にある機器2の制御を行う。つまり、制御部14は、空間R1に人が存在するときには、認識情報に応じて空間R1にある機器2の制御を行い、空間R1に人が存在しないときには、認識情報を受け付けても空間R1にある機器2の制御を行わないことが可能である。 The control unit 14 controls the device 2 in the space R1 based on the recognition information output by the voice recognition unit 12 and the detection information output by the human detection unit 13. That is, when a person exists in the space R1, the control unit 14 controls the device 2 in the space R1 according to the recognition information, and when the person does not exist in the space R1, the control unit 14 receives the recognition information in the space R1. It is possible not to control a certain device 2.

上述のように、本実施形態では、空間R1に人が存在しないときに、音声認識部12が人の発する音声を認識した場合であっても、空間R1にある機器2の制御を行わないようにすることが可能である。このため、本実施形態では、空間R1の外部から漏れる音(例えば、空間R1の外にいる人の発する音声)によって機器2を誤って制御する可能性を低減することができる、という利点がある。 As described above, in the present embodiment, when there is no person in the space R1, even if the voice recognition unit 12 recognizes the voice emitted by the person, the device 2 in the space R1 is not controlled. It is possible to. Therefore, the present embodiment has an advantage that the possibility of erroneously controlling the device 2 by the sound leaking from the outside of the space R1 (for example, the sound emitted by a person outside the space R1) can be reduced. ..

(2)詳細
以下、本実施形態の機器制御システム1の構成について、図1を用いて詳細に説明する。既に述べたように、本実施形態の機器制御システム1は、マイクロフォン11と、音声認識部12と、人検知部13と、制御部14と、を備えている。更に、機器制御システム1は、記憶部15と、操作部16と、を備えている。
(2) Details Hereinafter, the configuration of the device control system 1 of the present embodiment will be described in detail with reference to FIG. As described above, the device control system 1 of the present embodiment includes a microphone 11, a voice recognition unit 12, a human detection unit 13, and a control unit 14. Further, the device control system 1 includes a storage unit 15 and an operation unit 16.

マイクロフォン(音入力部)11は、入力された音に基づく電気信号を出力する。具体的には、マイクロフォン11は、人の発する音声などの音を集音して電気信号に変換し、変換した電気信号を音声認識部12及び人検知部13にそれぞれ出力する。本実施形態では、マイクロフォン11はアナログ-ディジタル変換部(A/D変換部)を有しており、アナログの電気信号をディジタルの電気信号に変換して出力する。 The microphone (sound input unit) 11 outputs an electric signal based on the input sound. Specifically, the microphone 11 collects a sound such as a voice emitted by a person, converts it into an electric signal, and outputs the converted electric signal to the voice recognition unit 12 and the person detection unit 13, respectively. In the present embodiment, the microphone 11 has an analog-digital conversion unit (A / D conversion unit), and converts an analog electric signal into a digital electric signal and outputs the signal.

マイクロフォン11は、照明機器2の点灯、消灯を切り換える照明スイッチ3に内蔵されている(図2参照)。同様に、音声認識部12、人検知部13、制御部14、及び記憶部15も照明スイッチ3に内蔵されている。この照明スイッチ3は、照明機器2が設けられた空間R1(以下、「第1部屋R1」ともいう)の壁面に設置されている(図4A参照)。つまり、マイクロフォン11、人検知部13、及び照明機器2は、いずれも同一の空間R1に設けられている。 The microphone 11 is built in a lighting switch 3 for switching on and off of the lighting device 2 (see FIG. 2). Similarly, the voice recognition unit 12, the human detection unit 13, the control unit 14, and the storage unit 15 are also built in the lighting switch 3. The lighting switch 3 is installed on the wall surface of the space R1 (hereinafter, also referred to as “first room R1”) in which the lighting device 2 is provided (see FIG. 4A). That is, the microphone 11, the human detection unit 13, and the lighting device 2 are all provided in the same space R1.

音声認識部12は、例えばプロセッサ及びメモリを主構成とするマイクロコンピュータにて構成されている。つまり、音声認識部12は、プロセッサ及びメモリを有するコンピュータシステムで実現されている。そして、プロセッサが適宜のプログラムを実行することにより、コンピュータシステムが音声認識部12として機能する。プログラムは、メモリに予め記録されていてもよいし、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。 The voice recognition unit 12 is composed of, for example, a microcomputer whose main configuration is a processor and a memory. That is, the voice recognition unit 12 is realized by a computer system having a processor and a memory. Then, when the processor executes an appropriate program, the computer system functions as the voice recognition unit 12. The program may be pre-recorded in a memory, may be recorded through a telecommunication line such as the Internet, or may be recorded and provided on a non-temporary recording medium such as a memory card.

人検知部13及び制御部14も、音声認識部12と同様に、それぞれ例えばマイクロコンピュータにて構成されている。つまり、人検知部13及び制御部14も、音声認識部12と同様に、プロセッサ及びメモリを有するコンピュータシステムで実現されている。 Like the voice recognition unit 12, the human detection unit 13 and the control unit 14 are each composed of, for example, a microcomputer. That is, the human detection unit 13 and the control unit 14 are also realized by a computer system having a processor and a memory, like the voice recognition unit 12.

音声認識部12は、マイクロフォン11から出力される電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を出力する。具体的には、音声認識部12は、電気信号と、記憶部15に予め記憶されている複数の音声モデルとを比較し、電気信号と一致又は類似する音声モデルが存在すれば、マイクロフォン11に入力された音に指示音声が含まれていると認識する。ここでいう「指示音声」とは、照明機器2に対する指示を表す音声である。指示音声には、例えば、[点灯(又はオン)]、[消灯(又はオフ)]、[もっと明るく]、[もっと暗く]、[電球色]、又は[昼白色]などがある。 The voice recognition unit 12 performs voice recognition based on the electric signal output from the microphone 11, and outputs recognition information corresponding to the recognized voice. Specifically, the voice recognition unit 12 compares the electric signal with a plurality of voice models stored in advance in the storage unit 15, and if a voice model that matches or is similar to the electric signal exists, the microphone 11 is used. Recognize that the input sound contains an instruction voice. The "instruction voice" here is a voice indicating an instruction to the lighting device 2. The instruction voice includes, for example, [on (or on)], [off (or off)], [brighter], [darker], [bulb color], or [lunch white].

音声認識部12は、指示音声を認識した場合、認識した指示音声に対応する認識情報を制御部14へ出力する。本実施形態では、認識情報は、指示音声に予め対応付けられているコマンドである。ここでいう「コマンド」は、コンピュータシステム(ここでは、制御部14)に特定の機能の実行を指示する命令を意味する。本実施形態では、複数のコマンドは、それぞれ複数の指示音声と1対1に予め対応付けられている。例えば、[点灯(又はオン)]の指示音声に対応するコマンドは、点灯コマンドであり、[消灯(またはオフ)]の指示音声に対応するコマンドは、消灯コマンドである。また、[もっと明るく]の指示音声に対応するコマンドは、第1調光コマンドであり、[もっと暗く]の指示音声に対応するコマンドは、第2調光コマンドである。また、[電球色]の指示音声に対応するコマンドは、第1調色コマンドであり、[昼白色]の指示音声に対応するコマンドは、第2調色コマンドである。音声認識部12は、記憶部15に記憶されている複数のコマンドと複数の指示音声との対応関係を表す情報を参照することで、認識した指示音声に対応するコマンドを読み出し、読み出したコマンドを制御部14へ出力する。 When the voice recognition unit 12 recognizes the instruction voice, the voice recognition unit 12 outputs the recognition information corresponding to the recognized instruction voice to the control unit 14. In the present embodiment, the recognition information is a command associated with the instruction voice in advance. The "command" here means a command instructing a computer system (here, a control unit 14) to execute a specific function. In the present embodiment, the plurality of commands are associated with a plurality of instruction voices in a one-to-one manner in advance. For example, the command corresponding to the instruction voice of [turning on (or on)] is a lighting command, and the command corresponding to the instruction voice of [turning off (or off)] is a turning off command. The command corresponding to the [brighter] instruction voice is the first dimming command, and the command corresponding to the [darker] instruction voice is the second dimming command. Further, the command corresponding to the instruction voice of [bulb color] is the first toning command, and the command corresponding to the instruction voice of [lunch white] is the second toning command. The voice recognition unit 12 reads out the command corresponding to the recognized instruction voice by referring to the information indicating the correspondence relationship between the plurality of commands stored in the storage unit 15 and the plurality of instruction voices, and reads the read command. Output to the control unit 14.

本実施形態では、音声認識部12は、人検知部13からの検知情報に依らず、音声認識を行っている。つまり、音声認識部12は、空間R1に人が存在しないときであっても、音声認識を行っている。このため、本実施形態では、空間R1に人が存在しない状況でも、音声認識技術を用いることで、照明機器2の制御以外の機能を実現することが可能である、という利点がある。 In the present embodiment, the voice recognition unit 12 performs voice recognition regardless of the detection information from the human detection unit 13. That is, the voice recognition unit 12 performs voice recognition even when there is no person in the space R1. Therefore, in the present embodiment, there is an advantage that it is possible to realize a function other than the control of the lighting device 2 by using the voice recognition technology even in a situation where no person exists in the space R1.

例えば、音声認識部12は、空間R1に人が存在しないときに音声認識を行うことにより、空間R1の環境音を測定する機能を有することが考えられる。この場合、音声認識部12は、マイクロフォン11に入力される音から空間R1の環境音を除去した上で音声認識を行うことが可能となり、人の発する音声の認識精度を向上することができる。また、例えば、音声認識部12は、空間R1に人が存在しないときに音声認識を行うことにより、窓ガラスの割れた音などを認識することで、空間R1に第三者が侵入したか否かを判断する機能を有することが考えられる。具体的には、音声認識部12が窓ガラスの割れた音を認識した後に、人検知部13が空間R1に人が存在することを検知した場合、空間R1に第三者が侵入した可能性が高い。このような場合に、機器制御システム1に接続されたブザーを鳴動させることで、防犯効果が期待できる。 For example, it is conceivable that the voice recognition unit 12 has a function of measuring the environmental sound of the space R1 by performing voice recognition when no person is present in the space R1. In this case, the voice recognition unit 12 can perform voice recognition after removing the environmental sound of the space R1 from the sound input to the microphone 11, and can improve the recognition accuracy of the voice emitted by a person. Further, for example, the voice recognition unit 12 recognizes the sound of a broken window glass by performing voice recognition when no person is present in the space R1, and whether or not a third party has invaded the space R1. It is conceivable that it has a function to judge whether or not. Specifically, if the voice recognition unit 12 recognizes the sound of the broken window glass and then the person detection unit 13 detects the presence of a person in the space R1, there is a possibility that a third party has invaded the space R1. Is high. In such a case, a crime prevention effect can be expected by sounding the buzzer connected to the device control system 1.

人検知部13は、空間R1(つまり、マイクロフォン11のある空間)における人の存否を検知し、検知結果を検知情報として出力する。本実施形態では、人検知部13は、マイクロフォン11に入力される音、特に音声認識部12にて音声認識で用いる音声以外の音に基づいて、空間R1における人の存否を検知する。具体的には、人検知部13は、マイクロフォン11に入力された音の音圧レベルの他、マイクロフォン11に入力された音の直接波及び反射波の情報などに基づいて、音が空間R1で発生したか否かを識別する。ここでいう「直接波」は、音の発生源から直接(つまり、物体で反射せずに)マイクロフォン11に入力される音波である。また、ここでいう「反射波」は、音の発生源から放射された音波のうち、物体(例えば、壁、ドア等)で反射した後にマイクロフォン11に入力される音波である。例えば、人検知部13は、マイクロフォン11に直接波が入力された後に反射波が入力された場合に、音が空間R1で発生したと識別する。 The human detection unit 13 detects the presence or absence of a person in the space R1 (that is, the space where the microphone 11 is located), and outputs the detection result as detection information. In the present embodiment, the human detection unit 13 detects the presence or absence of a person in the space R1 based on the sound input to the microphone 11, particularly the sound other than the voice used in the voice recognition by the voice recognition unit 12. Specifically, in the human detection unit 13, the sound is generated in the space R1 based on the sound pressure level of the sound input to the microphone 11 and the information of the direct wave and the reflected wave of the sound input to the microphone 11. Identify whether it has occurred. The "direct wave" here is a sound wave that is directly input to the microphone 11 from the sound source (that is, without being reflected by an object). Further, the "reflected wave" referred to here is a sound wave emitted from a sound source and input to the microphone 11 after being reflected by an object (for example, a wall, a door, etc.). For example, the human detection unit 13 identifies that the sound is generated in the space R1 when the reflected wave is input after the direct wave is input to the microphone 11.

人検知部13は、音が空間R1で発生したと識別した場合、空間R1に人が存在すると検知する。一方、人検知部13は、上記の場合以外であれば、空間R1に人が存在しないと検知する。例えば、人検知部13は、マイクロフォン11に音が入力された場合であっても、音が空間R1で発生していないと識別すれば、空間R1に人が存在しないと検知する。 When the person detection unit 13 determines that the sound is generated in the space R1, it detects that a person is present in the space R1. On the other hand, the person detection unit 13 detects that there is no person in the space R1 except in the above case. For example, even when a sound is input to the microphone 11, the person detection unit 13 detects that no person exists in the space R1 if it identifies that the sound is not generated in the space R1.

人検知部13は、例えばLレベル(Low level)とHレベル(High level)の2つの信号レベルをとる2値信号を制御部14に出力することで、検知情報を制御部14に出力する。人検知部13は、空間R1に人が存在していると検知している間は、Hレベルの2値信号を制御部14に出力することで、空間R1に人が存在するという検知情報を制御部14に出力する。一方、人検知部13は、空間R1に人が存在していないと検知している間は、Lレベルの2値信号を制御部14に出力することで、空間R1に人が存在しないという検知情報を制御部14に出力する。 The human detection unit 13 outputs detection information to the control unit 14 by outputting a binary signal having two signal levels, for example, L level (Low level) and H level (High level), to the control unit 14. While the human detection unit 13 detects that a person is present in the space R1, the person detection unit 13 outputs an H-level binary signal to the control unit 14 to generate detection information that a person is present in the space R1. Output to the control unit 14. On the other hand, the human detection unit 13 outputs an L-level binary signal to the control unit 14 while detecting that no person exists in the space R1, thereby detecting that no person exists in the space R1. Information is output to the control unit 14.

制御部14は、空間R1にある照明機器2を制御する。具体的には、制御部14は、空間R1にある照明機器2との有線通信又は無線通信により、照明機器2を制御するための制御信号を照明機器2へ送信することで、照明機器2を制御する。制御部14は、音声認識部12からの認識情報、及び人検知部13からの検知情報に基づいて、空間R1(つまり、マイクロフォン11及び人検知部13の存在する空間)にある照明機器2の制御を行う。具体的には、制御部14は、空間R1に人が存在するという検知情報を受けている間に、音声認識部12からの認識情報を受けると、認識情報に応じて照明機器2を制御する。 The control unit 14 controls the lighting device 2 in the space R1. Specifically, the control unit 14 transmits the lighting device 2 to the lighting device 2 by transmitting a control signal for controlling the lighting device 2 by wire communication or wireless communication with the lighting device 2 in the space R1. Control. The control unit 14 is a lighting device 2 in the space R1 (that is, the space where the microphone 11 and the person detection unit 13 exist) based on the recognition information from the voice recognition unit 12 and the detection information from the person detection unit 13. Take control. Specifically, when the control unit 14 receives the recognition information from the voice recognition unit 12 while receiving the detection information that a person exists in the space R1, the control unit 14 controls the lighting device 2 according to the recognition information. ..

例えば、認識情報に点灯コマンドが含まれている場合、制御部14は、照明機器2を点灯させるために、照明機器2の光出力を所定値まで増加させる点灯制御を実行する。認識情報に消灯コマンドが含まれている場合、制御部14は、照明機器2を消灯させるために、照明機器2の光出力を低下させる消灯制御を実行する。認識情報に第1調光コマンドが含まれている場合、制御部14は、照明機器2の光出力を所定量だけ増加させる調光制御を実行する。認識情報に第2調光コマンドが含まれている場合、制御部14は、照明機器2の光出力を所定量だけ低下させる調光制御を実行する。認識情報に第1調色コマンドが含まれている場合、制御部14は、照明機器2の発光色が電球色となるように調色制御を実行する。認識情報に第2調色コマンドが含まれている場合、制御部14は、照明機器2の発光色が昼白色となるように調色制御を実行する。 For example, when the recognition information includes a lighting command, the control unit 14 executes lighting control for increasing the light output of the lighting device 2 to a predetermined value in order to light the lighting device 2. When the recognition information includes a turn-off command, the control unit 14 executes a turn-off control for reducing the light output of the lighting device 2 in order to turn off the lighting device 2. When the recognition information includes the first dimming command, the control unit 14 executes dimming control for increasing the light output of the lighting device 2 by a predetermined amount. When the recognition information includes the second dimming command, the control unit 14 executes dimming control for reducing the light output of the lighting device 2 by a predetermined amount. When the recognition information includes the first toning command, the control unit 14 executes the toning control so that the emission color of the lighting device 2 becomes the light bulb color. When the recognition information includes the second toning command, the control unit 14 executes the toning control so that the emission color of the lighting device 2 becomes neutral white.

一方、制御部14は、空間R1に人が存在しないという検知情報を受けている間、音声認識部12からの認識情報を受けても、認識情報に応じた照明機器2の制御を行わない。例えば、制御部14は、音声認識部12から点灯コマンドを含む認識情報を受けた場合でも、空間R1に人が存在していなければ、照明機器2の点灯制御を実行しない。 On the other hand, the control unit 14 does not control the lighting device 2 according to the recognition information even if it receives the recognition information from the voice recognition unit 12 while receiving the detection information that no person exists in the space R1. For example, even if the control unit 14 receives recognition information including a lighting command from the voice recognition unit 12, the control unit 14 does not execute the lighting control of the lighting device 2 unless a person exists in the space R1.

記憶部15は、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory)のような書き換え可能な不揮発性メモリを含んでいる。記憶部15には、上述の複数の音声モデル、複数のコマンド、及び複数の指示音声と複数のコマンドとの対応関係を表す情報が記憶されている。 The storage unit 15 includes a rewritable non-volatile memory such as an EEPROM (Electrically Erasable Programmable Read-Only Memory). The storage unit 15 stores information representing the above-mentioned plurality of voice models, a plurality of commands, and a correspondence relationship between the plurality of instruction voices and the plurality of commands.

操作部16は、タッチ操作を受け付ける。具体的には、操作部16は、タッチセンサを備えている。タッチセンサは、照明スイッチ3の前面に設定されている操作面150(図2参照)上の人の動作(タッチ操作)を測定(検出)するために用いられる。タッチセンサは、操作面150において人が触れた位置を検出して出力する。 The operation unit 16 accepts a touch operation. Specifically, the operation unit 16 includes a touch sensor. The touch sensor is used to measure (detect) the movement (touch operation) of a person on the operation surface 150 (see FIG. 2) set on the front surface of the lighting switch 3. The touch sensor detects and outputs a position touched by a person on the operation surface 150.

制御部14は、タッチセンサで測定された操作面150に対する人の動作に応じた照明機器2の制御を行う。具体的には、制御部14は、タッチセンサで測定された動作が予め設定された互いに異なる複数の動作のいずれに該当するかを判定し、判定された動作に対応する照明機器2の制御を実行する。つまり、制御部14は、認識情報の有無に依らず、操作部16が受け付けたタッチ操作に応じて、照明機器2の制御を行う。 The control unit 14 controls the lighting device 2 according to the movement of a person with respect to the operation surface 150 measured by the touch sensor. Specifically, the control unit 14 determines which of a plurality of preset operations different from each other corresponds to the operation measured by the touch sensor, and controls the lighting device 2 corresponding to the determined operation. Execute. That is, the control unit 14 controls the lighting device 2 according to the touch operation received by the operation unit 16, regardless of the presence or absence of the recognition information.

(3)動作
以下、本実施形態の機器制御システム1の動作について図3を用いて説明する。まず、マイクロフォン11に音が入力されると(ステップS1)、マイクロフォン11は、入力された音に基づく電気信号を出力する。次に、音声認識部12は、マイクロフォン11からの電気信号に基づいて音声認識を行う(ステップS2)。音声認識の結果、マイクロフォン11に入力された音に指示音声が含まれていれば(ステップS3:Yes)、音声認識部12は、指示音声に対応するコマンドを含む認識情報を制御部14へ出力する。一方、音声認識の結果、マイクロフォン11に入力された音に指示音声が含まれていなければ(ステップS3:No)、音声認識部12は、制御部14に対して何も出力しない。
(3) Operation Hereinafter, the operation of the device control system 1 of the present embodiment will be described with reference to FIG. First, when a sound is input to the microphone 11 (step S1), the microphone 11 outputs an electric signal based on the input sound. Next, the voice recognition unit 12 performs voice recognition based on the electric signal from the microphone 11 (step S2). As a result of voice recognition, if the sound input to the microphone 11 contains an instruction voice (step S3: Yes), the voice recognition unit 12 outputs recognition information including a command corresponding to the instruction voice to the control unit 14. do. On the other hand, as a result of voice recognition, if the sound input to the microphone 11 does not include the instruction voice (step S3: No), the voice recognition unit 12 outputs nothing to the control unit 14.

次に、人検知部13は、空間R1における人の存否を検知する(ステップS4)。なお、図3に示す例では、人検知部13による検知は、音声認識部12による音声認識の後に実行されているが、このタイミングに限定する趣旨ではない。人検知部13による検知は、音声認識部12による音声認識の実行タイミングに依らず、実行されているのが好ましい。人検知部13による検知の結果、空間R1に人が存在している場合(ステップS5:Yes)、制御部14は、音声認識部12からの認識情報に応じて、機器2を制御する(ステップS6)。一方、人検知部13による検知の結果、空間R1に人が存在していない場合(ステップS5:No)、制御部14は、機器2の制御を実行しない。 Next, the person detection unit 13 detects the presence or absence of a person in the space R1 (step S4). In the example shown in FIG. 3, the detection by the human detection unit 13 is executed after the voice recognition by the voice recognition unit 12, but it is not intended to be limited to this timing. It is preferable that the detection by the human detection unit 13 is executed regardless of the execution timing of the voice recognition by the voice recognition unit 12. As a result of detection by the human detection unit 13, when a person exists in the space R1 (step S5: Yes), the control unit 14 controls the device 2 according to the recognition information from the voice recognition unit 12 (step). S6). On the other hand, as a result of the detection by the human detection unit 13, when no person exists in the space R1 (step S5: No), the control unit 14 does not execute the control of the device 2.

以下、機器制御システム1の動作の具体例について図4A、図4B、及び図5を用いて説明する。以下では、空間(第1部屋)R1の隣に、壁及びドアで隔てられた空間R1とは異なる空間(以下、「第2部屋R2」ともいう)が存在すると仮定する。また、以下では、第1部屋R1にある照明機器2は消灯していると仮定する。 Hereinafter, specific examples of the operation of the device control system 1 will be described with reference to FIGS. 4A, 4B, and 5. In the following, it is assumed that a space (hereinafter, also referred to as “second room R2”) different from the space R1 separated by a wall and a door exists next to the space (first room) R1. Further, in the following, it is assumed that the lighting device 2 in the first room R1 is turned off.

まず、図4Aに示すように、第1部屋R1に人A1が存在する場合、人検知部13は、人A1の行動に起因する音に基づいて、第1部屋R1に人A1が存在すると検知する。このため、制御部14は、第1部屋R1に人A1が滞在している間、第1部屋R1に人A1が存在するという検知情報を人検知部13から受ける。ここで、第1部屋R1にいる人A1が、[点灯(又はオン)]の指示音声を含む音声V1を発した場合、音声認識部12は、この指示音声を認識し、点灯コマンドを含む認識情報を制御部14へ出力する。制御部14は、第1部屋R1に人が存在するという検知情報を受けているので、点灯コマンドに応じて、照明機器2の点灯制御を実行する。これにより、図4Bに示すように、照明機器2が点灯する。このように、第1部屋R1に人A1が存在する場合には、制御部14は、人A1の発する指示音声に応じた照明機器2の制御を実行する。 First, as shown in FIG. 4A, when a person A1 is present in the first room R1, the person detection unit 13 detects that the person A1 is present in the first room R1 based on the sound caused by the behavior of the person A1. do. Therefore, the control unit 14 receives the detection information from the person detection unit 13 that the person A1 is present in the first room R1 while the person A1 is staying in the first room R1. Here, when the person A1 in the first room R1 emits the voice V1 including the instruction voice of [lighting (or on)], the voice recognition unit 12 recognizes this instruction voice and recognizes including the lighting command. Information is output to the control unit 14. Since the control unit 14 receives the detection information that a person exists in the first room R1, the control unit 14 executes the lighting control of the lighting device 2 in response to the lighting command. As a result, as shown in FIG. 4B, the lighting device 2 is turned on. As described above, when the person A1 is present in the first room R1, the control unit 14 controls the lighting device 2 according to the instruction voice emitted by the person A1.

次に、図5に示すように、第1部屋R1に人が存在しない場合、人検知部13は、空間R1にて音が発生しないので、第1部屋R1に人が存在しないと検知する。このため、制御部14は、第1部屋R1に人が存在しない間、第1部屋R1に人が存在しないという検知情報を人検知部13から受ける。ここで、第2部屋R2にいる人A2,A3が会話をしており、かつ、人A2,A3の発する音声V2,V3の少なくとも一方に、[点灯(又はオン)]の指示音声として音声認識部12が認識し得る音声が含まれていると仮定する。この場合、マイクロフォン11には、第2部屋R2から第1部屋R1へ漏れ伝わる音声V2,V3が入力される可能性がある。また、音声認識部12は、音声V2,V3に含まれる指示音声を認識し、点灯コマンドを含む認識情報を制御部14へ出力する可能性がある。しかしながら、制御部14は、第1部屋R1に人が存在しないという検知情報を受けているので、音声認識部12から認識情報を受けても、認識情報に応じた照明機器2の制御を実行しない。このため、照明機器2は、消灯した状態を維持する。このように、第1部屋R1に人が存在しない場合には、仮に指示音声を含む音声が第2部屋R2などの他の空間から第1部屋R1に漏れ伝わったとしても、制御部14は、照明機器2の制御を実行しない。 Next, as shown in FIG. 5, when there is no person in the first room R1, the person detection unit 13 detects that there is no person in the first room R1 because no sound is generated in the space R1. Therefore, the control unit 14 receives the detection information from the person detection unit 13 that there is no person in the first room R1 while the person does not exist in the first room R1. Here, the people A2 and A3 in the second room R2 are having a conversation, and at least one of the voices V2 and V3 emitted by the people A2 and A3 is voice-recognized as a [lighting (or on)] instruction voice. It is assumed that the voice that can be recognized by the part 12 is included. In this case, voices V2 and V3 leaking from the second room R2 to the first room R1 may be input to the microphone 11. Further, the voice recognition unit 12 may recognize the instruction voice included in the voices V2 and V3 and output the recognition information including the lighting command to the control unit 14. However, since the control unit 14 receives the detection information that no person exists in the first room R1, even if the recognition information is received from the voice recognition unit 12, the control unit 2 does not control the lighting device 2 according to the recognition information. .. Therefore, the lighting device 2 maintains the extinguished state. In this way, when there is no person in the first room R1, even if the voice including the instruction voice leaks from another space such as the second room R2 to the first room R1, the control unit 14 has the control unit 14. The control of the lighting device 2 is not executed.

上述のように、本実施形態では、空間(第1部屋)R1に人が存在しないときに、音声認識部12が人の発する音声を指示音声として認識した場合であっても、空間R1にある機器2の制御を行わないようにすることが可能である。このため、本実施形態では、空間R1の外部から漏れる音(例えば、空間R1の外にいる人の発する音声)によって機器2を誤って制御する可能性を低減することができる、という利点がある。 As described above, in the present embodiment, even when the voice recognition unit 12 recognizes the voice emitted by the person as the instruction voice when the person does not exist in the space (first room) R1, it is in the space R1. It is possible not to control the device 2. Therefore, the present embodiment has an advantage that the possibility of erroneously controlling the device 2 by the sound leaking from the outside of the space R1 (for example, the sound emitted by a person outside the space R1) can be reduced. ..

(4)変形例
上述の実施形態は、本開示の様々な実施形態の一つに過ぎない。上述の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。以下、上述の実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。
(4) Modifications The above embodiment is only one of the various embodiments of the present disclosure. The above-described embodiment can be variously modified depending on the design and the like as long as the object of the present disclosure can be achieved. Hereinafter, modified examples of the above-described embodiment will be listed. The modifications described below can be applied in combination as appropriate.

(4.1)第1変形例
第1変形例では、図6に示すように、機器制御システム1が照明スイッチ3とサーバ4とに分散して設けられている点で、上述の実施形態と相違する。本変形例では、照明スイッチ3は、機器制御システム1のうちマイクロフォン11と、人検知部13と、制御部14と、操作部16と、を備えている。また、照明スイッチ3は、第1通信部17を更に備えている。
(4.1) First Modification Example In the first modification, as shown in FIG. 6, the device control system 1 is distributed between the lighting switch 3 and the server 4, and is the same as the above-described embodiment. It's different. In this modification, the lighting switch 3 includes a microphone 11, a human detection unit 13, a control unit 14, and an operation unit 16 in the device control system 1. Further, the lighting switch 3 further includes a first communication unit 17.

サーバ4は、照明スイッチ3が設置される建物から離れた場所、例えば照明スイッチ3の提供元、又は照明スイッチ3を用いたサービスの提供元が所有する施設に設けられている。サーバ4は、例えばプロセッサ及びメモリを含むコンピュータシステム(マイクロコンピュータを含む)を主構成とする。つまり、コンピュータシステムは、適宜のプログラムをプロセッサにて実行することにより、サーバ4として機能する。サーバ4は、機器制御システム1のうち音声認識部12と、記憶部15と、を備えている。また、サーバ4は、第2通信部18を更に備えている。 The server 4 is installed in a place away from the building where the lighting switch 3 is installed, for example, in a facility owned by the provider of the lighting switch 3 or the provider of the service using the lighting switch 3. The server 4 mainly includes a computer system (including a microcomputer) including, for example, a processor and a memory. That is, the computer system functions as the server 4 by executing an appropriate program on the processor. The server 4 includes a voice recognition unit 12 and a storage unit 15 in the device control system 1. Further, the server 4 further includes a second communication unit 18.

照明スイッチ3の第1通信部17と、サーバ4の第2通信部18とは、例えばインターネット等のネットワークNT1を介して、双方向に通信可能に構成されている。本変形例では、第1通信部17と第2通信部18との通信方式としては、ネットワークNT1を用いた無線通信方式が適用される。 The first communication unit 17 of the lighting switch 3 and the second communication unit 18 of the server 4 are configured to be capable of bidirectional communication via, for example, a network NT1 such as the Internet. In this modification, the wireless communication method using the network NT1 is applied as the communication method between the first communication unit 17 and the second communication unit 18.

以下、本変形例の機器制御システム1の動作のうち、上述の実施形態とは異なる動作について説明する。本変形例では、マイクロフォン11は、人の発する音声などの音を集音して電気信号に変換し、変換した電気信号を人検知部13及び第1通信部17にそれぞれ出力する。第1通信部17は、マイクロフォン11からの電気信号を受信すると、受信した電気信号をネットワークNT1を介して第2通信部18へ送信する。第2通信部18は、第1通信部17からの電気信号を受信すると、受信した電気信号を音声認識部12へ出力する。 Hereinafter, among the operations of the device control system 1 of this modification, operations different from those of the above-described embodiment will be described. In this modification, the microphone 11 collects sounds such as voices emitted by humans, converts them into electric signals, and outputs the converted electric signals to the human detection unit 13 and the first communication unit 17, respectively. When the first communication unit 17 receives the electric signal from the microphone 11, the first communication unit 17 transmits the received electric signal to the second communication unit 18 via the network NT1. When the second communication unit 18 receives the electric signal from the first communication unit 17, the second communication unit 18 outputs the received electric signal to the voice recognition unit 12.

音声認識部12は、第2通信部18からの電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を第2通信部18へ出力する。第2通信部18は、音声認識部12からの認識情報を受信すると、受信した認識情報をネットワークNT1を介して第1通信部17へ送信する。第1通信部17は、第2通信部18からの認識情報を受信すると、受信した認識情報を制御部14へ出力する。制御部14は、人検知部13からの検知情報、及び第2通信部18からの認識情報に基づいて、照明機器2の制御を行う。 The voice recognition unit 12 performs voice recognition based on the electric signal from the second communication unit 18, and outputs the recognition information corresponding to the recognized voice to the second communication unit 18. When the second communication unit 18 receives the recognition information from the voice recognition unit 12, the second communication unit 18 transmits the received recognition information to the first communication unit 17 via the network NT1. When the first communication unit 17 receives the recognition information from the second communication unit 18, the first communication unit 17 outputs the received recognition information to the control unit 14. The control unit 14 controls the lighting device 2 based on the detection information from the human detection unit 13 and the recognition information from the second communication unit 18.

このように、本変形例では、音声認識部12による音声認識処理は、照明スイッチ3ではなく、サーバ4で実行される。本変形例では、処理負荷が比較的大きい音声認識処理をサーバ4に実行させることで、照明スイッチ3での演算処理の負荷を低減することが可能になる、という利点がある。 As described above, in this modification, the voice recognition process by the voice recognition unit 12 is executed not by the lighting switch 3 but by the server 4. In this modification, there is an advantage that the load of the arithmetic processing on the lighting switch 3 can be reduced by causing the server 4 to execute the voice recognition processing having a relatively large processing load.

(4.2)第2変形例
第2変形例は、図7に示すように、マイクロフォン11に入力された音に基づいて人の存否を検知するのではなく、人感センサ5により人の存否を検知する点で上述の実施形態と相違する。つまり、本変形例では、人検知部13は、人感センサ5である。
(4.2) Second Modified Example As shown in FIG. 7, the second modified example does not detect the presence or absence of a person based on the sound input to the microphone 11, but the presence or absence of a person is detected by the motion sensor 5. It differs from the above-described embodiment in that it detects. That is, in this modification, the human detection unit 13 is a motion sensor 5.

人感センサ5は、例えば空間(第1部屋)R1の天井材に設けられる。人感センサ5は、例えば焦電型の赤外線センサであって、検知エリア内における人の存否を検知する。図7に示す点線は、人感センサ5の検知エリアを表している。つまり、人感センサ5は、検知エリア(ここでは、第1部屋R1)内における人の存否を検知する。人感センサ5は、有線通信又は無線通信により、検知情報を含む検知信号を照明スイッチ3の制御部14へ送信する。制御部14は、音声認識部12からの認識情報、及び人感センサ5からの検知情報に基づいて、照明機器2の制御を行う。 The motion sensor 5 is provided, for example, on the ceiling material of the space (first room) R1. The motion sensor 5 is, for example, a pyroelectric infrared sensor, and detects the presence or absence of a person in the detection area. The dotted line shown in FIG. 7 represents the detection area of the motion sensor 5. That is, the motion sensor 5 detects the presence or absence of a person in the detection area (here, the first room R1). The motion sensor 5 transmits a detection signal including the detection information to the control unit 14 of the lighting switch 3 by wired communication or wireless communication. The control unit 14 controls the lighting device 2 based on the recognition information from the voice recognition unit 12 and the detection information from the motion sensor 5.

以下、本変形例の機器制御システム1の動作の一例について図7を用いて説明する。図7に示す例では、第1部屋R1に人が存在しないため、人感センサ5は、第1部屋R1に人が存在しないと検知する。このため、制御部14は、第1部屋R1に人が存在しない間、第1部屋R1に人が存在しないという検知情報を人感センサ5から受ける。ここで、第2部屋R2にいる人A2,A3が会話をしており、かつ、人A2,A3の発する音声V2,V3の少なくとも一方に、[点灯(又はオン)]の指示音声として音声認識部12が認識し得る音声が含まれていると仮定する。この場合、制御部14は、第1部屋R1に人が存在しないという検知情報を受けているので、音声認識部12から認識情報を受けても、認識情報に応じた照明機器2の制御を実行しない。 Hereinafter, an example of the operation of the device control system 1 of this modification will be described with reference to FIG. 7. In the example shown in FIG. 7, since there is no person in the first room R1, the motion sensor 5 detects that there is no person in the first room R1. Therefore, the control unit 14 receives the detection information from the motion sensor 5 that there is no person in the first room R1 while the person is not present in the first room R1. Here, the people A2 and A3 in the second room R2 are having a conversation, and at least one of the voices V2 and V3 emitted by the people A2 and A3 is voice-recognized as a [lighting (or on)] instruction voice. It is assumed that the voice that can be recognized by the part 12 is included. In this case, since the control unit 14 receives the detection information that no person exists in the first room R1, even if the recognition information is received from the voice recognition unit 12, the control unit 2 controls the lighting device 2 according to the recognition information. do not do.

本変形例では、空間R1は、部屋などの遮蔽物で囲まれた空間でなくてもよい。例えば、遮蔽物で区画されていない空間において、特定の領域が空間R1であり、かつ検知エリアとなるように人感センサ5を設置してもよい。この場合、制御部14は、特定の領域における人の存否に応じて、照明機器2を制御することが可能である。 In this modification, the space R1 does not have to be a space surrounded by a shield such as a room. For example, in a space not partitioned by a shield, the motion sensor 5 may be installed so that the specific area is the space R1 and becomes the detection area. In this case, the control unit 14 can control the lighting device 2 according to the presence or absence of a person in a specific area.

(5)その他の変形例
以下、その他の変形例について列挙する。以下に説明する変形例は、「(4)変形例」に列挙した変形例を含めて、適宜組み合わせて適用可能である。
(5) Other modified examples The other modified examples are listed below. The modification described below can be applied in combination as appropriate, including the modification listed in "(4) Modification example".

本開示における機器制御システム1の実行主体は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを有する。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における機器制御システム1の実行主体としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよい。また、プログラムは、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的な記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1乃至複数の電子回路で構成される。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。 The execution subject of the device control system 1 in the present disclosure includes a computer system. The computer system has a processor and memory as hardware. When the processor executes the program recorded in the memory of the computer system, the function as the execution subject of the device control system 1 in the present disclosure is realized. The program may be pre-recorded in the memory of the computer system, but may be provided through a telecommunication line. Further, the program may be recorded and provided on a non-temporary recording medium such as a memory card, an optical disk, or a hard disk drive that can be read by a computer system. The processor of a computer system is composed of one or more electronic circuits including a semiconductor integrated circuit (IC) or a large scale integrated circuit (LSI). A plurality of electronic circuits may be integrated on one chip, or may be distributed on a plurality of chips. A plurality of chips may be integrated in one device, or may be distributed in a plurality of devices.

上述の実施形態において、音声認識部12は、空間R1における人の存否に応じて、音声認識のモードを変更してもよい。言い換えれば、音声認識部12は、人検知部13からの検知情報に応じて、音声認識のモードを変更してもよい。この態様では、音声認識部12は、人検知部13からの検知情報を受け付ける。例えば、音声認識部12は、空間R1に人が存在しないという検知情報を受けている間、人の発する音声を認識する必要がないので、音声認識のモードを、空間R1の環境音を測定するモードに変更する。この場合、音声認識部12は、例えば人の発する音声の周波数をフィルタリングしてもよい。また、音声認識部12は、空間R1に人が存在するという検知情報を受けている間、音声認識のモードを、人の発する音声を認識するモードに変更する。この場合、音声認識部12は、例えば空間R1の環境音の周波数をフィルタリングしてもよい。 In the above-described embodiment, the voice recognition unit 12 may change the voice recognition mode depending on the presence or absence of a person in the space R1. In other words, the voice recognition unit 12 may change the voice recognition mode according to the detection information from the person detection unit 13. In this aspect, the voice recognition unit 12 receives the detection information from the human detection unit 13. For example, since the voice recognition unit 12 does not need to recognize the voice emitted by the person while receiving the detection information that the person does not exist in the space R1, the voice recognition mode measures the environmental sound of the space R1. Change to mode. In this case, the voice recognition unit 12 may filter the frequency of the voice emitted by a person, for example. Further, the voice recognition unit 12 changes the voice recognition mode to the mode for recognizing the voice emitted by the person while receiving the detection information that the person exists in the space R1. In this case, the voice recognition unit 12 may filter the frequency of the environmental sound in the space R1, for example.

上述の実施形態において、制御部14は、空間R1における人の存否に応じて、反応するコマンドを変更してもよい。言い換えれば、制御部14は、人検知部13からの検知情報に応じて、受け付ける認識情報を変更してもよい。例えば、制御部14は、空間R1に人が存在する場合、点灯コマンド、消灯コマンド、第1調光コマンド、第2調光コマンド、第1調色コマンド、又は第2調色コマンドを含む認識情報を受け付ける。一方、制御部14は、空間R1に人が存在しない場合、消灯コマンドを含む認識情報のみを受け付ける。この態様では、例えば人が照明機器2を消灯せずに空間R1の外に出た場合に、照明機器2の消灯を指示する音声を発すれば、わざわざ空間R1に戻らずとも照明機器2を消灯することが可能である。 In the above-described embodiment, the control unit 14 may change the command to react depending on the presence or absence of a person in the space R1. In other words, the control unit 14 may change the recognition information to be received according to the detection information from the human detection unit 13. For example, when a person is present in the space R1, the control unit 14 recognizes information including a lighting command, an extinguishing command, a first dimming command, a second dimming command, a first toning command, or a second toning command. Accept. On the other hand, when there is no person in the space R1, the control unit 14 receives only the recognition information including the turn-off command. In this embodiment, for example, when a person goes out of the space R1 without turning off the lighting device 2, if a voice instructing the lighting device 2 to be turned off is emitted, the lighting device 2 is turned on without bothering to return to the space R1. It is possible to turn off the lights.

上述の実施形態において、制御部14は、空間R1における人の存否に応じて、機器2の制御内容を変更してもよい。言い換えれば、制御部14は、人検知部13からの検知情報に応じて、機器2の制御内容を変更してもよい。例えば、照明機器2が常夜灯を有していると仮定する。制御部14は、空間R1に人が存在するときに、消灯コマンドを含む認識情報を受け付けると、常夜灯を除いた光源を消灯する制御を実行する。つまり、この場合、常夜灯は点灯状態を継続する。一方、制御部14は、空間R1に人が存在しないときに、消灯コマンドを含む認識情報を受け付けると、常夜灯を含めて全ての光源を消灯する制御を実行する。このように、制御部14は、同一の制御を指示するコマンドを受け付けた場合であっても、空間R1における人の存否に応じて、照明機器2の制御内容を変更する。 In the above-described embodiment, the control unit 14 may change the control content of the device 2 depending on the presence or absence of a person in the space R1. In other words, the control unit 14 may change the control content of the device 2 according to the detection information from the human detection unit 13. For example, it is assumed that the lighting device 2 has a nightlight. When the control unit 14 receives the recognition information including the turn-off command when a person is present in the space R1, the control unit 14 executes control to turn off the light sources other than the nightlight. That is, in this case, the nightlight remains lit. On the other hand, when the control unit 14 receives the recognition information including the turn-off command when there is no person in the space R1, the control unit 14 executes control to turn off all the light sources including the nightlight. In this way, even when the control unit 14 receives a command instructing the same control, the control unit 14 changes the control content of the lighting device 2 according to the presence or absence of a person in the space R1.

上述の実施形態において、操作部16は機器制御システム1に必須の構成ではない。つまり、制御部14は、操作部16を用いたタッチ操作(手動操作)に応じた機器2の制御を行わずに、音声認識部12からの認識情報に応じた機器2の制御のみを行う構成であってもよい。 In the above-described embodiment, the operation unit 16 is not an essential configuration for the device control system 1. That is, the control unit 14 does not control the device 2 according to the touch operation (manual operation) using the operation unit 16, but only controls the device 2 according to the recognition information from the voice recognition unit 12. It may be.

上述の実施形態では、音声認識部12は、人検知部13からの検知情報に依らず、音声認識を行っているが、これに限定する趣旨ではない。例えば、音声認識部12は、空間R1に人が存在しないときに、動作を停止する構成であってもよい。この態様では、音声認識部12は、人検知部13からの検知情報を受け付け、空間R1に人が存在しないという検知情報であれば、動作を停止する。 In the above-described embodiment, the voice recognition unit 12 performs voice recognition regardless of the detection information from the human detection unit 13, but the present invention is not limited to this. For example, the voice recognition unit 12 may be configured to stop the operation when there is no person in the space R1. In this aspect, the voice recognition unit 12 receives the detection information from the person detection unit 13, and stops the operation if the detection information indicates that no person exists in the space R1.

上述の実施形態において、制御部14の代わりに、リレー制御部を設けてもよい。リレー制御部は、電源(例えば、商用電源)から照明機器2への電力の供給路に設けられたリレーを制御する。この場合、リレー制御部は、リレーのオン/オフを制御することにより、電源から照明機器2への電力の供給を制御し、照明機器2の状態を制御する。なお、機器制御システム1において、制御部14と、リレー制御部とは併存してもよい。例えば、リレー制御部は、空間R1に人が存在するときにリレーをオンにし、空間R1に人が存在しないときにリレーをオフにする。制御部14は、空間R1に人が存在するときに、音声認識部12からの認識情報に応じて照明機器2を制御する。 In the above-described embodiment, the relay control unit may be provided instead of the control unit 14. The relay control unit controls a relay provided in the power supply path from the power supply (for example, a commercial power supply) to the lighting equipment 2. In this case, the relay control unit controls the supply of electric power from the power source to the lighting device 2 by controlling the on / off of the relay, and controls the state of the lighting device 2. In the device control system 1, the control unit 14 and the relay control unit may coexist. For example, the relay control unit turns on the relay when there is a person in the space R1 and turns off the relay when there is no person in the space R1. The control unit 14 controls the lighting device 2 according to the recognition information from the voice recognition unit 12 when a person is present in the space R1.

上述の実施形態において、音声認識部12、人検知部13、及び制御部14は、それぞれ互いに異なるマイクロコンピュータ(コンピュータシステム)で構成されているが、これに限定する趣旨ではない。例えば、音声認識部12、人検知部13、及び制御部14の機能は、1つまたは2つのマイクロコンピュータ(コンピュータシステム)で実現されてもよい。 In the above-described embodiment, the voice recognition unit 12, the human detection unit 13, and the control unit 14 are composed of different microcomputers (computer systems), but the present invention is not limited thereto. For example, the functions of the voice recognition unit 12, the human detection unit 13, and the control unit 14 may be realized by one or two microcomputers (computer systems).

上述の実施形態において、照明機器2は、調光及び調色の両方が可能な光源を備えているが、これに限定する趣旨ではない。例えば、照明機器2は、調光及び調色のいずれか一方のみが可能な光源を備えていてもよい。その他、照明機器2は、点灯及び消灯のみが可能な光源を備えていてもよい。 In the above-described embodiment, the lighting device 2 includes a light source capable of both dimming and toning, but the present invention is not limited to this. For example, the lighting device 2 may include a light source capable of either dimming or toning. In addition, the lighting device 2 may include a light source that can only be turned on and off.

上述の実施形態では、空間R1には、1つの機器2のみが設けられているが、複数の機器2が設けられていてもよい。この場合、制御部14は、認識情報に応じて複数の機器2を一括制御してもよいし、個別に制御してもよい。また、上述の実施形態では、空間R1には、1つの照明スイッチ3のみが設けられているが、複数の照明スイッチ3が設けられていてもよい。 In the above-described embodiment, the space R1 is provided with only one device 2, but a plurality of devices 2 may be provided. In this case, the control unit 14 may collectively control a plurality of devices 2 according to the recognition information, or may control them individually. Further, in the above-described embodiment, the space R1 is provided with only one lighting switch 3, but a plurality of lighting switches 3 may be provided.

上述の実施形態において、機器制御システム1の機能は、1つの筐体内に集約されていてもよいし、複数の筐体に分散して設けられていてもよい。また、機器制御システム1の一部の機能は、例えばクラウド(クラウドコンピューティング)等によって実現されてもよい。 In the above-described embodiment, the functions of the device control system 1 may be integrated in one housing or may be distributed in a plurality of housings. Further, some functions of the device control system 1 may be realized by, for example, a cloud (cloud computing) or the like.

上述の実施形態において、機器2は、照明機器に限らず、例えば、空調機器、換気扇、電動シャッタ、空気清浄機、給湯機、テレビ受像機、洗濯機、又は冷蔵庫などであってもよい。 In the above-described embodiment, the device 2 is not limited to the lighting device, and may be, for example, an air conditioner, a ventilation fan, an electric shutter, an air purifier, a water heater, a television receiver, a washing machine, a refrigerator, or the like.

(まとめ)
以上述べたように、第1の態様に係る機器制御システム(1)は、音入力部(マイクロフォン)(11)と、音声認識部(12)と、人検知部(13)と、制御部(14)と、を備える。音入力部(11)は、入力された音に基づく電気信号を出力する。音声認識部(12)は、電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を出力する。人検知部(13)は、音入力部(11)のある空間(第1部屋)(R1)における人の存否を検知し、検知結果を検知情報として出力する。制御部(14)は、認識情報及び検知情報に基づいて、空間(R1)にある機器(2)の制御を行う。
(summary)
As described above, the device control system (1) according to the first aspect includes a sound input unit (microphone) (11), a voice recognition unit (12), a human detection unit (13), and a control unit ( 14) and. The sound input unit (11) outputs an electric signal based on the input sound. The voice recognition unit (12) performs voice recognition based on an electric signal and outputs recognition information corresponding to the recognized voice. The human detection unit (13) detects the presence or absence of a person in the space (first room) (R1) where the sound input unit (11) is located, and outputs the detection result as detection information. The control unit (14) controls the device (2) in the space (R1) based on the recognition information and the detection information.

この態様によれば、外部から漏れる音によって機器(2)を誤って制御する可能性を低減することができる、という利点がある。 According to this aspect, there is an advantage that the possibility of erroneously controlling the device (2) due to the sound leaking from the outside can be reduced.

第2の態様に係る機器制御システム(1)では、第1の態様において、人検知部(13)は、上記音に基づいて、人の存否を検知する。 In the device control system (1) according to the second aspect, in the first aspect, the human detection unit (13) detects the presence or absence of a person based on the above sound.

この態様によれば、音入力部(11)に入力される音に基づいて人の存否を検知するため、人感センサなどの人の存否を検知するためのセンサを別途用意する必要がない、という利点がある。その結果、この態様では、コストを抑えることができる、という利点がある。 According to this aspect, since the presence / absence of a person is detected based on the sound input to the sound input unit (11), it is not necessary to separately prepare a sensor for detecting the presence / absence of a person such as a motion sensor. There is an advantage. As a result, this aspect has the advantage that the cost can be suppressed.

第3の態様に係る機器制御システム(1)では、第2の態様において、人検知部(13)は、上記音の直接波及び反射波の情報に基づいて、上記音が空間(R1)で発生したか否かを識別する。 In the device control system (1) according to the third aspect, in the second aspect, the human detection unit (13) makes the sound in space (R1) based on the information of the direct wave and the reflected wave of the sound. Identify whether it has occurred.

この態様によれば、音入力部(11)に入力される音に基づいて、より精度良く人の存否を検知し易い、という利点がある。 According to this aspect, there is an advantage that it is easy to detect the presence or absence of a person more accurately based on the sound input to the sound input unit (11).

第4の態様に係る機器制御システム(1)では、第1~第3のいずれかの態様において、制御部(14)は、空間(R1)に人が存在しないという検知情報を受けている間、認識情報に応じた機器(2)の制御を行わない。 In the device control system (1) according to the fourth aspect, in any one of the first to third aspects, while the control unit (14) receives the detection information that no person exists in the space (R1). , The device (2) is not controlled according to the recognition information.

この態様によれば、空間(R1)に人が存在しない状況で、機器(2)を不必要に制御する可能性を低減することができる、という利点がある。 According to this aspect, there is an advantage that the possibility of unnecessarily controlling the device (2) can be reduced in a situation where no person is present in the space (R1).

第5の態様に係る機器制御システム(1)では、第1~第4のいずれかの態様において、音声認識部(12)は、検知情報に依らず、音声認識を行う。 In the device control system (1) according to the fifth aspect, in any one of the first to fourth aspects, the voice recognition unit (12) performs voice recognition regardless of the detection information.

この態様によれば、空間(R1)に人が存在しない状況でも、音声認識技術を用いることで機器(2)の制御以外の機能を実現することが可能である、という利点がある。 According to this aspect, there is an advantage that it is possible to realize a function other than the control of the device (2) by using the voice recognition technology even in a situation where no person exists in the space (R1).

第6の態様に係る機器制御システム(1)では、第1~第5のいずれかの態様において、音声認識部(12)は、検知情報に応じて、音声認識のモードを変更する。 In the device control system (1) according to the sixth aspect, in any one of the first to fifth aspects, the voice recognition unit (12) changes the voice recognition mode according to the detection information.

この態様によれば、空間(R1)における人の存否に応じて、適切な音声認識を実行することが可能になる、という利点がある。 According to this aspect, there is an advantage that appropriate voice recognition can be performed depending on the presence or absence of a person in the space (R1).

第7の態様に係る機器制御システム(1)では、第1~第6のいずれかの態様において、制御部(14)は、検知情報に応じて、受け付ける認識情報を変更する。 In the device control system (1) according to the seventh aspect, in any one of the first to sixth aspects, the control unit (14) changes the recognition information to be received according to the detection information.

この態様によれば、空間(R1)における人の存否に応じて、適切な機器(2)の制御が実行されるようにすることが可能になる、という利点がある。 According to this aspect, there is an advantage that it becomes possible to perform control of an appropriate device (2) according to the presence or absence of a person in the space (R1).

第8の態様に係る機器制御システム(1)では、第1~第7のいずれかの態様において、制御部(14)は、検知情報に応じて、機器(2)の制御内容を変更する。 In the device control system (1) according to the eighth aspect, in any one of the first to seventh aspects, the control unit (14) changes the control content of the device (2) according to the detection information.

この態様によれば、空間(R1)における人の存否に応じて、適切な機器(2)の制御が実行されるようにすることが可能になる、という利点がある。 According to this aspect, there is an advantage that it becomes possible to perform control of an appropriate device (2) according to the presence or absence of a person in the space (R1).

第9の態様に係る機器制御システム(1)は、第1~第8のいずれかの態様において、タッチ操作を受け付ける操作部(16)を更に備える。制御部(14)は、操作部(16)が受け付けたタッチ操作に応じて、機器(2)の制御を行う。 The device control system (1) according to the ninth aspect further includes an operation unit (16) for receiving a touch operation in any one of the first to eighth aspects. The control unit (14) controls the device (2) in response to the touch operation received by the operation unit (16).

この態様によれば、空間(R1)にいる人が機器(2)を制御するための音声を発しなくとも、機器(2)を制御することができる、という利点がある。 According to this aspect, there is an advantage that the person in the space (R1) can control the device (2) without emitting a voice for controlling the device (2).

第10の態様に係る機器制御システム(1)では、第1~第9のいずれかの態様において、機器(2)は、照明機器(2)である。 In the device control system (1) according to the tenth aspect, in any one of the first to ninth aspects, the device (2) is a lighting device (2).

この態様によれば、外部から漏れる音によって照明機器(2)を誤って制御する可能性を低減することができる、という利点がある。 According to this aspect, there is an advantage that the possibility of erroneously controlling the lighting device (2) due to the sound leaking from the outside can be reduced.

第2~第10の態様に係る構成については、機器制御システム(1)に必須の構成ではなく、適宜省略可能である。 The configurations according to the second to tenth aspects are not essential configurations for the device control system (1) and can be omitted as appropriate.

1 機器制御システム
11 マイクロフォン(音入力部)
12 音声認識部
13 人検知部
14 制御部
16 操作部
2 照明機器(機器)
1 Device control system 11 Microphone (sound input section)
12 Voice recognition unit 13 Human detection unit 14 Control unit 16 Operation unit 2 Lighting equipment (equipment)

Claims (10)

入力された音に基づく電気信号を出力する音入力部と、
前記電気信号に基づいて音声認識を行い、認識した音声に対応する認識情報を出力する音声認識部と、
前記音入力部のある空間における人の存否を検知し、検知結果を検知情報として出力する人検知部と、
前記認識情報及び前記検知情報の両方に基づいて、前記空間にある機器の制御を行う制御部と、を備える
機器制御システム。
A sound input unit that outputs an electric signal based on the input sound,
A voice recognition unit that performs voice recognition based on the electric signal and outputs recognition information corresponding to the recognized voice, and a voice recognition unit.
A human detection unit that detects the presence or absence of a person in the space where the sound input unit is located and outputs the detection result as detection information.
A device control system including a control unit that controls devices in the space based on both the recognition information and the detection information.
前記人検知部は、前記音に基づいて、前記人の存否を検知する
請求項1記載の機器制御システム。
The device control system according to claim 1, wherein the person detection unit detects the presence or absence of the person based on the sound.
前記人検知部は、前記音の直接波及び反射波の情報に基づいて、前記音が前記空間で発生したか否かを識別する
請求項2記載の機器制御システム。
The device control system according to claim 2, wherein the person detection unit identifies whether or not the sound is generated in the space based on the information of the direct wave and the reflected wave of the sound.
前記制御部は、前記空間に前記人が存在しないという前記検知情報を受けている間、前記認識情報に応じた前記機器の制御を行わない
請求項1乃至3のいずれか1項に記載の機器制御システム。
The device according to any one of claims 1 to 3, wherein the control unit does not control the device according to the recognition information while receiving the detection information that the person does not exist in the space. Control system.
前記音声認識部は、前記検知情報に依らず、前記音声認識を行う
請求項1乃至4のいずれか1項に記載の機器制御システム。
The device control system according to any one of claims 1 to 4, wherein the voice recognition unit performs voice recognition regardless of the detection information.
前記音声認識部は、前記検知情報に応じて、前記音声認識のモードを変更する
請求項1乃至5のいずれか1項に記載の機器制御システム。
The device control system according to any one of claims 1 to 5, wherein the voice recognition unit changes the voice recognition mode according to the detection information.
前記制御部は、前記検知情報に応じて、受け付ける前記認識情報を変更する
請求項1乃至6のいずれか1項に記載の機器制御システム。
The device control system according to any one of claims 1 to 6, wherein the control unit changes the recognition information to be received according to the detection information.
前記制御部は、前記検知情報に応じて、前記機器の制御内容を変更する
請求項1乃至7のいずれか1項に記載の機器制御システム。
The device control system according to any one of claims 1 to 7, wherein the control unit changes the control content of the device according to the detection information.
タッチ操作を受け付ける操作部を更に備え、
前記制御部は、前記操作部が受け付けた前記タッチ操作に応じて、前記機器の制御を行う
請求項1乃至8のいずれか1項に記載の機器制御システム。
It also has an operation unit that accepts touch operations.
The device control system according to any one of claims 1 to 8, wherein the control unit controls the device in response to the touch operation received by the operation unit.
前記機器は、照明機器である
請求項1乃至9のいずれか1項に記載の機器制御システム。
The device control system according to any one of claims 1 to 9, wherein the device is a lighting device.
JP2017223901A 2017-11-21 2017-11-21 Equipment control system Active JP7012250B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017223901A JP7012250B2 (en) 2017-11-21 2017-11-21 Equipment control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017223901A JP7012250B2 (en) 2017-11-21 2017-11-21 Equipment control system

Publications (2)

Publication Number Publication Date
JP2019096435A JP2019096435A (en) 2019-06-20
JP7012250B2 true JP7012250B2 (en) 2022-01-28

Family

ID=66973112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017223901A Active JP7012250B2 (en) 2017-11-21 2017-11-21 Equipment control system

Country Status (1)

Country Link
JP (1) JP7012250B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7506617B2 (en) 2021-02-02 2024-06-26 シャープ株式会社 washing machine

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006058479A (en) 2004-08-18 2006-03-02 Matsushita Electric Works Ltd Controller with voice recognition function
JP2014020790A (en) 2012-07-12 2014-02-03 Funai Electric Co Ltd Information terminal
JP2016219132A (en) 2015-05-15 2016-12-22 株式会社レイトロン Polyhedron lighting system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11142231A (en) * 1997-11-10 1999-05-28 Toyota Central Res & Dev Lab Inc Noise analyzer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006058479A (en) 2004-08-18 2006-03-02 Matsushita Electric Works Ltd Controller with voice recognition function
JP2014020790A (en) 2012-07-12 2014-02-03 Funai Electric Co Ltd Information terminal
JP2016219132A (en) 2015-05-15 2016-12-22 株式会社レイトロン Polyhedron lighting system

Also Published As

Publication number Publication date
JP2019096435A (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP7122667B2 (en) Lighting control system and device
US9659212B2 (en) Methods, systems, and products for gesture-activation
US10531538B2 (en) Apparatus and method for remote control of lighting equipments
US20140270798A1 (en) Hazardous location visible light communication networks
US11168914B2 (en) Operating system, information processing device, control system, and infrared output device
JP2017082507A (en) Controller, control system, and program
CN106455274A (en) Voice control illumination system, method and device
JP7012250B2 (en) Equipment control system
CN206212383U (en) Voice command illuminator
JP7340764B2 (en) voice control system
JP6037651B2 (en) Lighting control apparatus and lighting control system
CN111183478B (en) Household electrical appliance system
KR100949112B1 (en) System and method for sensing indoor
US20230247743A1 (en) Determining a location for a presence sensor or light switch based on a control history
JP2019050147A (en) Illumination control system, illumination control method, and program
WO2020110572A1 (en) Management system, management system control method, and program
JP3355293B2 (en) Voice recognition remote control
KR20220068851A (en) smart home control system
KR200260541Y1 (en) Output device for sound of going with the lighting a musical instrument decorations
WO2021180467A1 (en) Grid of luminaires
JP2019090763A (en) Sensor device, control system, illumination control system, and program
JP2007263445A (en) Ventilator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211006

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211014

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211224

R151 Written notification of patent or utility model registration

Ref document number: 7012250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151