WO2022137826A1 - 制御システム、制御方法、及び、プログラム - Google Patents

制御システム、制御方法、及び、プログラム Download PDF

Info

Publication number
WO2022137826A1
WO2022137826A1 PCT/JP2021/040606 JP2021040606W WO2022137826A1 WO 2022137826 A1 WO2022137826 A1 WO 2022137826A1 JP 2021040606 W JP2021040606 W JP 2021040606W WO 2022137826 A1 WO2022137826 A1 WO 2022137826A1
Authority
WO
WIPO (PCT)
Prior art keywords
control
control information
scene
input
execution input
Prior art date
Application number
PCT/JP2021/040606
Other languages
English (en)
French (fr)
Inventor
賑華 杜
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2022571936A priority Critical patent/JP7462246B2/ja
Priority to CN202180076728.0A priority patent/CN116508308A/zh
Publication of WO2022137826A1 publication Critical patent/WO2022137826A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Definitions

  • This disclosure relates to control systems, control methods, and programs.
  • Patent Document 1 An operation system capable of controlling a scene of at least a part of devices in a facility by using an operation terminal such as a mobile terminal has been disclosed.
  • the present disclosure provides a control system, a control method, and a program that can quickly control a scene of at least a part of the devices without causing the user to feel a sense of discomfort.
  • the control system is a control system used together with a gateway that relays between a local network and the Internet, and is a first device connected to the local network and a second device different from the first device.
  • a control device that acquires an execution input for executing a scene control for controlling at least one of the devices, and controls the first device based on the acquired execution input without going through the Internet, and the above-mentioned. It includes a control server that acquires an execution input and controls the second device via the gateway and the Internet based on the acquired execution input.
  • the control method is a scene control for controlling at least one of a first device connected to a local network and a second device different from the first device, and is associated with a life scene. Acquires the execution input for executing the obtained scene control, and acquires and acquires the first control step for controlling the first device without going through the Internet based on the acquired execution input, and the execution input.
  • the present invention includes a gateway that relays the local network and the Internet based on the execution input, and a second control step that controls the second device via the Internet.
  • the program according to one aspect of the present disclosure is a program for causing a computer to execute the control method.
  • control system, control method, and program can quickly control the scene of at least a part of the devices without causing the user to feel a sense of discomfort.
  • FIG. 1 is a block diagram showing an example of the functional configuration of the control system according to the first embodiment.
  • FIG. 2 is a sequence diagram showing a first example of the operation of the control system according to the first embodiment.
  • FIG. 3 is a sequence diagram showing a second example of the operation of the control system according to the first embodiment.
  • FIG. 4 is a sequence diagram showing a third example of the operation of the control system according to the first embodiment.
  • FIG. 5 is a block diagram showing an example of the functional configuration of the control system according to the second embodiment.
  • FIG. 6 is a sequence diagram showing a first example of the operation of the control system according to the second embodiment.
  • FIG. 7 is a sequence diagram showing a second example of the operation of the control system according to the second embodiment.
  • FIG. 1 is a block diagram showing an example of the functional configuration of the control system according to the first embodiment.
  • FIG. 2 is a sequence diagram showing a first example of the operation of the control system according to the first embodiment.
  • FIG. 3 is
  • FIG. 8 is a block diagram showing an example of the functional configuration of the control system according to the third embodiment.
  • FIG. 9 is a sequence diagram showing a first example of the operation of the control system according to the third embodiment.
  • FIG. 10 is a sequence diagram showing a second example of the operation of the control system according to the third embodiment.
  • FIG. 1 is a block diagram showing an example of the functional configuration of the control system according to the first embodiment.
  • the control system 100 does not make the user feel uncomfortable with the first device 40 and the second device 50 installed in the building 80 based on the scene control execution input input by the user. It is a system that can be controlled quickly. To make the user feel uncomfortable means to make it difficult for the user to feel that there is a time lag (that is, the start of operation is late) from the input of the scene control execution instruction to the start of operation of the devices. That is, the control system 100 is a system that controls at least a part of a plurality of devices in a scene according to the real-time property required for the operation of the devices.
  • the building 80 is, for example, an apartment house or a house such as a detached house, but may be a facility other than a house such as an office.
  • Scene control is to control at least a part of a plurality of devices to produce a scene in the user's life.
  • the scenes may be various scenes in the user's life, such as life scenes such as getting up, going to bed, returning home, and going out, and working scenes such as meetings, desk work, breaks, and naps. good.
  • the user operates an operation terminal 10 such as a remote controller installed on a wall or the like in the building 80, or an operation terminal 60 such as a mobile terminal owned by the user, and at least one of the first device 40 and the second device 50. It is possible to execute scene control for which one is the control target.
  • the first device 40 and the second device 50 may each include one or more devices.
  • the first device 40 is a device that requires a short time lag (in other words, real-time performance) from the reception of an operation instruction from the user to the start of the operation.
  • the first device 40 is a lighting device, an electric curtain, or the like.
  • the second device 50 is a device different from the first device, and the user does not feel a sense of discomfort even if there is a time lag between the reception of the operation instruction from the user and the start of the operation (in other words, the real-time property of the operation). Is not required).
  • the second device is an air conditioner, a floor heater, an electric lock, an electric shutter, a television, an aroma diffuser, an acoustic device, or the like.
  • the user can set the operating state of the first device 40 and the second device 50 in association with each of a plurality of scenes such as an outing scene and a homecoming scene.
  • the operating state includes a power-on state, a power-off state, and a set state (for example, brightness if the first device 40 is a lighting device, and set temperature if the second device 50 is an air-conditioning device). Etc.) etc. are included.
  • the control system 100 includes, for example, an operation terminal 10, a control device 20, a control server 30, a first device 40, a second device 50, and an operation terminal 60. Since the first device 40 and the second device 50 have been described above, the description thereof will be simplified.
  • the operation terminal 10 is a terminal device that receives user input and outputs it to the control device 20. More specifically, the operation terminal 10 is a terminal device operated by a user to input an execution input for executing scene control and a setting information for setting scene control.
  • the operation terminal 10 is, for example, a remote controller or a control panel installed on a wall or the like in the building 80. The operation terminal 10 may be installed in each room in the building 80.
  • the operation terminal 10 includes, for example, a communication unit 11, a control unit 12, an input reception unit 13, and a storage unit 16.
  • the communication unit 11 is a communication module (communication circuit) for the operation terminal 10 to communicate with the control device 20, the first device 40, and the operation terminal 60 via a local communication network.
  • the communication unit 11 is, for example, a wireless communication circuit that performs wireless communication, but may be a wired communication circuit that performs wired communication.
  • the communication standard for communication performed by the communication unit 11 is not particularly limited. Although the operation terminal 60 is described separately from the operation terminal 10 in FIG. 1, when the operation terminal 60 is located in the building 80, the operation terminal 60 may be used as the operation terminal 10.
  • the control unit 12 performs information processing for controlling the operation of the operation terminal 10.
  • the control unit 12 is realized by, for example, a microcomputer, but may be realized by a processor or a dedicated circuit.
  • the input receiving unit 13 accepts the user's manual input or the user's voice input.
  • the input receiving unit 13 includes, for example, a display unit 14 and a microphone 15.
  • the display unit 14 is a display device having an image display function and a function of accepting a user's manual input.
  • the display unit 14 is realized by a touch panel and a display panel such as a liquid crystal panel or an organic EL (Electroluminescence) panel.
  • the touch panel is, for example, a capacitance type touch panel, but may be a resistance film type touch panel.
  • the input receiving unit 13 may be provided with a speaker (not shown).
  • the speaker outputs voice (machine voice) as a response to the spoken voice acquired by the microphone 15, for example.
  • voice machine voice
  • the user can interactively input the execution instruction of the scene control.
  • the storage unit 16 is a storage device that stores a control program or the like executed by the control unit 12.
  • the storage unit 16 is realized by, for example, a semiconductor memory.
  • the control device 20 is a device that acquires an execution input for executing scene control from the operation terminal 10 and controls the first device 40 based on the acquired execution input without going through the Internet.
  • the control device 20 is installed in the building 80 together with the first device 40 and the second device 50 connected to the local network, for example. Further, the control device 20 manages the operating state of the first device 40 and is connected to the control server 30 so as to be communicable.
  • the control device 20 is, for example, a gateway device.
  • the control device 20 includes, for example, a first communication unit 21, a second communication unit 22, a control unit 23, and a storage unit 24.
  • the first communication unit 21 is a communication module (communication circuit) for the control device 20 to communicate with the operation terminal 10 and the first device 40 via a local communication network.
  • the first communication unit 21 is, for example, a wireless communication circuit that performs wireless communication, but may be a wired communication circuit that performs wired communication.
  • the communication standard for communication performed by the first communication unit 21 is not particularly limited.
  • the second communication unit 22 is a communication module (communication circuit) for the control device 20 to communicate with the control server 30, the second device 50, and the operation terminal 60 via the wide area communication network 70.
  • the communication performed by the second communication unit 22 is, for example, wired communication, but may be wireless communication.
  • the communication standard used for communication is also not particularly limited.
  • the control unit 23 performs information processing related to the control of the first device 40. For example, when the control unit 23 acquires the execution input for executing the scene control, the control unit 23 reads the first control information from the storage unit 24 and controls the first device 40 based on the first control information. More specifically, the control unit 23 outputs a control signal to the first device 40 via the first communication unit 21.
  • the control unit 23 is realized by, for example, a microcomputer, but may be realized by a processor or a dedicated circuit.
  • the storage unit 24 is a storage device that stores a control program or the like executed by the control unit 23. Further, the storage unit 24 stores the first control information regarding the operation of the first device in the scene control.
  • the storage unit 24 is realized by, for example, a semiconductor memory.
  • the control server 30 is a computer located outside the building 80.
  • the control server 30 is a cloud server that acquires an execution input for executing scene control from the operation terminal 10 and controls the second device 50 via the gateway and the Internet based on the acquired execution input.
  • the gateway relays between the local network to which the first device 40 and the second device 50 are connected and the Internet.
  • control server 30 includes, for example, a communication unit 31, an information processing unit 32, and a storage unit 33.
  • the communication unit 31 is a communication module (communication circuit) for the control server 30 to communicate with the control device 20, the second device 50, the operation terminal 60, and the like via the wide area communication network 70.
  • the communication performed by the communication unit 31 is, for example, wired communication, but may be wireless communication.
  • the communication standard used for communication is also not particularly limited.
  • the information processing unit 32 performs information processing related to the control of the second device 50.
  • the information processing unit 32 is realized by, for example, a microcomputer, but may be realized by a processor.
  • the information processing unit 32 has an acquisition unit 34 and an execution unit 35. The details of the functions of the acquisition unit 34 and the execution unit 35 will be described later.
  • the storage unit 33 is a storage device that stores control information such as first control information and second control information in scene control, and a control program executed by the information processing unit 32.
  • the storage unit 33 is realized by, for example, an HDD (Hard Disk Drive) or the like.
  • the operation terminal 60 is a portable information terminal operated by a user to input an execution input for executing a scene control and a setting information for setting a scene control, and is, for example, a smartphone or a tablet terminal. And so on.
  • the operation terminal 60 includes, for example, a communication unit 61, a control unit 62, an input reception unit 63, and a storage unit 66.
  • the input receiving unit 63 accepts the user's manual input or the user's voice input.
  • the input receiving unit 63 includes, for example, a display unit 64 and a microphone 65.
  • the first device 40 is, for example, a device that requires real-time operation, and is controlled by a control signal transmitted from the first communication unit 21 of the control device 20.
  • the first device 40 is connected to the local network.
  • the first device 40 is, for example, a lighting device, which is installed in the building 80 and may illuminate not only the inside of the building 80 but also the outside of the building 80.
  • the lighting device may be, for example, a ceiling light, a downlight, a pendant light, a spotlight, a bracket light, or the like.
  • the first device 40 and the second device 50 may be installed in one building 80.
  • the second device 50 is a device different from the first device 40, and is controlled by a control signal transmitted from the communication unit 31 of the control server 30.
  • the second device 50 is connected to the local network.
  • the second device 50 is, for example, an air-conditioning device, a floor heating device, an electric lock, an electric shutter, a television, an aroma diffuser, an acoustic device, or the like.
  • the air conditioner is an air conditioner for general household use, and is an air conditioner capable of adjusting the temperature of the wind created from the air conditioner by having a heat exchanger (not shown). That is, the air conditioner has a temperature adjusting function (for example, a blowing function and a cooling / heating function).
  • the air-conditioning equipment is not limited to general household use, and may be industrial air-conditioning equipment.
  • the electric shutter is arranged outside (or inside) the window of the building 80, and adjusts the amount of outside light taken into the building 80.
  • the electric shutter is, for example, an electric blind, and has a configuration in which a light shield physically opens and closes.
  • the electric shutter may be provided with a liquid crystal panel or the like and may have a configuration in which the light transmittance changes physically. It was
  • the electric lock is a security device that controls the unlocking and locking of the door (or window, etc.) of the building 80.
  • the electric lock includes, for example, an RFID reader that acquires key information from a card key or the like. Further, the electric lock may include a biosensor that acquires biometric information such as a fingerprint as key information.
  • FIG. 2 is a sequence diagram showing a first example of the operation of the control system 100 according to the first embodiment.
  • the user can set control information related to scene control using an operation terminal 60 such as a smartphone owned by the user.
  • step S001 when the input receiving unit 63 of the operation terminal 60 receives the input of the setting instruction of the control information related to the scene control (step S001), the control unit 62 receives the input of the setting instruction as the first device 40. It is determined whether or not the first control information relating to the control of the above is included (step S002).
  • step S001 When the control unit 62 of the operation terminal 60 determines that the control information of the scene control for which the input of the setting instruction is received in step S001 includes the first control information related to the control of the first device 40 (Yes in step S002).
  • the first control information is output to the control device 20 (step S003) and the control information is output to the control server 30 (step S004) via the communication unit 61.
  • the control device 20 acquires the first control information output from the operation terminal 60 in step S003 via the second communication unit 22 (not shown), and stores the acquired first control information in the storage unit 24 (not shown). Step S005). Further, the control server 30 acquires the control information output from the operation terminal 60 in step S004 (not shown), and stores the acquired control information in the storage unit 66 (step S006).
  • step S002 when the control unit 62 of the operation terminal 60 determines that the control information of the scene control for which the input of the setting instruction is received in step S001 does not include the first control information (No), the control unit 62 Outputs control information to the control server 30 via the communication unit 61 (step S007).
  • the control server 30 acquires the control information output from the operation terminal 60 in step S007 (not shown), and stores the acquired control information in the storage unit 66 (step S008).
  • the control system 100 stores the first control information regarding the control of the first device 40 in the storage unit 24 of the control device 20, and in addition to the first control information in the storage unit 33 of the control server 30.
  • the second control information (that is, the control information) regarding the control of the second device is stored. Therefore, when the first device 40 is a device such as a lighting device that requires real-time operation by the user, the control device 20 controls the operation of the first device 40 via a local network. Can be done. As a result, it is possible to quickly control the operation of the first device 40 in the scene control without causing the user to feel a sense of discomfort.
  • FIG. 3 is a sequence diagram showing a second example of the operation of the control system 100 according to the first embodiment.
  • the operation terminal 10 for example, a remote controller installed in the building 80
  • receives the scene control execution instruction input by the user but the operation terminal 60 (for example, a mobile terminal owned by the user). May accept execution instructions.
  • step S101 when the input receiving unit 13 of the operation terminal 10 receives the input of the scene control execution instruction (also referred to as the execution input) (step S101), the control unit 12 issues the scene control execution instruction via the communication unit 11. Output to the control device 20 (step S102).
  • the scene control execution instruction also referred to as the execution input
  • control unit 23 of the control device 20 acquires the scene control execution instruction output from the operation terminal 10 in step S102 via the first communication unit 21 (not shown), the scene control for which the execution instruction has been acquired It is determined whether or not the control information includes the first control information related to the control of the first device 40 (step S103).
  • control unit 23 of the control device 20 determines in step S103 that the control information includes the first control information (Yes)
  • the control unit 23 reads the first control information from the storage unit 24 (step S104).
  • the read first control information is output to the first device 40 (step S105).
  • the control unit 23 of the control device 20 outputs the scene control execution instruction acquired in step S103 to the control server 30 via the second communication unit 22 (step S106).
  • the first device 40 acquires the first control signal output from the control device 20 in step S105 (step S107), and operates according to the acquired first control signal (step S108).
  • the acquisition unit 34 acquires the scene control execution instruction output from the control device 20 in step S106 (step S109)
  • the information processing unit 32 of the control server 30 is the second device in the scene control based on the acquired execution instruction.
  • the second control information regarding the control of 50 is read from the storage unit 33 (step S110).
  • the execution unit 35 of the information processing unit 32 of the control server 30 transfers the second control signal for controlling the second device 50 based on the second control information read in step S110 to the second communication unit 22. It is output to the second device 50 via the device (step S111).
  • the second device 50 acquires the second control signal output from the control server 30 in step S111 (step S112), and operates according to the acquired second control signal (step S113).
  • step S103 when the control unit 23 of the control device 20 determines that the control information does not include the first control information (No), the control unit 23 performs the process of step S106. Then, the control system 100 performs the above-mentioned steps S109 to S113.
  • the control system 100 controls the first device 40 using the local network, and the second device 50 via the gateway relaying the local network and the Internet and the Internet. To control the control server 30.
  • the time lag from the input of the scene control execution instruction to the execution of the operation control of the first device 40 can be shortened, so that it is possible to reduce the user's feeling of strangeness in the operation of the first device 40. ..
  • FIG. 4 is a sequence diagram showing a third example of the operation of the control system 100 according to the first embodiment.
  • the scene control execution instruction received by the operation terminal 10 or the operation terminal 60 is output to the control device 20, but in the third example, the first device 40 is included in the control target of the scene control. It differs from the second example in that the output destination to which the execution instruction is output is changed depending on whether or not the execution instruction is output.
  • the points different from the second example will be mainly described, and duplicated explanations will be omitted or simplified.
  • the control unit 62 reads the control information related to the scene control from the storage unit 66 (not shown), and the read control is performed. It is determined whether or not the information includes the first control information regarding the control of the first device 40 (step S202).
  • step S202 when the control unit 62 determines that the control information includes the first control information (Yes), the control unit 62 outputs a scene control execution instruction to the control device 20 via the communication unit 61 (step S203).
  • control device 20 When the control device 20 acquires the execution instruction of the scene control output from the operation terminal 60 in step S203 (step S204), the control device 20 obtains the first control information regarding the control of the first device 40 in the scene control based on the acquired execution instruction. Read from the storage unit 24 (step S205).
  • control unit 23 of the control device 20 transmits a first control signal for controlling the first device 40 based on the first control information read in step S205 via the first communication unit 21. Output to 40 (step S206). Further, the control unit 23 of the control device 20 outputs the scene control execution instruction acquired in step S203 to the control server 30 via the second communication unit 22 (step S207).
  • the first device 40 acquires the first control signal output from the control device 20 in step S206 (step S208), and operates according to the acquired first control signal (step S209).
  • the acquisition unit 34 acquires the scene control execution instruction output from the control device 20 in step S207 (step S210)
  • the information processing unit 32 of the control server 30 is the second device in the scene control based on the acquired execution instruction.
  • the second control information regarding the control of 50 is read from the storage unit 33 (step S211).
  • the execution unit 35 of the information processing unit 32 of the control server 30 sends a second control signal for controlling the second device 50 based on the second control information read in step S211 to the second communication unit 22. It is output to the second device 50 via the device (step S212).
  • the second device 50 acquires the second control signal output from the control server 30 in step S212 (step S213), and operates according to the acquired second control signal (step S214).
  • step S202 when the control unit 62 of the operation terminal 60 determines that the control information read from the storage unit 66 does not include the first control information (No), the control unit 62 passes through the communication unit 61. The execution instruction of the scene control is output to the control server 30 (step S215).
  • the information processing unit 32 of the control server 30 executes the processes of steps S210 to S212 described above, and the second device 50 executes the processes of steps S213 and S214 described above.
  • the control system 100 controls the first device 40 using the local network, and the second device 50 via the gateway relaying the local network and the Internet and the Internet. To control the control server 30.
  • the time lag from the input of the scene control execution instruction to the execution of the operation control of the first device 40 can be shortened, so that it is possible to reduce the user's feeling of strangeness in the operation of the first device 40. ..
  • the operation terminal 60 receives the scene control execution instruction input by the user, whether or not the first device 40 is included in the control target of the scene control (in other words, the control information related to the scene control).
  • the output destination of the scene control execution instruction is changed depending on whether or not the first control information is included in. This makes it possible to quickly control the scene according to the control target.
  • the control system 100 is a control system used together with a gateway that relays between the local network and the Internet, and is a second device 40 connected to the local network and a second device different from the first device 40.
  • a scene control for controlling at least one of the devices 50 and an execution input for executing a scene control associated with a life scene is acquired, and based on the acquired execution input, the first is performed without going through the Internet.
  • control system 100 the control of the first device 40 is performed by local network communication, and the control of the second device 50 is performed by the control server 30 (so-called cloud server). Therefore, the control system 100 can quickly control a device with high real-time performance (for example, the first device 40), which is required to have a small time lag from receiving an execution instruction for scene control to controlling the operation of the device. Can be executed. Therefore, the control system 100 can quickly control the scene without causing the user to feel a sense of discomfort.
  • a device with high real-time performance for example, the first device 40
  • the control system 100 can quickly control the scene without causing the user to feel a sense of discomfort.
  • control device 20 stores the first control information regarding the operation of the first device 40 in the scene control, and when the execution input is acquired, the control device 20 controls the first device 40 based on the first control information.
  • control server 30 stores the second control information regarding the operation of the second device in the scene control, and when the execution input is acquired, the control server 30 controls the second device 50 based on the second control information. do.
  • Such a control system 100 can execute the control of the first device 40 more quickly than the control of the second device 50 in the scene control.
  • control device 20 manages the operating state of the first device 40 and is communicably connected to the control server 30, and the control server 30 acquires an execution input via the control device 20.
  • control device 20 can relay between the local network and the wide area communication network 70.
  • control system 100 further includes an operation terminal 60 (for example, a portable terminal owned by the user) that accepts execution input, and the operation terminal 60 stores first control information and second control information in scene control.
  • operation terminal 60 for example, a portable terminal owned by the user
  • the control device 20 When the execution input is received, it is determined whether or not the control information related to the scene control includes the first control information, and if it is determined that the control information includes the first control information, the control device 20 is used. When it is determined that the control information does not include the first control information, the execution input is output to the control server 30 without going through the control device 20.
  • control information related to scene control is stored in the operation terminal 60 in addition to the control server 30 that controls the second device 50, the first device 40 is the control target of the scene control.
  • the output destination of the execution instruction can be appropriately selected depending on whether or not is included.
  • the control server 30 can acquire the execution instruction without going through the control device 20, so that the scene can be obtained more quickly. Control can be performed.
  • the first device 40, the second device 50, and the control device 20 are arranged in one building 80, and the control server 30 is arranged outside one building 80.
  • the first device 40 is a lighting device.
  • control system 100 it is possible to quickly control the operation of a device such as a lighting device, which tends to give a sense of discomfort to the user if there is a time lag from the input of the operation execution instruction to the operation.
  • control method executed by a computer such as the control system 100 is a scene control in which at least one of the first device 40 connected to the local network and the second device 50 different from the first device 40 is controlled.
  • the first control step that acquires the execution input for execution and controls the first device 40 without going through the Internet based on the acquired execution input, and the execution input is acquired and based on the acquired execution input, It includes a gateway that relays between the local network and the Internet, and a second control step that controls the second device 50 via the Internet.
  • the control of the first device 40 is performed by local network communication, and the control of the second device 50 is performed by the control server 30 (so-called cloud server). Therefore, the control method quickly executes the control of a device with high real-time property (for example, the first device 40), which is required to have a small time lag from receiving the execution instruction of the scene control to controlling the operation of the device. can do. Therefore, according to the control method, it is possible to quickly control the scene without causing the user to feel a sense of discomfort.
  • a device with high real-time property for example, the first device 40
  • FIG. 5 is a block diagram showing an example of the functional configuration of the control system according to the second embodiment.
  • control device 20 is a gateway device that manages the operating state of the first device 40 and is communicably connected to the control server 30.
  • control device 10a is the operation terminal 10 of the first embodiment, and is connected to the control server 30 via a gateway 20a and a wide area communication network 70 such as the Internet. different.
  • the points different from those of the first embodiment will be mainly described, and the description of the contents overlapping with the first embodiment will be omitted or simplified.
  • the control device 10a is, for example, a remote controller or a control panel installed in the building 80, and includes a communication unit 11, a control unit 12a, an input reception unit 13, and a storage unit 16a. For example, when the input receiving unit 13 receives the execution input, the control device 10a determines whether or not the control information related to the scene control includes the first control information, and the control information includes the first control information. When it is determined, the first device 40 is controlled based on the first control information, the execution input is output to the control server 30 via the gateway 20a, and it is determined that the control information does not include the first control information. , The execution input is output to the control server 30 via the gateway 20a.
  • the control unit 12a performs information processing related to the control of the operation of the control device 10a and information processing related to the control of the first device 40. For example, when the control unit 12a acquires an execution input for executing scene control, the control unit 12a reads out the first control information from the storage unit 16a and controls the first device 40 based on the first control information. More specifically, the control unit 12a outputs a control signal to the first device 40 via the communication unit 11.
  • the control unit 12a is realized by, for example, a microcomputer, but may be realized by a processor or a dedicated circuit.
  • the storage unit 16a is a storage device that stores a control program or the like executed by the control unit 12a. Further, the storage unit 16a stores the first control information regarding the operation of the first device in the scene control.
  • the storage unit 16a is realized by, for example, a semiconductor memory.
  • the gateway 20a relays the control signal output from the control device 10a. More specifically, the gateway 20a relays the control signal by outputting the control signal such as the scene control execution instruction acquired from the control device 20 to the control server 30 via the wide area communication network 70 such as the Internet. ..
  • the gateway 20a includes a first communication unit 21, a second communication unit 22, a control unit 23a, and a storage unit 24a.
  • the first communication unit 21 is a communication circuit (communication module) for the gateway 20a to perform wireless communication with the control device 10a or the first device 40.
  • the communication standard used for communication by the first communication unit 21 is not particularly limited.
  • the second communication unit 22 is a communication circuit (communication module) for communicating with the control server 30, the second device 50, or the operation terminal 60.
  • the communication standard used for communication by the second communication unit 22 is not particularly limited.
  • the communication between the first communication unit 21 and the first device 40 conforms to, for example, ECHONET Lite (registered trademark).
  • the control unit 23a controls the relay of the control signal and the like.
  • the control unit 23a is realized by, for example, a microcomputer, but may be realized by a processor.
  • the storage unit 24a is a storage device that stores a computer program or the like executed by the control unit 23a.
  • the storage unit 24a is realized by, for example, a semiconductor memory.
  • FIG. 6 is a sequence diagram showing a first example of the operation of the control system 100a according to the second embodiment.
  • the user can set control information related to scene control using an operation terminal 60 such as a smartphone owned by the user.
  • the control unit 62 receives the input of the setting instruction as the first device 40. It is determined whether or not the first control information relating to the control of the above is included (step S302).
  • step S301 When the control unit 62 of the operation terminal 60 determines that the control information of the scene control for which the input of the setting instruction is received in step S301 includes the first control information related to the control of the first device 40 (Yes in step S302).
  • the first control information is output to the control device 10a (step S303) and the control information is output to the control server 30 (step S304) via the communication unit 61.
  • the control device 10a acquires the first control information output from the operation terminal 60 in step S303 (not shown), and stores the acquired first control information in the storage unit 16a (step S305). Further, the control server 30 acquires the control information output from the operation terminal 60 in step S304 (not shown), and stores the acquired control information in the storage unit 33 (step S306).
  • step S302 when the control unit 62 of the operation terminal 60 determines that the first control information is not included in the scene control control information for which the input of the setting instruction is received in step S301 (No), the communication unit 61.
  • the control information is output to the control server 30 via the above (step S307).
  • the control server 30 acquires the control information output from the operation terminal 60 in step S307 (not shown), and stores the acquired control information in the storage unit 33 (step S308).
  • the control system 100a stores the first control information regarding the control of the first device 40 in the storage unit 16a of the control device 10a, and in addition to the first control information in the storage unit 33 of the control server 30. It stores the second control information related to the control of the second device. Therefore, when the first device 40 is a device such as a lighting device that requires real-time operation by the user, the control device 10a may control the operation of the first device 40 via a local network. can. As a result, it is possible to quickly control the operation of the first device 40 in the scene control without causing the user to feel a sense of discomfort.
  • FIG. 7 is a sequence diagram showing a second example of the operation of the control system 100a according to the second embodiment.
  • the control device 10a for example, a remote controller installed in the building 80
  • receives the scene control execution instruction input by the user but the operation terminal 60 (for example, a mobile terminal owned by the user). May accept execution instructions.
  • the control information of the scene control for which the execution instruction is received is the control information of the first device 40. It is determined whether or not the first control information regarding the control is included (step S402).
  • step S402 when the control unit 12a of the control device 10a determines that the control information includes the first control information (Yes), the control unit 12a reads the first control information from the storage unit 16a (step S403). Then, the control unit 12a of the control device 10a outputs a first control signal for controlling the first device 40 based on the first control information read in step S403 to the first device 40 via the communication unit 11. (Step S404).
  • the first device 40 acquires the first control signal output from the control device 10a in step S404 (step S405), and operates according to the acquired first control signal (step S406).
  • control unit 12a of the control device 10a outputs the scene control execution instruction received in step S401 to the gateway 20a via the communication unit 11 (step S407), and the gateway 20a outputs the acquired scene control execution instruction. Is output to the control server 30 via the second communication unit 22 (step S408).
  • step S409 When the information processing unit 32 of the control server 30 acquires the execution instruction of the scene control relayed by the gateway 20a in step S408 (step S409), the information processing unit 32 of the second device 50 in the scene control based on the acquired execution instruction.
  • the second control information regarding the control is read from the storage unit 33 (step S410).
  • the execution unit 35 of the information processing unit 32 of the control server 30 transmits a second control signal for controlling the second device 50 based on the second control information read in step S410 via the communication unit 31. Output to the second device 50 (step S411).
  • the second device 50 acquires the second control signal output from the control server 30 in step S411 (step S412), and operates according to the acquired second control signal (step S413).
  • step S402 when it is determined that the control information does not include the first control information (No), the control unit 12a of the control device 10a performs the process of step S407. Then, the control system 100a performs the above-mentioned steps S408 to S413.
  • the control system 100a controls the first device 40 using the local network, and causes the control server 30 to control the second device 50 via the gateway and the Internet.
  • the time lag from the input of the scene control execution instruction to the execution of the operation control of the first device 40 can be shortened, so that it is possible to reduce the user's feeling of strangeness in the operation of the first device 40. ..
  • control device 10a is a remote controller or a controller installed on the wall of the building 80 or the like, and the user operates the remote controller to receive an execution instruction for scene control.
  • the operation terminal 60 may be used as the control device instead of the control device 10a.
  • the scene control can be executed using the mobile terminal owned by the user, so that the convenience of the control system 100a is improved.
  • control device 10a further includes an input receiving unit 13 that receives an execution input, and when the input receiving unit 13 accepts the execution input, it determines whether or not the control information related to the scene control includes the first control information.
  • the first device 40 is controlled based on the first control information, and the execution input is output to the control server 30 via the gateway 20a to control the control information. If it is determined that the first control information is not included in, the execution input is output to the control server 30 via the gateway 20a.
  • control system 100a when the control target of the scene control includes the first device 40, the control of the first device 40 can be performed quickly. As a result, the control system 100a can quickly control the scene without causing the user to feel a sense of discomfort.
  • the first device is a lighting device.
  • control system 100a it is possible to quickly control the operation of a device such as a lighting device, which tends to give a sense of discomfort to the user if there is a time lag from the input of the operation execution instruction to the operation.
  • FIG. 8 is a block diagram showing an example of the functional configuration of the control system according to the third embodiment.
  • control device 10a is the operation terminal 10 of the first embodiment, and is connected to the control server 30 via a gateway 20a and a wide area communication network 70 such as the Internet.
  • control device 60a is the operation terminal 60 of the first embodiment and the second embodiment, and is, for example, a mobile terminal owned by the user.
  • the points different from those of the first embodiment and the second embodiment will be mainly described, and the description of the overlapping contents will be omitted or simplified.
  • the control device 60a is, for example, a mobile terminal owned by the user, and includes a communication unit 61, a control unit 62a, an input reception unit 63, and a storage unit 66a.
  • the execution input is received by the input receiving unit 63, it is determined whether or not the control information related to the scene control includes the first control information, and when it is determined that the control information includes the first control information, the first control is performed.
  • the first device 40 is controlled based on the information and the execution input is output to the control server 30 via the gateway 20a and it is determined that the control information does not include the first control information, the execution input is not included in the control information 20a.
  • the execution input is output to the control server 30.
  • the control unit 62a performs information processing related to the control of the operation of the control device 60a and information processing related to the control of the first device 40. For example, when the control unit 62a acquires the execution input for executing the scene control, the control unit 62a reads the first control information from the storage unit 66a and controls the first device 40 based on the first control information. More specifically, the control unit 62a outputs a control signal to the first device 40 via the communication unit 61.
  • the control unit 62a is realized by, for example, a microcomputer, but may be realized by a processor or a dedicated circuit.
  • the storage unit 66a is a storage device that stores a control program or the like executed by the control unit 62a. Further, the storage unit 66a stores the first control information regarding the operation of the first device in the scene control.
  • the storage unit 66a is realized by, for example, a semiconductor memory.
  • FIG. 9 is a sequence diagram showing a first example of the operation of the control system 100b according to the third embodiment.
  • the user can set control information related to scene control in the control device 60a such as a mobile terminal owned by the user.
  • the control device 60a may be a dedicated terminal.
  • step S501 when the input receiving unit 63 of the control device 60a receives the input of the setting instruction of the control information related to the scene control (step S501), the control unit 62a receives the input of the setting instruction as the first device 40. It is determined whether or not the first control information relating to the control of the above is included (step S502).
  • step S501 When the control unit 62a of the control device 60a determines that the control information of the scene control for which the input of the setting instruction is received in step S501 includes the first control information related to the control of the first device 40 (Yes in step S502).
  • the first control information is stored in the storage unit 66a (step S503), and the control information is output to the control server 30 via the communication unit 61 (step S504). At this time, the control information does not have to relay the gateway 20a.
  • the control server 30 acquires the control information output from the control device 60a in step S504 (not shown), and stores the acquired control information in the storage unit 33 (step S505).
  • step S502 when the control unit 62a of the control device 60a determines that the first control information is not included in the scene control control information for which the input of the setting instruction is received in step S501 (No), the communication unit 61.
  • the control information is output to the control server 30 via the above (step S506).
  • the control server 30 acquires the control information output from the control device 60a in step S506 (not shown), and stores the acquired control information in the storage unit 33 (step S507).
  • the control system 100b stores the first control information regarding the control of the first device 40 in the storage unit 66a of the control device 60a, and in addition to the first control information in the storage unit 33 of the control server 30.
  • the second control information (that is, the control information) regarding the control of the second device is stored. Therefore, when the first device 40 is a device such as a lighting device that requires real-time operation by the user, the control device 60a may control the operation of the first device 40 via the local network. can. As a result, it is possible to quickly control the operation of the first device 40 in the scene control without causing the user to feel a sense of discomfort.
  • control device 60a is a mobile terminal or a dedicated terminal owned by the user, the user can operate the control device 60a without using an operation terminal 10 such as a remote controller installed on the wall of the building 80 or the like. Therefore, the convenience of the control system 100b is improved.
  • FIG. 10 is a sequence diagram showing a second example of the operation of the control system 100b according to the third embodiment.
  • the control device 10a for example, a remote controller installed in the building 80
  • receives a scene control execution instruction input by the user and controls the first device 40 has been described.
  • the third embodiment is different from the second embodiment in that the control device 60a (for example, a mobile terminal owned by the user) receives an execution instruction and controls the first device 40.
  • the control information of the scene control for which the execution instruction is received is the first control information related to the control of the first device 40. Is included (step S602).
  • step S602 when the control unit 62a of the control device 60a determines that the control information includes the first control information (Yes), the control unit 62a reads the first control information from the storage unit 66a (step S603). Then, the control unit 62a of the control device 60a outputs a first control signal for controlling the first device 40 based on the first control information read in step S603 to the first device 40 via the communication unit 61. (Step S604).
  • the first device 40 acquires the first control signal output from the control device 60a in step S404 (step S605), and operates according to the acquired first control signal (step S606).
  • control unit 62a of the control device 60a outputs the scene control execution instruction received in step S601 to the gateway 20a via the communication unit 61 (step S607), and the gateway 20a outputs the acquired scene control execution instruction. Is output to the control server 30 via the second communication unit 22 (step S608).
  • step S609 When the information processing unit 32 of the control server 30 acquires the execution instruction of the scene control relayed by the gateway 20a in the acquisition unit 34 step S608 (step S609), the control of the second device 50 in the scene control is controlled based on the acquired execution instruction. Second control information related to the above is read from the storage unit 33 (step S610).
  • the execution unit 35 of the information processing unit 32 of the control server 30 transmits a second control signal for controlling the second device 50 based on the second control information read in step S610 via the communication unit 31. Output to the second device 50 (step S611).
  • the second device 50 acquires the second control signal output from the control server 30 in step S611 (step S612), and operates according to the acquired second control signal (step S613).
  • step S602 when the control unit 62a of the control device 60a determines that the control information does not include the first control information (No), the control unit 62a issues a scene control execution instruction to the control server 30 without going through the gateway 20a. Output (step S614). Then, the control system 100b performs the above-mentioned steps S609 to S613.
  • the control system 100b outputs an execution instruction to the second device 50 via the gateway when the control target of the scene control includes the first device 40, and controls the scene.
  • the execution instruction is output without going through the gateway. This makes it possible to control the scene more quickly.
  • control device 60a further includes an input receiving unit 63 for receiving the execution input, and when the input receiving unit 63 accepts the execution input, whether or not the control information related to the scene control includes the first control information.
  • the first device 40 is controlled based on the first control information, and the execution input is output to the control server 30 via the gateway 20a.
  • the execution input is output to the control server 30 without going through the gateway 20a.
  • control system 100b when the control target of the scene control includes the first device 40, the control of the first device 40 can be performed quickly. As a result, the control system 100b can quickly control the scene without causing the user to feel a sense of discomfort. Further, according to the control system 100b, when the first device 40 is not included in the scene control target, the control server 30 can acquire the execution instruction without going through the gateway 20a, so that the scene control can be performed more quickly. Can be executed.
  • the first device 40 is a lighting device.
  • control system 100b it is possible to quickly control the operation of a device such as a lighting device, which tends to give a sense of discomfort to the user if there is a time lag from the input of the operation execution instruction to the operation.
  • the communication method between the devices in the above embodiment is not particularly limited. Further, in the communication between the devices, a relay device (not shown) may intervene. Further, the information transmission route described in the above embodiment is not limited to the transmission route shown in the sequence diagram.
  • another processing unit may execute the processing executed by the specific processing unit. Further, the order of the plurality of processes may be changed, or the plurality of processes may be executed in parallel.
  • each component may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • each component may be realized by hardware.
  • each component may be a circuit (or an integrated circuit). These circuits may form one circuit as a whole, or may be separate circuits from each other. Further, each of these circuits may be a general-purpose circuit or a dedicated circuit.
  • the general or specific aspects of the present disclosure may be realized by a recording medium such as a system, an apparatus, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM. Further, it may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program and a recording medium.
  • the present disclosure may be realized as a control device according to the above embodiment or a control system corresponding thereto. Further, the present disclosure may be realized as a control method executed by a computer such as a control system, or may be realized as a program for causing the computer to execute such a control method. The present disclosure may be realized as a computer-readable non-temporary recording medium in which such a program is recorded.
  • Control server 10 10,60 Operation terminal 10a, 20, 60a Control device 13,63 Input reception unit 20a Gateway 30 Control server 40 First device 50 Second device 100, 100a, 100b Control system

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)
  • Selective Calling Equipment (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Computer And Data Communications (AREA)

Abstract

制御システム(100)は、ローカルネットワークとインターネットとを中継するゲートウェイと共に用いられる制御システムであって、ローカルネットワークに接続された第1機器(40)、及び、第1機器(40)と異なる第2機器(50)の少なくとも1つを制御対象とするシーン制御を実行するための実行入力を取得し、取得した実行入力に基づいて、インターネットを介することなく第1機器(40)を制御する制御装置(20)と、実行入力を取得し、取得した実行入力に基づいて、ゲートウェイ及びインターネットを介して第2機器(50)を制御する制御サーバ(30)と、を備える。

Description

制御システム、制御方法、及び、プログラム
 本開示は、制御システム、制御方法、及び、プログラムに関する。
 近年、施設内の機器類の少なくとも一部を携帯端末などの操作端末を用いてシーン制御することができる操作システムが開示されている(特許文献1)。
特開2020-195132号公報
 しかしながら、例えば照明器具のように、指示入力と連動して動作するリアルタイム性を求められる機器に関しては、ユーザがシーン制御の実行指示を入力してから機器類が動作するまでの時間にタイムラグが生じると、ユーザが違和感を覚える場合がある。
 そこで、本開示は、ユーザに違和感を覚えさせることなく、迅速に機器類の少なくとも一部をシーン制御することができる制御システム、制御方法、及び、プログラムを提供する。
 本開示の一態様に係る制御システムは、ローカルネットワークとインターネットとを中継するゲートウェイと共に用いられる制御システムであって、前記ローカルネットワークに接続された第1機器、及び、前記第1機器と異なる第2機器の少なくとも1つを制御対象とするシーン制御を実行するための実行入力を取得し、取得した前記実行入力に基づいて、前記インターネットを介することなく前記第1機器を制御する制御装置と、前記実行入力を取得し、取得した前記実行入力に基づいて、前記ゲートウェイ及び前記インターネットを介して前記第2機器を制御する制御サーバと、を備える。
 本開示の一態様に係る制御方法は、ローカルネットワークに接続された第1機器、及び、前記第1機器と異なる第2機器の少なくとも1つを制御対象とするシーン制御であって生活シーンに関連付けられたシーン制御を実行するための実行入力を取得し、取得した前記実行入力に基づいて、インターネットを介することなく前記第1機器を制御する第1制御ステップと、前記実行入力を取得し、取得した前記実行入力に基づいて、前記ローカルネットワークと前記インターネットとを中継するゲートウェイ及び前記インターネットを介して前記第2機器を制御する第2制御ステップと、を含む。
 本開示の一態様に係るプログラムは、前記制御方法をコンピュータに実行させるためのプログラムである。
 本開示の一態様に係る制御システム、制御方法、及び、プログラムは、ユーザに違和感を覚えさせることなく、迅速に機器類の少なくとも一部をシーン制御することができる。
図1は、実施の形態1に係る制御システムの機能構成の一例を示すブロック図である。 図2は、実施の形態1に係る制御システムの動作の第1の例を示すシーケンス図である。 図3は、実施の形態1に係る制御システムの動作の第2の例を示すシーケンス図である。 図4は、実施の形態1に係る制御システムの動作の第3の例を示すシーケンス図である。 図5は、実施の形態2に係る制御システムの機能構成の一例を示すブロック図である。 図6は、実施の形態2に係る制御システムの動作の第1の例を示すシーケンス図である。 図7は、実施の形態2に係る制御システムの動作の第2の例を示すシーケンス図である。 図8は、実施の形態3に係る制御システムの機能構成の一例を示すブロック図である。 図9は、実施の形態3に係る制御システムの動作の第1の例を示すシーケンス図である。 図10は、実施の形態3に係る制御システムの動作の第2の例を示すシーケンス図である。
 以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。
 (実施の形態1)
 [構成]
 まず、実施の形態1に係る制御システムの構成について説明する。図1は、実施の形態1に係る制御システムの機能構成の一例を示すブロック図である。
 実施の形態1に係る制御システム100は、ユーザにより入力されたシーン制御の実行入力に基づいて、建物80内に設置された第1機器40及び第2機器50をユーザに違和感を覚えさせることなく迅速に制御することができるシステムである。ユーザに違和感を覚えさせることなくとは、ユーザに、シーン制御の実行指示を入力から機器類の動作開始までにタイムラグがある(つまり、動作の開始が遅い)と感じさせにくくすることをいう。つまり、制御システム100は、機器の動作に求められるリアルタイム性に応じて複数の機器類の少なくとも一部をシーン制御するシステムである。建物80は、例えば、集合住宅、又は、戸建住宅などの住宅であるが、オフィスなどの住宅以外の施設であってもよい。
 シーン制御とは、複数の機器の少なくとも一部の機器に対して、ユーザの暮らしの中での場面を演出する制御を行うことである。シーンは、例えば、起床、就寝、帰宅、及び、外出などの生活シーン、並びに、会議、デスクワーク、休憩、及び、仮眠などの就労シーンなど、ユーザの暮らしの中での様々な場面であってもよい。
 ユーザは、建物80内の壁などに設置されたリモコンなどの操作端末10、又は、ユーザが所有する携帯端末などの操作端末60を操作して、第1機器40及び第2機器50の少なくとも1つを制御対象とするシーン制御を実行させることができる。第1機器40及び第2機器50は、それぞれ1つ以上の機器を含んでもよい。第1機器40は、ユーザからの動作指示が受け付けられてから動作を開始するまでのタイムラグが短いこと(言い換えると、リアルタイム性)が要求される機器である。例えば、第1機器40は、照明機器、又は、電動カーテンなどである。第2機器50は、第1機器と異なる機器であり、ユーザからの動作指示が受け付けられてから動作を開始するまでのタイムラグがあってもユーザが違和感を覚えにくい(言い換えると、動作のリアルタイム性を要求されない)器具である。例えば、第2機器は、空調機器、床暖房機器、電気錠、電動シャッター、テレビ、アロマディフューザー、又は、音響機器などである。ユーザは、外出シーン、及び、帰宅シーンなどの複数のシーンのそれぞれに関連付けて、第1機器40及び第2機器50の動作状態を設定することができる。動作状態には、具体的には、電源オン状態、電源オフ状態、及び、設定状態(例えば、第1機器40が照明機器であれば明るさ、第2機器50が空調機器であれば設定温度など)などが含まれる。
 図1に示されるように、制御システム100は、例えば、操作端末10と、制御装置20と、制御サーバ30と、第1機器40と、第2機器50と、操作端末60とを備える。第1機器40及び第2機器50については、上述したため、説明を簡略化する。
 [操作端末10]
 操作端末10は、ユーザの入力を受け付けて、制御装置20に出力する端末装置である。より具体的には、操作端末10は、ユーザがシーン制御を実行するための実行入力、及び、シーン制御を設定するための設定情報の入力を行うために操作する端末装置である。操作端末10は、例えば、建物80内の壁などに設置されたリモコン又はコントロールパネルである。操作端末10は、建物80内の各部屋に設置されてもよい。
 操作端末10は、例えば、通信部11と、制御部12と、入力受付部13と、記憶部16とを備える。
 通信部11は、操作端末10が、制御装置20、第1機器40、及び、操作端末60と局所通信ネットワークを介して通信を行うための通信モジュール(通信回路)である。通信部11は、例えば、無線通信を行う無線通信回路であるが、有線通信を行う有線通信回路であってもよい。通信部11が行う通信の通信規格は、特に限定されない。なお、図1では、操作端末10とは別に操作端末60が記載されているが、操作端末60が建物80内にある場合は、操作端末60が操作端末10として使用されてもよい。
 制御部12は、操作端末10の動作の制御を行うための情報処理を行う。制御部12は、例えば、マイクロコンピュータによって実現されるが、プロセッサまたは専用回路によって実現されてもよい。
 入力受付部13は、ユーザの手動入力またはユーザの音声入力を受け付ける。入力受付部13は、例えば、表示部14及びマイクロフォン15を含む。表示部14は、画像の表示機能、及び、ユーザの手動入力を受け付ける機能を有する表示デバイスである。表示部14は、タッチパネル、及び、液晶パネルまたは有機EL(Electro Luminescence)パネルなどの表示パネルによって実現される。タッチパネルは、例えば、静電容量方式のタッチパネルであるが、抵抗膜方式のタッチパネルであってもよい。
 なお、入力受付部13は、スピーカ(不図示)を備えてもよい。スピーカは、例えば、マイクロフォン15によって取得された発話音声への応答として、音声(機械音声)を出力する。これにより、ユーザは対話形式でシーン制御の実行指示を入力することができる。
 記憶部16は、制御部12が実行する制御プログラムなどが記憶される記憶装置である。記憶部16は、例えば、半導体メモリによって実現される。
 [制御装置20]
 制御装置20は、操作端末10からシーン制御を実行するための実行入力を取得し、取得した実行入力に基づいて、インターネットを介することなく第1機器40を制御する装置である。制御装置20は、例えば、ローカルネットワークに接続された第1機器40及び第2機器50と共に、建物80内に設置されている。また、制御装置20は、第1機器40の動作状態を管理し、かつ、制御サーバ30と通信可能に接続されている。実施の形態1では、制御装置20は、例えば、ゲートウェイ装置である。
 図1に示されるように、制御装置20は、例えば、第1通信部21と、第2通信部22と、制御部23と、記憶部24とを備える。
 第1通信部21は、制御装置20が、操作端末10及び第1機器40と局所通信ネットワークを介して通信を行うための通信モジュール(通信回路)である。第1通信部21は、例えば、無線通信を行う無線通信回路であるが、有線通信を行う有線通信回路であってもよい。第1通信部21が行う通信の通信規格は、特に限定されない。
 第2通信部22は、制御装置20が広域通信ネットワーク70を介して、制御サーバ30、第2機器50、及び、操作端末60と通信を行うための通信モジュール(通信回路)である。第2通信部22によって行われる通信は、例えば、有線通信であるが、無線通信であってもよい。通信に用いられる通信規格についても特に限定されない。
 制御部23は、第1機器40の制御に関する情報処理を行う。例えば、制御部23は、シーン制御を実行するための実行入力を取得すると、記憶部24から第1制御情報を読み出し、第1制御情報に基づいて第1機器40を制御する。より具体的には、制御部23は、第1通信部21を介して制御信号を第1機器40に出力する。制御部23は、例えば、マイクロコンピュータによって実現されるが、プロセッサまたは専用回路によって実現されてもよい。
 記憶部24は、制御部23が実行する制御プログラムなどが記憶される記憶装置である。また、記憶部24は、シーン制御における第1機器の動作に関する第1制御情報を記憶している。記憶部24は、例えば、半導体メモリによって実現される。
 [制御サーバ30]
 制御サーバ30は、建物80外に位置するコンピュータである。制御サーバ30は、操作端末10からシーン制御を実行するための実行入力を取得し、取得した実行入力に基づいて、ゲートウェイ及びインターネットを介して第2機器50を制御するクラウドサーバである。ゲートウェイは、第1機器40及び第2機器50が接続されたローカルネットワークと、インターネットとを中継する。
 図1に示されるように、制御サーバ30は、例えば、通信部31と、情報処理部32と、記憶部33とを備える。
 通信部31は、制御サーバ30が広域通信ネットワーク70を介して、制御装置20、第2機器50、及び、操作端末60などと通信を行うための通信モジュール(通信回路)である。通信部31によって行われる通信は、例えば、有線通信であるが、無線通信であってもよい。通信に用いられる通信規格についても特に限定されない。
 情報処理部32は、第2機器50の制御に関する情報処理を行う。情報処理部32は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。情報処理部32は、取得部34と、実行部35とを有する。取得部34、実行部35の機能の詳細については後述する。
 記憶部33は、シーン制御における第1制御情報及び第2制御情報などの制御情報、及び、情報処理部32が実行する制御プログラムなどが記憶される記憶装置である。記憶部33は、例えば、HDD(Hard Disc Drive)などによって実現される。
 [操作端末60]
 操作端末60は、ユーザがシーン制御を実行するための実行入力、及び、シーン制御を設定するための設定情報の入力を行うために操作する携帯型の情報端末であり、例えば、スマートフォン又はタブレット端末などである。
 操作端末60は、例えば、通信部61と、制御部62と、入力受付部63と、記憶部66とを備える。入力受付部63は、ユーザの手動入力またはユーザの音声入力を受け付ける。入力受付部63は、例えば、表示部64及びマイクロフォン65を含む。
 操作端末60の各構成は、操作端末10の構成と同様であるため、ここでの説明を省略する。
 [第1機器40]
 第1機器40は、例えば、動作のリアルタイム性を要求される機器であり、制御装置20の第1通信部21から送信される制御信号により制御される。第1機器40は、ローカルネットワークに接続される。第1機器40は、例えば、照明機器であり、建物80に設置されており、建物80内に限らず建物80の外を照明してもよい。照明機器は、例えば、シーリングライト、ダウンライト、ペンダントライト、スポットライト、又は、ブラケットライトなどであってもよい。図1に示されるように、第1機器40及び第2機器50は、1つの建物80内に設置されてもよい。
 [第2機器50]
 第2機器50は、第1機器40と異なる機器であり、制御サーバ30の通信部31から送信される制御信号により制御される。第2機器50は、ローカルネットワークに接続される。第2機器50は、例えば、空調機器、床暖房機器、電気錠、電動シャッター、テレビ、アロマディフューザー、又は、音響機器などである。
 空調機器は、一般家庭用の空調機器であり、熱交換器(不図示)などを有することにより、空調機器から創出される風の温度の調整が可能な空調機器である。つまり、空調機器は、温度調整機能(例えば、送風機能及び冷暖房機能)を有する。空調機器は、一般家庭用に限られず産業用の空調機器であってもよい。
 電動シャッターは、建物80が有する窓の外側(または内側)に配置され、建物80内への外光の取り入れ量を調整する。電動シャッターは、例えば、電動ブラインドなどであり、物理的に光の遮蔽物が開閉する構成を有する。電動シャッターは、液晶パネルなどを備え、物性的に光の透過率が変化する構成であってもよい。 
 電気錠は、建物80が有するドア(または窓など)の開錠及び施錠を制御する防犯機器である。電気錠は、例えば、カードキーなどから鍵情報を取得するRFIDリーダを備える。また、電気錠は、指紋などの生体情報を鍵情報として取得する生体センサを備えてもよい。
 [動作]
 続いて、制御システム100の動作について説明する。
 [第1の例:シーン制御に関する制御情報の設定登録]
 まず、シーン制御に関する制御情報の設定登録するときの制御システム100の動作の一例について説明する。図2は、実施の形態1に係る制御システム100の動作の第1の例を示すシーケンス図である。
 ユーザは、ユーザが所有するスマートフォンなどの操作端末60を用いてシーン制御に関する制御情報を設定することができる。
 まず、操作端末60の入力受付部63が、シーン制御に関する制御情報の設定指示の入力を受け付ける(ステップS001)と、制御部62は、設定指示の入力が受け付けられた制御情報に第1機器40の制御に関する第1制御情報が含まれるか否かを判定する(ステップS002)。
 操作端末60の制御部62は、ステップS001で設定指示の入力が受け付けられたシーン制御の制御情報に第1機器40の制御に関する第1制御情報が含まれると判定した場合(ステップS002でYes)、通信部61を介して第1制御情報を制御装置20に出力し(ステップS003)、制御情報を制御サーバ30に出力する(ステップS004)。
 制御装置20は、ステップS003で操作端末60から出力された第1制御情報を、第2通信部22を介して取得し(不図示)、取得した第1制御情報を記憶部24に格納する(ステップS005)。また、制御サーバ30は、ステップS004で操作端末60から出力された制御情報を取得し(不図示)、取得した制御情報を記憶部66に格納する(ステップS006)。
 一方、ステップS002において、操作端末60の制御部62は、ステップS001で設定指示の入力が受け付けられたシーン制御の制御情報に第1制御情報が含まれないと判定すると(No)、制御部62は、通信部61を介して制御情報を制御サーバ30に出力する(ステップS007)。制御サーバ30は、ステップS007で操作端末60から出力された制御情報を取得し(不図示)、取得した制御情報を記憶部66に格納する(ステップS008)。
 以上のように、制御システム100は、制御装置20の記憶部24に第1機器40の制御に関する第1制御情報を格納しており、制御サーバ30の記憶部33に第1制御情報に加えて第2機器の制御に関する第2制御情報を(つまり、制御情報を)格納している。そのため、第1機器40が、例えば、照明機器のようにユーザに動作のリアルタイム性を要求される機器である場合に、制御装置20は、ローカルネットワーク経由で第1機器40の動作を制御することができる。これにより、シーン制御における第1機器40の動作の制御をユーザに違和感を覚えさせることなく迅速に実行することができる。
 [第2の例:シーン制御の実行]
 続いて、シーン制御を実行するときの制御システム100の動作の一例について説明する。図3は、実施の形態1に係る制御システム100の動作の第2の例を示すシーケンス図である。第2の例では、操作端末10(例えば、建物80内に設置されたリモコン)は、ユーザにより入力されたシーン制御の実行指示を受け付けるが、操作端末60(例えば、ユーザが所有する携帯端末)が実行指示を受け付けてもよい。
 まず、操作端末10の入力受付部13が、シーン制御の実行指示の入力(実行入力ともいう)を受け付ける(ステップS101)と、制御部12は、通信部11を介してシーン制御の実行指示を制御装置20に出力する(ステップS102)。
 制御装置20の制御部23は、ステップS102で操作端末10から出力されたシーン制御の実行指示を、第1通信部21を介して取得すると(不図示)、実行指示が取得されたシーン制御の制御情報に第1機器40の制御に関する第1制御情報が含まれているか否かを判定する(ステップS103)。
 ステップS103において、制御装置20の制御部23が制御情報に第1制御情報が含まれると判定した場合(Yes)、制御部23は、第1制御情報を記憶部24から読み出し(ステップS104)、読み出した第1制御情報を第1機器40に出力する(ステップS105)。また、制御装置20の制御部23は、ステップS103で取得したシーン制御の実行指示を、第2通信部22を介して制御サーバ30に出力する(ステップS106)。
 第1機器40は、ステップS105で制御装置20から出力された第1制御信号を取得し(ステップS107)、取得した第1制御信号に従って動作する(ステップS108)。
 制御サーバ30の情報処理部32は、取得部34がステップS106で制御装置20から出力されたシーン制御の実行指示を取得すると(ステップS109)、取得した実行指示に基づいてシーン制御における第2機器50の制御に関する第2制御情報を記憶部33から読み出す(ステップS110)。
 続いて、制御サーバ30の情報処理部32の実行部35は、ステップS110で読み出した第2制御情報に基づいて第2機器50を制御するための第2制御信号を、第2通信部22を介して第2機器50に出力する(ステップS111)。
 第2機器50は、ステップS111で制御サーバ30から出力された第2制御信号を取得し(ステップS112)、取得した第2制御信号に従って動作する(ステップS113)。
 一方、ステップS103において、制御装置20の制御部23が制御情報に第1制御情報が含まれないと判定した場合(No)制御部23はステップS106の処理を行う。そして、制御システム100は、上述したステップS109~S113を行う。
 以上のように、制御システム100は、シーン制御の実行において、第1機器40についてはローカルネットワークを使って制御し、第2機器50については、ローカルネットワークとインターネットとを中継するゲートウェイ及びインターネットを介して制御サーバ30に制御させる。これにより、シーン制御の実行指示の入力から第1機器40の動作制御の実行までのタイムラグを短くすることができるため、ユーザが第1機器40の動作に違和感を覚えることを低減することができる。
 [第3の例:シーン制御の実行]
 続いて、シーン制御を実行するときの制御システム100の動作の他の例について説明する。図4は、実施の形態1に係る制御システム100の動作の第3の例を示すシーケンス図である。第2の例では、操作端末10又は、操作端末60により受け付けられたシーン制御の実行指示を制御装置20に出力したが、第3の例では、シーン制御の制御対象に第1機器40が含まれるか否かによって実行指示を出力する出力先を変更する点で第2の例と異なる。ここでは、第2の例と異なる点を中心に説明し、重複する説明を省略又は簡略化する。
 まず、操作端末60の入力受付部63がシーン制御の実行指示の入力を受け付けると(ステップS201)、制御部62は、シーン制御に関する制御情報を記憶部66から読み出し(不図示)、読み出した制御情報に第1機器40の制御に関する第1制御情報が含まれるか否かを判定する(ステップS202)。
 ステップS202において、制御部62は、制御情報に第1制御情報が含まれると判定した場合(Yes)、通信部61を介してシーン制御の実行指示を制御装置20に出力する(ステップS203)。
 制御装置20は、ステップS203で操作端末60から出力されたシーン制御の実行指示を取得すると(ステップS204)、取得した実行指示に基づいてシーン制御における第1機器40の制御に関する第1制御情報を記憶部24から読み出す(ステップS205)。
 続いて、制御装置20の制御部23は、ステップS205で読み出した第1制御情報に基づいて第1機器40を制御するための第1制御信号を、第1通信部21を介して第1機器40に出力する(ステップS206)。また、制御装置20の制御部23は、ステップS203で取得したシーン制御の実行指示を、第2通信部22を介して制御サーバ30に出力する(ステップS207)。
 第1機器40は、ステップS206で制御装置20から出力された第1制御信号を取得し(ステップS208)、取得した第1制御信号に従って動作する(ステップS209)。
 制御サーバ30の情報処理部32は、取得部34がステップS207で制御装置20から出力されたシーン制御の実行指示を取得すると(ステップS210)、取得した実行指示に基づいてシーン制御における第2機器50の制御に関する第2制御情報を記憶部33から読み出す(ステップS211)。
 続いて、制御サーバ30の情報処理部32の実行部35は、ステップS211で読み出した第2制御情報に基づいて第2機器50を制御するための第2制御信号を、第2通信部22を介して第2機器50に出力する(ステップS212)。
 第2機器50は、ステップS212で制御サーバ30から出力された第2制御信号を取得し(ステップS213)、取得した第2制御信号に従って動作する(ステップS214)。
 一方、ステップS202において、操作端末60の制御部62は、記憶部66から読み出した制御情報に第1制御情報が含まれないと判定すると(No)、制御部62は、通信部61を介してシーン制御の実行指示を制御サーバ30に出力する(ステップS215)。
 続いて、制御サーバ30の情報処理部32は、上述のステップS210~S212の処理を実行し、第2機器50は、上述のステップS213及びS214の処理を実行する。
 以上のように、制御システム100は、シーン制御の実行において、第1機器40についてはローカルネットワークを使って制御し、第2機器50については、ローカルネットワークとインターネットとを中継するゲートウェイ及びインターネットを介して制御サーバ30に制御させる。これにより、シーン制御の実行指示の入力から第1機器40の動作制御の実行までのタイムラグを短くすることができるため、ユーザが第1機器40の動作に違和感を覚えることを低減することができる。
 以上のように、操作端末60がユーザにより入力されたシーン制御の実行指示を受け付けたときに、シーン制御の制御対象に第1機器40が含まれるか否か(言い換えると、シーン制御に関する制御情報に第1制御情報が含まれるか否か)によって、シーン制御の実行指示の出力先を変更する。これにより、制御対象に応じて迅速にシーン制御を行うことができる。
 [効果等]
 以上説明したように、制御システム100は、ローカルネットワークとインターネットとを中継するゲートウェイと共に用いられる制御システムであって、ローカルネットワークに接続された第1機器40、及び、第1機器40と異なる第2機器50の少なくとも1つを制御対象とするシーン制御であって生活シーンに関連付けられたシーン制御を実行するための実行入力を取得し、取得した実行入力に基づいて、インターネットを介することなく第1機器40を制御する制御装置20と、実行入力を取得し、取得した実行入力に基づいて、ゲートウェイ及びインターネットを介して第2機器50を制御する制御サーバ30と、を備える。
 このような制御システム100は、第1機器40の制御をローカルネットワーク通信により行い、第2機器50の制御を制御サーバ30(いわゆる、クラウドサーバ)が行う。そのため、制御システム100は、シーン制御の実行指示を受け付けてから機器の動作の制御が行われるまでのタイムラグが少ないことを求められるリアルタイム性の高い機器(例えば第1機器40)の制御を迅速に実行することができる。したがって、制御システム100は、ユーザに違和感を覚えさせることなく迅速にシーン制御を行うことができる。
 また、例えば、制御装置20は、シーン制御における第1機器40の動作に関する第1制御情報を記憶しており、実行入力を取得すると、第1制御情報に基づいて第1機器40を制御し、制御サーバ30は、第1制御情報に加え、シーン制御における第2機器の動作に関する第2制御情報を記憶しており、実行入力を取得すると、第2制御情報に基づいて第2機器50を制御する。
 このような制御システム100は、シーン制御において第1機器40の制御を第2機器50の制御よりも迅速に実行することができる。
 また、例えば、制御装置20は、第1機器40の動作状態を管理し、かつ、制御サーバ30と通信可能に接続され、制御サーバ30は、制御装置20を介して実行入力を取得する。
 このような制御システム100によれば、制御装置20は、ローカルネットワークと広域通信ネットワーク70と中継することができる。
 また、例えば、制御システム100は、さらに、実行入力を受け付ける操作端末60(例えば、ユーザが所有する携帯端末)を備え、操作端末60は、シーン制御における第1制御情報及び第2制御情報を記憶しており、実行入力を受け付けると、シーン制御に関する制御情報に第1制御情報が含まれるか否かを判定し、制御情報に第1制御情報が含まれると判定した場合、制御装置20を介して実行入力を制御サーバ30に出力し、制御情報に第1制御情報が含まれないと判定した場合、制御装置20を介さずに実行入力を制御サーバ30に出力する。
 このような制御システム100によれば、第2機器50を制御する制御サーバ30の他に、操作端末60にシーン制御に関する制御情報が記憶されているため、シーン制御の制御対象に第1機器40が含まれるか否かによって、実行指示の出力先を適切に選択することができる。これにより、制御システム100は、シーン制御の制御対象に第1機器40が含まれない場合に、制御サーバ30は制御装置20を介さずに実行指示を取得することができるため、より迅速にシーン制御を実行することができる。
 また、例えば、第1機器40、第2機器50、及び、制御装置20は、1つの建物80内に配置され、制御サーバ30は、1つの建物80の外に配置される。
 このような制御システム100によれば、ユーザが動作の実行指示を入力してから第1機器40の動作の制御までのタイムラグを短くすることができる。
 また、例えば、第1機器40は、照明機器である。
 このような制御システム100によれば、照明機器のように動作の実行指示の入力から動作までのタイムラグがあるとユーザに違和感を与えやすい機器の動作を迅速に制御することができる。
 また、制御システム100などのコンピュータが実行する制御方法は、ローカルネットワークに接続された第1機器40、及び、第1機器40と異なる第2機器50の少なくとも1つを制御対象とするシーン制御を実行するための実行入力を取得し、取得した実行入力に基づいて、インターネットを介することなく第1機器40を制御する第1制御ステップと、実行入力を取得し、取得した実行入力に基づいて、ローカルネットワークとインターネットとを中継するゲートウェイ及びインターネットを介して第2機器50を制御する第2制御ステップと、を含む。
 このような制御方法は、第1機器40の制御をローカルネットワーク通信により行い、第2機器50の制御を制御サーバ30(いわゆる、クラウドサーバ)が行う。そのため、制御方法は、シーン制御の実行指示を受け付けてから機器の動作の制御が行われるまでのタイムラグが少ないことを求められるリアルタイム性の高い機器(例えば第1機器40)の制御を迅速に実行することができる。したがって、制御方法によれば、ユーザに違和感を覚えさせることなく迅速にシーン制御を行うことができる。
 (実施の形態2)
 [構成]
 続いて、実施の形態2に係る制御システム100aの構成について説明する。図5は、実施の形態2に係る制御システムの機能構成の一例を示すブロック図である。
 実施の形態1では、制御装置20は、第1機器40の動作状態を管理し、かつ、制御サーバ30と通信可能に接続されるゲートウェイ装置である例を説明した。実施の形態2では、制御装置10aは、実施の形態1の操作端末10であり、ゲートウェイ20a及びインターネットなどの広域通信ネットワーク70を介して制御サーバ30と接続されている点で実施の形態1と異なる。以下、実施の形態1と異なる点を中心に説明し、実施の形態1と重複する内容については説明を省略又は簡略化する。
 [制御装置10a]
 制御装置10aは、例えば、建物80内に設置されたリモコン又はコントロールパネルであり、通信部11と、制御部12aと、入力受付部13と、記憶部16aとを備える。制御装置10aは、例えば、入力受付部13により実行入力が受け付けられると、シーン制御に関する制御情報に第1制御情報が含まれるか否かを判定し、制御情報に第1制御情報が含まれると判定した場合、第1制御情報に基づいて第1機器40を制御するとともに、ゲートウェイ20aを介して実行入力を制御サーバ30に出力し、制御情報に第1制御情報が含まれないと判定した場合、ゲートウェイ20aを介して実行入力を制御サーバ30に出力する。
 制御部12aは、制御装置10aの動作の制御に関する情報処理を、及び、第1機器40の制御に関する情報処理を行う。例えば、制御部12aは、シーン制御を実行するための実行入力を取得すると、記憶部16aから第1制御情報を読み出し、第1制御情報に基づいて第1機器40を制御する。より具体的には、制御部12aは、通信部11を介して制御信号を第1機器40に出力する。制御部12aは、例えば、マイクロコンピュータによって実現されるが、プロセッサまたは専用回路によって実現されてもよい。
 記憶部16aは、制御部12aが実行する制御プログラムなどが記憶される記憶装置である。また、記憶部16aは、シーン制御における第1機器の動作に関する第1制御情報を記憶している。記憶部16aは、例えば、半導体メモリによって実現される。
 [ゲートウェイ20a]
 ゲートウェイ20aは、制御装置10aから出力された制御信号を中継する。より具体的には、ゲートウェイ20aは、制御装置20から取得したシーン制御の実行指示などの制御信号を、インターネットなどの広域通信ネットワーク70を介して制御サーバ30に出力することにより制御信号を中継する。ゲートウェイ20aは、第1通信部21と、第2通信部22と、制御部23aと、記憶部24aとを備える。
 第1通信部21は、ゲートウェイ20aが制御装置10a、又は、第1機器40と無線通信を行うための通信回路(通信モジュール)である。第1通信部21による通信に用いられる通信規格は特に限定されない。また、第2通信部22は、制御サーバ30、第2機器50、又は、操作端末60と通信を行うための通信回路(通信モジュール)である。第2通信部22による通信に用いられる通信規格は特に限定されない。なお、第1通信部21と第1機器40との間の通信は、例えば、ECHONET Lite(登録商標)に準拠する。
 制御部23aは、制御信号の中継に関する制御などを行う。制御部23aは、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。
 記憶部24aは、制御部23aが実行するコンピュータプログラムなどが記憶される記憶装置である。記憶部24aは、例えば、半導体メモリなどによって実現される。
 [動作]
 続いて、制御システム100aの動作について説明する。
 [第1の例:シーン制御に関する制御情報の設定登録]
 まず、シーン制御に関する制御情報の設定登録するときの制御システム100aの動作の一例について説明する。図6は、実施の形態2に係る制御システム100aの動作の第1の例を示すシーケンス図である。
 ユーザは、ユーザが所有するスマートフォンなどの操作端末60を用いてシーン制御に関する制御情報を設定することができる。
 まず、操作端末60の入力受付部63が、シーン制御に関する制御情報の設定指示の入力を受け付ける(ステップS301)と、制御部62は、設定指示の入力が受け付けられた制御情報に第1機器40の制御に関する第1制御情報が含まれるか否かを判定する(ステップS302)。
 操作端末60の制御部62は、ステップS301で設定指示の入力が受け付けられたシーン制御の制御情報に第1機器40の制御に関する第1制御情報が含まれると判定した場合(ステップS302でYes)、通信部61を介して第1制御情報を制御装置10aに出力し(ステップS303)、制御情報を制御サーバ30に出力する(ステップS304)。
 制御装置10aは、ステップS303で操作端末60から出力された第1制御情報を取得し(不図示)、取得した第1制御情報を記憶部16aに格納する(ステップS305)。また、制御サーバ30は、ステップS304で操作端末60から出力された制御情報を取得し(不図示)、取得した制御情報を記憶部33に格納する(ステップS306)。
 一方、ステップS302において、操作端末60の制御部62は、ステップS301で設定指示の入力が受け付けられたシーン制御の制御情報に第1制御情報が含まれないと判定すると(No)、通信部61を介して制御情報を制御サーバ30に出力する(ステップS307)。制御サーバ30は、ステップS307で操作端末60から出力された制御情報を取得し(不図示)、取得した制御情報を記憶部33に格納する(ステップS308)。
 以上のように、制御システム100aは、制御装置10aの記憶部16aに第1機器40の制御に関する第1制御情報を格納しており、制御サーバ30の記憶部33に第1制御情報に加えて第2機器の制御に関する第2制御情報を格納している。そのため、第1機器40が、例えば、照明機器のようにユーザに動作のリアルタイム性を要求される機器である場合に、制御装置10aがローカルネットワーク経由で第1機器40の動作を制御することができる。これにより、シーン制御における第1機器40の動作の制御をユーザに違和感を覚えさせることなく迅速に実行することができる。
 [第2の例:シーン制御の実行]
 続いて、シーン制御を実行するときの制御システム100aの動作の一例について説明する。図7は、実施の形態2に係る制御システム100aの動作の第2の例を示すシーケンス図である。第2の例では、制御装置10a(例えば、建物80内に設置されたリモコン)は、ユーザにより入力されたシーン制御の実行指示を受け付けるが、操作端末60(例えば、ユーザが所有する携帯端末)が実行指示を受け付けてもよい。
 まず、制御装置10aの入力受付部13が、シーン制御の実行指示の入力(実行入力ともいう)を受け付ける(ステップS401)と、実行指示が受け付けられたシーン制御の制御情報に第1機器40の制御に関する第1制御情報が含まれているか否かを判定する(ステップS402)。
 ステップS402において、制御装置10aの制御部12aは、制御情報に第1制御情報が含まれると判定した場合(Yes)、第1制御情報を記憶部16aから読み出す(ステップS403)。そして、制御装置10aの制御部12aは、ステップS403で読み出した第1制御情報に基づいて第1機器40を制御するための第1制御信号を、通信部11を介して第1機器40に出力する(ステップS404)。
 第1機器40は、ステップS404で制御装置10aから出力された第1制御信号を取得し(ステップS405)、取得した第1制御信号に従って動作する(ステップS406)。
 また、制御装置10aの制御部12aは、ステップS401で受け付けられたシーン制御の実行指示を、通信部11を介してゲートウェイ20aに出力し(ステップS407)、ゲートウェイ20aは取得したシーン制御の実行指示を、第2通信部22を介して制御サーバ30に出力する(ステップS408)。
 制御サーバ30の情報処理部32は、取得部34がステップS408でゲートウェイ20aが中継したシーン制御の実行指示を取得すると(ステップS409)、取得した実行指示に基づいてシーン制御における第2機器50の制御に関する第2制御情報を記憶部33から読み出す(ステップS410)。
 続いて、制御サーバ30の情報処理部32の実行部35は、ステップS410で読み出した第2制御情報に基づいて第2機器50を制御するための第2制御信号を、通信部31を介して第2機器50に出力する(ステップS411)。
 第2機器50は、ステップS411で制御サーバ30から出力された第2制御信号を取得し(ステップS412)、取得した第2制御信号に従って動作する(ステップS413)。
 一方、ステップS402において、制御装置10aの制御部12aは、制御情報に第1制御情報が含まれないと判定した場合(No)、ステップS407の処理を行う。そして、制御システム100aは、上述したステップS408~S413を行う。
 以上のように、制御システム100aは、シーン制御の実行において、第1機器40についてはローカルネットワークを使って制御し、第2機器50についてはゲートウェイ及びインターネットを介して制御サーバ30に制御させる。これにより、シーン制御の実行指示の入力から第1機器40の動作制御の実行までのタイムラグを短くすることができるため、ユーザが第1機器40の動作に違和感を覚えることを低減することができる。
 [第2の例の変形例]
 第2の例では、制御装置10aは、建物80の壁などに設置されているリモコン又はコントローラであり、ユーザがリモコンを操作することにより、シーン制御の実行指示が受け付けられる。第2の例の変形例では、制御装置10aの代わりに操作端末60を制御装置として使用してもよい。
 これにより、ユーザが所有する携帯端末を用いてシーン制御を実行させることができるため、制御システム100aは、利便性が向上する。
 [効果等]
 例えば、制御装置10aは、さらに、実行入力を受け付ける入力受付部13を備え、入力受付部13により実行入力が受け付けられると、シーン制御に関する制御情報に第1制御情報が含まれるか否かを判定し、制御情報に第1制御情報が含まれると判定した場合、第1制御情報に基づいて第1機器40を制御するとともに、ゲートウェイ20aを介して実行入力を制御サーバ30に出力し、制御情報に第1制御情報が含まれないと判定した場合、ゲートウェイ20aを介して実行入力を制御サーバ30に出力する。
 このような制御システム100aによれば、シーン制御の制御対象に第1機器40が含まれる場合に、第1機器40の制御を迅速に行うことができる。これにより、制御システム100aは、ユーザに違和感を覚えさせることなく迅速にシーン制御を行うことができる。
 また、例えば、第1機器は、照明機器である。
 このような制御システム100aによれば、照明機器のように動作の実行指示の入力から動作までのタイムラグがあるとユーザに違和感を与えやすい機器の動作を迅速に制御することができる。
 (実施の形態3)
 [構成]
 続いて、実施の形態3に係る制御システム100bの構成について説明する。図8は、実施の形態3に係る制御システムの機能構成の一例を示すブロック図である。
 実施の形態2では、制御装置10aは、実施の形態1の操作端末10であり、ゲートウェイ20a及びインターネットなどの広域通信ネットワーク70を介して制御サーバ30と接続されている。実施の形態3では、制御装置60aは、実施の形態1及び実施の形態2の操作端末60であり、例えばユーザが所有する携帯端末である。以下、実施の形態1及び実施の形態2と異なる点を中心に説明し、重複する内容については説明を省略又は簡略化する。
 [制御装置60a]
 制御装置60aは、例えば、ユーザが所有する携帯端末であり、通信部61と、制御部62aと、入力受付部63と、記憶部66aとを備える。入力受付部63により実行入力が受け付けられると、シーン制御に関する制御情報に第1制御情報が含まれるか否かを判定し、制御情報に第1制御情報が含まれると判定した場合、第1制御情報に基づいて第1機器40を制御するとともに、ゲートウェイ20aを介して実行入力を制御サーバ30に出力し、制御情報に第1制御情報が含まれないと判定した場合、ゲートウェイ20aを介さずに実行入力を制御サーバ30に出力する。
 制御部62aは、制御装置60aの動作の制御に関する情報処理を、及び、第1機器40の制御に関する情報処理を行う。例えば、制御部62aは、シーン制御を実行するための実行入力を取得すると、記憶部66aから第1制御情報を読み出し、第1制御情報に基づいて第1機器40を制御する。より具体的には、制御部62aは、通信部61を介して制御信号を第1機器40に出力する。制御部62aは、例えば、マイクロコンピュータによって実現されるが、プロセッサまたは専用回路によって実現されてもよい。
 記憶部66aは、制御部62aが実行する制御プログラムなどが記憶される記憶装置である。また、記憶部66aは、シーン制御における第1機器の動作に関する第1制御情報を記憶している。記憶部66aは、例えば、半導体メモリによって実現される。
 [動作]
 続いて、制御システム100bの動作について説明する。
 [第1の例:シーン制御に関する制御情報の設定登録]
 まず、シーン制御に関する制御情報の設定登録するときの制御システム100bの動作の一例について説明する。図9は、実施の形態3に係る制御システム100bの動作の第1の例を示すシーケンス図である。
 ユーザは、ユーザが所有する携帯端末などの制御装置60aにシーン制御に関する制御情報を設定することができる。なお、制御装置60aは、専用端末であってもよい。
 まず、制御装置60aの入力受付部63が、シーン制御に関する制御情報の設定指示の入力を受け付ける(ステップS501)と、制御部62aは、設定指示の入力が受け付けられた制御情報に第1機器40の制御に関する第1制御情報が含まれるか否かを判定する(ステップS502)。
 制御装置60aの制御部62aは、ステップS501で設定指示の入力が受け付けられたシーン制御の制御情報に第1機器40の制御に関する第1制御情報が含まれると判定した場合(ステップS502でYes)、第1制御情報を記憶部66aに格納し(ステップS503)、通信部61を介して制御情報を制御サーバ30に出力する(ステップS504)。このとき、制御情報はゲートウェイ20aを中継しなくてもよい。
 制御サーバ30は、ステップS504で制御装置60aから出力された制御情報を取得し(不図示)、取得した制御情報を記憶部33に格納する(ステップS505)。
 一方、ステップS502において、制御装置60aの制御部62aは、ステップS501で設定指示の入力が受け付けられたシーン制御の制御情報に第1制御情報が含まれないと判定すると(No)、通信部61を介して制御情報を制御サーバ30に出力する(ステップS506)。制御サーバ30は、ステップS506で制御装置60aから出力された制御情報を取得し(不図示)、取得した制御情報を記憶部33に格納する(ステップS507)。
 以上のように、制御システム100bは、制御装置60aの記憶部66aに第1機器40の制御に関する第1制御情報を格納しており、制御サーバ30の記憶部33に第1制御情報に加えて第2機器の制御に関する第2制御情報を(つまり、制御情報を)を格納している。そのため、第1機器40が、例えば、照明機器のようにユーザに動作のリアルタイム性を要求される機器である場合に、制御装置60aがローカルネットワーク経由で第1機器40の動作を制御することができる。これにより、シーン制御における第1機器40の動作の制御をユーザに違和感を覚えさせることなく迅速に実行することができる。また、制御装置60aは、ユーザが所有する携帯端末又は専用端末であるため、ユーザが建物80の壁などに設置されたリモコンなどの操作端末10を使用せずとも操作が可能となる。そのため、制御システム100bは、利便性が向上される。
 [第2の例:シーン制御の実行]
 続いて、シーン制御を実行するときの制御システム100bの動作の一例について説明する。図10は、実施の形態3に係る制御システム100bの動作の第2の例を示すシーケンス図である。実施の形態2では、制御装置10a(例えば、建物80内に設置されたリモコン)がユーザにより入力されたシーン制御の実行指示を受け付けて第1機器40の制御を行う例を説明した。実施の形態3では、制御装置60a(例えば、ユーザが所有する携帯端末)が実行指示を受け付けて第1機器40の制御を行う点で、実施の形態2と異なる。
 まず、制御装置60aの入力受付部63が、シーン制御の実行指示の入力を受け付ける(ステップS601)と、実行指示が受け付けられたシーン制御の制御情報に第1機器40の制御に関する第1制御情報が含まれているか否かを判定する(ステップS602)。
 ステップS602において、制御装置60aの制御部62aは、制御情報に第1制御情報が含まれると判定した場合(Yes)、第1制御情報を記憶部66aから読み出す(ステップS603)。そして、制御装置60aの制御部62aは、ステップS603で読み出した第1制御情報に基づいて第1機器40を制御するための第1制御信号を、通信部61を介して第1機器40に出力する(ステップS604)。
 第1機器40は、ステップS404で制御装置60aから出力された第1制御信号を取得し(ステップS605)、取得した第1制御信号に従って動作する(ステップS606)。
 また、制御装置60aの制御部62aは、ステップS601で受け付けられたシーン制御の実行指示を、通信部61を介してゲートウェイ20aに出力し(ステップS607)、ゲートウェイ20aは取得したシーン制御の実行指示を、第2通信部22を介して制御サーバ30に出力する(ステップS608)。
 制御サーバ30の情報処理部32は、取得部34ステップS608でゲートウェイ20aが中継したシーン制御の実行指示を取得すると(ステップS609)、取得した実行指示に基づいてシーン制御における第2機器50の制御に関する第2制御情報を記憶部33から読み出す(ステップS610)。
 続いて、制御サーバ30の情報処理部32の実行部35は、ステップS610で読み出した第2制御情報に基づいて第2機器50を制御するための第2制御信号を、通信部31を介して第2機器50に出力する(ステップS611)。
 第2機器50は、ステップS611で制御サーバ30から出力された第2制御信号を取得し(ステップS612)、取得した第2制御信号に従って動作する(ステップS613)。
 一方、ステップS602において、制御装置60aの制御部62aは、制御情報に第1制御情報が含まれないと判定した場合(No)、ゲートウェイ20aを介さずにシーン制御の実行指示を制御サーバ30に出力する(ステップS614)。そして、制御システム100bは、上述したステップS609~S613を行う。
 以上のように、制御システム100bは、シーン制御の実行において、第2機器50については、シーン制御の制御対象に第1機器40が含まれる場合にゲートウェイを介して実行指示を出力し、シーン制御の制御対象に第1機器40が含まれない場合に、ゲートウェイを介さずに実行指示を出力する。これにより、より迅速にシーン制御を行うことができる。
 [効果等]
 また、例えば、制御装置60aは、さらに、実行入力を受け付ける入力受付部63を備え、入力受付部63により実行入力が受け付けられると、シーン制御に関する制御情報に第1制御情報が含まれるか否かを判定し、制御情報に第1制御情報が含まれると判定した場合、第1制御情報に基づいて第1機器40を制御するとともに、ゲートウェイ20aを介して実行入力を制御サーバ30に出力し、制御情報に第1制御情報が含まれないと判定した場合、ゲートウェイ20aを介さずに実行入力を制御サーバ30に出力する。
 このような制御システム100bによれば、シーン制御の制御対象に第1機器40が含まれる場合に、第1機器40の制御を迅速に行うことができる。これにより、制御システム100bは、ユーザに違和感を覚えさせることなく迅速にシーン制御を行うことができる。また、制御システム100bによれば、シーン制御の対象に第1機器40が含まれない場合に、制御サーバ30はゲートウェイ20aを介さずに実行指示を取得することができるため、より迅速にシーン制御を実行することができる。
 また、例えば、第1機器40は、照明機器である。
 このような制御システム100bによれば、照明機器のように動作の実行指示の入力から動作までのタイムラグがあるとユーザに違和感を与えやすい機器の動作を迅速に制御することができる。
 (その他の実施の形態)
 以上、実施の形態について説明したが、本開示は、上記実施の形態に限定されるものではない。例えば、上記実施の形態では、各システムが備える構成要素(機能)は、複数の装置にどのように振り分けられてもよい。
 また、例えば、上記実施の形態における装置間の通信方法については特に限定されるものではない。また、装置間の通信においては、図示されない中継装置が介在してもよい。また、上記実施の形態で説明された情報の伝達経路は、シーケンス図に示される伝達経路に限定されない。
 また、上記実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、複数の処理の順序が変更されてもよいし、複数の処理が並行して実行されてもよい。
 また、上記実施の形態において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
 また、本開示の全般的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 例えば、本開示は、上記実施の形態に係る制御装置またはこれに相当する制御システムとして実現されてもよい。また、本開示は、制御システムなどのコンピュータが実行する制御方法として実現されてもよいし、このような制御方法をコンピュータに実行させるためのプログラムとして実現されてもよい。本開示は、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。
 その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、または、本開示の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本開示に含まれる。
 10、60 操作端末
 10a、20、60a 制御装置
 13、63 入力受付部
 20a ゲートウェイ
 30 制御サーバ
 40 第1機器
 50 第2機器
 100、100a、100b 制御システム

Claims (10)

  1.  ローカルネットワークとインターネットとを中継するゲートウェイと共に用いられる制御システムであって、
     前記ローカルネットワークに接続された第1機器、及び、前記第1機器と異なる第2機器の少なくとも1つを制御対象とするシーン制御を実行するための実行入力を取得し、取得した前記実行入力に基づいて、前記インターネットを介することなく前記第1機器を制御する制御装置と、
     前記実行入力を取得し、取得した前記実行入力に基づいて、前記ゲートウェイ及び前記インターネットを介して前記第2機器を制御する制御サーバと、
     を備える、
     制御システム。
  2.  前記制御装置は、前記シーン制御における前記第1機器の動作に関する第1制御情報を記憶しており、前記実行入力を取得すると、前記第1制御情報に基づいて前記第1機器を制御し、
     前記制御サーバは、前記第1制御情報に加え、前記シーン制御における前記第2機器の動作に関する第2制御情報を記憶しており、前記実行入力を取得すると、前記第2制御情報に基づいて前記第2機器を制御する、
     請求項1に記載の制御システム。
  3.  前記制御装置は、前記第1機器の動作状態を管理し、かつ、前記制御サーバと通信可能に接続され、
     前記制御サーバは、前記制御装置を介して前記実行入力を取得する、
     請求項1又は2に記載の制御システム。
  4.  前記制御システムは、さらに、前記実行入力を受け付ける操作端末を備え、
     前記操作端末は、前記シーン制御における前記第1制御情報及び前記第2制御情報を記憶しており、前記実行入力を受け付けると、前記シーン制御に関する制御情報に前記第1制御情報が含まれるか否かを判定し、前記制御情報に前記第1制御情報が含まれると判定した場合、前記制御装置を介して前記実行入力を前記制御サーバに出力し、前記制御情報に前記第1制御情報が含まれないと判定した場合、前記制御装置を介さずに前記実行入力を前記制御サーバに出力する、
     請求項2に記載の制御システム。
  5.  前記制御装置は、さらに、前記実行入力を受け付ける入力受付部を備え、
     前記入力受付部により前記実行入力が受け付けられると、前記シーン制御に関する制御情報に前記第1制御情報が含まれるか否かを判定し、前記制御情報に前記第1制御情報が含まれると判定した場合、前記第1制御情報に基づいて前記第1機器を制御するとともに、前記ゲートウェイを介して前記実行入力を前記制御サーバに出力し、前記制御情報に前記第1制御情報が含まれないと判定した場合、前記ゲートウェイを介して前記実行入力を前記制御サーバに出力する、
     請求項2に記載の制御システム。
  6.  前記第1機器、前記第2機器、及び、前記制御装置は、1つの建物内に配置され、
     前記制御サーバは、前記1つの建物の外に配置される、
     請求項1~5のいずれか1項に記載の制御システム。
  7.  前記制御装置は、さらに、前記実行入力を受け付ける入力受付部を備え、
     前記入力受付部により前記実行入力が受け付けられると、前記シーン制御に関する制御情報に前記第1制御情報が含まれるか否かを判定し、前記制御情報に前記第1制御情報が含まれると判定した場合、前記第1制御情報に基づいて前記第1機器を制御するとともに、前記ゲートウェイを介して前記実行入力を前記制御サーバに出力し、前記制御情報に前記第1制御情報が含まれないと判定した場合、前記ゲートウェイを介さずに前記実行入力を前記制御サーバに出力する、
     請求項2に記載の制御システム。
  8.  前記第1機器は、照明機器である、
     請求項1~7のいずれか1項に記載の制御システム。
  9.  ローカルネットワークに接続された第1機器、及び、前記第1機器と異なる第2機器の少なくとも1つを制御対象とするシーン制御を実行するための実行入力を取得し、取得した前記実行入力に基づいて、インターネットを介することなく前記第1機器を制御する第1制御ステップと、
     前記実行入力を取得し、取得した前記実行入力に基づいて、前記ローカルネットワークと前記インターネットとを中継するゲートウェイ及び前記インターネットを介して前記第2機器を制御する第2制御ステップと、
     を含む、
     制御方法。
  10.  請求項9記載の制御方法をコンピュータに実行させるためのプログラム。
PCT/JP2021/040606 2020-12-25 2021-11-04 制御システム、制御方法、及び、プログラム WO2022137826A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022571936A JP7462246B2 (ja) 2020-12-25 2021-11-04 制御システム、制御方法、及び、プログラム
CN202180076728.0A CN116508308A (zh) 2020-12-25 2021-11-04 控制系统、控制方法及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020217872 2020-12-25
JP2020-217872 2020-12-25

Publications (1)

Publication Number Publication Date
WO2022137826A1 true WO2022137826A1 (ja) 2022-06-30

Family

ID=82157558

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040606 WO2022137826A1 (ja) 2020-12-25 2021-11-04 制御システム、制御方法、及び、プログラム

Country Status (3)

Country Link
JP (1) JP7462246B2 (ja)
CN (1) CN116508308A (ja)
WO (1) WO2022137826A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015011854A1 (ja) * 2013-07-25 2015-01-29 パナソニックIpマネジメント株式会社 電気機器の管理方法、管理システム、電気機器、操作端末、及びプログラム
JP2015105796A (ja) * 2013-11-29 2015-06-08 ダイキン工業株式会社 空気調和システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015011854A1 (ja) * 2013-07-25 2015-01-29 パナソニックIpマネジメント株式会社 電気機器の管理方法、管理システム、電気機器、操作端末、及びプログラム
JP2015105796A (ja) * 2013-11-29 2015-06-08 ダイキン工業株式会社 空気調和システム

Also Published As

Publication number Publication date
CN116508308A (zh) 2023-07-28
JPWO2022137826A1 (ja) 2022-06-30
JP7462246B2 (ja) 2024-04-05

Similar Documents

Publication Publication Date Title
JP7104357B2 (ja) 機器制御システム
EP2748973B1 (en) Synergistic interface system for a building network
US10687109B2 (en) Video integration with home assistant
US11785303B2 (en) Automation and recommendation based on device control protocols
WO2022137826A1 (ja) 制御システム、制御方法、及び、プログラム
CN105191218B (zh) 建筑物自动化系统控制器的配置
WO2019093285A1 (ja) ロビーインターホン、処理システム、及びプログラム
WO2019058427A1 (ja) 入退室管理装置および入退室管理システム
WO2014036272A1 (en) Shared configuration data in a building automation system controller
JP7079791B2 (ja) サーバおよび電気機器
JP4961333B2 (ja) 空調機制御装置及び空調機の制御システム
JP2022013035A (ja) 音声制御システム、及び、音声制御方法
KR102651672B1 (ko) 홈 네트워크 시스템과 연동되는 현관용 스위칭 장치
TWI729353B (zh) 顯示方法及記錄媒體
WO2022176946A1 (ja) 制御システム、及び、制御方法
JP7486158B2 (ja) 情報処理システム、及び、情報処理方法
KR20190013048A (ko) 영상통화가 가능한 hvac
CN114616836A (zh) 控制系统和控制方法
CN116974209A (zh) IoT设备的控制方法、设备、IoT系统以及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21909980

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022571936

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180076728.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21909980

Country of ref document: EP

Kind code of ref document: A1