WO2017119336A1 - 照明制御システム、照明制御方法、照明制御装置及びコンピュータプログラム - Google Patents

照明制御システム、照明制御方法、照明制御装置及びコンピュータプログラム Download PDF

Info

Publication number
WO2017119336A1
WO2017119336A1 PCT/JP2016/088685 JP2016088685W WO2017119336A1 WO 2017119336 A1 WO2017119336 A1 WO 2017119336A1 JP 2016088685 W JP2016088685 W JP 2016088685W WO 2017119336 A1 WO2017119336 A1 WO 2017119336A1
Authority
WO
WIPO (PCT)
Prior art keywords
control
information
space
control information
lighting
Prior art date
Application number
PCT/JP2016/088685
Other languages
English (en)
French (fr)
Inventor
和美 長田
静君 黄
智 天木
榎原 孝明
啓 朝倉
禎敏 齋藤
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Publication of WO2017119336A1 publication Critical patent/WO2017119336A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Definitions

  • Embodiments described herein relate generally to a lighting control system, a lighting control method, a lighting control device, and a computer program.
  • BEMS Building Energy Management System
  • air conditioning equipment and lighting equipment occupies about 60% of the energy consumption of the entire building. Therefore, it is effective to reduce the power consumption of these equipment in order to realize energy saving.
  • control of air conditioners and lighting equipment is performed so as not to cause discomfort to humans and to reduce work efficiency. There is a need. For this reason, control of building equipment requires both comfort and energy saving.
  • a method is proposed to grasp the state of the space with sensors installed indoors and control equipment such as air conditioners and lighting equipment according to the state of the space.
  • control equipment such as air conditioners and lighting equipment
  • it is possible to perform control without waste according to the state of the space such as the presence or absence of a person, the number of people, the amount of activity, the brightness of the space, and the temperature.
  • a variety of information that shows the state of the space in detail is required, and an accurate analysis is required.
  • the time required for communication between devices and the time required for calculation are not sufficiently considered, and there is a possibility that it is not always possible to achieve both comfort and energy saving.
  • the problem to be solved by the present invention is to provide a lighting control system, a lighting control method, a lighting control device, and a computer program capable of realizing energy saving while maintaining comfort.
  • the illumination control system of the embodiment includes a spatial information acquisition unit, a first control information generation unit, a second control information generation unit, and a control unit.
  • the spatial information acquisition unit acquires spatial information regarding a space in which the lighting device is installed for each predetermined acquisition range of the space.
  • a 1st control information generation part produces
  • the second control information generation unit generates second control information for controlling the lighting device in the second control range including the first control range based on the spatial information acquired by the spatial information acquisition unit. .
  • the control unit controls the lighting device in the space based on the first control information and the second control information.
  • the figure which shows the specific example of the space where an apparatus is controlled by a sensor The system block diagram which shows the structural example of the illumination control system of embodiment.
  • the functional block diagram which shows the function structure of the low-order apparatus of embodiment.
  • the functional block diagram which shows the function structure of the high-order apparatus of embodiment.
  • the sequence diagram which shows the flow of the illumination control by the illumination control system of embodiment.
  • the figure which shows the 2nd specific example of gradation control The figure which shows the modification of gradation control.
  • the figure which shows the modification of gradation control The figure which shows the modification of gradation control.
  • the figure which shows the modification of gradation control The figure which shows the modification of gradation control.
  • FIG. 1 is a diagram illustrating a specific example of a space in which a device is controlled by a sensor.
  • the space shown in FIG. 1 is an office in a building, for example.
  • a lighting device 20 and an air conditioning device 30 which are control targets are installed.
  • an image sensor 40 is installed on the ceiling 10 of the office as a sensor for grasping the state of the space.
  • the image sensor 40 images the office floor from the ceiling 10 and acquires spatial information from the acquired image.
  • Spatial information is information regarding the space in which the lighting device 20 is installed.
  • the image sensor 40 acquires information such as environment information and person information as spatial information.
  • the environment information is information regarding the environment of the space to be imaged.
  • the environment information is information indicating the brightness, temperature, etc. of the office.
  • the person information is information about a person in the imaging target space.
  • the person information is information indicating the presence or absence of a person, the number of people, the behavior of the person, the amount of activity of the person, and the like.
  • the image sensor 40 transmits the spatial information acquired from the image to a control device (not shown) that controls a control target device such as the lighting device 20 or the air conditioning device 30.
  • the control device generates control information for controlling the control target device based on the spatial information acquired by the image sensor 40.
  • the control device transmits the generated control information to the control target device.
  • Control target devices such as the lighting device 20 and the air conditioning device 30 operate their own devices based on the control information transmitted from the control device. By such control, control of equipment based on the state of the office space is realized.
  • the lighting control system of the embodiment can realize energy saving in facilities such as buildings without impairing comfort by controlling lighting devices by combining the sensing results of a plurality of sensors.
  • FIG. 2 is a system configuration diagram illustrating a configuration example of the illumination control system according to the embodiment.
  • the illumination control system 100 includes illumination devices 1-1 to 1-n, an image sensor 2, a multi-sensor 3, an upper device 4, a lower device 5, and a gateway device 6.
  • the lighting devices 1-1 to 1-n are devices to be controlled in the lighting control system 100.
  • the lighting devices 1-1 to 1-n are controlled by the upper device 4 and the lower device 5.
  • the lighting device 1 a part or all of the lighting devices 1-1 to 1-n will be referred to as the lighting device 1 unless it is necessary to distinguish between them.
  • the image sensor 2 captures a space near the installation position and acquires spatial information based on the acquired image.
  • the image sensor 2 transmits the acquired spatial information to the upper device 4 and the lower device 5.
  • the image sensor 2 detects a moving object from an image using a method such as an inter-frame difference method or a background difference method, and extracts a feature amount of the detected moving object.
  • the image sensor 2 identifies whether or not the detected moving object is a person based on the detected feature quantity of the moving object and preset dictionary information.
  • Dictionary information is information for identifying an event captured in an image to be identified.
  • the image sensor 2 uses the dictionary information for identifying more detailed events to identify the motion and posture of the moving object identified as a person. May be. In this case, the image sensor 2 may change the type and combination of dictionary information to be used according to the action and posture to be identified.
  • various identification processes for the detected moving object may be processed in parallel or in series. Further, the feature amount extraction processing and the image identification processing may be performed in units of pixels or may be performed in units of blocks including a plurality of pixels. Further, these processes may be performed in units of an arbitrary object identified from the image or an arbitrary area obtained by approximating the object. Further, as these processing units, different units may be set for each arbitrary region of the image to be identified.
  • the feature amount used for acquiring the person information includes a feature amount related to a luminance change such as a cumulative difference method (see, for example, Japanese Patent No. 4852159), and a luminance distribution such as CoHOG (see, for example, Japanese Patent No. 349622).
  • a feature amount or the like may be used.
  • methods such as a neural network, SVM (Support Vector Vector), k-neighbor classifier, and Bayes classification are used. Also good.
  • the dictionary information used for the identification process is created by organizing the feature amounts extracted from a plurality of images obtained by capturing the events to be identified for each event.
  • the image used for generating the dictionary information is not limited to the image captured at the installation location of the image sensor, and an image captured at another location may be used. Further, the image used for generating the dictionary information may be an image obtained by processing an image acquired by imaging. For example, an image used for generating dictionary information may be an image obtained by extracting a part of a region from an image, an image generated by a predetermined conversion process, a synthesis process, or the like.
  • the image sensor 2 uses the illuminance estimation model based on the illuminance measured in advance for the space to be imaged, the luminance of the image, and the camera parameters.
  • the brightness of the space may be estimated.
  • the camera parameters are parameters such as shutter speed, gain, iris, and focal length.
  • the illuminance estimation model includes a variable related to spatial reflectance.
  • the reflectance is a value indicating a ratio of light reflected by the object in light irradiated on the object, and is a value specific to the object.
  • the reflectance of the space is a value indicating the proportion of the light that is reflected by the object in the space out of the light supplied to the certain space.
  • the reflectance of the space is a comprehensive representation of the reflectance of the object in the space according to the surface area of the object.
  • the variable relating to the reflectance of the space can be derived based on the illuminance as a reference measured in advance in the space where the image sensor is installed and the imaging information (image and camera parameters) of the space. For this reason, it is possible to estimate the brightness from an image for an arbitrary space having a different reflectance by previously setting a variable related to the reflectance of the space in the image sensor.
  • the multi-sensor 3 is a sensor that senses space by means different from the image sensor 2.
  • the multisensor 3 transmits the spatial information acquired by sensing to the lower device 5.
  • FIG. 3 is a block diagram illustrating a configuration example of the image sensor 2 and the multi-sensor 3.
  • the image sensor 2 includes a camera unit 21, an image acquisition unit 22, an information acquisition unit 23, and a communication unit 24.
  • the camera unit 21 includes a fisheye lens and is installed on the ceiling of the office floor.
  • the camera unit 21 captures an image with an overhead view of the office floor.
  • the image acquisition unit 22 generates image data of an image captured by the camera unit 21.
  • the information acquisition unit 23 acquires spatial information from the captured image.
  • the information acquisition unit 23 uses, as spatial information, personal information related to the person in the imaging target space, such as the presence or absence of a person, the number of persons, the amount of activity, the behavior, the behavior, the movement state, the orientation of the face, the posture, the sex, and the height. get. Further, the information acquisition unit 23 acquires environmental information regarding the environment of the imaging target space, such as office brightness, blind state, and office layout, as spatial information. The information acquisition unit 23 transmits the spatial information acquired in this way to the upper device 4 and the lower device 5 via the communication unit 24.
  • personal information related to the person in the imaging target space such as the presence or absence of a person, the number of persons, the amount of activity, the behavior, the behavior, the movement state, the orientation of the face, the posture, the sex, and the height.
  • environmental information regarding the environment of the imaging target space such as office brightness, blind state, and office layout, as spatial information.
  • the information acquisition unit 23 transmits the spatial information acquired in this way to the upper device 4 and the lower
  • the multi-sensor 3 is a sensor for supplementing the acquisition of spatial information by the image sensor 2.
  • the image sensor 2 may not be able to acquire spatial information from an image when the imaging target space is too dark or too bright.
  • an illuminance of about 50 lx is required for detection of a pedestrian, and an illuminance of about 100 lx is required for detection of a person performing desk work.
  • the multi-sensor 3 is a sensor provided for acquiring spatial information as an alternative means of the image sensor 2 having such restrictions.
  • the multi-sensor 3 may include a plurality of sensing means. For example, in the example of FIG.
  • the multi-sensor 3 includes an infrared sensor 31 that can detect a person regardless of the brightness of the space, and an illuminance sensor 32 that can measure the brightness of the space. If a pyroelectric infrared sensor is used as the illuminance sensor 32, a pedestrian moving at 0.5 to 1.5 m / s can be detected. Therefore, when the pyroelectric infrared sensor is applied to control the equipment in the office space, it is necessary to set a longer lighting holding time (for example, about 30 minutes). In addition, the operation of the pyroelectric infrared sensor requires a temperature difference (for example, 4 ° C. or more) between the detection target and the surroundings.
  • a temperature difference for example, 4 ° C. or more
  • a plurality of image sensors 2 and multi-sensors 3 are installed in a space where a lighting device to be controlled is installed (hereinafter referred to as “control target space”). Each sensor acquires spatial information about a space in a range (hereinafter referred to as “acquisition range”) according to the installation position in the control target space.
  • acquisition range a range
  • the acquisition range of the image sensor 2 and the acquisition range of the multi-sensor 3 are not necessarily the same.
  • the multi-sensor 3 may be installed so as to cover the acquisition range of one image sensor 2 with a plurality of units.
  • the image sensor 2 and the multi-sensor 3 may acquire both personal information and environment information as spatial information, or may acquire either one.
  • the image sensor 2 and the multi-sensor 3 may be realized by other sensors as long as spatial information such as person information and environment information can be acquired.
  • the host device 4 collects spatial information from the plurality of image sensors 2.
  • the host device 4 determines a control value for performing gradation control on the plurality of lighting devices 1 based on the collected spatial information.
  • the gradation control is a control method for improving the comfort of the space by controlling the plurality of lighting devices 1 to different brightness. For example, by brightening the lighting of an area where people are present (hereinafter referred to as “present area”) and by making the illumination of the area around the present area (hereinafter referred to as “peripheral area”) darker than the present area, Space can be made a more natural environment for people.
  • the host device 4 determines the control values of the lighting devices 1 in the existing area and the peripheral area that are subject to gradation control, based on the spatial information acquired for the existing area and the peripheral area.
  • the upper device 4 transmits information indicating the control value of gradation control determined in this way (hereinafter referred to as “upper control information”) to the lower device 5.
  • the subordinate device 5 determines a control value for performing local control of the lighting device 1 based on the spatial information acquired by the image sensor 2 and the multisensor 3.
  • the gradation control is a wide range control for controlling the lighting devices 1 in the existing area and the surrounding area, whereas the local control is a relatively narrow range control for controlling the lighting devices 1 in the existing area.
  • the lower device 5 determines the control value of the lighting device 1 in the area to be locally controlled based on the spatial information acquired for the area.
  • the lower device 5 includes information indicating the control value of local control determined in this way (hereinafter referred to as “lower control information”), upper control information indicating the control value of gradation control determined by the upper device 4, Is output to the lighting device 1 to be controlled, thereby performing local control or gradation control on the lighting device 1 installed in the control target space.
  • the gateway device 6 is a gateway server that connects a network on the upper device 4 side and a network on the lower device 5 side.
  • the gateway device 6 transfers the spatial information acquired by the image sensor 2 to the host device 4.
  • FIG. 4 is a functional block diagram illustrating a functional configuration of the lower-level device 5 according to the embodiment.
  • the lower device 5 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes a lower control program.
  • the lower device 5 includes a communication unit 51, a sensor communication unit 52, a lighting device communication unit 53, a storage unit 54, a higher control information acquisition unit 55, a lower control processing unit 56, and an illumination control unit 57 by executing a lower control program.
  • Function as. All or some of the functions of the lower level device 5 may be realized by using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA).
  • ASIC application specific integrated circuit
  • PLD programmable logic device
  • FPGA field programmable gate array
  • the lower control program may be recorded on a computer-readable recording medium.
  • the computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system.
  • the lower control program may be transmitted via a telecommunication line.
  • the communication unit 51 is a communication interface for the lower device 5 to communicate with the gateway device 6.
  • the sensor communication unit 52 is a communication interface for the lower-level device 5 to communicate with the image sensor 2 and the multi-sensor 3.
  • the sensor communication unit 52 may be configured using different communication interfaces between the image sensor 2 and the multi-sensor 3.
  • the lighting device communication unit 53 is a communication interface for the lower device 5 to communicate with the lighting device 1.
  • the storage unit 54 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device.
  • the storage unit 54 stores various setting information necessary for processing of the lower-level device 5 such as information necessary for determining the control value of the lighting device 1.
  • the host control information acquisition unit 55 acquires host control information from the host device 4.
  • the upper control information acquisition unit 55 outputs the acquired upper control information to the illumination control unit 57.
  • the lower control processing unit 56 acquires spatial information from the image sensor 2 and the multisensor 3.
  • the lower control processing unit 56 executes lower control processing for determining a control value for local control based on the acquired spatial information.
  • the lower control processing unit 56 determines a control value for local control by executing the lower control process, and generates lower control information (first control information).
  • the lower control processing unit 56 outputs the generated lower control information to the illumination control unit 57.
  • the lower control processing unit 56 may execute the lower control processing based on a predetermined condition set in advance. For example, the lower-level control processing unit 56 performs local control in units of groups based on group conditions indicating correspondence between the image sensor 2 and the lighting device 1 to be controlled.
  • the lower control processing unit 56 may perform local control based on predetermined lighting conditions. For example, when the measured value of the illuminance sensor 32 is equal to or greater than a predetermined threshold (sufficiently bright), the lower control processing unit 56 turns on the illumination based on the detection result of the image sensor 2, and the measured value of the illuminance sensor 32. Is less than a predetermined threshold (insufficient brightness), the illumination is turned on based on the detection result of the infrared sensor 31. In this case, information indicating a predetermined condition is stored in the storage unit 54 in advance. Further, the lower control processing unit 56 may indirectly acquire the spatial information from devices other than the image sensor 2 and the multisensor 3. For example, when the spatial information is collected in the gateway device 6, the lower control processing unit 56 may acquire the spatial information from the gateway device 6.
  • the illumination control unit 57 outputs the upper control information output from the upper control information acquisition unit 55 or the lower control information output from the lower control processing unit 56 to the lighting device 1. Thereby, local control and gradation control are performed with respect to the lighting device 1.
  • FIG. 5 is a functional block diagram illustrating a functional configuration of the host device 4 according to the embodiment.
  • the host device 4 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes a host control program.
  • the host device 4 functions as a device including the communication unit 41, the storage unit 42, the sensor information acquisition unit 43, and the host control processing unit 44 by executing the host control program.
  • all or part of the functions of the host device 4 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA).
  • ASIC application specific integrated circuit
  • PLD programmable logic device
  • FPGA field programmable gate array
  • the host control program may be recorded on a computer-readable recording medium.
  • the computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system.
  • the host control program may be transmitted via a telecommunication line.
  • the communication unit 41 is a communication interface for the host device 4 to communicate with the gateway device 6.
  • the storage unit 42 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device.
  • the storage unit 42 stores various setting information necessary for processing of the higher-level device 4 such as setting information necessary for determining the control value of the lighting device 1.
  • the sensor information acquisition unit 43 (spatial information acquisition unit) acquires the spatial information from the image sensor 2 via the gateway device 6.
  • the sensor information acquisition unit 43 outputs the acquired spatial information to the upper control processing unit 44.
  • the upper control processing unit 44 (second control information generating unit) performs upper control processing for determining a control value for executing gradation control of the lighting device 1 based on the spatial information output from the sensor information acquisition unit 43. Execute. Specifically, the dimming rate of each lighting device 1 is determined in the upper control process. Note that the higher-level control process is executed every predetermined control cycle set in advance. For example, the upper control processing unit 44 may sequentially perform upper control processing for each of a plurality of floors, or may perform parallel processing. In addition, when the execution time of the upper control process at a certain timing exceeds the control cycle, the upper control processing unit 44 starts the next higher control process without waiting for the control cycle after the completion of the upper control process. May be. The upper control processing unit 44 determines the control value of gradation control by executing the upper control process, and generates higher control information. The higher control processing unit 44 transmits the generated higher control information to the lower device 5.
  • the upper control processing unit 44 may execute the upper control process based on a predetermined condition set in advance.
  • information indicating the predetermined condition is stored in the storage unit 42 in advance.
  • the upper control processing unit 44 sets setting information such as execution parameters such as control cycle, dimming rate, and timer settings, communication data definitions such as data types and points in BACnet communication, and engineering data related to a range for gradation control.
  • the upper control process may be executed based on the above.
  • FIG. 6 is a sequence diagram showing a flow of illumination control by the illumination control system 100 of the embodiment.
  • the image sensor 2 captures a space near the installation position, and acquires spatial information related to the space in the acquisition range of the device itself based on the acquired image (step S101).
  • the spatial information acquired by the image sensor 2 is described as image sensor information, and is distinguished from the spatial information acquired by the multisensor 3 (hereinafter referred to as “multisensor information”).
  • the image sensor 2 transmits the acquired image sensor information to the upper device 4 and the lower device 5 (step S102).
  • the multi-sensor 3 senses the space near the installation position and acquires multi-sensor information related to the space in the acquisition range of the own device (step S103).
  • the multisensor 3 transmits the acquired multisensor information to the lower device 5 (step S104).
  • the lower device 5 acquires the image sensor information transmitted from the image sensor 2 (step S105). Further, the lower-level device 5 acquires the multi-sensor information transmitted from the multi-sensor 3 (Step S106). The lower device 5 executes lower control processing for the lighting device 1 based on the acquired image sensor information and multi-sensor information. For example, the lower device 5 generates lower control information for controlling lighting of the lighting device 1 by executing the lower control processing.
  • the lower level control processing unit 56 of the lower level device 5 has a predetermined brightness of the space (hereinafter referred to as “imaging space”) imaged by the image sensor 2 based on the environmental information included in the image sensor information. It is determined whether or not it is larger than the threshold (step S107). When it is determined that the brightness of the imaging space is greater than the predetermined threshold (step S107—YES), the lower control processing unit 56 determines whether or not there is a person in the imaging space based on the person information included in the image sensor information. Is determined (step S108).
  • step S107 when it is determined in step S107 that the brightness of the imaging space is equal to or lower than the predetermined threshold (step S107—NO), the lower control processing unit 56, based on the person information included in the multi-sensor information, It is determined whether or not there is a person (step S109).
  • step S108-YES If it is determined that there is a person in the imaging space (step S108-YES or S109-YES), the lower control processing unit 56 generates lower control information for turning on the lighting device 1 in the imaging space (step S110). On the other hand, when it is determined that there is no person in the imaging space (step S108-NO or S109-NO), the lower control processing unit 56 does not generate lower control information and returns the process to step S105.
  • the lower control processing unit 56 outputs the lower control information generated in step S110 to the illumination control unit 57. Then, the illumination control unit 57 outputs the output lower control information to the corresponding illumination device 1 to turn on the illumination device 1 in the imaging space where a person exists (step S111).
  • the processes from step S105 to S111 described above are the lower control processes.
  • the host device 4 acquires the image sensor information transmitted from the image sensor 2 in step S102 (step S112).
  • the host device 4 executes host control processing for the lighting device 1 based on the acquired image sensor information.
  • the higher-level device 4 determines the control value of the lighting device 1 that is the target of gradation control (step S113).
  • FIG. 7A and 7B are diagrams illustrating a first specific example of gradation control.
  • FIG. 7A shows an example of the distribution of people in the control target space 200.
  • the space 200 is composed of 24 partial spaces 201 separated by broken lines, and one lighting device 1 is installed in each partial space 201. Further, three image sensors 2 and three multi-sensors corresponding to each partial space 201 are installed, and spatial information is acquired for each partial space 201. That is, in FIG. 7A, each partial space 201 is a spatial information acquisition range.
  • the example of FIG. 7A represents that a person exists in the partial spaces 201-1 and 202-2 among the partial spaces 201 included in the space 200.
  • FIG. 7B shows a specific example of the control value of gradation control determined in accordance with the distribution of people shown in FIG. 7A.
  • the numerical value described in each partial space 201 represents the dimming rate determined for the corresponding lighting device 1.
  • the upper control processing unit 44 sets the dimming rate of the lighting device 1 to 75% for the existing area, and lowers the dimming by 25% for the surrounding area as the distance from the existing area increases. The rate is set.
  • the lighting devices 1 in the partial spaces 201-3 and 201-4 are set to 0% and turned off.
  • the upper control processing unit 44 sets the dimming rate to 0% for all the lighting devices 1 in the space 200 and turns off the lights.
  • the host control processing unit 44 may determine the distribution of people in the space 200 using multi-sensor information instead of the image sensor information.
  • FIG. 8A and 8B are diagrams illustrating a second specific example of gradation control.
  • FIG. 8A shows an example of brightness distribution in the control target space 300.
  • the space 300 is composed of 24 partial spaces 301, similar to the space 200 of FIGS. 7A and 7B.
  • the space 300 has a window on the left side, and external light enters the space 300 in the direction of the arrow in the figure.
  • the numerical values described in each partial space 301 in FIG. 8A are numerical values indicating the brightness of each partial space 301, and FIG. 8A shows the distribution of the brightness of the space 300 measured in a situation where only external light is incident. Is shown.
  • the upper control processing unit 44 may execute gradation control as in the example of FIG. 8B, for example, on the lighting device 1 in the space 300 where the brightness distribution as shown in FIG. 8A is obtained by external light.
  • the numerical value described in each partial space 301 in FIG. 8B represents the dimming rate determined for the lighting device 1 corresponding to each partial space 301.
  • the host control processing unit 44 sets a dimming rate of 75% for the lighting device 1 in the region 302 where the outside light does not reach, and the lighting device 1 in the region 303 that is affected by the brightness due to the outside light. Is set to a dimming rate that is lowered in accordance with the brightness distribution of FIG. 8A. By performing gradation control based on such brightness distribution, it is possible to control brightness using daylight inserted from a window.
  • gradation control according to such brightness distribution is an effective means for realizing energy saving while maintaining the comfort of the space.
  • the upper control processing unit 44 generates higher control information indicating the control value of gradation control determined in step S113 (step S114).
  • the upper device 4 transmits the generated upper control information to the lower device 5 (step S115).
  • the processes from steps S112 to S115 described above are the upper control processes.
  • the lighting control unit 57 of the lower device 5 determines whether or not the upper control information is received from the higher device 4 (step S116).
  • the lighting control unit 57 performs gradation control by transmitting the upper control information acquired from the upper device 4 to each corresponding lighting device 1 (step S116). 117).
  • the control target space is controlled to a brightness that is comfortable for the operator, and the lighting device 1 that does not need to be turned on is turned off.
  • the upper control process is executed at a predetermined control cycle. Therefore, in the lower apparatus 5, the upper control information is not necessarily received after the execution of the local control.
  • a dotted line arrow in the drawing indicates that the upper control information is transmitted to the lower device 5 at an arbitrary timing. Therefore, when the upper control information is not received in step S116 (step S116-NO), the illumination control unit 57 does not perform gradation control and returns the process to step S105.
  • the host device 4 and the lower device 5 repeat and execute the processing shown in FIG. 6, whereby the lighting device 1 installed in the control target space is controlled by local control or gradation control.
  • the lighting control system 100 is based on the spatial information, and the lower control information (first control information) for controlling the lighting device in the local control range (first control range) including the acquisition range. ) And higher-level control information (second control information) for controlling lighting equipment in the gradation control range (second control range) including the local control range based on the spatial information. And a control unit that controls the lighting device in the space based on the lower control information and the upper control information.
  • the lighting control system having such a configuration can realize energy saving while ensuring the comfort of the building environment.
  • the gradation control since gradation control has a wider control range than local control, a large amount of calculation is required to determine the control value. Furthermore, since the gradation control requires spatial information acquired by a plurality of sensors, the distance on the network between the host device 4 (for example, BEMS) that performs the gradation control and the lighting device is the lower device 5 and the lighting device. There is a possibility that it is longer than the distance between the two. For example, as can be seen from FIG. 2, the host device 4 is installed in a different network via the gateway device 6. Therefore, the time required for communication from the host device 4 to the lighting device 1 is longer than the time required for communication from the lower device 5 to the lighting device 1.
  • the upper control process since it is going to implement
  • the lower device 5 is responsible for control that requires immediacy, such as lighting, as local control
  • the upper device 4 is responsible for control that does not require immediacy, such as gradation control.
  • the illumination control system 100 of the embodiment includes the image sensor 2 as one of means for acquiring spatial information.
  • the image sensor has a wider detection range than a conventional pyroelectric infrared sensor, and can acquire more detailed and diverse spatial information. Therefore, a higher energy saving effect can be obtained by controlling the lighting device lighting and extinction more finely using the image sensor.
  • the conventional pyroelectric infrared sensor has a narrow detection range, there is a possibility that the lighting device is frequently turned on and off.
  • the illumination control system 100 according to the embodiment can suppress unnecessary turning on / off of the lighting device 1 by using the image sensor 2, and can improve comfort.
  • the illumination control system 100 of the embodiment includes the multi-sensor 3 that can acquire spatial information by means different from the image sensor 2. Therefore, the illumination control system 100 can control the illumination device 1 even when the brightness of the imaging space is not sufficient to acquire the spatial information by the image sensor 2.
  • the method of determining the dimming rate of the lighting device 1 in gradation control is not limited to the method shown in FIGS. 7A, 7B, 8A, and 8B, and may be determined by any other method.
  • FIG. 9A, FIG. 9B, and FIG. 9C are diagrams showing modified examples of gradation control.
  • FIG. 9A to FIG. 9C are examples of gradation control with different dimming rate determination methods.
  • the control target space 400 includes 20 partial spaces 401.
  • one lighting device 1 is installed in each partial space 401.
  • the image sensor 2 and the multi-sensor 3 are installed for each of the two partial spaces 401.
  • the space 410 including the partial spaces 401-1 and 401-2 is the space of the acquisition range.
  • each partial space 401 is an identification number of each partial space 401.
  • 9A to 9C show a situation in which the partial space (10) is the current area.
  • the lighting device 1 is controlled with four-stage dimming ratios: area dimming ratio, intermediate dimming ratio, lower limit dimming ratio, and extinction dimming ratio.
  • the existing area dimming rate is a dimming rate set in the lighting device 1 in the existing area, and is, for example, 75%.
  • the extinction dimming rate is a dimming rate set for the lighting device 1 to be extinguished, and is a dimming rate of 0%.
  • the intermediate dimming rate and the lower limit dimming rate are dimming rates between the existing area dimming rate and the extinction dimming rate, and the intermediate dimming rate is higher than the lower limit dimming rate. For example, the intermediate dimming rate is 50%, and the lower limit dimming rate is 25%.
  • the dimming rate of the lighting device 1 may be controlled at an arbitrary stage. For example, as shown in FIG. 9A and FIG. 9C, it may be controlled by three levels of dimming ratios (area dimming ratio, intermediate dimming ratio or lower limit dimming ratio, extinction dimming ratio), As described above, it may be controlled by four levels of dimming rates (area dimming rate, intermediate dimming rate, lower limit dimming rate, extinguishing dimming rate). In addition, the value of the dimming rate used for gradation control may be set arbitrarily. Moreover, the lighting apparatus 1 corresponding to one acquisition range may be one, and may be plural.
  • the shape and size of the range of the lighting device 1 to be turned on may be set in any way.
  • the intermediate dimming rate may be set for the lighting devices 1 on the upper, lower, left, and right sides of the area, and the extinction dimming rate may be set for the other lighting devices 1.
  • the lower limit dimming rate may be set for the lighting devices 1 above, below, left, and right in the area, and the extinction dimming rate may be set for the other lighting devices 1.
  • FIG. 9A the intermediate dimming rate may be set for the lighting devices 1 on the upper, lower, left, and right sides of the area
  • the extinction dimming rate may be set for the other lighting devices 1.
  • the lower limit dimming rate may be set for the lighting devices 1 above, below, left, and right in the area
  • the extinction dimming rate may be set for the other lighting devices 1.
  • the intermediate dimming rate is set for the lighting devices 1 on the upper, lower, left, and right sides of the existing area
  • the lower limit dimming rate is set for the oblique lighting devices 1 in the existing area
  • the other lighting devices 1 are turned off.
  • a dimming rate may be set.
  • the dimming rate of the partial space (10) may be determined based only on the spatial information of the partial space (10), or the peripheral partial spaces (for example, the partial spaces (5) to (7), the partial space) It may be determined based on the spatial information of (9) to (11) and the partial spaces (13) to (15)). Further, when there are a plurality of existing areas in the control target space, the dimming rate of a certain existing area may be determined based on the spatial information of another existing area or its surrounding area.
  • the brightness of the lighting devices 1 in the current area and the surrounding area is controlled based on the distribution of people and the brightness.
  • the distribution of people and the brightness distribution are described.
  • Control of the brightness of the lighting device 1 based on may be performed within the control range of local control. Further, the control of the lighting device 1 performed based on such a human distribution or brightness distribution may be performed by one or both of the upper control processing unit 44 and the lower control processing unit 56.
  • the host device 4 is not necessarily configured as a dedicated device.
  • the functions of the upper device 4 may be implemented in the BEMS or the lower device 5.
  • the functions of the lower level device 5 may be implemented in the higher level device 4 such as BEMS.
  • the upper device 4 includes a lower control information acquisition unit (first control information acquisition unit) that acquires lower control information from the lower device 5, and a control unit that controls the lighting device 1 using the upper control information and the lower control information.
  • first control information acquisition unit that acquires lower control information from the lower device 5
  • a control unit that controls the lighting device 1 using the upper control information and the lower control information.
  • special hardware is not required for the host device 4.
  • the host device 4 may be configured using a general-purpose computer such as a PC or a server.
  • the network configuration of the lighting control system 100 may be different from that shown in FIG. 1 as long as communication necessary for the above-described processing is possible.
  • each device included in the lighting control system 100 may be configured to communicate via a network device such as a network hub, a router, or a switch.
  • any protocol may be used for communication of the lighting control system 100.
  • a communication protocol such as industrial Ethernet (registered trademark) or BACnetIP standardized for industry may be used, or a unique protocol may be used.
  • BEMS is accommodated in a different network from other devices such as BACnetIP.
  • the gateway device 6 may perform protocol conversion between the BACnetIP network and another network.
  • devices other than those shown in FIG. 1 may be connected to the network of the lighting control system 100.
  • an adjustment device used to adjust the image sensor 2 may be connected.
  • the user may access the illumination control system using such an adjustment device and perform operations such as setting and adjustment of each device.
  • the adjustment device may be any device, such as a smartphone or a tablet, as long as it can operate adjustment software.
  • the upper device 4 and the lower device 5 may have a function as an adjustment device. Data transmitted and received between the image sensor 2 and the adjustment device may be any data.
  • image data and video data acquired by imaging are transmitted and received Also good.
  • These pieces of information may be text data or binary data.
  • the format of image data and video data may also be an arbitrary format. These pieces of information may be transmitted / received by encrypted communication, or may be decrypted only by a specific device or a specific worker.
  • the image sensor 2 and the multi-sensor 3 included in the illumination control system 100 may be realized by other sensors as long as spatial information such as personal information and environmental information can be acquired. Moreover, local control and gradation control may be performed based on both or any one of person information and environmental information.
  • the image sensor installation unit and the multi-sensor installation unit are not necessarily the same. As described above, since the image sensor has a wide detection range, one image sensor may be installed so as to cover a plurality of partial spaces. For example, the lower device 5 may perform local control for each group of the plurality of lighting devices 1 by holding information indicating the correspondence between the image sensor 2 and the plurality of partial spaces as setting information.
  • any other information may be used for the host control process in addition to the spatial information acquired by the sensor.
  • information such as weather may be used.
  • the host device 4 further includes a weather information acquisition unit (not shown) that acquires weather information indicating the weather, and the host control processing unit 44 includes the spatial information and the weather information acquired by the weather information acquisition unit.
  • the upper control information is generated based on the above. In this case, for example, when there is no incident of external light due to rain or the like, gradation control using only person information may be performed without using environmental information regarding the brightness of the space. By performing such control, information necessary for gradation control can be reduced, and the communication load can be reduced.
  • control cycle of gradation control can be shortened, and the operator's comfort can be further improved.
  • control result of equipment in the building for example, control of the blind device
  • time information, and the like may be used for the host control process.
  • the illumination control unit 57 may determine and select which control information is used for turning on / off the lighting device 1. For example, the illumination control unit 57 may select the control information based on a preset priority order. For example, the illumination control unit 57 may select the control information according to the state of the device related to the illumination control system 100.
  • selection control turning on / off control of the lighting device 1 by selecting control information of either the upper device 4 or the lower device 5 is referred to as selection control.
  • the lighting control unit 57 uses the lower-level control information to illuminate the apparatus related to gradation control (for example, the gateway device 6, the image sensor 2, the higher-level device 4, etc.). 1 can be controlled to turn on and off.
  • the illumination control unit 57 may automatically switch the control of the illumination device 1 to selection control.
  • the illumination control unit 57 may perform only notification to the user or recording in a log without automatically returning to the selection control, and may return to the selection control by a user input instruction.
  • the switching of the control may be performed in an arbitrary unit. For example, it may be switched in units of lighting equipment 1 corresponding to each sensor, or may be switched in units of floors. In addition, switching may be performed in units such as the lower device 5 and the gateway device 6.
  • each sensor may be prioritized.
  • the lower control processing unit 56 and the upper control processing unit 44 may select sensor information used for the lower control processing or the upper control processing based on the priority order of the sensors.
  • the priority order of each sensor may be dynamically set according to the state of each sensor.
  • the lower control processing unit 56 that generates lower control information for controlling the lighting device in the local control range including the acquisition range based on the spatial information.
  • An upper control processing unit that generates upper control information for controlling lighting devices in the gradation control range including the local control range, and a control unit that controls the lighting devices in the space based on the lower control information and the upper control information; ,
  • the brightness of the control target space can be controlled while achieving both comfort and energy saving.

Landscapes

  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

実施形態の照明制御システムは、空間情報取得部と、第1制御情報生成部と、第2制御情報生成部と、制御部とを持つ。空間情報取得部は、照明機器が設置された空間に関する空間情報を、前記空間の所定の取得範囲ごとに取得する。第1制御情報生成部は、前記空間情報取得部により取得される前記空間情報に基づいて、前記取得範囲を含む第1制御範囲の照明機器を制御するための第1制御情報を生成する。第2制御情報生成部は、前記空間情報取得部により取得される前記空間情報に基づいて、前記第1制御範囲を含む第2制御範囲の照明機器を制御するための第2制御情報を生成する。制御部は、前記第1制御情報及び前記第2制御情報に基づいて前記空間の照明機器を制御する。

Description

照明制御システム、照明制御方法、照明制御装置及びコンピュータプログラム
 本発明の実施形態は、照明制御システム、照明制御方法、照明制御装置及びコンピュータプログラムに関する。
 近年、機器や設備等の運転管理によってビルの省エネルギー化を支援するBEMS(Building Energy Management System)が普及しつつある。特に、空調機器及び照明機器の消費エネルギーはビル全体の消費エネルギーの約60%を占めるため、省エネルギー化の実現にはこれらの機器の消費電力を抑えることが効果的である。しかしながら、空間の温度や明るさは人の労務環境の基本的要素であるため、空調機器や照明機器等の制御は人に不快感を与えず、作業効率を低下させることが無いように行われる必要がある。そのため、ビル設備の制御には快適性と省エネルギー性との両立が求められる。
 このような快適性と省エネルギー性との両立を実現するため、室内に設置されたセンサにより空間の状態を把握し、空調機器や照明機器等の設備を空間の状態に応じて制御する手法が提案されている。このような制御方法によれば、人物の在又は不在、人数、活動量、空間の明るさや温度などの空間の状態に応じた無駄のない制御が可能になる。このようなきめ細やかな制御を行うためには、空間の状態を詳細に示す多様な情報が必要であるとともに、精度の良い分析が必要である。しかしながら従来は、各装置間の通信に要する時間や、計算に要する時間などが十分考慮されておらず、必ずしも快適性と省エネルギー性とを両立することができない可能性があった。
特開2012-164517号公報
 本発明が解決しようとする課題は、快適性を保ちつつ省エネルギー化を実現することができる照明制御システム、照明制御方法、照明制御装置及びコンピュータプログラムを提供することである。
 実施形態の照明制御システムは、空間情報取得部と、第1制御情報生成部と、第2制御情報生成部と、制御部とを持つ。空間情報取得部は、照明機器が設置された空間に関する空間情報を、前記空間の所定の取得範囲ごとに取得する。第1制御情報生成部は、前記空間情報取得部により取得される前記空間情報に基づいて、前記取得範囲を含む第1制御範囲の照明機器を制御するための第1制御情報を生成する。第2制御情報生成部は、前記空間情報取得部により取得される前記空間情報に基づいて、前記第1制御範囲を含む第2制御範囲の照明機器を制御するための第2制御情報を生成する。制御部は、前記第1制御情報及び前記第2制御情報に基づいて前記空間の照明機器を制御する。
センサによって機器が制御される空間の具体例を示す図。 実施形態の照明制御システムの構成例を示すシステム構成図。 画像センサ及びマルチセンサの構成例を示すブロック図。 実施形態の下位装置の機能構成を示す機能ブロック図。 実施形態の上位装置の機能構成を示す機能ブロック図。 実施形態の照明制御システムによる照明制御の流れを示すシーケンス図。 グラデーション制御の第1の具体例を示す図。 グラデーション制御の第1の具体例を示す図。 グラデーション制御の第2の具体例を示す図。 グラデーション制御の第2の具体例を示す図。 グラデーション制御の変形例を示す図。 グラデーション制御の変形例を示す図。 グラデーション制御の変形例を示す図。
 以下、実施形態の照明制御システム、照明制御方法、照明制御装置及びコンピュータプログラムを、図面を参照して説明する。
 図1は、センサによって機器が制御される空間の具体例を示す図である。図1に示す空間は、例えばビル内のオフィスである。オフィスの天井10には、制御対象である照明機器20及び空調機器30が設置されている。オフィスの天井10には空間の状態を把握するためのセンサとして例えば画像センサ40が設置される。画像センサ40は、天井10からオフィスフロアを撮像し、取得した画像から空間情報を取得する。空間情報は、照明機器20が設置された空間に関する情報である。例えば画像センサ40は、環境情報や人物情報などの情報を空間情報として取得する。環境情報は、撮像対象の空間の環境に関する情報である。例えば、環境情報は、オフィスの明るさや温度などを示す情報である。人物情報は、撮像対象の空間における人に関する情報である。例えば、人物情報は、人の在又は不在、人数、人の行動、人の活動量などを示す情報である。画像センサ40は、画像から取得した空間情報を、照明機器20や空調機器30等の制御対象機器を制御する制御装置(図示せず)に送信する。制御装置は、画像センサ40によって取得された空間情報に基づいて、制御対象機器を制御するための制御情報を生成する。制御装置は、生成した制御情報を制御対象機器に送信する。照明機器20や空調機器30等の制御対象機器は、制御装置から送信された制御情報に基づいて自装置を動作させる。このような制御によって、オフィス空間の状態に基づく機器の制御が実現される。
 近年、上述したような画像センサを始め、様々なセンサのセンシング結果を利用して、機器の省エネルギー化を図る取り組みが行われている。例えば、照明機器の制御では、人感センサを用いた点消灯の制御や、照度センサを用いた調光の制御などが行われている。しかしながら、省エネルギー化を目的とした機器の制御が快適性を損なうものであってはならない。例えば、照明機器の制御によって、オフィス空間の明るさが不足したり明るすぎたりしては作業者の作業効率が損なわれてしまう可能性がある。また、各センサには長所と短所とがある。例えば、画像センサは広範囲の空間をセンシングすることが可能である反面、暗すぎたり明るすぎたりする空間のセンシングには不向きである。また、人感センサや照度センサは、検出範囲が狭く取得できる情報も限られているため、きめ細やかな制御が難しい。そのため、実施形態の照明制御システムは、複数のセンサのセンシング結果を組み合わせて照明機器を制御することにより、ビル等の施設における省エネルギー化を、快適性を損なうことなく実現可能とする。
 図2は、実施形態の照明制御システムの構成例を示すシステム構成図である。照明制御システム100は、照明機器1-1~1-n、画像センサ2、マルチセンサ3、上位装置4、下位装置5及びゲートウェイ装置6を備える。
 照明機器1-1~1-n(nは1以上の整数)は、照明制御システム100において制御対象となる装置である。照明機器1-1~1-nは、上位装置4及び下位装置5によって制御される。以下の説明を簡単にするため、特に区別する必要のない限り照明機器1-1~1-nの一部又は全部を照明機器1と記載する。
 画像センサ2は、設置位置付近の空間を撮像し、取得した画像に基づいて空間情報を取得する。画像センサ2は、取得した空間情報を上位装置4及び下位装置5に送信する。
 例えば、画像センサ2は、フレーム間差分法や背景差分法などの手法を用いて画像から動体を検出し、検出した動体の特徴量を抽出する。画像センサ2は、検出した動体の特徴量と予め設定された辞書情報とに基づいて、検出した動体が人であるか否かを識別する。辞書情報は、識別対象の画像に撮像された事象を識別するための情報である。画像センサ2は、検出した動体が人であるか否かの識別に加え、さらに詳細な事象を識別する辞書情報を用いることによって、人であると識別された動体について動作や姿勢などを識別してもよい。この場合、画像センサ2は、識別しようとする動作や姿勢に応じて、使用する辞書情報の種類や組合せを変更してもよい。また、検出された動体についての種々の識別処理は、並列に処理されてもよいし、直列に処理されてもよい。また、特徴量の抽出処理や画像の識別処理は、画素単位に行われてもよいし、複数画素からなるブロック単位に行われてもよい。またこれらの処理は、画像から識別される任意のオブジェクトや、そのオブジェクトを近似することによって得られる任意の領域を単位として行われてもよい。またこれらの処理単位は、識別対象の画像の任意の領域ごとに異なる単位が設定されてもよい。
 人物情報の取得に用いる特徴量には、累積差分法(例えば、特許第4852159号公報参照)のような輝度変化に関する特徴量や、CoHOG(例えば、特許第349622号公報参照)のような輝度分布に関する特徴量などが用いられてもよい。また、特徴量と辞書情報とに基づいて識別対象の画像から種々の事象を識別する手法には、ニューラルネットワークやSVM(Support Vector Machine)、k近傍識別器、ベイズ分類などの手法が用いられてもよい。また、識別処理に用いられる辞書情報は、識別対象の事象が撮像された複数の画像から抽出された特徴量を事象ごとに整理することにより作成される。辞書情報の生成に用いられる画像には、画像センサの設置場所で撮像された画像に限らず、他の場所で撮像された画像が用いられてもよい。また、辞書情報の生成に用いられる画像は、撮像によって取得された画像が加工された画像であってもよい。例えば、辞書情報の生成に用いられる画像は、ある画像から一部の領域が抽出された画像や、所定の変換処理や合成処理等によって生成された画像などであってもよい。
 また、画像センサ2は、空間の明るさを環境情報として取得する場合、撮像対象の空間について予め実測された照度と、画像の輝度と、カメラパラメータとに基づく照度推定モデルを用いて撮像対象の空間の明るさを推定してもよい。カメラパラメータは、例えばシャッター速度やゲイン、アイリス、焦点距離などのパラメータである。一般に、照度推定モデルには空間の反射率に関する変数が含まれる。反射率は、物体に照射された光のうち、物体によって反射される光の割合を示す値であり、物体に固有の値である。そして空間の反射率は、ある空間に供給された光のうち、その空間内の物体によって反射される光の割合を示す値である。すなわち、空間の反射率は、空間内の物体の反射率を物体の表面積等に応じて総合的に表したものである。この空間の反射率に関する変数は、画像センサが設置された空間において予め計測された基準となる照度と、その空間の撮像情報(画像及びカメラパラメータ)とに基づいて導出することができる。そのため、空間の反射率に関する変数を画像センサに予め設定しておくことにより、反射率が異なる任意の空間について画像から明るさを推定することが可能となる。
 マルチセンサ3は、画像センサ2とは異なる手段で空間をセンシングするセンサである。マルチセンサ3は、センシングによって取得した空間情報を下位装置5に送信する。
 図3は、画像センサ2及びマルチセンサ3の構成例を示すブロック図である。例えば、画像センサ2は、カメラ部21、画像取得部22、情報取得部23及び通信部24を備える。例えば、カメラ部21は魚眼レンズを含んで構成され、オフィスフロアの天井に設置される。カメラ部21は、オフィスフロアを俯瞰した画像を撮像する。画像取得部22は、カメラ部21によって撮像された画像の画像データを生成する。情報取得部23は、撮像された画像から空間情報を取得する。例えば、情報取得部23は、人の在又は不在、人数、活動量、行動、挙動、移動状態、顔の向き、姿勢、性別、身長など、撮像対象の空間の人に関する人物情報を空間情報として取得する。また、情報取得部23は、オフィスの明るさ、ブラインドの状態、オフィスのレイアウトなど、撮像対象の空間の環境に関する環境情報を空間情報として取得する。情報取得部23は、このように取得した空間情報を、通信部24を介して上位装置4及び下位装置5に送信する。
 マルチセンサ3は、画像センサ2による空間情報の取得を補うためのセンサである。例えば、画像センサ2は、撮像対象の空間が暗すぎる場合や明るすぎる場合、画像から空間情報を取得することができない可能性がある。一般に、歩行者の検出には50lx程度の照度が必要であり、デスクワークを行っている人の検出には最低100lx程度の照度が必要とされる。マルチセンサ3は、このような制約を持つ画像センサ2の代替手段として空間情報を取得するために備えられるセンサである。マルチセンサ3が備えるセンシング手段は複数であってもよい。例えば、図3の例では、マルチセンサ3は、空間の明るさによらず人を検出することができる赤外線センサ31と、空間の明るさを計測可能な照度センサ32とを備える。なお、照度センサ32として焦電型赤外線センサを用いれば、0.5~1.5m/sで移動する歩行者を検出可能である。そのため、オフィス空間の機器の制御に焦電型赤外線センサを適用する場合、照明の点灯保持時間を長め(例えば30分程度)に設定する必要がある。また、焦電型赤外線センサの動作には、検出対象と周囲との温度差(例えば4℃以上)が必要である。
 画像センサ2及びマルチセンサ3は、制御対象の照明機器が設置された空間(以下、「制御対象空間」という。)に複数設置される。各センサは、制御対象空間において設置位置に応じた範囲(以下、「取得範囲」という。)の空間について空間情報を取得する。なお、画像センサ2の取得範囲と、マルチセンサ3の取得範囲は必ずしも同じでなくてもよい。例えば、マルチセンサ3は、1台の画像センサ2の取得範囲を、複数台でカバーするように設置されてもよい。また、画像センサ2及びマルチセンサ3は、空間情報として人物情報及び環境情報の両方を取得するものであってもよいし、いずれか一方を取得するものであってもよい。また、画像センサ2及びマルチセンサ3は、人物情報や環境情報等の空間情報を取得可能であれば、他のセンサで実現されてもよい。
 図2の説明に戻る。上位装置4は、複数の画像センサ2から空間情報を収集する。上位装置4は、収集した空間情報に基づいて、複数の照明機器1に対してグラデーション制御を行うための制御値を決定する。グラデーション制御とは、複数の照明機器1を異なる明るさに制御することによって、空間の快適性を向上させる制御方法である。例えば、人が存在するエリア(以下、「在エリア」という。)の照明を明るくし、在エリア周辺のエリア(以下、「周辺エリア」という。)の照明を在エリアよりも暗くすることによって、空間を人にとってより自然な環境にすることができる。上位装置4は、在エリア及び周辺エリアについて取得された空間情報に基づいて、グラデーション制御の対象となる在エリア及び周辺エリアの照明機器1の制御値を決定する。上位装置4は、このように決定したグラデーション制御の制御値を示す情報(以下、「上位制御情報」という。)を下位装置5に送信する。
 下位装置5は、画像センサ2及びマルチセンサ3によって取得された空間情報に基づいて、照明機器1のローカル制御を行うための制御値を決定する。グラデーション制御が在エリア及び周辺エリアの照明機器1を制御する広い範囲の制御であったのに対し、ローカル制御は在エリアの照明機器1を制御する比較的狭い範囲の制御である。下位装置5は、在エリアについて取得された空間情報に基づいて、ローカル制御の対象となる在エリアの照明機器1の制御値を決定する。下位装置5は、このように決定したローカル制御の制御値を示す情報(以下、「下位制御情報」という。)と、上位装置4によって決定されたグラデーション制御の制御値を示す上位制御情報と、を制御対象の照明機器1に出力することにより、制御対象空間に設置された照明機器1に対してローカル制御又はグラデーション制御を実行する。
 ゲートウェイ装置6は、上位装置4側のネットワークと下位装置5側のネットワークとを接続するゲートウェイサーバである。ゲートウェイ装置6は、画像センサ2によって取得された空間情報を上位装置4に転送する。
 図4は、実施形態の下位装置5の機能構成を示す機能ブロック図である。
 下位装置5は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、下位制御プログラムを実行する。下位装置5は、下位制御プログラムの実行によって通信部51、センサ通信部52、照明機器通信部53、記憶部54、上位制御情報取得部55、下位制御処理部56及び照明制御部57を備える装置として機能する。なお、下位装置5の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。下位制御プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。下位制御プログラムは、電気通信回線を介して送信されてもよい。
 通信部51は、下位装置5がゲートウェイ装置6と通信するための通信インターフェースである。
 センサ通信部52は、下位装置5が画像センサ2及びマルチセンサ3と通信するための通信インターフェースである。センサ通信部52は、画像センサ2とマルチセンサ3とで異なる通信インターフェースを用いて構成されてもよい。
 照明機器通信部53は、下位装置5が照明機器1と通信するための通信インターフェースである。
 記憶部54は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部54は、照明機器1の制御値の決定に必要な情報など下位装置5の処理に必要な各種の設定情報を記憶する。
 上位制御情報取得部55は、上位装置4から上位制御情報を取得する。上位制御情報取得部55は、取得した上位制御情報を照明制御部57に出力する。
 下位制御処理部56(第1制御情報生成部)は、画像センサ2及びマルチセンサ3から空間情報を取得する。下位制御処理部56は、取得した空間情報に基づいて、ローカル制御の制御値を決定する下位制御処理を実行する。下位制御処理部56は、下位制御処理の実行によってローカル制御の制御値を決定し、下位制御情報(第1制御情報)を生成する。下位制御処理部56は、生成した下位制御情報を照明制御部57に出力する。なお、下位制御処理部56は、予め設定された所定の条件に基づいて下位制御処理を実行してもよい。例えば、下位制御処理部56は、画像センサ2と制御対象の照明機器1との対応を示すグループ条件に基づいて、グループ単位でのローカル制御を行う。また、下位制御処理部56は、所定の点灯条件に基づいてローカル制御を行ってもよい。例えば、下位制御処理部56は、照度センサ32の計測値が所定の閾値以上である(十分に明るい)場合には画像センサ2の検出結果に基づいて照明を点灯させ、照度センサ32の計測値が所定の閾値未満(明るさが不十分)である場合には赤外線センサ31の検出結果に基づいて照明を点灯させる。この場合、所定の条件を示す情報は予め記憶部54に記憶される。また、下位制御処理部56は、空間情報を画像センサ2及びマルチセンサ3以外の装置から間接的に取得してもよい。例えば、空間情報がゲートウェイ装置6に集約される場合、下位制御処理部56は空間情報をゲートウェイ装置6から取得してもよい。
 照明制御部57は、上位制御情報取得部55から出力された上位制御情報又は下位制御処理部56から出力された下位制御情報を照明機器1に出力する。これにより、照明機器1に対してローカル制御及びグラデーション制御が実行される。
 図5は、実施形態の上位装置4の機能構成を示す機能ブロック図である。
 上位装置4は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、上位制御プログラムを実行する。上位装置4は、上位制御プログラムの実行によって通信部41、記憶部42、センサ情報取得部43及び上位制御処理部44を備える装置として機能する。なお、上位装置4の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。上位制御プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。上位制御プログラムは、電気通信回線を介して送信されてもよい。
 通信部41は、上位装置4がゲートウェイ装置6と通信するための通信インターフェースである。
 記憶部42は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部42は、照明機器1の制御値の決定に必要な設定情報など上位装置4の処理に必要な各種の設定情報を記憶する。
 センサ情報取得部43(空間情報取得部)は、ゲートウェイ装置6を介して画像センサ2から空間情報を取得する。センサ情報取得部43は、取得した空間情報を上位制御処理部44に出力する。
 上位制御処理部44(第2制御情報生成部)は、センサ情報取得部43から出力された空間情報に基づいて、照明機器1のグラデーション制御を実行するための制御値を決定する上位制御処理を実行する。具体的には、上位制御処理では各照明機器1の調光率が決定される。なお、上位制御処理は、予め設定された所定の制御周期ごとに実行される。例えば上位制御処理部44は、複数のフロアごとの上位制御処理を順次処理してもよいし、並列処理してもよい。また、上位制御処理部44は、あるタイミングにおける上位制御処理の実行時間が制御周期を越えてしまった場合、その上位制御処理の完了後、制御周期を待機することなく次の上位制御処理を開始してもよい。上位制御処理部44は、上位制御処理の実行によってグラデーション制御の制御値を決定し、上位制御情報を生成する。上位制御処理部44は、生成した上位制御情報を下位装置5に送信する。
 なお、上位制御処理部44は、予め設定された所定の条件に基づいて上位制御処理を実行してもよい。この場合、所定の条件を示す情報は予め記憶部42に記憶される。例えば、上位制御処理部44は、制御周期や調光率、タイマーの設定などの実行パラメータや、BACnet通信におけるデータタイプやポイントなどの通信データ定義、グラデーション制御を行う範囲に関するエンジニアリングデータなどの設定情報に基づいて上位制御処理を実行してもよい。
 図6は、実施形態の照明制御システム100による照明制御の流れを示すシーケンス図である。まず、画像センサ2は、設置位置付近の空間を撮像し、取得した画像に基づいて自装置の取得範囲の空間に関する空間情報を取得する(ステップS101)。なおここでは、画像センサ2によって取得される空間情報を画像センサ情報と記載し、マルチセンサ3によって取得される空間情報(以下、「マルチセンサ情報」という。)と区別する。画像センサ2は、取得した画像センサ情報を上位装置4及び下位装置5に送信する(ステップS102)。同様に、マルチセンサ3は、設置位置付近の空間をセンシングして自装置の取得範囲の空間に関するマルチセンサ情報を取得する(ステップS103)。マルチセンサ3は、取得したマルチセンサ情報を下位装置5に送信する(ステップS104)。
 下位装置5は、画像センサ2から送信された画像センサ情報を取得する(ステップS105)。また、下位装置5は、マルチセンサ3から送信されたマルチセンサ情報を取得する(ステップS106)。下位装置5は、取得した画像センサ情報及びマルチセンサ情報に基づいて、照明機器1に対する下位制御処理を実行する。例えば、下位装置5は、下位制御処理の実行により照明機器1の点灯を制御する下位制御情報を生成する。
 この場合、下位装置5の下位制御処理部56は、画像センサ情報に含まれる環境情報に基づいて、画像センサ2によって撮像された空間(以下、「撮像空間」という。)の明るさが所定の閾値より大きいか否かを判定する(ステップS107)。撮像空間の明るさが所定の閾値より大きいと判定した場合(ステップS107-YES)、下位制御処理部56は、画像センサ情報に含まれる人物情報に基づいて、撮像空間に人が存在するか否かを判定する(ステップS108)。一方、ステップS107において、撮像空間の明るさが所定の閾値以下であると判定した場合(ステップS107-NO)、下位制御処理部56は、マルチセンサ情報に含まれる人物情報に基づいて、撮像空間に人が存在するか否かを判定する(ステップS109)。
 下位制御処理部56は、撮像空間に人が存在すると判定した場合(ステップS108-YES又はS109-YES)、当該撮像空間の照明機器1を点灯させる下位制御情報を生成する(ステップS110)。一方、撮像空間に人が存在しないと判定した場合(ステップS108-NO又はS109-NO)、下位制御処理部56は下位制御情報の生成を行わず、ステップS105に処理を戻す。下位制御処理部56は、ステップS110において生成した下位制御情報を照明制御部57に出力する。そして、照明制御部57は、出力された下位制御情報を対応する照明機器1に出力することにより、人が存在する撮像空間の照明機器1を点灯させる(ステップS111)。以上説明したステップS105~S111までの処理が下位制御処理である。
 一方、上位装置4は、ステップS102において画像センサ2から送信された画像センサ情報を取得する(ステップS112)。上位装置4は、取得した画像センサ情報に基づいて、照明機器1に対する上位制御処理を実行する。この上位制御処理の実行により、上位装置4はグラデーション制御の対象となる照明機器1の制御値を決定する(ステップS113)。
 図7A及び図7Bは、グラデーション制御の第1の具体例を示す図である。
 図7Aは、制御対象空間200における人の分布の例を示している。空間200は破線で区切られた24の部分空間201からなり、各部分空間201にはそれぞれ1つの照明機器1が設置されている。また、各部分空間201にはそれぞれに対応した画像センサ2及びマルチセンサが3設置され、部分空間201ごとに空間情報が取得される。すなわち、図7Aでは各部分空間201が空間情報の取得範囲となる。図7Aの例は、空間200に含まれる部分空間201のうち部分空間201-1及び202-2に人が存在することを表している。
 図7Bは、図7Aに示された人の分布に応じて決定されたグラデーション制御の制御値の具体例を示している。図7Bにおいて、各部分空間201に記載された数値は対応する照明機器1に対して決定された調光率を表している。図7Bの例では、上位制御処理部44は、在エリアについては照明機器1の調光率を75%に設定し、周辺エリアについては、在エリアから遠ざかるごとに25%ずつ低下させた調光率を設定している。その結果、空間200に含まれる部分空間201のうち、部分空間201-3及び201-4の照明機器1は調光率が0%に設定され、消灯される。
 なお、上位制御処理部44は、空間200に人が存在しない場合、空間200の全ての照明機器1に調光率を0%に設定し、消灯させる。また、上位制御処理部44は、画像センサ情報に代えて、マルチセンサ情報を用いて空間200における人の分布を判断してもよい。
 図8A及び図8Bは、グラデーション制御の第2の具体例を示す図である。
 図8Aは、制御対象空間300における明るさの分布の例を示している。空間300は、図7A及び図7Bの空間200と同様に、24の部分空間301からなる。空間300は左辺側に窓を有し、空間300には図中矢印の方向に外光が入射する。図8Aの各部分空間301に記載された数値は各部分空間301の明るさを示す数値であり、図8Aは、外光のみが入射している状況において計測された空間300の明るさの分布を示している。上位制御処理部44は、外光によって図8Aのような明るさの分布が得られる空間300の照明機器1に対して、例えば図8Bの例のようなグラデーション制御を実行してもよい。
 図8Bの各部分空間301に記載された数値は、各部分空間301に対応する照明機器1について決定された調光率を表している。図8Bの例では、上位制御処理部44は、外光が届かない領域302の照明機器1については調光率75%を設定し、外光によって明るさの影響を受ける領域303の照明機器1については、図8Aの明るさの分布に応じて低下させた調光率を設定している。このような明るさの分布に基づいたグラデーション制御を行うことにより、窓から差し込む昼光を利用した明るさの制御が可能となる。
 仮にこのような明るさの分布に応じた照明制御を行わない場合、窓側に近い部分空間301は、外光と照明機器1が供給する光とによって過度に明るくなってしまい、作業者の快適性を損ねる可能性がある。また、照明機器1が過度な光を供給することによって、電力が無駄に消費されてしまう。そのため、このような明るさの分布に応じたグラデーション制御は、空間の快適性を保ちつつ省エネルギー化を実現する有効な手段となる。
 図6の説明に戻る。上位制御処理部44は、ステップS113で決定したグラデーション制御の制御値を示す上位制御情報を生成する(ステップS114)。上位装置4は、生成した上位制御情報を下位装置5に送信する(ステップS115)。以上説明したステップS112~S115までの処理が上位制御処理である。
 一方、ステップS110において下位制御情報が生成された後、下位装置5の照明制御部57は、上位装置4から上位制御情報が受信されたか否かを判定する(ステップS116)。上位制御情報が受信された場合(ステップS116-YES)、照明制御部57は、上位装置4から取得された上位制御情報を対応する各照明機器1に送信することによりグラデーション制御を実行する(ステップ117)。このグラデーション制御の実行により、制御対象空間が作業者にとって快適な明るさに制御されるとともに、点灯の必要のない照明機器1が消灯される。
 なお、上述したように上位制御処理は所定の制御周期で実行される。そのため、下位装置5において、上位制御情報は必ずしもローカル制御の実行後に受信されるとは限らない。図中の点線矢印は、上位制御情報が下位装置5に対して任意のタイミングで送信されることを表している。そのため、ステップS116において上位制御情報が受信されていない場合(ステップS116-NO)、照明制御部57はグラデーション制御を行わず、処理をステップS105に戻す。
 上位装置4及び下位装置5が図6に示された処理を繰り替えし実行することにより、制御対象空間に設置された照明機器1がローカル制御又はグラデーション制御によって制御される。
 このように構成された実施形態の照明制御システム100は、空間情報に基づいて、取得範囲を含むローカル制御範囲(第1制御範囲)の照明機器を制御するための下位制御情報(第1制御情報)を生成する下位制御処理部56と、空間情報に基づいて、ローカル制御範囲を含むグラデーション制御範囲(第2制御範囲)の照明機器を制御するための上位制御情報(第2制御情報)を生成する上位制御処理部と、下位制御情報及び上位制御情報に基づいて空間の照明機器を制御する制御部と、を備える。このような構成を備える照明制御システムは、ビル環境の快適性を確保しつつ省エネルギー化を実現することができる。
 具体的には、グラデーション制御はローカル制御に比べて制御範囲が広いため、制御値の決定に多くの計算量を要する。さらにグラデーション制御には複数のセンサによって取得される空間情報が必要となるため、グラデーション制御を行う上位装置4(例えばBEMS)と照明機器との間のネットワーク上の距離は、下位装置5と照明機器1との間の距離に比べて長くなる可能性がある。例えば図2を見ても分かるように、上位装置4はゲートウェイ装置6を介した異なるネットワークに設置されている。そのため、上位装置4から照明機器1への通信に要する時間は、下位装置5から照明機器1への通信に要する時間よりも長くなる。また、上位制御処理は所定の制御周期で実行されるため、上位装置4によって決定された制御値が照明機器1に適用されるまでにはある程度の時間を要する。そのため、上位装置4において全ての照明制御を実現しようとした場合、上位制御処理や通信に要する時間が増大してしまい、快適性が損なわれる可能性がある。例えば、人が入室したにも関わらず即座に照明が点灯されないといった状況が発生してしまう可能性がある。実施形態の照明制御システム100では、照明の点灯など即時性が求められる制御をローカル制御として下位装置5が担い、グラデーション制御などの即時性が求められない制御を上位装置4が担う。このような方法で照明制御を行うことにより、快適性を損なうことなく省エネルギー化を実現することができる。
 また、実施形態の照明制御システム100は、空間情報を取得する手段の一つとして画像センサ2を備えている。画像センサは、従来よく用いられてきた焦電型赤外線センサなどに比べて検知範囲が広いことに加え、より詳細かつ多様な空間情報を取得することができる。そのため、画像センサを用いて、照明機器の点消灯をよりきめ細やかに制御することにより、より高い省エネルギーの効果を得ることができる。また、従来の焦電型赤外線センサなどは検出範囲が狭いため、照明機器が頻繁に点消灯される可能性があった。実施形態の照明制御システム100は、画像センサ2を用いることで照明機器1の不要な点消灯を抑制することが可能となり、快適性を向上させることができる。
 また、実施形態の照明制御システム100は、画像センサ2と異なる手段で空間情報を取得可能なマルチセンサ3を備えている。そのため、照明制御システム100は、撮像空間の明るさが画像センサ2による空間情報の取得に十分な明るさでない場合であっても、照明機器1の制御を行うことができる。
 以下、実施形態の照明制御システム100の変形例について説明する。
 グラデーション制御において照明機器1の調光率を決定する方法は、図7A、図7B、図8A及び図8Bに示した方法に限定されず他のどのような方法で決定されてもよい。
 図9A、図9B及び図9Cは、グラデーション制御の変形例を示す図である。図9A~図9Cは、それぞれ調光率の決定方法が異なるグラデーション制御の例である。図9A~図9Cにおいて、制御対象空間400は20の部分空間401からなる。制御対象空間400において、照明機器1は各部分空間401に1つ設置されている。また、制御対象空間400には、画像センサ2及びマルチセンサ3が2つの部分空間401ごとに設置されている。すなわち、制御対象空間400においては、例えば部分空間401-1及び401-2からなる空間410が取得範囲の空間となる。
 なお、各部分空間401に記載された数値は、各部分空間401の識別番号である。以下では説明を簡単にするため、識別番号i(i=1、2、・・・、20)で識別される部分空間401を部分空間(i)と記載する。図9A~図9Cは、いずれも部分空間(10)が在エリアである状況を示している。図9A~図9Cの例では、照明機器1は、在エリア調光率、中間調光率、下限調光率、消灯調光率の4段階の調光率で制御される。在エリア調光率は、在エリアの照明機器1に設定される調光率であり、例えば75%の調光率である。消灯調光率は、消灯させる照明機器1に設定される調光率であり、0%の調光率である。中間調光率及び下限調光率は、在エリア調光率と消灯調光率との間の調光率であり、中間調光率は、下限調光率よりも高い調光率である。例えば、中間調光率は50%の調光率であり、下限調光率は25%の調光率である。
 照明機器1の調光率は任意の段階で制御されてよい。例えば、図9A及び図9Cのように、3段階の調光率(在エリア調光率、中間調光率又は下限調光率、消灯調光率)で制御されてもよいし、図9Cのように4段階の調光率(在エリア調光率、中間調光率、下限調光率、消灯調光率)で制御されてもよい。また、グラデーション制御に用いられる調光率の値は任意に設定されてよい。また、1つの取得範囲に対応する照明機器1は1つであってもよいし、複数であってもよい。
 また、点灯させる照明機器1の範囲の形状や大きさは、どのように設定されてもよい。例えば、図9Aのように在エリアの上下左右の照明機器1に中間調光率を設定し、それ以外の照明機器1に消灯調光率を設定してもよい。同様に、図9Cのように在エリアの上下左右の照明機器1に下限調光率を設定し、それ以外の照明機器1に消灯調光率を設定してもよい。また、図9Bのように、在エリアの上下左右の照明機器1に中間調光率を、在エリアの斜め四方の照明機器1に下限調光率を設定し、それ以外の照明機器1に消灯調光率を設定してもよい。また、取得範囲に複数の照明機器1が設置されている場合、在エリアとの距離に応じて取得範囲の一部の照明機器1を点灯させるようにしてもよい。
 グラデーション制御又はローカル制御における制御値の決定には、制御対象の照明機器1の制御に必要な任意の範囲の空間情報が用いられてよい。例えば、部分空間(10)の調光率は、部分空間(10)の空間情報のみに基づいて決定されてもよいし、周辺の部分空間(例えば部分空間(5)~(7)、部分空間(9)~(11)及び部分空間(13)~(15))の空間情報に基づいて決定されてもよい。また、制御対象空間に複数の在エリアが存在する場合、ある在エリアの調光率は、他の在エリア又はその周辺エリアの空間情報に基づいて決定されてもよい。
 上記実施形態ではグラデーション制御の例として、人の分布や明るさの分布に基づいて在エリア及び周辺エリアの照明機器1の明るさを制御することを説明したが、人の分布や明るさの分布に基づく照明機器1の明るさの制御(消灯(調光率0%)を含む)はローカル制御の制御範囲内で行われてもよい。また、このような人の分布や明るさの分布に基づいて行われる照明機器1の制御は、上位制御処理部44及び下位制御処理部56の一方又は両方で行われてもよい。
 上位装置4は、必ずしも専用の装置として構成される必要はない。例えば、上位装置4が有する機能は、BEMSに実装されてもよいし下位装置5に実装されてもよい。また、下位装置5が有する機能がBEMS等の上位装置4に実装されてもよい。この場合、上位装置4は、下位装置5から下位制御情報を取得する下位制御情報取得部(第1制御情報取得部)と、上位制御情報及び下位制御情報によって照明機器1を制御する制御部と、をさらに備える。また、上位装置4には特殊なハードウェアを必要としない。例えば、上位装置4は、PCやサーバ等の汎用的なコンピュータを用いて構成されてもよい。
 照明制御システム100のネットワーク構成は、上述した処理に必要な通信が可能であれば図1と異なる構成であってもよい。例えば、照明制御システム100が備える各装置は、ネットワークハブやルータ、スイッチ等のネットワーク機器を介して通信するように構成されてもよい。また、照明制御システム100の通信にはどのようなプロトコルが用いられてもよい。例えば、一般的なEthernet(登録商標)の他、産業用に規格化された産業用Ethernet(登録商標)やBACnetIP等の通信プロトコルが用いられてもよいし、独自プロトコルが用いられてもよい。一般に、ビル制御システムでは、BEMSはBACnetIP等の他の装置とは異なるネットワークに収容される。上位装置4がBEMSにより実現される場合、ゲートウェイ装置6がBACnetIPネットワークと他のネットワークと間のプロトコル変換を行ってもよい。また、照明制御システム100のネットワークには、図1に示された以外の装置が接続されてもよい。例えば、画像センサ2の調整を行うために用いられる調整装置などが接続されてもよい。利用者は、このような調整装置を用いて照明制御システムにアクセスし、各装置の設定や調整等の作業を行ってもよい。調整装置は、スマートフォンやタブレットなど、調整用のソフトウェアを動作させることが可能であればどのような機器であってもよい。例えば、上位装置4や下位装置5が調整装置としての機能を備えてもよい。画像センサ2と調整装置との間で送受信されるデータはどのようなデータであってもよい。例えば、撮像によって取得された画像データや映像データ、検出性能に関するパラメータ、マスク処理に関するパラメータ、検出対象のエリアに関する設定情報、画像の識別処理の処理結果や途中結果などの内部情報などが送受信されてもよい。これらの情報は、テキストデータであってもよいしバイナリデータであってもよい。画像データや映像データのフォーマットも任意のフォーマットであってよい。また、これらの情報は、暗号化された通信によって送受信されてもよいし、特定の装置又は特定の作業者しか復号できないようにしてもよい。
 照明制御システム100が備える画像センサ2やマルチセンサ3は、人物情報や環境情報等の空間情報の取得が可能であれば他のセンサで実現されてもよい。また、ローカル制御及びグラデーション制御は、人物情報及び環境情報の両方又はいずれか一方に基づいて行われてもよい。
 画像センサの設置単位とマルチセンサの設置単位とは必ずしも同じでなくてもよい。上述したように画像センサは検知範囲が広範であるため、1台の画像センサが複数の部分空間をカバーするように設置されてもよい。例えば、画像センサ2と複数の部分空間との対応を示す情報を設定情報として保持することにより、下位装置5は、複数の照明機器1のグループごとにローカル制御を行ってもよい。
 上位制御処理には、センサによって取得される空間情報に加えて、他のどのような情報が用いられてもよい。例えば、天候などの情報が用いられてもよい。この場合、上位装置4は天候を示す天候情報を取得する天候情報取得部(図示せず)をさらに備え、上位制御処理部44は、空間情報と、天候情報取得部によって取得される天候情報とに基づいて上位制御情報を生成する。この場合、例えば雨天等により外光の入射がない場合には、空間の明るさに関する環境情報を用いずに、人物情報のみを用いたグラデーション制御が行われてもよい。このような制御を行うことにより、グラデーション制御に必要な情報を削減することができ、通信負荷を減らすことが出来る。その結果、グラデーション制御の制御周期を短縮することができ、作業者の快適性をより向上させることができる。また、上位制御処理には、上記の天候情報の他、ビル内の設備の制御結果(例えば、ブラインド装置の制御など)や、時刻情報などが用いられてもよい。
 上記実施形態では、下位装置5が照明機器1の点灯を制御し、上位装置4が照明機器1の消灯を制御する例を説明したが、上位装置4及び下位装置5は、それぞれが照明機器1の点消灯を制御するように構成されてもよい。この場合、照明制御部57は、照明機器1の点消灯にいずれの制御情報を用いるかを判断し、選択してもよい。例えば照明制御部57は、予め設定された優先順位に基づいて制御情報を選択してもよい。また、例えば、照明制御部57は、照明制御システム100に関する機器の状態に応じて制御情報を選択してもよい。以下、上位装置4及び下位装置5のいずれかの制御情報を選択することによる照明機器1の点消灯の制御を選択制御という。
 このような選択制御を行えば、照明制御部57は、グラデーション制御に関する装置(例えば、ゲートウェイ装置6、画像センサ2、上位装置4など)に異常が発生した場合、下位制御情報を用いて照明機器1の点消灯を制御することができる。この場合、グラデーション制御に関する装置が正常に復旧した場合、照明制御部57は、照明機器1の制御を選択制御に自動的に切り替えてもよい。また、照明制御部57は、選択制御に自動復帰せずに、ユーザへの報知やログへの記録のみを行い、ユーザの入力指示によって選択制御に復帰するようにしてもよい。また、上記制御の切り替えは、任意の単位で行われてもよい。例えば、各センサに対応する照明機器1の単位で切り替えられてもよいし、フロア単位で切り替えられてもよい。その他、下位装置5やゲートウェイ装置6などの単位で切り換えられてもよい。
 また、各センサには優先順位が設けられてもよい。下位制御処理部56及び上位制御処理部44は、センサの優先順位に基づいて、下位制御処理又は上位制御処理に用いるセンサ情報を選択してもよい。各センサの優先順位は、各センサの状態に応じて動的に設定されてもよい。
 以上説明した少なくともひとつの実施形態によれば、空間情報に基づいて、取得範囲を含むローカル制御範囲の照明機器を制御するための下位制御情報を生成する下位制御処理部56と、空間情報に基づいて、ローカル制御範囲を含むグラデーション制御範囲の照明機器を制御するための上位制御情報を生成する上位制御処理部と、下位制御情報及び上位制御情報に基づいて空間の照明機器を制御する制御部と、を持つことにより、快適性と省エネルギー性とを両立して制御対象空間の明るさ(照明の点灯及び消灯を含む)を制御することができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (13)

  1.  照明機器が設置された空間に関する空間情報を、前記空間の所定の取得範囲ごとに取得する空間情報取得部と、
     前記空間情報取得部により取得される前記空間情報に基づいて、前記取得範囲を含む第1制御範囲の照明機器を制御するための第1制御情報を生成する第1制御情報生成部と、
     前記空間情報取得部により取得される前記空間情報に基づいて、前記第1制御範囲を含む第2制御範囲の照明機器を制御するための第2制御情報を生成する第2制御情報生成部と、
     前記第1制御情報及び前記第2制御情報に基づいて前記空間の照明機器を制御する制御部と、
     を備える照明制御システム。
  2.  前記空間情報は、前記取得範囲の空間における人の分布に関する情報を含み、
     前記第1制御情報生成部は、前記第1制御範囲を含む空間に関して取得された空間情報が示す前記空間の人の分布に応じて前記第1制御範囲の照明機器の明るさを制御する第1制御情報を生成し、
     前記第2制御情報生成部は、前記第2制御範囲を含む空間に関して取得された空間情報が示す前記空間の人の分布に応じて前記第2制御範囲の照明機器の明るさを制御する第2制御情報を生成し、
     前記第1制御情報生成部及び前記第2制御情報生成部のいずれか一方又は両方によって前記照明機器の明るさが制御される、
     請求項1に記載の照明制御システム。
  3.  前記空間情報は、前記取得範囲の空間の明るさに関する情報を含み、
     前記第1制御情報生成部は、前記第1制御範囲を含む空間に関して取得された空間情報が示す前記空間の明るさの分布に応じて前記第1制御範囲の照明機器の明るさを制御する第1制御情報を生成し、
     前記第2制御情報生成部は、前記第2制御範囲を含む空間に関して取得された空間情報が示す前記空間の明るさの分布に応じて前記第2制御範囲の照明機器の明るさを制御する第2制御情報を生成し、
     前記第1制御情報生成部及び前記第2制御情報生成部のいずれか一方又は両方によって前記照明機器の明るさが制御される、
     請求項1に記載の照明制御システム。
  4.  前記空間情報取得部は、前記空間情報を取得する複数の取得部を有し、
     前記第1制御情報生成部は、前記複数の取得部によって取得された一部又は全部の空間情報に基づいて前記第1制御情報を生成する、
     請求項1に記載の照明制御システム。
  5.  前記空間情報取得部は、前記空間情報を取得する取得部として、前記空間の画像から前記空間情報を取得する画像センサと、前記空間の明るさによらず人を検出することが可能なセンサと、
     を備える、
     請求項4に記載の照明制御システム。
  6.  天候に関する情報を取得する天候情報取得部をさらに備え、
     前記第2制御情報生成部は、前記空間情報及び前記天候情報に基づいて前記第2制御情報を生成する、
     請求項1に記載の照明制御システム。
  7.  前記制御部は、前記第1制御情報生成部が前記第1制御情報を生成できない場合には前記第2制御情報に基づいて照明機器を制御し、前記第2制御情報生成部が前記第2制御情報を生成できない場合には前記第1制御情報に基づいて照明機器を制御する、
     請求項1に記載の照明制御システム。
  8.  前記制御部は、前記第1制御情報生成部が前記第1制御情報を生成できない状態から復旧した場合、又は前記第2制御情報生成部が前記第2制御情報を生成できない状態から復旧した場合、前記照明機器の制御を前記第1制御情報及び第2制御情報に基づく制御に切り替える、
     請求項7に記載の照明制御システム。
  9.  照明機器が設置された空間に関する空間情報を、前記空間の所定の取得範囲ごとに取得する空間情報取得ステップと、
     前記空間情報取得ステップにおいて取得される前記空間情報に基づいて、前記取得範囲を含む第1制御範囲の照明機器を制御するための第1制御情報を生成する第1制御情報生成ステップと、
     前記空間情報取得ステップにおいて取得される前記空間情報に基づいて、前記第1制御範囲を含む第2制御範囲の照明機器を制御するための第2制御情報を生成する第2制御情報生成ステップと、
     前記第1制御情報及び前記第2制御情報に基づいて前記空間の照明機器を制御する制御ステップと、
     を有する照明制御方法。
  10.  照明機器が設置された空間に関する情報が前記空間の所定の取得範囲ごとに取得された空間情報に基づいて、前記取得範囲を含む第1制御範囲の照明機器を制御するための第1制御情報を生成する第1制御情報生成部と、
     前記空間情報に基づいて、前記第1制御範囲を含む第2制御範囲の照明機器を制御するための第2制御情報を生成する制御装置から前記第2制御情報を取得する第2制御情報取得部と、
     前記第1制御情報及び前記第2制御情報に基づいて前記空間の照明機器を制御する制御部と、
     を備える照明制御装置。
  11.  照明機器が設置された空間に関する情報が前記空間の所定の取得範囲ごとに取得された空間情報に基づいて、前記取得範囲を含む第1制御範囲の照明機器を制御するための第1制御情報を生成する第1制御情報生成ステップと、
     前記空間情報に基づいて、前記第1制御範囲を含む第2制御範囲の照明機器を制御するための第2制御情報を生成する制御装置から前記第2制御情報を取得する第2制御情報取得ステップと、
     前記第1制御情報及び前記第2制御情報に基づいて前記空間の照明機器を制御する制御ステップと、
     をコンピュータに実行させるためのコンピュータプログラム。
  12.  照明機器が設置された空間に関する情報が前記空間の所定の取得範囲ごとに取得された空間情報に基づいて、前記取得範囲を含む第1制御範囲の照明機器を制御するための第1制御情報を生成する制御装置から前記第1制御情報を取得する第1制御情報取得部と、
     前記空間情報に基づいて、前記第1制御範囲を含む第2制御範囲の照明機器を制御するための第2制御情報を生成する第2制御情報生成部と、
     前記第1制御情報及び前記第2制御情報に基づいて前記空間の照明機器を制御する制御部と、
     を備える照明制御装置。
  13.  照明機器が設置された空間に関する情報が前記空間の所定の取得範囲ごとに取得された空間情報に基づいて、前記取得範囲を含む第1制御範囲の照明機器を制御するための第1制御情報を生成する制御装置から前記第1制御情報を取得する第1制御情報取得ステップと、
     前記空間情報に基づいて、前記第1制御範囲を含む第2制御範囲の照明機器を制御するための第2制御情報を生成する第2制御情報生成ステップと、
     前記第1制御情報及び前記第2制御情報に基づいて前記空間の照明機器を制御する制御ステップと、
     をコンピュータに実行させるためのコンピュータプログラム。
PCT/JP2016/088685 2016-01-07 2016-12-26 照明制御システム、照明制御方法、照明制御装置及びコンピュータプログラム WO2017119336A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016001841A JP6696687B2 (ja) 2016-01-07 2016-01-07 照明制御システム、照明制御方法、照明制御装置及びコンピュータプログラム
JP2016-001841 2016-01-07

Publications (1)

Publication Number Publication Date
WO2017119336A1 true WO2017119336A1 (ja) 2017-07-13

Family

ID=59273614

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/088685 WO2017119336A1 (ja) 2016-01-07 2016-12-26 照明制御システム、照明制御方法、照明制御装置及びコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP6696687B2 (ja)
WO (1) WO2017119336A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019053961A (ja) * 2017-09-19 2019-04-04 東芝ライテック株式会社 センサユニット、及び制御システム
WO2023166677A1 (ja) * 2022-03-03 2023-09-07 日本電気株式会社 照明管理装置、照明管理システム、照明管理方法及び記録媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023071562A (ja) * 2021-11-11 2023-05-23 パナソニックIpマネジメント株式会社 制御システム、照明負荷、決定装置、制御方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001281054A (ja) * 2000-03-31 2001-10-10 Mitsubishi Electric Corp 照度検知装置
JP2005346980A (ja) * 2004-05-31 2005-12-15 Matsushita Electric Works Ltd 調光システム
JP2012227046A (ja) * 2011-04-21 2012-11-15 Panasonic Corp 照明機器制御装置
JP2014102909A (ja) * 2012-11-16 2014-06-05 Panasonic Corp 照明制御装置および照明システム
JP2015231128A (ja) * 2014-06-04 2015-12-21 株式会社東芝 調整端末、調整方法及びコンピュータプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012157573A1 (ja) * 2011-05-13 2014-07-31 株式会社東芝 エネルギー管理システム
JP5910824B2 (ja) * 2012-08-09 2016-04-27 東芝ライテック株式会社 照明制御システムおよび照明制御方法
JP6179312B2 (ja) * 2013-09-20 2017-08-16 東芝ライテック株式会社 照明システムおよび照明システムの制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001281054A (ja) * 2000-03-31 2001-10-10 Mitsubishi Electric Corp 照度検知装置
JP2005346980A (ja) * 2004-05-31 2005-12-15 Matsushita Electric Works Ltd 調光システム
JP2012227046A (ja) * 2011-04-21 2012-11-15 Panasonic Corp 照明機器制御装置
JP2014102909A (ja) * 2012-11-16 2014-06-05 Panasonic Corp 照明制御装置および照明システム
JP2015231128A (ja) * 2014-06-04 2015-12-21 株式会社東芝 調整端末、調整方法及びコンピュータプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019053961A (ja) * 2017-09-19 2019-04-04 東芝ライテック株式会社 センサユニット、及び制御システム
WO2023166677A1 (ja) * 2022-03-03 2023-09-07 日本電気株式会社 照明管理装置、照明管理システム、照明管理方法及び記録媒体

Also Published As

Publication number Publication date
JP2017123274A (ja) 2017-07-13
JP6696687B2 (ja) 2020-05-20

Similar Documents

Publication Publication Date Title
JP6705028B2 (ja) 画像センサ
JP5726792B2 (ja) 情報処理装置、画像センサ装置及びプログラム
JP2016171526A (ja) 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム
US20090115597A1 (en) Energy saving and security system
WO2017119336A1 (ja) 照明制御システム、照明制御方法、照明制御装置及びコンピュータプログラム
JP2013096947A (ja) 人センサ及び負荷制御システム
JP6316102B2 (ja) 調整端末、調整方法及びコンピュータプログラム
WO2019087742A1 (ja) 画像センサ、センシング方法、制御システム及びプログラム
JP5877372B2 (ja) 照明制御装置及び照明システム
EP3529788B1 (en) Presence detection system and method
JP6495691B2 (ja) 動体検出装置、動体検出方法及びコンピュータプログラム
JP2023116451A (ja) 監視システムおよび監視方法
JP6179312B2 (ja) 照明システムおよび照明システムの制御方法
KR102395440B1 (ko) 클라우드 기반 건물 관리 시스템 및 방법
JP2017138922A (ja) 画像センサ及び学習方法
JP2022117761A (ja) センサシステム、画像センサ、サーバ装置、センシング方法、およびプログラム
JP7002912B2 (ja) 画像センサ、人物検知方法、プログラムおよび制御システム
JP7262978B2 (ja) セキュリティシステム、制御装置、空調機、威嚇方法、及び、プログラム
JP7286747B2 (ja) 画像センサ、動体検知方法、プログラムおよび制御システム
TW202025797A (zh) 資訊輸出裝置、檢測系統、控制方法及程式
JP6991922B2 (ja) 画像センサ、識別方法、制御システムおよびプログラム
CN107071250A (zh) 复位方法及系统
JP2023096127A (ja) 画像センサ、動体検知方法、プログラムおよび制御システム
JP2022020297A (ja) 画像センサ、センシング方法、およびプログラム
JP2023023492A (ja) 画像センサシステム、計算装置、センシング方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16883835

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16883835

Country of ref document: EP

Kind code of ref document: A1