JP6407562B2 - Illumination control system, image sensor, image sensor calibration method, and computer program - Google Patents

Illumination control system, image sensor, image sensor calibration method, and computer program Download PDF

Info

Publication number
JP6407562B2
JP6407562B2 JP2014106283A JP2014106283A JP6407562B2 JP 6407562 B2 JP6407562 B2 JP 6407562B2 JP 2014106283 A JP2014106283 A JP 2014106283A JP 2014106283 A JP2014106283 A JP 2014106283A JP 6407562 B2 JP6407562 B2 JP 6407562B2
Authority
JP
Japan
Prior art keywords
image
calibration
space
image sensor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014106283A
Other languages
Japanese (ja)
Other versions
JP2015222641A (en
Inventor
榎原 孝明
孝明 榎原
和美 長田
和美 長田
馬場 賢二
賢二 馬場
禎敏 齋藤
禎敏 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2014106283A priority Critical patent/JP6407562B2/en
Publication of JP2015222641A publication Critical patent/JP2015222641A/en
Application granted granted Critical
Publication of JP6407562B2 publication Critical patent/JP6407562B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、照明制御システム、画像センサ、画像センサ校正方法及びコンピュータプログラムに関する。   Embodiments described herein relate generally to an illumination control system, an image sensor, an image sensor calibration method, and a computer program.

従来、明るさセンサを用いて照明機器の明るさを制御することが行われている。照明機器は、明るさセンサが検知する明るさが予め設定された明るさの範囲となるように制御される。そのため、明るさセンサには予め基準となる明るさの情報を設定する必要がある。この基準となる明るさの情報を明るさセンサに設定する作業を校正作業という。従来、明るさセンサの校正作業は、外光の無い夜間に行われており、作業員が基準となる明るさの情報を照度計を用いて計測していた。そのため、校正作業に多くの労力を要する場合があった。   Conventionally, brightness of an illumination device is controlled using a brightness sensor. The illumination device is controlled so that the brightness detected by the brightness sensor falls within a preset brightness range. Therefore, it is necessary to set brightness information as a reference in advance in the brightness sensor. The work for setting the brightness information as a reference to the brightness sensor is called a calibration work. Conventionally, the calibration operation of the brightness sensor has been performed at night when there is no external light, and the brightness information used as a reference by the worker has been measured using an illuminometer. Therefore, a lot of labor may be required for the calibration work.

特開2004−22408号公報JP 2004-22408 A 特開2013−69452号公報JP 2013-69452 A

本発明が解決しようとする課題は、照明機器を制御するためのセンサ装置の校正作業に要する労力を削減することができる照明制御システム、画像センサ、画像センサ校正方法及びコンピュータプログラムを提供することである。   The problem to be solved by the present invention is to provide an illumination control system, an image sensor, an image sensor calibration method, and a computer program that can reduce labor required for calibration work of a sensor device for controlling an illumination device. is there.

実施形態の照明制御システムは、撮像部、推定部及び校正部を備える画像センサと、校正制御部を備える照明制御装置と、を持つ。撮像部は、空間の画像を取得する。推定部は、前記画像及び前記空間の反射率に基づいて前記空間の明るさを推定する。校正部は、前記撮像部が所定のタイミングで取得する前記空間の画像に基づいて前記反射率を校正する。校正制御部は、前記校正部が前記反射率の校正処理を実施する際に前記空間の照明機器を所定の調光率で点灯させる。前記校正部は、前記照明機器が前記調光率で点灯している状態で取得された前記空間の画像と、前記撮像部が前記画像の取得時に使用した撮像パラメータと、前記照明機器の調光率と出力光量との関係性を示す照明パラメータと、に基づいて前記反射率を取得する。The illumination control system of the embodiment includes an image sensor including an imaging unit, an estimation unit, and a calibration unit, and an illumination control device including a calibration control unit. The imaging unit acquires an image of the space. The estimation unit estimates the brightness of the space based on the image and the reflectance of the space. The calibration unit calibrates the reflectance based on the image of the space acquired by the imaging unit at a predetermined timing. The calibration control unit turns on the lighting device in the space at a predetermined dimming rate when the calibration unit performs the reflectance calibration process. The calibration unit includes an image of the space acquired when the lighting device is lit at the dimming rate, an imaging parameter used by the imaging unit when acquiring the image, and dimming of the lighting device. The reflectance is acquired based on the illumination parameter indicating the relationship between the rate and the output light quantity.

実施形態の照明制御システム1のシステム構成を示すシステム構成図。The system block diagram which shows the system configuration | structure of the illumination control system 1 of embodiment. 画像センサ3の機能構成を示す機能ブロック図。3 is a functional block diagram showing a functional configuration of the image sensor 3. FIG. 照明の光量と調光率との関係の具体例を示す図。The figure which shows the specific example of the relationship between the light quantity of illumination, and the light control rate. 照明制御装置43の機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of the illumination control apparatus 43. FIG. 校正処理において取得された空間の反射率の具体例を示す図。The figure which shows the specific example of the reflectance of the space acquired in the calibration process. 画像センサ3の校正処理の流れを示すフローチャート。6 is a flowchart showing a flow of calibration processing of the image sensor 3. 画像センサ3によって取得された画像の具体例を示す図。FIG. 6 is a diagram illustrating a specific example of an image acquired by the image sensor 3. 画像センサ3によって取得された画像の具体例を示す図。FIG. 6 is a diagram illustrating a specific example of an image acquired by the image sensor 3. 画像センサ3によって取得された画像の具体例を示す図。FIG. 6 is a diagram illustrating a specific example of an image acquired by the image sensor 3. 画像処理によってレイアウトの変更領域が認識された画像の具体例を示す図。The figure which shows the specific example of the image from which the layout change area | region was recognized by the image process. 画像処理によってレイアウトの変更領域が認識された画像の具体例を示す図。The figure which shows the specific example of the image from which the layout change area | region was recognized by the image process. 校正用領域と制御用領域の具体例を示す図。The figure which shows the specific example of the area | region for calibration and the area | region for control. 画像センサ3の校正処理の流れを示すフローチャート。6 is a flowchart showing a flow of calibration processing of the image sensor 3. 画像センサ3の校正処理の流れを示すフローチャート。6 is a flowchart showing a flow of calibration processing of the image sensor 3. 画像センサ3の校正処理の流れを示すフローチャート。6 is a flowchart showing a flow of calibration processing of the image sensor 3. 画像センサ3の校正処理の流れを示すフローチャート。6 is a flowchart showing a flow of calibration processing of the image sensor 3. 校正処理において取得された照明パラメータの具体例を示す図。The figure which shows the specific example of the illumination parameter acquired in the calibration process. 校正ツールの具体例を示す図。The figure which shows the specific example of a calibration tool. 校正ツールの具体例を示す図。The figure which shows the specific example of a calibration tool. 校正ツールの具体例を示す図。The figure which shows the specific example of a calibration tool. 別形態の照明制御システム1aの構成を示すシステム構成図。The system block diagram which shows the structure of the illumination control system 1a of another form. 別形態の照明制御システム1bの構成を示すシステム構成図。The system block diagram which shows the structure of the illumination control system 1b of another form. 照明制御システム1bにおける画像センサ3の校正処理の流れを示すフローチャート。The flowchart which shows the flow of the calibration process of the image sensor 3 in the illumination control system 1b.

以下、実施形態の照明制御システム、画像センサ、画像センサ校正方法及びコンピュータプログラムを、図面を参照して説明する。   Hereinafter, an illumination control system, an image sensor, an image sensor calibration method, and a computer program according to embodiments will be described with reference to the drawings.

図1は、実施形態の照明制御システム1のシステム構成を示すシステム構成図である。
照明制御システム1は、制御対象の照明機器2−1〜2−3を制御するシステムである。制御対象となる照明機器の数は、図1と異なる数であってもよい。以下の説明では、特に区別しない限り、照明機器2−1〜2−3を照明機器2と記す。
照明制御システム1は、外部システム4、画像センサ3−1〜3−3、第1のネットワーク51、第2のネットワーク52、第3のネットワーク53、ゲートウェイ装置6及びHUB7を備える。
Drawing 1 is a system configuration figure showing the system configuration of lighting control system 1 of an embodiment.
The lighting control system 1 is a system that controls the lighting devices 2-1 to 2-3 to be controlled. The number of lighting devices to be controlled may be different from that in FIG. In the following description, unless otherwise specified, the lighting devices 2-1 to 2-3 are referred to as the lighting device 2.
The lighting control system 1 includes an external system 4, image sensors 3-1 to 3-3, a first network 51, a second network 52, a third network 53, a gateway device 6, and a HUB 7.

外部システム4は、制御対象の機器の制御を行う装置やシステムの集合である。例えば、外部システム4は、BEMS(Building Energy Management System)41(登録商標、以下同様。)などの制御システム、及び、空調制御装置42や照明制御装置43などの制御装置を備える。BEMSとは、ビル内の機器や設備などの運転を管理することによってエネルギー消費量の削減を図るためのビル管理システムである。外部システム4は、第1のネットワーク51に接続され、ゲートウェイ装置6を介して画像センサ3−1〜3−3と通信可能である。また、照明制御装置43は、第3のネットワーク53を介して照明機器2と通信可能である。外部システム4は、画像センサ3から送信される情報に基づいて、照明機器2の動作を制御する。   The external system 4 is a set of devices and systems that control devices to be controlled. For example, the external system 4 includes a control system such as a BEMS (Building Energy Management System) 41 (registered trademark, the same applies hereinafter) and a control device such as an air conditioning control device 42 and a lighting control device 43. BEMS is a building management system for reducing energy consumption by managing the operation of equipment and facilities in a building. The external system 4 is connected to the first network 51 and can communicate with the image sensors 3-1 to 3-3 via the gateway device 6. The lighting control device 43 can communicate with the lighting device 2 via the third network 53. The external system 4 controls the operation of the lighting device 2 based on information transmitted from the image sensor 3.

画像センサ3−1〜3−3は、設置された位置付近の空間(以下、「対象空間」という。)の画像(空間画像)を撮像し、撮像された画像から空間の明るさに関する情報を取得するセンサ装置である。図1において、画像センサ3−1〜3−3はそれぞれ、照明機器2−1〜2−3を制御するためのセンサ装置である。図1では、1つの画像センサに1つの照明機器が対応づけられているが、1つの画像センサには複数の照明機器が対応づけられてもよい。画像センサ3−1〜3−3は、HUB7によって第2のネットワーク52に収容され、ゲートウェイ装置6と通信可能である。画像センサ3−1〜3−3は、ゲートウェイ装置6を介して外部システム4と通信可能である。画像センサ3−1〜3−3は、取得した対象空間の明るさに関する情報を照明制御装置43に送信する。以下の説明では、特に区別しない限り、画像センサ3−1〜3−3を画像センサ3と記す。なお、画像センサ3の数は、図1と異なる数であってもよい。   The image sensors 3-1 to 3-3 capture an image (spatial image) of a space in the vicinity of the installed position (hereinafter referred to as “target space”), and information on the brightness of the space from the captured image. It is a sensor device to acquire. In FIG. 1, image sensors 3-1 to 3-3 are sensor devices for controlling the lighting devices 2-1 to 2-3, respectively. In FIG. 1, one illumination device is associated with one image sensor, but a plurality of illumination devices may be associated with one image sensor. The image sensors 3-1 to 3-3 are accommodated in the second network 52 by the HUB 7 and can communicate with the gateway device 6. The image sensors 3-1 to 3-3 can communicate with the external system 4 via the gateway device 6. The image sensors 3-1 to 3-3 transmit the acquired information regarding the brightness of the target space to the illumination control device 43. In the following description, the image sensors 3-1 to 3-3 are referred to as an image sensor 3 unless otherwise distinguished. Note that the number of image sensors 3 may be different from that in FIG.

第1のネットワーク51は、外部システム4を収容するネットワークである。例えば、第1のネットワーク51はBACnet(Building Automation and Control Networking protocol)や産業用Ethernet(登録商標、以下同様。)などの規格によって規定されたプロトコルで通信するネットワークである。BACAnetは、インテリジェントビル用のネットワーク規格であり、空調機器や照明機器の制御や、アクセス制御、火気検出などに用いられる。産業用Ethernetは、主に工場等の製造現場におけるFA(Factory Automation)システムに対応したEthernet規格である。   The first network 51 is a network that accommodates the external system 4. For example, the first network 51 is a network that communicates with a protocol defined by a standard such as BACnet (Building Automation and Control Networking protocol) or industrial Ethernet (registered trademark, the same applies hereinafter). BACAnet is a network standard for intelligent buildings, and is used for control of air-conditioning equipment and lighting equipment, access control, fire detection, and the like. Industrial Ethernet is an Ethernet standard mainly corresponding to FA (Factory Automation) systems in manufacturing sites such as factories.

第2のネットワーク52は、画像センサ3を収容するネットワークである。第2のネットワーク52は、ゲートウェイ装置6によって第1のネットワーク51に接続される。なお、第2のネットワーク52は、第1のネットワーク51に統合されもよい。
第3のネットワーク53は、照明機器2及び照明制御装置43を収容するネットワークである。なお、第3のネットワーク53は、第1のネットワーク51又は第2のネットワーク52に統合されもよい。
The second network 52 is a network that accommodates the image sensor 3. The second network 52 is connected to the first network 51 by the gateway device 6. Note that the second network 52 may be integrated with the first network 51.
The third network 53 is a network that accommodates the lighting device 2 and the lighting control device 43. Note that the third network 53 may be integrated with the first network 51 or the second network 52.

ゲートウェイ装置6は、第1のネットワーク51と第2のネットワーク52と間の通信を中継するゲートウェイ装置である。ゲートウェイ装置6は、第1のネットワーク51と第2のネットワーク52との間で通信プロトコルを変換する。
HUB7は、画像センサ3を第2のネットワーク52に収容させるネットワークハブである。
The gateway device 6 is a gateway device that relays communication between the first network 51 and the second network 52. The gateway device 6 converts a communication protocol between the first network 51 and the second network 52.
The HUB 7 is a network hub that accommodates the image sensor 3 in the second network 52.

図2は、画像センサ3の機能構成を示す機能ブロック図である。
画像センサ3は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、センサ制御プログラムを実行する。画像センサ3は、センサ制御プログラムの実行によって記憶部31、通信部32、撮像部33、撮像制御部34、画像処理部35、校正処理部36及び明るさ推定部37を備える装置として機能する。
なお、画像センサ3の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。センサ制御プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。センサ制御プログラムは、電気通信回線を介して送信されてもよい。
FIG. 2 is a functional block diagram showing a functional configuration of the image sensor 3.
The image sensor 3 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes a sensor control program. The image sensor 3 functions as a device including a storage unit 31, a communication unit 32, an imaging unit 33, an imaging control unit 34, an image processing unit 35, a calibration processing unit 36, and a brightness estimation unit 37 by executing a sensor control program.
Note that all or part of the functions of the image sensor 3 may be realized by using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). The sensor control program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The sensor control program may be transmitted via a telecommunication line.

記憶部31は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部31は、撮像部33によって撮像された画像及び撮像パラメータを記憶する。
通信部32は、LAN(Local Area Network)等の通信インターフェースを用いて構成される。通信部32は、HUB7を介して外部システム4及びゲートウェイ装置6との間で通信する。
撮像部33は、レンズと撮像素子とシャッタとを備え、撮像制御部34の制御によって空間を撮像する装置として動作する。例えば、本実施形態では、撮像部33は、撮像範囲が広い魚眼レンズを用いて構成される。撮像部33は、撮像制御部34の制御に基づいて、自装置が設置された位置から対象空間の画像を取得する。撮像部33は、取得した画像を撮像制御部34に出力する。
The storage unit 31 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 31 stores an image captured by the imaging unit 33 and imaging parameters.
The communication unit 32 is configured using a communication interface such as a LAN (Local Area Network). The communication unit 32 communicates with the external system 4 and the gateway device 6 via the HUB 7.
The imaging unit 33 includes a lens, an imaging element, and a shutter, and operates as a device that images a space under the control of the imaging control unit 34. For example, in the present embodiment, the imaging unit 33 is configured using a fisheye lens having a wide imaging range. Based on the control of the imaging control unit 34, the imaging unit 33 acquires an image of the target space from the position where the own device is installed. The imaging unit 33 outputs the acquired image to the imaging control unit 34.

撮像制御部34は、撮像部33の動作を制御する。撮像制御部34は、撮像部33に撮像パラメータを設定し、撮像部33に撮像を指示する。撮像パラメータとは、ゲインやシャッタースピードなどのカメラの撮像動作を制御するためのパラメータである。また、撮像制御部34は、撮像された画像及びその画像が撮像されたときの撮像パラメータを撮像部33から取得する。撮像制御部34は、取得された画像と撮像パラメータとを記憶部31に記憶させる。   The imaging control unit 34 controls the operation of the imaging unit 33. The imaging control unit 34 sets imaging parameters in the imaging unit 33 and instructs the imaging unit 33 to perform imaging. The imaging parameters are parameters for controlling the imaging operation of the camera such as gain and shutter speed. Further, the imaging control unit 34 acquires the captured image and the imaging parameters when the image is captured from the imaging unit 33. The imaging control unit 34 causes the storage unit 31 to store the acquired image and imaging parameters.

画像処理部35は、撮像部33によって取得された画像について画像処理を行う。画像処理部35は、画像処理によって、対象空間における人の在・不在や、人数、人の活動量、人の行動などの情報を取得する。また、画像処理部35は、画像処理によって、対象空間におけるレイアウトに関する情報を取得する。   The image processing unit 35 performs image processing on the image acquired by the imaging unit 33. The image processing unit 35 acquires information such as the presence / absence of a person in the target space, the number of persons, the amount of activity of the person, and the behavior of the person by image processing. Further, the image processing unit 35 acquires information related to the layout in the target space by image processing.

校正処理部36は、校正処理における自装置の動作を制御する。校正処理とは、画像センサ3に設定されている明るさ推定パラメータを現状に合わせて修正する処理である。明るさ推定パラメータは、撮像部33によって取得された画像に基づいて、画像センサ3が対象空間の明るさに関する情報を推定するためのパラメータである。具体的には、明るさ推定パラメータは、空間の反射率である。空間の反射率については後述する。   The calibration processing unit 36 controls the operation of the device itself in the calibration process. The calibration process is a process for correcting the brightness estimation parameter set in the image sensor 3 according to the current situation. The brightness estimation parameter is a parameter for the image sensor 3 to estimate information regarding the brightness of the target space based on the image acquired by the imaging unit 33. Specifically, the brightness estimation parameter is a spatial reflectance. The spatial reflectance will be described later.

明るさ推定部37は、撮像部33によって取得された画像と、明るさ推定パラメータとに基づいて、対象空間の明るさに関する情報を推定する。明るさ推定部37は、推定された対象空間の明るさに関する情報を照明制御装置43に送信する。送信された明るさに関する情報は、照明制御装置43が照明機器2を制御するための情報として使用される。明るさ推定部37は、次に示す式1に基づいて、対象空間の明るさに関する情報を推定する。

Figure 0006407562
The brightness estimation unit 37 estimates information related to the brightness of the target space based on the image acquired by the imaging unit 33 and the brightness estimation parameter. The brightness estimation unit 37 transmits information related to the estimated brightness of the target space to the illumination control device 43. The transmitted information on the brightness is used as information for the lighting control device 43 to control the lighting device 2. The brightness estimation unit 37 estimates information related to the brightness of the target space based on Equation 1 shown below.
Figure 0006407562

式1は、画像センサ3に入力される光の量(画像センサへの入力光量)と、照明機器2が出力する光の量(照明の光量)との関係を表す式である。照明機器2から出力された光の一部は、対象空間内の物体に吸収される。そのため、照明機器2から出力された光のうち、対象空間内の物体に吸収されずに反射された光が画像センサ3に入力される光となる。空間の反射率は、照明機器2から出力された光のうち、画像センサ3に入力された光の量の割合を表すパラメータである。
式1の照明の光量は、以下に示す式2によって算出される。式1の画像センサへの入力光量は、以下に示す式3によって算出される。

Figure 0006407562
Expression 1 is an expression representing the relationship between the amount of light input to the image sensor 3 (input light amount to the image sensor) and the amount of light output from the lighting device 2 (light amount of illumination). Part of the light output from the lighting device 2 is absorbed by an object in the target space. For this reason, of the light output from the lighting device 2, the light reflected without being absorbed by the object in the target space is input to the image sensor 3. The reflectance of the space is a parameter representing the proportion of the amount of light input to the image sensor 3 out of the light output from the lighting device 2.
The amount of illumination of Equation 1 is calculated by Equation 2 shown below. The amount of light input to the image sensor of Equation 1 is calculated by Equation 3 shown below.
Figure 0006407562

式2は、照明機器2が出力する光の量(照明の光量)と、照明機器2が出力する光の量(照明の光量)を調節するための調光率との関係を表す式である。gは、調光率と照明の光量との関係表す照明パラメータである。照明パラメータgは、照明機器2の出力特性を表す既知のパラメータである。
式3において関数fは、撮像された画像と、その画像が撮像されたときの撮像パラメータとから、画像センサ3に入力された光の量(画像センサへの入力光量)を推定するモデル関数である。関数fは、撮像部33の撮像機能の仕様に基づいて決定される既知の関数である。
Expression 2 is an expression representing the relationship between the amount of light output from the lighting device 2 (light quantity of illumination) and the dimming rate for adjusting the amount of light output from the lighting apparatus 2 (light amount of illumination). . g is an illumination parameter representing the relationship between the dimming rate and the amount of illumination light. The illumination parameter g is a known parameter that represents the output characteristics of the illumination device 2.
In Expression 3, the function f is a model function that estimates the amount of light input to the image sensor 3 (input light amount to the image sensor) from the captured image and the imaging parameters when the image is captured. is there. The function f is a known function that is determined based on the specification of the imaging function of the imaging unit 33.

照明機器2の運用時は、式3によって、画像センサ3が取得した画像と、その画像が取得されたときの撮像パラメータとから画像センサ3への入力光量が算出される。そして、画像センサ3への入力光量と空間の反射率とを式1に適用することによって照明の光量が算出される。このようにして推定された照明の光量を表す情報は、対象空間の明るさを表す情報として照明制御装置43に送信される。照明制御装置43は、対象空間の明るさを表す情報が示す照明の光量に基づいて、照明機器2の調光率を制御する。   When the lighting device 2 is in operation, the amount of light input to the image sensor 3 is calculated from the image acquired by the image sensor 3 and the imaging parameters when the image is acquired, using Equation 3. Then, the amount of illumination light is calculated by applying the input light amount to the image sensor 3 and the spatial reflectance to Equation 1. Information representing the amount of illumination light thus estimated is transmitted to the illumination control device 43 as information representing the brightness of the target space. The illumination control device 43 controls the dimming rate of the illumination device 2 based on the amount of illumination light indicated by the information representing the brightness of the target space.

また、画像センサ3の校正時は、照明制御装置43から画像センサ3に調光率が入力される。画像センサ3はその調光率で照明機器2が点灯しているときの対象空間を撮像する。画像センサ3は、取得した画像と、その画像が撮像されたときの撮像パラメータとに基づいて、画像センサ3への入力光量を算出する。画像センサ3は、算出された画像センサ3への入力光量と、入力された調光率と、照明パラメータとを式4に適用することによって、空間の反射率を算出する。画像センサ3は、算出された結果に基づいて自装置に設定されている空間の反射率を校正する。   Further, when the image sensor 3 is calibrated, a dimming rate is input from the illumination control device 43 to the image sensor 3. The image sensor 3 images the target space when the lighting device 2 is lit at the dimming rate. The image sensor 3 calculates the amount of light input to the image sensor 3 based on the acquired image and imaging parameters when the image is captured. The image sensor 3 calculates the reflectance of the space by applying the calculated input light amount to the image sensor 3, the input dimming rate, and the illumination parameter to Equation 4. The image sensor 3 calibrates the reflectance of the space set in the own device based on the calculated result.

図3は、照明の光量と調光率との関係の具体例を示す図である。
図3において縦軸は、照明の光量を表す。横軸は、照明の調光率を表す。符号81は、照明の光量と照明の調光率との関係を表す特性曲線である。この特性曲線81に基づいて照明パラメータgが決定される。照明パラメータgは、特性曲線81を表す関数として表されてもよい。また照明パラメータgは、特性曲線81が示す照明の光量の値を所定の数サンプリングし、サンプリングされた照明の光量の値と、対応する調光率とを組み合わせたデータの集合として表されてもよい。
FIG. 3 is a diagram illustrating a specific example of the relationship between the amount of illumination light and the dimming rate.
In FIG. 3, the vertical axis represents the amount of illumination light. The horizontal axis represents the dimming rate of illumination. Reference numeral 81 is a characteristic curve representing the relationship between the amount of illumination light and the dimming rate of illumination. Based on the characteristic curve 81, the illumination parameter g is determined. The illumination parameter g may be expressed as a function representing the characteristic curve 81. The illumination parameter g may be expressed as a set of data obtained by sampling a predetermined number of illumination light values indicated by the characteristic curve 81 and combining the sampled illumination light value and the corresponding dimming rate. Good.

図4は、照明制御装置43の機能構成を示す機能ブロック図である。
照明制御装置43は、バスで接続されたCPUやメモリや補助記憶装置などを備え、照明制御プログラムを実行する。照明制御装置43は、照明制御プログラムの実行によって記憶部431、第1通信部432、第2通信部433、明るさ制御部434及び校正制御部435を備える装置として機能する。
なお、照明制御装置43の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。照明制御プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。照明制御プログラムは、電気通信回線を介して送信されてもよい。
FIG. 4 is a functional block diagram showing a functional configuration of the illumination control device 43.
The lighting control device 43 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes a lighting control program. The illumination control device 43 functions as a device including a storage unit 431, a first communication unit 432, a second communication unit 433, a brightness control unit 434, and a calibration control unit 435 by executing an illumination control program.
Note that all or part of the functions of the illumination control device 43 may be realized using hardware such as an ASIC, PLD, or FPGA. The illumination control program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The lighting control program may be transmitted via a telecommunication line.

記憶部431は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部431は、明るさ制御部434による照明機器2の明るさの制御に必要な情報を記憶する。例えば、記憶部431は、照明機器2ごとの調光率を示す情報を記憶する。例えば、記憶部431は、画像センサ3から送信された照明の光量を示す情報を記憶する。また、記憶部431は、校正制御部435による校正処理の制御に必要な情報を記憶する。例えば、記憶部431は、校正処理に用いられる所定の調光率を示す情報を記憶する。   The storage unit 431 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 431 stores information necessary for controlling the brightness of the lighting device 2 by the brightness control unit 434. For example, the storage unit 431 stores information indicating the dimming rate for each lighting device 2. For example, the storage unit 431 stores information indicating the amount of illumination transmitted from the image sensor 3. The storage unit 431 stores information necessary for controlling the calibration process by the calibration control unit 435. For example, the storage unit 431 stores information indicating a predetermined dimming rate used for the calibration process.

第1通信部432は、LAN等の通信インターフェースを用いて構成される。第1通信部432は、照明制御装置43を第1のネットワーク51に接続する。第1通信部432は、ゲートウェイ装置6及びHUB7を介して画像センサ3との間で通信する。
第2通信部433は、LAN等の通信インターフェースを用いて構成される。第2通信部433は、照明制御装置43を第3のネットワーク53に接続する。第2通信部433は、照明機器2との間で通信する。
The first communication unit 432 is configured using a communication interface such as a LAN. The first communication unit 432 connects the lighting control device 43 to the first network 51. The first communication unit 432 communicates with the image sensor 3 via the gateway device 6 and the HUB 7.
The second communication unit 433 is configured using a communication interface such as a LAN. The second communication unit 433 connects the lighting control device 43 to the third network 53. The second communication unit 433 communicates with the lighting device 2.

明るさ制御部434は、照明機器2の照明動作を制御する。具体的には、明るさ制御部434は、画像センサ3から送信された対象空間の明るさに関する情報(画像センサへの入力光量)を取得する。このとき、取得した対象空間の明るさに関する情報は、外光や対象空間における人の活動等の影響を含んで推定された光量である。明るさ制御部434は、画像センサ3から取得した対象空間の明るさに関する情報が示す光量が、予め設定された所定の光量よりも大きい場合は、照明機器2の調光率を下げるように制御する。また、明るさ制御部434は、画像センサ3から取得した対象空間の明るさに関する情報が示す光量が、予め設定された所定の光量よりも小さい場合は、照明機器2の調光率を上げるように制御する。   The brightness control unit 434 controls the lighting operation of the lighting device 2. Specifically, the brightness control unit 434 acquires information (the amount of light input to the image sensor) regarding the brightness of the target space transmitted from the image sensor 3. At this time, the acquired information regarding the brightness of the target space is a light amount estimated including the influence of outside light, human activity in the target space, and the like. The brightness control unit 434 performs control so as to lower the dimming rate of the lighting device 2 when the light amount indicated by the information related to the brightness of the target space acquired from the image sensor 3 is larger than a predetermined light amount set in advance. To do. In addition, the brightness control unit 434 increases the dimming rate of the lighting device 2 when the amount of light indicated by the information related to the brightness of the target space acquired from the image sensor 3 is smaller than a predetermined amount of light set in advance. To control.

校正制御部435は、照明機器2の校正処理を制御する。具体的には、校正制御部435は、所定の調光率で照明を点灯させ、その調光率の情報を画像センサ3に送信する。   The calibration control unit 435 controls the calibration process of the lighting device 2. Specifically, the calibration control unit 435 turns on the illumination at a predetermined dimming rate, and transmits information on the dimming rate to the image sensor 3.

図5は、校正処理において取得された空間の反射率の具体例を示す図である。
図5において、縦軸は、画像センサ3に入力された調光率から算出される照明の光量を表す。横軸は、画像センサ3への入力光量を表す。図5にプロットされた各点は、異なる調光率における照明の光量と画像センサ3への入力光量とを表す。図5の例では、調光率が25%、50%、75%及び100%のときに取得された画像センサ3への入力光量を表す点がプロットされている。照明の光量は、調光率と照明パラメータとにより決定される。画像センサ3への入力光量は、画像センサ3によって取得された画像と、その画像が取得されたときの撮像パラメータとから推定される。符号82は、プロットされた点の集合から推定された、照明の光量と画像センサ3への入力光量との関係を表す推定曲線である。すなわち、この推定曲線82の勾配が、画像センサ3によって取得される空間の反射率となる。
FIG. 5 is a diagram illustrating a specific example of the reflectance of the space acquired in the calibration process.
In FIG. 5, the vertical axis represents the amount of illumination light calculated from the dimming rate input to the image sensor 3. The horizontal axis represents the amount of light input to the image sensor 3. Each point plotted in FIG. 5 represents the amount of illumination light and the amount of light input to the image sensor 3 at different dimming rates. In the example of FIG. 5, points representing the input light amount to the image sensor 3 acquired when the dimming rate is 25%, 50%, 75%, and 100% are plotted. The amount of illumination light is determined by the dimming rate and illumination parameters. The amount of light input to the image sensor 3 is estimated from the image acquired by the image sensor 3 and the imaging parameters when the image is acquired. Reference numeral 82 is an estimated curve representing the relationship between the amount of illumination light and the amount of light input to the image sensor 3 estimated from the set of plotted points. That is, the gradient of the estimated curve 82 becomes the reflectance of the space acquired by the image sensor 3.

図6は、画像センサ3の校正処理の流れを示すフローチャートである。
まず、照明制御装置43の校正制御部435は、校正処理に使用する調光率の中から1つの調光率aを選択する(ステップS101)。校正制御部435は、選択された調光率aで校正対象の画像センサ3が受け持つ照明機器2を点灯させる(ステップS102)。校正制御部435は、照明機器2を点灯させると、画像センサ3に対象空間の撮像を指示する。画像センサ3の撮像制御部34は、照明制御装置43の指示に応じて、照明機器2が調光率aで点灯する状態の対象空間の撮像を撮像部33に指示する。撮像部33は、対象空間を撮像し、取得した画像と、その画像を撮像したときの撮像パラメータとを撮像制御部34に出力する。撮像制御部34は、取得された画像と、その画像を取得したときの撮像パラメータと、そのときの調光率aとを対応付けて記憶部31に記憶させる(ステップS103)。
FIG. 6 is a flowchart showing the flow of the calibration process of the image sensor 3.
First, the calibration control unit 435 of the illumination control device 43 selects one dimming rate a from the dimming rates used for the calibration process (step S101). The calibration control unit 435 turns on the illumination device 2 that is handled by the image sensor 3 to be calibrated at the selected dimming rate a (step S102). When the lighting control device 2 is turned on, the calibration control unit 435 instructs the image sensor 3 to image the target space. In response to an instruction from the illumination control device 43, the imaging control unit 34 of the image sensor 3 instructs the imaging unit 33 to image the target space in a state where the lighting device 2 is lit at the dimming rate a. The imaging unit 33 images the target space, and outputs the acquired image and imaging parameters when the image is captured to the imaging control unit 34. The imaging control unit 34 stores the acquired image, the imaging parameter when the image is acquired, and the dimming rate a at that time in the storage unit 31 in association with each other (step S103).

具体的には、校正処理に使用される調光率は、25%、50%、75%及び100%の4つの調光率であってもよい。この場合、例えば、照明制御装置43は、25%、50%、75%及び100%の順序で調光率を変更して照明機器2を点灯させる。照明制御装置43が照明機器2の調光率を変更する順序は、前述した以外の順序であってもよい。例えば、上述した順序と逆の順序であってもよい。また、次に使用される調光率が、画像取得が完了していない調光率の中から任意に選択されてもよい。また、校正処理に使用される調光率は上記のものに限定されない。使用される調光率は、校正処理に許される時間や、明るさ制御に求められる精度などのバランスを考慮して任意に選択されてよい。   Specifically, the dimming rates used for the calibration process may be four dimming rates of 25%, 50%, 75%, and 100%. In this case, for example, the lighting control device 43 changes the dimming rate in the order of 25%, 50%, 75%, and 100% and turns on the lighting device 2. The order in which the lighting control device 43 changes the dimming rate of the lighting device 2 may be an order other than that described above. For example, the order opposite to the order described above may be used. Further, the dimming rate to be used next may be arbitrarily selected from the dimming rates for which image acquisition has not been completed. The dimming rate used for the calibration process is not limited to the above. The dimming rate to be used may be arbitrarily selected in consideration of a balance such as time allowed for the calibration process and accuracy required for brightness control.

次に、照明制御装置43の校正制御部435は、校正処理に使用する全ての調光率について対象空間の画像を取得したかを判定する(ステップS104)。対象空間の画像を取得していない調光率が存在する場合(ステップS104−NO)、校正制御部435は、対象空間の画像を取得していない調光率の中から1つの調光率を選択し、調光率aを変更する(ステップS105)。そして、ステップS101に戻り、対象空間の画像の取得を繰り返す。
一方、ステップS104において、全ての調光率について対象空間の画像を取得した場合(ステップS104−YES)、画像センサ3の校正処理部36は、校正処理に使用する全ての調光率について取得された対象空間の画像に基づいて、空間の反射率を取得する(ステップS106)。
Next, the calibration control unit 435 of the illumination control device 43 determines whether images of the target space have been acquired for all dimming rates used for the calibration process (step S104). When there is a dimming rate at which no image of the target space has been acquired (step S104—NO), the calibration control unit 435 selects one dimming rate from among the dimming rates at which no image of the target space has been acquired. Select and change the light control rate a (step S105). And it returns to step S101 and repeats acquisition of the image of object space.
On the other hand, when images of the target space are acquired for all dimming rates in step S104 (step S104-YES), the calibration processing unit 36 of the image sensor 3 is acquired for all dimming rates used for the calibration processing. Based on the image of the target space, the reflectance of the space is acquired (step S106).

なお、照明機器2は、温度によって出力特性が変化するため、調光率を変化した場合に光の出力が安定するまでにある程度の時間を要する。そのため、調光率を変化させた後、画像センサ3が対象空間を撮像するまでの間に、照明機器2の出力が安定するのに十分な所定時間を確保することによって、画像センサ3の校正処理をより正確に行うことができる。この場合、画像センサ3は、所定時間後に取得した画像に基づいて空間の反射率を取得してもよいし、所定時間内に取得した画像に基づいて空間の反射率を取得してもよい。例えば、所定時間内に取得した画像に基づいて取得された空間の反射率の平均値や、最頻値などの統計値が、空間の反射率として用いられてもよい。   Note that since the output characteristics of the lighting device 2 change depending on the temperature, a certain amount of time is required until the light output is stabilized when the dimming rate is changed. Therefore, the calibration of the image sensor 3 is ensured by securing a predetermined time sufficient for the output of the illumination device 2 to be stabilized after the dimming rate is changed and before the image sensor 3 captures the target space. Processing can be performed more accurately. In this case, the image sensor 3 may acquire the reflectance of the space based on the image acquired after a predetermined time, or may acquire the reflectance of the space based on the image acquired within the predetermined time. For example, an average value of spatial reflectance acquired based on an image acquired within a predetermined time, or a statistical value such as a mode value may be used as the spatial reflectance.

図6の校正処理では、画像センサ3は取得された画像に基づいて、空間の反射率を取得することによって、自装置に設定されている空間の反射率を校正する。この反射率の校正処理は、取得された画像に画像処理を行うことによって、画像から空間の反射率が変化したことが推定された場合に実施されるようにしてもよい。この推定によって、空間の反射率が一時的な空間の状態の変化によって校正されることを抑制することができる。一時的な空間の状態の変化とは、例えば、机上にある書類の位置の変化やPCの位置の変化などである。画像から空間の反射率が変化したことを認識する手法の具体例を次に示す。   In the calibration process of FIG. 6, the image sensor 3 calibrates the reflectance of the space set in the apparatus by obtaining the reflectance of the space based on the obtained image. The reflectance calibration process may be performed when it is estimated that the reflectance of the space has changed from the image by performing image processing on the acquired image. By this estimation, it is possible to prevent the spatial reflectance from being calibrated due to a temporary change in the state of the space. The temporary change in the state of the space is, for example, a change in the position of a document on the desk or a change in the position of the PC. A specific example of a method for recognizing that the spatial reflectance has changed from the image is shown below.

図7は、画像センサ3によって取得された画像の具体例を示す図である。
符号A1は、撮像部33に魚眼レンズを用いた画像センサ3が、対象空間を上から俯瞰して取得した画像である。対象空間の部屋は、上部に照明機器2が設置されており、照明機器2から光が供給されている。符号A1−1は、画像に写りこんだ魚眼レンズの外周である。符号A1−2は、対象空間である部屋の床の外周である。符号A1−3は、床A1−2に設置された机である。画像A1では、机A1−3の上面は周囲よりも明るくなっており、光をよく反射していることが分かる。
FIG. 7 is a diagram illustrating a specific example of an image acquired by the image sensor 3.
A reference sign A1 is an image acquired by the image sensor 3 using a fisheye lens in the imaging unit 33 as an overhead view of the target space. The lighting device 2 is installed in the upper part of the room in the target space, and light is supplied from the lighting device 2. Reference numeral A1-1 is the outer periphery of the fisheye lens that is reflected in the image. Reference sign A1-2 is the outer periphery of the floor of the room that is the target space. Reference sign A1-3 is a desk installed on the floor A1-2. In the image A1, it can be seen that the upper surface of the desk A1-3 is brighter than the surroundings and reflects light well.

図8は、画像センサ3によって取得された画像の具体例を示す図である。
図8の画像A2は、図7の画像A1に撮像された対象空間と同じ空間が撮像された画像である。画像A2には、画像A1の机A1−3の一部が対象空間外に移動され、机A2−1が残された状態の対象空間が撮像されている。
FIG. 8 is a diagram illustrating a specific example of an image acquired by the image sensor 3.
An image A2 in FIG. 8 is an image in which the same space as the target space imaged in the image A1 in FIG. 7 is captured. In the image A2, a part of the desk A1-3 of the image A1 is moved out of the target space, and the target space in a state where the desk A2-1 is left is captured.

図9は、画像センサ3によって取得された画像の具体例を示す図である。
図9の画像A3は、図7の画像A1に撮像された対象空間と同じ空間が撮像された画像である。画像A3には、撮像された部屋の四方の壁のうちの一方が別の壁に変更された状態の対象空間が撮像されている。そのため、変更後の壁A3−1は周囲よりも明るくなっており、光をよく反射していることが分かる。
FIG. 9 is a diagram illustrating a specific example of an image acquired by the image sensor 3.
An image A3 in FIG. 9 is an image in which the same space as the target space imaged in the image A1 in FIG. 7 is captured. In the image A3, the target space in a state where one of the four walls of the captured room is changed to another wall is captured. Therefore, it can be seen that the changed wall A3-1 is brighter than the surroundings and reflects light well.

図10は、画像処理によってレイアウトの変更領域が認識された画像の具体例を示す図である。
図10において、画像A4は、図7の画像A1及び図8の画像A2に基づいて認識された、対象空間におけるレイアウトの変更領域A4−1を表す画像である。レイアウトの変更領域A4−1は、すなわち、画像A1において、対象空間外に移動された机A1−2に対応する領域である。
FIG. 10 is a diagram illustrating a specific example of an image in which a layout change area is recognized by image processing.
In FIG. 10, an image A4 is an image representing a layout change area A4-1 in the target space, recognized based on the image A1 in FIG. 7 and the image A2 in FIG. That is, the layout change area A4-1 is an area corresponding to the desk A1-2 moved out of the target space in the image A1.

図11は、画像処理によってレイアウトの変更領域が認識された画像の具体例を示す図である。
図11において、画像A5は、図7の画像A1及び図9の画像A3に基づいて認識された、対象空間におけるレイアウトの変更領域A5−1を表す画像である。レイアウトの変更領域A5−1は、すなわち、画像A3において変更された壁A3−1に対応する領域である。
FIG. 11 is a diagram illustrating a specific example of an image in which a layout change area is recognized by image processing.
In FIG. 11, an image A5 is an image representing a layout change area A5-1 in the target space recognized based on the image A1 in FIG. 7 and the image A3 in FIG. The layout change area A5-1 is an area corresponding to the wall A3-1 changed in the image A3.

このように、レイアウトが変更される前後の画像を画像処理により比較することによって、画像センサ3は、対象空間におけるレイアウトの変更の有無を認識することができる。さらに、画像センサ3は、レイアウトの変更領域を表す画像に基づいて、レイアウトが変更された領域が対象空間の明るさ(空間の反射率)に寄与する度合いを推定することができる。例えば、レイアウトの変更領域が小さい場合、空間の反射率に与える影響は小さいと推定できる。また、例えば、レイアウトの変更領域が大きい場合であっても、その領域の物体の反射率が小さい場合、空間の反射率に与える影響は小さいと推定できる。このように、画像センサ3は、レイアウトが変更される前後の画像に基づいて、空間の反射率が変化したことを推定することができる。   In this way, by comparing the images before and after the layout is changed by image processing, the image sensor 3 can recognize the presence or absence of the layout change in the target space. Furthermore, the image sensor 3 can estimate the degree to which the area whose layout has been changed contributes to the brightness of the target space (the reflectance of the space) based on the image representing the layout change area. For example, when the layout change area is small, it can be estimated that the influence on the reflectance of the space is small. For example, even when the layout change area is large, it can be estimated that the influence on the spatial reflectance is small when the reflectance of the object in the area is small. Thus, the image sensor 3 can estimate that the reflectance of the space has changed based on the images before and after the layout is changed.

レイアウトが変更される前の画像には、画像センサ3の初期導入時の調整作業において取得された画像が用いられてもよいし、前回の校正処理において取得された画像が用いられてもよい。また、比較対象の画像は、背景を生成する画像処理によって不要な被写体が除去された状態で比較されてもよい。なお、画像から取得される対象空間の反射率は、空間の光量や撮像パラメータによって変化する。そのため、比較対象とする画像には、照明機器の調光率や撮像パラメータが同じ状況で撮像された対象空間の画像が用いられるとよい。ただし、明るさの変化に強い画像処理手法が用いられる場合、比較対象とする画像には、調光率と撮像パラメータとが異なる状態で撮像された画像が用いられてもよい。画像を比較する手法には、エッジ画像を生成し、エッジの相関性を評価する手法が用いられてもよいし、画像特徴量の相関性を評価する手法が用いられてもよい。   As the image before the layout is changed, an image acquired in the adjustment work at the time of initial introduction of the image sensor 3 may be used, or an image acquired in the previous calibration process may be used. In addition, the comparison target images may be compared in a state where unnecessary subjects are removed by image processing for generating a background. Note that the reflectance of the target space acquired from the image varies depending on the amount of light in the space and the imaging parameters. For this reason, an image of the target space that is captured in a situation where the dimming rate and imaging parameters of the lighting device are the same may be used as the image to be compared. However, when an image processing technique that is resistant to changes in brightness is used, an image captured in a state where the dimming rate and the imaging parameter are different may be used as the comparison target image. As a method of comparing images, a method of generating edge images and evaluating the correlation of edges may be used, or a method of evaluating the correlation of image feature amounts may be used.

また、空間の反射率が変化したことを推定するために用いられる画像の領域(以下、「校正用領域」という。)には、照明機器2の明るさ制御において明るさに関する情報を推定するために用いられる画像の領域(以下、「制御用領域」という。)と異なる領域が用いられてもよい。次に、取得された画像から制御用領域を推定する方法の具体例について説明する。   In addition, in an area of an image used to estimate that the reflectance of the space has changed (hereinafter referred to as “calibration area”), information related to brightness is estimated in the brightness control of the lighting device 2. An area different from the area of the image used in the above (hereinafter referred to as “control area”) may be used. Next, a specific example of a method for estimating the control region from the acquired image will be described.

図12は、校正用領域と制御用領域の具体例を示す図である。
画像Bは、撮像部33に魚眼レンズを用いた画像センサ3によって取得された対象空間の画像である。符号B1が示す領域は、画像Bにおける制御用領域を表す。符号B2−1及び符号B2−2は、画像Bにおける校正用領域を表す。以下の説明では、特に区別しない限り、校正用領域B2−1及びB2−2を校正用領域B2と記す。画像センサ3の画像処理部35は、校正用領域B2を、制御用領域B1以外の領域から選択する。このように、校正用領域B2が、制御用領域B1と異なる領域に設定されることによって人や外光などの一時的な要因が反射率の変化に及ぼす影響を抑制することができる。
FIG. 12 is a diagram showing a specific example of the calibration area and the control area.
The image B is an image of the target space acquired by the image sensor 3 using a fisheye lens for the imaging unit 33. An area indicated by reference sign B1 represents a control area in the image B. Reference numerals B2-1 and B2-2 represent calibration areas in the image B. In the following description, the calibration areas B2-1 and B2-2 are referred to as a calibration area B2 unless otherwise specified. The image processing unit 35 of the image sensor 3 selects the calibration area B2 from areas other than the control area B1. In this way, by setting the calibration area B2 in a different area from the control area B1, it is possible to suppress the influence of temporary factors such as people and external light on the change in reflectance.

図13は、画像センサ3の校正処理の流れを示すフローチャートである。
図13において、図6と同様の処理を行うステップには、図6と同様の符号を付すことにより説明を省略する。
まず、ステップS101〜ステップS105の処理を行うことにより、画像センサ3は、校正処理に使用する全ての調光率について、対象空間の画像を取得する。そして、画像センサ3の画像処理部35が、取得された画像について画像処理を行う。画像処理部35は、画像処理の結果に基づいて、空間の反射率が変化した可能性があるか否かを判定する(ステップS201)。空間の反射率が変化した可能性があると判定された場合(ステップS201−YES)、画像センサ3の校正処理部36は、校正処理に使用する全ての調光率について取得された画像に基づいて空間の反射率を取得する(ステップS202)。そして、画像センサ3は、自装置に設定されている空間の反射率を、取得された空間の反射率に校正する。
一方、ステップS201において、空間の反射率が変化した可能性がないと判定された場合(ステップS201−NO)、校正処理部36は、反射率の取得を行わずに処理を終了する。
FIG. 13 is a flowchart showing the flow of the calibration process of the image sensor 3.
In FIG. 13, steps that perform the same processing as in FIG. 6 are denoted by the same reference numerals as in FIG.
First, the image sensor 3 acquires the image of the object space for all the dimming rates used for the calibration process by performing the processes of steps S101 to S105. Then, the image processing unit 35 of the image sensor 3 performs image processing on the acquired image. The image processing unit 35 determines whether there is a possibility that the reflectance of the space has changed based on the result of the image processing (step S201). When it is determined that there is a possibility that the reflectance of the space has changed (YES in step S201), the calibration processing unit 36 of the image sensor 3 is based on images acquired for all dimming rates used for the calibration process. The reflectance of the space is acquired (step S202). Then, the image sensor 3 calibrates the reflectance of the space set in the own device to the reflectance of the acquired space.
On the other hand, when it is determined in step S201 that there is no possibility that the reflectance of the space has changed (step S201—NO), the calibration processing unit 36 ends the process without acquiring the reflectance.

このように、取得された画像から、空間の反射率が変化したことが認識された場合に反射率の取得を行うことによって、空間の反射率が一時的な空間の状態の変化によって校正されることを抑制することができ、画像センサ3の校正をより正確に行うことができる。
また、画像センサ3は、レイアウトの変更領域を表す画像に基づいて、レイアウトの変更領域が対象空間の明るさ(空間の反射率)に寄与する度合いに応じて校正処理を行うことによって、画像センサ3の校正をより正確に行うことができる。具体的には、画像センサ3は、レイアウトの変更領域のうち、対象空間の明るさに寄与する度合いが小さい領域を、空間の反射率の取得に用いる画像の領域から除外する。このような校正処理の流れについて次に説明する。
Thus, when it is recognized from the acquired image that the reflectance of the space has changed, the reflectance of the space is calibrated by a temporary change in the state of the space by acquiring the reflectance. This can be suppressed, and the calibration of the image sensor 3 can be performed more accurately.
Further, the image sensor 3 performs a calibration process according to the degree to which the layout change area contributes to the brightness of the target space (the reflectance of the space) based on the image representing the layout change area. 3 can be calibrated more accurately. Specifically, the image sensor 3 excludes an area of the layout change area that has a small degree of contribution to the brightness of the target space from the image area used for acquiring the reflectance of the space. The flow of such calibration processing will be described next.

図14及び図15は、画像センサ3の校正処理の流れを示すフローチャートである。
図14及び図15において、図13と同様の処理を行うステップには、図13と同様の符号を付すことにより説明を省略する。
まず、ステップS101〜ステップS105の処理を行うことにより、画像センサ3は、校正処理に使用する全ての調光率について、対象空間の画像を取得する。そして、画像センサ3の画像処理部35が、取得された画像について画像処理を行う。画像処理の結果に基づいて、ステップS201において空間の反射率が変化した可能性があると判定された場合(ステップS201−YES)、画像処理部35は、空間の反射率が変化した領域の大きさが所定の閾値Rthより大きいか否かを判定する(ステップS301)。空間の反射率が変化した領域の大きさが閾値Rth以下である場合(ステップS301−NO)、画像処理部35は、空間の反射率の変化が変化した領域の大きさが所定の閾値Rtlより小さいか否かを判定する(ステップS302)。空間の反射率が変化した領域の大きさが閾値Rtlより小さい場合(ステップS302−YES)、画像処理部35は、空間の反射率が変化した領域の画像に、この領域を空間の反射率の取得に使用しない領域としてマークするためのマスク処理を行う(ステップS303)。校正処理部36は、校正処理に使用する全ての調光率について取得された画像の領域のうち、マスクされていない領域の画像に基づいて空間の反射率を取得する(ステップS304)。
14 and 15 are flowcharts showing the flow of the calibration process of the image sensor 3.
14 and 15, steps for performing the same processing as in FIG. 13 are denoted by the same reference numerals as in FIG. 13, and description thereof is omitted.
First, the image sensor 3 acquires the image of the object space for all the dimming rates used for the calibration process by performing the processes of steps S101 to S105. Then, the image processing unit 35 of the image sensor 3 performs image processing on the acquired image. When it is determined that there is a possibility that the reflectance of the space has changed in step S201 based on the result of the image processing (step S201-YES), the image processing unit 35 determines the size of the region where the reflectance of the space has changed. Is greater than a predetermined threshold value Rth (step S301). When the size of the region in which the spatial reflectance has changed is equal to or smaller than the threshold value Rth (step S301-NO), the image processing unit 35 determines that the size of the region in which the spatial reflectance change has changed is the predetermined threshold value R. It is determined whether it is smaller than tl (step S302). When the size of the area where the spatial reflectance has changed is smaller than the threshold value R tl (YES in step S302), the image processing unit 35 adds this area to the spatial reflectance in the image of the area where the spatial reflectance has changed. A mask process for marking as an area that is not used for acquisition is performed (step S303). The calibration processing unit 36 acquires the spatial reflectance based on the image of the unmasked area among the image areas acquired for all the dimming rates used for the calibration process (step S304).

一方、ステップS301において、空間の反射率が変化した領域の大きさが閾値Rthより大きい場合(ステップS301−YES)、ステップS304に進み、校正処理部36は、取得された画像に基づいて空間の反射率を取得する。
また、一方、ステップS302において、空間の反射率が変化した領域の大きさが閾値Rtl以上である場合(ステップS302−NO)、ステップS304に進み、校正処理部36は、取得された画像に基づいて空間の反射率を取得する。
On the other hand, in step S301, when the size of the area where the reflectance of the space has changed is larger than the threshold value Rth (step S301-YES), the process proceeds to step S304, and the calibration processing unit 36 creates a space based on the acquired image. Get the reflectance of.
On the other hand, when the size of the region where the reflectance of the space has changed is greater than or equal to the threshold value R tl in step S302 (step S302-NO), the process proceeds to step S304, and the calibration processing unit 36 adds the acquired image to the acquired image. Based on this, the spatial reflectance is obtained.

このように、空間の反射率が変化したことが認識された場合、画像センサ3は、変化量(例えば、空間の反射率が変化した領域の大きさ)が小さい場合は、その変化は一時的な変化であると判断して、その領域の画像にマスク処理を施す。画像センサ3は、マスクされていない領域の画像に基づいて空間の反射率を取得することによって、画像センサ3は、より正確な空間の反射率を取得することができる。   Thus, when it is recognized that the reflectance of the space has changed, the image sensor 3 temporarily changes when the amount of change (for example, the size of the region where the reflectance of the space has changed) is small. It is determined that the change is a significant change, and mask processing is performed on the image in that region. The image sensor 3 acquires the spatial reflectance based on the image of the unmasked area, so that the image sensor 3 can acquire a more accurate spatial reflectance.

以上、画像センサ3が自装置に設定されている空間の反射率を、取得した画像に基づいて取得された空間の反射率に校正する校正処理について説明した。しかしながら、上記の説明は、照明パラメータは、変化しないことを前提とした説明であった。実際には、照明パラメータは、照明機器の劣化に伴って緩やかに変化する。そのため、画像センサ3は、空間の反射率に加えて、照明パラメータについても校正する必要がある。取得された画像に基づいて、空間の反射率及び照明パラメータを校正する画像センサ3の校正処理について次に説明する。なお、照明パラメータは、空間の反射率に比べて十分に緩やかに変化するため、空間の反射率の変化と、照明パラメータの変化とは同時に発生しないことを前提とする。   The calibration process for calibrating the reflectance of the space set in the image sensor 3 to the own apparatus to the reflectance of the space acquired based on the acquired image has been described above. However, the above description is based on the assumption that the illumination parameter does not change. In practice, the lighting parameters change slowly with deterioration of the lighting equipment. For this reason, the image sensor 3 needs to calibrate the illumination parameter in addition to the spatial reflectance. Next, a calibration process of the image sensor 3 that calibrates the spatial reflectance and illumination parameters based on the acquired image will be described. It is assumed that the change in the reflectance of the space and the change of the illumination parameter do not occur at the same time because the illumination parameter changes sufficiently slowly compared to the reflectance of the space.

図16は、画像センサ3の校正処理の流れを示すフローチャートである。
図16において、図14及び図15と同様の処理を行うステップには、図14及び図15と同様の符号を付すことにより説明を省略する。
まず、ステップS101〜ステップS105の処理を行うことにより、画像センサ3は、校正処理に使用する全ての調光率について、対象空間の画像を取得する。そして、画像センサ3の画像処理部35が、取得された画像について画像処理を行う。画像処理の結果に基づいて、ステップ201において空間の反射率が変化した可能性がないと判定された場合(ステップS201−NO)、校正処理部36は、校正処理に使用する全ての調光率について取得された画像に基づいて照明パラメータを取得する(ステップS401)。
FIG. 16 is a flowchart showing the flow of the calibration process of the image sensor 3.
In FIG. 16, steps similar to those in FIGS. 14 and 15 are denoted by the same reference numerals as in FIGS. 14 and 15, and description thereof is omitted.
First, the image sensor 3 acquires the image of the object space for all the dimming rates used for the calibration process by performing the processes of steps S101 to S105. Then, the image processing unit 35 of the image sensor 3 performs image processing on the acquired image. When it is determined that there is no possibility that the reflectance of the space has changed in step 201 based on the result of the image processing (step S201—NO), the calibration processing unit 36 uses all the dimming rates used for the calibration processing. The illumination parameter is acquired based on the image acquired for (Step S401).

図17は、校正処理において取得された照明パラメータの具体例を示す図である。
図17において、縦軸は、画像センサ3によって取得された画像から推定された照明の光量を表す。横軸は、各画像が取得されたときの照明機器2の調光率を表す。図17にプロットされた点は、各調光率において取得された画像から推定された照明の光量を表す。符号83は、プロットされた点の集合から推定された調光率と照明の光量との関係を表す照明パラメータ推定曲線である。照明パラメータgは、直線で近似された照明パラメータ推定曲線83の勾配で表されてもよいし、調光率を入力とする関数として表されてもよい。
FIG. 17 is a diagram illustrating a specific example of the illumination parameter acquired in the calibration process.
In FIG. 17, the vertical axis represents the amount of illumination estimated from the image acquired by the image sensor 3. The horizontal axis represents the dimming rate of the lighting device 2 when each image is acquired. The points plotted in FIG. 17 represent the illumination light amount estimated from the images acquired at each dimming rate. Reference numeral 83 denotes an illumination parameter estimation curve representing the relationship between the dimming rate estimated from the set of plotted points and the amount of illumination light. The illumination parameter g may be represented by the gradient of the illumination parameter estimation curve 83 approximated by a straight line, or may be represented as a function having the dimming rate as an input.

このように、画像センサ3の校正処理において、照明パラメータが校正されることによって、時間の経過による照明機器2の劣化を補正した照明機器2の制御が可能となる。具体的には、照明機器2の運用時においては、画像センサ3の明るさ推定部37は、校正後の照明パラメータと調光率とから照明の光量を算出する。明るさ推定部37は、算出された照明の光量を表す情報を照明制御装置43に送信する。照明制御装置43は、校正後の照明パラメータを用いて算出された照明の光量に基づいて調光率を決定し照明機器2を制御する。   As described above, in the calibration process of the image sensor 3, the illumination parameter is calibrated, so that the illumination device 2 can be controlled in which the deterioration of the illumination device 2 over time has been corrected. Specifically, when the lighting device 2 is in operation, the brightness estimation unit 37 of the image sensor 3 calculates the amount of illumination light from the calibrated illumination parameter and dimming rate. The brightness estimation unit 37 transmits information indicating the calculated amount of illumination light to the illumination control device 43. The illumination control device 43 controls the illumination device 2 by determining the dimming rate based on the amount of illumination light calculated using the calibrated illumination parameter.

以上、画像センサ3の校正処理の内容について述べた。上述した校正処理は、人の判断によって任意のタイミングで実行されてもよいが、対象の画像センサ3の数が多い場合、個々の画像センサ3に対する校正処理の実行を人手で入力するのには、多くの労力を要する。そのため、校正作業の労力を低減するために、校正処理の実行を制御する方法が用意されていることが望ましい。以下では、校正処理の実施タイミングを制御する方法の具体例と、校正対象の機器を管理し校正作業を支援するためのツール(以下、「校正ツール」という。)の具体例について説明する。校正ツールは、校正作業を行う利用者が使用する作業端末にインストールされて実行される。校正ツールは、画像センサ3及び照明制御装置43と通信することによって以下の機能を実現する。   The content of the calibration process of the image sensor 3 has been described above. The above-described calibration process may be executed at an arbitrary timing according to human judgment. However, when the number of target image sensors 3 is large, it is necessary to manually input the execution of the calibration process for each image sensor 3. , It takes a lot of effort. Therefore, in order to reduce the labor of the calibration work, it is desirable to provide a method for controlling the execution of the calibration process. Hereinafter, a specific example of a method for controlling the execution timing of calibration processing and a specific example of a tool for managing a calibration target device and supporting calibration work (hereinafter referred to as “calibration tool”) will be described. The calibration tool is installed and executed in a work terminal used by a user who performs calibration work. The calibration tool realizes the following functions by communicating with the image sensor 3 and the illumination control device 43.

まず、校正処理の実施タイミングを制御する方法の具体例について説明する。校正ツールは、利用者によって入力された校正処理の実施タイミングを、照明制御装置43に送信する。照明制御装置43は、送信された実施タイミングに基づいて校正処理を制御する。例えば、校正処理は、所定のタイミングで自動的に実行されるように制御されてもよい。例えば、校正処理が、隔週の所定の曜日に実行されるように制御されてもよい。例えば、校正処理が、カレンダーによって指定された日時に実行されるように制御されてもよい。   First, a specific example of a method for controlling the execution timing of the calibration process will be described. The calibration tool transmits the calibration processing execution timing input by the user to the illumination control device 43. The illumination control device 43 controls the calibration process based on the transmitted execution timing. For example, the calibration process may be controlled to be automatically executed at a predetermined timing. For example, the calibration process may be controlled to be executed on a predetermined day of every other week. For example, the calibration process may be controlled to be executed at a date and time designated by a calendar.

また、校正処理の実施タイミングは、画像センサ3が画像処理によって対象空間の状態を認識し、その認識された状態に応じて制御されてもよい。例えば、画像センサ3が画像処理によって人の在・不在を認識することによって、校正処理が無人の夜間に実行されるように制御されてもよい。例えば、画像センサ3が画像処理によって、照明の点灯・消灯を認識することによって、照明が点灯中のときには、校正処理が実行されないように制御されてもよい。例えば、画像センサ3が空間の反射率が変化したことを認識したときに、校正処理が実行されるように制御されてもよい。   Further, the execution timing of the calibration process may be controlled in accordance with the recognized state when the image sensor 3 recognizes the state of the target space by the image processing. For example, the image sensor 3 may be controlled so that the calibration process is performed at night when the person is unattended by recognizing the presence / absence of a person through image processing. For example, the image sensor 3 may be controlled so that the calibration process is not executed when the illumination is on by recognizing whether the illumination is on or off by image processing. For example, the calibration process may be executed when the image sensor 3 recognizes that the reflectance of the space has changed.

また、校正処理の実施のタイミングは、実行可能な時間帯又は実行不可能な時間帯を設定することによって制御されてもよい。
また、校正処理の実施のタイミングは、所定の単位ごとに制御されてもよい。例えば、個々の画像センサ3の単位で制御されてもよいし、複数の画像センサ3を1つの単位として制御されてもよい。例えば、画像センサ3が設置された建物やフロアを1つの単位として制御されてもよい。
In addition, the timing of performing the calibration process may be controlled by setting a feasible time zone or an infeasible time zone.
Further, the timing of performing the calibration process may be controlled for each predetermined unit. For example, it may be controlled in units of individual image sensors 3, or may be controlled in units of a plurality of image sensors 3. For example, a building or floor where the image sensor 3 is installed may be controlled as one unit.

また、校正処理の実施のタイミングは、照明制御装置43や画像センサ3などの機器が他の装置又はシステムと連携することによって制御されてもよい。例えば、勤務管理システムや、入退官管理システムなどの外部システムと連携し、勤務中の人がいる場合は校正処理が実行されないように制御されてもよい。例えば、BEMSと連携し、BEMSから通知されるレイアウトの変更などの契機に応じて制御されてもよい。
また、校正処理の実施のタイミングは、上記機器や装置、システム以外に、調整用のPC(Personal Computer)やスマートフォン、タブレット、携帯電話などの情報機器によって遠隔制御されてもよい。
Further, the timing of performing the calibration process may be controlled by cooperation of devices such as the illumination control device 43 and the image sensor 3 with other devices or systems. For example, in cooperation with an external system such as a work management system or an entrance / exit management system, control may be performed so that the calibration process is not executed when there is a person working. For example, it may be controlled according to a trigger such as a layout change notified from BEMS in cooperation with BEMS.
In addition to the above-described devices, apparatuses, and systems, the timing of performing the calibration process may be remotely controlled by an information device such as a PC (Personal Computer) for adjustment, a smartphone, a tablet, or a mobile phone.

図18及び図19は、校正ツールの具体例を示す図である。
図18の選択画面C1及び図19の選択画面C2は、ともに、校正ツールによって表示される、校正対象の画像センサ3を選択するための画面である。選択画面C1及びC2は、作業端末が備える表示部に表示される。
図18では、選択画面C1は、画像センサ3が設置されたフロアのフロアマップの態様で構成される。選択画面C1のフロアマップには、画像センサ3の位置に応じた選択オブジェクトC1−1及びC1−2が表示される。選択オブジェクトC1−1は、選択済みの画像センサ3を表し、選択オブジェクトC1−2は、未選択の画像センサ3を表す。選択オブジェクトC1−1及びC1−2は、オブジェクトの色や大きさ、形状などの表示形式の違いによって区別される。校正ツールの利用者は、キーボードやマウス、タッチパネルなどの入力デバイスを用いてこれらのオブジェクトを選択することによって、画像センサ3の選択と、選択の解除を入力する。校正ツールは、利用者によって選択された画像センサ3の情報を、照明制御装置43に送信する。照明制御装置43は、選択された画像センサ3の校正処理を制御する。このように、フロアマップの態様で表示された選択画面を用いることによって、利用者は、校正対象の機器の選択を容易に行うことができる。
18 and 19 are diagrams showing specific examples of the calibration tool.
The selection screen C1 in FIG. 18 and the selection screen C2 in FIG. 19 are both screens for selecting the image sensor 3 to be calibrated, which is displayed by the calibration tool. The selection screens C1 and C2 are displayed on a display unit included in the work terminal.
In FIG. 18, the selection screen C1 is configured in the form of a floor map of the floor on which the image sensor 3 is installed. Selection objects C1-1 and C1-2 corresponding to the position of the image sensor 3 are displayed on the floor map of the selection screen C1. The selected object C1-1 represents the selected image sensor 3, and the selected object C1-2 represents the unselected image sensor 3. The selected objects C1-1 and C1-2 are distinguished by differences in display formats such as the color, size, and shape of the objects. The user of the calibration tool inputs selection of the image sensor 3 and cancellation of the selection by selecting these objects using an input device such as a keyboard, a mouse, or a touch panel. The calibration tool transmits information on the image sensor 3 selected by the user to the illumination control device 43. The illumination control device 43 controls the calibration process of the selected image sensor 3. Thus, by using the selection screen displayed in the form of the floor map, the user can easily select the calibration target device.

図19では、選択画面C2は、所定の区分に分類された画像センサ3をリスト形式で表示する態様で構成される。符号C2−1は、フロアごとのフロア区分を表す。符号C2−2及びC2−3は、フロア内で分割された領域ごとのゾーン区分を表す。画像センサ3は、所属するゾーン区分ごとにリスト形式で表示される。フロア区分C2−1、ゾーン区分
C2−2、ゾーン区分C2−3及びリストアップされた各画像センサ3は、それぞれ、選択を入力するためのチェックボックスを伴って表示される。校正ツールの利用者は、チェックボックスを選択することによって、対応する画像センサ3の選択と、選択の解除を入力する。このように、リスト形式で表示される選択画面を用いることによって、利用者は、区分ごとの画像センサ3の選択状況を容易に把握することができる。さらに、区分ごとに選択と、選択の解除がまとめて行えるため、校正対象の機器の選択を容易に行うことができる。
In FIG. 19, the selection screen C <b> 2 is configured in such a manner that the image sensors 3 classified into a predetermined category are displayed in a list format. A symbol C2-1 represents a floor section for each floor. Reference numerals C2-2 and C2-3 represent zone divisions for each area divided in the floor. The image sensor 3 is displayed in a list format for each zone section to which it belongs. The floor section C2-1, zone section C2-2, zone section C2-3, and each image sensor 3 listed are each displayed with a check box for inputting a selection. The user of the calibration tool inputs selection of the corresponding image sensor 3 and cancellation of the selection by selecting the check box. Thus, by using the selection screen displayed in the list format, the user can easily grasp the selection status of the image sensor 3 for each category. Furthermore, since selection and deselection can be performed collectively for each category, it is possible to easily select a calibration target device.

なお、校正ツールが表示する選択画面は、選択画面C1及び選択画面C2のいずれか一方に限らず、利用者によってどちらの画面を使用するかが選択されてもよい。また、画像センサ3の選択状況を共有し、選択画面C1及び選択画面C2を切り替えて表示することが可能なように構成されてもよい。また、選択画面C1及び選択場面C2によって選択された画像センサ3は、選択されたことによって校正処理を開始してもよいし、画像センサ3の選択とは別の操作によって、校正処理を開始してもよい。また、選択された画像センサ3は、同時に校正処理を開始してもよいし、別途設定されたタイミングにしたがって校正処理を開始してもよい。   Note that the selection screen displayed by the calibration tool is not limited to one of the selection screen C1 and the selection screen C2, and which screen to use may be selected by the user. Further, the selection status of the image sensor 3 may be shared, and the selection screen C1 and the selection screen C2 may be switched and displayed. In addition, the image sensor 3 selected by the selection screen C1 and the selection scene C2 may start the calibration process by being selected, or may start the calibration process by an operation different from the selection of the image sensor 3. May be. Further, the selected image sensor 3 may start the calibration process at the same time, or may start the calibration process according to a separately set timing.

図20は、校正ツールの具体例を示す図である。
図20の進捗画面C3は、校正ツールによって表示される、校正処理の進捗や実行結果を表示する画面である。進捗画面C3は、作業端末が備える表示部に表示される。校正ツールは、画像センサ3及び照明制御装置43から校正処理の進捗や実行結果を示す情報を取得する。図20では、進捗画面C3の態様は、選択画面C1と同様にフロアマップの態様で構成される。進捗画面C3のフロアマップには、画像センサ3の位置に応じた対象オブジェクトC3−1、C3−2及びC3−3が表示される。対象オブジェクトC3−1は、校正対象として選択された画像センサ3のうち、校正処理が完了していない画像センサ3を表す。対象オブジェクトC3−2は、校正対象として選択された画像センサ3のうち、校正が完了した画像センサ3を表す。対象オブジェクトC3−3は、校正対象として選択されなかった画像センサ3を表す。
FIG. 20 is a diagram illustrating a specific example of the calibration tool.
The progress screen C3 in FIG. 20 is a screen that displays the progress and execution result of the calibration process displayed by the calibration tool. The progress screen C3 is displayed on a display unit included in the work terminal. The calibration tool acquires information indicating the progress and execution result of the calibration process from the image sensor 3 and the illumination control device 43. In FIG. 20, the form of the progress screen C3 is configured in the form of a floor map in the same manner as the selection screen C1. The target objects C3-1, C3-2, and C3-3 corresponding to the position of the image sensor 3 are displayed on the floor map of the progress screen C3. The target object C3-1 represents an image sensor 3 that has not been calibrated among the image sensors 3 selected as the calibration target. The target object C3-2 represents the image sensor 3 that has been calibrated among the image sensors 3 selected as calibration targets. The target object C3-3 represents the image sensor 3 that has not been selected as a calibration target.

また、進捗画面C3には、対象オブジェクトごとに、校正結果C3−4が表示されてもよい。校正結果C3−4は、対応する対象オブジェクトが示す画像センサ3の校正処理の結果を表す。図20の例の場合、対象オブジェクトC3−2の校正処理の結果、空間の反射率が0.35から0.23に校正されたことを表している。また、進捗画面C3には、対象オブジェクトごとに、校正状況C3−5が表示されてもよい。校正状況C3−5は、対応する対象オブジェクトが示す画像センサ3の校正処理の状況を表す。図20の例の場合、校正状況C3−5は、対応する対象オブジェクトが示す画像センサ3の校正処理が実行中であることを表している。校正状況C3−5は、例えば、校正処理が終了すると、校正処理の結果を示す校正結果C3−4として表示されてもよい。   The progress result C3-4 may be displayed for each target object on the progress screen C3. The calibration result C3-4 represents the result of the calibration process of the image sensor 3 indicated by the corresponding target object. In the case of the example in FIG. 20, the reflectance of the space is calibrated from 0.35 to 0.23 as a result of the calibration process of the target object C <b> 3-2. The progress screen C3 may display a calibration status C3-5 for each target object. The calibration status C3-5 represents the status of the calibration process of the image sensor 3 indicated by the corresponding target object. In the case of the example of FIG. 20, the calibration status C3-5 represents that the calibration process of the image sensor 3 indicated by the corresponding target object is being executed. The calibration status C3-5 may be displayed as a calibration result C3-4 indicating the result of the calibration process, for example, when the calibration process is completed.

このように、画像センサ3ごとの校正処理の状況を表示する進捗画面を用いることによって、利用者は、校正作業の進捗を可視化することができる。
以下、実施形態の照明制御システム1の別形態の具体例について説明する。
Thus, by using the progress screen that displays the status of the calibration process for each image sensor 3, the user can visualize the progress of the calibration work.
Hereinafter, a specific example of another form of the illumination control system 1 of the embodiment will be described.

図21は、別形態の照明制御システム1aの構成を示すシステム構成図である。
照明制御システム1aは、実施形態の照明制御システム1を小型化したシステムである。図21において、図1と同様の構成要素には、図1と同様の符号を付すことにより説明を省略する。
照明制御システム1aは、照明制御装置43及び画像センサ3のみを備える点で照明制御システム1と異なる。小規模な照明制御システムを構成する場合、図21によって示される照明制御システム1aを構成することによって、照明制御システム1と同様の校正処理と、照明機器の制御とを実現することができる。
FIG. 21 is a system configuration diagram showing a configuration of another type of illumination control system 1a.
The illumination control system 1a is a system in which the illumination control system 1 of the embodiment is miniaturized. In FIG. 21, the same components as those in FIG. 1 are denoted by the same reference numerals as those in FIG.
The illumination control system 1a differs from the illumination control system 1 in that only the illumination control device 43 and the image sensor 3 are provided. When configuring a small-scale lighting control system, the same calibration processing as the lighting control system 1 and control of the lighting equipment can be realized by configuring the lighting control system 1a shown in FIG.

図22は、別形態の照明制御システム1bの構成を示すシステム構成図である。
照明制御システム1bは、実施形態の照明制御システム1に遮光装置と、遮光装置を制御する遮光制御装置とが付加されたシステムである。遮光装置とは、ブラインドやカーテンなどの遮光機能を有する装置である。照明制御システム1bは、遮光装置としてブラインド9−1〜9−3を備える。図22において、図1と同様の構成要素には、図1と同様の符号を付すことにより説明を省略する。
照明制御システム1bは、外部システム4に代えて外部システム4bを備える点で照明制御システム1と異なる。外部システム4bは、ブラインド制御装置44をさらに備える点で外部システム4と異なる。ブラインド制御装置44は、ブラインド9−1〜9−3を制御する装置である。ブラインド制御装置44が制御するブラインドの数は、図22と異なる数であってもよい。以下の説明では、特に区別しない限り、ブラインド9−1〜9−3をブラインド9と記す。
ブラインド制御装置44は、第4のネットワーク54を介してブラインド9と通信し、ブラインド9の動作を制御する。
FIG. 22 is a system configuration diagram showing a configuration of another form of illumination control system 1b.
The illumination control system 1b is a system in which a light shielding device and a light shielding control device that controls the light shielding device are added to the illumination control system 1 of the embodiment. The light shielding device is a device having a light shielding function such as a blind or a curtain. The illumination control system 1b includes blinds 9-1 to 9-3 as light shielding devices. In FIG. 22, the same components as those of FIG. 1 are denoted by the same reference numerals as those of FIG.
The illumination control system 1b is different from the illumination control system 1 in that an external system 4b is provided instead of the external system 4. The external system 4 b is different from the external system 4 in that it further includes a blind control device 44. The blind control device 44 is a device that controls the blinds 9-1 to 9-3. The number of blinds controlled by the blind control device 44 may be different from that in FIG. In the following description, the blinds 9-1 to 9-3 are referred to as blinds 9 unless otherwise distinguished.
The blind control device 44 communicates with the blind 9 via the fourth network 54 and controls the operation of the blind 9.

図23は、照明制御システム1bにおける画像センサ3の校正処理の流れを示すフローチャートである。
図23において、図16と同様の処理を行うステップには、図16と同様の符号を付すことにより説明を省略する。
まず、ブラインド制御装置44は、ブラインド9を制御し、ブラインドを下ろす(ステップS501)。次に、ステップS101〜ステップS401の処理を行うことによって、画像センサ3の校正処理を行う。画像センサ3の校正処理が完了すると、ブラインド制御装置44は、ブラインド9を制御し、ブラインドを上げる(ステップS502)。
このように、照明制御システム1にブラインド制御機能が追加されることによって、照明制御システム1bでは、校正処理の実行中に点灯される照明の光が建物の外に漏れることを抑制することができる。
FIG. 23 is a flowchart showing a flow of calibration processing of the image sensor 3 in the illumination control system 1b.
In FIG. 23, steps similar to those in FIG. 16 are denoted by the same reference numerals as those in FIG.
First, the blind controller 44 controls the blind 9 and lowers the blind (step S501). Next, the calibration processing of the image sensor 3 is performed by performing the processing of step S101 to step S401. When the calibration process of the image sensor 3 is completed, the blind control device 44 controls the blind 9 and raises the blind (step S502).
In this way, by adding the blind control function to the lighting control system 1, the lighting control system 1b can suppress the leakage of the lighting light that is turned on during execution of the calibration process. .

このように構成された実施形態の画像センサ3は、自装置が取得した対象空間の画像に基づいて明るさ推定パラメータ(空間の反射率)と照明パラメータとを取得する。そして、画像センサ3は、自装置に設定されている明るさ推定パラメータと照明パラメータとを、取得された明るさ推定パラメータ(空間の反射率)と照明パラメータとに校正する。そのため、照明機器2の校正を行う作業者は、照度計を用いて対象空間の明るさを計測する必要がなくなり、校正作業に要する労力を削減することが可能となる。   The image sensor 3 according to the embodiment configured as described above acquires the brightness estimation parameter (space reflectance) and the illumination parameter based on the image of the target space acquired by the device itself. Then, the image sensor 3 calibrates the brightness estimation parameter and the illumination parameter set in the apparatus to the acquired brightness estimation parameter (space reflectance) and the illumination parameter. Therefore, the operator who calibrates the lighting device 2 does not need to measure the brightness of the target space using the illuminometer, and the labor required for the calibration work can be reduced.

また、画像センサ3は、取得した画像に画像処理を行うことによって自装置の校正が必要か否かを判断することが可能である。そのため、画像センサ3は、明るさ推定パラメータが一時的な空間の状態の変化によって校正されることを抑制し、自装置の校正をより正確に行うことができる。
また、画像センサ3は、取得した画像に画像処理を行うことによって空間の反射率の変化を認識し、画像内の領域における変化の大きさを認識する。そして、画像センサ3は、変化の大きさに応じて校正用領域を設定する。そのため、画像センサ3は、自装置の校正をより正確に行うことができる。
また、実施形態の照明制御システム1において、画像センサ3を校正する作業者は、校正ツールを用いて校正処理を制御することが可能である。この校正ツールによって、作業者は、校正処理を行う対象の選択や、校正処理の実行、校正処理の結果の確認などを容易に行うことができるようになり、作業効率を向上させることができる。
Further, the image sensor 3 can determine whether or not calibration of its own device is necessary by performing image processing on the acquired image. Therefore, the image sensor 3 can suppress the brightness estimation parameter from being calibrated due to a temporary change in the state of the space, and can calibrate its own apparatus more accurately.
Further, the image sensor 3 recognizes the change in the reflectance of the space by performing image processing on the acquired image, and recognizes the magnitude of the change in the region in the image. Then, the image sensor 3 sets a calibration area according to the magnitude of the change. Therefore, the image sensor 3 can calibrate its own device more accurately.
In the illumination control system 1 of the embodiment, an operator who calibrates the image sensor 3 can control the calibration process using a calibration tool. With this calibration tool, the operator can easily select an object to be calibrated, execute the calibration process, and confirm the result of the calibration process, thereby improving work efficiency.

次に、本実施形態の変形例について説明する。
照明制御装置43は、外部システム4以外に配置されてもよい。例えば、照明制御装置43は、クラウド上に存在してもよいし、中央監視室や機械室などの場所に設置されてもよい。また、照明制御装置43の機能を、画像センサ3が備えてもよい。
画像センサ3は、撮像機能を有する装置と、それ以外の機能を異なる装置とが組み合わされて構成されてもよい。例えば、撮像部33と撮像制御部34とがカメラを用いて構成されてもよい。撮像部33及び撮像制御部34以外の機能を備える装置は、カメラ近くに配置されカメラと通信可能に構成されてもよい。また、撮像部33及び撮像制御部34以外の機能を備える装置は、照明制御装置43と同様に、クラウド上に存在してもよいし、中央監視室や機械室などの場所に設置されてもよい。
照明制御システム1が備える各ネットワークは、単一のネットワークとして構成されてもよい。また、各ネットワークは、有線のネットワークであってもよいし、無線のネットワークであってもよい。
Next, a modification of this embodiment will be described.
The illumination control device 43 may be arranged other than the external system 4. For example, the illumination control device 43 may exist on the cloud, or may be installed in a place such as a central monitoring room or a machine room. Further, the image sensor 3 may have the function of the illumination control device 43.
The image sensor 3 may be configured by combining a device having an imaging function and a device having a different function. For example, the imaging unit 33 and the imaging control unit 34 may be configured using a camera. An apparatus having functions other than the imaging unit 33 and the imaging control unit 34 may be arranged near the camera and configured to be communicable with the camera. In addition, an apparatus having functions other than the imaging unit 33 and the imaging control unit 34 may exist on the cloud, or be installed in a place such as a central monitoring room or a machine room, like the illumination control device 43. Good.
Each network provided in the lighting control system 1 may be configured as a single network. Each network may be a wired network or a wireless network.

実施形態の校正処理は、外光が影響しない状態で行われる必要がある。そのため、照明機器の校正作業は一般的に深夜に行われる。校正処理中は、照明機器2の点灯・消灯が繰り返される。そのため、照明制御装置43の校正制御部435は、校正処理の実施タイミングを周囲のビルの関係者に通知する機能を備えてもよい。例えば、周囲のビルの管理システムと通信し、監視画面にポップアップを表示することによって通知されてもよいし、メールの送信によって通知されてもよい。   The calibration processing of the embodiment needs to be performed in a state where the external light does not affect. For this reason, calibration of lighting equipment is generally performed at midnight. During the calibration process, the lighting device 2 is repeatedly turned on and off. Therefore, the calibration control unit 435 of the lighting control device 43 may have a function of notifying the related parties of the surrounding buildings of the execution timing of the calibration process. For example, it may be notified by communicating with a surrounding building management system and displaying a pop-up on a monitoring screen, or may be notified by sending an email.

以上説明した少なくともひとつの実施形態によれば、実施形態の画像センサ3は、自装置が撮像した対象空間の画像に基づいて対象空間の反射率を取得し、自装置に設定されている空間の反射率を校正する機能を持つことにより、画像センサ3の校正作業に要する労力を削減することができる。   According to at least one embodiment described above, the image sensor 3 of the embodiment acquires the reflectance of the target space based on the image of the target space captured by the own device, and the space of the space set in the own device. By having the function of calibrating the reflectance, the labor required for the calibration work of the image sensor 3 can be reduced.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1、1a、1b…照明制御システム,2、2−1〜2−3…照明機器,3、3−1〜3−3…画像センサ,31…記憶部,32…通信部,33…撮像部,34…撮像制御部,35…画像処理部,36…校正処理部,37…明るさ推定部,4…外部システム,41…BEMS,42…空調制御装置,43…照明制御装置,431…記憶部,432…第1通信部,433…第2通信部,434…明るさ制御部,435…校正制御部,44…ブラインド制御装置,51…第1のネットワーク,52…第2のネットワーク,53…第3のネットワーク,6…ゲートウェイ装置,7…HUB,81…特性曲線,82…推定曲線,83…照明パラメータ推定曲線,9、9−1〜9−3…ブラインド,A1…画像,A1−1…魚眼レンズの外周,A1−2…床,A1−3…机,A2…画像,A2−1…机,A3…画像,A3−1…壁,A4…画像,A4−1…レイアウトの変更領域,A5…画像,A5−1…レイアウトの変更領域,B…画像,B1…制御用領域,B2、B2−1、B2−2…校正用領域,C1…選択画面,C1−1、C1−2…選択オブジェクト,C2…選択画面、C2−1…フロア区分,C2−2、C2−3…ゾーン区分,C3…進捗画面,C3−1〜C3−3…対象オブジェクト,C3−4…校正結果,C3−5…校正状況 DESCRIPTION OF SYMBOLS 1, 1a, 1b ... Lighting control system, 2, 2-1 to 2-3 ... Lighting equipment, 3, 3-1 to 3-3 ... Image sensor, 31 ... Memory | storage part, 32 ... Communication part, 33 ... Imaging part , 34 ... Imaging control unit, 35 ... Image processing unit, 36 ... Calibration processing unit, 37 ... Brightness estimation unit, 4 ... External system, 41 ... BEMS, 42 ... Air conditioning control device, 43 ... Lighting control device, 431 ... Memory 432 ... first communication unit 433 ... second communication unit 434 ... brightness control unit 435 ... calibration control unit 44 ... blind control device 51 ... first network 52 ... second network 53 3rd network, 6 gateway apparatus, 7 HUB, 81 characteristic curve, 82 estimated curve, 83 illumination parameter estimated curve, 9, 9-1 to 9-3 blind, A1 image, A1- 1 ... outer periphery of fisheye lens, A1-2 ... A1-3 ... desk, A2 ... image, A2-1 ... desk, A3 ... image, A3-1 ... wall, A4 ... image, A4-1 ... layout change area, A5 ... image, A5-1 ... layout Change area, B ... image, B1 ... control area, B2, B2-1, B2-2 ... calibration area, C1 ... selection screen, C1-1, C1-2 ... selection object, C2 ... selection screen, C2- DESCRIPTION OF SYMBOLS 1 ... Floor division, C2-2, C2-3 ... Zone division, C3 ... Progress screen, C3-1 to C3-3 ... Target object, C3-4 ... Calibration result, C3-5 ... Calibration status

Claims (11)

空間の画像を取得する撮像部と、
前記画像及び前記空間の反射率に基づいて前記空間の明るさを推定する推定部と、
前記撮像部が所定のタイミングで取得する前記空間の画像に基づいて前記反射率を校正する校正部と、
を備える画像センサと、
前記校正部が前記反射率の校正処理を実施する際に前記空間の照明機器を所定の調光率で点灯させる校正制御部を備える照明制御装置と、
を備え、
前記校正部は、前記照明機器が前記調光率で点灯している状態で取得された前記空間の画像と、前記撮像部が前記画像の取得時に使用した撮像パラメータと、前記照明機器の調光率と出力光量との関係性を示す照明パラメータと、に基づいて前記反射率を取得する、
照明制御システム。
An imaging unit that acquires an image of the space;
An estimation unit that estimates the brightness of the space based on the reflectance of the image and the space;
A calibration unit that calibrates the reflectance based on an image of the space acquired by the imaging unit at a predetermined timing;
An image sensor comprising:
An illumination control device including a calibration control unit that turns on the lighting device in the space at a predetermined dimming rate when the calibration unit performs the calibration of the reflectance;
With
The calibration unit includes an image of the space acquired when the lighting device is lit at the dimming rate, an imaging parameter used by the imaging unit when acquiring the image, and dimming of the lighting device. Obtaining the reflectance based on illumination parameters indicating the relationship between the rate and the amount of output light,
Lighting control system.
前記画像センサは、前記画像の画像処理によって前記空間の明るさの変化を検出する画像処理部をさらに備え、
前記校正部は、前記変化の有無に応じて前記反射率の校正処理を実行する、
請求項1に記載の照明制御システム。
The image sensor further includes an image processing unit that detects a change in brightness of the space by image processing of the image,
The calibration unit executes the reflectance calibration process according to the presence or absence of the change,
The lighting control system according to claim 1.
前記画像処理部は、前記画像内で明るさが変化した領域を検出し、検出した領域のうち明るさの変化量が小さい領域にマスク処理を行い、
前記校正部は、前記画像内でマスクされていない領域の画像に基づいて前記反射率を推定する、
請求項2に記載の照明制御システム。
The image processing unit detects an area where the brightness has changed in the image, performs a mask process on an area where the change in brightness is small among the detected areas,
The calibration unit estimates the reflectance based on an image of an unmasked area in the image;
The lighting control system according to claim 2.
前記校正部は、前記所定のタイミングにおいて取得された前記空間の画像に基づいて前記照明パラメータを校正する、
請求項1から3のいずれか一項に記載の照明制御システム。
The calibration unit calibrates the illumination parameter based on the image of the space acquired at the predetermined timing.
The illumination control system according to any one of claims 1 to 3.
前記校正部は、前記画像処理部によって前記反射率の変化が検出されなかった場合に、前記所定のタイミングにおいて取得された前記空間の画像に基づいて前記照明パラメータの校正処理を実行する、
請求項2又は3に記載の照明制御システム。
The calibration unit executes the calibration process of the illumination parameter based on the image of the space acquired at the predetermined timing when the change in the reflectance is not detected by the image processing unit.
The illumination control system according to claim 2 or 3 .
前記照明制御システムは、前記空間に設置された遮光装置を制御する遮光制御装置をさらに備え、
前記校正制御部は、前記画像センサが前記空間の反射率又は前記照明パラメータの校正処理を行うとき、前記遮光制御装置に前記空間の遮光動作を指示する、
請求項1から5のいずれか一項に記載の照明制御システム。
The illumination control system further includes a light shielding control device that controls a light shielding device installed in the space,
The calibration control unit instructs the light shielding control device to perform a light shielding operation of the space when the image sensor performs calibration processing of the reflectance of the space or the illumination parameter.
The illumination control system according to any one of claims 1 to 5.
前記照明制御システムは、校正対象の画像センサを選択する操作、又は校正処理を実施するタイミングの入力を受け付け、入力された情報を前記照明制御装置に送信する端末装置をさらに備え、
前記校正制御部は、前記情報に基づいて前記校正処理を実行させる対象となる画像センサ又は校正処理の実施タイミングを制御し、
前記端末装置は、前記画像センサ及び前記照明制御装置から校正処理の状況を表す情報を取得して表示する、
請求項1から6のいずれか一項に記載の照明制御システム。
The illumination control system further includes a terminal device that receives an input of an operation for selecting an image sensor to be calibrated, or timing for performing a calibration process, and transmits the input information to the illumination control device,
The calibration control unit controls the execution timing of the image sensor or the calibration process that is a target for executing the calibration process based on the information,
The terminal device acquires and displays information representing the status of calibration processing from the image sensor and the illumination control device,
The illumination control system according to any one of claims 1 to 6.
前記校正制御部は、校正処理を実施するタイミングを他の装置に通知する、
請求項1から7のいずれか一項に記載の照明制御システム。
The calibration control unit notifies other devices of the timing for performing the calibration process.
The lighting control system according to any one of claims 1 to 7.
画像センサが、空間を撮像する撮像部により前記空間の画像を取得する撮像ステップと、
前記画像センサが、前記画像及び前記空間の反射率に基づいて前記空間の明るさを推定する推定ステップと、
前記画像センサが、前記撮像部が所定のタイミングで取得する前記空間の画像に基づいて前記反射率を校正する校正ステップと、
照明制御装置が、前記反射率の校正ステップが実施される際に前記空間の照明機器を所定の調光率で点灯させる校正制御ステップと、
を有し、
前記校正ステップにおいて、画像センサは前記照明機器が前記調光率で点灯している状態で取得された前記空間の画像と、前記撮像部が前記画像の取得時に使用した撮像パラメータと、前記照明機器の調光率と出力光量との関係性を示す照明パラメータと、に基づいて前記反射率を取得する、
画像センサ校正方法。
An imaging step in which an image sensor acquires an image of the space by an imaging unit that images the space;
An estimation step in which the image sensor estimates the brightness of the space based on the reflectance of the image and the space;
A calibration step in which the image sensor calibrates the reflectance based on an image of the space acquired by the imaging unit at a predetermined timing;
A calibration control step for lighting the lighting device in the space at a predetermined dimming rate when the reflectance calibration step is performed;
Have
In the calibration step, the image sensor includes an image of the space acquired in a state where the lighting device is lit at the dimming rate, an imaging parameter used by the imaging unit when acquiring the image, and the lighting device. Obtaining the reflectance based on the illumination parameter indicating the relationship between the dimming rate and the output light amount,
Image sensor calibration method.
空間の画像を取得する撮像部と、
前記画像及び前記空間の反射率に基づいて前記空間の明るさを推定する推定部と、
前記撮像部が所定のタイミングで取得する前記空間の画像に基づいて前記反射率を校正する校正部と、
を備え、
前記校正部は、前記空間の照明機器が所定の調光率で点灯している状態で取得された前記空間の画像と、前記撮像部が前記画像の取得時に使用した撮像パラメータと、前記照明機器の調光率と出力光量との関係性を示す照明パラメータと、に基づいて前記反射率を取得する、
画像センサ。
An imaging unit that acquires an image of the space;
An estimation unit that estimates the brightness of the space based on the reflectance of the image and the space;
A calibration unit that calibrates the reflectance based on an image of the space acquired by the imaging unit at a predetermined timing;
With
The calibration unit includes an image of the space acquired when the lighting device in the space is lit at a predetermined dimming rate, an imaging parameter used by the imaging unit when acquiring the image, and the lighting device. Obtaining the reflectance based on the illumination parameter indicating the relationship between the dimming rate and the output light amount,
Image sensor.
コンピュータを請求項10に記載の画像センサとして機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as the image sensor according to claim 10.
JP2014106283A 2014-05-22 2014-05-22 Illumination control system, image sensor, image sensor calibration method, and computer program Active JP6407562B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014106283A JP6407562B2 (en) 2014-05-22 2014-05-22 Illumination control system, image sensor, image sensor calibration method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014106283A JP6407562B2 (en) 2014-05-22 2014-05-22 Illumination control system, image sensor, image sensor calibration method, and computer program

Publications (2)

Publication Number Publication Date
JP2015222641A JP2015222641A (en) 2015-12-10
JP6407562B2 true JP6407562B2 (en) 2018-10-17

Family

ID=54785557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014106283A Active JP6407562B2 (en) 2014-05-22 2014-05-22 Illumination control system, image sensor, image sensor calibration method, and computer program

Country Status (1)

Country Link
JP (1) JP6407562B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6681593B2 (en) * 2016-03-17 2020-04-15 パナソニックIpマネジメント株式会社 Illuminance acquisition system, lighting control system, and illuminance acquisition program
JP6797560B2 (en) * 2016-05-26 2020-12-09 株式会社東芝 Sensors, communication methods and communication programs

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4120287B2 (en) * 2002-06-18 2008-07-16 東芝ライテック株式会社 Lighting control system
JP4021351B2 (en) * 2003-03-24 2007-12-12 株式会社新川 BONDING LIGHTING DEVICE AND BONDING LIGHTING DEVICE CALIBRATION METHOD
JP2006065039A (en) * 2004-08-27 2006-03-09 Olympus Corp Calibration system in image display device, and screen device for image display
JP5496580B2 (en) * 2009-08-31 2014-05-21 株式会社ミツトヨ LIGHTING DEVICE AND LIGHTING DEVICE CALIBRATION METHOD
JP5726792B2 (en) * 2012-03-12 2015-06-03 株式会社東芝 Information processing apparatus, image sensor apparatus, and program

Also Published As

Publication number Publication date
JP2015222641A (en) 2015-12-10

Similar Documents

Publication Publication Date Title
US9137449B2 (en) Luminance estimation model generation device, image sensor device, and computer program product
US8630745B2 (en) Energy consumption management system and energy consumption management apparatus
ES2796312T3 (en) System and method to maintain the performance of building automation system
EP2669589A1 (en) Control device, control method, and program
WO2014156097A1 (en) Air conditioning management device, air conditioning system, and program
US10365619B2 (en) Technologies for optimally individualized building automation
CN102402694A (en) Display control apparatus and display control method
JP6407562B2 (en) Illumination control system, image sensor, image sensor calibration method, and computer program
JP2015208224A (en) Electric apparatus control device electric apparatus control system, and program
CN110892207B (en) Indoor environment weighted preference management
US20210037174A1 (en) Devices and methods for security camera installation planning
JP2015231128A (en) Adjusting terminal, adjusting method, and computer program
JP2019033355A (en) Radio quality management system, terminal, radio quality management method and program
US20190293318A1 (en) Prognostics system and method for hvac system comfort failure forecasting
US20190310589A1 (en) Neural network combining visible and thermal images for inferring environmental data of an area of a building
JP2015210062A (en) Indoor equipment controller and air conditioner including the same, and method for controlling indoor equipment controller
JP2018157444A (en) Image display device, image adjustment method of image display device, and image adjustment program
JP2017073633A (en) Information processing device, communication system, communication control method and program
JP6905576B2 (en) Spatial environment analysis evaluation system
DE102013103851B4 (en) Method for controlling building system technology actuators
KR101581836B1 (en) Apparatus for detecting EUV dimming phenomenon and method thereof
JP2010217133A (en) Adaptation point prediction device, perception color prediction device, adaptation point prediction method and perception color prediction method
KR20190013044A (en) Indoor thermostat with built-in camera for angle adjustment and zoom
KR102461697B1 (en) Growth monitoring device for broiler weight management reaching slaughter weight
JP2016119514A (en) Remote control system, remote control method, controller, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170308

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170911

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180919

R150 Certificate of patent or registration of utility model

Ref document number: 6407562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150